WordNet: Markoff chain, Markov chain
a Markov process for which the parameter is discrete time values
- hypernym Markoff process, Markov process
Markoff chain
- (suomi) Markovin ketju (synonyymi)
Markov chain
- (suomi) Markovin ketju (synonyymi)
- (suomi) Markov-ketju (synonyymi)