Markov Chains

Markovkedja

Svensk definition

Inom sannolikhetsteorin, speciellt teorin för stokastiska processer, modell för beskrivning av ett system som hoppar mellan olika tillstånd på så vis att framtiden beror av det förflutna endast genom nuet (2008-02-07 Källa Nationalencyklopedin http://www.ne.se/jsp/search/article.jsp?i_art_id=251446).

Engelsk definition

A stochastic process such that the conditional probability distribution for a state at any future instant, given the present state, is unaffected by any additional knowledge of the past history of the system.

Svenska synonymer

Inga svenska synonymer finns.

Engelska synonymer

Chains, Markov Markov Process Markov Processes Process, Markov Processes, Markov Markov Chain Chain, Markov