марковский процесс
математический термин, статистический термин марковский процесс (разновидность дискретного или непрерывного случайного процесса; такой процесс называется марковским, если его можно полностью задать с помощью двух величин: вероятности P (x, t) того, что случайная величина х (t) в момент времени t = x, и вероятности того, что если величина x при t=t1 равна х 1, то при t=t2, она равна х 2)
noun a stochastic process (as Brownian motion) that resembles a Markov chain except that the states are continuous; also Markov chain — called also Markoff process
A process in which the sequence of events can be described by a Markov chain.