ユーザ用ツール

サイト用ツール


マルコフ連鎖

Markov chain

 有限個,または加算個の状態の間を確率的に推移する事象系列の中で,次の時点の推移先状態が,現在の状態だけに依存して決まる確率過程の系列.有限回の推移ですべての状態に到達可能である時は既約なマルコフ連鎖,到達不可能となる場合を含む時は吸収的なマルコフ連鎮という.推移確率が常に一定で定常的である場合を斉時的マルコフ過程と呼ぶが,この時は,n回の推移の後にある状態から特定の状態に至る確率を求めることが可能である.また,任意の時点で特定の状態にいる確率,すなわち状態確率分布も与えられる.