株価は明日上がるのか下がるのか、ノイズまみれのセンサ信号はどう揺らぐのか、衛星の軌道誤差は時間とともにどう広がるのか――私たちの周りには「時間とともにランダムに変化する現象」があふれています。こうした現象を統一的に扱うための数学的枠組みが 確率過程(stochastic process) です。
確率過程は確率論・統計学の重要な柱であり、時系列分析、信号処理、金融工学、制御工学、物理シミュレーションなど極めて広い分野の基盤となっています。確率過程を学ぶことで、マルコフ連鎖モンテカルロ法(MCMC)やカルマンフィルタ、ガウス過程回帰といった応用手法の理論的背景も明確になります。
本記事の内容
- 確率過程の定義と直感的な理解
- 離散/連続 × 時間/状態空間 の4分類
- 代表的な確率過程(ランダムウォーク、ポアソン過程、ブラウン運動、マルコフ連鎖)
- 定常性とマルコフ性の数学的定義
- ガウス過程への接続
- Pythonでのサンプルパス可視化
前提知識
この記事を読む前に、以下の記事を読んでおくと理解が深まります。
確率過程とは
確率過程とは、大雑把に言うと「時間の関数が確率変数になっているもの」です。
通常の確率変数 $X$ は、1回のランダムな試行で1つの値を出す”点”のようなものです。一方、確率過程はランダムな試行のたびに 時間の関数(パス全体) が1本出力されます。イメージとしては、サイコロを1回振ると1つの数が出るのが確率変数、サイコロを振ると「曲線が1本丸ごと生成される」のが確率過程です。
たとえば株価の時系列を思い浮かべてください。毎日の終値を並べると折れ線グラフが1本できます。これが1つの「サンプルパス」です。歴史が別の道筋をたどっていたら、まったく異なる折れ線になっていたでしょう。確率過程は、そのような「起こり得る全ての折れ線の集合」と「各折れ線が実現する確率」をまとめて記述する枠組みです。
確率過程の数学的定義
確率過程を数学的に厳密に定義します。
確率空間 $(\Omega, \mathcal{F}, P)$ が与えられたとき、添字集合 $T$ と状態空間 $S$ に対して、写像の族
$$ \{ X(t) : t \in T \} $$
を 確率過程 と呼びます。ここで各 $t \in T$ に対して $X(t) : \Omega \to S$ は確率変数です。
各記号の意味を整理しましょう。
- $\Omega$: 標本空間(起こり得る全ての結果の集合)
- $\mathcal{F}$: 事象の $\sigma$-加法族
- $P$: 確率測度
- $T$: 添字集合(index set) — 多くの場合「時間」を表します。$T = \{0, 1, 2, \dots\}$ なら離散時間、$T = [0, \infty)$ なら連続時間です
- $S$: 状態空間(state space) — $X(t)$ がとりうる値の集合です。$S = \{0, 1, 2, \dots\}$ なら離散状態、$S = \mathbb{R}$ なら連続状態です
- $\omega \in \Omega$: 標本点。$\omega$ を1つ固定すると $t \mapsto X(t, \omega)$ は $T$ から $S$ への通常の関数になります
つまり、確率過程は「2つの引数 $(t, \omega)$ を持つ関数」 $X(t, \omega)$ とも見なせます。この2つの引数のどちらを固定するかで、2通りの解釈が得られます。
見方1: $\omega$ を固定 → サンプルパス
$\omega$ を1つ固定すると、$X(\cdot, \omega) : T \to S$ は時間の通常の関数になります。これが1本の サンプルパス(sample path) あるいは 実現値(realization) です。
見方2: $t$ を固定 → 確率変数
$t$ を1つ固定すると、$X(t, \cdot) : \Omega \to S$ はある時刻における確率変数です。この確率変数の分布が、時刻 $t$ での値のばらつきを記述します。
確率過程の分類:4象限
確率過程は 時間(添字集合 $T$) と 状態空間 $S$ がそれぞれ離散か連続かで、大きく4種類に分類できます。
| 離散状態空間 | 連続状態空間 | |
|---|---|---|
| 離散時間 | マルコフ連鎖、ランダムウォーク(整数値) | 離散時間ガウス過程、ARモデル |
| 連続時間 | ポアソン過程、出生・死滅過程 | ブラウン運動(ウィーナー過程)、オルンシュタイン-ウーレンベック過程 |
この4分類を意識しておくと、新しい確率過程に出会ったときに性質を推測しやすくなります。以降のセクションでは、各象限から代表的な確率過程を取り上げて解説します。
代表的な確率過程
ランダムウォーク(Random Walk)
最も基本的な確率過程です。離散時間・離散状態空間に属します。
各時刻 $n = 1, 2, 3, \dots$ で独立同分布の確率変数 $Z_i$ を加えていきます。最も単純な場合、$+1$ か $-1$ に等確率で動くものを単純ランダムウォークと呼びます。
$$ S_n = \sum_{i=1}^{n} Z_i, \quad Z_i \overset{\text{i.i.d.}}{\sim} \begin{cases} +1 & \text{確率 } 1/2 \\ -1 & \text{確率 } 1/2 \end{cases} $$
期待値と分散を計算してみましょう。$Z_i$ は独立なので、
$$ \begin{align} E[Z_i] &= (+1) \cdot \frac{1}{2} + (-1) \cdot \frac{1}{2} = 0 \\ \text{Var}(Z_i) &= E[Z_i^2] – (E[Z_i])^2 = 1 – 0 = 1 \end{align} $$
から、ランダムウォーク $S_n$ の平均と分散は次のようになります。
$$ \begin{align} E[S_n] &= \sum_{i=1}^{n} E[Z_i] = 0 \\ \text{Var}(S_n) &= \sum_{i=1}^{n} \text{Var}(Z_i) = n \quad (\because Z_i \text{ は独立}) \end{align} $$
時間が経つほど分散が線形に増大する、つまり「拡散」していくのがランダムウォークの特徴です。分散が時刻 $n$ に依存するため、ランダムウォークは非定常過程です。
ポアソン過程(Poisson Process)
連続時間・離散状態空間の代表例です。「ある事象が時間軸上でランダムに発生する」モデルで、コールセンターへの着信、放射性崩壊のカウント、Webサーバーへのアクセスなどに使われます。
強度(rate)$\lambda > 0$ のポアソン過程 $\{N(t), t \geq 0\}$ は以下の性質を満たします。
- $N(0) = 0$
- 独立増分性: 重ならない時間区間での増分は互いに独立
- 定常増分性: 増分の分布は区間の長さのみに依存し、開始時刻には依存しない
- 長さ $t$ の区間における増分はパラメータ $\lambda t$ のポアソン分布に従う
$$ P(N(t+s) – N(s) = k) = \frac{(\lambda t)^k e^{-\lambda t}}{k!} \quad (k = 0, 1, 2, \dots) $$
ポアソン過程の平均と分散は次の通りです。
$$ E[N(t)] = \lambda t, \quad \text{Var}(N(t)) = \lambda t $$
事象間の時間間隔(到着間隔)は、レート $\lambda$ の指数分布に従います。これはポアソン過程の無記憶性(マルコフ性)と深く関係しています。
ブラウン運動(Brownian Motion / ウィーナー過程)
連続時間・連続状態空間の最も基本的な確率過程であり、確率解析の土台となるものです。
標準ブラウン運動 $\{B(t), t \geq 0\}$ は以下を満たします。
- $B(0) = 0$
- 独立増分性: $0 \leq t_1 < t_2 < \cdots < t_n$ に対して $B(t_2) - B(t_1), B(t_3) - B(t_2), \dots$ は互いに独立
- 正規増分性: $B(t) – B(s) \sim \mathcal{N}(0, t – s) \quad (0 \leq s < t)$
- サンプルパスは連続(ただし至るところ微分不可能)
ブラウン運動の平均と自己共分散関数を求めてみましょう。平均は正規増分性から直ちに $E[B(t)] = 0$ です。自己共分散は、$t_1 \leq t_2$ のとき、
$$ \begin{align} \text{Cov}(B(t_1), B(t_2)) &= \text{Cov}(B(t_1),\, B(t_1) + (B(t_2) – B(t_1))) \\ &= \text{Cov}(B(t_1), B(t_1)) + \text{Cov}(B(t_1), B(t_2) – B(t_1)) \\ &= \text{Var}(B(t_1)) + 0 \quad (\because \text{独立増分性}) \\ &= t_1 \\ &= \min(t_1, t_2) \end{align} $$
となります。分散が $\text{Var}(B(t)) = t$ と時間に依存するため、ブラウン運動は非定常過程です。
ブラウン運動はランダムウォークの連続時間版と見なすこともできます。実際、ランダムウォークのステップ幅と時間刻みを同時に0に近づける適切な極限操作(ダンスカー・インバリアンス原理)によりブラウン運動が得られます。
マルコフ連鎖(Markov Chain)
離散時間・離散状態空間で「マルコフ性」を持つ確率過程です。直感的には「次の状態は現在の状態だけで決まり、過去の履歴には依存しない」という性質を持ちます。
有限または可算無限の状態空間 $S = \{s_1, s_2, \dots\}$ 上で、各時刻の状態遷移がマルコフ性を満たす確率過程がマルコフ連鎖です。
$$ P(X_{n+1} = s_j \mid X_n = s_i, X_{n-1}, \dots, X_0) = P(X_{n+1} = s_j \mid X_n = s_i) $$
遷移確率が時刻 $n$ に依存しないとき(時間斉次)、遷移確率行列 $\bm{P}$ で完全に特徴づけられます。
$$ P_{ij} = P(X_{n+1} = j \mid X_n = i) $$
$\bm{P}$ の各行の和は1になります。
$$ \sum_{j} P_{ij} = 1 \quad (\forall i) $$
天気の遷移モデル、PageRankアルゴリズム、隠れマルコフモデル(HMM)など、離散的な状態遷移を記述する場面で広く利用されます。
定常性
確率過程の統計的性質が時間によらず一定であるとき、その過程は 定常(stationary) であると言います。定常性には厳密さの度合いに応じて2つの定義があります。
強定常(Strict-Sense Stationary, SSS)
確率過程 $\{X(t)\}$ が 強定常 であるとは、任意の $n \geq 1$、任意の時刻 $t_1, t_2, \dots, t_n$ および任意の時間シフト $\tau$ に対して、確率変数ベクトル $(X(t_1), X(t_2), \dots, X(t_n))$ と $(X(t_1 + \tau), X(t_2 + \tau), \dots, X(t_n + \tau))$ の同時分布が等しいことです。
$$ F_{X(t_1), \dots, X(t_n)}(x_1, \dots, x_n) = F_{X(t_1+\tau), \dots, X(t_n+\tau)}(x_1, \dots, x_n), \quad \forall \tau $$
つまり、有限次元の同時分布が時間シフトに対して完全に不変です。これは非常に強い条件であり、直接検証することは困難な場合がほとんどです。
強定常から分かることをいくつか挙げます。$n=1$ とおくと $X(t)$ の周辺分布が全ての $t$ で同じになるため、平均 $E[X(t)]$ や分散 $\text{Var}(X(t))$ は(存在すれば)時刻に依存しません。$n=2$ とおくと $X(t_1)$ と $X(t_2)$ の同時分布が時間差 $t_2 – t_1$ のみに依存するため、自己共分散関数も時間差のみの関数になります。
弱定常(Wide-Sense Stationary, WSS)
実用上は強定常の条件は厳しすぎるため、弱定常(広義定常、2次定常)がよく用いられます。$\{X(t)\}$ が弱定常であるとは以下の2条件を満たすことです。
条件1: 平均が一定
$$ E[X(t)] = \mu \quad (\text{全ての } t \text{ で同じ定数}) $$
条件2: 自己共分散が時間差のみの関数
$$ \text{Cov}(X(t_1), X(t_2)) = C(t_1 – t_2) $$
弱定常では1次・2次のモーメント(平均・共分散)に関する条件だけを要求するため、強定常よりもかなり緩い条件です。$\tau = 0$ とおくと $C(0) = \text{Var}(X(t))$ なので、分散も時刻に依存しないことが自動的に導かれます。
2次モーメントが存在する強定常過程は必ず弱定常ですが、逆は一般には成り立ちません。ただし、ガウス過程の場合は弱定常と強定常が一致します。これは多変量正規分布が平均と共分散で完全に決定されるためです。
具体例: ホワイトノイズ $\{W_n\}$ で $E[W_n] = 0$、$\text{Cov}(W_{n_1}, W_{n_2}) = \sigma^2 \delta_{n_1, n_2}$($\delta$ はクロネッカーのデルタ)を満たすものは弱定常です。一方、ランダムウォーク $S_n$ は $\text{Var}(S_n) = n$ なので非定常です。
マルコフ性
マルコフ性は確率過程の中で最も重要な構造的性質の1つです。
マルコフ性の定義
確率過程 $\{X(t)\}$ が マルコフ性(Markov property) を持つとは、任意の時刻 $t_1 < t_2 < \cdots < t_n < t_{n+1}$ に対して次が成り立つことです。
$$ P(X(t_{n+1}) \leq x \mid X(t_n), X(t_{n-1}), \dots, X(t_1)) = P(X(t_{n+1}) \leq x \mid X(t_n)) $$
直感的には「未来は過去に依存せず、現在の状態だけで決まる」という性質です。これは無記憶性(memoryless property)とも呼ばれます。
マルコフ性を持つ確率過程をマルコフ過程と呼びます。マルコフ過程を、時間と状態空間の離散・連続で分類すると次のようになります。
| 離散状態 | 連続状態 | |
|---|---|---|
| 離散時間 | マルコフ連鎖 | 離散時間マルコフ過程 |
| 連続時間 | 連続時間マルコフ連鎖 | 拡散過程(ブラウン運動など) |
遷移確率とチャップマン-コルモゴロフ方程式
離散時間の場合、マルコフ性を持つ確率過程の挙動は 遷移確率 で完全に記述できます。
$$ p(x_{n+1} \mid x_n) = P(X_{n+1} = x_{n+1} \mid X_n = x_n) $$
さらに遷移確率が時刻 $n$ に依存しない場合(時間斉次)、遷移確率行列 $\bm{P}$ を1つ決めれば過程の統計的性質がすべて分かります。
$k$ ステップ後の遷移確率は行列のべき乗で計算できます。
$$ P(X_{n+k} = j \mid X_n = i) = (\bm{P}^k)_{ij} $$
これは チャップマン-コルモゴロフ方程式 の帰結です。
$$ (\bm{P}^{m+n})_{ij} = \sum_k (\bm{P}^m)_{ik} (\bm{P}^n)_{kj} $$
この式は「$m$ ステップ進んだ後にさらに $n$ ステップ進む」という分割が、中間状態 $k$ を経由するすべての経路の和として表されることを意味しています。
マルコフ性を持つ確率過程の例
上で紹介した代表的な確率過程のうち、次のものはすべてマルコフ性を持ちます。
- ランダムウォーク: $S_{n+1} = S_n + Z_{n+1}$ なので、次の値は $S_n$ だけに依存
- ブラウン運動: 独立増分性からマルコフ性を持つ
- ポアソン過程: 同様に独立増分性からマルコフ性を持つ
一方、AR(2)以上の自己回帰モデル $X_n = \phi_1 X_{n-1} + \phi_2 X_{n-2} + \epsilon_n$ は、$X_n$ だけでは次の値が決まらず $X_{n-1}$ の情報も必要なので、単独ではマルコフ性を持ちません。ただし、状態ベクトル $(X_n, X_{n-1})$ を1つの状態と見なせばマルコフ性を回復できます。
ガウス過程への接続
ガウス過程(Gaussian Process, GP) は、有限次元分布がすべて多変量正規分布であるような確率過程です。
ガウス過程の定義
確率過程 $\{X(t), t \in T\}$ がガウス過程であるとは、任意の $n \geq 1$ と任意の時刻 $t_1, t_2, \dots, t_n \in T$ に対して、確率変数ベクトル $(X(t_1), X(t_2), \dots, X(t_n))$ が $n$ 次元多変量正規分布に従うことです。
$$ (X(t_1), X(t_2), \dots, X(t_n)) \sim \mathcal{N}(\bm{\mu}, \bm{K}) $$
ここで
$$ \mu_i = E[X(t_i)] = m(t_i) $$
$$ K_{ij} = \text{Cov}(X(t_i), X(t_j)) = k(t_i, t_j) $$
です。関数 $m(t)$ を 平均関数、$k(t, t’)$ を カーネル関数(共分散関数) と呼びます。
ガウス過程の重要な性質
ガウス過程が応用上非常に便利である理由は、以下の性質にあります。
平均関数とカーネル関数で完全に決定される: 多変量正規分布は平均ベクトルと共分散行列で完全に特徴づけられます。したがって、ガウス過程は $m(t)$ と $k(t, t’)$ の2つだけで完全に記述できます。
弱定常 ⇔ 強定常: 先述のように、ガウス過程の場合は弱定常であれば自動的に強定常です。平均と共分散で分布が決まるため、弱定常の条件(平均一定、共分散が時間差のみに依存)を満たせば有限次元分布すべてが時間シフト不変になります。
条件付き分布もガウス: ガウス過程のある時刻の値が観測された場合、残りの時刻の条件付き分布もガウス過程になります。これがガウス過程回帰の計算をエレガントにしている理由です。
代表的なカーネル関数
カーネル関数はガウス過程の「性格」を決定します。代表的なものとして RBFカーネル(二乗指数カーネル) があります。
$$ k(t, t’) = \sigma^2 \exp\left( -\frac{(t – t’)^2}{2 \ell^2} \right) $$
ここで $\sigma^2$ は出力の分散スケール、$\ell$ はレングススケール(関数の滑らかさを制御するパラメータ)です。$\ell$ が大きいほどサンプルパスは滑らかになります。
確率過程としてのブラウン運動との関係
ブラウン運動もガウス過程の一種です。平均関数 $m(t) = 0$、カーネル関数 $k(t_1, t_2) = \min(t_1, t_2)$ で特徴づけられます。ただし分散が $\text{Var}(B(t)) = t$ と時間に依存するため、定常ではありません。
一方、ホワイトノイズ $\{W_n\}$($m(n) = 0$, $k(n_1, n_2) = \sigma^2 \delta_{n_1, n_2}$)は定常なガウス過程の典型例です。
機械学習におけるガウス過程回帰やベイズ最適化は、このガウス過程の枠組みを関数の事前分布として活用する手法です。詳しくは「ガウス過程回帰」の記事で解説しています。
Pythonでの実装:サンプルパスの可視化
確率過程の理解を深めるために、代表的な確率過程のサンプルパスをPythonで生成・可視化します。
ランダムウォーク・ホワイトノイズ・ブラウン運動の比較
まず、3つの基本的な確率過程を並べて比較します。
import numpy as np
import matplotlib.pyplot as plt
np.random.seed(42)
fig, axes = plt.subplots(3, 1, figsize=(10, 10))
# ----- 1. ランダムウォーク -----
n_steps = 500
n_paths = 5
for i in range(n_paths):
steps = np.random.choice([-1, 1], size=n_steps)
path = np.concatenate([[0], np.cumsum(steps)])
axes[0].plot(range(n_steps + 1), path, alpha=0.7, linewidth=0.8)
# 理論的な ±2σ の範囲
t_rw = np.arange(n_steps + 1)
axes[0].fill_between(t_rw, -2*np.sqrt(t_rw), 2*np.sqrt(t_rw),
alpha=0.1, color='gray', label=r'$\pm 2\sqrt{n}$')
axes[0].set_title("Random Walk (5 sample paths)")
axes[0].set_xlabel("Time step $n$")
axes[0].set_ylabel("$S_n$")
axes[0].axhline(y=0, color='k', linewidth=0.5, linestyle='--')
axes[0].legend()
axes[0].grid(True, alpha=0.3)
# ----- 2. ホワイトノイズ(弱定常過程の例)-----
n_wn = 500
for i in range(n_paths):
wn = np.random.normal(0, 1, size=n_wn)
axes[1].plot(range(n_wn), wn, alpha=0.7, linewidth=0.8)
axes[1].set_title("White Noise (5 sample paths, stationary)")
axes[1].set_xlabel("Time step $n$")
axes[1].set_ylabel("$W_n$")
axes[1].axhline(y=0, color='k', linewidth=0.5, linestyle='--')
axes[1].grid(True, alpha=0.3)
# ----- 3. ブラウン運動 -----
n_bm = 1000
dt = 0.01 # 時間刻み
t_bm = np.arange(0, n_bm * dt + dt/2, dt)
for i in range(n_paths):
# ブラウン運動 = 正規分布の増分の累積和
dB = np.random.normal(0, np.sqrt(dt), size=n_bm)
B = np.concatenate([[0], np.cumsum(dB)])
axes[2].plot(t_bm, B, alpha=0.7, linewidth=0.8)
# ±2σの範囲を表示(σ = √t)
axes[2].fill_between(t_bm, -2*np.sqrt(t_bm), 2*np.sqrt(t_bm),
alpha=0.1, color='gray', label=r'$\pm 2\sqrt{t}$')
axes[2].set_title("Brownian Motion (5 sample paths)")
axes[2].set_xlabel("Time $t$")
axes[2].set_ylabel("$B(t)$")
axes[2].axhline(y=0, color='k', linewidth=0.5, linestyle='--')
axes[2].legend()
axes[2].grid(True, alpha=0.3)
plt.tight_layout()
plt.savefig("stochastic_processes.png", dpi=150, bbox_inches='tight')
plt.show()
このコードでは3つの確率過程を比較しています。それぞれの特徴を整理しましょう。
ランダムウォーク: 5本のサンプルパスを描画しています。灰色の帯は $\pm 2\sqrt{n}$ の範囲で、時間が進むにつれてパス間のばらつきが広がっていく様子が見て取れます。これは非定常性の典型的な表れです。
ホワイトノイズ: 各時刻の値が独立に $\mathcal{N}(0, 1)$ から生成されるため、パスはゼロ付近で一定の幅に収まり続けます。平均も分散も時間に依存しないため、弱定常です。ランダムウォークとの違いに注目してください。
ブラウン運動: サンプルパスは連続ですが非常に不規則で、分散が $t$ に比例して増大する非定常な挙動を示します。ランダムウォークの連続版であることが視覚的にも確認できます。
マルコフ連鎖のシミュレーション
次に、マルコフ連鎖の遷移行列を使ったシミュレーションを見てみましょう。
import numpy as np
import matplotlib.pyplot as plt
np.random.seed(123)
# 3状態のマルコフ連鎖(天気モデル: 0=晴れ, 1=曇り, 2=雨)
states = ["Sunny", "Cloudy", "Rainy"]
# 遷移確率行列
P = np.array([
[0.7, 0.2, 0.1], # 晴れ→{晴れ, 曇り, 雨}
[0.3, 0.4, 0.3], # 曇り→{晴れ, 曇り, 雨}
[0.2, 0.3, 0.5], # 雨 →{晴れ, 曇り, 雨}
])
n_steps = 100
n_chains = 3
fig, axes = plt.subplots(2, 1, figsize=(10, 7))
# --- サンプルパスの生成と描画 ---
for c in range(n_chains):
x = np.zeros(n_steps, dtype=int)
x[0] = np.random.choice(3) # 初期状態をランダムに選択
for i in range(1, n_steps):
x[i] = np.random.choice(3, p=P[x[i-1]])
axes[0].step(range(n_steps), x, where='post', alpha=0.8, linewidth=1.0)
axes[0].set_yticks([0, 1, 2])
axes[0].set_yticklabels(states)
axes[0].set_title("Markov Chain: Weather Model (3 sample paths)")
axes[0].set_xlabel("Time step")
axes[0].set_ylabel("State")
axes[0].grid(True, alpha=0.3)
# --- 定常分布への収束を確認 ---
P_power = np.eye(3)
stationary_history = []
for k in range(50):
P_power = P_power @ P
stationary_history.append(P_power[0].copy())
stationary_history = np.array(stationary_history)
for i, state in enumerate(states):
axes[1].plot(range(1, 51), stationary_history[:, i],
label=state, linewidth=1.5)
axes[1].set_title("Convergence to Stationary Distribution (starting from Sunny)")
axes[1].set_xlabel("Number of steps $k$")
axes[1].set_ylabel(r"$P(X_k = j \mid X_0 = \mathrm{Sunny})$")
axes[1].legend()
axes[1].grid(True, alpha=0.3)
plt.tight_layout()
plt.savefig("markov_chain.png", dpi=150, bbox_inches='tight')
plt.show()
このマルコフ連鎖のシミュレーションでは、天気(晴れ・曇り・雨)を3状態マルコフ連鎖としてモデル化しています。
上段: サンプルパスが離散状態間をジャンプする様子を示しています。各時刻での遷移は現在の状態だけに依存しており、マルコフ性が確認できます。
下段: 遷移行列のべき乗 $\bm{P}^k$ の第1行(初期状態が「晴れ」の場合の各状態の確率)が $k \to \infty$ で定常分布に収束する様子を示しています。十分なステップ数の後には初期状態の影響が消え、どの初期状態から出発しても同じ定常分布に落ち着きます。定常分布 $\bm{\pi}$ は $\bm{\pi} \bm{P} = \bm{\pi}$ を満たす確率ベクトルです。
まとめ
本記事では、確率過程の基礎を体系的に解説しました。
- 確率過程 は「時間の関数が確率変数になっている」ものであり、$\{X(t), t \in T\}$ と表される
- 時間(離散/連続)と状態空間(離散/連続)の組み合わせで4分類できる
- ランダムウォーク(離散時間・離散状態)、ポアソン過程(連続時間・離散状態)、ブラウン運動(連続時間・連続状態)、マルコフ連鎖(離散時間・離散状態・マルコフ性)が代表的な確率過程
- 定常性 には強定常(全有限次元分布が時間シフト不変)と弱定常(平均一定・共分散が時間差のみの関数)がある
- マルコフ性 は「未来は現在の状態だけで決まる」という性質で、遷移確率行列とチャップマン-コルモゴロフ方程式で記述される
- ガウス過程 は有限次元分布がすべて多変量正規分布となる確率過程で、平均関数とカーネル関数で完全に特徴づけられる
確率過程は広大なトピックであり、本記事はその入口に過ぎません。次のステップとして、以下の記事も参考にしてください。