条件付き確率と独立性

確率論において、条件付き確率は「ある事象が起こったという情報のもとで別の事象の確率を評価する」概念であり、情報更新の数学的基盤を与えるものである。また独立性は、二つの事象が互いに影響を与えないことを形式化する概念である。

条件付き確率の定義

確率空間 $(\Omega, \mathcal{F}, P)$ において、事象 $B \in \mathcal{F}$ が $P(B) > 0$ を満たすとき、事象 $A \in \mathcal{F}$ の $B$ のもとでの条件付き確率は

\[P(A \mid B) = \frac{P(A \cap B)}{P(B)}\]

によって定義される。

この定義は、確率測度を $B$ に制限し、再正規化したものとして理解できる。

基本的性質

固定された事象 $B$ に対して、写像

\[A \mapsto P(A \mid B)\]

は $\mathcal{F}$ 上の確率測度となる。すなわち、

が成立する。

乗法定理

条件付き確率の定義より、次の関係が得られる:

\[P(A \cap B) = P(B) P(A \mid B) = P(A) P(B \mid A)\]

この関係は確率計算の基本的な道具である。

全確率の法則

$\{B_i\}_{i=1}^n$ が互いに排反であり、かつ

\[\bigcup_{i=1}^n B_i = \Omega\]

を満たすとき、任意の事象 $A$ に対して、

\[P(A) = \sum_{i=1}^n P(B_i) P(A \mid B_i)\]

が成立する。

ベイズの定理

全確率の法則を用いることで、条件付き確率を逆向きに評価する公式が得られる:

\[P(B_i \mid A) = \frac{P(B_i) P(A \mid B_i)}{\sum_{j} P(B_j) P(A \mid B_j)}\]

これは観測された事象 $A$ に基づいて原因 $B_i$ の確率を更新する公式であり、統計学および機械学習において重要な役割を果たす。

独立性の定義

二つの事象 $A, B \in \mathcal{F}$ が独立であるとは、

\[P(A \cap B) = P(A) P(B)\]

が成立することをいう。

このとき、もし $P(B) > 0$ であれば、

\[P(A \mid B) = P(A)\]

が成り立ち、条件付き確率が無条件確率と一致する。

複数事象の独立性

事象列 $A_1, A_2, \dots, A_n$ が互いに独立であるとは、任意の部分集合 $\{i_1, \dots, i_k\}$ に対して

\[P(A_{i_1} \cap \cdots \cap A_{i_k}) = \prod_{j=1}^k P(A_{i_j})\]

が成立することをいう。

単に

\[P(A_i \cap A_j) = P(A_i)P(A_j)\]

がすべての対について成り立つだけでは不十分であり、これは「対ごとの独立性」に過ぎない。

独立性と無相関性の違い

確率変数の場合、独立性は

\[P(X \in A, Y \in B) = P(X \in A) P(Y \in B)\]

として定義される。一方、無相関性は

\[\mathrm{Cov}(X,Y) = 0\]

を意味するに過ぎず、一般には独立性を含意しない。

まとめ

条件付き確率は情報の更新を定式化する概念であり、乗法定理やベイズの定理を通じて確率計算の基礎をなす。一方、独立性は事象間の非依存性を表す概念であり、確率の積構造として特徴づけられる。これらの概念は統計推論および確率モデルの構築において不可欠である。

Mathematics is the language with which God has written the universe.





















ベイズの定理 大数の法則(弱・強) 確率変数の定義 離散型確率分布 連続型確率分布