Processing math: 0%

情報エントロピー

定義:information entropy

ある事象の組み合わせで表される系において,情報量の期待値のことを情報エントロピー という.離散確率分布 P = {p_1, p_2, ..., p_n} に対する情報エントロピー H(P) は,p_i を各事象の確率, \log_2 を底2の対数[単位はビット]として,以下のように定義される.H(P)=i=1npilog2piまた,連続確率分布 f(x) に対する情報エントロピー[微分エントロピー]は以下のように定義される.H(f)=f(x)log2f(x)dx

各事象の情報量 I(x_i) は, p(x_i) を事象 x_i の確率とすると,I(xi)=log2p(xi)と定義される.従って,情報エントロピーは,各事象の情報量の期待値[平均]として解釈できる.H(P)=E[I(X)]=i=1npiI(xi)=i=1npilog2pi

エントロピーの性質

具体例

公平なコイン投げの場合の情報エントロピーは以下のようになる.H(P)=(12log212+12log212)=1 bit

正規分布との関係

正規分布は,与えられた平均と分散という制約条件下で最大の情報エントロピーを持つ唯一の分布である.ガンマ分布,ベータ分布などは,同じ平均と分散を持つ正規分布よりも常に低い情報エントロピーを持つ.このことは,これらの分布が正規分布よりも,より多くの構造や,より多くの情報を含んでいることを意味している.

なお,サイコロのように,各目が出る確率が等しい場合[公平なサイコロ]においては,最大の情報エントロピーを持つのは一様分布である.

Mathematics is the language with which God has written the universe.





















DataHub 正規分布 連続一様分布 多項分布 二項分布と負の二項分布 負の二項係数