まずは,情報量の概念について述べる.ジョーカ2枚を含めた54枚のトランプから一枚引く例を考える.
- 「このカードはハート」という情報量は小さい
- 「このカードはジョーカー」という情報量は大きい
- 2つの事象x, yが無関係なら,両方を観測したときの情報が,それぞれ別々に観測した時の情報の和になる.すなわち,h(x, y) = h(x) + h(y)を満たす.
- 2つの無関係な事象は統計的に独立であるため,p(x, y)=p(x)p(y)を満たす.
なお,上式の対数の底は何を選んでも,情報量が低数倍されるだけで本質的な差はないが,底としては2を選ぶことが多く,そのときのh(x)の単位は「ビット」である.
次に,エントロピーについて述べる.エントロピーとは情報量の平均値であり,以下のように定義される.H[x]=-\sum_xp(x)\log_2p(x)
0 件のコメント :
コメントを投稿