まずは,情報量の概念について述べる.ジョーカ2枚を含めた54枚のトランプから一枚引く例を考える.
- 「このカードはハート」という情報量は小さい
- 「このカードはジョーカー」という情報量は大きい
- 2つの事象$x, y$が無関係なら,両方を観測したときの情報が,それぞれ別々に観測した時の情報の和になる.すなわち,$h(x, y) = h(x) + h(y)$を満たす.
- 2つの無関係な事象は統計的に独立であるため,$p(x, y)=p(x)p(y)$を満たす.
なお,上式の対数の底は何を選んでも,情報量が低数倍されるだけで本質的な差はないが,底としては2を選ぶことが多く,そのときの$h(x)$の単位は「ビット」である.
次に,エントロピーについて述べる.エントロピーとは情報量の平均値であり,以下のように定義される.$$H[x]=-\sum_xp(x)\log_2p(x)$$
0 件のコメント :
コメントを投稿