Entropia Shannon’a

by Jerry Sky

2020-10-08



1. DEF: Entropia Shannon’a

Niech XX będzie dyskretną przestrzenią probabilistyczną
P(xi)=pi     X={xi:i=1,2,,N}P(x_i) = p_i ~~~~~ X = \{x_i: i=1,2,\dots,N\}

Entropia Shannon’a H(X)H(X)

H(X)=i=1Npilog21piH(X) = \sum_{i=1}^{N} p_i \log_2 \frac{1}{p_i}

1.1. Uwaga

H(X)=EIH(X) = \mathrm{E}I gdzie I:XRI: X\to \mathbb{R}, I(xi)=log2piI(x_i) = -\log_2 p_i

1.2. Przykład

X={x1,x2,,x8}X = \{x_1, x_2, \dots, x_8\}

p1=12, p2=18, p3=p4==p8=116p_1 = \frac{1}{2},~ p_2 = \frac{1}{8},~ p_3 = p_4 = \dots = p_8 = \frac{1}{16}

H(X)=12log2(2)+18log2(8)+6116log2(16)=12+38+384=12+158=238H(X) = \frac{1}{2}\log_2(2) + \frac{1}{8}\log_2(8) + 6 \cdot \frac{1}{16} \log_2(16) = \frac{1}{2} + \frac{3}{8} + \frac{3}{8}\cdot 4 = \frac{1}{2} + \frac{15}{8} = 2\frac{3}{8}

1.2.1. Jak zakodować informacje x1,,x8x_1, \dots, x_8?

c(xi)=(i1)c(x_i) = (i-1) w systemie binarnym

każdy kod ma 3 bity

c(x1)=000c(x_1) = 000
c(x2)=001c(x_2) = 001
\dots

Głupie pytanie: ile średnio zużywamy bitów?
3!

1.2.2. Inny sposób

c~(x1)=0\widetilde{c}(x_1) = 0
c~(x2)=10\widetilde{c}(x_2) = 10
c~(x3)=11\widetilde{c}(x_3) = 11\sqcup\sqcup\sqcup
\dots
x8x_8

A co teraz? Jaka średnia?
L~:XN\widetilde{L}: X \to \mathbb{N}
L~(xi)=\widetilde{L}(x_i) = długość kodu c~(xi)\widetilde{c}(x_i)
EL~=?\mathrm{E}\widetilde{L} = ?
EL~=121+182+61165=34+158=218<3\mathrm{E}\widetilde{L} = \frac{1}{2}\cdot 1 + \frac{1}{8} \cdot 2 + 6 \frac{1}{16}\cdot 5 = \frac{3}{4} + \frac{15}{8} = \frac{21}{8} < 3

H(X)=198L~(X)=218L(X)=3 \underset{= \frac{19}{8}}{H(X)} \le \underset{= \frac{21}{8}}{\widetilde{L}(X)} \le \underset{= 3}{L(X)}

1.3. Eureka#1

Nasze kody są prefiksowe!