1. DEF: Entropia Shannon’a
Niech X będzie dyskretną przestrzenią probabilistyczną
P(xi)=pi X={xi:i=1,2,…,N}
Entropia Shannon’a H(X)
H(X)=∑i=1Npilog2pi1
1.1. Uwaga
H(X)=EI gdzie I:X→R, I(xi)=−log2pi
1.2. Przykład
X={x1,x2,…,x8}
p1=21, p2=81, p3=p4=⋯=p8=161
H(X)=21log2(2)+81log2(8)+6⋅161log2(16)=21+83+83⋅4=21+815=283
c(xi)=(i−1) w systemie binarnym
każdy kod ma 3 bity
c(x1)=000
c(x2)=001
…
Głupie pytanie: ile średnio zużywamy bitów?
3!
1.2.2. Inny sposób
c(x1)=0
c(x2)=10
c(x3)=11⊔⊔⊔
…
x8
A co teraz? Jaka średnia? |
L:X→N
L(xi)= długość kodu c(xi) |
EL=? |
EL=21⋅1+81⋅2+6161⋅5=43+815=821<3 |
=819H(X)≤=821L(X)≤=3L(X)
1.3. Eureka#1
Nasze kody są prefiksowe!