-
Notifications
You must be signed in to change notification settings - Fork 9
/
Copy path05-entropy.tex
56 lines (38 loc) · 1.18 KB
/
05-entropy.tex
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
\section{Přednáška 5 -- Entropie}
\begin{description}
\item[Entropie] Míra neuspořádanosti
\end{description}
Entropie $H(X)$ dikrétní náhodné veličiny:
$$
H(X) = - \sum_{x\in X}{p(x) \log{p(x)}}
$$
Logaritmus má základ 2, navíc je potřeba dodefinovat, že $0\log{0} = 0$.
Entropie je invariantní vůči libovolné transformaci hodnotu, která ponechá jejich pravděpodobnosti (číselné hodnoty nehrajou v entropii roli).
Entropie se uvádí v bitech.
Lze ji chápat jako střední hodnotu
$$
H(x) = -E\log{p(X)} = EI(X)
$$
kde
$$
I(x) = -\log{p(x)}
$$
pro všechna $x \in X$. $I(X)$ je vlastní informace (míra neurčitosti) hodnoty $x$.
Pro entropii platí, že $H(X) \geq 0$.
\subsection{Sdružená entropie}
$$
H(X, Y) = -\sum_{x\in X}{} \sum_{y\in Y}{p(x,y)\log{p(x,y)}}
$$
\subsection{Podmíněná entropie}
$$
H(X|Y) = -\sum_{x\in X}{} \sum_{y\in Y}{p(x,y)\log{p(x|y)}}
$$
\subsection{Řetězové pravidlo}
$$
H(X.Y) = H(X) + H(Y|X)
$$
\subsection{Vzájemná informace}
$$
I(X; Y) = \sum_{x\in X}{} \sum_{y\in Y}{p(x,y)\log{\frac{p(x,y)}{p(x)p(y)}}}
$$
\img{05-entropy-x-information.png}{Vstah vzájemné informace a entropie}