Exercices
Questions
- Pour n’importe quel nombre réel \(x\), trouver des lois à densité dont l’entropie est égale à \(x\).
- Calculer la divergence de KL entre deux lois d’un même modèle exponentiel.
- Montrer que la divergence de KL n’est pas une distance, mais que \(d_\mathrm{KL}(P,Q) = 0\) si et seulement si \(P = Q\).
- Qui a l’entropie la plus grande : les lois de Poisson ou les lois géométriques ?
Exercices
Exercice 1 Soient \(X,Y\) deux variables aléatoires ayant une densité jointe \(f_{X,Y}\). On note \(f_X, f_Y\) les densités marginales de \(X\) et \(Y\). L’information mutuelle de \(X\) et \(Y\) est définie par \[I(X,Y) = \dkl(f_{X,Y} \mid f_X \otimes f_Y).\]
- Montrer que \(I(X, Y) \geqslant 0\) et que \(I(X,Y) = 0\) si et seulement si \(X\) et \(Y\) sont indépendantes.
- Montrer que si \((X,Y)\) forme un vecteur gaussien et que la corrélation entre \(X\) et \(Y\) est \(\rho\), alors \(I(X, Y) = -\frac{1}{2} \ln(1-\rho^2)\).
Exercice 2 (Le problème du mot de passe) Un hacker tente d’accéder à votre messagerie personnelle. Les mots de passe sont des suites binaires de longueur \(n\). Vous avez choisi votre propre mot de passe selon une variable aléatoire d’entropie \(h\). Pour chaque mot de passe \(m \in \{0,1\}^n\), on note \(p(m)\) la probabilité que vous ayez choisi ce mot de passe, et on ordonne ces \(2^n\) probabilités par ordre décroissant, \(p_1 \geqslant p_2 \geqslant \cdots \geqslant p_{2^n}\).
Montrer que la meilleure stratégie consiste à tester les mots un par un dans l’ordre donné par les probabilités \(p_i\). Si on note \(N\) le nombre d’essais nécessaires pour trouver le mot de passe, calculer \(\mathbb{E}_p[N]\).
On rappelle que la loi géométrique avec paramètre de succès \(\alpha \in ]0,1[\) est définie par \(\mathbb{P}(X = n) = \alpha(1-\alpha)^{n-1}\) pour \(n \in \mathbb{N}^*\). Montrer que parmi toutes les lois de probabilité sur \(\mathbb{N}^*\) d’entropie donnée, la loi géométrique a l’espérance la plus petite.
Indice : c’est un problème de minimisation sous contrainte. Écrire le lagrangien du problème.Montrer que l’entropie de la loi géométrique de paramètre \(\alpha\) vaut \[-\frac{\alpha \log_2 \alpha + (1-\alpha) \log_2 (1-\alpha)}{\alpha}.\]
En déduire que pour tout \(0 < \alpha < 1\), si \(X \sim \mathrm{Geom}(\alpha)\) alors \(1 < \alpha 2^{\ent(X)} < e\).
En déduire que \(\mathbb{E}_p[N] > \frac{1}{e}2^h\). Interpréter ce résultat.