Exercices
Questions
- On dispose d’une observation \(x\) d’une variable aléatoire \(N(\mu, 1)\). Quel est l’EMV de \(\mu\) ?
- On dispose d’une observation \(x\) d’une variable aléatoire \(\mathrm{Ber}(p)\). Quel est l’EMV de \(\mu\) ?
- Calculer l’EMV de \(\mu\) et \(\sigma^2\) dans un modèle iid \(N(\mu, \sigma^2)\) avec \(n\) observations.
- Montrer que dans un modèle linéaire gaussien \(Y = X\bt + \varepsilon\), l’estimateur des moindres carrés ordinaires est l’EMV de \(\bt\). Quel est l’EMV pour \(\sigma^2\) ?
- Dans un modèle exponentiel, construire une région (ellipsoïde) de confiance asymptotique pour le paramètre.
- Soit \(\mathcal{X}\) un ensemble fini à \(p\) éléments et soient \(x_1, \dotsc, x_n\) des réalisations iid d’une même loi \(P\) sur \(\mathcal{X}\). On cherche \(P\). Montrer que ce problème peut se formuler comme la recherche d’un paramètre (indice : il est de dimension \(p\)) dans un modèle exponentiel et écrire l’EMV.
- Dans un modèle exponentiel \(p_\theta(x) = e^{-\langle \theta, T(x)\rangle}/Z(\theta)\), on a des observations iid \(x_1, \dotsc, x_n\). On note \(\hat{\mu}_n\) la loi empirique1. des \(x_i\) Montrer que l’EMV (lorsqu’il existe) est l’unique \(\theta\) tel que \[ \int_{\mathcal{X}} T(x)d\hat{\mu}_n = \int_{\mathcal{X}} T(x)p_\theta(x)dx.\]
- Montrer que la densité gaussienne multidimensionnelle \(N(0,\Sigma)\) peut aussi s’écrire \[ \frac{\exp\left( - \langle \theta, xx^\top \rangle_F / 2 \right)}{\sqrt{(2\pi)^n \det(\Sigma)}}\] où \(\langle A,B\rangle_F = \mathrm{trace}(AB^\top)\) est le produit scalaire2 sur l’espace des matrices, et où \(\theta = \Sigma^{-1}\).
Exercices
Exercice 1 Soit \(\hat{\theta}\) l’estimateur du maximum de vraisemblance d’un paramètre \(\theta\) dans un modèle régulier. Montrer que \(f(\hat{\theta})\) est l’estimateur du maximum de vraisemblance de \(f(\theta)\), pour n’importe quelle fonction \(\theta\) raisonnable.
Exercice 2 On observe un échantillon iid \((X_1, \dotsc, X_n)\) de lois de Laplace, c’est-à-dire de densité \(x\mapsto \lambda e^{-\lambda|x-m|} / 2\), où \(\lambda>0\) et \(m\in \mathbb{R}\).
- En supposant \(\lambda\) connu, proposer un estimateur de \(m\) par la méthode des moments, et un estimateur par la méthode du maximum de vraisemblance. Étudier leurs propriétés et les comparer.
- Même question lorsque ni \(\lambda\) ni \(m\) ne sont connus.
Exercice 3 Calculer l’estimateur du maximum de vraisemblance et étudier ses propriétés dans les cas suivants :
- On observe \(X_1, \dotsc, X_n\) de loi de Poisson de paramètre \(\lambda>0\).
- On observe \(X \sim \mathrm{Bin}(n,p)\) où \(n\) est connu et \(p\in ]0,1[\).
- On observe \(X_1, \dotsc, X_n\) de loi \(\mathscr{N}(\mu,\sigma^2)\).
- On observe \(X_1, \dotsc, X_n\) de loi de Pareto \(\mathrm{PL}(\alpha,1)\), dont la densité est \(\alpha x^{-\alpha-1}\) sur \([1,\infty[\).
Exercice 4 On se donne un échantillon \((X_1,\dots,X_n)\) de loi \(\Gamma(\alpha, \beta)\)3.
- On suppose le paramètre \(\beta\) connu. Proposer un estimateur de \(\alpha\) par la méthode des moments.
- On suppose à présent que les deux paramètres \(\alpha, \beta\) sont inconnus. Proposer un estimateur de \((\alpha,\beta)\) par la méthode des moments.
- Toujours dans le cas où \(\alpha, \beta\) sont inconnus, donner le système d’équation que satisfont les estimateurs de \((\alpha, \beta)\) par la méthode du maximum de vraisemblance.
Exercice 5 Soit \((X_1,\dots,X_n)\) un \(n\)-échantillon de la loi uniforme sur \([-\theta,\theta]\), avec \(\theta>0\).
- Décrire le modèle statistique associé.
- Proposer un estimateur \(\hat \theta_n\) de \(\theta\) obtenu par méthode des moments. Est-il consistant? Proposer un intervalle de confiance asymptotique de niveau de confiance \(\alpha\). Soit \(T_n\) l’estimateur du maximum de vraisemblance de \(\theta\). Montrer que pour tout réel \(t\), \[P_\theta^n\left(n(T_n-\theta)\leq t\right)\to e^{t/\theta} \mathbf{1}_{t\leq 0}+\mathbf{1}_{t> 0}\] quand \(n\) tend vers l’infini. En déduire un intervalle de confiance asymptotique de niveau \(\alpha\).
- Comparer les estimateurs \(\hat \theta_n\) et \(T_n\) sur la base des longueurs moyennes des intervalles de confiance asymptotiques associés.
Exercice 6 Soit \(c>0\) un paramètre fixé connu. On considère la loi de Weibull de paramètre \(c\), notée \(\mathscr{W}(c)\), dont la densité sur \(\mathbb{R}_+\) est \[\lambda c x^{c-1}e^{-\lambda x^c}\] On observe un \(n\)-échantillon de loi \(\mathscr{W}(c)\), avec \(n\) plus grand que 3.
- Calculer l’estimateur du maximum de vraisemblance \(\hat \lambda_n\) de \(\lambda\).
- Calculer son risque quadratique.
Exercice 7 Dans une urne contenant 1000 tickets, 20 sont marqués \(\theta\) et 980 sont marqués \(10\theta\), où \(\theta\) est un réel strictement positif inconnu.
- On tire un unique ticket de valeur \(X\). Écrire le modèle statistique associé : est-il dominé par une mesure \(\sigma\)-finie? Donner un estimateur qui s’apparenterait à un maximum de vraisemblance \(\hat{\theta}\) de \(\theta\) (maximiser \(P_\theta(\{X\})\)), puis montrer que \(\mathbb{P}(\hat{\theta}=\theta)\geq 0,98.\)
- On renumérote les tickets marqués \(10\theta\) par \(a_i \theta\), \(1 \leq i \leq 980\), où les \(a_i\) sont des réels connus tous distincts dans \([10;10,1]\). Donner le nouvel estimateur du maximum de vraisemblance \(\tilde{\theta}\) et montrer que \(\mathbb{P}(\tilde{\theta}<10 \theta)=0,02.\)
Exercice 8 (Régression logistique) On observe des couples \((\bx_i, y_i)\) où les \(\bx_i\) sont des variables explicatives (vecteurs ligne de dimension \(d\)) et les \(y_i\) sont des variables valant 0 ou 1.
- Avant toute chose, expliquer pourquoi une régression linéaire des \(\bx_i\) sur les \(y_i\) n’aurait pas beaucoup de sens.
- On suppose dorénavant que les \(y_i\) sont des réalisations indépendantes de \(Y_i \sim \mathrm{Ber}(p(x_i))\) et on suppose que la fonction \(p : \mathbb{R}^{1,d}\to]0,1[\) s’écrit sous forme logistique (« modèle logit ») : \[p(\bx) = \frac{e^{\bx \bt}}{1 + e^{\bx \bt}}. \] où \(\bt \in \mathbb{R}^d\).
- Écrire ce modèle sous forme exponentielle avec pour paramètre \(\bt\).
- Écrire l’équation vérifiée par l’EMV de \(\bt\).
- Se convaincre qu’elle ne possède pas d’expression exacte.
- Mêmes questions lorsque la fonction \(p\) s’écrit sous forme « probit », \(p(\bx) = \Phi(\bx \bt)\) avec \(\Phi\) la fonction de répartition de \(N(0,1)\).
C’est-à-dire la mesure de probabilité définie par \(n^{-1}\sum \delta_{x_i}\).↩︎
Ce produit scalaire est appelé produit de Frobenius et correspond à la norme \(L^2\) sur l’espace des matrices : \(\Vert A \Vert_F^2 = \sum_{i,j}|A_{i,j}|^2\). ↩︎
On rappelle que sa densité est \(\frac{\beta^\alpha}{\Gamma(\alpha)}x^{\alpha-1}\exp(-\beta x)\) sur \([0,\infty[\)↩︎