$$ \newcommand{\bx}{\boldsymbol{x}} \newcommand{\bt}{\boldsymbol{\theta}} \newcommand{\dkl}{\mathrm{d}_{\mathrm{KL}}} \newcommand{\dtv}{\mathrm{d}_{\mathrm{TV}}} \newcommand{\emv}{\hat{\theta}_{\mathrm{emv}}} \newcommand{\ent}{\mathrm{Ent}} $$

Exercices

Questions

  • On dispose d’une observation \(x\) d’une variable aléatoire \(N(\mu, 1)\). Quel est l’EMV de \(\mu\) ?
  • On dispose d’une observation \(x\) d’une variable aléatoire \(\mathrm{Ber}(p)\). Quel est l’EMV de \(\mu\) ?
  • Calculer l’EMV de \(\mu\) et \(\sigma^2\) dans un modèle iid \(N(\mu, \sigma^2)\) avec \(n\) observations.
  • Montrer que dans un modèle linéaire gaussien \(Y = X\bt + \varepsilon\), l’estimateur des moindres carrés ordinaires est l’EMV de \(\bt\). Quel est l’EMV pour \(\sigma^2\) ?
  • Dans un modèle exponentiel, construire une région (ellipsoïde) de confiance asymptotique pour le paramètre.
  • Soit \(\mathcal{X}\) un ensemble fini à \(p\) éléments et soient \(x_1, \dotsc, x_n\) des réalisations iid d’une même loi \(P\) sur \(\mathcal{X}\). On cherche \(P\). Montrer que ce problème peut se formuler comme la recherche d’un paramètre (indice : il est de dimension \(p\)) dans un modèle exponentiel et écrire l’EMV.
  • Dans un modèle exponentiel \(p_\theta(x) = e^{-\langle \theta, T(x)\rangle}/Z(\theta)\), on a des observations iid \(x_1, \dotsc, x_n\). On note \(\hat{\mu}_n\) la loi empirique1. des \(x_i\) Montrer que l’EMV (lorsqu’il existe) est l’unique \(\theta\) tel que \[ \int_{\mathcal{X}} T(x)d\hat{\mu}_n = \int_{\mathcal{X}} T(x)p_\theta(x)dx.\]
  • Montrer que la densité gaussienne multidimensionnelle \(N(0,\Sigma)\) peut aussi s’écrire \[ \frac{\exp\left( - \langle \theta, xx^\top \rangle_F / 2 \right)}{\sqrt{(2\pi)^n \det(\Sigma)}}\]\(\langle A,B\rangle_F = \mathrm{trace}(AB^\top)\) est le produit scalaire2 sur l’espace des matrices, et où \(\theta = \Sigma^{-1}\).

Exercices

Exercice 1 Soit \(\hat{\theta}\) l’estimateur du maximum de vraisemblance d’un paramètre \(\theta\) dans un modèle régulier. Montrer que \(f(\hat{\theta})\) est l’estimateur du maximum de vraisemblance de \(f(\theta)\), pour n’importe quelle fonction \(\theta\) raisonnable.

Exercice 2 On observe un échantillon iid \((X_1, \dotsc, X_n)\) de lois de Laplace, c’est-à-dire de densité \(x\mapsto \lambda e^{-\lambda|x-m|} / 2\), où \(\lambda>0\) et \(m\in \mathbb{R}\).

  1. En supposant \(\lambda\) connu, proposer un estimateur de \(m\) par la méthode des moments, et un estimateur par la méthode du maximum de vraisemblance. Étudier leurs propriétés et les comparer.
  2. Même question lorsque ni \(\lambda\) ni \(m\) ne sont connus.

Exercice 3 Calculer l’estimateur du maximum de vraisemblance et étudier ses propriétés dans les cas suivants : 

  1. On observe \(X_1, \dotsc, X_n\) de loi de Poisson de paramètre \(\lambda>0\).
  2. On observe \(X \sim \mathrm{Bin}(n,p)\)\(n\) est connu et \(p\in ]0,1[\).
  3. On observe \(X_1, \dotsc, X_n\) de loi \(\mathscr{N}(\mu,\sigma^2)\).
  4. On observe \(X_1, \dotsc, X_n\) de loi de Pareto \(\mathrm{PL}(\alpha,1)\), dont la densité est \(\alpha x^{-\alpha-1}\) sur \([1,\infty[\).

Exercice 4 On se donne un échantillon \((X_1,\dots,X_n)\) de loi \(\Gamma(\alpha, \beta)\)3.

  1. On suppose le paramètre \(\beta\) connu. Proposer un estimateur de \(\alpha\) par la méthode des moments.
  2. On suppose à présent que les deux paramètres \(\alpha, \beta\) sont inconnus. Proposer un estimateur de \((\alpha,\beta)\) par la méthode des moments.
  3. Toujours dans le cas où \(\alpha, \beta\) sont inconnus, donner le système d’équation que satisfont les estimateurs de \((\alpha, \beta)\) par la méthode du maximum de vraisemblance.

Exercice 5 Soit \((X_1,\dots,X_n)\) un \(n\)-échantillon de la loi uniforme sur \([-\theta,\theta]\), avec \(\theta>0\).

  1. Décrire le modèle statistique associé.
  2. Proposer un estimateur \(\hat \theta_n\) de \(\theta\) obtenu par méthode des moments. Est-il consistant? Proposer un intervalle de confiance asymptotique de niveau de confiance \(\alpha\). Soit \(T_n\) l’estimateur du maximum de vraisemblance de \(\theta\). Montrer que pour tout réel \(t\), \[P_\theta^n\left(n(T_n-\theta)\leq t\right)\to e^{t/\theta} \mathbf{1}_{t\leq 0}+\mathbf{1}_{t> 0}\] quand \(n\) tend vers l’infini. En déduire un intervalle de confiance asymptotique de niveau \(\alpha\).
  3. Comparer les estimateurs \(\hat \theta_n\) et \(T_n\) sur la base des longueurs moyennes des intervalles de confiance asymptotiques associés.

Exercice 6 Soit \(c>0\) un paramètre fixé connu. On considère la loi de Weibull de paramètre \(c\), notée \(\mathscr{W}(c)\), dont la densité sur \(\mathbb{R}_+\) est \[\lambda c x^{c-1}e^{-\lambda x^c}\] On observe un \(n\)-échantillon de loi \(\mathscr{W}(c)\), avec \(n\) plus grand que 3.

  1. Calculer l’estimateur du maximum de vraisemblance \(\hat \lambda_n\) de \(\lambda\).
  2. Calculer son risque quadratique.

Exercice 7 Dans une urne contenant 1000 tickets, 20 sont marqués \(\theta\) et 980 sont marqués \(10\theta\), où \(\theta\) est un réel strictement positif inconnu.

  1. On tire un unique ticket de valeur \(X\). Écrire le modèle statistique associé : est-il dominé par une mesure \(\sigma\)-finie? Donner un estimateur qui s’apparenterait à un maximum de vraisemblance \(\hat{\theta}\) de \(\theta\) (maximiser \(P_\theta(\{X\})\)), puis montrer que \(\mathbb{P}(\hat{\theta}=\theta)\geq 0,98.\)
  2. On renumérote les tickets marqués \(10\theta\) par \(a_i \theta\), \(1 \leq i \leq 980\), où les \(a_i\) sont des réels connus tous distincts dans \([10;10,1]\). Donner le nouvel estimateur du maximum de vraisemblance \(\tilde{\theta}\) et montrer que \(\mathbb{P}(\tilde{\theta}<10 \theta)=0,02.\)

Exercice 8 (Régression logistique) On observe des couples \((\bx_i, y_i)\) où les \(\bx_i\) sont des variables explicatives (vecteurs ligne de dimension \(d\)) et les \(y_i\) sont des variables valant 0 ou 1.

  1. Avant toute chose, expliquer pourquoi une régression linéaire des \(\bx_i\) sur les \(y_i\) n’aurait pas beaucoup de sens.
  2. On suppose dorénavant que les \(y_i\) sont des réalisations indépendantes de \(Y_i \sim \mathrm{Ber}(p(x_i))\) et on suppose que la fonction \(p : \mathbb{R}^{1,d}\to]0,1[\) s’écrit sous forme logistique (« modèle logit ») : \[p(\bx) = \frac{e^{\bx \bt}}{1 + e^{\bx \bt}}. \]\(\bt \in \mathbb{R}^d\).
    1. Écrire ce modèle sous forme exponentielle avec pour paramètre \(\bt\).
    2. Écrire l’équation vérifiée par l’EMV de \(\bt\).
    3. Se convaincre qu’elle ne possède pas d’expression exacte.
  3. Mêmes questions lorsque la fonction \(p\) s’écrit sous forme « probit », \(p(\bx) = \Phi(\bx \bt)\) avec \(\Phi\) la fonction de répartition de \(N(0,1)\).

  1. C’est-à-dire la mesure de probabilité définie par \(n^{-1}\sum \delta_{x_i}\).↩︎

  2. Ce produit scalaire est appelé produit de Frobenius et correspond à la norme \(L^2\) sur l’espace des matrices : \(\Vert A \Vert_F^2 = \sum_{i,j}|A_{i,j}|^2\). ↩︎

  3. On rappelle que sa densité est \(\frac{\beta^\alpha}{\Gamma(\alpha)}x^{\alpha-1}\exp(-\beta x)\) sur \([0,\infty[\)↩︎