Université Paris Diderot – L3 MIASHS T.D.4 - corrigé Feuille no 4 Statistiques

Université Paris Diderot – L3 MIASHS T.D.4 - corrigé Feuille no 4 Statistiques Inférentielles (corrigé 1) Rappels : méthode de maximum de vraisemblance déf : fonction de vraisemblance (loi discrète, loi à densité), log-vraisemblance déf : estimation du maximum de vraisemblance Exercice 1 1. On place n boules aléatoirement (indépendamment et uniformément) sur l’intervalle [0, 1]. Quelle est la probabilité d’avoir k boules dans l’intervalle [0, 0.1] ? 2. Même question pour 10n boules dans l’intervalle [0, 0.01] ? 3. Loi des événements rares (forme faible). Soient n et p tels que le produit np = λ > 0 est fixé. Montrer que pour n →∞et p →0 on a : n! k!(n −k)!pk(1 −p)n−k →e−λ λk k! 4. Soit X ∼Poisson(λ), λ > 0. Calculer E[X]. En déduire un estimateur de λ. 5. Soient X1, ..., Xn i.i.d ∼Poisson(λ). Montrer que la vraisemblance est donnée par : L(λ; x1, ...xn) = e−nλ x1! · · · xn!λx1+···+xn 6. Calculer la log-vraisemblance et en déduire l’estimateur du maximum de vraisemblance (EMV) de λ. 7. Quel est l’EMV de la probabilité que X1 = · · · = Xn = 0. Corrigé Exercice 1 1. En plaçant 1 boule uniformément sur l’intervalle [0, 1], on a probabilité 0.1 de l’avoir dans l’intervalle [0, 0.1] (et probabilité 0.9 de l’avoir dans l’intervalle [0.1, 1]) ; en plaçant n boules aléatoirement (indépendamment et uniformément), la probabilité d’avoir exacte- ment k boules dans l’intervalle [0, 0.1] sera n k  0.1k0.9n−k 2. (Dans le même esprit que la qustion précedente) En plaçant 10n boules aléatoirement (indé- pendamment et uniformément), la probabilité d’avoir exactement k boules dans l’intervalle [0, 0.01] sera 10n k  0.01k0.9910n−k 3. Comme np = λ, on écrit p = λ n ; et on remplace cela dans l’expression, ce qui donne n! k!(n −k)!pk(1 −p)n−k = n! k!(n −k)! λ n k  1 −λ n n−k = λk k! n(n −1) · · · (n −k + 1) nk  1 −λ n n  1 −λ n −k 1. Yiyang Yu, yyu@lpsm.paris 1 Université Paris Diderot – L3 MIASHS T.D.4 - corrigé Quand λ fixé, n →+∞, n(n −1) · · · (n −k + 1) nk →1,  1 −λ n n →e−λ,  1 −λ n −k →1 donc pour λ fixé, n →+∞, n! k!(n −k)!pk(1 −p)n−k →λk k! e−λ On observe la convergence de la loi binomiale vers la loi de Poisson. 4. Soit X ∼Poisson(λ), λ > 0, cela veut dire que pout tout k ∈N, P(X = k) = λk k! e−λ Le calcul de E[X] peut se faire en remarquant E[X] = +∞ X k=0 kP(X = k) = +∞ X k=0 k λk k! e−λ = +∞ X k=1 λk (k −1)!e−λ = λe−λ +∞ X k=0 λk k! = λ parce que le développement en série entière de eλ s’écrit eλ = +∞ X k=0 λk k! Puisque E[X] = λ, pour un n-échantillon (X1, · · · , Xn) de la loi de Poisson(λ), un estimateur de λ sera la moyenne empirique ¯ Xn = 1 n n X i=1 Xi 5. Pour X ∼Poisson(λ), et x ∈N, P(X = x) = λx x! e−λ. Donc pour X1, ..., Xn i.i.d ∼Poisson(λ), (il s’git d’une loi discrète ici) pour un échantillon (x1, · · · , xn) donné, la vraisemblance s’écrit L(λ; x1, · · · , xn) = n Y i=1 P(Xi = xi) = n Y i=1 λxi xi! e−λ = e−nλ x1! · · · xn!λx1+···+xn 6. La log-vraisemblance s’écrit ℓ(λ; x1, · · · , xn) = log L(λ; x1, · · · , xn) = −nλ −log(x1! · · · xn!) + (x1 + · · · + xn) log(λ) On cherche à maximiser ℓ(λ; x1, · · · , xn) pour λ > 0. On remarque que ℓ→−∞quand λ →0, et ℓ→−∞quand λ →+∞. En plus ∂ℓ ∂λ = 0 = ⇒−n + (x1 + · · · + xn) 1 λ = 0 2 Université Paris Diderot – L3 MIASHS T.D.4 - corrigé ce qui donne l’estimation de maximum de vraisemblance ˆ λMV = 1 n(x1 + · · · + xn) L’estimateur du maximum de vraisemblance de λ est donc donné par : ˆ λMV = 1 n(X1 + · · · + Xn) et nous retrouvons donc ˆ λMV = ¯ Xn. 7. Si X1 = · · · = Xn = 0, ˆ λMV = 0 Exercice 2 Le 28 Janvier 1986 le réservoir de la navette Challenger explose juste après le décollage. Sup- posons que la probabilité d’explosion du réservoir à la température t est donnée par : p(t) = ea+bt 1 + ea+bt Montrer que l’application x 7→ ex 1+ex est inversible et déterminer son inverse. Déterminer la vrai- semblance L(a, b) ainsi que la log-vraisemblance ℓ(a, b). Corrigé Exercice 2 Notons σ : x 7→ ex 1+ex (c’est la fonction sigmoid !). On remarque que 0 ⩽σ(x) ⩽1 pour tout x ∈R, et que σ(x) →0 pour x →−∞et σ(x) →1 pour x →∞; et σ′(x) = ex (1 + ex)2 > 0 donc σ est strictement croissante ; donc σ est inversible et son inverse s’écrit σ−1(y) = log y 1 −y pour y ∈]0, 1[ Maintenant soit un n-échantillon (T1, · · · , Tn) de T suivant la probabilité donnée par p(t), et (t1, · · · , tn) une réalisation. Alors la vraisemblance s’écrit L(a, b; t1, · · · , tn) = n Y i=1 p(ti) = n Y i=1 ea+bti 1 + ea+bti et la log-vraisemblance s’écrit ℓ(a, b; t1, · · · , tn) = log L(a, b; t1, · · · , tn) = n X i=1 log ea+bti 1 + ea+bti Exercice 3 Supposons que X ∼N(0, σ2) et Y ∼N(0, σ2) sont des v.a. indépendantes. Alors R = √ X2 + Y 2 suit une loi de Rayleigh(σ) de densité : fσ(x) = x σ2 e−x2 2σ2 , ∀x ⩾0. 3 Université Paris Diderot – L3 MIASHS T.D.4 - corrigé Quel est l’estimateur du maximum de vraisemblance de σ ? Corrigé Exercice 3 Soit un n-échantillon (R1, · · · , Rn) de R suivant la loi de Rayleigh(σ) (σ > 0), et (r1, · · · , rn) une réalisation (donc ri ⩾0, ∀i). Alors la vraisemblance s’écrit L(σ; r1, · · · , rn) = n Y i=1 fσ(ri) = n Y i=1 ri σ2 e− r2 i 2σ2 et la log-vraisemblance s’écrit ℓ(σ; r1, · · · , rn) = n X i=1  log ri −2 log σ −r2 i 2σ2  = −2n log σ − 1 2σ2 n X i=1 r2 i + n X i=1 log ri où on observe que ℓ→−∞pour σ →0 et ℓ→−∞pour σ →+∞, et ∂ℓ ∂λ = 0 = ⇒−2n σ + 1 σ3 n X i=1 r2 i = 0 = ⇒σ = v u u t 1 2n n X i=1 r2 i donc l’estimateur de maximum de vraisemblance de σ s’écrit ˆ σMV = v u u t 1 2n n X i=1 R2 i Exercice 4 Soient X1, · · · , Xn i.i.d ∼U([−α, α]). Quel est l’estimateur du maximum de vraisemblance de α ? Corrigé Exercice 4 Rappelons que la densité d’une v.a X suivant la loi uniforme U([−α, α]) s’écrit fX(x) = 1 2α1x∈[−α,α]. Soit (x1, · · · , xn) une réalisation de (X1, · · · , Xn). Alors la vraisemblance s’écrit L(α; x1, · · · , xn) = n Y i=1 fX(xi) = n Y i=1 1 2α1xi∈[−α,α] =  1 2α n n Y i=1 1xi∈[−α,α] où n Y i=1 1xi∈[−α,α] = n Y i=1 1α⩾|xi| =  1 si α ⩾|xi| , ∀i, 0 sinon, donc L(α; x1, · · · , xn) =  1 2α n si α ⩾maxi |xi| , 0 sinon. La fonction α 7→ 1 2α n est décroissante en α pour α > 0, donc L prend son maximum en α = maxi |xi|, donc l’estimateur de maximum de vraisemblance s’écrit ˆ αMV = max i=1,··· ,n |Xi| 4 uploads/Litterature/ td4-corrige 9 .pdf

  • 33
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager