MDI 220 Statistiques année 2019/2020 Corrigé : Feuille de travaux dirigés 3 Sol

MDI 220 Statistiques année 2019/2020 Corrigé : Feuille de travaux dirigés 3 Solution Exercice 1 On a Xi i.i.d. ∼Poiss(λ). Le modèle pour une observation est P = {Poiss(λ), λ > 0}. Le paramètre est λ et l’espace des paramètres est Λ =]0, +∞[. 1. On a Eλ(X1) = X k≥0 kλk k! e−λ = λ X k≥1 k λk−1 (k −1)!e−λ = λ X k≥0 λk (k)!e−λ = λ. Donc en considérant l’observation X = (X1, . . . , Xn) et en posant S(X) = 1 n n X i=1 Xi On a (par linéarité de l’espérance) Eλ(S(X)) = 1 n n X i=1 Eλ(Xi) = λ. Le biais de S en tant qu’estimateur de λ, est donc biais(S, λ) = Eλ(S(X)) −λ = 0, de sorte que S est un estimateur non biaisé de λ. 2. On est dans le cadre de l’estimation d’une fonction du paramètre, θ = g(λ) = e−λ. (a) Un estimateur est une fonction des données, donc S1(X) = e−S(X) est un estimateur de θ, qui parait « raisonnable » puisque S estime sans biais λ. Cependant S1 est biaisé. En effet, puisque la fonction g est strictement convexe, et puisque la variable aléatoire Y = S(X) : Ω→R+ n’est pas constante, on a g(E(Y )) < E(g(Y )), c’est-à-dire, puisque E(Y ) = E(S(X)) = λ et g(Y ) = e−S(X) = S1, e−λ < E(S1), de sorte que biais(S1, λ) = E(S1(X)) −g(λ) > 0 et S1 est biaisé. — 1 — MDI 220 Statistiques année 2019/2020 (b) Un estimateur non biaisé de θ = e−λ est une statistique S2 telle que Eλ(S2(X)) = e−λ. On remarque que e−λ = Pλ(X1 = 0) = E h 1{0}(X1) i , où 1 est la fonction indicatrice : 1A(x) =    1 si x ∈A 0 sinon. Ainsi, en posant S2(X) = 1 n n X i=1 1{0}(Xi) on a bien Eλ(S2(X)) = 1 n Pn i=1 Pλ(Xi = 0) = e−λ. 3. Efficacité des estimateurs : rappelons qu’un estimateur S(X) non-biaisé d’une quan- tité g(λ) ∈R est appelé efficace lorsque Varλ(S2) = g′(λ)2/I(λ), où I(λ) est l’infor- mation de Fisher relative à l’observation X, lorsque X ∼Pλ. Dans le cas où X = (X1, . . . , Xn) est un échantillon i.i.d. , avec Xi ∼Pλ, le vecteur X est distribué selon la loi produit P⊗n λ et l’information de Fisher pour le n-échantillon est I(λ) = nI1(λ), où I1(λ) est l’information de Fisher pour une seule observation X1 ∼Pλ. (a) S1 est biaisé donc il ne peut pas être efficace. (b) S est non biaisé. Il reste à calculer sa variance et l’information de Fisher I1(λ). Un calcul similaire à celui de la question 1. donne Varλ(X1) = λ, d’où Varλ(S(X)) = 1 n2 × Varλ( n X i=1 Xi) = 1 n2 × n X i=1 Varλ(Xi) = λ n où l’on a utilisé l’indépendance des Xi pour que la variance de la somme soit la somme des variances. Calculons l’information de Fisher pour une observation. Ici, le modèle est dominé par la mesure discrète sur N, µ = P i∈N δi, et la densité par rapport à cette mesure de référence est pλ(x) = Pλ(X = x) = λx/x!e−λ. I1(λ) = Eλ   ∂log pλ(X1) ∂λ !2  = Eλ   ∂(X1 log(λ) −λ −log(X1!)) ∂λ !2  = Eλ h (X1/λ −1)2i = 1 λ2E h (X1 −λ)2i = 1 λ2Varλ(X1) = 1/λ D’où, pour n observations, I(λ) = nI1(λ) = n/λ. — 2 — MDI 220 Statistiques année 2019/2020 On peut conclure : l’estimateur S de λ est non biaisé et vérifie : ∀λ > 0, Varλ(S(X)) = λ n = 1 I(λ). Donc S atteint la borne de Cramér-Rao (car ici g0(λ) = λ, de sorte que g′(λ) = 1), c’est-à-dire S est efficace. (c) Puisque S2 est un estimateur de g(λ), non biaisé, S2 est efficace si et seulement si S2 atteint la borne de Cramér-Rao, qui vaut g′(λ)2/I(λ) = λe−2λ/n. On remarque que les variables aléatoires Zi = 1{0}(Xi) sont des variables de Bernoulli de paramètre p = P(Xi = 0) = e−λ. Ainsi, nS2 suit une loi binomiale de paramètres (n, p = e−λ), de sorte que Varλ(S2) = e−λ(1 −e−λ)/n. D’après le cours (on admet que le modèle est régulier), on a pour tout λ Varλ(S2) = e−λ(1 −e−λ)/n ≥g′(λ)2/I(λ) = λe−2λ/n De plus, l’inégalité est stricte pour au moins une valeur de λ (prendre λ = 1), donc S2 n’est pas efficace. Solution Exercice 2 [parametre de translation] Remarque préliminaire : le modèle n’est pas régulier car l’ensemble des points x tels que pθ(x) > 0 dépend de θ (c’est ensemble est [θ, +∞[). 1. l’espérance de X1 vaut Eθ(X1) = Z +∞ θ xeθ−xdx calcul simple = θ + 1. En prenant b θn(X) = 1 n P(Xi) −1, on a bien par linéarité de l’espérance Eθ(b θn(X)) = 1 n X i E(Xi) −1 = θ. Ainsi b θn est non biaisé. 2. Risque quadratique : Pour θ > 0, il est donnée par R(θ, b θn) = E h (b θn(X) −θ)2i et puique E(b θn(X)) = θ, on a R(θ, b θn) = Varθ(b θn(X)). De plus, pour une observation X1 ∼Pθ, Varθ(X1) = Z ∞ θ (x −θ −1)2eθ−xdx = Z ∞ 0 (t −1)2e−tdt = h −(t −1)2e−ti∞ 0 + 2 Z ∞ 0 (t −1)e−t | {z } 0 = 1. — 3 — MDI 220 Statistiques année 2019/2020 Ainsi, par indépendance des Xi, Varθ(b θn(X)) = 1 nVarθ(X1) = 1 n. 3. On considère ˜ θn(X) = minn i=1 Xi. Remarque : l’idée de choisir ˜ θn vient du fait que θ est la borne inférieur des {x : pθ(x) > 0}. Ainsi, pour x > θ on a Pθ(X1 ≤x) > 0 alors que pour x < θ, Pθ(X ≤x) = 0. Dans ce sens, θ est la plus petite valeur « possible » pour les Xi. Pour calculer la loi de ˜ θn(X), il est dans ce cas plus facile de calculer sa fonction de répartition que sa densité (à supposer que cette dernière existe). En effet, si on appelle ˜ Fθ cette fonction de répartition, ˜ Fθ(x) = Pθ(˜ θn(X) ≤x), on a 1 −˜ Fθ(x) = Pθ(˜ θn(X) > x) = Pθ [∩n i=1Xi > x] = n Y i=1 Pθ(Xi > n) (indépendance) = Pθ(X1 > x)n. Reste à calculer cette dernière quantité en intégrant la densité de X1, ce qui donne ∀x ≥θ, Pθ(X1 > x) = Z ∞ x eθ−tdt = eθ−x, et pour x ≤θ, Pθ(X1 > x) = 1. Finalement Pθ(X1 > x) = e−max(x−θ,0). D’où ˜ Fθ(x) = 1 −e−n max(x−θ,0). 4. Puisque ˜ Fθ(θ) = 0, on a, avec probabilité 1, ˜ θn(X) ≥θ. Ainsi,la variable aléatoire Z = ˜ θn(X) −θ est presque surement positive. Comme elle n’est pas constante, sont espérance est strictement positive. D’où : ˜ θn est biaisé. 5. Le risque quadratique de ˜ θn est R(θ, ˜ θn) = E[(θ −˜ θn(X))2]. On utilise le fait que pour une variable aléatoire Y : Ω→R+, E(Y ) = R + t=0 ∞P(Y > t)dt. On pose Y = (˜ θn −θ)2. Alors, pour t ≥0, Pθ(Y > t) = P(˜ θn −θ > √ t) car avec probabilité — 4 — MDI 220 Statistiques année 2019/2020 1, ˜ θn −θ ≥0. Ainsi, R(θ, ˜ θn) = E(Y ) = Z ∞ t=0 Pθ(Y > t)dt = Z ∞ t=0 Pθ(˜ θn −θ > √ t)dt = Z ∞ t=0 Pθ(˜ θn −θ > √ t)dt = Z ∞ t=0 e−n √ tdt ( cf question précédente) = Z ∞ u=0 e−nu2udu = 2 n2 Z ∞ r=0 e−rrdr = 2 n2 6. Lorsque n est plus grand que 2, on a ∀θ, R(θ, ˜ θn) = 2/n2 < 1/n = R(θ, b θn). Le risque du deuxième estimateur (qui est pourtant biaisé) est uniformément plus faible que celui du premier estimateur. ˜ θn est donc préférable à b θn. Solution Exercice 3 X = (X1, . . . , Xn) un éhantillon i.i.d. où Xi ∼Ber(θ) (θ ∈]0, 1[). 1. On considère ¯ X = 1 n Pn i=1 Xi comme estimateur de θ. Pour que ¯ X soit efficace, il faut et il suffit que (i) ¯ X soit non biaisé et (ii) la variance de ¯ X atteigne la borne de Cramer-Rao pour le modèle de Bernoulli avec n observations. — ¯ X est sans biais car E( ¯ X) = 1 n P E(Xi) = E(X1) = θ. — La variance de ¯ X est ∀θ ∈]0, 1[, Varθ( ¯ X) independance = 1 n2 X i Var(Xi) = θ(1 −θ) n . — Calculons l’information de Fisher pour une observation : Tout d’abord, la mesure de référence est µ = δ0 + δ1 et la densité de la loi Pθ par rapport à µ est ∀x ∈{0, 1}, pθ(x) uploads/Marketing/ corrige-td3 10 .pdf

  • 18
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager
  • Détails
  • Publié le Mai 08, 2021
  • Catégorie Marketing
  • Langue French
  • Taille du fichier 0.1626MB