Université Hassan II - Mohammadia F.S.T Mohammadia Département de Mathématiques

Université Hassan II - Mohammadia F.S.T Mohammadia Département de Mathématiques Module : Probabilités et statistiques (MIP) Chapitre 5 Variables aléatoires discrètes Soit (Ω, T , P) un espace probabilisé. On dit qu'une variable aléatoire réelle est discrète (v.a.d en abrégé) si l'ensemble X(Ω) de ses valeurs prises est dénombrable. 1 Loi d'une v.a.d Dé nition 1.1 Soit X une v.a.d. L'application f de X(Ω) dans R qui à tout x ∈X(Ω) fait corres- pondre f(x) = P(X = x) s'appelle la loi de probabilité de X (on dit aussi distribution). Pour déterminer la loi de X, on commence toujours par déterminer Ωet X(Ω). Remarque 1.1 Si X est une v.a.d et f sa loi, alors X x∈X(Ω) f(x) = 1 Car on peut écrire Ωcomme la réunion disjointe et dénombrable des événements (X = x), x ∈X(Ω). Le résultat s'ensuit puisque P est une probabilité. On démontre que la réciproque de ce résultat est aussi valable. Proposition 1.1 Soit X une v.a.d. La fonction de répartition FX est entièrement déterminée par la loi de X. Il su t donc dans le cas discret de calculer la loi de X. L'exemple 3.1 du chapitre 4 est un exemple de v.a.d. Pour visualiser graphiquement la loi d'une v.a.d, on trace un diagramme en bâtons qui consiste à représenter dans un repère les segments d'extrémités les points de coordonnées (x, 0) et (x, P(X = x)) pour x ∈X(Ω). Par exemple la loi de l'exemple 2.1 du chapitre 4 peut être visualisée par le diagramme en bâtons suivant. PHX=kL k 4 6 8 10 12 0.05 0.10 0.15 N-E.Fahssi 2 Espérance, variance, écart-type Pour une v.a.d X, nous posons X(Ω) = {x1, x2, . . . , xn, . . .} (X(Ω) est dénombrable par dé - nition). Pour dé nir l'espérance mathématique, ou moyenne des valeurs prises par la v.a.d, nous distinguons deux cas : X(Ω) ni et in ni. Dé nition 2.1 Si X(Ω) = {x1, x2, . . . , xn} est ni, on dé nit l'espérance de X, que l'on note E(X), par la somme nie suivante : E(X) = n X i=1 xiP(X = xi) Si X(Ω) est in nie, l'espérance existe si et seulement si la série P i xiP(X = xi) est absolument convergente, c'est à dire que la somme P i |xi|P(X = xi) est nie et l'on a dans ce cas E(X) = ∞ X i=1 xiP(X = xi) Exemple 2.1 On joue pile ou face. L'apparition de Pile fait gagner un Dirham et celle de Face fait perdre un Dirham. Quelle est l'espérance du gain ? Ici le gain est une v.a.d X prenant les valeurs +1 et -1 avec la probabilité 1/2 pour chaque face. C'est à dire c'est l'application de Ω= {P, F} dans {−1, +1} dé nie par X({P}) = +1 et X({F}) = −1. On a P(X = −1) = P(X = +1) = 1/2. L'espérance de X est donc E(X) = (+1)1 2 + (−1)1 2 = 0. En moyenne, on n'espère rien gagner. 2.1 Moments d'une v.a.d Dé nition 2.2 On appelle moment d'ordre k de la v.a.d X la quantité µk(X) = X x∈X(Ω) xkP(X = x) Ainsi l'espérance n'est autre que le moment d'ordre 1. Le moment d'ordre k de la v.a.d de l'exemple 2.1 est ¡ (−1)k + 1 ¢ /2 égal à 1 si k est pair et à 0 si k est impair. 2.2 Variance et écart-type Pour introduire la notion de variance, discutons un exemple simple. Considérons deux v.a.d X et Y dont les lois sont données par x 95 97 100 103 105 P(X = x) 1 5 1 5 1 5 1 5 1 5 et y 50 75 100 125 150 P(Y = y) 1 5 1 5 1 5 1 5 1 5 Les deux v.a, dont les diagrammes en bâtons sont représentés ci-dessous, ont la même espérance (la même moyenne) E(X) = E(Y ) = 100, mais on voit que la loi de Y est plus dispersée que celle de X. N-E.Fahssi La question qui se pose est de dé nir un paramètre qui caractérise cette dispersion. Ce paramètre est l'écart-type par lequel on mesure l'écart de la loi par rapport à la moyenne (qui est le centre de la loi). Dé nition 2.3 Si l'espérance d'une v.a.d X existe, la variance de X est, si elle existe, la somme Var(X) = X x∈X(Ω) (x −E(X))2P(X = x) L'écart-type de X, noté σX, est la racine carrée de la variance. σ(X) = p Var(X) 2.3 Propriétés de l'espérance Proposition 2.1 1. Linéarité : Soient X et Y deux v.a.d dé nies sur un même espace probabilisé (Ω, T , P) et ayant chacune une espérance. Soit α ∈R alors X + Y et αX ont une espérance et on a : E(X + Y ) = E(X) + E(Y ) et E(αX) = αE(X) 2. Soit φ une application de R dans R, la v.a.d φ(X) a une espérance si et seulement si la somme P x∈X(Ω) φ(x)P(X = x) existe et on a alors E(φ(X)) = X x∈X(Ω) φ(x)P(X = x) Remarque 2.1 Le calcul de l'espérance de la v.a.d φ(X) doit se faire à partir de sa loi E(φ(X)) = X x∈φ(X)(Ω) yP(φ(X) = y) La propriété 2 montre qu'il est inutile de déterminer la loi de φ(X) pour calculer son espérance. Comme application de la propriété 2, on peut écrire Var(X) = X x∈X(Ω) (x −E(X))2 P(X = x) = E ¡ (X −E(X))2¢ donc Var(X) = E ¡ (X −E(X))2¢ Cette formule est souvent prise comme dé nition de la variance. Ainsi la variance mesure la moyenne des carrés des écarts à la moyenne. N-E.Fahssi 2.4 Propriétés de la variance Il est facile de démontrer la Proposition 2.2 (Koenig-Huyghens) Soit X une v.a.d, ayant une espérance et une variance, alors la v.a.d X2 a une espérance et Var(X) = E(X2) −E(X)2 Ce théorème donne une méthode pratique de calcul de la variance. Proposition 2.3 Soit X une v.a.d ayant une espérance et une variance alors pour tout (a, b) ∈R2, la variable aX + b a une variance et Var(aX + b) = a2Var(X) Preuve : Exercice facile. Dé nition 2.4 Soit X une v.a.d ayant une espérance et une variance. La v.a X∗= X −E(X) σ(X) est appelée variable aléatoire centrée réduite associée à la v.a X. D'après la proposition précédente, elle est telle que son espérance est nulle et sa variance est égale à 1. 3 Quelques lois discrètes classiques 3.1 Variable certaine Par dé nition, c'est une variable constante : X(Ω) = {a}, P(X = a) = 1, E(X) = a, Var(X) = 0 3.2 Loi uniforme discrète sur [ [1,n] ] Dé nition 3.1 On dit qu'une v.a X suit une loi uniforme discrète sur [ [1, n] ] si l'on a X(Ω) = [ [1, n] ] et ∀k ∈[ [1, n] ] P(X = k) = 1 n Modèle. On tire au hasard une boule dans une urne contenant n boules numérotées de 1 à n ; X désigne le numéro de la boule tirée. PHX=kL k 1 2 3 4 5 0.1 0.2 0.3 0.4 0.5 N-E.Fahssi Remarque 3.1 Pour n = 1, X suit une loi certaine. Proposition 3.1 Soit X une v.a.d uniforme sur [ [1, n] ] alors E(X) = n + 1 2 Var(X) = n2 −1 12 Preuve Si X est une v.a.d uniforme sur [ [1, n] ]. On a E(X) = n X k=1 k n = 1 n n(n + 1) 2 = n + 1 2 et E(X2) = n X k=1 k2 n = 1 n n(n + 1)(2n + 1) 6 = (n + 1)(2n + 1) 6 où l'on a utilisé la formule qui donne la somme des carrés P 1≤k≤n k2 (que l'on peut démontrer par récurrence). Il vient alors Var(X) = E(X2) −E(X)2 = n2 −1 12 □ 3.3 Loi de Bernoulli Dé nition 3.2 Une v.a.d suit une loi de Bernoulli de paramètre p si elle prend les valeurs 1 et 0 avec les probabilités p et q = 1 −p respectivement, où 0 < p < 1. p est le paramètre caractérisant la loi de Bernoulli. On dit aussi que X est une v.a de Bernoulli de paramètre p. Modèle : On considère une expérience aléatoire ayant deux résultats que nous appelons succès (noté S) et échec (noté E) avec les probabilités p et q = 1−p. L'univers des possibilités est donc Ω= {S, E}. La variable de Bernoulli est dé nie par X(S) = 1 et X(E) = 0 avec les probabilités P(X = 1) = p et P(X = 0) = q Proposition 3.2 Soit X une v.a de Bernoulli alors E(X) = p et Var(X) = pq Preuve : On a E(X) = p × 1 + q × 0 = p et on a aussi E(X2) = p. Donc Var(X) = p −p2 = pq. uploads/s3/ support-5.pdf

  • 48
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager