Cours de probabilités – statistiques inférentielles M. Raffestin La loi normale

Cours de probabilités – statistiques inférentielles M. Raffestin La loi normale (ou loi de Laplace-Gauss ou loi de Gauss) 1 – Les fondamentaux La distribution normale est une distribution théorique, en ce sens qu'elle est une idéalisation mathématique qui ne se rencontre jamais exactement dans la nature. Mais de nombreuses distributions réellement observées s’en rapprochent et ont cette fameuse forme de « cloche » (beaucoup d’individus autour de la moyenne, de moins en moins au fur à mesure qu’on s’en éloigne, et ceci de façon symétrique). D'autre part, elle est très utilisée en statistiques inférentielles : nous verrons en particulier qu’une moyenne calculée sur un échantillon est une v.a. qui tend à suivre une loi normale quand la taille de l’échantillon augmente, même si la population initiale a une tout autre distribution. a – Sa forme : la courbe en cloche La loi normale de paramètres m et σ, notée N(m,σ), est définie sur R par la densité : 2 2 1 2 1 ) (       − − = σ π σ m x e x f dont la représentation graphique est la suivante : Notons que : - la droite x= m est axe de symétrie - les points d’inflexion sont situés à une distance σ de cet axe de symétrie b – Le théorème Central-limit Le TCL sera très précieux puisqu’il nous explique que si on fait la somme d’un très grand nombre de variables aléatoires de loi quelconque, cette somme suit approximativement une loi normale (en fait, sans rentrer dans le détail des hypothèses, il nous dit que la variable X = X1 + X2+ … Xn tend à suivre une loi normale quand n tend vers l’infini). D’une part, cela nous permet de comprendre pourquoi autant de distributions observées dans la réalité ont approximativement cette forme de cloche : elles décrivent des phénomènes qui résultent de l’addition d’un grand nombre de causes de fluctuation indépendantes. Exemple : la taille d’un individu. D’autre part, cela nous permettra d’approcher beaucoup de lois par une loi normale, pour peu que la variable étudiée s’exprime comme une somme d’un grand nombre de variables indépendantes. C’est le cas notamment de la variable binomiale (somme de n variables de Bernoulli indépendantes), dont la loi «tend à prendre la forme d’une cloche » quand n augmente. Cela reste possible même quand on ne connaît pas loi des variables Xi. 2 – Espérance et variance Soit X une v.a. qui suit la loi N(m,σ). Par raison de symétrie: E(X) = m et on montre facilement que V(X) = σ σ σ σ2 , donc le paramètre σ correspond à l’écart-type (d’où les notations…) Ainsi grâce à ses 2 paramètres, la loi normale permet de décrire des distributions de moyenne quelconque (on translate la courbe vers la gauche ou vers la droite), et de dispersion quelconque (on rapproche ou on écarte le point d’inflexion) 3 – Calculs de probabilités sur une loi normale a – Un gros inconvénient : on ne sait pas exprimer F(x) en fonctions de x On ne connaît pas de primitive de la fonction 2 x e− , donc on ne sait pas donner l’expression algébrique de la fonction de répartition F(x). b – La loi normale centrée-réduite Centrer et réduire une variable, c’est raisonner en nombre d’écarts-types par rapport à la moyenne. Par ex., si le poids d’un foie gras est une variable de moyenne 550 g et d’écart-type 100 g, on dira d’un foie de canard de x=650 g que, en donnée centrée-réduite, il pèse t=1 (sous-entendu : 1 écart- type de plus que la moyenne), alors que le poids centré-réduit d’un foie de x’=500g sera de t’= -0,5 (un demi-écart-type en dessous de le moyenne). Tous les événements relatifs à X peuvent être aussi bien exprimés en fonction de T . Ainsi, il est équivalent de dire : « le poids d’un foie est compris entre 500g et 650g » : (500 < X < 660) ou « le poids centré-réduit est compris entre -0,5 et 1 » : ( -0,5 < T < 1) avec T égal ici à : 100 550 − X , et plus généralement : σ m X T − = Comment dans ces conditions calculer les probabilités de tomber entre telle ou telle valeur? Par des techniques de calcul numérique (en mesurant l’aire sous la courbe pour différentes valeurs de x), on a pu constituer des tables donnant F(x). Ces tables figurent en annexe de la plupart des manuels de probabilités, et sont intégrées dans certains logiciels (fonctions d’Excel par exemple). Pour tous les calculs, on se ramène à la fonction de répartition de la loi N(0,1), dite loi normale centrée- réduite. La variable centrée-réduite T a pour espérance 0 et pour écart-type 1 car : E(T)= E( σ m X − ) = ( ) m ) X ( E − σ 1 = 0 puisque E(X)=m V(T) = V( σ m X − ) = ( ) ( ) X V 2 1 σ = 1 puisque V(X)=σ 2 Donc la densité de probabilité de la loi normale centrée-réduite N(0,1) s’écrit : 2 2 1 2 1 t e ) t ( y − = π Plutôt que f et F, on note généralement y la densité, et Π la fonction de répartition de la loi N(0,1). La table donnant, pour différentes valeurs de t, les valeurs de Π(t), soit P(T≤t) est jointe en annexe. On y lit par exemple : Π(0) = 0,5 Π(1) = 0,8413 Π(0,5) = 0,6915 Π(1,96) = 0,9750 dont on déduit par symétrie : Π(-1) = 1- Π(1) = 1 - 0,8413 = 0,1587 Π(-0,5) = 1 - Π(0,5) = 1 - 0,6915 = 0,3085 Π(-1,96) = 1 - Π(1,96) = 1- 0,9750= 0,0250 c – Exemples de calcul sur une loi normale La v.a. X, poids d’un foie gras, suit une loi N(550 ;100). Quelle est la probabilité pour qu’un foie gras pèse moins de 650g, plus de 746g, moins de 500g, entre 550 et 600g ? P(X<650) = P(T< 100 550 650 − ) = P(T<1) = Π(1) = 84,13% P(X>746) = P(T> 100 550 746 − ) = P(T>1,96) = 1- P(T≤1,96) = 1 - Π(1,96) = 1- 0,9750= 2,5% P(X<500) = P(T< 100 550 500 − ) = P(T<-0,5) = Π(-0,5) = 1 - Π(0,5) = 1 - 0,6915 = 30,85% P(550<X<600) = P(0<T<0,5) = Π(0,5) -Π(0) = 0,8413 – 0,5= 34,13% Rappelons que pour une variable continue, il n’y a pas de différence entre P(X<k) et P(X≤k) car la probabilité attachée à la valeur k est nulle. d- Quelques ordres de grandeur utiles à retenir 3 – Stabilité de la loi normale Une combinaison linéaire de variables normales indépendantes est elle-même une variable normale. Ainsi si X1 N(m1,σ1) et X2 N(m2,σ2) , X1 et X2 étant indépendantes si a1 et a2 sont 2 réels alors : X = a1 X1+ a2 X2 suit également une loi normale (dont les paramètres peuvent être calculés en utilisant les propriétés de l’espérance et de la variance). Par exemple, S = X1+ X2 est une variable normale de paramètres : E(S) = E(X1+ X2) = E(X1)+ E(X2) = m1+ m2 V(S) = V(X1+ X2) = V(X1)+ V(X2) car les variables sont indépendantes = σ 1 2+ σ 2 2 donc σS= 2 2 2 1 σ σ + et finalement : S N(m1+ m2, 2 2 2 1 σ σ + ) 4 –Approximation de la loi binomiale et de la loi de Poisson par la loi normale Nous avons vu que la loi binomiale B(n,p) est d’autant plus symétrique que p est proche de 50% et qu’elle prend une forme en cloche quand n augmente (d’autant plus vite que p est proche que 0,5…) Le TCL donne une justification à ce phénomène. Une valeur de p très différente de 0,5 (p petit ou alors q=1-p petit) pourra être compensée par une grande valeur de n et on accepte généralement de remplacer la loi binomiale par la loi normale Une variable normale a « 95 chances sur 100 d’être située entre : moyenne moins 2 écarts-types et moyenne plus 2 écarts- types » (la vraie valeur n’est pas 2 mais 1,96) Une variable normale est presque certainement située entre : moyenne moins 3 écarts-types et moyenne plus 3 écarts-types lorsque les produits np et nq sont supérieurs à 15 ou 20. Dans ce cas, on approchera la loi B(n,p) par la loi normale de même espérance et de même écart-type, soit N(np, npq ) De même on pourra remplacer la loi de Poisson P(m) par une loi normale N(m, m ) dès que m est supérieur à 15 ou 20. Exemple : on estime que la probabilité pour qu’une graine ait perdu son pouvoir germinatif après 3 ans de conservation est de 70%. Sur un échantillon de 100 graines conservées depuis 3 ans quelle est la probabilité pour que moins de 25 germent ? Notons p la probabilité uploads/s3/ loi-normale-ou-loi-de-guass-laplace-quot-suthb-quot.pdf

  • 39
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager