Chapitre VI : Estimation Master 1 Métrologie 28 Institut d’Optique et Mécanique
Chapitre VI : Estimation Master 1 Métrologie 28 Institut d’Optique et Mécanique de précision Université Ferhat ABBAS – Sétif1 Chapitre 4 : Estimation 4.1 Introduction : L’inférence statistique traite principalement de ces deux types de problèmes : l’estimation de paramètres (espérance, variance, probabilité de succès) et les tests d’hypothèses. L’inférence statistique ne conduit jamais à une conclusion stricte, elle attache toujours une probabilité à cette conclusion. Cela provient du fait que l’on tente de tirer des conclusions sur une population (grand nombre d’individus) sur la base des observations réalisées sur un échantillon, représentant une portion restreinte de la population. L’estimation a pour objectif de déterminer les valeurs inconnues des paramètres de la population (p, μ, σ2) ou (proportion, moyenne, variance) à partir des données de l’échantillon (f, ̅ , s2). Il est alors nécessaire de déterminer la précision de ces estimations en établissant un intervalle de confiance autour des valeurs prédites. Les statistiques inférentielles ou inductives peuvent se résumer par le schéma suivant : Schéma: Inférence statistique 4.2 Distribution d’échantillonnage : Pour résoudre les problèmes d’estimation de paramètres inconnus, il faut tout d’abord étudier les distributions d’échantillonnage, c’est à dire la loi de probabilité suivie par l’estimateur. Remarque : En théorie de l’estimation, il s’agit de distinguer soigneusement trois concepts différents : • les paramètres de la population comme la moyenne μ dont la valeur est certaine mais inconnue symbolisés par des lettres grecques. • les résultats de l’échantillonnage comme la moyenne ̅dont la valeur est certaine mais connue symbolisés par des minuscules. • les variables aléatoires des paramètres, comme la moyenne aléatoire dont la valeur est incertaine puisque aléatoire mais dont la loi de probabilité est souvent connue et symbolisées par des majuscules. Chapitre VI : Estimation Master 1 Métrologie 29 Institut d’Optique et Mécanique de précision Université Ferhat ABBAS – Sétif1 4.2.1 Définition : a)- Approche empirique Il est possible d’extraire d’une population de paramètres p, µ ou σ2 pour une variable aléatoire X, k échantillons aléatoires simples de même effectif, n. Sur chaque échantillon de taille n, on calcule les paramètres descriptifs (f, , s2). On obtient ainsi pour chaque paramètre estimé, une série statistique composée de k éléments à savoir les k estimations du paramètre étudié. Par exemple, on aura k valeurs de moyennes observées (graphe ci-dessus). La distribution associée à ces k estimations constitue la distribution d’échantillonnage du paramètre. On peut alors associer une variable aléatoire à chacun des paramètres. La loi de probabilité suivie par cette variable aléatoire admet comme distribution, la distribution d’échantillonnage du paramètre auquel on pourra associer une espérance et une variance. b)- Approche théorique En pratique, les données étudiées sont relatives à un seul échantillon. C’est pourquoi, il faut rechercher les propriétés des échantillons susceptibles d’être prélevés de la population ou plus précisément les lois de probabilité de variables aléatoires associées à un échantillon aléatoire. Chapitre VI : Estimation Master 1 Métrologie 30 Institut d’Optique et Mécanique de précision Université Ferhat ABBAS – Sétif1 Ainsi les n observations x1 , x2 ,…, xi , …, xn, faites sur un échantillon peuvent être considérées comme n variables aléatoires X1 , X2 ,…, Xi , …, Xn. En effet, la valeur prise par le premier élément extrait de la population X1, dépend de l’échantillon obtenu lors du tirage aléatoire. Cette valeur sera différente si l’on considère un autre échantillon. Il en est de même pour les n valeurs extraites de la population. A partir de ces n variables aléatoires, on peut définir alors une nouvelle variable qui sera fonction de ces dernières telle que : Y = f(X1, X2,…, Xi , …, Xn ) par exemple : Y = X1 + X2+…+ Xi +. …Xn Ainsi la loi de probabilité de la variable aléatoire Y dépendra à la fois de la loi de probabilité de la variable aléatoire X et de la nature de la fonction f. 4.2.2 Loi de probabilité de la moyenne a)- Définition : Soit X une variable aléatoire suivant une loi normale d’espérance μ et de variance σ2 et n copies indépendantes X1,X2,…,Xi,…,Xn telle que Xi associe le ième élément de chacun des n échantillons avec E(Xi) = μ et V(Xi) = σ2. Chapitre VI : Estimation Master 1 Métrologie 31 Institut d’Optique et Mécanique de précision Université Ferhat ABBAS – Sétif1 Remarque : il est aisé de voir sur le graphe ci-dessous que la variance associée à une moyenne ( ) est plus faible que la variance de la variable elle-même (σ2). Exemple : Des études statistiques montrent que le taux de glucose dans le sang est une variable normale X d’espérance μ = 1 g/l et d’écart-type σ= 0,1 g/l. Chapitre VI : Estimation Master 1 Métrologie 32 Institut d’Optique et Mécanique de précision Université Ferhat ABBAS – Sétif1 En prenant un échantillon de 9 individus dans la population, l’espérance et l’écart-type théorique attendu de la variable aléatoire sont alors : b)- Convergence Lorsque la variance σ2 est connue et n grand (n ≥ 30), on se trouve dans les conditions du théorème central limite et la loi suivie par : Ceci reste vrai lorsque n ≤ 30 seulement si la loi suivie par X suit une loi normale. Lorsque la variance σ2 est inconnue et X suit une loi normale, la loi suivie par la variable centrée réduite est alors : Lorsque n ≥ 30, la loi de student tend vers une loi normale réduite (voir convergence). Lorsque la variance σ2 est inconnue et X ne suit pas une loi normale, la loi suivie par : 4.2.3 Loi de probabilité d’une fréquence Soit une population dans laquelle une proportion p des individus présente une certaine propriété. Si k est le nombre d’individu présentant la propriété dans un échantillon de taille n, alors la variable aléatoire K résultant de différents échantillonnages suit une loi binomiale B(n,p) avec E(K) = np et V(K) = npq. Chapitre VI : Estimation Master 1 Métrologie 33 Institut d’Optique et Mécanique de précision Université Ferhat ABBAS – Sétif1 4.3. Estimateur 4.3.1 Définition Soient X1 , X2 ,…, Xi , …, Xn , n réalisations indépendantes de la variable aléatoire X (discrète ou continue) et θ un paramètre associé à la loi de probabilité suivi par X, un estimateur du paramètre θ est une variable aléatoire Θ fonction des Xi : Θ = f (X1 , X2 ,…, Xi , …, Xn) Si on considère n observations x1 , x2 ,…, xi , …, xn, l’estimateur Θ fournira une estimation de θ notée également : = ( , , … , , … , ) L’estimation de θ est une variable aléatoire Θ dont la distribution de probabilité s’appelle la distribution d’échantillonnage du paramètre θ. L’estimateur Θ admet donc une espérance E(Θ) et une variance V(Θ). 3.4.2. Propriétés a)- Convergence L’estimateur Θ doit tendre vers la valeur réelle du paramètre θ lorsque le nombre d’individus étudié augmente. On dit que l’estimateur est convergent. Ceci équivaut à dire qu’en limite Θ → θ lorsque n → ∞. b)- Biais d’un estimateur Le biais d’un estimateur noté B(Θ) est la différence moyenne entre sa valeur et celle du paramètre qu’il estime. Le biais doit être égal à 0 pour avoir un bon estimateur. B(Θ) = E(Θ-θ) = E(Θ)-E(θ) = E(Θ)-θ = 0 (voir propriétés de l’espérance) d’où E(Θ) = θ Ainsi l’estimateur sera sans biais si son espérance est égale à la valeur du paramètre de la population. E(Θ) = θ Exemple : Soit les densités de probabilité de 3 estimateurs d’une espérance µ, Chapitre VI : Estimation Master 1 Métrologie 34 Institut d’Optique et Mécanique de précision Université Ferhat ABBAS – Sétif1 Dans l’exemple ci-dessus, Θ1 et Θ2 sont des estimateurs sans biais de µ car B(Θ1) = E(Θ1- µ ) = E(Θ1) - µ = 0 car E(Θ1) = µ , de même pour B(Θ2) alors que Θ3 est un estimateur biaisé de µ car B(Θ3) = E(Θ3 - µ ) = E(Θ3) - µ = µ’ - µ ≠ 0 car E(Θ3) = µ’ Remarque : Un estimateur est asymptotiquement sans biais si E(Θ) → θ lorsque n → ∞ c)- Variance d’un estimateur Si deux estimateurs sont convergents et sans biais, le plus efficace est celui qui a la variance la plus faible car ses valeurs sont en moyenne plus proches de la quantité estimée. V(Θ) = E(Θ - E(Θ))2 minimale. Exemple Dans l’exemple précédent, on voit que V(Θ1) < V(Θ2). On peut donc conclure que Θ1 est un meilleur estimateur de µ que Θ2. Remarque : Quand les estimateurs sont biaisés, en revanche, leur comparaison n’est pas simple. Ainsi un estimateur peu biaisé mais de variance très faible, pourrait même être préféré à un estimateur sans biais mais de grande variance. Théorème : Si un estimateur est asymptotiquement sans biais et si sa variance tend vers 0 lorsque n → ∞, il est convergent. Chapitre VI : Estimation Master 1 Métrologie 35 Institut d’Optique et Mécanique de précision Université Ferhat uploads/Geographie/ chapitre-iv.pdf
Documents similaires
![](https://b3c3.c12.e2-4.dev/disserty/uploads/preview/xBy2Kd3nkBhaKIJwaiGN0ert8AdyFSQhjM0NcCWzDZQl1CtLBvTBg5OrC7NIEOS0ipvLQiEo7vTkRANSsTuL32kD.png)
![](https://b3c3.c12.e2-4.dev/disserty/uploads/preview/ymBJLvDoSOL2GdHvsgc7vKJW6N75N62ppvP5D4ATdwNkbsKWjmcdge6R80rzXvhhzTzc4h4O0jsF30TiHfw403qL.png)
![](https://b3c3.c12.e2-4.dev/disserty/uploads/preview/FvSmD8uUC3dxjw0dk0WRTDUdW9xa1xS3zuEaQAem8epfNvvk7h7r8oBzwKXogOwgSpRYQWmTK5fAwJsxNNBLzoct.png)
![](https://b3c3.c12.e2-4.dev/disserty/uploads/preview/VT7eXttfRrWs14oJAezgw28Z0VtFey9oeJ2Ap4dEzQi2LiCgMtM5ol1mknXByAkOsq9a3P2qhucS2lrFIMeD5QIW.png)
![](https://b3c3.c12.e2-4.dev/disserty/uploads/preview/dRNjwiByTaw7YnW85HkDMGWFyrdr3axDuyxu0RyTInDlxc9bplWeyCcuvXzCxbZKrAeV6FsXWZr6KwGunJxfgpD2.png)
![](https://b3c3.c12.e2-4.dev/disserty/uploads/preview/BClrILxHS1JvpKdv8KYsabKqUfmbcKEm2xgslPvX9cE8m8dQqP7TOxvdK44G84tE4B6HaSn9ljXUcNoYFwFq4VI4.png)
![](https://b3c3.c12.e2-4.dev/disserty/uploads/preview/iRTsDE55IfrfPKfj0k3XtEfduBj5FrbuPiCfG0oYLDKM9UCCKrHnr3dd6lQoANKiE7Comd2tatGthVNFMzSuaEHx.png)
![](https://b3c3.c12.e2-4.dev/disserty/uploads/preview/o7e42XXUFFh8srQIbVfKAoie0lPaqWcQ1ZcS7QNK1Eydue4PAltst6IBLh7z7WVXW72OaPkkllXj1MCnHHzM80qT.png)
![](https://b3c3.c12.e2-4.dev/disserty/uploads/preview/Ed3SN5RRodt9PFw2hwSKELFYC7tvRDUzfhC3Kk8iOnDfbmbNJEcCrT7JY36ieymN0qfxRjIfkalvxJ1qslxJUSDj.png)
![](https://b3c3.c12.e2-4.dev/disserty/uploads/preview/WAnmNstTHsPvNiSzjWypKeaemzndjcAjuPjf52JL0D5xOS9rGJnA53nEwhgb8uZI59uEHzQyglwjEwtDmvSFphaT.png)
-
17
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Jui 07, 2022
- Catégorie Geography / Geogra...
- Langue French
- Taille du fichier 0.8185MB