Chapitre 2 : Estimation 1. Théorie de l’estimation 1.1. Exposé du problème Un a

Chapitre 2 : Estimation 1. Théorie de l’estimation 1.1. Exposé du problème Un aspect important de l’inférence statistique consiste à obtenir des estimations fiables des caractéristiques d’une population à partir d’un échantillon extrait de cette population. C’est un problème de décision concernant des paramètres tels que : ─ l’espérance mathématique notée ou m µ (pour un caractère mesurable), ─ la variance ou l’écart-type notée σ , ─ la proportion p (pour un caractère dénombrable). Comme un échantillon ne peut donner qu’une information partielle sur la population, les estimations ainsi obtenues seront inévitablement entachées d’erreurs que l’on doit minimiser autant que possible. En résumé : Estimer un paramètre, c’est donner une valeur approchée de ce paramètre, à partir des résultats obtenus sur un échantillon aléatoire extrait de la population. De façon générale, le problème à résoudre peut se formuler ainsi : Soit X une caractéristique d’un phénomène dont les réalisations dépendent du « hasard ». La variable X est donc une variable aléatoire dont les caractéristiques (moment, variance... ) sont inconnues. On observe les réalisations d’un échantillon aléatoire issu de la population étudiée. Cette réalisation doit permettre d’induire des valeurs ou estimations des paramètres de la loi suivie par la variable X . Ces estimations peuvent revêtir deux formes : – soit une valeur unique, l’estimation ponctuelle, ou valeur la plus probable que prendra le paramètre, – soit un ensemble de valeurs appartenant à un intervalle, l’estimation par intervalle de confiance. Un intervalle de confiance doit avoir de « grandes chances »» de contenir la vraie valeur du paramètre, il est toujours associé à un risque d’erreur α . La théorie de l’estimation fait intervenir des fonctions ou statistiques particulières, appelées estimateurs, dont nous allons donner les propriétés essentielles. 1.2. Définition d’une statistique X est une variable aléatoire dont la fonction de répartition ( ) ; F x θ et la densité ( ) ; f x θ dépendent du paramètre θ ; D θ est l’ensemble des valeurs possibles de ce paramètre. On considère un échantillon de taille n de cette variable ( ) 1, , n X X X = … . Une statistique est une fonction mesurable T des variables aléatoires i X . : ( ) 1 2 , , , n T X X X = Φ ⋯⋯ À un échantillon, on peut associer différentes statistiques. La théorie de l’estimation consiste à définir des statistiques particulières, appelées estimateurs. Une fois l’échantillon effectivement réalisé, l’estimateur prend une valeur numérique, appelée estimation du paramètre θ . On notera   l’estimateur du paramètre θ . Exemple : Soit X la statistique : ( ) 1 1 1 , , n n i i X T X X X n = = =  … c’est-à-dire la fonction moyenne arithmétique des n observations d’un échantillon. Cette statistique peut être considérée comme un estimateur, a priori raisonnable, de l’espérance mathématique  = . En effet : – cette statistique prend en compte toutes les observations, – cette statistique possède les propriétés suivantes : ( ) ( ) ( ) ( ) var var X E T E X T n = = Si la loi de la variable aléatoire X est connue, on peut en déduire celle de X . L’estimation ponctuelle de l’espérance mathématique m de la variable X est obtenue en réalisant effectivement un échantillon de taille n et en calculant la moyenne arithmétique des n observations. 2. Estimation ponctuelle Le but de la théorie de l’estimation est de choisir, parmi toutes les statistiques possibles, le meilleur estimateur, c’est-à-dire celui qui donnera une estimation ponctuelle la plus proche possible du paramètre et ceci, quel que soit l’échantillon. 2.1. Définition d’un estimateur Soit X une variable aléatoire dont la loi de probabilité ( ) ; f x θ dépend d’un seul paramètre θ . ( ) 1, , n X X X = … est un échantillon de taille n de cette variable. Une statistique, est une fonction mesurable ( ) T X des variables aléatoires i X . On note, en général, ˆ θ l’estimateur du paramètre θ . Une fois l’échantillon effectivement réalisé, l’estimateur prend une valeur numérique, appelée estimation ponctuelle du paramètre θ par la statistique T . 2.2. Principales qualités d’un estimateur a. Estimateur sans biais L’erreur d’estimation est mesurée par la quantité T θ − qui peut s’écrire : ( ) ( ) T T E T E T θ θ − = − + − – ( ) T E T − représente les fluctuations de l’estimateur T autour de sa valeur moyenne ( ) T (espérance mathématique). – ( ) E T θ − est une erreur systématique car l’estimateur T varie autour de son espérance mathématique ( ) E T et non autour de la valeur θ du paramètre sauf si ( ) E T θ = . La quantité ( ) E T θ − est le biais de l’estimateur. Un estimateur est sans biais si.   = . Un estimateur est biaisé si ( ) E T θ ≠ . Un estimateur est asymptotiquement sans biais si ( ) E T θ → quand la taille n de l’échantillon tend vers l’infini. Souvent,   surestime ou sous estime le paramètre, mais il s’en suit de la notion d’espérance que, si la procédure d’échantillonnage se répète plusieurs fois, alors, en moyenne, la valeur obtenue à partir d’un estimateur non biaisé serait égal au paramètre de la population. Il semble raisonnable d’affirmer que, toutes choses égales par ailleurs, cette propriété est désirable pour un estimateur. Exemple 1 : comparaison d’ordre général La figure suivante illustre les fonctions de densité de probabilité de deux estimateurs,   ,      de . Dans le graphique de gauche, il est évident que   est un estimateur sans biais de , alors que,   est un estimateur biaisé de . Dans le graphique de droite, les estimateurs      sont tous sans biais, le choix entre les deux devra donc être basé sur d’autres critères (variance par exemple). Exemple 2 : montrer que la variance empirique corrigée  est un estimateur sans biais de la variance de la population  , c'est-à-dire   =  . On sait que :  = 1  −1  −̅    −̅   =   − −̅ −   =   − −2̅ − − + ̅ −   =  − −2̅ −  −   + ̅ −     =  − −2̅ − +   ̅ − =  −   −̅ − En prenant l’espérance de cette dernière expression, on a :  ! −̅   " =  ! −   " − ̅ − =    −   − ̅ −  ! −̅   " =  −  =  −1 Finalement, pour la valeur espérée de la variance empirique, nous avons :   =  ! 1  −1  −̅   " = 1  −1  ! −̅   " = 1  −1  −1 =  b. Estimateur efficace Dans plusieurs problèmes pratiques, différents estimateurs non biaisés peuvent être obtenu et les méthodes de choix parmi eux devraient être trouvées. Dans cette situation, il est naturel de préférer l’estimateur dont la distribution est beaucoup plus concentrée autour du paramètre de la population à estimer. Les valeurs d’un tel estimateur sont beaucoup moins différentes de toute autre quantité fixe, à partir du paramètre à estimer que pour les autres. En prenant la variance comme mesure de concentration, l’efficacité d’un estimateur comme critère de préférence d’un estimateur est introduite. S’il y a plusieurs estimateurs sans biais d’un paramètre, alors l’estimateur sans biais ayant la plus petite variance est appelé estimateur plus efficace (efficace) ou estimateur sans biais à variance minimale. Soient      deux estimateurs sans biais de , basés sur les mêmes nombres d’observations d’échantillon. # $% est dit plus efficace que # $& si '()# $% < '()# $& c. Précision d’un estimateur La précision d’un estimateur est mesurée par l’erreur quadratique moyenne (Mean Squared Error (MSE)). Parfois, il y a un échange entre le biais et l’efficacité d’un estimateur. Des fois, on gagne en acceptant certains biais avec pour intérêt d’augmenter l’efficacité d’un estimateur. Le MSE qui est l’espérance du carrée de la différence entre les estimateurs et les paramètres est utilisé comme mesure de la précision. +  =   − En écrivant comme précédemment ( ) ( ) T T E T E T θ θ − = − + − et en remarquant, après développement que le terme ( ) ( ) { } E T E T E T θ − −       est nul, ( ( ) E T θ − est une constante et ( uploads/Geographie/ statistique-descisionelle-1 1 .pdf

  • 22
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager