L3 Mathématique et Statistique 2 Vérification des hypothèses d’application de l
L3 Mathématique et Statistique 2 Vérification des hypothèses d’application de la régression M4 L3MS2_M5.doc 1/12 Module 4 : vérification des hypothèses d’application de la régression et robustesse du modèle Dans les paragraphes précédents on a supposé que les hypothèses d’application de la régression étaient vérifiées ce qui permet de montrer les propriétés remarquables (BLUE) des estimateurs, de construire des tests des paramètres et du coefficient de détermination et enfin d’élaborer des intervalles de confiance prévisionnels. L’importance de ces hypothèses étant manifeste, il est indispensable de les vérifier pour contrôler la qualité statistique et donc opérationnelle du modèle de régression. L’hypothèse d’indépendance de la variable explicative est une hypothèse ad hoc. Il en est de même dans ce cours de celle concernant le sens de causalité entre deux variables ainsi que l’absence de tendances communes pouvant conduire à une « spurious régression » (régression factice, c'est-à-dire une régression qui semble de bonne qualité à cause d’une tendance semblable entre les deux variables (r² élevé) mais qui dans la réalité n’est qu’une covariation). En définitive, ce sont les hypothèses sur l’aléa qui font l’objet de ce paragraphe. Rappelons que l’aléa est une succession temporelle (pour le modèle choisi ici) de variables aléatoires centrées, homoscédastiques, non autocorrélées et obéissant à une loi normale. Cet aléa est inconnu. L’hypothèse fondamentale sur laquelle repose le modèle de régression c’est que le résidu du modèle (connu) t t t Y ˆ Y e − = est un échantillon de cette famille de variables aléatoires. De ce fait, si le résidu vérifie, à partir de ses caractéristiques, les propriétés de l’aléa, on dira qu’il est issu de la famille des variables aléatoires. On utilise ainsi la moyenne, la variance, l’autocorrélation, et l’histogramme des résidus pour vérifier les hypothèses d’application du modèle de régression (unités 1, 2, 3 et 4). Il est enfin possible de vérifier si le modèle estimé est valide dans diverses circonstances : c’est la robustesse (unité 5) 1 L’hypothèse de nullité de l’espérance mathématique de l’erreur [ ] 0 E t = ε On veut tester [ ] 0 E t = ε On utilise la moyenne des résidus ∑ = t t e n 1 e pour vérifier cette hypothèse. On sait que : σ ≡ n , m N e e soit ( ) 1 , 0 N n m e e ≡ σ − On construit alors le test de signification : 0 m : H contre 0 m : H 1 0 ≠ = Si 96 , 1 n 0 e e < σ − (le quantile à 95% de la loi normale centrée réduite) alors l’hypothèse 0 H est vérifiée. Cette hypothèse ne joue pas un rôle important dans la régression puisqu’on sait que t t t y ˆ y e − = et donc par construction 0 e = . Il s’agit donc d’une hypothèse ad hoc et l’utilité de ce test ne se justifie que dans d’autres applications (séries temporelles par exemple) 2 L’hypothèse de non autocorrélation des erreurs [ ] 0 E ' t t = ε ε On va tester [ ] ' t t , ' t , t 0 E ' t t ≠ ∀ ∀ = ε ε 2.1 Détection de l’autocorrélation L3 Mathématique et Statistique 2 Vérification des hypothèses d’application de la régression M4 L3MS2_M5.doc 2/12 L’autocorrélation concerne les résidus : t t t Y ˆ Y e − = . Il y a autocorrélation toutes les fois où on peut trouver un coefficient de corrélation linéaire significativement différent de 0 entre la chronique des résidus et cette même chronique décalée d’un ou de plusieurs pas de temps. Si on note k le pas de temps du décalage temporel ( ) * N k ∈ et k r le coefficient de corrélation linéaire simple correspondant, on peut construire la Fonction d’AutoCorrélation des résidus : [ ] 1 , 1 r N k k FAC * + − ∈ → ∈ dont la représentation graphique est le corrélogramme : K est le décalage maximal pour lequel k r a un sens statistique (le nombre de points permettant le calcul de k r ). En général 3 n K 6 n ≤ ≤ Si les résidus sont une bonne représentation de l’aléa, ils doivent vérifier l’hypothèse de non autocorrélation ; cela signifie que toutes les autocorrélations successives doivent être non significativement différentes de 0. 2.2 Principales causes de l’autocorrélation Plusieurs raisons peuvent être la cause d’une autocorrélation. On peut citer : - Les variables de départ ne vérifient pas l’hypothèse de stationnarité, c’est-à-dire qu’elles peuvent contenir des tendances déterministes (trend linéaire) ou stochastiques (promenade aléatoire) communes, ce qui est générateur d’une régression factice pour laquelle le 2 r est proche de 1 avec une autocorrélation importante du résidu. - Les variables de départ étaient saisonnières et elles ont été mal désaisonnalisées. - Les variables contiennent des phénomènes exceptionnels (grèves,…) qui sont mal expliqués par le modèle. - Les variables de départ possédaient des « non informations » qui ont été corrigées par extrapolation linéaire… 2.3 Les effets de l’autocorrélation des erreurs Considérons le modèle sous la forme : t t t x y ε + β = Et supposons que : t ε obéisse à un processus autorégressif d’ordre 1, c’est-à-dire qu’il existe entre t ε et 1 t− ε un modèle de régression linéaire : k r 1 r 2 r 3 r k r … k -1 0 +1 K L3 Mathématique et Statistique 2 Vérification des hypothèses d’application de la régression M4 L3MS2_M5.doc 3/12 t 1 t t η + ρε = ε − avec 1 < ρ (qui assure la stabilité du modèle) et [ ] [ ] [ ] = η η σ = η = η 0 0 2 ' t t n t t Cov V E On sait que : ∑ ∑ ∑ ∑ = = = β 2 t t t t t 2 t t t x x w avec y w x y x ˆ ( ) 3 2 1 0 t t t t t w Y Y w Y Y w ˆ = ∑ ∑ ∑ − = − = β D’où ( ) ∑ ∑ ∑ ∑ ∑ ε + β = ε + β + α = ε + β + α = β = t t t t 1 t t 0 t t t t w w X w w X w ˆ 4 3 4 2 1 3 2 1 D’où [ ] [ ] t 0 tE w ˆ E ε + β = β = ∑3 2 1 L’estimateur reste sans biais quelque soit [ ] t E ε . On peut vérifier cependant que : t 1 t t η + ρε = ε − s’écrit : ( ) L Letc t 1 t 2 t 2 t 1 t 2 t t η + ρη + ε ρ = η + η + ρε ρ = ε − − − − ∑ ∞ + = θ θ − θ − − η ρ = + η ρ + ρη + η = ε 0 t 2 t 2 1 t t t L [ ] [ ] ∑ +∞ = θ = θ − θ η ρ = ε 0 0 t t E E 4 3 4 2 1 La variance de β ˆ s’écrit : [ ] [ ] [ ] ∑ β − β = σ = β ε 2 2 t 2 ˆ E ˆ E x / ˆ V Comme [ ] [ ] { [ ] 2 t 2 0 t t t E E E V ε = ε − ε = ε = On a : L3 Mathématique et Statistique 2 Vérification des hypothèses d’application de la régression M4 L3MS2_M5.doc 4/12 L + η ρ + ρη + η = ε − − 2 t 2 1 t t t L L + η ρη + + η ρ + η = ε − − 1 t t 2 2 2 2 t 2 1 t t D’où [ ] [ ] ( ) L K L 4 3 4 2 1 L + ρ + σ = + + σ ρ + σ = + η η ρ + + η ρ + η = ε η η η = − − 2 2 2 2 2 0 1 t t 2 2 2 2 t 1 0 E 2 E E E 1 t t Or : 1 < ρ d’où : [ ] 2 2 2 2 t 1 1 E ε η σ = σ ρ − = ε De ce fait : [ ] ∑ ρ − σ = β η t uploads/Management/ econometrics.pdf
Documents similaires
-
14
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Apv 12, 2021
- Catégorie Management
- Langue French
- Taille du fichier 0.0838MB