Chapitre 2 Régression Multiple Introduction : • Le but premier de ce deuxième c

Chapitre 2 Régression Multiple Introduction : • Le but premier de ce deuxième chapitre est la modélisation (l’explication) dans un but prédictif, d’une variable quantitative Y par plusieurs variables quantitatives X1, X2, …, Xp . Ces dernières sont liées linéairement avec Y. Il s’agit là de ce qu’on appelle : la régression linéaire multiple. Le modèle : • Le modèle de régression linéaire multiple est une généralisation de la régression simple. • C’est un outil statistique mis en œuvre pour l’étude de données multidimensionnelles. Le modèle : Objectifs • Estimer les paramètres du modèle Avec des estimateurs de meilleur qualité. • Mesurer le pouvoir explicatif global du modèle. • Faire de la prévision en construisant des intervalles de prévision. • Ce dernier point nous permettra de repérer les points aberrants et de les supprimer. 0 1 2 ; ; ; ; p   Le modèle : (aspect empirique) • Une variable quantitative Y (V. à expliquer ou endogène) est mise en relation avec p variables quantitatives X1, X2, …, Xp (V. explicatives , exogènes ou régresseurs). • On mesure sur n individus ces p+1 variables représentées par des vecteurs de Rn: y, x1, x2, …, xp (où n > p+1). • L’écriture du modèle linéaire est alors comme suit : 0 1 1 2 2 1 i i i p ip i y x x x w i n             Le modèle : Ecriture matricielle         1 0 1 11 12 1 2 1 2 21 22 2 1 2 1 2 ,1 ,1 1,1 , 1 1 1 1 1 p p i i i i ip i p n n n np n Y n W n p X n p x y x x w x y x x w y x x x w y x x x w Y X                                                                                    W  Exemple 2 Introduction to econometrics _GL_ Dougherty C. Le modèle : Les Hypothèses On supposera vrai les hypothèses suivantes : H1- Linéarité : La relation entre y et x1, . . . ,xp est linéaire. H2: Plein rang : La matrice X’X est inversible; autrement det(X’X) 0. On peut l’exprimer par le fait que les Xi sont indépendantes linéairement (pas statistiquement). Cette hyp. est nécessaire pour l’estimation des paramètres. H3: Exogénéité des variables indépendantes : Les Wi sont des termes d’erreur d’espérance conditionnelle aux réalisations des xi est nulle : E(Wi | x1, . . . ,xp) =0. Les xi n’interviennent pas dans la prédiction de Wi 0 1 1 2 2 1 i i i p ip i y x x x w i n              Le modèle : Les Hypothèses (suite) H4: Homoscédasticité et absence d’autocorrélation: V(Wi) = s2; où s2 est cste et wi n’est pas corrélé avec wj pour i j : cov(wi ,wj)=0 H5: Génération des données: Les Xi qu’elle soient aléatoires ou déterministes (facteurs contrôlés) ne changent en rien les résultats. H6: Distribution Normale : Les W sont distribués selon la loi Normale.  Rappels sur le gradient des fonctions linéaires et formes quadratiques • Considérons la fonction f telle que : • On appelle gradient de f, la dérivée de f par rapport à u. C'est une fonction de : 1 2 1 p f u f u grad f f u                               1 1 1 1 : ( , , , ) ; 1 p p f R R u f u f u u u où p      1 1 p p R R    Rappels sur le gradient des fonctions linéaires et formes quadratiques • Cas linéaire : • Cas quadratique :  1 1 2 2 1 1 2 2 1 1 1 1 ' p p p p f x f x f x x x x grad f x x f                                                               1 2 1 1 1 2 11 12 1 21 22 2 1 2 ' ( ) 2 étantsupposéesymetrique , n=p+1 ij p ii i ij ji i j i i j p a n n n n nn f A a a a grad f A a a a a a a où A a a a                              Estimation des coefficients par la Méthode des Moindres Carrés • Comme on a vu dans le chapitre 1, il s’agit , afin d’estimer , de minimiser la somme des carrées des résidus (ei) (voir graphique du chapitre 1) : 2 1 min ˆ ˆ Y n i i e où e Y Y X        Le modèle: Méthode des Moindres Carrés • Soit à minimiser : • Vérifier que est un minimum en calculant la matrice Hessienne : celle des dérivées secondes de F (=2X'X)         2 0 1 1 2 2 1 2 1 α' X -2α' X 1 Y α' X 'Xα α' X 0 2X 2X 0 ˆ X X i n i i i p ip i X n i i Y scalaire Y y x x x e e e F Y X Y X Y Y Y X grad F Y X X Y                                                           ˆ  Le modèle : Méthode des Moindres Carrés • Où:   1 2 2 1 1 1 2 1 2 1 1, 1 1 X X i i ip i ip i i i i ip ip ip i p p i i i ip i n x x x x x x x x x X x x x x y x y Y x y                                                Le modèle : Méthode des Moindres Carrés • Exemple : (Modèle avec constante): MRLS méthod Matricielle • e=0R2 : signifie que la droite estimée passe par les deux points (1 , 1.5) et (2 , 2).         1 1 ˆ 1 0.5 1 1 1.5 X 2 : 1,1.5 2,2 1 2 2 3.5 2 3 5 3 X X X 5.5 3 5 3 2 1 1.5 ˆ ˆ ˆ X X Y α 0.5 2 1.5 1.5 0 2 2 0 i i y x Y observations et Y X X X Y X e                                                                                   n=2 X cste Le modèle : Méthode des Moindres Carrés • Exemple : (Modèle sans constante) • On remarque que car le modèle est sans cste.         1 1 ˆ 1.1 1 1.5 X 2 : 1,1.5 2,2 2 2 1 uploads/Management/ s6-mrlm-ch2-18-21.pdf

  • 27
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager
  • Détails
  • Publié le Aoû 25, 2021
  • Catégorie Management
  • Langue French
  • Taille du fichier 1.0860MB