Introduction : La majorité du temps, un économiste a pour objectif de prouver q
Introduction : La majorité du temps, un économiste a pour objectif de prouver qu'une variable a un effet de type causal sur une autre. Exemple : l'éducation a un effet de causalité sur la productivité d'un travailleur L'approche économétrique d'un phénomène observé vise à décrire son comportement à l'aide d'équations et de phénomène observé et à estimer les coefficients des équations en se référant à l'histoire du phénomène pour le mettre en évidence, l'expliquer, le reproduire et le prévoir. La plupart des analyses économétriques partent du principe suivant : y et x sont deux variables représentant une population et nous voulons expliquer y en fonction de x. variables représentant une population et nous voulons expliquer y en fonction de x. La relation entre ces variables restant exceptionnellement parfaite, un terme d'erreur est systématiquement ajouté aux variables précédentes, généralement noté ε En général, l’analyse de régression peut être utilisée : Pour identifier les variables explicatives qui influencent la variable réponse Pour décrire la forme des relations existantes entre les variables explicatives Et enfin pour établir une équation mathématique qui permettra de prédire la variable réponse à partir des variables explicatives. Mais un phénomène est souvent du à de multiples facteurs. Par exemple, le fait pour un individu d’Achter un produit est déterminé à la fois par son profil (genre, âge, revenu ….), par les caractéristiques du produit (prix, qualité…), par les services après-vente. Dans ce cas on parle d’une régression linéaire multiple qui constitue une généralisation du modèle de régression simple lorsque les variables explicatives sont en nombre quelconque. Pour aller plus loin dans la modélisation, des hypothèses supplémentaires doivent être prises : effets de l'erreur, lien entre l'erreur et les variables explicatives, lien entre la réponse et les variables explicatives ou entre la réponse et l'erreur. I. Le modèle linéaire générale : 1. Présentation : De nombreux phénomènes dans plusieurs domaines sont multifactoriels, dans la mesure où ils dépendent de plusieurs facteurs (variables). On cherche à modéliser la relation entre plus de 2 variables quantitatives. Le modèle de régression linéaire multiple s’écrit sous la forme suivante : Avec : k = le nombre des variables explicatives Yt : Variable à expliquer à la date t ; Xit : variable explicative a0, a1, a2, · · ·, ak : Sont les paramètres/coefficients du modèle que l’on veut estimer à l’aide des données εi = erreur de spécification, une variable aléatoire inconnue n = nombre d’observations 2. Forme matriciel L’écriture ci-dessus est peu pratique donc pour la rendre plus commode, il va falloir faire recours à l’écriture matricielle. Pour t = 1,2,…, n, on a : Pour alléger cette écriture, on va écrire ce système d’équations sous forme matricielle : Y = Xa + ε Avec : — Y est un vecteur aléatoire de dimension n, — X est une matrice de taille n × k + 1 connue, appelée matrice du plan d’expérience, —a est le vecteur de dimension k + 1 des paramètres inconnus du modèle, — ε est le vecteur de dimension n des erreurs. 3. Hypothèses dans le modèle de régression multiple : H1 : le modèle est linéaire en Xit H2 : les valeurs Xit sont observées sans erreurs (Xi non aléatoire) H3 : E (εi) = 0, l’espérance mathématique de l’erreur est nulle. En moyenne les erreurs s’annulent, le modèle est bien spécifié H4 : la variance de l’erreur est constante et ne dépend pas de l’observation : l’hypothèse d’homoscédasticité H5 : Cov (xijεi) = 0, l’erreur est indépendante des variables explicatives (exogène) H6 : Cov (εiεj) = 0, indépendance des erreurs, les erreurs sont corrélées avec i≠j H7 : absence de colinéarité entre les variables explicatives, cela implique que la matrice XtX est inversible (det(XtX) ≠0) H8 : n>k+1, le nombre d’observations est supérieur au nombre des série explicatives H9 : XtX/n tend vers une matrice finie non singulière (inversible). II. Estimateur des moindre carrée : Le problème : Nous devons optimiser l'estimation des paramètres a0, a1,….. ak du modèle de régression, pour reproduire au mieux le phénomène économique observé. Soit le modèle sous forme matricielle à k variables explicatives et n observations : La méthode des moindre carrée apporte une repense à ce problème, elle consiste à estimer a1 et a0 de façon à minimiser la somme des carrées des erreurs, soit : Avec : est le transposé de On a : S = ε t ε= (Y - Xa)’ (Y – Xa) =Y’Y – Y’Xa – X’a’Y + a’X’Xa =Y’Y – 2a’X’Y + a’X’Xa avec : (Y’Xa)’ = (a’X’Y) Expression de â : Pour déterminer le minimum de S, nous réalisons la dérivation matricielle : On doit résoudre = -2X’Y + 2X’Xâ= 0 Donc : â = (X’X)-1 X’Y Le modèle estimé s’écrit : Avec : où et est le résidu NB : il ne faut pas confondre l'erreur de spécification du modèle, laquelle est inconnue et le restera, avec le résidu (et), qui est pour sa part connu. Rappels sur les matrices : Quelques éléments sur les calculs matriciels pour comprendre les développements ci-dessus: — (Xβ) t = βt Xt — (Yt Xβ)t = βt Xt Y — La transposée d’un scalaire est égal à lui-même. Or en se référant aux dimensions des vecteurs et matrice, on constate que βt Xt Y est de dimension 1, un scalaire. La transposée d’une matrice : Soit A une matrice d’ordre (n, p), elle admet n lignes et p colonnes : La transposée de A notée At est d’ordre (p, n) : Le déterminant d’une matrice : Soit A une matrice d’ordre 3 : L’inverse d’une matrice : A est une matrice inversible si et seulement si det(A) ≠ 0 Soit A une matrice d’ordre 3 : On a : Exemple : Supposons que les services de police souhaitent établir un modèle de régression linéaire reliant la variable endogène « taux de criminalité juvénile » mesuré par un indicateur Y, à la densité de la population urbaine mesurée par un indicateur X1 et au taux de scolarité X2. On a relevé 5 observations : TAF : Donner une estimation des paramètres de l’équation suivante : Y = β0 + β1X1 + β2X2 + ε Solution : Nous allons donc déterminer les paramètres de l’équation estimée Yˆ = βˆ0 + βˆ1 X1 + βˆ2 X2 Définissons les matrices X, βˆ et Y : D’après la méthode des Moindres Carrés Ordinaires, on a : βˆ = (Xt X) −1 (Xt Y) Alors : Et Donc : D’où l’expression finale de l’équation de régression multiple estimée : Yˆ = −22 35 × 16 35 X 1+ 6 35 X2 Ceci signifie qu’il existe une relation positive assez forte entre le taux de criminalité juvénile et la densité urbaine, l’augmentation de l’indicateur de la densité urbaine d’une unité entraine l’augmentation de la criminalité juvénile de 45, 7142%. Exemple 2 : On veut exprimer l’évolution de l’indice du revenu nominal moyen Y d’un ménage de salariés en fonction de l’indice général des prix X1 et de l’indice du produit intérieur brut réel X2. On se limite à 9 observations : TAF : Donner une estimation des paramètres de l’équation suivante : Y = β0 + β1 X1 + β2 X2 + ε Solution : Nous allons donc déterminer les paramètres de l’équation estimée Yˆ = βˆ0 + βˆ1 X1 + βˆ2 X2 Définissons les matrices X, βˆ et Y : D’après la méthode des Moindres Carrés Ordinaires, on a : βˆ = (Xt X) −1 (Xt Alors : D’où : Et Donc : D’où l’expression finale de l’équation de régression multiple estimée : Yˆ = −50, 2107 + 1, 3629 X1 + 0, 1244 X 2. hypothèses et propriétés des estimateurs : A. Biais de « a » Le modèle sous forme matricielle peut s’écrire, comme pour le modèle de régression simple, de différentes manières : D’après la formule ci-dessus : â = (X’ X)-1 X’Y = (X’X)-1 X’ (Xa + ε) â = (X’ X)-1 X’ (Xa) + (X’ X)-1 X’ε (1) â = a (X’ X)-1 X’ε E(â) = E (a + (X’ X)-1 (X’ ε)) = E (a) + E ((X’ X)-1 (X’ ε)) D’où E (â) = a + (X’ X)-1 X’ E (ε) parce que X non aléatoire E (â) = a parce que E (ε)= 0 par hypothèse L’estimateur des MCO est sans biais B. La matrice des variances covariances de « a » : Calculons la matrice des variances covariances des coefficients de régression : Ωâ Ωâ = E ((â – a) (â – a)’) D’après (1) (â – a) = (X’ X)-1 X’ ε et (â – a)’ = ε’ X (X’ X)-1 Puisque (X’ X)-1 est symétrique. (â – a) (â – a)’ = (X’ X)-1 X’ εε’ X (X’ X)-1 D’où : Ωâ = (X’ X)-1 X’ E (εε’) X (X’ X)-1 Grace aux hypothèses H4 et H4 on a : E (εε’) = Ωε = σε 2 I = matrice uploads/Litterature/ regression-lineaire.pdf
Documents similaires
-
22
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Mai 16, 2021
- Catégorie Literature / Litté...
- Langue French
- Taille du fichier 0.5969MB