Haute multicolinéarité et votre modèle économétrique

Des résultats de haute multicolinéarité d'une relation linéaire entre vos variables indépendantes avec un haut degré de corrélation, mais ne sont pas totalement déterministe (en d'autres termes, ils ne disposent pas de corrélation parfaite). Il est beaucoup plus fréquent que son homologue parfait et peut également être problématique quand il vient à l'estimation d'un modèle économétrique.

Vous pouvez décrire une relation linéaire approximative, qui caractérise haute multicolinéarité, comme suit:

image0.jpg

où le Xs sont des variables indépendantes dans un modèle de régression et u représente un terme d'erreur aléatoire (qui est le composant qui différencie haute multicolinéarité de multicolinéarité parfaite). Par conséquent, la différence entre colinéarité parfaite et haut est que des variations dans la variable indépendante est pas expliquée par la variation de l'autre variable (s) indépendante.

Le plus fort de la relation entre les variables indépendantes, le plus vous êtes susceptible d'avoir des problèmes d'estimation avec votre modèle.

Relations linéaires fortes résultant en haute multicolinéarité peuvent parfois vous prendre par surprise, mais ces trois situations ont tendance à être particulièrement problématique:

  • Vous utilisez des variables qui sont les valeurs de l'autre à la traîne. Par exemple, une variable indépendante est le revenu d'un individu dans l'année en cours, et une autre variable indépendante mesure le revenu d'un individu dans l'année précédente. Ces valeurs peuvent être complètement différents pour certaines observations, mais pour la plupart des observations des deux sont étroitement liés.

  • Vous utilisez des variables qui partagent une composante de tendance commune de temps. Par exemple, vous utilisez des valeurs annuelles du PIB (produit intérieur brut) et le DJIA (Dow Jones Industrial Average) comme variables indépendantes dans un modèle de régression. La valeur de ces mesures tend à augmenter (avec des baisses occasionnelles) et se déplacent généralement dans la même direction au fil du temps.




  • Vous utilisez des variables qui saisissent des phénomènes similaires. Par exemple, vos variables indépendantes pour expliquer la criminalité dans les villes peut être le taux de chômage, le revenu moyen et le taux de pauvreté. Ces variables ne sont pas susceptibles d'être parfaitement corrélés, mais ils sont probablement fortement corrélées.

Techniquement, la présence d'une forte multicolinéarité ne viole pas les hypothèses de CLRM. En conséquence, les estimations MCO peuvent être obtenus et sont en bleu (meilleurs estimateurs linéaires sans) avec une forte multicolinéarité.

Bien estimateurs MCO restent BLEU en présence d'une forte multicolinéarité, il renforce un souhaitable échantillonnage répété propriété. Dans la pratique, vous avez probablement pas la possibilité d'utiliser plusieurs échantillons, de sorte que vous voulez un échantillon donné pour produire des résultats sensibles et fiables.

Avec haute multicolinéarité, l'OLS estimations ont toujours le plus petit écart, mais plus petit est un concept relatif et ne garantissent pas que les écarts sont en fait des petits. En fait, les écarts plus importants (et les erreurs types) des estimateurs MCO sont la raison principale pour éviter haute multicolinéarité.

Les conséquences typiques de haute multicolinéarité comprennent ce qui suit:

  • Erreurs standard plus grandes et insignifiante t-Statistiques: La variance estimée d'un coefficient dans une régression multiple est

    image1.jpg

    image2.jpg

    est l'erreur quadratique moyenne (MSE) et

    image3.jpg

    est la valeur de R au carré à partir de la régression Xk de l'autre Xs. Résultats de multicolinéarité supérieur dans une grande

    image4.jpg

    ce qui augmente l'erreur-type du coefficient. La figure illustre l'effet de la multicolinéarité sur la variance (ou erreur-type) d'un coefficient.

    image5.jpg

    Parce que le t-statistique associée à un coefficient est le rapport entre le coefficient estimé de l'erreur-type

    image6.jpg

    haute multicolinéarité tend également à entraîner insignifiante t-statistiques.

  • Les estimations des coefficients qui sont sensibles aux changements de spécifications: Si les variables indépendantes sont très colinéaires, les estimations doivent soulignent petites différences dans les variables afin d'attribuer un effet indépendant à chacun d'eux. Ajout ou suppression de variables du modèle peut changer la nature des petites différences et changer radicalement vos estimations des coefficients. En d'autres termes, vos résultats ne sont pas robustes.

  • Signes et magnitudes de coefficients absurdes: Avec multicolinéarité supérieur, la variance des coefficients estimés augmente, ce qui à son tour augmente les chances d'obtenir des estimations de coefficients avec des valeurs extrêmes. Par conséquent, ces estimations peuvent avoir incroyablement grandes amplitudes et / ou des signes qui contrent la relation attendue entre les variables indépendantes et dépendantes. La figure illustre comment la distribution d'échantillonnage des coefficients estimés est affectée par la multicolinéarité.

    image7.jpg

Lorsque deux (ou plusieurs) des variables présentent une forte multicolinéarité, il n'y a plus d'incertitude que la variable à laquelle devrait être crédité expliquer la variation de la variable dépendante. Pour cette raison, un haut R-valeur carré combinée avec de nombreux coefficients statistiquement insignifiants est une conséquence fréquente de haute multicolinéarité.


» » » » Haute multicolinéarité et votre modèle économétrique