Comment réparer dans R : il y a des coefficients alias dans le modèle
Une erreur que vous pouvez rencontrer dans R est :
Error in vif.default(model) : there are aliased coefficients in the model
Cette erreur se produit généralement lorsqu’une multicolinéarité existe dans un modèle de régression. Autrement dit, deux variables prédictives ou plus dans le modèle sont fortement (ou parfaitement) corrélées.
Lorsque cela se produit, nous disons qu’une variable est un « alias » d’une autre variable, ce qui pose des problèmes lors de l’ajustement d’un modèle de régression.
L’exemple suivant montre comment corriger cette erreur dans la pratique.
Comment reproduire l’erreur
Supposons que nous appliquions le modèle de régression suivant dans R :
#make this example reproducible
set.seed(0)
#define data
x1 <- rnorm(100)
x2 <- rnorm(100)
x3 <- x2*3
y <- rnorm(100)
#fit regression model
model <- lm(y~x1+x2+x3)
Nous pouvons utiliser la fonction vif() du package car pour calculer les valeurs VIF pour chaque variable prédictive du modèle afin de déterminer si la multicolinéarité est un problème :
library(car)
#calculate VIF values for predictor variables
vif(model)
Error in vif.default(model) : there are aliased coefficients in the model
Nous recevons une erreur indiquant « qu’il y a des coefficients alias dans le modèle ». «
Cela nous indique que deux ou plusieurs variables prédictives du modèle sont parfaitement corrélées.
Comment réparer l’erreur
Pour déterminer quelles variables prédictives sont parfaitement corrélées, nous pouvons utiliser la fonction cor() pour créer une matrice de corrélation pour les variables :
#place variables in data frame
df <- data.frame(x1, x2, x3, y)
#create correlation matrix for data frame
cor(df)
x1 x2 x3 y
x1 1.00000000 0.126886263 0.126886263 0.065047543
x2 0.12688626 1.000000000 1.000000000 -0.009107573
x3 0.12688626 1.000000000 1.000000000 -0.009107573
y 0.06504754 -0.009107573 -0.009107573 1.000000000
Nous pouvons voir que les variables x2 et x3 ont un coefficient de corrélation de 1. Cela nous indique que ces deux variables sont à l’origine de l’erreur car elles sont parfaitement corrélées.
Pour corriger cette erreur, il suffit d’ajuster à nouveau le modèle de régression et de laisser de côté l’une de ces deux variables.
Peu importe la variable que nous omettons puisqu’elles fournissent toutes deux exactement les mêmes informations dans le modèle de régression.
Pour plus de simplicité, supprimons x3 et ajustons à nouveau le modèle de régression :
library(car)
#make this example reproducible
set.seed(0)
#define data
x1 <- rnorm(100)
x2 <- rnorm(100)
x3 <- x2*3
y <- rnorm(100)
#fit regression model
model <- lm(y~x1+x2)
#calculate VIF values for predictor variables in model
vif(model)
x1 x2
1.016364 1.016364
Notez que nous ne recevons aucune erreur cette fois lors du calcul des valeurs VIF pour le modèle car la multicolinéarité n’est plus un problème.
Connexe : Comment calculer et interpréter les valeurs VIF dans R
Ressources additionnelles
Les didacticiels suivants expliquent comment corriger d’autres erreurs courantes dans R :
Comment réparer dans R : le remplacement a une longueur nulle
Comment réparer dans R : les arguments impliquent un nombre de lignes différent
Comment réparer dans R : l’argument n’est ni numérique ni logique : renvoyer na