Jak uzyskać podsumowanie modelu regresji z scikit-learn


Często możesz chcieć wyodrębnić podsumowanie modelu regresji utworzonego za pomocą scikit-learn w Pythonie.

Niestety, scikit-learn nie oferuje wielu wbudowanych funkcji do analizy podsumowania modelu regresji, ponieważ jest zwykle używany wyłącznie do celów predykcyjnych .

Jeśli więc chcesz uzyskać podsumowanie modelu regresji w Pythonie, masz dwie możliwości:

1. Skorzystaj z ograniczonych funkcji scikit-learn.

2. Zamiast tego używaj modeli statystycznych .

Poniższe przykłady pokazują, jak w praktyce używać każdej metody z następującą ramką DataFrame pand:

 import pandas as pd

#createDataFrame
df = pd. DataFrame ({' x1 ': [1, 2, 2, 4, 2, 1, 5, 4, 2, 4, 4],
                   ' x2 ': [1, 3, 3, 5, 2, 2, 1, 1, 0, 3, 4],
                   ' y ': [76, 78, 85, 88, 72, 69, 94, 94, 88, 92, 90]})

#view first five rows of DataFrame
df. head ()

       x1 x2 y
0 1 1 76
1 2 3 78
2 2 3 85
3 4 5 88
4 2 2 72

Metoda 1: Pobierz podsumowanie modelu regresji z Scikit-Learn

Możemy użyć następującego kodu, aby dopasować model regresji liniowej za pomocą scikit-learn:

 from sklearn. linear_model import LinearRegression

#initiate linear regression model
model = LinearRegression()

#define predictor and response variables
x, y = df[[' x1 ', ' x2 ']], df. y

#fit regression model
model. fit (x,y)

Możemy następnie użyć następującego kodu, aby wyodrębnić współczynniki regresji z modelu, a także wartość modelu R-kwadrat :

 #display regression coefficients and R-squared value of model
print (model. intercept_ , model. coef_ , model. score (X, y))

70.4828205704 [5.7945 -1.1576] 0.766742556527

Korzystając z tego wyniku, możemy zapisać równanie dopasowanego modelu regresji:

y = 70,48 + 5,79x 1 – 1,16x 2

Można również zauważyć, że wartość R 2 modelu wynosi 76,67.

Oznacza to, że 76,67% zmienności zmiennej odpowiedzi można wyjaśnić dwiema zmiennymi predykcyjnymi w modelu.

Chociaż wynik ten jest przydatny, nadal nie znamy ogólnej statystyki F modelu, wartości p poszczególnych współczynników regresji i innych przydatnych miar, które mogą pomóc nam zrozumieć, jak dobrze model pasuje do modelu. zbiór danych.zestaw danych.

Metoda 2: Uzyskaj podsumowanie modelu regresji ze Statsmodels

Jeśli chcesz wyodrębnić podsumowanie modelu regresji w Pythonie, najlepiej skorzystać z pakietu statsmodels .

Poniższy kod pokazuje, jak użyć tego pakietu, aby dopasować ten sam model regresji liniowej wielokrotnej, co w poprzednim przykładzie, i wyodrębnić podsumowanie modelu:

 import statsmodels. api as sm

#define response variable
y = df[' y ']

#define predictor variables
x = df[[' x1 ', ' x2 ']]

#add constant to predictor variables
x = sm. add_constant (x)

#fit linear regression model
model = sm. OLS (y,x). fit ()

#view model summary
print ( model.summary ())

                            OLS Regression Results                            
==================================================== ============================
Dept. Variable: y R-squared: 0.767
Model: OLS Adj. R-squared: 0.708
Method: Least Squares F-statistic: 13.15
Date: Fri, 01 Apr 2022 Prob (F-statistic): 0.00296
Time: 11:10:16 Log-Likelihood: -31.191
No. Comments: 11 AIC: 68.38
Df Residuals: 8 BIC: 69.57
Df Model: 2                                         
Covariance Type: non-robust                                         
==================================================== ============================
                 coef std err t P>|t| [0.025 0.975]
-------------------------------------------------- ----------------------------
const 70.4828 3.749 18.803 0.000 61.839 79.127
x1 5.7945 1.132 5.120 0.001 3.185 8.404
x2 -1.1576 1.065 -1.087 0.309 -3.613 1.298
==================================================== ============================
Omnibus: 0.198 Durbin-Watson: 1.240
Prob(Omnibus): 0.906 Jarque-Bera (JB): 0.296
Skew: -0.242 Prob(JB): 0.862
Kurtosis: 2.359 Cond. No. 10.7
==================================================== ============================

Należy zauważyć, że współczynniki regresji i wartość R-kwadrat odpowiadają tym obliczonym przez scikit-learn, ale mamy też mnóstwo innych przydatnych metryk dla modelu regresji.

Na przykład możemy zobaczyć wartości p dla każdej indywidualnej zmiennej predykcyjnej:

  • Wartość p dla x 1 = 0,001
  • Wartość p dla x 2 = 0,309

Możemy także zobaczyć ogólną statystykę F modelu, skorygowaną wartość R-kwadrat , wartość AIC modelu i wiele więcej.

Dodatkowe zasoby

Poniższe samouczki wyjaśniają, jak wykonywać inne typowe operacje w Pythonie:

Jak wykonać prostą regresję liniową w Pythonie
Jak wykonać wielokrotną regresję liniową w Pythonie
Jak obliczyć AIC modeli regresji w Pythonie

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *