Jak wyodrębnić wartości p z regresji liniowej w modelach statystycznych


Możesz użyć następujących metod, aby wyodrębnić wartości p dla współczynników w dopasowaniu modelu regresji liniowej za pomocą modułu statsmodels w Pythonie:

 #extract p-values for all predictor variables
for x in range(0, 3):
    print ( model.pvalues [x])

#extract p-value for specific predictor variable name
model. pvalues . loc [' predictor1 ']

#extract p-value for specific predictor variable position
model. pvalues [0]

Poniższe przykłady pokazują, jak zastosować każdą metodę w praktyce.

Przykład: Wyodrębnij wartości P z regresji liniowej w modelach statystycznych

Załóżmy, że mamy następującą ramkę DataFrame pandy, która zawiera informacje o przepracowanych godzinach, zdanych egzaminach przygotowawczych i końcowej ocenie uzyskanej przez uczniów w określonych zajęciach:

 import pandas as pd

#createDataFrame
df = pd. DataFrame ({' hours ': [1, 2, 2, 4, 2, 1, 5, 4, 2, 4, 4, 3, 6],
                   ' exams ': [1, 3, 3, 5, 2, 2, 1, 1, 0, 3, 4, 3, 2],
                   ' score ': [76, 78, 85, 88, 72, 69, 94, 94, 88, 92, 90, 75, 96]})

#view head of DataFrame
df. head ()

	hours exam score
0 1 1 76
1 2 3 78
2 2 3 85
3 4 5 88
4 2 2 72

Możemy użyć funkcji OLS() modułu statsmodels, aby dopasować model regresji liniowej wielokrotnej , używając „godzin” i „egzaminów” jako zmiennych predykcyjnych oraz „wyniku” jakozmiennej odpowiedzi :

 import statsmodels. api as sm

#define predictor and response variables
y = df['score']
x = df[['hours', 'exams']]

#add constant to predictor variables
x = sm. add_constant (x)

#fit linear regression model
model = sm. OLS (y,x). fit ()

#view model summary
print ( model.summary ())

                            OLS Regression Results                            
==================================================== ============================
Dept. Variable: R-squared score: 0.718
Model: OLS Adj. R-squared: 0.661
Method: Least Squares F-statistic: 12.70
Date: Fri, 05 Aug 2022 Prob (F-statistic): 0.00180
Time: 09:24:38 Log-Likelihood: -38.618
No. Observations: 13 AIC: 83.24
Df Residuals: 10 BIC: 84.93
Df Model: 2                                         
Covariance Type: non-robust                                         
==================================================== ============================
                 coef std err t P>|t| [0.025 0.975]
-------------------------------------------------- ----------------------------
const 71.4048 4.001 17.847 0.000 62.490 80.319
hours 5.1275 1.018 5.038 0.001 2.860 7.395
exams -1.2121 1.147 -1.057 0.315 -3.768 1.344
==================================================== ============================
Omnibus: 1,103 Durbin-Watson: 1,248
Prob(Omnibus): 0.576 Jarque-Bera (JB): 0.803
Skew: -0.289 Prob(JB): 0.669
Kurtosis: 1.928 Cond. No. 11.7
==================================================== ============================

Domyślnie funkcja podsumowania() wyświetla wartości p każdej zmiennej predykcyjnej z dokładnością do trzech miejsc po przecinku:

  • Wartość P dla przecięcia: 0,000
  • Wartość p w godzinach: 0,001
  • Wartość P dla egzaminów: 0,315

Możemy jednak wyodrębnić z modelu pełne wartości p dla każdej zmiennej predykcyjnej, stosując następującą składnię:

 #extract p-values for all predictor variables
for x in range(0, 3):
    print ( model.pvalues [x])

6.514115622692573e-09
0.0005077783375870773
0.3154807854805659

Dzięki temu możemy zobaczyć wartości p z większą liczbą miejsc po przecinku:

  • Wartość P dla przecięcia: 0,00000000651411562269257
  • Wartość P dla godzin: 0,0005077783375870773
  • Wartość P dla badań: 0,3154807854805659

Uwaga : Użyliśmy 3 w naszej funkcji range(), ponieważ w naszym modelu regresji istniały trzy współczynniki całkowite.

Możemy również użyć następującej składni, aby konkretnie wyodrębnić wartość p dla zmiennej „godziny”:

 #extract p-value for 'hours' only
model. pvalues . loc [' hours ']

0.0005077783375870773

Lub moglibyśmy użyć następującej składni, aby wyodrębnić wartość p współczynnika zmiennej w określonej pozycji modelu regresji:

 #extract p-value for coefficient in index position 0
model. pvalues [0]

6.514115622692573e-09

Dodatkowe zasoby

Poniższe samouczki wyjaśniają, jak wykonywać inne typowe zadania w Pythonie:

Jak przeprowadzić regresję logistyczną w Pythonie
Jak obliczyć AIC modeli regresji w Pythonie
Jak obliczyć skorygowany R-kwadrat w Pythonie

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *