Jak wyodrębnić wartości p z regresji liniowej w modelach statystycznych
Możesz użyć następujących metod, aby wyodrębnić wartości p dla współczynników w dopasowaniu modelu regresji liniowej za pomocą modułu statsmodels w Pythonie:
#extract p-values for all predictor variables for x in range(0, 3): print ( model.pvalues [x]) #extract p-value for specific predictor variable name model. pvalues . loc [' predictor1 '] #extract p-value for specific predictor variable position model. pvalues [0]
Poniższe przykłady pokazują, jak zastosować każdą metodę w praktyce.
Przykład: Wyodrębnij wartości P z regresji liniowej w modelach statystycznych
Załóżmy, że mamy następującą ramkę DataFrame pandy, która zawiera informacje o przepracowanych godzinach, zdanych egzaminach przygotowawczych i końcowej ocenie uzyskanej przez uczniów w określonych zajęciach:
import pandas as pd #createDataFrame df = pd. DataFrame ({' hours ': [1, 2, 2, 4, 2, 1, 5, 4, 2, 4, 4, 3, 6], ' exams ': [1, 3, 3, 5, 2, 2, 1, 1, 0, 3, 4, 3, 2], ' score ': [76, 78, 85, 88, 72, 69, 94, 94, 88, 92, 90, 75, 96]}) #view head of DataFrame df. head () hours exam score 0 1 1 76 1 2 3 78 2 2 3 85 3 4 5 88 4 2 2 72
Możemy użyć funkcji OLS() modułu statsmodels, aby dopasować model regresji liniowej wielokrotnej , używając „godzin” i „egzaminów” jako zmiennych predykcyjnych oraz „wyniku” jakozmiennej odpowiedzi :
import statsmodels. api as sm #define predictor and response variables y = df['score'] x = df[['hours', 'exams']] #add constant to predictor variables x = sm. add_constant (x) #fit linear regression model model = sm. OLS (y,x). fit () #view model summary print ( model.summary ()) OLS Regression Results ==================================================== ============================ Dept. Variable: R-squared score: 0.718 Model: OLS Adj. R-squared: 0.661 Method: Least Squares F-statistic: 12.70 Date: Fri, 05 Aug 2022 Prob (F-statistic): 0.00180 Time: 09:24:38 Log-Likelihood: -38.618 No. Observations: 13 AIC: 83.24 Df Residuals: 10 BIC: 84.93 Df Model: 2 Covariance Type: non-robust ==================================================== ============================ coef std err t P>|t| [0.025 0.975] -------------------------------------------------- ---------------------------- const 71.4048 4.001 17.847 0.000 62.490 80.319 hours 5.1275 1.018 5.038 0.001 2.860 7.395 exams -1.2121 1.147 -1.057 0.315 -3.768 1.344 ==================================================== ============================ Omnibus: 1,103 Durbin-Watson: 1,248 Prob(Omnibus): 0.576 Jarque-Bera (JB): 0.803 Skew: -0.289 Prob(JB): 0.669 Kurtosis: 1.928 Cond. No. 11.7 ==================================================== ============================
Domyślnie funkcja podsumowania() wyświetla wartości p każdej zmiennej predykcyjnej z dokładnością do trzech miejsc po przecinku:
- Wartość P dla przecięcia: 0,000
- Wartość p w godzinach: 0,001
- Wartość P dla egzaminów: 0,315
Możemy jednak wyodrębnić z modelu pełne wartości p dla każdej zmiennej predykcyjnej, stosując następującą składnię:
#extract p-values for all predictor variables for x in range(0, 3): print ( model.pvalues [x]) 6.514115622692573e-09 0.0005077783375870773 0.3154807854805659
Dzięki temu możemy zobaczyć wartości p z większą liczbą miejsc po przecinku:
- Wartość P dla przecięcia: 0,00000000651411562269257
- Wartość P dla godzin: 0,0005077783375870773
- Wartość P dla badań: 0,3154807854805659
Uwaga : Użyliśmy 3 w naszej funkcji range(), ponieważ w naszym modelu regresji istniały trzy współczynniki całkowite.
Możemy również użyć następującej składni, aby konkretnie wyodrębnić wartość p dla zmiennej „godziny”:
#extract p-value for 'hours' only model. pvalues . loc [' hours '] 0.0005077783375870773
Lub moglibyśmy użyć następującej składni, aby wyodrębnić wartość p współczynnika zmiennej w określonej pozycji modelu regresji:
#extract p-value for coefficient in index position 0 model. pvalues [0] 6.514115622692573e-09
Dodatkowe zasoby
Poniższe samouczki wyjaśniają, jak wykonywać inne typowe zadania w Pythonie:
Jak przeprowadzić regresję logistyczną w Pythonie
Jak obliczyć AIC modeli regresji w Pythonie
Jak obliczyć skorygowany R-kwadrat w Pythonie