如何从统计模型中的线性回归中提取p值
您可以使用Python中的statsmodels模块使用以下方法提取线性回归模型拟合中系数的p值:
#extract p-values for all predictor variables for x in range(0, 3): print ( model.pvalues [x]) #extract p-value for specific predictor variable name model. pvalues . loc [' predictor1 '] #extract p-value for specific predictor variable position model. pvalues [0]
以下示例展示了如何在实践中使用每种方法。
示例:从统计模型中的线性回归中提取 P 值
假设我们有以下 pandas DataFrame,其中包含有关某个班级学生的学习时间、准备考试以及最终成绩的信息:
import pandas as pd #createDataFrame df = pd. DataFrame ({' hours ': [1, 2, 2, 4, 2, 1, 5, 4, 2, 4, 4, 3, 6], ' exams ': [1, 3, 3, 5, 2, 2, 1, 1, 0, 3, 4, 3, 2], ' score ': [76, 78, 85, 88, 72, 69, 94, 94, 88, 92, 90, 75, 96]}) #view head of DataFrame df. head () hours exam score 0 1 1 76 1 2 3 78 2 2 3 85 3 4 5 88 4 2 2 72
我们可以使用 statsmodels 模块的OLS()函数来拟合多元线性回归模型,使用“小时”和“考试”作为预测变量,“分数”作为响应变量:
import statsmodels. api as sm #define predictor and response variables y = df['score'] x = df[['hours', 'exams']] #add constant to predictor variables x = sm. add_constant (x) #fit linear regression model model = sm. OLS (y,x). fit () #view model summary print ( model.summary ()) OLS Regression Results ==================================================== ============================ Dept. Variable: R-squared score: 0.718 Model: OLS Adj. R-squared: 0.661 Method: Least Squares F-statistic: 12.70 Date: Fri, 05 Aug 2022 Prob (F-statistic): 0.00180 Time: 09:24:38 Log-Likelihood: -38.618 No. Observations: 13 AIC: 83.24 Df Residuals: 10 BIC: 84.93 Df Model: 2 Covariance Type: non-robust ==================================================== ============================ coef std err t P>|t| [0.025 0.975] -------------------------------------------------- ---------------------------- const 71.4048 4.001 17.847 0.000 62.490 80.319 hours 5.1275 1.018 5.038 0.001 2.860 7.395 exams -1.2121 1.147 -1.057 0.315 -3.768 1.344 ==================================================== ============================ Omnibus: 1,103 Durbin-Watson: 1,248 Prob(Omnibus): 0.576 Jarque-Bera (JB): 0.803 Skew: -0.289 Prob(JB): 0.669 Kurtosis: 1.928 Cond. No. 11.7 ==================================================== ============================
默认情况下, summary()函数显示每个预测变量的 p 值,最多显示小数点后三位:
- 截距 P 值: 0.000
- 小时 P 值: 0.001
- 考试 P 值: 0.315
但是,我们可以使用以下语法从模型中提取每个预测变量的完整 p 值:
#extract p-values for all predictor variables for x in range(0, 3): print ( model.pvalues [x]) 6.514115622692573e-09 0.0005077783375870773 0.3154807854805659
这使我们能够看到具有更多小数位的 p 值:
- 截距的 P 值: 0.00000000651411562269257
- 小时 P 值: 0.0005077783375870773
- 考试 P 值: 0.3154807854805659
注意:我们在range()函数中使用了3 ,因为我们的回归模型中有三个总系数。
我们还可以使用以下语法来专门提取“hours”变量的 p 值:
#extract p-value for 'hours' only model. pvalues . loc [' hours '] 0.0005077783375870773
或者我们可以使用以下语法来提取回归模型特定位置的变量系数的 p 值:
#extract p-value for coefficient in index position 0 model. pvalues [0] 6.514115622692573e-09
其他资源
以下教程解释了如何在 Python 中执行其他常见任务:
如何在 Python 中执行逻辑回归
如何用Python计算回归模型的AIC
如何在 Python 中计算调整后的 R 平方