如何从统计模型中的线性回归中提取p值


您可以使用Python中的statsmodels模块使用以下方法提取线性回归模型拟合中系数的p值:

 #extract p-values for all predictor variables
for x in range(0, 3):
    print ( model.pvalues [x])

#extract p-value for specific predictor variable name
model. pvalues . loc [' predictor1 ']

#extract p-value for specific predictor variable position
model. pvalues [0]

以下示例展示了如何在实践中使用每种方法。

示例:从统计模型中的线性回归中提取 P 值

假设我们有以下 pandas DataFrame,其中包含有关某个班级学生的学习时间、准备考试以及最终成绩的信息:

 import pandas as pd

#createDataFrame
df = pd. DataFrame ({' hours ': [1, 2, 2, 4, 2, 1, 5, 4, 2, 4, 4, 3, 6],
                   ' exams ': [1, 3, 3, 5, 2, 2, 1, 1, 0, 3, 4, 3, 2],
                   ' score ': [76, 78, 85, 88, 72, 69, 94, 94, 88, 92, 90, 75, 96]})

#view head of DataFrame
df. head ()

	hours exam score
0 1 1 76
1 2 3 78
2 2 3 85
3 4 5 88
4 2 2 72

我们可以使用 statsmodels 模块的OLS()函数来拟合多元线性回归模型,使用“小时”和“考试”作为预测变量,“分数”作为响应变量

 import statsmodels. api as sm

#define predictor and response variables
y = df['score']
x = df[['hours', 'exams']]

#add constant to predictor variables
x = sm. add_constant (x)

#fit linear regression model
model = sm. OLS (y,x). fit ()

#view model summary
print ( model.summary ())

                            OLS Regression Results                            
==================================================== ============================
Dept. Variable: R-squared score: 0.718
Model: OLS Adj. R-squared: 0.661
Method: Least Squares F-statistic: 12.70
Date: Fri, 05 Aug 2022 Prob (F-statistic): 0.00180
Time: 09:24:38 Log-Likelihood: -38.618
No. Observations: 13 AIC: 83.24
Df Residuals: 10 BIC: 84.93
Df Model: 2                                         
Covariance Type: non-robust                                         
==================================================== ============================
                 coef std err t P>|t| [0.025 0.975]
-------------------------------------------------- ----------------------------
const 71.4048 4.001 17.847 0.000 62.490 80.319
hours 5.1275 1.018 5.038 0.001 2.860 7.395
exams -1.2121 1.147 -1.057 0.315 -3.768 1.344
==================================================== ============================
Omnibus: 1,103 Durbin-Watson: 1,248
Prob(Omnibus): 0.576 Jarque-Bera (JB): 0.803
Skew: -0.289 Prob(JB): 0.669
Kurtosis: 1.928 Cond. No. 11.7
==================================================== ============================

默认情况下, summary()函数显示每个预测变量的 p 值,最多显示小数点后三位:

  • 截距 P 值: 0.000
  • 小时 P 值: 0.001
  • 考试 P 值: 0.315

但是,我们可以使用以下语法从模型中提取每个预测变量的完整 p 值:

 #extract p-values for all predictor variables
for x in range(0, 3):
    print ( model.pvalues [x])

6.514115622692573e-09
0.0005077783375870773
0.3154807854805659

这使我们能够看到具有更多小数位的 p 值:

  • 截距的 P 值: 0.00000000651411562269257
  • 小时 P 值: 0.0005077783375870773
  • 考试 P 值: 0.3154807854805659

注意:我们在range()函数中使用了3 ,因为我们的回归模型中有三个总系数。

我们还可以使用以下语法来专门提取“hours”变量的 p 值:

 #extract p-value for 'hours' only
model. pvalues . loc [' hours ']

0.0005077783375870773

或者我们可以使用以下语法来提取回归模型特定位置的变量系数的 p 值:

 #extract p-value for coefficient in index position 0
model. pvalues [0]

6.514115622692573e-09

其他资源

以下教程解释了如何在 Python 中执行其他常见任务:

如何在 Python 中执行逻辑回归
如何用Python计算回归模型的AIC
如何在 Python 中计算调整后的 R 平方

添加评论

您的电子邮箱地址不会被公开。 必填项已用*标注