統計モデルの線形回帰から p 値を抽出する方法


次のメソッドを使用して、Python のstatsmodelsモジュールを使用して線形回帰モデル フィットの係数の p 値を抽出できます。

 #extract p-values for all predictor variables
for x in range(0, 3):
    print ( model.pvalues [x])

#extract p-value for specific predictor variable name
model. pvalues . loc [' predictor1 ']

#extract p-value for specific predictor variable position
model. pvalues [0]

次の例は、各メソッドを実際に使用する方法を示しています。

例: 統計モデルの線形回帰から P 値を抽出する

特定のクラスの生徒の学習時間、受けた予備試験、および最終成績に関する情報を含む次のパンダ データフレームがあるとします。

 import pandas as pd

#createDataFrame
df = pd. DataFrame ({' hours ': [1, 2, 2, 4, 2, 1, 5, 4, 2, 4, 4, 3, 6],
                   ' exams ': [1, 3, 3, 5, 2, 2, 1, 1, 0, 3, 4, 3, 2],
                   ' score ': [76, 78, 85, 88, 72, 69, 94, 94, 88, 92, 90, 75, 96]})

#view head of DataFrame
df. head ()

	hours exam score
0 1 1 76
1 2 3 78
2 2 3 85
3 4 5 88
4 2 2 72

statsmodels モジュールのOLS()関数を使用して、「時間」と「試験」を予測変数として、「スコア」を応答変数として使用して重線形回帰モデルを近似できます。

 import statsmodels. api as sm

#define predictor and response variables
y = df['score']
x = df[['hours', 'exams']]

#add constant to predictor variables
x = sm. add_constant (x)

#fit linear regression model
model = sm. OLS (y,x). fit ()

#view model summary
print ( model.summary ())

                            OLS Regression Results                            
==================================================== ============================
Dept. Variable: R-squared score: 0.718
Model: OLS Adj. R-squared: 0.661
Method: Least Squares F-statistic: 12.70
Date: Fri, 05 Aug 2022 Prob (F-statistic): 0.00180
Time: 09:24:38 Log-Likelihood: -38.618
No. Observations: 13 AIC: 83.24
Df Residuals: 10 BIC: 84.93
Df Model: 2                                         
Covariance Type: non-robust                                         
==================================================== ============================
                 coef std err t P>|t| [0.025 0.975]
-------------------------------------------------- ----------------------------
const 71.4048 4.001 17.847 0.000 62.490 80.319
hours 5.1275 1.018 5.038 0.001 2.860 7.395
exams -1.2121 1.147 -1.057 0.315 -3.768 1.344
==================================================== ============================
Omnibus: 1,103 Durbin-Watson: 1,248
Prob(Omnibus): 0.576 Jarque-Bera (JB): 0.803
Skew: -0.289 Prob(JB): 0.669
Kurtosis: 1.928 Cond. No. 11.7
==================================================== ============================

デフォルトでは、 summary()関数は各予測子変数の p 値を小数点以下 3 桁まで表示します。

  • 切片の P 値: 0.000
  • 時間の P 値: 0.001
  • 試験の P 値: 0.315

ただし、次の構文を使用してモデルから各予測子変数の完全な p 値を抽出できます。

 #extract p-values for all predictor variables
for x in range(0, 3):
    print ( model.pvalues [x])

6.514115622692573e-09
0.0005077783375870773
0.3154807854805659

これにより、より多くの小数点以下の桁数で p 値を確認できるようになります。

  • 切片の P 値: 0.00000000651411562269257
  • 時間の P 値: 0.0005077783375870773
  • 試験の P 値: 0.3154807854805659

: 回帰モデルには合計 3 つの係数があるため、 range()関数で3 を使用しました。

次の構文を使用して、「時間」変数の p 値を具体的に抽出することもできます。

 #extract p-value for 'hours' only
model. pvalues . loc [' hours ']

0.0005077783375870773

または、次の構文を使用して、回帰モデルの特定の位置にある変数の係数の p 値を抽出することもできます。

 #extract p-value for coefficient in index position 0
model. pvalues [0]

6.514115622692573e-09

追加リソース

次のチュートリアルでは、Python で他の一般的なタスクを実行する方法について説明します。

Python でロジスティック回帰を実行する方法
Python で回帰モデルの AIC を計算する方法
Python で調整済み R 二乗を計算する方法

コメントを追加する

メールアドレスが公開されることはありません。 が付いている欄は必須項目です