統計モデルの線形回帰から p 値を抽出する方法
次のメソッドを使用して、Python のstatsmodelsモジュールを使用して線形回帰モデル フィットの係数の p 値を抽出できます。
#extract p-values for all predictor variables for x in range(0, 3): print ( model.pvalues [x]) #extract p-value for specific predictor variable name model. pvalues . loc [' predictor1 '] #extract p-value for specific predictor variable position model. pvalues [0]
次の例は、各メソッドを実際に使用する方法を示しています。
例: 統計モデルの線形回帰から P 値を抽出する
特定のクラスの生徒の学習時間、受けた予備試験、および最終成績に関する情報を含む次のパンダ データフレームがあるとします。
import pandas as pd #createDataFrame df = pd. DataFrame ({' hours ': [1, 2, 2, 4, 2, 1, 5, 4, 2, 4, 4, 3, 6], ' exams ': [1, 3, 3, 5, 2, 2, 1, 1, 0, 3, 4, 3, 2], ' score ': [76, 78, 85, 88, 72, 69, 94, 94, 88, 92, 90, 75, 96]}) #view head of DataFrame df. head () hours exam score 0 1 1 76 1 2 3 78 2 2 3 85 3 4 5 88 4 2 2 72
statsmodels モジュールのOLS()関数を使用して、「時間」と「試験」を予測変数として、「スコア」を応答変数として使用して重線形回帰モデルを近似できます。
import statsmodels. api as sm #define predictor and response variables y = df['score'] x = df[['hours', 'exams']] #add constant to predictor variables x = sm. add_constant (x) #fit linear regression model model = sm. OLS (y,x). fit () #view model summary print ( model.summary ()) OLS Regression Results ==================================================== ============================ Dept. Variable: R-squared score: 0.718 Model: OLS Adj. R-squared: 0.661 Method: Least Squares F-statistic: 12.70 Date: Fri, 05 Aug 2022 Prob (F-statistic): 0.00180 Time: 09:24:38 Log-Likelihood: -38.618 No. Observations: 13 AIC: 83.24 Df Residuals: 10 BIC: 84.93 Df Model: 2 Covariance Type: non-robust ==================================================== ============================ coef std err t P>|t| [0.025 0.975] -------------------------------------------------- ---------------------------- const 71.4048 4.001 17.847 0.000 62.490 80.319 hours 5.1275 1.018 5.038 0.001 2.860 7.395 exams -1.2121 1.147 -1.057 0.315 -3.768 1.344 ==================================================== ============================ Omnibus: 1,103 Durbin-Watson: 1,248 Prob(Omnibus): 0.576 Jarque-Bera (JB): 0.803 Skew: -0.289 Prob(JB): 0.669 Kurtosis: 1.928 Cond. No. 11.7 ==================================================== ============================
デフォルトでは、 summary()関数は各予測子変数の p 値を小数点以下 3 桁まで表示します。
- 切片の P 値: 0.000
- 時間の P 値: 0.001
- 試験の P 値: 0.315
ただし、次の構文を使用してモデルから各予測子変数の完全な p 値を抽出できます。
#extract p-values for all predictor variables for x in range(0, 3): print ( model.pvalues [x]) 6.514115622692573e-09 0.0005077783375870773 0.3154807854805659
これにより、より多くの小数点以下の桁数で p 値を確認できるようになります。
- 切片の P 値: 0.00000000651411562269257
- 時間の P 値: 0.0005077783375870773
- 試験の P 値: 0.3154807854805659
注: 回帰モデルには合計 3 つの係数があるため、 range()関数で3 を使用しました。
次の構文を使用して、「時間」変数の p 値を具体的に抽出することもできます。
#extract p-value for 'hours' only model. pvalues . loc [' hours '] 0.0005077783375870773
または、次の構文を使用して、回帰モデルの特定の位置にある変数の係数の p 値を抽出することもできます。
#extract p-value for coefficient in index position 0 model. pvalues [0] 6.514115622692573e-09
追加リソース
次のチュートリアルでは、Python で他の一般的なタスクを実行する方法について説明します。
Python でロジスティック回帰を実行する方法
Python で回帰モデルの AIC を計算する方法
Python で調整済み R 二乗を計算する方法