Statsmodels で回帰モデルを使用して予測を行う方法


次の基本構文を使用して、Python のstatsmodelsモジュールを使用した回帰モデル フィッティングを使用して、新しい観測値についての予測を行うことができます。

 model. predict (df_new)

この特定の構文は、model と呼ばれる統計モデルに適した回帰モデルを使用して、 df_newと呼ばれる新しい DataFrame の各行の予測応答値を計算します。

次の例は、この構文を実際に使用する方法を示しています。

例: Statsmodels の回帰モデルを使用した予測の作成

特定のクラスの生徒の学習時間、受けた予備試験、および最終成績に関する情報を含む次のパンダ データフレームがあるとします。

 import pandas as pd

#createDataFrame
df = pd. DataFrame ({' hours ': [1, 2, 2, 4, 2, 1, 5, 4, 2, 4, 4, 3, 6],
                   ' exams ': [1, 3, 3, 5, 2, 2, 1, 1, 0, 3, 4, 3, 2],
                   ' score ': [76, 78, 85, 88, 72, 69, 94, 94, 88, 92, 90, 75, 96]})

#view head of DataFrame
df. head ()

	hours exam score
0 1 1 76
1 2 3 78
2 2 3 85
3 4 5 88
4 2 2 72

statsmodels モジュールのOLS()関数を使用して、「時間」と「試験」を予測変数として、「スコア」を応答変数として使用して重線形回帰モデルを近似できます。

 import statsmodels. api as sm

#define predictor and response variables
y = df[' score ']
x = df[[' hours ', ' exams ']]

#add constant to predictor variables
x = sm. add_constant (x)

#fit linear regression model
model = sm. OLS (y,x). fit ()

#view model summary
print ( model.summary ())

                            OLS Regression Results                            
==================================================== ============================
Dept. Variable: R-squared score: 0.718
Model: OLS Adj. R-squared: 0.661
Method: Least Squares F-statistic: 12.70
Date: Fri, 05 Aug 2022 Prob (F-statistic): 0.00180
Time: 09:24:38 Log-Likelihood: -38.618
No. Observations: 13 AIC: 83.24
Df Residuals: 10 BIC: 84.93
Df Model: 2                                         
Covariance Type: non-robust                                         
==================================================== ============================
                 coef std err t P>|t| [0.025 0.975]
-------------------------------------------------- ----------------------------
const 71.4048 4.001 17.847 0.000 62.490 80.319
hours 5.1275 1.018 5.038 0.001 2.860 7.395
exams -1.2121 1.147 -1.057 0.315 -3.768 1.344
==================================================== ============================
Omnibus: 1,103 Durbin-Watson: 1,248
Prob(Omnibus): 0.576 Jarque-Bera (JB): 0.803
Skew: -0.289 Prob(JB): 0.669
Kurtosis: 1.928 Cond. No. 11.7
==================================================== ============================

出力のcoef列から、近似回帰モデルを書くことができます。

スコア = 71.4048 + 5.1275 (時間) – 1.2121 (試験)

ここで、適合回帰モデルを使用して 5 人の新入生の「得点」を予測するとします。

まず、5 つの新しい観測値を保持する DataFrame を作成しましょう。

 #create new DataFrame
df_new = pd. DataFrame ({' hours ': [1, 2, 2, 4, 5],
                       ' exams ': [1, 1, 4, 3, 3]})

#add column for constant
df_new = sm. add_constant (df_new)

#view new DataFrame
print (df_new)

   const hours exams
0 1.0 1 1
1 1.0 2 1
2 1.0 2 4
3 1.0 4 3
4 1.0 5 3

次に、 predict()関数を使用して、適合回帰モデルの予測変数の値として「時間数」と「試験」を使用して、これらの各生徒の「スコア」を予測できます。

 #predict scores for the five new students
model. predict (df_new)

0 75.320242
1 80.447734
2 76.811480
3 88.278550
4 93.406042
dtype:float64

結果を解釈する方法は次のとおりです。

  • 新しい DataFrame の最初の生徒は75.32点を獲得すると予想されます。
  • 新しい DataFrame の 2 番目の生徒は80.45 点を獲得すると予想されます。

等々。

これらの予測がどのように計算されたかを理解するには、以前の近似回帰モデルを参照する必要があります。

スコア = 71.4048 + 5.1275 (時間) – 1.2121 (試験)

新入生の「時間」と「試験」の値を代入することで、彼らの予測スコアを計算できます。

たとえば、新しい DataFrame の最初の生徒の時間の値は1 、試験の値は1でした。

したがって、彼らの予測スコアは次のように計算されました。

スコア = 71.4048 + 5.1275(1) – 1.2121(1) = 75.32

新しいデータフレーム内の各生徒のスコアも同じ方法で計算されました。

追加リソース

次のチュートリアルでは、Python で他の一般的なタスクを実行する方法について説明します。

Python でロジスティック回帰を実行する方法
Python で回帰モデルの AIC を計算する方法
Python で調整済み R 二乗を計算する方法

コメントを追加する

メールアドレスが公開されることはありません。 が付いている欄は必須項目です