Python で sst、ssr、sse を計算する方法


回帰直線が一連のデータにどの程度適合するかを測定するために、私たちはよく 3 つの異なる平方和値を使用します。

1. 総平方和 (SST) –個々のデータ ポイント (y i ) と応答変数の平均 ( y ) の間の差の平方和。

  • SST = Σ(y iy ) 2

2. 二乗和回帰 (SSR) – 予測されたデータ点 (ŷ i ) と応答変数の平均 ( y ) の差の二乗和。

  • SSR = Σ(ŷ iy ) 2

3. 二乗和誤差 (SSE) – 予測データ ポイント (ŷ i ) と観測データ ポイント (y i ) の差の二乗和。

  • SSE = Σ(ŷ i – y i ) 2

次のステップバイステップの例は、Python で特定の回帰モデルのこれらの各メトリクスを計算する方法を示しています。

ステップ 1: データを作成する

まず、特定の大学の 20 人の異なる学生の学習時間数と取得した試験のスコアを含むデータセットを作成しましょう。

 import pandas as pd

#create pandas DataFrame
df = pd. DataFrame ({' hours ': [1, 1, 1, 2, 2, 2, 2, 2, 3, 3,
                             3, 4, 4, 4, 5, 5, 6, 7, 7, 8],
                   ' score ': [68, 76, 74, 80, 76, 78, 81, 84, 86, 83,
                             88, 85, 89, 94, 93, 94, 96, 89, 92, 97]})

#view first five rows of DataFrame
df. head ()

	hours score
0 1 68
1 1 76
2 1 74
3 2 80
4 2 76

ステップ 2: 回帰モデルを当てはめる

次に、 statsmodelsライブラリのOLS()関数を使用して、応答変数としてスコア、予測変数として時間を使用する単純な線形回帰モデルを近似します。

 import statsmodels. api as sm

#define response variable
y = df[' score ']

#define predictor variable
x = df[[' hours ']]

#add constant to predictor variables
x = sm. add_constant (x)

#fit linear regression model
model = sm. OLS (y,x). fit ()

ステップ 3: SST、SSR、SSE を計算する

最後に、次の式を使用してモデルの SST、SSR、SSE 値を計算できます。

 import numpy as np

#calculate
sse = np. sum ((model. fitted values - df. score ) ** 2)
print (sse)

331.07488479262696

#calculate ssr
ssr = np. sum ((model. fitted values - df. score . mean ()) ** 2)
print (ssr)

917.4751152073725

#calculate sst
sst = ssr + sse
print (sst)

1248.5499999999995

指標は次のようになります。

  • 総二乗和 (SST): 1248.55
  • 二乗和回帰 (SSR): 917.4751
  • 二乗和誤差 (SSE): 331.0749

SST = SSR + SSE であることを確認できます。

  • SST = SSR + SSE
  • 1248.55 = 917.4751 + 331.0749

追加リソース

次の計算ツールを使用すると、任意の単純な線形回帰直線の SST、SSR、および SSE を自動的に計算できます。

  • SST計算機
  • RSS計算機
  • ESS計算機

次のチュートリアルでは、他の統計ソフトウェアで SST、SSR、および SSE を計算する方法を説明します。

コメントを追加する

メールアドレスが公開されることはありません。 が付いている欄は必須項目です