Python で sst、ssr、sse を計算する方法
回帰直線が一連のデータにどの程度適合するかを測定するために、私たちはよく 3 つの異なる平方和値を使用します。
1. 総平方和 (SST) –個々のデータ ポイント (y i ) と応答変数の平均 ( y ) の間の差の平方和。
- SST = Σ(y i – y ) 2
2. 二乗和回帰 (SSR) – 予測されたデータ点 (ŷ i ) と応答変数の平均 ( y ) の差の二乗和。
- SSR = Σ(ŷ i – y ) 2
3. 二乗和誤差 (SSE) – 予測データ ポイント (ŷ i ) と観測データ ポイント (y i ) の差の二乗和。
- SSE = Σ(ŷ i – y i ) 2
次のステップバイステップの例は、Python で特定の回帰モデルのこれらの各メトリクスを計算する方法を示しています。
ステップ 1: データを作成する
まず、特定の大学の 20 人の異なる学生の学習時間数と取得した試験のスコアを含むデータセットを作成しましょう。
import pandas as pd #create pandas DataFrame df = pd. DataFrame ({' hours ': [1, 1, 1, 2, 2, 2, 2, 2, 3, 3, 3, 4, 4, 4, 5, 5, 6, 7, 7, 8], ' score ': [68, 76, 74, 80, 76, 78, 81, 84, 86, 83, 88, 85, 89, 94, 93, 94, 96, 89, 92, 97]}) #view first five rows of DataFrame df. head () hours score 0 1 68 1 1 76 2 1 74 3 2 80 4 2 76
ステップ 2: 回帰モデルを当てはめる
次に、 statsmodelsライブラリのOLS()関数を使用して、応答変数としてスコア、予測変数として時間を使用する単純な線形回帰モデルを近似します。
import statsmodels. api as sm #define response variable y = df[' score '] #define predictor variable x = df[[' hours ']] #add constant to predictor variables x = sm. add_constant (x) #fit linear regression model model = sm. OLS (y,x). fit ()
ステップ 3: SST、SSR、SSE を計算する
最後に、次の式を使用してモデルの SST、SSR、SSE 値を計算できます。
import numpy as np #calculate sse = np. sum ((model. fitted values - df. score ) ** 2) print (sse) 331.07488479262696 #calculate ssr ssr = np. sum ((model. fitted values - df. score . mean ()) ** 2) print (ssr) 917.4751152073725 #calculate sst sst = ssr + sse print (sst) 1248.5499999999995
指標は次のようになります。
- 総二乗和 (SST): 1248.55
- 二乗和回帰 (SSR): 917.4751
- 二乗和誤差 (SSE): 331.0749
SST = SSR + SSE であることを確認できます。
- SST = SSR + SSE
- 1248.55 = 917.4751 + 331.0749
追加リソース
次の計算ツールを使用すると、任意の単純な線形回帰直線の SST、SSR、および SSE を自動的に計算できます。
- SST計算機
- RSS計算機
- ESS計算機
次のチュートリアルでは、他の統計ソフトウェアで SST、SSR、および SSE を計算する方法を説明します。