So berechnen sie die restquadratsumme in python
Ein Residuum ist die Differenz zwischen einem beobachteten Wert und einem vorhergesagten Wert in einem Regressionsmodell.
Es wird wie folgt berechnet:
Residuum = Beobachteter Wert – Vorhergesagter Wert
Eine Möglichkeit zu verstehen, wie gut ein Regressionsmodell zu einem Datensatz passt, ist die Berechnung der Restquadratsumme , die wie folgt berechnet wird:
Restquadratsumme = Σ(e i ) 2
Gold:
- Σ : Ein griechisches Symbol mit der Bedeutung „Summe“
- e i : Der i- te Rest
Je niedriger der Wert, desto besser passt das Modell zu einem Datensatz.
Dieses Tutorial bietet ein schrittweises Beispiel für die Berechnung der Restquadratsumme für ein Regressionsmodell in Python.
Schritt 1: Geben Sie die Daten ein
Für dieses Beispiel geben wir Daten zur Anzahl der Lernstunden, zur Gesamtzahl der abgelegten Vorbereitungsprüfungen und zu den Prüfungsergebnissen von 14 verschiedenen Studierenden ein:
import pandas as pd #createDataFrame df = pd. DataFrame ({' hours ': [1, 2, 2, 4, 2, 1, 5, 4, 2, 4, 4, 3, 6, 5], ' exams ': [1, 3, 3, 5, 2, 2, 1, 1, 0, 3, 4, 3, 2, 4], ' score ': [76, 78, 85, 88, 72, 69, 94, 94, 88, 92, 90, 75, 96, 90]})
Schritt 2: Passen Sie das Regressionsmodell an
Als nächstes verwenden wir die Funktion OLS() aus der Statsmodels-Bibliothek, um eine gewöhnliche Regression der kleinsten Quadrate durchzuführen, wobei wir „Stunden“ und „Prüfungen“ als Prädiktorvariablen und „Punktzahl“ als Antwortvariable verwenden:
import statsmodels. api as sm
#define response variable
y = df[' score ']
#define predictor variables
x = df[[' hours ', ' exams ']]
#add constant to predictor variables
x = sm. add_constant (x)
#fit linear regression model
model = sm. OLS (y,x). fit ()
#view model summary
print ( model.summary ())
OLS Regression Results
==================================================== ============================
Dept. Variable: R-squared score: 0.722
Model: OLS Adj. R-squared: 0.671
Method: Least Squares F-statistic: 14.27
Date: Sat, 02 Jan 2021 Prob (F-statistic): 0.000878
Time: 15:58:35 Log-Likelihood: -41.159
No. Comments: 14 AIC: 88.32
Df Residuals: 11 BIC: 90.24
Model: 2
Covariance Type: non-robust
==================================================== ============================
coef std err t P>|t| [0.025 0.975]
-------------------------------------------------- ----------------------------
const 71.8144 3.680 19.517 0.000 63.716 79.913
hours 5.0318 0.942 5.339 0.000 2.958 7.106
exams -1.3186 1.063 -1.240 0.241 -3.658 1.021
==================================================== ============================
Omnibus: 0.976 Durbin-Watson: 1.270
Prob(Omnibus): 0.614 Jarque-Bera (JB): 0.757
Skew: -0.245 Prob(JB): 0.685
Kurtosis: 1.971 Cond. No. 12.1
==================================================== ============================
Schritt 3: Berechnen Sie die Restquadratsumme
Wir können den folgenden Code verwenden, um die verbleibende Quadratsumme des Modells zu berechnen:
print ( model.ssr )
293.25612951525414
Die verbleibende Quadratsumme ergibt sich zu 293.256 .
Zusätzliche Ressourcen
So führen Sie eine einfache lineare Regression in Python durch
So führen Sie eine multiple lineare Regression in Python durch
Restquadratsummenrechner