So berechnen sie die restquadratsumme in python


Ein Residuum ist die Differenz zwischen einem beobachteten Wert und einem vorhergesagten Wert in einem Regressionsmodell.

Es wird wie folgt berechnet:

Residuum = Beobachteter Wert – Vorhergesagter Wert

Eine Möglichkeit zu verstehen, wie gut ein Regressionsmodell zu einem Datensatz passt, ist die Berechnung der Restquadratsumme , die wie folgt berechnet wird:

Restquadratsumme = Σ(e i ) 2

Gold:

  • Σ : Ein griechisches Symbol mit der Bedeutung „Summe“
  • e i : Der i- te Rest

Je niedriger der Wert, desto besser passt das Modell zu einem Datensatz.

Dieses Tutorial bietet ein schrittweises Beispiel für die Berechnung der Restquadratsumme für ein Regressionsmodell in Python.

Schritt 1: Geben Sie die Daten ein

Für dieses Beispiel geben wir Daten zur Anzahl der Lernstunden, zur Gesamtzahl der abgelegten Vorbereitungsprüfungen und zu den Prüfungsergebnissen von 14 verschiedenen Studierenden ein:

 import pandas as pd

#createDataFrame
df = pd. DataFrame ({' hours ': [1, 2, 2, 4, 2, 1, 5, 4, 2, 4, 4, 3, 6, 5],
                   ' exams ': [1, 3, 3, 5, 2, 2, 1, 1, 0, 3, 4, 3, 2, 4],
                   ' score ': [76, 78, 85, 88, 72, 69, 94, 94, 88, 92, 90, 75, 96, 90]})

Schritt 2: Passen Sie das Regressionsmodell an

Als nächstes verwenden wir die Funktion OLS() aus der Statsmodels-Bibliothek, um eine gewöhnliche Regression der kleinsten Quadrate durchzuführen, wobei wir „Stunden“ und „Prüfungen“ als Prädiktorvariablen und „Punktzahl“ als Antwortvariable verwenden:

 import statsmodels. api as sm

#define response variable
y = df[' score ']

#define predictor variables
x = df[[' hours ', ' exams ']]

#add constant to predictor variables
x = sm. add_constant (x)

#fit linear regression model
model = sm. OLS (y,x). fit ()

#view model summary
print ( model.summary ())

                            OLS Regression Results                            
==================================================== ============================
Dept. Variable: R-squared score: 0.722
Model: OLS Adj. R-squared: 0.671
Method: Least Squares F-statistic: 14.27
Date: Sat, 02 Jan 2021 Prob (F-statistic): 0.000878
Time: 15:58:35 Log-Likelihood: -41.159
No. Comments: 14 AIC: 88.32
Df Residuals: 11 BIC: 90.24
Model: 2                                         
Covariance Type: non-robust                                         
==================================================== ============================
                 coef std err t P>|t| [0.025 0.975]
-------------------------------------------------- ----------------------------
const 71.8144 3.680 19.517 0.000 63.716 79.913
hours 5.0318 0.942 5.339 0.000 2.958 7.106
exams -1.3186 1.063 -1.240 0.241 -3.658 1.021
==================================================== ============================
Omnibus: 0.976 Durbin-Watson: 1.270
Prob(Omnibus): 0.614 Jarque-Bera (JB): 0.757
Skew: -0.245 Prob(JB): 0.685
Kurtosis: 1.971 Cond. No. 12.1
==================================================== ============================

Schritt 3: Berechnen Sie die Restquadratsumme

Wir können den folgenden Code verwenden, um die verbleibende Quadratsumme des Modells zu berechnen:

 print ( model.ssr )

293.25612951525414

Die verbleibende Quadratsumme ergibt sich zu 293.256 .

Zusätzliche Ressourcen

So führen Sie eine einfache lineare Regression in Python durch
So führen Sie eine multiple lineare Regression in Python durch
Restquadratsummenrechner

Einen Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert