So berechnen sie rmse in python
Der Root Mean Square Error (RMSE) ist eine Metrik, die uns sagt, wie weit unsere vorhergesagten Werte im Durchschnitt von unseren beobachteten Werten in einem Modell entfernt sind. Es wird wie folgt berechnet:
RMSE = √[ Σ(P i – O i ) 2 / n ]
Gold:
- Σ ist ein ausgefallenes Symbol, das „Summe“ bedeutet
- P i ist der vorhergesagte Wert für die i-te Beobachtung
- O i ist der beobachtete Wert für die i-te Beobachtung
- n ist die Stichprobengröße
In diesem Tutorial wird eine einfache Methode zur Berechnung des RMSE in Python erläutert.
Beispiel: RMSE in Python berechnen
Angenommen, wir haben die folgenden Tabellen mit tatsächlichen und vorhergesagten Werten:
actual= [34, 37, 44, 47, 48, 48, 46, 43, 32, 27, 26, 24] pred = [37, 40, 46, 44, 46, 50, 45, 44, 34, 30, 22, 23]
Um den RMSE zwischen den tatsächlichen und den vorhergesagten Werten zu berechnen, können wir einfach die Quadratwurzel der Funktion Mean_squared_error() aus der Bibliothek sklearn.metrics ziehen:
#import necessary libraries from sklearn.metrics import mean_squared_error from math import sqrt #calculate RMSE sqrt(mean_squared_error(actual, pred)) 2.4324199198
Der RMSE beträgt 2,4324 .
So interpretieren Sie den RMSE
RMSE ist eine nützliche Methode, um zu sehen, wie gut ein Modell in einen Datensatz passt. Je größer der RMSE, desto größer ist der Unterschied zwischen den vorhergesagten und den beobachteten Werten, d. h. desto schlechter passt das Modell zu den Daten. Umgekehrt gilt: Je kleiner der RMSE, desto besser kann das Modell die Daten anpassen.
Es kann besonders nützlich sein, den RMSE zweier verschiedener Modelle zu vergleichen, um herauszufinden, welches Modell am besten zu den Daten passt.
Zusätzliche Ressourcen
RMSE-Rechner
So berechnen Sie den mittleren quadratischen Fehler (MSE) in Python
So berechnen Sie MAPE in Python