So interpretieren sie logistische regressionskoeffizienten (mit beispiel)
Die logistische Regression ist eine Methode, mit der wir ein Regressionsmodell anpassen können, wenn die Antwortvariable binär ist.
Wenn wir ein logistisches Regressionsmodell anpassen, stellen die Koeffizienten der Modellergebnisse die durchschnittliche Änderung der Log-Likelihood der Antwortvariablen dar, die mit einem Anstieg der Prädiktorvariablen um eine Einheit verbunden ist.
β = Average Change in Log Odds of Response Variable
Wir möchten oft die durchschnittliche Änderung der Wahrscheinlichkeiten der Antwortvariablen verstehen, die mit einem Anstieg der Prädiktorvariablen um eine Einheit einhergeht, was wir mithilfe der Formel e β ermitteln können.
e β = Average Change in Odds of Response Variable
Das folgende Beispiel zeigt, wie logistische Regressionskoeffizienten in der Praxis interpretiert werden.
Beispiel: Wie man logistische Regressionskoeffizienten interpretiert
Angenommen, wir möchten ein logistisches Regressionsmodell anhand des Geschlechts und der Anzahl der abgelegten Übungsprüfungen anpassen, um vorherzusagen, ob ein Schüler eine Abschlussprüfung in einer Klasse bestehen wird oder nicht.
Angenommen, wir passen das Modell mit Statistiksoftware (wie R, Python , Excel oder SAS ) an und erhalten das folgende Ergebnis:
Schätzung des Koeffizienten | Standart Fehler | Z-Wert | P-Wert | |
---|---|---|---|---|
Abfangen | -1,34 | 0,23 | 5,83 | <0,001 |
Männliches Geschlecht) | -0,56 | 0,25 | 2.24 | 0,03 |
Praktische Prüfungen | 1.13 | 0,43 | 2,63 | 0,01 |
So interpretieren Sie das Geschlecht (binäre Prädiktorvariable)
Wir können sehen, dass die Koeffizientenschätzung für das Geschlecht negativ ist, was darauf hindeutet, dass die Wahrscheinlichkeit, die Prüfung zu bestehen, geringer ist, wenn man männlich ist.
Wir können auch sehen, dass der p-Wert für das Geschlecht weniger als 0,05 beträgt, was bedeutet, dass er einen statistisch signifikanten Einfluss darauf hat, ob eine Person die Prüfung besteht oder nicht.
Um genau zu verstehen, wie sich die Männlichkeit darauf auswirkt, ob eine Person die Prüfung besteht oder nicht, können wir die Formel e β verwenden.
e -0,56 = 0,57
Wir interpretieren dies so, dass die Wahrscheinlichkeit, dass Männer die Prüfung bestehen, nur 0,57 -mal höher ist als bei Frauen, vorausgesetzt, dass die Anzahl der Übungsprüfungen konstant bleibt .
Wir könnten auch sagen, dass die Wahrscheinlichkeit, dass Männer die Prüfung bestehen (1 – 0,57), um 43 % geringer ist als bei Frauen, wobei wiederum davon ausgegangen wird, dass die Anzahl der Übungsprüfungen konstant bleibt .
Wie man praktische Prüfungen interpretiert (kontinuierliche prädiktive Variable)
Wir sehen, dass die Koeffizientenschätzung für praktische Prüfungen positiv ist, was darauf hindeutet, dass jede weitere abgelegte praktische Prüfung die Chance auf das Bestehen der Abschlussprüfung erhöht.
Wir können auch sehen, dass der p-Wert für die Anzahl der abgelegten Übungsprüfungen weniger als 0,05 beträgt, was bedeutet, dass er einen statistisch signifikanten Einfluss darauf hat, ob eine Person die Abschlussprüfung besteht oder nicht.
Um den Einfluss jeder zusätzlichen praktischen Prüfung auf das Bestehen der Abschlussprüfung zu quantifizieren, können wir die Formel e β verwenden.
e 1,13 = 3,09
Wir interpretieren dies so, dass sich bei gleichbleibendem Geschlecht die Chance, die Abschlussprüfung zu bestehen, mit jeder weiteren absolvierten praktischen Prüfung um 3,09 erhöht.
Wir könnten auch sagen, dass jede weitere abgelegte Übungsprüfung mit einer (3,09 – 1) 209 % höheren Wahrscheinlichkeit, die Abschlussprüfung zu bestehen, verbunden ist, wiederum unter der Annahme, dass das Geschlecht konstant bleibt.
Hinweis : In diesem Artikel erfahren Sie, wie Sie den ursprünglichen Begriff in einem logistischen Regressionsmodell interpretieren.
Zusätzliche Ressourcen
Die folgenden Tutorials bieten zusätzliche Informationen zur logistischen Regression:
So melden Sie Ergebnisse der logistischen Regression
Die Nullhypothese für die logistische Regression verstehen
Der Unterschied zwischen logistischer Regression und linearer Regression