Logistische regression

In diesem Artikel wird erklärt, was logistische Regression in der Statistik ist. Ebenso finden Sie die logistische Regressionsformel, welche verschiedenen Arten der logistischen Regression es gibt und darüber hinaus eine gelöste logistische Regressionsübung.

Was ist logistische Regression?

In der Statistik ist die logistische Regression eine Art Regressionsmodell, das zur Vorhersage des Ergebnisses einer kategorialen Variablen verwendet wird. Das heißt, die logistische Regression wird verwendet, um die Wahrscheinlichkeit zu modellieren, dass eine kategoriale Variable basierend auf den unabhängigen Variablen einen bestimmten Wert annimmt.

Das gebräuchlichste logistische Regressionsmodell ist die binäre logistische Regression, bei der es nur zwei mögliche Ergebnisse gibt: „Misserfolg“ oder „Erfolg“ ( Bernoulli-Verteilung ). „Misserfolg“ wird durch den Wert 0 dargestellt, während „Erfolg“ durch den Wert 1 dargestellt wird.

Beispielsweise kann die Wahrscheinlichkeit, dass ein Student eine Prüfung besteht, basierend auf den Stunden, die er mit dem Lernen verbracht hat, mithilfe eines logistischen Regressionsmodells untersucht werden. In diesem Fall wäre Scheitern die Folge von „Misserfolg“ und umgekehrt wäre Erfolg die Folge von „Erfolg“.

Logistische Regressionsformel

Die Gleichung für ein logistisches Regressionsmodell lautet:

\displaystyle \ln \left(\frac{p}{1-p}\right) =\beta_0+\beta_1x_1+\beta_2x_2+\dots+\beta_ix_i

Daher wird in einem logistischen Regressionsmodell die Wahrscheinlichkeit, das Ergebnis „Erfolg“ zu erhalten, d. h. dass die abhängige Variable den Wert 1 annimmt, mit der folgenden Formel berechnet:

p=\cfrac{1}{1+e^{-(\beta_0+\beta_1x_1+\beta_2x_2+\dots+\beta_ix_i)}}

Gold:

  • p

    ist die Wahrscheinlichkeit, dass die abhängige Variable 1 ist.

  • \beta_0

    ist die Konstante des logistischen Regressionsmodells.

  • \beta_i

    ist der Regressionskoeffizient der Variablen i.

  • x_i

    ist der Wert der Variablen i.

Beispiel für ein logistisches Regressionsmodell

Nachdem wir nun die Definition der logistischen Regression kennen, sehen wir uns ein konkretes Beispiel dafür an, wie man ein Modell dieser Art von Regression erstellt.

  • In der folgenden Tabelle wurde eine Reihe von 20 Daten zusammengestellt, die sich auf die Studienstunden jedes Studenten und darauf beziehen, ob er eine Statistikprüfung bestanden oder nicht bestanden hat. Führen Sie ein logistisches Regressionsmodell durch und berechnen Sie die Wahrscheinlichkeit, dass ein Schüler besteht, wenn er oder sie 4 Stunden lang lernt.

In diesem Fall ist die erklärende Variable die Anzahl der Lernstunden und die Antwortvariable ist, ob der Student die Prüfung nicht bestanden (0) oder bestanden (1) hat. Daher haben wir in unserem Modell nur den Koeffizienten

\beta_0

und der Koeffizient

\beta_1

, da es nur eine unabhängige Variable gibt.

\beta_0 \qquad \beta_1

Die manuelle Bestimmung von Regressionskoeffizienten ist sehr aufwändig, daher empfiehlt sich die Verwendung von Computersoftware wie Minitab. Somit lauten die mit Minitab berechneten Werte der Regressionskoeffizienten wie folgt:

\begin{array}{c}\beta_0\approx -4,1\\[2ex]\beta_1\approx 1,5\end{array}

Das logistische Regressionsmodell sieht daher wie folgt aus:

\begin{aligned}p&=\cfrac{1}{1+e^{-(\beta_0+\beta_1x_1+\beta_2x_2+\dots+\beta_ix_i)}}\\[2ex]p&=\cfrac{1}{1+e^{-(-4,1+1,5x_1)}}\\[2ex]p&=\cfrac{1}{1+e^{4,1-1,5x_1}}\end{aligned}

Unten sehen Sie die Beispieldaten und die Gleichung des logistischen Regressionsmodells grafisch dargestellt:

Beispiel einer logistischen Regression

Um also die Wahrscheinlichkeit zu berechnen, dass ein Student erfolgreich sein wird, wenn er oder sie 4 Stunden gelernt hat, verwenden Sie einfach die Gleichung, die Sie aus dem logistischen Regressionsmodell erhalten:

\begin{aligned}p&=\cfrac{1}{1+e^{4,1-1,5x_1}}\\[2ex]p&=\cfrac{1}{1+e^{4,1-1,5\cdot 4}}\\[2ex]p&=0,8699\end{aligned}

Kurz gesagt: Wenn ein Student vier Stunden lang lernt, besteht die Wahrscheinlichkeit, dass er die Prüfung besteht, bei 86,99 %.

Arten der logistischen Regression

Es gibt drei Arten der logistischen Regression :

  • Binäre logistische Regression : Die abhängige Variable kann nur zwei Werte haben (0 und 1).
  • Multinomiale logistische Regression : Die abhängige Variable hat mehr als zwei mögliche Werte.
  • Ordinale logistische Regression : Mögliche Ergebnisse haben eine natürliche Reihenfolge.

Logistische Regression und lineare Regression

Abschließend werden wir zusammenfassend sehen, was der Unterschied zwischen einer logistischen Regression und einer linearen Regression ist, da das in der Statistik am häufigsten verwendete Regressionsmodell das lineare Modell ist.

Die lineare Regression wird zur Modellierung numerischer abhängiger Variablen verwendet. Darüber hinaus ist bei der linearen Regression die Beziehung zwischen den erklärenden Variablen und der Antwortvariablen linear.

Daher besteht der Hauptunterschied zwischen der logistischen Regression und der linearen Regression in der Art der abhängigen Variablen. Bei einer logistischen Regression ist die abhängige Variable kategorisch, während die abhängige Variable bei einer linearen Regression numerisch ist.

Daher wird die logistische Regression verwendet, um ein Ergebnis zwischen zwei möglichen Optionen vorherzusagen, während die lineare Regression dabei hilft, ein numerisches Ergebnis vorherzusagen.

Einen Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert