Parametrische statistik

In diesem Artikel wird erklärt, was parametrische Statistiken sind und wofür sie verwendet werden. Außerdem können Sie sich ein Beispiel für die Anwendung parametrischer Statistiken ansehen und erfahren, welche Vor- und Nachteile sie im Vergleich zu nichtparametrischen Statistiken haben.

Was sind parametrische Statistiken?

Parametrische Statistik ist der Zweig der Inferenzstatistik, der davon ausgeht, dass Daten durch eine Wahrscheinlichkeitsverteilung modelliert werden können. Daher verwendet die parametrische Statistik statistische Tests, die bekannten Wahrscheinlichkeitsverteilungen entsprechen.

Es ist zu beachten, dass die überwiegende Mehrheit der verwendeten statistischen Methoden parametrisch ist, das heißt, sie sind Teil der parametrischen Statistik.

In erster Linie werden parametrische Statistiken verwendet, um einen Parameter entweder durch eine Punktschätzung oder durch ein Intervall zu schätzen und um Hypothesentests durchzuführen.

Siehe: Parameterschätzung
Siehe: Hypothesenkontrast

Beispiel für parametrische Statistik

Nachdem wir nun wissen, was die Definition parametrischer Statistiken ist, sehen wir uns ein Beispiel für die Anwendung dieser Art von Statistiken an, um das Konzept vollständig zu verstehen.

Die Normalverteilung ist eine durch den Mittelwert und die Standardabweichung parametrisierte Wahrscheinlichkeitsverteilung. Wenn wir also den Wert dieser beiden Parameter kennen, können wir ihre Eigenschaften bestimmen und somit die Wahrscheinlichkeiten der Variablen berechnen, die dieser Verteilung entsprechen.

Wenn wir beispielsweise eine Stichprobe von 99 Beobachtungen haben, die einer Normalverteilung mit einem Mittelwert von 100 und einer Standardabweichung von 1 folgt, können wir mithilfe parametrischer Statistiken bestimmen, dass eine Wahrscheinlichkeit von 1 % besteht, dass die Anzahl der Beobachtungen 100 größer als 102,33 (der Mittelwert) ist plus 2,33 Standardabweichungen).

Parametrische statistische Tests

Wie der Name schon sagt, handelt es sich bei einem parametrischen Test um einen statistischen Test, der parametrische Statistiken verwendet. Das heißt, parametrische Tests sind solche, die bekannte Wahrscheinlichkeitsverteilungen verwenden, um eine Schätzung vorzunehmen.

Die häufigsten parametrischen statistischen Tests sind:

Vor- und Nachteile der parametrischen Statistik

Die Vor- und Nachteile der parametrischen Statistik im Vergleich zur nichtparametrischen Statistik sind:

Vorteil:

  • Schätzungen mithilfe parametrischer Statistiken sind genauer.
  • Die Aussagekraft (oder statistische Aussagekraft) parametrischer Tests ist im Allgemeinen größer.
  • Parametrische Tests sind einfacher und leichter zu berechnen.

Nachteile:

  • Im Allgemeinen müssen parametrische Tests bestimmte Annahmen erfüllen, was bedeutet, dass sie ihre Gültigkeit verlieren, wenn diese Annahmen nicht erfüllt sind.
  • Um Berechnungen durchführen zu können, müssen die Parameter der Wahrscheinlichkeitsverteilung bekannt sein.

Parametrische Statistiken und nichtparametrische Statistiken

Die beiden Hauptzweige der Inferenzstatistik sind die parametrische Statistik und die nichtparametrische Statistik. Wir werden daher im Folgenden sehen, wie sich diese beiden Arten von Statistiken unterscheiden.

Die nichtparametrische Statistik umfasst alle statistischen Methoden, die Variablen untersuchen, die nicht zu theoretischen Modellen passen. Beispielsweise kann die Chi-Quadrat-Verteilung nicht a priori definiert werden, sondern die Daten selbst bestimmen die Verteilung.

Daher besteht der Unterschied zwischen parametrischer Statistik und nichtparametrischer Statistik darin, dass die parametrische Statistik durch Parameter definierte Wahrscheinlichkeitsverteilungen verwendet, während die nichtparametrische Statistik auf Wahrscheinlichkeitsverteilungen basiert, die nicht den Parametern entsprechen. theoretische Modelle.

Einen Kommentar hinzufügen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert