Glossar
Diese Seite bietet ein Glossar aller statistischen Begriffe und Konzepte, die in der Statistik verfügbar sind.
#
HAT
- Angepasstes Quotenverhältnis
- Vor- und Nachteile der Verwendung von Mean
- Vor- und Nachteile der Verwendung des Medians
- Vor- und Nachteile der Verwendung der Standardabweichung
- Aggregationsverzerrung
- Alternative Hypothese
- ANOVA vs. Regression
- ANOVA mit oder ohne Replikation
- ANOVA mit ungleichen Stichprobengrößen
- Vorherige Variablen
- Bias-Check
- Annahme gleicher Varianz
- Annahme der Unabhängigkeit
- Normalitätsannahme
- ANOVA-Annahmen
- MANOVA-Annahmen
- Annahmen zur linearen Regression
- Annahmen zur logistischen Regression
- Annahmen mehrerer linearer Regressionen
- Annahmen für gepaarte t-Tests
- Pearson-Korrelationsannahmen
- ANOVA-Annahmen für wiederholte Messungen
- T-Test-Hypothesen
- Zurechenbares Risiko
B
- Stamm- und Blattplots hintereinander
- Rückwärtsauswahl
- Ausgewogene Präzision
- Ausgewogene oder unausgeglichene Designs
- Bartlett-Test zur Homogenität von Varianzen
- Benjamini-Hochberg-Verfahren
- Berksons Voreingenommenheit
- Bernoulli vs. Binomialverteilung
- Beta-Level
- Bimodale Verteilungen
- Annahmen zur Binomialverteilung
- Binomiale Experimente
- Binomiale oder geometrische Verteilung
- Binomialverteilung und Poisson-Verteilung
- Bivariate Analyse
- Bland-Altman-Feld
- Blockierung
- Bonferroni-Korrektur
- Boxplot-Prozentsätze
- Bray-Curtis-Unterschied
- Brier-Score
VS
- C-Statistik eines logistischen Regressionsmodells
- Berechnen Sie den P-Wert manuell aus einem Z-Score
- Berechnen Sie den Pearson-Korrelationskoeffizienten manuell
- Berechnen Sie das R-Quadrat von Hand
- Berechnen Sie den Durchschnitt anhand der Häufigkeitstabelle
- Berechnen Sie den Median aus der Häufigkeitstabelle
- Berechnen Sie den Modus anhand der Frequenztabelle
- Berechnen Sie das Perzentil aus Mittelwert und Standardabweichung
- Kann ein Z-Score negativ sein?
- Kann Kurtosis negativ sein?
- Kann die Varianz negativ sein?
- Verschleppungseffekte
- Fälle in der Statistik
- Kategoriale Verteilung
- Kategoriale und quantitative Variablen
- Deckeneffekte
- Zentraler Tendenzbias
- Hand-Chi-Quadrat-Test
- Chi-Quadrat-Test vs. ANOVA
- Wählen Sie aus, welche Variable auf der X-Achse und der Y-Achse platziert werden soll
- Lebensmitteltests
- Klassengrenzen
- Unterrichtsintervalle
- Klassengrenzen
- Klassenmittelpunkte
- Klassengröße
- Cluster-Stichprobe oder geschichtete Stichprobe
- Cochrans Q-Test
- Variationskoeffizient versus Standardabweichung
- Kollektiv umfassende Veranstaltungen
- Vergleich von Boxplots
- Histogrammvergleich
- Vergleich der ROC-Kurven
- Vergleich der Z-Scores verschiedener Verteilungen
- Konzeptionelle Variable
- Begleitende Variablen
- Wettbewerbsgültigkeit
- Bedingte Verteilung
- Bedingte relative Häufigkeit in einer Zwei-Wege-Tabelle
- Bedingungen des zentralen Grenzwertsatzes
- Beispiele für Konfidenzintervallprobleme
- Konfidenzintervall für das Quotenverhältnis
- Konfidenzintervall für relatives Risiko
- Konfidenzintervall für den Regressionsabschnitt
- Konfidenzintervall für die Regressionssteigung
- Konfidenzintervall unter Verwendung der F-Verteilung
- Konfidenzniveau versus Konfidenzintervall
- Datenschutz vs. Anonymität
- Störvariable
- Annahme einer konstanten Varianz
- Inhaltsgültigkeit
- Kontinuitätskorrektur
- Konvertieren Sie Z-Scores in Roh-Scores
- Korrelation zwischen kategorialen Variablen
- Korrelation zwischen kontinuierlichen und kategorialen Variablen
- Korrelation vs. Assoziation
- Korrelation vs. Regression
- Kovariaten
- Die Gültigkeit der Kriterien
- Variables Kriterium
- Cross-Offset-Panel-Design
- Restkurve
- Krummlinige Regression
D
- Entscheidungsbäume vs. Zufällige Wälder
- Freiheitsgrade für jeden T-Test
- Bestimmung gleicher oder ungleicher Varianz in T-Tests
- Bestimmen Sie, ob die Wahrscheinlichkeitsverteilung gültig ist
- Bestimmung signifikanter Variablen in Regressionsmodellen
- Entspannende Daten
- Dichotome Variablen
- Unterschiede zwischen ANOVA, ANCOVA, MANOVA und MANCOVA
- Disjunkte Ereignisse
- Disjunkte oder unabhängige Ereignisse
- Dixons Q-Test für Ausreißer
- Bedeutet Kausalität Korrelation?
- Punktdiagramm und Histogramm
- Punktdiagramme: So ermitteln Sie den Mittelwert, den Median und den Modus
- Dummy-Variablen in der Regressionsanalyse
- Dummy-Variablenfalle
- Durbin-Watson-Test
E
- Probleme bei der Anwendung von Faustregeln
- Endogene und exogene Variablen
- Erlang-Verteilung
- Fehlerausbreitung
- Schätzung des Mittelwerts und Medians von Histogrammen
- Histogramm-Schätzmodus
- Schätzung der Standardabweichung von Histogrammen
- Eta im Quadrat
- Beispiele für ANOVA im wirklichen Leben
- Beispiele für bivariate Daten im wirklichen Leben
- Beispiele für zentrale Grenzwertsätze im wirklichen Leben
- Beispiele für Chi-Quadrat-Tests im wirklichen Leben
- Beispiele für Clusteranalyse im wirklichen Leben
- Beispiele für bedingte Wahrscheinlichkeit im wirklichen Leben
- Beispiele für Konfidenzintervalle im wirklichen Leben
- Beispiele für Korrelationen bedeuten keine Kausalität
- Beispiele für Korrelationen im wirklichen Leben
- Beispiele für erwarteten Wert im wirklichen Leben
- Beispiele für Hypothesentests im wirklichen Leben
- Beispiele für lineare Regression im wirklichen Leben
- Beispiele für logistische Regression im wirklichen Leben
- Beispiele für Mittelwert, Median und Modus im wirklichen Leben
- Beispiele für mangelnde Korrelation zwischen Variablen
- Beispiele für Ausreißer im wirklichen Leben
- Beispiele für positiv verzerrte Verteilungen
- Beispiele für Wahrscheinlichkeiten im wirklichen Leben
- Beispiele für negativ verzerrte Verteilungen
- Beispiele für Zufallsvariablen im wirklichen Leben
- Beispiele für falsche Korrelationen im wirklichen Leben
- Beispiele für Standardabweichungen im wirklichen Leben
- Beispiele für die Verwendung von Statistiken im wirklichen Leben
- Beispiele für T-Tests im wirklichen Leben
- Beispiele für Binomialverteilung im wirklichen Leben
- Beispiele für Exponentialverteilung im wirklichen Leben
- Beispiele für geometrische Verteilung im wirklichen Leben
- Beispiele für Normalverteilung im wirklichen Leben
- Beispiele für die Poisson-Verteilung im wirklichen Leben
- Beispiele für gleichmäßige Verteilung im wirklichen Leben
- Beispiele für Z-Scores im wirklichen Leben
- Erwartete Häufigkeit
- Erwarteter Wert im Verhältnis zum Durchschnitt
- Erwarteter Wert von X^2
- Erwarteter Wert von X^3
- Lücke erklärt
- Fremdvariablen
F
- F1-Ergebnis versus Genauigkeit
- Faktorielle ANOVA
- Fehlerquote auf Familienebene?
- Suchen Sie den Bereich links vom Z-Wert
- Suchen Sie den Bereich rechts vom Z-Wert
- Ermitteln Sie den Mittelwert mehrerer Standardabweichungen
- Finden Sie den Mittelpunkt und die Verteilung einer Punktdarstellung
- Finden Sie den Korrelationskoeffizienten von R2
- Finden Sie die lineare Regressionsgleichung aus einer Tabelle
- Finden Sie Ausreißer mithilfe des Interquartilbereichs
- Ermitteln einer Wahrscheinlichkeit anhand eines Mittelwerts und einer Standardabweichung
- Ermitteln der Wahrscheinlichkeit anhand eines Z-Scores
- Finden Sie Quartile in Datensätzen mit gerader und ungerader Länge
- Finden Sie Z-Werte in einem bestimmten Bereich
- Korrekturfaktor für endliche Population
- Fishers geringster signifikanter Unterschied
- Fisher-Z-Transformation
- Bodeneffekte
- Auswahl vorher
G
H
- Hecken
- Hochdimensionale Daten
- Wie wirken sich Ausreißer auf den Mittelwert aus?
- So interpretieren Sie das angepasste R-Quadrat
- So interpretieren Sie ein Konfidenzintervall, das Null enthält
- Wie ist Cramers V zu interpretieren?
- So interpretieren Sie den F-Wert und den P-Wert in der ANOVA
- So interpretieren Sie F-Werte in einer zweifaktoriellen ANOVA
- Wie ist der Interquartilbereich zu interpretieren?
- Wie man logistische Regressionskoeffizienten interpretiert
- Wie ist der Achsenabschnitt der logistischen Regression zu interpretieren?
- So interpretieren Sie MAPE-Werte
- Wie ist die Fehlerspanne zu interpretieren?
- Wie man negative AIC-Werte interpretiert
- So interpretieren Sie P-Werte in der linearen Regression
- Wie ist das relative Risiko zu interpretieren?
- So interpretieren Sie den Reststandardfehler
- So interpretieren Sie den quadratischen Mittelwertfehler (RMSE)
- Wie man Asymmetrie interpretiert
- So interpretieren Sie die Standardabweichung von Null
- So lesen Sie einen Boxplot mit Ausreißern
- So lesen Sie eine Korrelationsmatrix
- So lesen Sie eine Kovarianzmatrix
- So lesen Sie einen halblogarithmischen Graphen
- So melden Sie Chi-Quadrat-Ergebnisse
- So melden Sie Konfidenzintervalle
- So melden Sie Cronbachs Alpha
- So melden Sie genaue Fisher-Testergebnisse
- So melden Sie einfaktorielle ANOVA-Ergebnisse
- So melden Sie Ergebnisse der Zwei-Wege-ANOVA
- So melden Sie ANOVA-Ergebnisse mit wiederholten Messungen
- So melden Sie Ergebnisse der logistischen Regression
- So melden Sie Quotenverhältnisse
- So melden Sie P-Werte
- So melden Sie die Pearson-Korrelation
- So melden Sie Regressionsergebnisse
- So melden Sie Schiefe und Wölbung
- So melden Sie die Spearman-Korrelation
- So melden Sie T-Testergebnisse
- So verwenden Sie QQ-Diagramme zur Überprüfung der Normalität
- So schreiben Sie eine Schlussfolgerung zum Konfidenzintervall
- So schreiben Sie eine Schlussfolgerung zum Testen einer Hypothese
- Wie schreibe ich eine Nullhypothese?
- Hypothesentest versus Konfidenzintervall
ICH
- iid Zufallsvariablen
- Bedeutung des Durchschnitts
- Bedeutung des Medians
- Bedeutung der Mode
- Bedeutung des Bereichs
- Bedeutung der Standardabweichung
- Bedeutung der Statistik im Rechnungswesen
- Bedeutung von Statistiken in Unternehmen
Bedeutung der Statistik in der Wirtschaftswissenschaft - Bedeutung der Statistik im Bildungswesen
- Bedeutung von Statistiken im Finanzwesen
- Bedeutung der Statistik im Gesundheitswesen
- Bedeutung der Statistik in der Pflege
- Bedeutung der Statistik in der Psychologie
- Bedeutung der Statistik in der Forschung
- Inzidenzrate
- Schlussfolgerung vs. Vorhersage
- Einflussreiche Beobachtung
- Instrumentelle Variablen
- Schnittpunkt im Regressionsmodell
- Interne Konsistenz
- Interpolation vs. Extrapolation
- Interpretation von Cohens d
- Interpretation von Log-Likelihood-Werten
- Interpretation der Null- und Restabweichung
- Interpretation von P-Werten größer als 0,05
- Interpretation von P-Werten unter 0,001
- Interpretation von P-Werten unter 0,01
- Interpretation von P-Werten unter 0,05
- Interpretation von P-Werten gleich 0,000
- Interpretation von ROC-Kurven
- Interpretation von Z-Scores
- Interquartilbereich versus Standardabweichung
- Interquartilbereich eines Boxplots
- Intervenierende Variablen
- Zuverlässigkeit zwischen Bewertern
- Korrelationskoeffizient innerhalb der Klasse
- Inverse Normalverteilung
- Ist das Alter eine diskrete oder kontinuierliche Variable?
- Ist das Alter eine qualitative oder quantitative Variable?
- Ist das Alter eine Intervall- oder Verhältnisvariable?
- Ist Zeit ein Intervall oder ein variables Verhältnis?
- Wird der Interquartilbereich (IQR) durch Ausreißer beeinflusst?
J.
- Jaccard-Ähnlichkeitsindex
- Jaro-Winkler-Ähnlichkeit
- Gemeinsame Häufigkeit
- Gemeinsame Wahrscheinlichkeitsverteilung
K
L
- Label-Kodierung oder One-Hot-Kodierung
- Status großer Proben
- Gesetz der Gesamtwahrscheinlichkeit
- Linksschiefes Histogramm
- Links- oder rechtsschiefe Verteilungen
- Left-Tail-Test vs. Rechter Schwanztest
- Ebenen einer unabhängigen Variablen
- Ljung-Box-Test
- Logistische Regression vs. lineare Regression
- Long-Tail-Verteilung
- Lange oder breite Daten
- Versteckte Variablen
M
- Erstellen Sie ein Histogramm aus der Häufigkeitstabelle
- Cp der Malvenfarben
- Manipulierte Variablen
- Randverteilung
- Grenzdurchschnitt
- Fehlermarge im Vergleich zum Standardfehler
- Fehlerspanne versus Konfidenzintervall
- Maximale Variationsprobenahme
- Durchschnitt einer Wahrscheinlichkeitsverteilung
- Mittelwert und Standardabweichung gruppierter Daten
- Median eines Boxplots
- Median der gruppierten Daten
- Gedächtnislose Eigenschaften
- Mindeststichprobengröße für einen t-Test
- Fehlklassifizierungsrate
- MLE für gleichmäßige Verteilung
- MLE für eine Poisson-Verteilung
- Massendatenmodus
- Variable Moderation
- Modifizierter Z-Score
- Monotone Beziehungen
- Monty-Hall-Problem
- Ich von Moran
- MSE vs. RMSE
- Multimodale Verteilung
- Multinomialer Koeffizient
- Multinomialer Test
- Multiples R versus R-Quadrat
- Mehrstufige Probenahme
- Sich gegenseitig einschließende oder sich gegenseitig ausschließende Ereignisse
NICHT
- Negative Binomial vs. Poisson-Regression
- Verschachtelte ANOVA
- Verschachteltes Modell
- Neyman-Voreingenommenheit
- Beispiele für nichtlineare Beziehungen
- Non-Response-Bias
- Normale Näherung
- Normalverteilung vs. t-Verteilung
- Normalverteilung vs. Standardnormalverteilung
- Normalverteilung vs. Gleichverteilung
- Daten zwischen -1 und 1 normalisieren
- Daten zwischen 0 und 1 normalisieren
- Daten zwischen 0 und 100 normalisieren
- Nullhypothese für ANOVA-Modelle
- Nullhypothese für lineare Regression
- Nullhypothese für die logistische Regression
- Zahl, die zum Schaden benötigt wird
Oh
- Überwachung
- Beobachten Sie Voreingenommenheit
- Quotenverhältnis versus relatives Risiko
- Weggelassener variabler Bias
- Omnibus-Test
- Ein Beispiel für T-Testprobleme
- Einseitige Konfidenzintervalle
- Beispiele für einseitige Testprobleme
- Einfaktorielle oder zweifaktorielle ANOVA
- Einfaktorielle ANOVA oder ANOVA mit wiederholten Messungen
- Offene Verteilung
- Bestelleffekte
- Ergebnis vs. Ereignis
P.
- P-Wert versus Alpha
- Gepaarte Daten
- Gepaarter oder ungepaarter T-Test
- Handgepaarter T-Test
- Zuverlässigkeit paralleler Formen
- Interessanter Parameter
- Sparsames Modell
- Partielles Eta-Quadrat
- Teilweiser F-Test
- Partieller Regressionskoeffizient
- Pearson-Korrelationskoeffizient
- Pearson-Residuen
- Perzentil, Quartil und Quantil
- Perzentilrang für gruppierte Daten
- Perfekte Multikollinearität
- Phi-Koeffizient
- Spur von Pillai
- Punktschätzung
- Poisson-Konfidenzintervall
- Annahmen zur Poisson-Verteilung
- Poisson vs. Normalverteilung
- Geclusterte Standardabweichung
- Clusterabweichung
- Anteil der Bevölkerung
- Standardabweichung der Grundgesamtheit von der Stichprobe
- Positiver Vorhersagewert im Vergleich zur Sensitivität
- Vorhersagefehler
- Vorhersagen mit linearer Regression
- Prognostische Validität
- PRESSE-Statistik
- Häufigkeit
- Wahrscheinlichkeit vor und nach dem Test
- Wahrscheinlichkeit von A und B
- Wahrscheinlichkeit von A bei gegebenem B
- Wahrscheinlichkeit von A oder B
- Wahrscheinlichkeit, bei Münzwürfen mindestens Kopf zu haben
- Wahrscheinlichkeit von „mindestens einem“ Erfolg
- Wahrscheinlichkeit von „mindestens zwei“ Erfolgen
- Wahrscheinlichkeit von „mindestens drei“ Erfolgen
- Wahrscheinlichkeit von weder A noch B
- Wahrscheinlichkeit, mit Würfeln ein Doppel zu würfeln
- Massenfunktion
- Wahrscheinlichkeit vs. Anteil
- Pseudoreplikation
Q
HAT.
- R versus R-Quadrat
- Rand-Index
- Randomisierung
- Umfang des Boxplots
- Faustregel für den Geltungsbereich
- Bereich versus Interquartilbereich
- Bereich versus Standardabweichung
- Zufällige Auswahl oder zufällige Zuweisung
- Gruppierter Datenbereich
- Rohdaten
- Rayleigh-Besetzung
- Referenzvoreingenommenheit
- Regression durch den Ursprung
- Regressor
- Beziehung zwischen Mittelwert und Standardabweichung
- Relative Häufigkeitsverteilung
- Zuverlässigkeitsanalyse
- Rückstand
- Residuen in der ANOVA
- Restparzellen: gute und schlechte Parzellen
- Residuen- und Leverage-Diagramm
- Restpfad: So erstellen Sie von Hand
- Restlücke
- Widerstandsstatistik
- Reichweitenbeschränkung
- Umgekehrte Kausalität
- Umgekehrte Codierung
- Rechtsschiefes Histogramm
- RMSE vs. R-Quadrat
- RMSE vs. MAE
S
- Stichprobenmittelwert versus Populationsmittelwert
- Stichprobenmittelwert versus Stichprobenanteil
- Stichprobengröße und Fehlerquote
- Probenraum
- Stichprobenvarianz versus Populationsvarianz
- Stichprobenvariabilität
- Bemusterung mit Ersatz oder ohne Ersatz
- Satterthwaite-Annäherung
- Sequenzeffekte
- Shannon-Diversitätsindex
- Form von Histogrammen
- Simpson-Diversitätsindex
- Asymmetrie in Boxplots
- Slovins Formel
- Schneeball-Probenahme
- Somers D
- Spearman-Brown-Formel
- Die Zuverlässigkeit ist zweigeteilt
- Standardisierung vs. Normalisierung
- Standardabweichung einer Wahrscheinlichkeitsverteilung
- Standardabweichung vom Standardfehler
- Standardfehler der Schätzung
- Standardmessfehler
- Standardfehler der Regressionssteigung
- Standardfehler der Proportionen
- Standardisierte Rückstände
- Standardisierte Teststatistiken
- Standardisierte und nicht standardisierte Regressionskoeffizienten
- Stanine-Partitur
- Statistiker vs. Datenwissenschaftler
- Statistik vs. Analytik
- Statistik vs. Bio-Statistiken
- Statistik vs. Ökonometrie
- Statistiken vs. Wahrscheinlichkeiten
- Stamm- und Blattdiagramme: So ermitteln Sie den Mittelwert, den Median und den Modus
- Sturges-Regel
- Pass/Fail-Bedingung
- Summe der Quadrate in der ANOVA
- Summe der Quadrate in der Regression: SST, SSR, SSE
- Sxx in der Statistik
- Sxy in der Statistik
- Symmetrische Verteilung
- Symmetrisches Histogramm
T
- t Alpha/2-Werte
- T-Score vs. Z-Score
- T-Test-Korrelation
- t-Test in linearer Regression
- t-Test mit ungleichen Stichprobengrößen
- T-Wert versus P-Wert
- Test-Retest-Zuverlässigkeit
- Drittes Variablenproblem
- Verbreitung der Behandlung
- Dreiecksverteilung
- Getrimmt bedeutet
- Gekürzte und zensierte Daten
- Tukey vs. Bonferroni vs. Scheffe
- Zweistufiges Cluster-Sampling
- Beispiele für zweiseitige Testprobleme
- Arten der logistischen Regression
- Arten der Regression
u
- Unterzählvoreingenommenheit
- Die Form einer Binomialverteilung verstehen
- Nicht gruppierte Häufigkeitsverteilung
- Unimodale Verteilung
- Univariate Analyse
- Univariate oder multivariate Analyse
- Obere und untere Zäune
V
- Validierungssatz und Testsatz
- Varianz einer Wahrscheinlichkeitsverteilung
- Variation gruppierter Daten
- Freiwillige Antwortprobe
W
- Was bedeutet ein hoher F-Wert in der ANOVA?
- Was gilt als gute Genauigkeit für Modelle für maschinelles Lernen?
- Was gilt als guter AIC-Wert?
- Was gilt als guter AUC-Wert?
- Was ist ein gutes Konfidenzintervall?
- Was gilt als guter Wert für MAPE?
- Was gilt als guter Variationskoeffizient?
- Was gilt als gutes F1-Ergebnis?
- Was gilt als guter RMSE-Wert?
- Was gilt als gute Standardabweichung?
- Was gilt als niedrige Standardabweichung?
- Was gilt als starke Korrelation?
- Was gilt als schwache Korrelation?
- Was ist ein guter R-Quadrat-Wert?
- Was ist der Unterschied zwischen einem T-Test und einer ANOVA?
- Wann ist die Nullhypothese abzulehnen?
- Wann Ausreißer in Daten entfernt werden sollten
- Wann sollte ein Chi-Quadrat-Test verwendet werden?
- Wann Boxplots verwendet werden sollten
- Wann sollte Korrelation verwendet werden?
- Wann ist die logarithmische Skala zu verwenden?
- Wann sollte der Mittelwert gegenüber dem Median verwendet werden?
- Wann sollte die polynomielle Regression verwendet werden?
- Wann man die Ridge- und Lasso-Regression verwenden sollte
- Wann sollte die Spearman-Rangkorrelation verwendet werden?
- Wann sollte s/sqrt(n) in Statistiken verwendet werden?
- Daten winsorisieren
- Variation innerhalb der Gruppe oder zwischen Gruppen in der ANOVA