Woordenlijst
Deze pagina biedt een verklarende woordenlijst van alle statistische termen en concepten die beschikbaar zijn op Statorials.
#
HEEFT
- Aangepaste oddsratio
- Voor- en nadelen van het gebruik van Mean
- Voor- en nadelen van het gebruik van de mediaan
- Voor- en nadelen van het gebruik van standaarddeviatie
- Aggregatievooroordeel
- Alternatieve hypothese
- ANOVA versus regressie
- ANOVA met of zonder replicatie
- ANOVA met ongelijke steekproefomvang
- Vorige variabelen
- Bias-controle
- Aanname van gelijke variantie
- Veronderstelling van onafhankelijkheid
- Normaliteitsaanname
- ANOVA-aannames
- MANOVA-aannames
- Lineaire regressieaannames
- Logistieke regressie-aannames
- Meerdere lineaire regressie-aannames
- Gepaarde t-test-aannames
- Pearson-correlatie-aannames
- Herhaalde metingen ANOVA-aannames
- t-testhypotheses
- Toerekenbaar risico
B
- Back-to-back stengel- en bladplots
- Achterwaartse selectie
- Evenwichtige precisie
- Evenwichtige of onevenwichtige ontwerpen
- Bartlett’s test voor homogeniteit van varianties
- Benjamini-Hochberg-procedure
- Berksons vooringenomenheid
- Bernoulli versus binomiale verdeling
- Bètaniveau
- Bimodale distributies
- Aannames over binominale verdelingen
- Binomiale experimenten
- Binominale of geometrische distributie
- Binominale verdeling en Poissonverdeling
- Bivariate analyse
- Bland-Altman-veld
- Blokkeren
- Bonferroni-correctie
- Boxplot-percentages
- Bray-Curtis-verschil
- Brier-score
VS
- C-statistiek van een logistisch regressiemodel
- Bereken handmatig de P-waarde op basis van een Z-score
- Bereken handmatig de Pearson-correlatiecoëfficiënt
- Bereken R-kwadraat met de hand
- Bereken het gemiddelde uit de frequentietabel
- Bereken de mediaan uit de frequentietabel
- Bereken de modus uit de frequentietabel
- Bereken het percentiel op basis van het gemiddelde en de standaarddeviatie
- Kan een Z-Score negatief zijn?
- Kan kurtosis negatief zijn?
- Kan de variantie negatief zijn?
- Overdrachtseffecten
- Gevallen in de statistieken
- Categorische distributie
- Categorische en kwantitatieve variabelen
- Plafondeffecten
- Vooroordeel over centrale tendens
- Handchikwadraattest
- Chi-kwadraattest versus ANOVA
- Kies welke variabele u op de X-as en Y-as wilt plaatsen
- Voedsel testen
- Grenzen van de klasse
- Les intervallen
- Grenzen van de klasse
- Klasse middenpunten
- Klas grootte
- Clustersteekproeven of gestratificeerde steekproeven
- Cochran’s Q-test
- Variatiecoëfficiënt versus standaarddeviatie
- Gezamenlijk uitgebreide evenementen
- Boxplots vergelijken
- Histogramvergelijking
- Vergelijking van ROC-curven
- Vergelijking van Z-scores van verschillende distributies
- Conceptuele variabele
- Gelijktijdige variabelen
- Geldigheid van de concurrentie
- Voorwaardelijke distributie
- Voorwaardelijke relatieve frequentie in een tweerichtingstabel
- Voorwaarden van de centrale limietstelling
- Voorbeelden van betrouwbaarheidsintervalproblemen
- Betrouwbaarheidsinterval voor oddsratio
- Betrouwbaarheidsinterval voor relatief risico
- Betrouwbaarheidsinterval voor regressie-intercept
- Betrouwbaarheidsinterval voor regressiehelling
- Betrouwbaarheidsinterval met behulp van F-verdeling
- Betrouwbaarheidsniveau versus betrouwbaarheidsinterval
- Privacy versus anonimiteit
- Verstorende variabele
- Aanname van constante variantie
- Inhoudsvaliditeit
- Continuïteit correctie
- Converteer Z-scores naar ruwe scores
- Correlatie tussen categorische variabelen
- Correlatie tussen continue en categorische variabelen
- Correlatie versus associatie
- Correlatie versus regressie
- Covariaten
- De geldigheid van de criteria
- Variabel criterium
- Cross-offset paneelontwerp
- Residuele curve
- Kromlijnige regressie
D
- Beslissingsbomen vs. Willekeurige bossen
- Vrijheidsgraden voor elke T-test
- Bepalen van gelijke of ongelijke variantie in t-toetsen
- Bepaal of de kansverdeling geldig is
- Bepalen van significante variabelen in regressiemodellen
- Ontspannende gegevens
- Dichotome variabelen
- Verschillen tussen ANOVA, ANCOVA, MANOVA en MANCOVA
- Onsamenhangende gebeurtenissen
- Onsamenhangende of onafhankelijke gebeurtenissen
- Dixons Q-test voor uitschieters
- Impliceert causaliteit correlatie?
- Dotplot en histogram
- Puntplots: hoe u het gemiddelde, de mediaan en de modus kunt vinden
- Dummyvariabelen in regressieanalyse
- Dummy variabele val
- Durbin-Watson-test
E
- Problemen bij het oefenen van vuistregels
- Endogene en exogene variabelen
- Erlang-distributie
- Foutvoortplanting
- Het gemiddelde en de mediaan van histogrammen schatten
- Histogramschattingsmodus
- Schatten van de standaardafwijking van histogrammen
- Eta in het kwadraat
- Voorbeelden van ANOVA in het echte leven
- Voorbeelden van bivariate gegevens in het echte leven
- Voorbeelden van centrale limietstellingen in het echte leven
- Voorbeelden van Chi-kwadraattests in het echte leven
- Voorbeelden van clusteranalyse in het echte leven
- Voorbeelden van voorwaardelijke waarschijnlijkheid in het echte leven
- Voorbeelden van betrouwbaarheidsintervallen in het echte leven
- Voorbeelden van correlatie impliceren geen oorzakelijk verband
- Voorbeelden van correlatie in het echte leven
- Voorbeelden van verwachte waarde in het echte leven
- Voorbeelden van het testen van hypothesen in het echte leven
- Voorbeelden van lineaire regressie in het echte leven
- Voorbeelden van logistieke regressie in het echte leven
- Voorbeelden van gemiddelde, mediaan en modus in het echte leven
- Voorbeelden van gebrek aan correlatie tussen variabelen
- Voorbeelden van uitschieters in het echte leven
- Voorbeelden van positief scheve verdelingen
- Voorbeelden van waarschijnlijkheid in het echte leven
- Voorbeelden van negatief scheve verdelingen
- Voorbeelden van willekeurige variabelen in het echte leven
- Voorbeelden van valse correlaties in het echte leven
- Voorbeelden van standaardafwijkingen in het echte leven
- Voorbeelden van het gebruik van statistieken in het echte leven
- Voorbeelden van T-tests in het echte leven
- Voorbeelden van binomiale verdeling in het echte leven
- Voorbeelden van exponentiële verdeling in het echte leven
- Voorbeelden van geometrische distributie in het echte leven
- Voorbeelden van normale verdeling in het echte leven
- Voorbeelden van Poisson-distributie in het echte leven
- Voorbeelden van uniforme distributie in het echte leven
- Voorbeelden van Z-scores in het echte leven
- Verwachte frequentie
- Verwachte waarde ten opzichte van het gemiddelde
- Verwachte waarde van X^2
- Verwachte waarde van X^3
- Gap uitgelegd
- Externe variabelen
F
- F1-score versus nauwkeurigheid
- Factoriële ANOVA
- Foutenpercentage op gezinsniveau?
- Zoek het gebied links van de Z-score
- Zoek het gebied rechts van de Z-score
- Zoek het gemiddelde van verschillende standaarddeviaties
- Zoek het middelpunt en de spreiding van een puntendiagram
- Zoek de correlatiecoëfficiënt uit R2
- Zoek de lineaire regressievergelijking uit een tabel
- Vind uitschieters met behulp van het interkwartielbereik
- Het vinden van een waarschijnlijkheid gegeven een gemiddelde en een standaarddeviatie
- Het vinden van de waarschijnlijkheid op basis van een Z-score
- Vind kwartielen in datasets met even en oneven lengte
- Vind Z-scores in een bepaald gebied
- Correctiefactor voor eindige bevolking
- Het minst significante verschil van Fisher
- Fisher Z-transformatie
- Grondeffecten
- Selectie vooraf
G
H
- Heggen
- Hoogdimensionale gegevens
- Hoe beïnvloeden uitbijters het gemiddelde?
- Hoe aangepaste R-kwadraat te interpreteren
- Hoe een betrouwbaarheidsinterval met nul te interpreteren
- Hoe Cramers V te interpreteren
- Hoe F-waarde en P-waarde in ANOVA te interpreteren
- Hoe F-waarden te interpreteren in een tweerichtings-ANOVA
- Hoe het interkwartielbereik te interpreteren
- Hoe logistische regressiecoëfficiënten te interpreteren
- Hoe het logistische regressie-intercept te interpreteren
- Hoe MAPE-waarden te interpreteren
- Hoe de foutmarge te interpreteren
- Hoe negatieve AIC-waarden te interpreteren
- Hoe P-waarden te interpreteren in lineaire regressie
- Hoe het relatieve risico te interpreteren
- Hoe de resterende standaardfout te interpreteren
- Hoe de root mean square error (RMSE) te interpreteren
- Hoe asymmetrie te interpreteren
- Hoe de standaarddeviatie van nul te interpreteren
- Hoe lees je een boxplot met uitschieters?
- Hoe een correlatiematrix te lezen
- Hoe een covariantiematrix te lezen
- Hoe een semi-logaritmische grafiek te lezen
- Hoe chi-kwadraatresultaten te rapporteren
- Hoe betrouwbaarheidsintervallen te rapporteren
- Hoe Cronbach’s Alpha te rapporteren
- Nauwkeurige Fisher-testresultaten rapporteren
- Hoe u eenrichtings-ANOVA-resultaten rapporteert
- Hoe u tweerichtings-ANOVA-resultaten rapporteert
- Hoe u herhaalde metingen ANOVA-resultaten rapporteert
- Hoe logistieke regressieresultaten te rapporteren
- Hoe oddsratio’s te rapporteren
- Hoe P-waarden te rapporteren
- Hoe Pearson-correlatie te rapporteren
- Hoe regressieresultaten te rapporteren
- Hoe scheefheid en kurtosis te rapporteren
- Hoe Spearman-correlatie te rapporteren
- Hoe u T-testresultaten rapporteert
- Hoe QQ-plots te gebruiken om de normaliteit te controleren
- Hoe u een betrouwbaarheidsintervalconclusie schrijft
- Hoe u een conclusie voor het testen van een hypothese schrijft
- Hoe schrijf je een nulhypothese?
- Hypothesetesten versus betrouwbaarheidsinterval
I
- iid Willekeurige variabelen
- Belang van het gemiddelde
- Belang van de mediaan
- Belang van mode
- Belang van het assortiment
- Belang van standaarddeviatie
- Het belang van statistieken in de boekhouding
- Het belang van statistieken in bedrijven
Het belang van statistieken in de economie - Belang van statistiek in het onderwijs
- Het belang van statistieken in de financiële wereld
- Belang van statistieken in de gezondheidszorg
- Belang van statistieken in de verpleegkunde
- Het belang van statistiek in de psychologie
- Belang van statistiek in onderzoek
- Incidentie
- Inferentie versus voorspelling
- Invloedrijke observatie
- Instrumentele variabelen
- Intercept in regressiemodel
- Interne consistentie
- Interpolatie versus extrapolatie
- Cohen’s interpreteren d
- Interpretatie van log-waarschijnlijkheidswaarden
- Interpretatie van nul- en resterende afwijking
- Interpretatie van P-waarden groter dan 0,05
- Interpretatie van P-waarden kleiner dan 0,001
- Interpretatie van P-waarden kleiner dan 0,01
- Interpretatie van P-waarden kleiner dan 0,05
- Interpretatie van P-waarden gelijk aan 0,000
- Interpretatie van ROC-curven
- Interpretatie van Z-scores
- Interkwartielbereik versus standaarddeviatie
- Interkwartielbereik van een boxplot
- Tussenliggende variabelen
- Interbeoordelaarsbetrouwbaarheid
- Correlatiecoëfficiënt binnen de klasse
- Omgekeerde normale verdeling
- Is leeftijd een discrete of continue variabele?
- Is leeftijd een kwalitatieve of kwantitatieve variabele?
- Is leeftijd een interval- of ratiovariabele?
- Is tijd een interval of een variabele verhouding?
- Wordt de interkwartielafstand (IQR) beïnvloed door uitschieters?
J.
- Jaccard-gelijkenisindex
- Jaro-Winkler-overeenkomst
- Gemeenschappelijke frequentie
- Gezamenlijke kansverdeling
K
L
- Labelcodering of one-hot-codering
- Status van grote monsters
- Wet van de totale waarschijnlijkheid
- Linksscheef histogram
- Links- of rechtsscheve verdelingen
- Linkerstaarttest vs. Rechterstaarttest
- Niveaus van een onafhankelijke variabele
- Ljung-Box-test
- Logistieke regressie versus lineaire regressie
- Lange staartverdeling
- Lange of brede gegevens
- Verborgen variabelen
M
- Maak een histogram van de frequentietabel
- Cp van de mauve
- Gemanipuleerde variabelen
- Marginale distributie
- Marginaal gemiddelde
- Foutmarge vergeleken met standaardfout
- Foutmarge versus betrouwbaarheidsinterval
- Maximale variatiebemonstering
- Gemiddelde van een waarschijnlijkheidsverdeling
- Gemiddelde en standaardafwijking van gegroepeerde gegevens
- Mediaan van een boxplot
- Mediaan van gegroepeerde gegevens
- Geheugenloze eigenschappen
- Minimale steekproefomvang voor een t-toets
- Misclassificatiepercentage
- MLE voor uniforme distributie
- MLE voor een Poisson-verdeling
- Bulkgegevensmodus
- Variabele moderatie
- Gewijzigde Z-score
- Eentonige relaties
- Monty Hall-probleem
- Ik door Moran
- MSE versus RMSE
- Multimodale distributie
- Multinomiale coëfficiënt
- Multinomiale test
- Meerdere R versus R-kwadraat
- Bemonstering in meerdere fasen
- Wederzijds inclusieve of wederzijds uitsluitende evenementen
NIET
- Negatieve binominale versus Poisson-regressie
- Geneste ANOVA
- Genest model
- Neyman-vooroordeel
- Voorbeelden van niet-lineaire relaties
- Non-respons bias
- Normale benadering
- Normale verdeling versus t-verdeling
- Normale verdeling versus standaardnormale verdeling
- Normale verdeling versus uniforme verdeling
- Normaliseer gegevens tussen -1 en 1
- Normaliseer gegevens tussen 0 en 1
- Normaliseer gegevens tussen 0 en 100
- Nulhypothese voor ANOVA-modellen
- Nulhypothese voor lineaire regressie
- Nulhypothese voor logistieke regressie
- Aantal nodig om schade toe te brengen
Oh
- Observatie
- Observeer vooroordelen
- Odds ratio versus relatief risico
- Weggelaten variabele bias
- Omnibus-test
- Een voorbeeld van T-testproblemen
- Eenzijdige betrouwbaarheidsintervallen
- Voorbeelden van eenzijdige testproblemen
- Eenrichtings- of tweerichtings-ANOVA
- Eenrichtings- of herhaalde metingen ANOVA
- Open distributie
- Bestel effecten
- Resultaat versus gebeurtenis
P.
- P-waarde versus Alpha
- Gekoppelde gegevens
- Gepaarde of ongepaarde t-test
- Handgekoppelde t-test
- Betrouwbaarheid van parallelle vormen
- Interessante parameter
- Spaarzaam model
- Gedeeltelijke eta kwadraat
- Gedeeltelijke F-test
- Gedeeltelijke regressiecoëfficiënt
- Pearson-correlatiecoëfficiënt
- Pearson-residuen
- Percentiel, kwartiel en kwantiel
- Percentielrang voor gegroepeerde gegevens
- Perfecte multicollineariteit
- Phi-coëfficiënt
- Spoor van Pillai
- Puntschatting
- Poisson-betrouwbaarheidsinterval
- Aannames over de Poisson-verdeling
- Poisson versus normale verdeling
- Geclusterde standaarddeviatie
- Geclusterde afwijking
- Aandeel van de bevolking
- Standaardafwijking van populatie ten opzichte van steekproef
- Positief voorspellende waarde versus gevoeligheid
- Voorspellingsfout
- Voorspellingen met lineaire regressie
- Voorspellende validiteit
- PERS Statistieken
- Prevalentie
- Pre-test- en post-testwaarschijnlijkheid
- Waarschijnlijkheid van A en B
- Waarschijnlijkheid van A gegeven B
- Waarschijnlijkheid van A of B
- Waarschijnlijkheid dat er minstens één kop wordt gegooid bij het opgooien van munten
- Waarschijnlijkheid van “minstens één” succes
- Waarschijnlijkheid van “minstens twee” successen
- Waarschijnlijkheid van “minstens drie” successen
- Waarschijnlijkheid van noch A noch B
- Kans op dubbel gooien met dobbelstenen
- Massa functie
- Waarschijnlijkheid vs. Proportie
- Pseudoreplicatie
Q
HEEFT.
- R versus R-vierkant
- Rand-index
- Randomisatie
- Boxplot-bereik
- Vuistregel voor reikwijdte
- Bereik versus interkwartielbereik
- Bereik versus standaardafwijking
- Willekeurige selectie of willekeurige toewijzing
- Gegroepeerd gegevensbereik
- Ruwe data
- Rayleigh-cast
- Referentie bias
- Regressie door de oorsprong
- Regressor
- Verband tussen gemiddelde en standaarddeviatie
- Relatieve frequentieverdeling
- Betrouwbaarheidsanalyse
- Residu
- Residuen in ANOVA
- Resterende percelen: goede en slechte percelen
- Residuen en hefboomgrafiek
- Resterend pad: hoe u met de hand kunt creëren
- Resterende kloof
- Weerstandsstatistiek
- Bereikbeperking
- Omgekeerde causaliteit
- Omgekeerde codering
- Rechts-scheef histogram
- RMSE versus R-kwadraat
- RMSE versus MAE
S
- Steekproefgemiddelde versus populatiegemiddelde
- Steekproefgemiddelde versus steekproefproportie
- Steekproefgrootte en foutmarge
- Voorbeeldruimte
- Steekproefvariantie versus populatievariantie
- Variabiliteit van de bemonstering
- Bemonstering met vervanging of zonder vervanging
- Satterthwaite toenadering
- Sequentie-effecten
- Shannon Diversiteitsindex
- Vorm van histogrammen
- Simpson-diversiteitsindex
- Asymmetrie in boxplots
- De formule van Slovin
- Sneeuwbalbemonstering
- Somers D
- Spearman-Brown-formule
- Betrouwbaarheid in tweeën gedeeld
- Standaardisatie versus normalisatie
- Standaardafwijking van een kansverdeling
- Standaardafwijking van standaardfout
- Standaardschattingsfout
- Standaard meetfout
- Standaardfout van regressiehelling
- Standaard proportiefout
- Gestandaardiseerde residuen
- Gestandaardiseerde teststatistieken
- Gestandaardiseerde en niet-gestandaardiseerde regressiecoëfficiënten
- Stanine scoort
- Statisticus versus datawetenschapper
- Statistieken versus analyse
- Statistieken vs. Biostatistiek
- Statistiek versus econometrie
- Statistieken versus waarschijnlijkheden
- Stam- en bladplots: hoe u het gemiddelde, de mediaan en de modus kunt vinden
- De regel van Sturges
- Pass/fail-voorwaarde
- Som van kwadraten in ANOVA
- Som van kwadraten in regressie: SST, SSR, SSE
- Sxx in statistieken
- Sxy in statistieken
- Symmetrische distributie
- Symmetrisch histogram
T
- t Alfa/2-waarden
- T-score vs. Z-score
- t-testcorrelatie
- t-test bij lineaire regressie
- t-test met ongelijke steekproefomvang
- T-waarde versus P-waarde
- Test-hertestbetrouwbaarheid
- Derde variabelenprobleem
- Verspreiding van de behandeling
- Driehoekige verdeling
- Getrimd betekent
- Afgekapte en gecensureerde gegevens
- Tukey vs. Bonferroni vs. Scheffe
- Clusterbemonstering in twee fasen
- Voorbeelden van tweezijdige testproblemen
- Soorten logistieke regressie
- Soorten regressie
u
- Onderschattingsvooroordeel
- De vorm van een binominale verdeling begrijpen
- Niet-gegroepeerde frequentieverdeling
- Unimodale distributie
- Univariate analyse
- Univariate of multivariate analyse
- Boven- en onderhekken
V
- Validatieset en testset
- Variantie van een kansverdeling
- Variatie van gegroepeerde gegevens
- Vrijwillig antwoord voorbeeld
W
- Wat betekent een hoge F-waarde in ANOVA?
- Wat wordt beschouwd als een goede nauwkeurigheid voor machine learning-modellen?
- Wat wordt als een goede AIC-waarde beschouwd?
- Wat wordt beschouwd als een goede AUC-score?
- Wat is een goed betrouwbaarheidsinterval?
- Wat wordt als een goede waarde voor MAPE beschouwd?
- Wat wordt als een goede variatiecoëfficiënt beschouwd?
- Wat wordt beschouwd als een goede F1-score?
- Wat wordt als een goede RMSE-waarde beschouwd?
- Wat wordt als een goede standaarddeviatie beschouwd?
- Wat wordt beschouwd als een lage standaarddeviatie?
- Wat wordt als een sterke correlatie beschouwd?
- Wat wordt als een zwakke correlatie beschouwd?
- Wat is een goede R-kwadraatwaarde?
- Wat is het verschil tussen een T-test en een ANOVA?
- Wanneer moet je de nulhypothese verwerpen?
- Wanneer moeten uitschieters in gegevens worden verwijderd?
- Wanneer gebruik je een chikwadraattoets?
- Wanneer boxplots gebruiken?
- Wanneer moet u correlatie gebruiken?
- Wanneer moet u de logaritmische schaal gebruiken?
- Wanneer moet u het gemiddelde versus de mediaan gebruiken?
- Wanneer polynomiale regressie gebruiken?
- Wanneer gebruik je Ridge & Lasso-regressie?
- Wanneer moet u de Spearman-rangcorrelatie gebruiken?
- Wanneer moet u s/sqrt(n) gebruiken in statistieken?
- Winsorize-gegevens
- Variatie binnen of tussen groepen in ANOVA