Glossario
Questa pagina fornisce un glossario di tutti i termini e concetti statistici disponibili su Statorials.
#
HA
- Rapporto di probabilità modificato
- Vantaggi e svantaggi dell’utilizzo di Mean
- Vantaggi e svantaggi dell’utilizzo della mediana
- Vantaggi e svantaggi dell’utilizzo della deviazione standard
- Distorsione da aggregazione
- Ipotesi alternativa
- ANOVA vs regressione
- ANOVA con o senza replica
- ANOVA con dimensioni campionarie disuguali
- Variabili precedenti
- Controllo del pregiudizio
- Ipotesi di uguale varianza
- Assunzione di indipendenza
- Presupposto di normalità
- Ipotesi ANOVA
- Ipotesi MANOVA
- Ipotesi di regressione lineare
- Ipotesi di regressione logistica
- Ipotesi di regressione lineare multipla
- Ipotesi del test t accoppiato
- Presupposti di correlazione di Pearson
- Ipotesi ANOVA per misure ripetute
- ipotesi del test t
- Rischio attribuibile
B
- Trame di steli e foglie uno dopo l’altro
- Selezione all’indietro
- Precisione equilibrata
- Disegni equilibrati o sbilanciati
- Test di Bartlett per l’omogeneità delle varianze
- Procedura Benjamini-Hochberg
- Il pregiudizio di Berkson
- Bernoulli vs distribuzione binomiale
- Livello beta
- Distribuzioni bimodali
- Ipotesi di distribuzione binomiale
- Esperimenti binomiali
- Distribuzione binomiale o geometrica
- Distribuzione binomiale e distribuzione di Poisson
- Analisi bivariata
- Campo Bland-Altman
- Blocco
- Correzione Bonferroni
- Percentuali del box plot
- Differenza Bray-Curtis
- Punteggio Brier
VS
- Statistica C di un modello di regressione logistica
- Calcola manualmente il valore P da un punteggio Z
- Calcolare manualmente il coefficiente di correlazione di Pearson
- Calcola R-quadrato a mano
- Calcolare la media dalla tabella delle frequenze
- Calcolare la mediana dalla tabella delle frequenze
- Calcola la modalità dalla tabella delle frequenze
- Calcolare il percentile dalla media e dalla deviazione standard
- Uno Z-Score può essere negativo?
- La curtosi può essere negativa?
- La varianza può essere negativa?
- Effetti di riporto
- Casi in statistica
- Distribuzione categoriale
- Variabili categoriali e quantitative
- Effetti del soffitto
- Bias di tendenza centrale
- Test chi quadrato manuale
- Test del chi quadrato vs ANOVA
- Scegli quale variabile posizionare sull’asse X e sull’asse Y
- Test sugli alimenti
- Limiti di classe
- Intervalli di lezione
- Limiti di classe
- Punti medi della classe
- Dimensione della classe
- Campionamento a grappolo o campionamento stratificato
- Test Q di Cochran
- Coefficiente di variazione rispetto alla deviazione standard
- Eventi collettivamente completi
- Confronto tra box plot
- Confronto degli istogrammi
- Confronto delle curve ROC
- Confronto dei punteggi Z di diverse distribuzioni
- Variabile concettuale
- Variabili concomitanti
- Validità del concorrente
- Distribuzione condizionale
- Frequenza relativa condizionale in una tabella a due vie
- Condizioni del teorema limite centrale
- Esempi di problemi relativi agli intervalli di confidenza
- Intervallo di confidenza per l’odds ratio
- Intervallo di confidenza per il rischio relativo
- Intervallo di confidenza per l’intercetta di regressione
- Intervallo di confidenza per la pendenza di regressione
- Intervallo di confidenza utilizzando la distribuzione F
- Livello di confidenza rispetto all’intervallo di confidenza
- Privacy vs. anonimato
- Variabile di confusione
- Ipotesi di varianza costante
- La validità dei contenuti
- Correzione della continuità
- Converti i punteggi Z in punteggi grezzi
- Correlazione tra variabili categoriali
- Correlazione tra variabili continue e categoriali
- Correlazione vs associazione
- Correlazione vs regressione
- Covariate
- La validità dei criteri
- Criterio variabile
- Design del pannello con offset trasversale
- Curva residua
- Regressione curvilinea
D
- Alberi decisionali vs. Foreste casuali
- Gradi di libertà per qualsiasi test T
- Determinazione della varianza uguale o disuguale nei test t
- Determina se la distribuzione di probabilità è valida
- Determinazione delle variabili significative nei modelli di regressione
- Dati rilassanti
- Variabili dicotomiche
- Differenze tra ANOVA, ANCOVA, MANOVA e MANCOVA
- Eventi disgiunti
- Eventi disgiunti o indipendenti
- Test Q di Dixon per valori anomali
- La causalità implica una correlazione?
- Dot-plot e istogramma
- Dot plot: come trovare media, mediana e moda
- Variabili fittizie nell’analisi di regressione
- Trappola variabile fittizia
- Test di Durbin-Watson
E
- Problemi nel mettere in pratica le regole pratiche
- Variabili endogene ed esogene
- Distribuzione Erlang
- Propagazione degli errori
- Stima della media e della mediana degli istogrammi
- Modalità di stima dell’istogramma
- Stima della deviazione standard degli istogrammi
- Eta al quadrato
- Esempi di ANOVA nella vita reale
- Esempi di dati bivariati nella vita reale
- Esempi di teorema del limite centrale nella vita reale
- Esempi di test del Chi quadrato nella vita reale
- Esempi di analisi dei cluster nella vita reale
- Esempi di probabilità condizionata nella vita reale
- Esempi di intervalli di confidenza nella vita reale
- Esempi di correlazione non implicano causalità
- Esempi di correlazione nella vita reale
- Esempi di valore atteso nella vita reale
- Esempi di verifica di ipotesi nella vita reale
- Esempi di regressione lineare nella vita reale
- Esempi di regressione logistica nella vita reale
- Esempi di media, mediana e modalità nella vita reale
- Esempi di mancanza di correlazione tra variabili
- Esempi di valori anomali nella vita reale
- Esempi di distribuzioni asimmetriche positivamente
- Esempi di probabilità nella vita reale
- Esempi di distribuzioni asimmetriche negativamente
- Esempi di variabili casuali nella vita reale
- Esempi di false correlazioni nella vita reale
- Esempi di deviazione standard nella vita reale
- Esempi di utilizzo delle statistiche nella vita reale
- Esempi di test T nella vita reale
- Esempi di distribuzione binomiale nella vita reale
- Esempi di distribuzione esponenziale nella vita reale
- Esempi di distribuzione geometrica nella vita reale
- Esempi di distribuzione normale nella vita reale
- Esempi di distribuzione di Poisson nella vita reale
- Esempi di distribuzione uniforme nella vita reale
- Esempi di punteggi Z nella vita reale
- Frequenza prevista
- Valore atteso rispetto alla media
- Valore previsto di X^2
- Valore previsto di X^3
- Il divario spiegato
- Variabili estranee
F
- Punteggio F1 rispetto alla precisione
- ANOVA fattoriale
- Tasso di errore a livello familiare?
- Trova l’area a sinistra del punteggio Z
- Trova l’area a destra del punteggio Z
- Trova la media di diverse deviazioni standard
- Trova il centro e la diffusione di un diagramma di punti
- Trova il coefficiente di correlazione da R2
- Trova l’equazione di regressione lineare da una tabella
- Trova valori anomali utilizzando l’intervallo interquartile
- Trovare una probabilità data una media e una deviazione standard
- Trovare la probabilità da un punteggio Z
- Trova quartili nei set di dati di lunghezza pari e dispari
- Trova i punteggi Z in una determinata area
- Fattore di correzione per popolazione finita
- La differenza meno significativa secondo Fisher
- Trasformazione Z di Fisher
- Effetti del suolo
- Selezione prima
G
H
- Siepi
- Dati ad alta dimensionalità
- In che modo i valori anomali influenzano la media?
- Come interpretare l’R quadrato corretto
- Come interpretare un intervallo di confidenza contenente zero
- Come interpretare la V. di Cramer
- Come interpretare il valore F e il valore P in ANOVA
- Come interpretare i valori F in un’ANOVA a due vie
- Come interpretare lo scarto interquartile
- Come interpretare i coefficienti di regressione logistica
- Come interpretare l’intercetta di regressione logistica
- Come interpretare i valori MAPE
- Come interpretare il margine di errore
- Come interpretare i valori AIC negativi
- Come interpretare i valori P nella regressione lineare
- Come interpretare il rischio relativo
- Come interpretare l’errore standard residuo
- Come interpretare l’errore quadratico medio (RMSE)
- Come interpretare l’asimmetria
- Come interpretare la deviazione standard pari a zero
- Come leggere un boxplot con valori anomali
- Come leggere una matrice di correlazione
- Come leggere una matrice di covarianza
- Come leggere un grafico semilogaritmico
- Come riportare i risultati del chi quadrato
- Come riportare gli intervalli di confidenza
- Come segnalare l’Alfa di Cronbach
- Come riportare i risultati accurati dei test Fisher
- Come riportare i risultati ANOVA unidirezionali
- Come riportare i risultati ANOVA bidirezionali
- Come riportare i risultati ANOVA di misure ripetute
- Come riportare i risultati della regressione logistica
- Come segnalare i rapporti di probabilità
- Come riportare i valori P
- Come riportare la correlazione di Pearson
- Come riportare i risultati della regressione
- Come segnalare asimmetria e curtosi
- Come riportare la correlazione di Spearman
- Come riportare i risultati del test T
- Come utilizzare i grafici QQ per verificare la normalità
- Come scrivere una conclusione sull’intervallo di confidenza
- Come scrivere una conclusione per verificare un’ipotesi
- Come scrivere un’ipotesi nulla
- Verifica di ipotesi rispetto all’intervallo di confidenza
IO
- iid Variabili casuali
- Importanza della media
- Importanza della mediana
- Importanza della moda
- Importanza della gamma
- Importanza della deviazione standard
- Importanza della statistica in contabilità
- Importanza della statistica nelle imprese
Importanza della statistica in economia - Importanza della statistica nell’istruzione
- Importanza della statistica in finanza
- Importanza della statistica in sanità
- Importanza della statistica in infermieristica
- Importanza della statistica in psicologia
- Importanza della statistica nella ricerca
- Tasso di incidenza
- Inferenza vs. previsione
- Osservazione influente
- Variabili strumentali
- Intercetta nel modello di regressione
- Consistenza interna
- Interpolazione vs estrapolazione
- Interpretare il d
- Interpretazione dei valori di log-verosimiglianza
- Interpretazione della devianza zero e residua
- Interpretazione dei valori P superiori a 0,05
- Interpretazione dei valori P inferiori a 0,001
- Interpretazione dei valori P inferiori a 0,01
- Interpretazione dei valori P inferiori a 0,05
- Interpretazione dei valori P pari a 0.000
- Interpretazione delle curve ROC
- Interpretazione dei punteggi Z
- Intervallo interquartile rispetto alla deviazione standard
- Intervallo interquartile di un box plot
- Variabili intervenienti
- Affidabilità tra valutatori
- Coefficiente di correlazione intraclasse
- Distribuzione normale inversa
- L’età è una variabile discreta o continua?
- L’età è una variabile qualitativa o quantitativa?
- L’età è un intervallo o un rapporto variabile?
- Il tempo è un intervallo o un rapporto variabile?
- L’intervallo interquartile (IQR) è influenzato da valori anomali?
J.
- Indice di somiglianza di Jaccard
- Somiglianza Jaro-Winkler
- Frequenza comune
- Distribuzione di probabilità congiunta
K
L
- Codifica dell’etichetta o codifica one-hot
- Stato dei campioni di grandi dimensioni
- Legge della probabilità totale
- Istogramma inclinato a sinistra
- Distribuzioni distorte a sinistra o a destra
- Test della coda sinistra vs. Prova della coda destra
- Livelli di una variabile indipendente
- Test Ljung-Box
- Regressione logistica vs regressione lineare
- Distribuzione a coda lunga
- Dati lunghi o estesi
- Variabili nascoste
M
- Crea un istogramma dalla tabella delle frequenze
- Cp dei mauves
- Variabili manipolate
- Distribuzione marginale
- Media marginale
- Margine di errore rispetto all’errore standard
- Margine di errore rispetto all’intervallo di confidenza
- Campionamento della variazione massima
- Media di una distribuzione di probabilità
- Media e deviazione standard di dati raggruppati
- Mediana di un boxplot
- Mediana dei dati raggruppati
- Proprietà senza memoria
- Dimensione minima del campione per un test t
- Tasso di classificazione errata
- MLE per distribuzione uniforme
- MLE per una distribuzione di Poisson
- Modalità dati di massa
- Moderazione variabile
- Punteggio Z modificato
- Relazioni monotone
- Problema di Monty Hall
- Io di Moran
- MSE vs. RMSE
- Distribuzione multimodale
- Coefficiente multinomiale
- Test multinomiale
- R multipla contro R quadrata
- Campionamento a più stadi
- Eventi reciprocamente inclusivi o reciprocamente esclusivi
NON
- Binomiale negativo vs regressione di Poisson
- ANOVA annidato
- Modello nidificato
- Pregiudizio di Neyman
- Esempi di relazioni non lineari
- Distorsione da mancata risposta
- Approssimazione normale
- Distribuzione normale vs distribuzione t
- Distribuzione normale vs distribuzione normale standard
- Distribuzione normale vs distribuzione uniforme
- Normalizza i dati tra -1 e 1
- Normalizza i dati tra 0 e 1
- Normalizza i dati tra 0 e 100
- Ipotesi nulle per modelli ANOVA
- Ipotesi nulla per la regressione lineare
- Ipotesi nulla per la regressione logistica
- Numero necessario per nuocere
OH
- Osservazione
- Osserva i pregiudizi
- Odds ratio rispetto al rischio relativo
- Distorsione da variabile omessa
- Prova omnibus
- Un esempio di problemi del test T
- Intervalli di confidenza unilaterali
- Esempi di problemi di test unilaterali
- ANOVA unidirezionale o bidirezionale
- ANOVA a misure unidirezionali o ripetute
- Distribuzione aperta
- Effetti dell’ordine
- Risultato contro evento
P.
- Valore P rispetto ad Alpha
- Dati accoppiati
- Test t accoppiato o non accoppiato
- Test t accoppiato a mano
- Affidabilità delle forme parallele
- Parametro di interesse
- Modello parsimonioso
- Eta parziale al quadrato
- Prova F parziale
- Coefficiente di regressione parziale
- Coefficiente di correlazione di Pearson
- Residui di Pearson
- Percentile, quartile e quantile
- Rango percentile per i dati raggruppati
- Multicollinearità perfetta
- Coefficiente Phi
- Traccia di Pillai
- Stima puntuale
- Intervallo di confidenza di Poisson
- Ipotesi sulla distribuzione di Poisson
- Distribuzione di Poisson vs normale
- Deviazione standard clusterizzata
- Deviazione clusterizzata
- Proporzione della popolazione
- Deviazione standard della popolazione dal campione
- Valore predittivo positivo rispetto alla sensibilità
- Errore di previsione
- Previsioni con regressione lineare
- Validità predittiva
- STAMPA Statistiche
- Prevalenza
- Probabilità pre-test e post-test
- Probabilità di A e B
- Probabilità di A dato B
- Probabilità di A o B
- Probabilità di avere almeno una testa nei lanci della moneta
- Probabilità di “almeno un” successo
- Probabilità di “almeno due” successi
- Probabilità di “almeno tre” successi
- Probabilità né di A né di B
- Probabilità di ottenere un raddoppio con i dadi
- Funzione di massa
- Probabilità vs. Proporzione
- Pseudoreplicazione
Q
HA.
- R contro R-quadrato
- Indice Rand
- Randomizzazione
- Ambito del box plot
- Regola pratica dell’ambito
- Intervallo rispetto all’intervallo interquartile
- Intervallo rispetto alla deviazione standard
- Selezione casuale o assegnazione casuale
- Intervallo di dati raggruppati
- Dati grezzi
- Il cast di Rayleigh
- Distorsione di riferimento
- Regressione attraverso l’origine
- Regressore
- Relazione tra media e deviazione standard
- Distribuzione relativa della frequenza
- Analisi di affidabilità
- Residuo
- Residui nell’ANOVA
- Trame residue: trame buone e cattive
- Residui e grafico della leva finanziaria
- Percorso residuo: come creare a mano
- Divario residuo
- Statistica della resistenza
- Limitazione della portata
- Causalità inversa
- Codificazione inversa
- Istogramma inclinato a destra
- RMSE vs. R-quadrato
- RMSE vs. MAE
S
- Media campionaria rispetto alla media della popolazione
- Media campionaria rispetto alla proporzione campionaria
- Dimensione del campione e margine di errore
- Spazio campione
- Varianza del campione rispetto alla varianza della popolazione
- Variabilità del campionamento
- Campionamento con sostituzione o senza sostituzione
- Riavvicinamento di Satterthwaite
- Effetti di sequenza
- Indice della diversità di Shannon
- Forma degli istogrammi
- Indice di diversità Simpson
- Asimmetria nei boxplot
- La formula di Slovin
- Campionamento a palle di neve
- Somer’s D
- Formula Spearman-Brown
- L’affidabilità divisa in due
- Standardizzazione vs normalizzazione
- Deviazione standard di una distribuzione di probabilità
- Deviazione standard dall’errore standard
- Errore standard di stima
- Errore standard di misura
- Errore standard della pendenza di regressione
- Errore standard di proporzione
- Residui standardizzati
- Statistiche di test standardizzate
- Coefficienti di regressione standardizzati e non standardizzati
- Punteggio Stanine
- Statistico contro scienziato dei dati
- Statistiche e analisi
- Statistiche contro Biostatistica
- Statistica vs econometria
- Statistiche vs probabilità
- Diagrammi a stelo e foglia: come trovare la media, la mediana e la moda
- La regola di Sturges
- Condizione di superamento/fallimento
- Somma dei quadrati in ANOVA
- Somma dei quadrati nella regressione: SST, SSR, SSE
- Sxx nelle statistiche
- Sxy nelle statistiche
- Distribuzione simmetrica
- Istogramma simmetrico
T
- t Valori alfa/2
- Punteggio T vs. Punteggio Z
- correlazione del test t
- t-test nella regressione lineare
- t-test con dimensioni del campione diverse
- Valore T rispetto al valore P
- Affidabilità test-retest
- Problema della terza variabile
- Diffusione del trattamento
- Distribuzione triangolare
- Mezzo tagliato
- Dati troncati e censurati
- Turchia vs. Bonferroni vs. Scheffe
- Campionamento a grappolo a due stadi
- Esempi di problemi di test a due code
- Tipi di regressione logistica
- Tipi di regressione
tu
- Sottovalutare i pregiudizi
- Comprendere la forma di una distribuzione binomiale
- Distribuzione di frequenza non raggruppata
- Distribuzione unimodale
- Analisi invariate
- Analisi univariata o multivariata
- Recinzioni superiori e inferiori
V
- Set di validazione e set di test
- Varianza di una distribuzione di probabilità
- Variazione dei dati raggruppati
- Campione di risposta volontaria
W
- Cosa significa un valore F elevato in ANOVA?
- Che cosa è considerata una buona precisione per i modelli di machine learning?
- Qual è considerato un buon valore AIC?
- Cosa è considerato un buon punteggio AUC?
- Qual è un buon intervallo di confidenza?
- Qual è il valore considerato buono per MAPE?
- Qual è considerato un buon coefficiente di variazione?
- Cosa è considerato un buon punteggio F1?
- Qual è considerato un buon valore RMSE?
- Qual è considerata una buona deviazione standard?
- Cos’è considerata una deviazione standard bassa?
- Cos’è considerata una correlazione forte?
- Cos’è considerata una correlazione debole?
- Qual è un buon valore di R quadrato?
- Qual è la differenza tra un test T e un ANOVA?
- Quando rifiutare l’ipotesi nulla
- Quando rimuovere i valori anomali nei dati
- Quando utilizzare il test chi quadrato
- Quando utilizzare i box plot
- Quando utilizzare la correlazione
- Quando utilizzare la scala logaritmica
- Quando utilizzare la media rispetto alla mediana
- Quando utilizzare la regressione polinomiale
- Quando utilizzare la regressione Ridge e Lazo
- Quando utilizzare la correlazione del rango di Spearman
- Quando utilizzare s/sqrt(n) nelle statistiche
- Winsorizzare i dati
- Variazione all’interno del gruppo o tra gruppi nell’ANOVA