Gamma vs. deviazione standard: quando utilizzarli ciascuno


L’intervallo e la deviazione standard sono due modi per misurare la distribuzione dei valori in un set di dati.

L’ intervallo rappresenta la differenza tra il valore minimo e il valore massimo in un set di dati.

La deviazione standard misura la deviazione tipica dei singoli valori dal valore medio. Viene calcolato come segue:

s = √(Σ(x ix ) 2 / (n-1))

Oro:

  • Σ: Un simbolo che significa “somma”
  • x i : Il valore dell’i -esima osservazione nel campione
  • x : Il campione significa
  • n: la dimensione del campione

Ad esempio, supponiamo di avere il seguente set di dati:

Set di dati: 1, 4, 8, 11, 13, 17, 19, 19, 20, 23, 24, 24, 25, 28, 29, 31, 32

L’ intervallo è calcolato come: 31 -1 = 32.

Possiamo usare una calcolatrice per scoprire che la deviazione standard è 9,25.

Range e deviazione standard: somiglianze e differenze

L’intervallo e la deviazione standard condividono la seguente somiglianza:

  • Entrambe le metriche misurano la distribuzione dei valori in un set di dati.

Tuttavia, l’intervallo e la deviazione standard presentano la seguente differenza:

  • L’intervallo ci dice la differenza tra il valore più grande e quello più piccolo nel set di dati.
  • La deviazione standard ci dice la deviazione tipica dei singoli valori dal valore medio del set di dati.

Gamma vs. Deviazione standard: quando utilizzarli ciascuno

Dobbiamo utilizzare l’intervallo quando vogliamo comprendere la differenza tra i valori più grandi e quelli più piccoli in un set di dati.

Ad esempio, supponiamo che un professore dia un esame a 100 studenti. Può utilizzare la scala per comprendere la differenza tra il punteggio più alto e quello più basso ottenuti da tutti gli studenti della classe.

Al contrario, dovremmo utilizzare la deviazione standard quando vogliamo capire quanto il valore tipico di un set di dati si discosta dal valore medio.

Ad esempio, se un professore amministra un esame a 100 studenti, può utilizzare la deviazione standard per quantificare quanto il punteggio tipico dell’esame si discosta dal punteggio medio dell’esame.

Vale la pena notare che non dobbiamo scegliere tra l’utilizzo dell’intervallo o della deviazione standard per descrivere la distribuzione dei valori in un set di dati. Possiamo utilizzare entrambe le metriche perché ci forniscono informazioni completamente diverse.

Gli svantaggi del range e della deviazione standard

Sia il range che la deviazione standard presentano uno svantaggio: sono entrambi influenzati da valori anomali .

Per illustrare ciò, si consideri il seguente set di dati:

Set di dati: 1, 4, 8, 11, 13, 17, 19, 19, 20, 23, 24, 24, 25, 28, 29, 31, 32

Possiamo calcolare i seguenti valori per l’intervallo e la deviazione standard di questo set di dati:

  • Portata: 31
  • Deviazione standard: 9,25

Tuttavia, considera se il set di dati avesse un valore anomalo estremo:

Set di dati: 1, 4, 8, 11, 13, 17, 19, 19, 20, 23, 24, 24, 25, 28, 29, 31, 32, 378

Potremmo utilizzare una calcolatrice per trovare le seguenti metriche per questo set di dati:

  • Portata: 377
  • Deviazione standard: 85,02

Nota come l’intervallo e la deviazione standard cambiano in modo significativo a causa di un valore anomalo.

Sebbene l’intervallo e la deviazione standard possano essere misure utili per avere un’idea della distribuzione dei valori in un set di dati, è necessario prima assicurarsi che il set di dati non contenga valori anomali che influenzino questi valori. le misure. In caso contrario, l’intervallo e la deviazione standard potrebbero essere fuorvianti.

Aggiungi un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *