Come calcolare il coefficiente di correlazione intraclasse in r


Un coefficiente di correlazione intraclasse (ICC) viene utilizzato per determinare se elementi o argomenti possono essere valutati in modo affidabile da valutatori diversi.

Il valore di un ICC può variare da 0 a 1, dove 0 indica assenza di affidabilità tra i valutatori e 1 indica perfetta affidabilità.

Il modo più semplice per calcolare ICC in R è utilizzare la funzione icc() dal pacchetto irr , che utilizza la seguente sintassi:

icc (classificazioni, modello, tipo, unità)

Oro:

  • note: un database o matrice di note
  • modello: il tipo di modello da utilizzare. Le opzioni includono “unidirezionale” o “bidirezionale”
  • tipo: il tipo di relazione da calcolare tra i valutatori. Le opzioni includono “coerenza” o “accordo”
  • unità: l’unità di analisi. Le opzioni includono “semplice” o “medio”

Questo tutorial fornisce un esempio pratico di utilizzo di questa funzionalità.

Passaggio 1: creare i dati

Supponiamo che a quattro giudici diversi venga chiesto di valutare la qualità di 10 diversi esami di ammissione all’università. Possiamo creare il seguente dataframe per contenere i punteggi dei giudici:

 #create data
data <- data. frame (A=c(1, 1, 3, 6, 6, 7, 8, 9, 8, 7),
                   B=c(2, 3, 8, 4, 5, 5, 7, 9, 8, 8),
                   C=c(0, 4, 1, 5, 5, 6, 6, 9, 8, 8),
                   D=c(1, 2, 3, 3, 6, 4, 6, 8, 8, 9))

Passaggio 2: calcolare il coefficiente di correlazione intraclasse

Supponiamo che i quattro giudici siano stati selezionati casualmente da una popolazione di giudici qualificati per l’esame di ammissione e di voler misurare l’accordo assoluto tra i giudici e di voler utilizzare i punteggi dal punto di vista di un solo valutatore come base della nostra misurazione.

Possiamo utilizzare il seguente codice in R per adattare un modello a due vie , utilizzando l’accordo assoluto come relazione tra i valutatori e utilizzando la singola unità come unità di interesse:

 #load the interrater reliability package
library (irr)

#define data
data <- data. frame (A=c(1, 1, 3, 6, 6, 7, 8, 9, 8, 7),
                   B=c(2, 3, 8, 4, 5, 5, 7, 9, 8, 8),
                   C=c(0, 4, 1, 5, 5, 6, 6, 9, 8, 8),
                   D=c(1, 2, 3, 3, 6, 4, 6, 8, 8, 9))

#calculate ICC
icc(data, model = " twoway ", type = " agreement ", unit = " single ")

   Model: twoway 
   Type: agreement 

   Subjects = 10 
     Failures = 4 
   ICC(A,1) = 0.782

 F-Test, H0: r0 = 0; H1: r0 > 0 
    F(9.30) = 15.3, p = 5.93e-09 

 95%-Confidence Interval for ICC Population Values:
  0.554 < ICC < 0.931

Il coefficiente di correlazione intraclasse (ICC) è risultato pari a 0,782 .

Ecco come interpretare il valore di un coefficiente di correlazione intraclasse, secondo Koo & Li :

  • Meno di 0,50: scarsa affidabilità
  • Tra 0,5 e 0,75: affidabilità moderata
  • Tra 0,75 e 0,9: buona affidabilità
  • Maggiore di 0,9: affidabilità eccellente

Pertanto, concluderemmo che un ICC di 0,782 indica che gli esami possono essere valutati con “buona” affidabilità da valutatori diversi.

Una nota sul calcolo dell’ICC

Esistono diverse versioni di un ICC che possono essere calcolate, a seconda dei seguenti tre fattori:

  • Modello: effetti casuali unidirezionali, effetti casuali bidirezionali o effetti misti bidirezionali
  • Tipo di rapporto: coerenza o accordo assoluto
  • Unità: singolo valutatore o media dei valutatori

Nell’esempio precedente, l’ICC calcolato utilizzava le seguenti ipotesi:

  • Modello: effetti casuali bidirezionali
  • Tipo di rapporto: accordo assoluto
  • Unità: Valutatore singolo

Per una spiegazione dettagliata di queste ipotesi, fare riferimento a questo articolo .

Aggiungi un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *