Personnaliser les préférences

Nous utilisons des cookies pour vous aider à naviguer efficacement et à exécuter certaines fonctions. Vous trouverez ci-dessous des informations détaillées sur tous les cookies sous chaque catégorie de consentement.

Les cookies classés comme « Nécessaires » sont stockés sur votre navigateur car ils sont essentiels pour activer les fonctionnalités de base du site.... 

Toujours actif

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

Aucun cookie à afficher.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

Aucun cookie à afficher.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

Aucun cookie à afficher.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

Aucun cookie à afficher.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

Aucun cookie à afficher.

Comment calculer le coefficient de corrélation intraclasse dans R



Un coefficient de corrélation intraclasse (ICC) est utilisé pour déterminer si les éléments ou les sujets peuvent être évalués de manière fiable par différents évaluateurs.

La valeur d’un ICC peut varier de 0 à 1, 0 indiquant une absence de fiabilité parmi les évaluateurs et 1 indiquant une fiabilité parfaite.

Le moyen le plus simple de calculer l’ICC dans R est d’utiliser la fonction icc() du package irr , qui utilise la syntaxe suivante :

icc (classifications, modèle, type, unité)

où:

  • notes : une base de données ou une matrice de notes
  • model : Le type de modèle à utiliser. Les options incluent « aller simple » ou « bidirectionnel »
  • type : Le type de relation à calculer entre les évaluateurs. Les options incluent « cohérence » ou « accord »
  • unité : l’unité d’analyse. Les options incluent « simple » ou « moyenne »

Ce didacticiel fournit un exemple d’utilisation pratique de cette fonction.

Étape 1 : Créer les données

Supposons que quatre juges différents soient invités à évaluer la qualité de 10 examens d’entrée à l’université différents. Nous pouvons créer la trame de données suivante pour conserver les notes des juges :

#create data
data <- data.frame(A=c(1, 1, 3, 6, 6, 7, 8, 9, 8, 7),
                   B=c(2, 3, 8, 4, 5, 5, 7, 9, 8, 8),
                   C=c(0, 4, 1, 5, 5, 6, 6, 9, 8, 8),
                   D=c(1, 2, 3, 3, 6, 4, 6, 8, 8, 9))

Étape 2 : Calculer le coefficient de corrélation intraclasse

Supposons que les quatre juges aient été sélectionnés au hasard parmi une population de juges qualifiés pour l’examen d’entrée et que nous souhaitions mesurer l’accord absolu entre les juges et que nous souhaitions utiliser les notes du point de vue d’un seul évaluateur comme base de notre mesure.

Nous pouvons utiliser le code suivant dans R pour ajuster un modèle bidirectionnel , en utilisant l’accord absolu comme relation entre les évaluateurs et en utilisant l’unité unique comme unité d’intérêt :

#load the interrater reliability package
library(irr)

#define data
data <- data.frame(A=c(1, 1, 3, 6, 6, 7, 8, 9, 8, 7),
                   B=c(2, 3, 8, 4, 5, 5, 7, 9, 8, 8),
                   C=c(0, 4, 1, 5, 5, 6, 6, 9, 8, 8),
                   D=c(1, 2, 3, 3, 6, 4, 6, 8, 8, 9))

#calculate ICC
icc(data, model = "twoway", type = "agreement", unit = "single")

   Model: twoway 
   Type : agreement 

   Subjects = 10 
     Raters = 4 
   ICC(A,1) = 0.782

 F-Test, H0: r0 = 0 ; H1: r0 > 0 
    F(9,30) = 15.3 , p = 5.93e-09 

 95%-Confidence Interval for ICC Population Values:
  0.554 < ICC < 0.931

Le coefficient de corrélation intraclasse (ICC) s’avère être de 0,782 .

Voici comment interpréter la valeur d’un coefficient de corrélation intraclasse, selon Koo & Li :

  • Moins de 0,50 : mauvaise fiabilité
  • Entre 0,5 et 0,75 : Fiabilité modérée
  • Entre 0,75 et 0,9 : Bonne fiabilité
  • Supérieur à 0,9 : Excellente fiabilité

Ainsi, nous conclurions qu’un ICC de 0,782 indique que les examens peuvent être notés avec une « bonne » fiabilité par différents évaluateurs.

Une note sur le calcul de l’ICC

Il existe plusieurs versions différentes d’un ICC qui peuvent être calculées, en fonction des trois facteurs suivants :

  • Modèle : effets aléatoires unidirectionnels, effets aléatoires bidirectionnels ou effets mixtes bidirectionnels
  • Type de relation : cohérence ou accord absolu
  • Unité : évaluateur unique ou moyenne des évaluateurs

Dans l’exemple précédent, l’ICC que nous avons calculé utilisait les hypothèses suivantes :

  • Modèle : effets aléatoires bidirectionnels
  • Type de relation : Accord absolu
  • Unité : Évaluateur unique

Pour une explication détaillée de ces hypothèses, veuillez vous référer à cet article .

Ajouter un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *