Как рассчитать коэффициент внутриклассовой корреляции в r


Коэффициент внутриклассовой корреляции (ICC) используется для определения того, могут ли элементы или темы быть надежно оценены разными экспертами.

Значение ICC может варьироваться от 0 до 1, где 0 указывает на отсутствие надежности среди оценщиков, а 1 указывает на идеальную надежность.

Самый простой способ вычислить ICC в R — использовать функцию icc() из пакета irr , которая использует следующий синтаксис:

icc (классификация, модель, тип, единица измерения)

Золото:

  • примечания: база данных или матрица примечаний.
  • модель: тип используемой модели. Варианты включают «односторонний» или «двусторонний».
  • тип: Тип взаимосвязи, которую нужно рассчитать между оценщиками. Варианты включают «согласованность» или «согласие».
  • единица измерения: единица анализа. Варианты включают «простой» или «средний».

В этом руководстве представлен практический пример использования этой функции.

Шаг 1. Создайте данные

Предположим, четырех разных судей просят оценить качество 10 различных вступительных экзаменов в колледж. Мы можем создать следующий фрейм данных для хранения оценок судей:

 #create data
data <- data. frame (A=c(1, 1, 3, 6, 6, 7, 8, 9, 8, 7),
                   B=c(2, 3, 8, 4, 5, 5, 7, 9, 8, 8),
                   C=c(0, 4, 1, 5, 5, 6, 6, 9, 8, 8),
                   D=c(1, 2, 3, 3, 6, 4, 6, 8, 8, 9))

Шаг 2: Рассчитайте коэффициент внутриклассовой корреляции

Предположим, что четыре судьи были случайным образом выбраны из группы квалифицированных судей для вступительного экзамена, и мы хотели измерить абсолютное согласие между судьями и использовать оценки с точки зрения только одного оценщика в качестве основы для нашего измерения.

Мы можем использовать следующий код на R, чтобы соответствовать двусторонней модели , используя абсолютное согласие в качестве отношения между оценщиками и используя одну единицу в качестве интересующей единицы:

 #load the interrater reliability package
library (irr)

#define data
data <- data. frame (A=c(1, 1, 3, 6, 6, 7, 8, 9, 8, 7),
                   B=c(2, 3, 8, 4, 5, 5, 7, 9, 8, 8),
                   C=c(0, 4, 1, 5, 5, 6, 6, 9, 8, 8),
                   D=c(1, 2, 3, 3, 6, 4, 6, 8, 8, 9))

#calculate ICC
icc(data, model = " twoway ", type = " agreement ", unit = " single ")

   Model: twoway 
   Type: agreement 

   Subjects = 10 
     Failures = 4 
   ICC(A,1) = 0.782

 F-Test, H0: r0 = 0; H1: r0 > 0 
    F(9.30) = 15.3, p = 5.93e-09 

 95%-Confidence Interval for ICC Population Values:
  0.554 < ICC < 0.931

Коэффициент внутриклассовой корреляции (ICC) оказался равным 0,782 .

Вот как интерпретировать значение коэффициента внутриклассовой корреляции, по мнению Ку и Ли :

  • Менее 0,50: низкая надежность.
  • От 0,5 до 0,75: средняя надежность.
  • Между 0,75 и 0,9: хорошая надежность.
  • Больше 0,9: отличная надежность.

Таким образом, мы можем сделать вывод, что ICC, равный 0,782, указывает на то, что экзамены могут быть оценены с «хорошей» надежностью разными экспертами.

Примечание о расчете ICC

Существует несколько различных версий ICC, которые можно рассчитать в зависимости от следующих трех факторов:

  • Модель: односторонние случайные эффекты, двусторонние случайные эффекты или двусторонние смешанные эффекты.
  • Тип отношений: последовательность или абсолютное согласие.
  • Единица измерения: один оценщик или среднее значение оценщиков.

В предыдущем примере при расчете ICC использовались следующие допущения:

  • Модель: двусторонние случайные эффекты
  • Тип отношений: Абсолютное согласие
  • Подразделение: Один эксперт

Подробное объяснение этих предположений можно найти в этой статье .

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *