So berechnen sie den klasseninternen korrelationskoeffizienten in python
Mithilfe eines Intraclass-Korrelationskoeffizienten (ICC) wird ermittelt, ob Elemente oder Themen von verschiedenen Bewertern zuverlässig bewertet werden können.
Der Wert eines ICC kann zwischen 0 und 1 liegen, wobei 0 für keine Zuverlässigkeit unter den Bewertern steht und 1 für vollkommene Zuverlässigkeit steht.
Der einfachste Weg, ICC in Python zu berechnen, ist die Verwendung der Funktion penguin.intraclass_corr() aus dem Penguin-Statistikpaket , die die folgende Syntax verwendet:
pengouin.intraclass_corr(Daten, Ziele, Bewerter, Noten)
Gold:
- Daten: Der Name des Datenrahmens
- Ziele: Name der Spalte, die die „Ziele“ (zu notierende Dinge) enthält
- Gutachter: Name der Spalte, die die Gutachter enthält
- Notizen: Name der Spalte, die die Notizen enthält
Dieses Tutorial bietet ein praktisches Beispiel für die Verwendung dieser Funktion.
Schritt 1: Penguin installieren
Zunächst müssen Sie Penguin installieren:
pip install penguin
Schritt 2: Erstellen Sie die Daten
Angenommen, vier verschiedene Richter werden gebeten, die Qualität von sechs verschiedenen Hochschulaufnahmeprüfungen zu bewerten. Wir können den folgenden Datenrahmen erstellen, um die Punkte der Jury zu speichern:
import pandas as pd
#createDataFrame
df = pd. DataFrame ({' exam ': [1, 2, 3, 4, 5, 6, 1, 2, 3, 4, 5, 6,
1, 2, 3, 4, 5, 6, 1, 2, 3, 4, 5, 6],
' judge ': ['A', 'A', 'A', 'A', 'A', 'A',
'B', 'B', 'B', 'B', 'B', 'B',
'C', 'C', 'C', 'C', 'C', 'C',
'D', 'D', 'D', 'D', 'D', 'D'],
' rating ': [1, 1, 3, 6, 6, 7, 2, 3, 8, 4, 5, 5,
0, 4, 1, 5, 5, 6, 1, 2, 3, 3, 6, 4]})
#view first five rows of DataFrame
df. head ()
exam judge rating
0 1 A 1
1 2 A 1
2 3 A 3
3 4 To 6
4 5 A 6
Schritt 3: Berechnen Sie den klasseninternen Korrelationskoeffizienten
Als Nächstes verwenden wir den folgenden Code, um den Korrelationskoeffizienten innerhalb der Klasse zu berechnen:
import penguin as pg icc = pg. intraclass_corr (data=df, targets=' exam ', raters=' judge ', ratings=' rating ') icc. set_index (' Type ') Description ICC F df1 df2 pval CI95% Kind ICC1 Single raters absolute 0.505252 5.084916 5 18 0.004430 [0.11, 0.89] ICC2 Single random raters 0.503054 4.909385 5 15 0.007352 [0.1, 0.89] ICC3 Single fixed raters 0.494272 4.909385 5 15 0.007352 [0.09, 0.88] ICC1k Average raters absolute 0.803340 5.084916 5 18 0.004430 [0.33, 0.97] ICC2k Average random raters 0.801947 4.909385 5 15 0.007352 [0.31, 0.97] ICC3k Average fixed raters 0.796309 4.909385 5 15 0.007352 [0.27, 0.97]
Diese Funktion gibt die folgenden Ergebnisse zurück:
- Beschreibung: Der Typ des berechneten ICC
- ICC: Der Intraclass-Korrelationskoeffizient (ICC)
- F: Der F-Wert des ICC
- df1, df2: die mit dem Wert F verbundenen Freiheitsgrade
- pval: Der p-Wert, der dem F-Wert zugeordnet ist
- CI95 %: das 95 %-Konfidenzintervall für den ICC
Beachten Sie, dass hier sechs verschiedene ICCs berechnet werden. Tatsächlich gibt es mehrere Möglichkeiten, den ICC zu berechnen, basierend auf den folgenden Annahmen:
- Modell: Einweg-Zufallseffekte, Zwei-Wege-Zufallseffekte oder Zwei-Wege-Mischeffekte
- Art der Beziehung: Konsistenz oder absolute Übereinstimmung
- Einheit: Einzelbewerter oder Durchschnitt der Bewerter
Eine detaillierte Erläuterung dieser Annahmen finden Sie in diesem Artikel .