R တွင် intraclass correlation coefficient တွက်ချက်နည်း
intraclass correlation coefficient (ICC) ကို မတူညီသော အဆင့်သတ်မှတ်သူများသည် အကြောင်းအရာများ သို့မဟုတ် အကြောင်းအရာများကို ယုံကြည်စိတ်ချစွာ အဆင့်သတ်မှတ်နိုင်သည်ဆိုသည်ကို ဆုံးဖြတ်ရန် အသုံးပြုပါသည်။
ICC ၏တန်ဖိုးသည် 0 မှ 1 အထိရှိနိုင်ပြီး အဆင့်သတ်မှတ်သူများကြားတွင် ယုံကြည်စိတ်ချရမှု မရှိကြောင်း 0 နှင့် 1 သည် ပြီးပြည့်စုံသောယုံကြည်စိတ်ချရမှုကို ညွှန်ပြသည့် 0 ဖြင့် ကွဲပြားနိုင်သည်။
R တွင် ICC တွက်ချက်ရန် အလွယ်ကူဆုံးနည်းလမ်းမှာ အောက်ပါ syntax ကိုအသုံးပြုသည့် irr package မှ icc() လုပ်ဆောင်ချက်ကို အသုံးပြုခြင်းဖြစ်သည်။
icc (အမျိုးအစားခွဲခြင်း၊ မော်ဒယ်၊ အမျိုးအစား၊ ယူနစ်)
ရွှေ-
- မှတ်စုများ- မှတ်စုများ၏ ဒေတာဘေ့စ် သို့မဟုတ် မက်ထရစ်
- မော်ဒယ်- အသုံးပြုရန် မော်ဒယ်အမျိုးအစား။ ရွေးချယ်စရာများတွင် “ တစ်လမ်းမောင်း” သို့မဟုတ် “ နှစ်လမ်း” ပါ၀င်သည်
- အမျိုးအစား- အကဲဖြတ်သူများကြား တွက်ချက်ရန် ဆက်ဆံရေးအမျိုးအစား။ ရွေးချယ်စရာများတွင် “ တစ်သမတ်တည်း” သို့မဟုတ် “ သဘောတူညီချက်” ပါဝင်သည်။
- ယူနစ်- ခွဲခြမ်းစိတ်ဖြာမှုယူနစ်။ ရွေးချယ်စရာများတွင် “ ရိုးရှင်း” သို့မဟုတ် “ အလယ်အလတ်” ပါဝင်သည်။
ဤသင်ခန်းစာသည် ဤအင်္ဂါရပ်ကို အသုံးပြုခြင်း၏ လက်တွေ့ကျသော ဥပမာကို ပေးသည်။
အဆင့် 1: ဒေတာကိုဖန်တီးပါ။
မတူညီသော ကောလိပ်ဝင်ခွင့်စာမေးပွဲ ၁၀ ခု၏ အရည်အသွေးကို အကဲဖြတ်ရန် မတူညီသော တရားသူကြီးလေးဦးကို တောင်းဆိုသည်ဆိုပါစို့။ တရားသူကြီးများ၏ ရမှတ်များကို ထိန်းထားရန် အောက်ပါဒေတာဘောင်ကို ကျွန်ုပ်တို့ ဖန်တီးနိုင်သည်-
#create data data <- data. frame (A=c(1, 1, 3, 6, 6, 7, 8, 9, 8, 7), B=c(2, 3, 8, 4, 5, 5, 7, 9, 8, 8), C=c(0, 4, 1, 5, 5, 6, 6, 9, 8, 8), D=c(1, 2, 3, 3, 6, 4, 6, 8, 8, 9))
အဆင့် 2- intraclass ဆက်စပ်ဆက်စပ်ကိန်းကို တွက်ချက်ပါ။
ဝင်ခွင့်စာမေးပွဲအတွက် အရည်အချင်းပြည့်မီသော တရားသူကြီးများထဲမှ တရားသူကြီးလေးဦးကို ကျပန်းရွေးချယ်ပြီး တရားသူကြီးများအကြား အကြွင်းမဲ့သဘောတူညီချက်ကို တိုင်းတာလိုပြီး ကျွန်ုပ်တို့၏တိုင်းတာမှု၏အခြေခံအဖြစ် အကဲဖြတ်သူတစ်ဦးတည်း၏ရှုထောင့်မှ ရမှတ်များကို အသုံးပြုလိုသည်ဆိုပါစို့။
R တွင်အောက်ပါကုဒ်ကိုသုံးနိုင်ပြီး၊ နှစ်လမ်းသွားပုံစံ တစ်ခုနှင့်ကိုက်ညီရန်၊ အကြွင်းမဲ့သဘောတူညီချက်အဖြစ် အဆင့်သတ်မှတ်သူများကြားဆက်ဆံရေးအဖြစ် နှင့် တစ်ခုတည်း ယူနစ်ကို အကျိုးစီးပွားယူနစ်အဖြစ်အသုံးပြုခြင်းတို့ကို အသုံးပြုနိုင်သည်။
#load the interrater reliability package library (irr) #define data data <- data. frame (A=c(1, 1, 3, 6, 6, 7, 8, 9, 8, 7), B=c(2, 3, 8, 4, 5, 5, 7, 9, 8, 8), C=c(0, 4, 1, 5, 5, 6, 6, 9, 8, 8), D=c(1, 2, 3, 3, 6, 4, 6, 8, 8, 9)) #calculate ICC icc(data, model = " twoway ", type = " agreement ", unit = " single ") Model: twoway Type: agreement Subjects = 10 Failures = 4 ICC(A,1) = 0.782 F-Test, H0: r0 = 0; H1: r0 > 0 F(9.30) = 15.3, p = 5.93e-09 95%-Confidence Interval for ICC Population Values: 0.554 < ICC < 0.931
intraclass correlation coefficient (ICC) သည် 0.782 ဖြစ်သည် ။
Koo & Li ၏ အဆိုအရ intraclass correlation coefficient ၏တန်ဖိုးကို မည်သို့အဓိပ္ပာယ်ဖွင့်ဆိုရမည်နည်း
- 0.50 အောက်- ယုံကြည်စိတ်ချရမှု ညံ့ဖျင်းသည်။
- 0.5 နှင့် 0.75 ကြား- အလယ်အလတ် ယုံကြည်စိတ်ချရမှု
- 0.75 နှင့် 0.9 ကြား- ယုံကြည်စိတ်ချရမှုကောင်းသည်။
- 0.9 ထက်ကြီးသည်- အလွန်ကောင်းမွန်သော ယုံကြည်စိတ်ချရမှု
ထို့ကြောင့်၊ 0.782 ရှိသော ICC သည် စာမေးပွဲများကို မတူညီသော အဆင့်သတ်မှတ်သူများမှ “ ကောင်းမွန်သော” ယုံကြည်စိတ်ချရမှုဖြင့် ရမှတ်ရနိုင်ကြောင်း ကျွန်ုပ်တို့ ကောက်ချက်ချပါမည်။
ICC တွက်ချက်မှုမှတ်စု
အောက်ပါအချက်သုံးချက်အပေါ် မူတည်၍ တွက်ချက်နိုင်သော ICC ၏ မတူညီသော ဗားရှင်းများစွာ ရှိပါသည်။
- မော်ဒယ်- တစ်လမ်းသွား ကျပန်းအကျိုးသက်ရောက်မှုများ၊ နှစ်လမ်းကျပန်းအကျိုးသက်ရောက်မှုများ သို့မဟုတ် နှစ်လမ်းသွား ရောနှောထားသော အကျိုးဆက်များ
- ဆက်ဆံရေးအမျိုးအစား- ညီညွတ်မှု သို့မဟုတ် အကြွင်းမဲ့သဘောတူညီချက်
- ယူနစ်- အဆင့် သတ်မှတ်သူ တစ်ဦးတည်း သို့မဟုတ် ပျမ်းမျှ အဆင့်သတ်မှတ်သူများ
ယခင်ဥပမာတွင်၊ ကျွန်ုပ်တို့တွက်ချက်ထားသော ICC သည် အောက်ပါယူဆချက်များကို အသုံးပြုခဲ့သည်။
- မော်ဒယ်- နှစ်လမ်းသွား ကျပန်းအကျိုးသက်ရောက်မှုများ
- ဆက်ဆံရေးအမျိုးအစား- အကြွင်းမဲ့သဘောတူညီချက်
- ယူနစ်- တစ်ဦးတည်း အကဲဖြတ်သူ
ဤယူဆချက်များ၏ အသေးစိတ်ရှင်းလင်းချက်အတွက်၊ ဤဆောင်းပါးကို ဖတ်ရှုပါ။