3人以上の評価者間の一致度(Fleissのκ係数)
Fleissのκ係数
#データ読み込み library(readr) dat1 <- read_csv("csv1.csv") #欠損値除去 dat1=na.omit(dat1) #変数型の変更 dat1$Mscore=as.numeric(dat1$Mscore) dat1$Msitu=as.numeric(dat1$Msitu) dat1$Nscore=as.numeric(dat1$Nscore) dat1$Nsitu=as.numeric(dat1$Nsitu) dat1$Tscore=as.numeric(dat1$Tscore) dat1$Tsitu=as.numeric(dat1$Tsitu) #データセット作成 dat_score=subset(dat1,select = c("Mscore","Nscore","Tscore")) #扱われ方 dat_situ=subset(dat1,select = c("Msitu","Nsitu","Tsitu")) #場面 #α係数 library(psych) # psych パッケージの読み込み alpha(dat_score) #クロンバックのアルファ係数 alpha(dat_situ) #Fleissのκ係数 install.packages("irr", dependencies = TRUE) library(irr) kappam.fleiss(dat_score) kappam.fleiss(dat_situ)
#基準#####################################
#< 0 Poor agreement
#0.01 ??? 0.20 Slight agreement
#0.21 ??? 0.40 Fair agreement
#0.41 ??? 0.60 Moderate agreement
#0.61 ??? 0.80 Substantial agreement
#0.81 ??? 1.00 Almost perfect agreement
##########################################