Der Kappa-Koeffizient von Cohen ist eine Statistik, die verwendet wird, um die Interrater-Zuverlässigkeit für qualitative Items zu messen. Es wird allgemein angenommen, dass es ein robusteres Maß ist als die einfache Berechnung der prozentualen Übereinstimmung, da κ die Möglichkeit einer zufälligen Übereinstimmung berücksichtigt.
Wofür wird Cohens Kappa verwendet?
Cohens Kappa ist eine häufig verwendete Metrik, um die Übereinstimmung zwischen zwei Bewertern zu beurteilen. Es kann auch verwendet werden, um die Leistung eines Klassifizierungsmodells zu bewerten.
Wie interpretiert man Cohens Kappa?
Cohen schlug vor, das Kappa-Ergebnis wie folgt zu interpretieren: Werte ≤ 0 als Hinweis auf keine Übereinstimmung und 0,01–0,20 als keine bis geringfügig, 0,21–0,40 als ausreichend, 0,41–0,60 als mäßig, 0,61–0,80 als substanziell und 0,81–1,00 als nahezu perfekte Übereinstimmung.
Was ist Cohens Kappa beim maschinellen Lernen?
Cohen's Kappa ist ein statistisches Maß, das verwendet wird, um die Zuverlässigkeit von zwei Bewertern zu messen, die die gleiche Menge bewerten, und gibt an, wie häufig die Bewerter sich einig sind. In diesem Artikel erfahren wir im Detail, was Cohens Kappa ist und wie es bei Problemen mit maschinellem Lernen nützlich sein kann.
Was ist mit dem Kappa-Wert gemeint?
Der Wert von Kappa ist definiert als. Der Zähler stellt die Diskrepanz zwischen der beobachteten Erfolgswahrscheinlichkeit und der Erfolgswahrscheinlichkeit unter Annahme eines extrem schlimmen Falls dar.