
09/12/2024
KAPPA DE COHEN ⁉️
🤔 C’EST QUOI ❓
Le kappa (κ) de Jacob Cohen, souvent appelé κ de Cohen, est une mesure statistique qui évalue le degré d’accord entre deux évaluateurs ou tests qui classent des éléments dans des catégories.
Il peut également mesurer le degré d’accord entre deux évaluations réalisées par le même évaluateur ou test à des moments différents.
En résumé, le coefficient kappa mesure la fiabilité inter-évaluateurs ou inter-juges.
🔣 COMMENT CALCULER ❓
👉🏽 La formule du kappa (κ) est : κ = (Po - Pe) / (1 - Pe)
👉🏽 Po est la proportion d'accord observée entre les évaluateurs (c'est-à-dire, le nombre de cas pour lesquels ils sont d'accord, divisé par le nombre total de cas).
👉🏽 Pe est la proportion d'accord attendue par hasard (c'est-à-dire, la somme des proportions d'accord attendues par hasard pour chaque catégorie).
🔍 COMMENT INTERPRÉTER ❓
D’après les recommandations de Landis et Koch :
κ < 0 : Désaccord.
κ = 0,00 – 0,20 : Accord très faible.
κ = 0,21 – 0,40 : Accord faible.
κ = 0,41 − 0,60 : Accord modéré.
κ = 0,61 − 0,80 : Accord fort.
κ = 0,81 – 1,00 : Accord presque parfait.
💡 BON À SAVOIR 😊
🟢 Pour mesurer l’accord entre plus de deux évaluateurs ou tests, ou entre plus de deux échantillons catégoriels dépendants, on utilise le kappa (κ) de Fleiss.
🟢 Pour mesurer l’accord entre deux évaluateurs ou tests, lorsqu'il s'agit d'une variable ordinale, on utilise le tau de Kendall.