Passer au contenu principal

Durée limitée : économisez jusqu'à 25 % sur les modèles et modèles de feuilles de calcul.

Explorer les modèles
10XSheets

Calculateur gratuit

Calculateur du kappa de Cohen

Saisissez des effectifs entiers positifs ou nuls dans une matrice de confusion carrée (2 à 6 catégories). Lignes = évaluateur A, colonnes = évaluateur B ; la diagonale compte les accords. Le calculateur affiche N, p_o (accord observé), p_e (accord attendu sous indépendance des marges) et le kappa de Cohen non pondéré avec κ = (p_o − p_e) / (1 − p_e). Pas de kappa pondéré pour échelles ordinales, pas de kappa de Fleiss pour trois évaluateurs ou plus, pas d’erreur type ni d’intervalle de confiance ici—pour cela, utilisez un logiciel statistique.

Outil pédagogique et illustratif seulement. Pas d’aide à la décision clinique, pas de conseil en éthique de la recherche ou en conception d’enquête, et pas un substitut à un statisticien qualifié lorsque les résultats comptent.

Quand utiliser ce calculateur

Contrôles rapides d’accord inter-évaluateurs pour deux évaluateurs et le même jeu de catégories nominales—avant de recopier la table dans Sheets ou Excel.

  • Codage, analyse de contenu ou annotation avec deux annotateurs indépendants.
  • Enseigner κ à côté du simple % d’accord pour montrer le rôle du hasard.
  • Vérifier une matrice de confusion exportée d’un autre outil contre p_o, p_e et κ du manuel.
  • Besoin de dispersion ou de queues normales ? Utilisez le score Z ou l’écart-type—autre question.
Comment calcule-t-on le kappa de Cohen à partir d’une matrice de confusion ?

Le kappa de Cohen compare l’accord observé p_o à p_e, l’accord attendu par le hasard lorsque les fréquences marginales des deux évaluateurs sont indépendantes. κ = (p_o − p_e) / (1 − p_e) lorsque p_e < 1.

Construire la table k × k

Chaque cellule n_ij compte combien d’objets l’évaluateur A a classés en catégorie i pendant que l’évaluateur B les classait en j. La diagonale compte les accords.

Accord observé p_o

p_o = (Σ_i n_ii) / NN est la somme de toutes les cellules.

Accord par le hasard p_e

Sous indépendance, p_e = (Σ_i r_i c_i) / N²r_i est le total de la ligne i et c_i le total de la colonne i.

κ non pondéré

κ = (p_o − p_e) / (1 − p_e). Un κ négatif signifie un accord pire que le hasard à ces marges.

Le κ pondéré, le κ de Fleiss, les erreurs types, les intervalles de confiance et la planification de puissance ou de taille d’échantillon dépassent le périmètre de ce calculateur.

Pour la normalisation sur un modèle normal, voir le calculateur de score Z.

Pour la dispersion à partir d’une liste, voir le calculateur d’écart-type.

Pour le langage des pourcentages distinct du κ, voir le calculateur de pourcentage.

Google Sheets et Excel

Il n’existe pas de fonction KAPPA intégrée dans Google Sheets ou Excel comme STDEV.S. Construisez les totaux de lignes et colonnes avec SUM, calculez p_o à partir de la diagonale divisée par N, p_e à partir de la somme des produits ligne_i × colonne_i divisée par , puis κ. Les cartes montrent des motifs compacts—adaptez les plages.

Accord observé p_o
=(SOMME(diagonale_plage))/N_cellule

Placez N dans une cellule (par ex. =SOMME(plage_matrice)). p_o = somme de la diagonale principale / N.

Accord attendu p_e
=SOMMEPROD(marges_lignes;marges_colonnes)/N_cellule^2

marges_lignes et marges_colonnes sont des vecteurs de longueur k avec SUM / SOMME par ligne/colonne. Correspond à l’indépendance des deux marges.

Kappa de Cohen à partir de p_o et p_e
=(p_o_cellule-p_e_cellule)/(1-p_e_cellule)

Surveillez 1 − p_e proche de 0—si p_e = 1, κ n’est pas défini.

Autres outils : Statistiques

Voir tous les outils

Questions fréquentes

Qu’est-ce que le kappa de Cohen ?

Le kappa de Cohen (κ) mesure l’accord inter-évaluateurs sur des catégories nominales pour deux évaluateurs, en corrigeant le hasard à partir des totaux de lignes et colonnes. Cette page implémente la forme non pondérée sur une matrice d’effectifs carrée.

Quelle est la formule ?

Avec p_o = proportion sur la diagonale et p_e = Σ_i (ligne_i × colonne_i) / N², κ = (p_o − p_e) / (1 − p_e) lorsque p_e < 1.

Pourquoi « non défini » ?

Lorsque p_e vaut pratiquement 1, le dénominateur 1 − p_e est zéro—la formule usuelle de κ ne s’applique pas. Cela arrive souvent lorsque tous les cas sont dans une catégorie pour les deux évaluateurs. Vérifiez le codage et la question posée.

Le kappa de Cohen peut-il être négatif ?

Oui. κ < 0 signifie un accord inférieur à ce que l’indépendance des marges prédirait.

Le kappa est-il le même que le pourcentage d’accord ?

Non. Le pourcentage d’accord brut est souvent diagonale / N. Le κ retire une base de hasard p_e construite à partir des deux marges, puis rescale par 1 − p_e.

Prenez-vous en charge le kappa pondéré pour des catégories ordinales ?

Le κ pondéré utilise une matrice de poids. Pour des poids linéaires ou quadratiques, utilisez un logiciel statistique ou une plateforme d’enquête prévue pour l’accord ordinal.

Puis-je l’utiliser pour trois évaluateurs ou plus (Fleiss) ?

Non. Le kappa de Fleiss généralise l’accord à plusieurs évaluateurs par objet. Cette page est le kappa de Cohen pour exactement deux évaluateurs et une table appariée.

Mes catégories sont ordinaires (Likert). Le κ non pondéré convient-il ?

Le κ non pondéré traite tout désaccord hors diagonale de la même façon. Pour des échelles ordinales, on utilise souvent un κ pondéré. Cette page reste sur le κ non pondéré à partir de vos effectifs.

Comment reproduire cela dans Excel ou Google Sheets ?

Utilisez SUM (ou SOMME selon la langue du classeur) pour les marges et N, SUMPRODUCT / SOMMEPROD sur les marges pour p_e, la somme de diagonale / N pour p_o, puis (p_o−p_e)/(1−p_e). Il n’existe pas de fonction KAPPA unique—les cartes formules de cette page reprennent l’agencement habituel.

Affichez-vous des erreurs types ou un intervalle de confiance ?

Les intervalles nécessitent des hypothèses et des formules supplémentaires. Exportez les effectifs vers votre logiciel statistique pour SE/IC ou tests formels.

Les libellés de force sont-ils officiels ?

Les bandes façon Landis–Koch sont des conventions courantes, pas une loi. Les revues peuvent préférer d’autres formulations—à lire comme orientation, pas comme seuil absolu.

Est-ce un conseil statistique professionnel ?

Non. C’est un calculateur pédagogique gratuit. Pour un travail réglementé, clinique ou prêt à publication, suivez des statisticiens qualifiés et les méthodes de votre organisation.