Test de Dunn pour les comparaisons multiples



Un test de Kruskal-Wallis est utilisé pour déterminer s’il existe ou non une différence statistiquement significative entre les médianes de trois groupes indépendants ou plus. Elle est considérée comme l’équivalent non paramétrique de l’ ANOVA unidirectionnelle .

Si les résultats d’un test de Kruskal-Wallis sont statistiquement significatifs, il est alors approprié d’effectuer le test de Dunn pour déterminer exactement quels groupes sont différents.

Le test de Dunn effectue des comparaisons par paires entre chaque groupe indépendant et vous indique quels groupes sont statistiquement significativement différents à un certain niveau de α.

Par exemple, supposons qu’un chercheur veuille savoir si trois médicaments différents ont des effets différents sur les maux de dos. Il recrute 30 sujets pour l’étude et leur assigne au hasard le médicament A, le médicament B ou le médicament C pendant un mois, puis mesure leurs maux de dos à la fin du mois.

Le chercheur peut effectuer un test de Kruskal-Wallis pour déterminer si la douleur médiane au dos est égale entre les trois médicaments. Si la valeur p du test de Kruskal-Wallis est inférieure à un certain seuil, on peut dire que les trois médicaments produisent des effets différents.

Le chercheur pourrait ensuite effectuer le test de Dunn pour déterminer quels médicaments produisent des effets statistiquement significatifs.

Test de Dunn : la formule

Vous n’aurez probablement jamais à effectuer le test de Dunn à la main puisqu’il peut être effectué à l’aide d’un logiciel statistique (comme R, Python, Stata, SPSS, etc.), mais la formule pour calculer la statistique du test z pour la différence entre deux groupes est la suivante :

z je = y je / σ je

i est l’une des 1 à m comparaisons, y i = W A – W B (où W A est la moyenne de la somme des rangs pour le i ème groupe) et σ i est calculé comme suit :

σ je = √ ((N(N+1)/12) – (ΣT 3 s – T s /(12(N-1)) / ((1/n A )+(1/n B ))

N est le nombre total d’observations dans tous les groupes, r est le nombre de rangs liés et T s est le nombre d’observations liées à la ème valeur liée spécifique.

Comment contrôler le taux d’erreur par famille

Chaque fois que nous effectuons plusieurs comparaisons à la fois, il est important de contrôler le taux d’erreur par famille . Une façon d’y parvenir consiste à ajuster les valeurs p résultant des comparaisons multiples.

Il existe plusieurs façons d’ajuster les valeurs p, mais les deux méthodes d’ajustement les plus courantes sont :

1. L’ajustement Bonferroni

Valeur p ajustée = p*m

où:

  • p : La valeur p d’origine
  • m : le nombre total de comparaisons effectuées

2. L’ajustement Sidak

Valeur p ajustée = 1 – (1-p) m

où:

  • p : La valeur p d’origine
  • m : le nombre total de comparaisons effectuées

En utilisant l’un de ces ajustements de la valeur p, nous pouvons réduire considérablement la probabilité de commettre une erreur de type I parmi l’ensemble de comparaisons multiples.

Ressources additionnelles

Comment effectuer le test de Dunn dans R
Comment effectuer le test de Dunn en Python

Ajouter un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *