Site FMPMC
     Page précédentePage suivanteSommaireVersion imprimable
   
 

Biostatistique

Sommaire

Avant-propos

Introduction

1 - Statistique(s) et Probabilité(s)

2 - Rappels mathématiques

3 - Eléments de calcul des Probabilités

4 - Probabilité Conditionnelle ; Indépendance et Théorème de Bayes

5 - Evaluation de l’intérêt diagnostique des informations médicales

6 - Variables aléatoires

7 - Exemples de distributions

8 - Statistiques descriptives

9 - Etude de la variable aléatoire moyenne expérimentale

10 - Estimation - Intervalle de confiance

11 - Les tests d’hypothèses. Principes

12 - Quelques tests usuels

13 - Tests concernant des variables qualitatives

14 - Liaison entre deux variables continues : notion de corrélation

15 - Méthodologie des études épidémiologiques

A - Tables statistiques


Tous droits de reproduction réservés aux auteurs


traduction HTML V2.8
V. Morice


Chapitre 12 - Quelques tests usuels

 

12.2 - Tests concernant des variables quantitatives

12.2.3 - Cas des séries appariées

 

Jusqu’à présent on a supposé que les tirages (la constitution) des échantillons des populations  A et B étaient indépendants. Il arrive que cette condition ne soit pas vérifiée, que les individus des deux échantillons soient liés. Ceci se produit dans les exemples suivants :

  • pour comparer le niveau de sévérité de deux examinateurs, on fait corriger 100 copies par chacun d’eux, c’est-à-dire chacun corrigeant chacune de ces copies, et il s’agit de comparer les notes moyennes.
  • pour comparer deux méthodes de dosage de la glycémie on dose 100 prélèvements de sang par chacune de ces deux méthodes et l’on souhaite comparer les valeurs moyennes « vraies ».

La procédure indiquée plus haut ne convient plus. A un moment de la mise en place des tests on avait à calculer la variance de la différence des moyennes observées. On avait dit qu’elle coïncide avec la somme des variances de chacune des moyennes. Ici, c’est faux ; on peut s’en convaincre facilement. Supposez qu’un correcteur accorde systématiquement un point de plus que son collègue à toutes les copies. Alors, quoi qu’il arrive, la différence des moyennes observées sera 1, donc cette différence n’est pas soumise aux fluctuations d’échantillonnage ; sa variance est nulle, donc n’a rien à voir avec les variances de chacune des moyennes qui, elles - ces variances -reflètent les différences de qualité entre les copies.

On montre que le bon abord du problème est de travailler sur les différences des paires de valeurs obtenues par unité statistique (différence des notes, différence des glycémies par individu). Cela revient au problème de la comparaison d’une moyenne (moyenne des différences) à zéro ou à la question de la symétrie d’une distribution (celle des différences) par rapport à zéro. On se ramène ainsi à des tests que l’on connaît (cf. section 12.2.1).

On note d la variable aléatoire différence entre résultats pour un même sujet.

12.2.3.1 Test de comparaison de deux moyennes observées sur séries appariées

Ce test n’est valide que si n ≥ 30

Les étapes de mise en œuvre du test sont les suivantes :

  1. H0 : la moyenne « vraie » de d est nulle, soit μ = 0.
    H1 : la moyenne « vraie » de d est non nulle, soit μ ≠ 0.
  2. Construction du paramètre

    Image graphique509494.trsp.gif



    s2 est la variance observée des différences, soit Image graphique510495.trsp.gif
    n est le nombre de paires
    Mnd est la variable aléatoire moyenne arithmétique des différences
    et md est la moyenne observée des différences.

    On montre que Z est à peu près distribuée selon N(0, 1).

Les étapes se succèdent alors de façon ordinaire :

choix de α, construction de l’IP, définition de la règle de décision, calcul de Image graphique511496.trsp.gif, conclusion.

Pour le nombre de sujets nécessaires, se reporter à la section 12.2.1.1

Remarque

Si les notes attribuées par chacun des correcteurs varient généralement dans le même sens - c’est-à-dire une copie mieux notée qu’une autre par le premier examinateur le sera également par le second - alors la valeur absolue de  z calculée sur la base de l’appariement est supérieure à la valeur absolue que l’on aurait obtenue en « oubliant » l’appariement. Ainsi, toutes choses égales par ailleurs, on conclura plus fréquemment au rejet de l’hypothèse nulle : le test ainsi mis en place est plus puissant. On a exploité plus d’information. On a gommé une source de fluctuations, celle liée à la disparité de la qualité des copies. Si cet effet de variation dans le même sens n’est pas réel (ex. : lorsque l’un note la copie x, l’autre la note 20 - x) le problème dans son ensemble n’a plus beaucoup de sens.

12.2.3.2 Test de symétrie de la distribution des différences

Ce test est un cas particulier du test vu au paragraphe 12.2.1.2. car les hypothèses considérées dans ce cas sont les suivantes :

  1. Hypothèses en présence
    H0 : La densité de probabilité de la variable aléatoire d est symétrique par rapport à zéro.
    H1 : La densité de probabilité de la variable d n’est pas symétrique par rapport à zéro ; il existe des domaines de valeurs de d plus probables que leur opposé (par exemple si le domaine [2,1 ; 2,4] est plus probable que le domaine [-2,4 ; -2,1]).
  2. Construction du paramètre
    Le paramètre se construit comme en 12.2.1.2 : on range dans l’ordre croissant de leurs valeurs et sans tenir compte de leur signe les n différences di.

La suite se déroule comme en 12.2.1.2.

     Page précédentePage suivanteSommaireVersion imprimable
   
 
12.1 - Tests concernant des variables de Bernoulli
12.2 - Tests concernant des variables quantitatives
Résumé du chapitre
12.2.1 - Tests impliquant une valeur donnée
12.2.2 - Tests de comparaison de variables quantitatives
12.2.3 - Cas des séries appariées
12.2.3.1 - Test de comparaison de deux moyennes observées sur séries appariées
12.2.3.2 - Test de symétrie de la distribution des différences