Site FMPMC
     Page précédentePage suivanteSommaireVersion imprimable
   
 

Biostatistique

Sommaire

Avant-propos

Introduction

1 - Statistique(s) et Probabilité(s)

2 - Rappels mathématiques

3 - Eléments de calcul des Probabilités

4 - Probabilité Conditionnelle ; Indépendance et Théorème de Bayes

5 - Evaluation de l’intérêt diagnostique des informations médicales

6 - Variables aléatoires

7 - Exemples de distributions

8 - Statistiques descriptives

9 - Etude de la variable aléatoire moyenne expérimentale

10 - Estimation - Intervalle de confiance

11 - Les tests d’hypothèses. Principes

12 - Quelques tests usuels

13 - Tests concernant des variables qualitatives

14 - Liaison entre deux variables continues : notion de corrélation

15 - Méthodologie des études épidémiologiques

A - Tables statistiques


Tous droits de reproduction réservés aux auteurs


traduction HTML V2.8
V. Morice


Chapitre 4 - Probabilité Conditionnelle ; Indépendance et Théorème de Bayes

 

4.4 - Théorème de Bayes

 

En reprenant l’équation 2 (section 4.2), on obtient la formule de Bayes :

Image graphique147147.trsp.gif
Equation 3 : formule de Bayes

Le théorème est une forme développée de cette formule que nous introduisons maintenant.

Considérons des événements A1, ..., An tels qu’ils forment une partition de l’ensemble fondamental E.

Par définition, les Ai s’excluent mutuellement et leur union est E :

Image graphique148148.trsp.gif

Soit B un événement quelconque

Image graphique149149.trsp.gif

De Image graphique150150.trsp.gif et de Image graphique151151.trsp.gif, on tire Image graphique152152.trsp.gif.

Soit, par distributivité, Image graphique153153.trsp.gif.

En remarquant que les Image graphique154154.trsp.gif sont exclusifs, puisque les Ai le sont, et en appliquant la 3ème règle du calcul des probabilités on obtient la formule dite des « probabilités totales » :

Image graphique155155.trsp.gif
Equation 4 : probabilités totales

En appliquant le théorème de la multiplication :

Image graphique156156.trsp.gif

Or, par la forme simple du théorème de Bayes, on a Image graphique157157.trsp.gif

D’où le théorème de Bayes :

Image graphique158158.trsp.gif
Equation 5  : théorème de Bayes

Exemple 1
Reprenons l’exemple des résultats au concours des étudiants de Paris VI.
Comme précédemment, soit R l’événement « un étudiant de Paris VI est reçu ». On a, en notant C1, C2, C3 les 3 anciens CHU Saint Antoine, Pitié et Broussais respectivement :
Pr(R) = Pr(R/C1)Pr(C1) + Pr(R/C2)Pr(C2) + Pr(R/C3)Pr(C3)
[noter que c’est la même chose que la somme des probabilités des chemins de l’arbre, qui conduisent à un succès]
Le théorème de Bayes permet de répondre à la question duale. Au lieu de chercher la probabilité d’obtenir un étudiant reçu sachant qu’il venait d’un CHU donné, on cherche la probabilité qu’un étudiant ait été inscrit à un CHU donné sachant qu’il a été reçu (probabilité des causes).
Calculons la probabilité qu’un étudiant reçu soit issu du CHU Pitié-Salpêtrière.

Image graphique159159.trsp.gif

Avec Pr(C1) = 0,25 ; Pr(C2) = 0,50 ; Pr(C3) = 0,25 ;
et Pr(R/C1) = 0,15 ; Pr(R/C2) = 0,20 ; Pr(R/C3) = 0,10.

D’où Image graphique160160.trsp.gif

Ce qui signifie que, dans ce cas, la probabilité qu’un étudiant appartienne à  C2, s’il est reçu, est plus grande que si l’on ne sait rien (probabilité a priori Pr(C2) = 0,50).
Cette façon de calculer les probabilités des causes connaissant les effets est essentielle en médecine. En effet, le problème du diagnostic peut être posé en ces termes.
Exemple 2
Considérons, pour illustrer notre propos, le problème du diagnostic d’une douleur aiguë de l’abdomen. Il s’agit d’un patient arrivant aux urgences pour un « mal au ventre ».
Si l’on ne sait rien d’autre sur le patient (on n’a pas fait d’examen clinique ou complémentaire), on ne connaît que les probabilités d’avoir tel ou tel diagnostic si on observe une douleur.
Soient D1, D2 et D3 les 3 diagnostics principaux (il y en a en fait au moins une douzaine) et exclusifs ; par exemple D1 = appendicite, D2 = perforation d’ulcère, D3 = autres diagnostics.
Soit un signe s1 pour lequel on connaît Pr(s1/D1), Pr(s1/D2), et Pr(s1/D3).
Par exemple, s1 serait « présence d’une fièvre ≥ 38,5?C » ; Pr(s1/D1) = 0,90 ; Pr(s1/D2) = 0,30 ; et Pr(s1/D3) = 0,10.
Ces probabilités peuvent être estimées sur une population de patients en dénombrant le nombre de sujets ayant le diagnostic D1 et présentant le signe s1. De même, on peut connaître Pr(D1), Pr(D2) et Pr(D3).
Le problème diagnostique se pose comme celui de choisir par exemple le diagnostic le plus probable connaissant le signe s1 ; pour ce faire, on calcule Pr(D1/s1), Pr(D2/s1), Pr(D3/s1) et on retient le diagnostic qui a la plus grande probabilité : c’est l’application de l’approche bayesienne au problème de l’aide au diagnostic.

     Page précédentePage suivanteSommaireVersion imprimable
   
 
4.1 - Probabilité conditionnelle
4.2 - Théorème de la multiplication
4.3 - Diagramme en arbre
4.4 - Théorème de Bayes
4.5 - Indépendance entre événements
4.6 - Indépendance, inclusion et exclusion de deux événements