Site FMPMC
     Page précédentePage suivanteSommaireVersion imprimable
   
 

Biostatistique

Sommaire

Avant-propos

Introduction

1 - Statistique(s) et Probabilité(s)

2 - Rappels mathématiques

3 - Eléments de calcul des Probabilités

4 - Probabilité Conditionnelle ; Indépendance et Théorème de Bayes

5 - Evaluation de l’intérêt diagnostique des informations médicales

6 - Variables aléatoires

7 - Exemples de distributions

8 - Statistiques descriptives

9 - Etude de la variable aléatoire moyenne expérimentale

10 - Estimation - Intervalle de confiance

11 - Les tests d’hypothèses. Principes

12 - Quelques tests usuels

13 - Tests concernant des variables qualitatives

14 - Liaison entre deux variables continues : notion de corrélation

15 - Méthodologie des études épidémiologiques

A - Tables statistiques


Tous droits de reproduction réservés aux auteurs


traduction HTML V2.8
V. Morice


Chapitre 7 - Exemples de distributions

 

7.1 - Lois discrètes

 

Les lois décrites ici ne concernent que des variables dont les valeurs sont des nombres entiers.

7.1.1 Loi de Bernoulli

On considère une expérience n’ayant que deux résultats possibles, par exemple succès et échec (ou présence et absence d’une certaine caractéristique). On introduit la variable aléatoire  X qui associe la valeur 0 à l’échec (ou à l’absence de la caractéristique) et la valeur 1 au succès (ou à la présence de la caractéristique). Cette variable aléatoire est appelée variable de Bernoulli.

Distribution de X
Appelons Π la probabilité de l’événement succès :
Pr({succès}) = Pr(X = 1) = Π
d’où
Pr({échec}) = Pr(X = 0) = 1 - Π
Espérance de X
Image graphique260257.trsp.gif
Variance de X
Image graphique261258.trsp.gif

Image graphique262259.trsp.gif

Image graphique263260.trsp.gif

7.1.2 Loi binomiale

Définition
Soient les épreuves répétées et indépendantes d’une même expérience de Bernoulli. Chaque expérience n’a que deux résultats possibles : succès ou échec. Comme précédemment, appelons Π la probabilité de l’événement élémentaire succès. A cette expérience multiple on associe une variable aléatoire  X qui mesure le nombre de succès obtenus.
Distribution de X
On montre aisément que la probabilité d’avoir k succès lors de n épreuves répétées est

Image graphique264261.trsp.gif
Rappel
Image graphique265262.trsp.gif pour tout n entier positif
0! = 1 par définition
Remarques
  1. La probabilité de n’avoir aucun succès au cours de  n épreuves (k = 0) est (1-Π)n ; la probabilité d’avoir au moins un succès est donc 1 - (1-Π)n (un succès ou plus)
  2. Image graphique266263.trsp.gif est souvent noté Image graphique267264.trsp.gif ou Image graphique268265.trsp.gif

    Les Image graphique269266.trsp.gif s’appellent coefficients du binôme.

    En effet ils interviennent dans le développement du binôme selon la formule

    Image graphique270267.trsp.gif

    Exercice :
    utiliser cette formule pour vérifier que Image graphique271268.trsp.gif
  3. En appliquant la formule du binôme précédente on retrouve que la somme des probabilités pour toutes les valeurs de X est égale à 1 :

    Image graphique272269.trsp.gif
Exemples
  1. On jette 6 fois une pièce bien équilibrée ; on suppose que face est un succès. On a donc
    Π = 1/2 et n = 6
    1. Probabilité que l’on ait exactement 2 faces

      Image graphique273270.trsp.gif

      Image graphique274271.trsp.gif
    2. Probabilité d’avoir 4 faces ou plus (au moins 4 faces)
      C’est aussi la probabilité d’avoir au plus 2 piles (0, 1 ou 2 piles)

      Image graphique275272.trsp.gif

      Image graphique276273.trsp.gif

      Image graphique277274.trsp.gif

      Image graphique278275.trsp.gif
  2. On jette 7 fois un dé équilibré et on considère que tirer 5 ou 6 est un succès. Calculer
    1. la probabilité pour qu’on ait 3 succès exactement

      Image graphique279276.trsp.gif

      Image graphique280277.trsp.gif
    2. la probabilité de n’avoir aucun succès

      Image graphique281278.trsp.gif
Propriétés
La fonction de probabilité Pr(X= k) dépend des 2 paramètres (ou constantes) n et Π. C’est une distribution discrète qui prend les valeurs suivantes :
k 0 1 2 ........ n
Pr(X= k) (1-Π)n Image graphique282279.trsp.gif  Image graphique283280.trsp.gif    Πn


On dit que X est distribuée selon une loi binomiale B(n, Π).
On peut montrer que
Distribution binomiale B(n, Π)
Espérance Image graphique284281.trsp.gif 
Variance Image graphique285282.trsp.gif 
Ecart-type Image graphique286283.trsp.gif 

7.1.3 Loi de Poisson

La loi de Poisson (due à Siméon Denis Poisson en 1837) est la loi du nombre d’événements observé pendant une période de temps donnée dans le cas où ces événements sont indépendants et faiblement probables. Elle peut s’appliquer au nombre d’accidents, à l’apparition d’anomalies diverses, à la gestion des files d’attentes, au nombre de colonies bactériennes dans une boîte de Pétri, etc.

Définition
Soit X la variable aléatoire représentant le nombre d’apparitions indépendantes d’un événement faiblement probable dans une population infinie. La probabilité d’avoir k apparitions de l’événement est

Image graphique287284.trsp.gif

Cette loi dépend d’un paramètre λ, nombre réel strictement positif.
Les nombres k possibles sont toutes les valeurs entières 0, 1, 2, etc. Cependant, lorsque k est suffisamment grand, la probabilité correspondante devient extrèmement faible.
Propriétés
  • On peut montrer que
    Loi de Poisson Image graphique288285.trsp.gif
    Espérance Image graphique289286.trsp.gif 
    Variance Image graphique290287.trsp.gif 
    Ecart-type Image graphique291288.trsp.gif 



    La démonstration utilise le fait que Image graphique292289.trsp.gif
  • Si deux variables aléatoires indépendantes X1 et X2 sont distribuées selon des lois de Poisson de paramètres λ1 et λ2, alors la variable X1+X2 est distribuée selon une loi de Poisson de paramètre λ12.
Remarques
Si on connaît la probabilité de n’observer aucun événement Pr(X=0) = p :
  • D’après la formule, Image graphique293290.trsp.gif
    On en déduit :
    Image graphique294291.trsp.gif
  • Image graphique295292.trsp.gif,

    Image graphique296293.trsp.gif,

    Image graphique297294.trsp.gif,
    ......
    Image graphique298295.trsp.gif

    On peut ainsi calculer facilement de proche en proche les probabilités des diverses valeurs de k.
Lien avec la loi binomiale
Si une variable aléatoire X est distribuée selon une loi binomiale B(n, Π), on montre que si Π est petit (en pratique inférieur à 0,1) et n assez grand (supérieur à 50), la loi binomiale peut être approximée par une loi de Poisson de paramètre λ=nΠ.
Les calculs sont plus simples avec la loi de Poisson qu’avec la binomiale.
Notons que puisque X est distribuée selon une loi binomiale, ses valeurs possibles ne peuvent dépasser n, alors que l’approximation par la loi de Poisson autorise des valeurs supérieures. Cependant le calcul fournit des probabilités très faibles pour ces valeurs aberrantes.

     Page précédentePage suivanteSommaireVersion imprimable
   
 
7.1 - Lois discrètes
7.2 - Lois continues
7.3 - Application de la Loi de Poisson à l’interprétation d’un risque sanitaire possible qui n’a pas encore été observé
7.1.1 - Loi de Bernoulli
7.1.2 - Loi binomiale
7.1.3 - Loi de Poisson