Site FMPMC
     Page précédentePage suivanteSommaireVersion imprimable
   
 

Biostatistique

Sommaire

Avant-propos

Introduction

1 - Statistique(s) et Probabilité(s)

2 - Rappels mathématiques

3 - Eléments de calcul des Probabilités

4 - Probabilité Conditionnelle ; Indépendance et Théorème de Bayes

5 - Evaluation de l’intérêt diagnostique des informations médicales

6 - Variables aléatoires

7 - Exemples de distributions

8 - Statistiques descriptives

9 - Etude de la variable aléatoire moyenne expérimentale

10 - Estimation - Intervalle de confiance

11 - Les tests d’hypothèses. Principes

12 - Quelques tests usuels

13 - Tests concernant des variables qualitatives

14 - Liaison entre deux variables continues : notion de corrélation

15 - Méthodologie des études épidémiologiques

A - Tables statistiques


Tous droits de reproduction réservés aux auteurs


traduction HTML V2.8
V. Morice


Chapitre 6 - Variables aléatoires

 

6.2 - Variables aléatoires finies

6.2.2 - Espérance mathématique d’une variable finie

 

L’espérance mathématique cherche à traduire la tendance centrale de la variable aléatoire. Il s’agit d’une moyenne où chacune des valeurs xi intervient d’autant plus que sa probabilité est importante, c’est-à-dire d’un barycentre ou d’un centre de gravité. On définit alors la moyenne théorique (parfois aussi appelée vraie), ou espérance mathématique d’une variable X par

Image graphique202201.trsp.gif.

μX peut être notée μ s’il n’y a pas de confusion possible.

Exemple
On considère l’expérience qui consiste à jeter deux dés parfaitement équilibrés. L’espace fondamental est constitué par l’ensemble des couples ordonnés
E = {(1, 1), (1, 2), (1, 3), ..., (6, 6)}
C’est un espace équiprobable (tous les couples résultats élémentaires du tirage sont équiprobables).
Considérons la variable aléatoire définie comme suit : soit r = (a, b) un élément quelconque de E ; on pose X(r) = X(a, b) = max(a, b)
(la valeur de X(r) est égale à a si a > b et à b dans le cas contraire).
X est une variable aléatoire sur  E avec X(E) = {1, 2, 3, 4, 5, 6},
et la loi de probabilité
p1 = Pr(X = 1) = Pr({(1, 1)}) = 1/36 ;
p2 = Pr(X = 2) = Pr({(1, 2), (2, 1), (2, 2)}) = 3/36 ;
p3 = 5/36 ; p4 = 7/36 ; p5 = 9/36 ; p6 = 11/36.
Soit :
xi 1 2 3 4 5 6
pi 1/36 3/36 5/36 7/36 9/36 11/36


E(X) = 1/36 + 6/36 + 15/36 + 28/36 + 45/36 + 66/36 = 161/36 ≈ 4,47
Image graphique203202.trsp.gif

Théorèmes
  1. Soit X une variable aléatoire et k une constante réelle. On a :
    E(kX) = kE(X)
    E(X + k) = E(X) + k
  2. Soient X et Y deux variables aléatoires définies sur le même espace fondamental  E. On a :
    E(X + Y) = E(X) + E(Y)
    On en déduit que pour n variables aléatoires Xi, définies sur le même espace fondamental :

    Image graphique204203.trsp.gif

    (l’espérance de la somme est la somme des espérances).
Exemple
Considérons l’expérience du jeu de dés où E = {1, 2, 3, 4, 5, 6} uniforme (équiprobable).
Soit X(E) une première variable aléatoire définie par
X(E) = {1, 2, 3, 4, 5, 6}
et pX1 = pX2 = pX3 = pX4 = pX5 = pX6 = 1/6
E(X) = (1 + 2 + 3 + 4 + 5 + 6) / 6 = 21/6

Soit Y(E) une seconde variable aléatoire telle que
Y(E) = 1 si le chiffre tiré est impair
Y(E) = 2 si le chiffre tiré est pair.
Donc Y(E) = {1, 2}
pY1 = Pr({1, 3, 5}) = 1/2
pY2 = Pr({2, 4, 6}) = 1/2
E(Y) = 1/2 + 1 = 1,5

Calculons maintenant la loi de (X + Y)(E)
(X + Y)(r) = X(r) + Y(r)
Pour r = 1, (X + Y)(1) = X(1) + Y(1) = 1 + 1 = 2
Pour r = 2, (X + Y)(2) = X(2) + Y(2) = 2 + 2 = 4
Pour r = 3, (X + Y)(3) = X(3) + Y(3) = 3 + 1 = 4
Pour r = 4, (X + Y)(4) = X(4) + Y(4) = 4 + 2 = 6
Pour r = 5, (X + Y)(5) = X(5) + Y(5) = 5 + 1 = 6
Pour r = 6, (X + Y)(6) = X(6) + Y(6) = 6 + 2 = 8
On a donc (X + Y)(E) = {2, 4, 6, 8} et
Pr((X + Y) = 2) = 1/6, Pr((X + Y) = 4) = 2/6, Pr((X + Y) = 6) = 2/6, Pr((X + Y) = 8) = 1/6
E(X + Y) = 2/6 + 8/6 + 12/6 + 8/6 = 30/6
Or on retrouve bien ce résultat en utilisant E(X) + E(Y) = 21/6 + 3/2 = 30/6.
Remarque
Lorsqu’on doit calculer l’espérance d’une fonction g(X), il faut étudier la variable Y = g(X) dont les valeurs sont y1 = g(x1), y2 = g(x2), ..., yn = g(xn). Alors :
Pr(Y = yi) = Pr[g(X) = g(xi)]
Si g est une fonction monotone, on a g(X) = g(xi) X = xi
D’où Pr(Y = yi) = Pr(X = xi) = pi
Donc :
Image graphique205204.trsp.gif

On montre que ce résultat reste valide, même si g n’est pas monotone.
Par exemple, si l’on doit calculer E(X2), on considère la variable Y = X2 dont les valeurs sont y1 = x12, y2 = x22, ..., yn = xn2. Alors :

Image graphique206205.trsp.gif

On constate que pour calculer l’espérance d’un carré, il faut élever les valeurs  xi au carré, mais pas les probabilités pi associées.

     Page précédentePage suivanteSommaireVersion imprimable
   
 
6.1 - Définition d’une variable aléatoire
6.2 - Variables aléatoires finies
6.3 - Variables infinies dénombrables (hors programme)
6.4 - Variables aléatoires continues
6.5 - Extension de la notion de variable aléatoire
6.2.1 - Représentation d’une loi de probabilité finie
6.2.2 - Espérance mathématique d’une variable finie
6.2.3 - Variance et écart-type d’une variable finie
6.2.4 - Loi de probabilité produit
6.2.5 - Variables aléatoires indépendantes
6.2.6 - Fonction de répartition