samedi 26 juin 2010

Probabilités pour ingénieurs et pour presque tous les non mathématiciens (1.3)

Chapitre 1.- Quelques notions de base

  1. Introduction
  2. Définition de quelques termes reliés aux ensembles et aux probabilités
  3. La probabilité d'un événement et sa détermination
  4. L'espace échantillonnal fini et son dénombrement
  5. Les probabilités conditionnelles
  6. Les expériences statistiquement indépendantes et les événements indépendants
  7. La partition de l'espace échantillonnal, la loi de probabilité totale et le théorème de Bayes

    ***********************************************

LEÇON 1.3 - Les Probabilités et leur détermination

Dans cette troisième leçon le lecteur commencera à se familiariser avec la définition rigoureuse de la probabilité d'un événement, les propriétés de cette probabilité et quelques théorèmes utiles. Plus précisément, les points suivants seront étudiés:

  1. Définition de la probabilité d’un événement.
  2. Propriétés de la probabilité d’un événement.
  3. Notion de fréquence relative d’un événement.
  4. Un moyen de calculer la probabilité d’un événement.
  5. Quelques théorèmes utiles.

Dans cette leçon S désignera l'espace échantillonnal associé à l'expérience aléatoire. Voir Leçon 1.2



1.3.1 Définition de la probabilité d’un événement.

On définit une probabilité comme une fonction dont le domaine est un ensemble d’événements et l’image est un ensemble de nombres réels compris entre 0 et 1.
Soit A un événement du domaine de la fonction. L’image que la fonction de probabilité associé à l’événement A que l’on notera P(A) est la probabilité de l’événement A.


Définition.-

Soit A un événement du domaine de la fonction. L’image que la fonction de probabilité associé à l’événement A que l’on notera P(A) est la probabilité de l’événement A.


1.3.2 Propriétés de la probabilité d’un événement.

Propriétés de P(.) :

  1. 0 ≤ P(A) ≤ 1, pour tout A de S.
  2. P(S) = 1.
  3. Pour tout nombre fini A1, A2, …, Ak, d’événements mutuellement exclusifs définis dans S, on a :
    P(A1 U A2 U … U Ak ) = ∑ P(Ai), i allant de 1 à k.
  4. Pour une suite A1, A2, A3, … dénombrable d’événements mutuellement exclusifs définis dans S, on a :
    P(A1 U A2 U A3 U … ) = ∑ P(Ai), i entier allant de 1 à .

1.3.3 La notion de fréquence relative d’un événement.

Pour illustrer la détermination des probabilités, on imagine la répétition d’une expérience et la fréquence relative de l’occurrence d’un événement particulier.
Soit une expérience aléatoire E répétée m fois et deux événements A et B. Soit mA et mB le nombre de répétitions de A et de B à l’intérieur de m répétitions.

Définition.-

Soient fA = mA/m et fB = mB/m les fréquences relatives des événements A et B. On a par exemple :

  1. 0 ≤ fA ≤ 1.
  2. fA = 0, si et seulement si l’événement A ne se produit jamais;
    fA = 1, si et seulement si l’événement A se produit à chaque répétition.
  3. fA U B = fA + fB si les événements A et B sont mutuellement exclusifs.

Lorsque m devient élevé, fA tend à se stabiliser. La notion de fréquence relative et la tendance à la stabilisation de cette fréquence sont à la base d’une méthode permettant d’attribuer une probabilité à un événement.

Par exemple, soit E une expérience aléatoire d’espace échantillonnal S. Si fA, la fréquence relative d’un événement A tend vers une limite pA quand le nombre de répétitions augmente, on peut considérer pA comme la probabilité de A :

lorsque m → ∞, P(A) = lim (mA/m) = lim fA = pA (eq. 3.1)

En pratique, le nombre de répétitions est limité.


1.3.4 Un moyen de calculer la probabilité d’un événement.

On suppose que l’espace échantillonnal comporte un nombre fini n d’éléments ei et que la probabilité attribuée à un résultat est :
pi = P(Ei) avec Ei = {ei} ;
et
pi ≥ 0 , i = 1, 2, …, n;
p1 + p2 + … + pn = 1, ou ∑ pi = 1, i allant de 1 à k.
Alors :
P(A) = ∑ pi , i étant tel que ei ε A (eq. 3.2)

Si l’espace échantillonnal S n’est pas fini, mais comporte une infinité dénombrable d’éléments ei, alors :
pi ≥ 0 , i = 1, 2, … ; ∑ pi = 1, i entier allant de 1 à ∞.
Mais on a encore :
P(A) = ∑ pi, i étant tel que ei ε A (eq. 3.3)


Exemple C1.L3.1
Si l’espace échantillonnal S est fini et contient n résultats équiprobables tels que :
p1 = p2 = … = pn = 1/n
Et si l’événement A renferme n(A) résultats possibles, alors on a :
P(A) = n(A)/n

On établira dans la Leçon 4 des méthodes de dénombrement pouvant servir à déterminer n et n(A).

Exemple C1.L3.2

Soit une pièce de monnaie équilibrée jetée en l’air à trois reprises; on note à chaque fois sur quel côté elle tombe. L’espace échantillonnal de cette expérience noté S s’écrit :
S = {PPP, PPF, PFP, PFF, FPP, FPF, FFP, FFF}
On a :
e1 = PPP; e2 = PPF; etc.
Chaque résultat i a une probabilité pi.
E1 = {e1}; E2 = {e2}; etc. et leurs probabilités sont : pi = 1/8 (résultats équiprobables).
Soit A l’événement «la pièce de monnaie tombe à chaque fois sur le même côté». On a alors :
A = {PPP, FFF} et P(A) = 1/8 + 1/8 = 2/8 = 1/4
( P(A) = n(A)/n = 2/8 = 1/4 )


1.3.5 Quelques théorèmes utiles.

Théorème 1.1 .- Si Ø est l’ensemble vide, alors P(Ø) = 0.

Preuve.-

Soit S l’espace échantillonnal associé à l’expérience en cause. On peut écrire : S = S + Ø. Les ensembles S et Ø étant mutuellement exclusifs, les propriétés 2 et 4 de la définition d'une probabilité permettent d’écrire :
1 = P(S) = P(S U Ø) = P(S) + P(Ø) → P(Ø) = 0.


Théorème 1.2 .- A’ étant le complémentaire de A dans S, alors: P(A’) = 1-P(A).

Preuve.-

Soit S l’espace échantillonnal associé à l’expérience étudiée, soit A un événement de S. A’ étant le complémentaire de A dans S, on peut écrire : S = A U A’. De plus A et A’ étant mutuellement exclusifs, la propriété 4 de la définition d'une probabilité permet d’écrire :
1 = P(S) = P(A U A’) = P(A) + P(A’) → P(A’) = 1 – P(A).

Théorème 1.3 .- A et B étant deux événements quelconques de S, on a :
P(A U B) = P(A) + P(B) – P(A ∩ B).

Preuve.-

On peut vérifier cette relation à l’aide d’un diagramme de Venn. On peut y constater qu’il faut retrancher P(A ∩ B) de la somme P(A) + P(B) pour ne pas compter deux fois la probabilité de l’intersection de A et B. Une démonstration plus rigoureuse du théorème 1.3 sera demandée en exercice.

Théorème 1.4 .- A, B et C étant trois événements quelconques de S, on a :
P(A U B U C) = P(A) + P(B)+ P(C) – P(A ∩ B) – P(B ∩ C) – P(C ∩ A) + P(A ∩ B ∩ C).

Preuve.-

On peut poser X = A U B, écrire A U B U C = (A U B) U C = X U C, puis appliquer le théorème 1.3 aux événements X et C. Un diagramme de Venn peut aider à suivre les étapes de la démonstration ou à vérifier le théorème.


Théorème 1.5 .- Soit A la réunion de N événements A1, A2, …, AN :
A = A1 U A2 U…U AN.
P(A) est la probabilité de réalisation d’au moins un événement parmi les N événements A1, A2, …, AN.
On note :
pi = P(Ai); pij = P(Ai ∩ Aj); pijk = P(Ai ∩ Aj ∩ Ak); …
On définit :
S1 = ∑ pi; S2 = ∑ pij; S3 = ∑ pijk; …

avec i inférieur à j inférieur à k inférieur à ... inférieur ou égal à N.

La probabilité de A est donnée par :
P(A) = P(A1 U A2 U…U AN ) = S1 –S2 + S3 – S4 + ... ± SN = ∑ Si*(-1)^(i-1), i allant de 1 à N; dans la sommation, le symbole "^" signifie que (i-1) est l'exposant de (-1).



Preuve.-
Voir par exemple, Feller, tome I, pages 99-100. À la fin de la leçon 4, le lecteur sera en mesure de comprendre la preuve fournie dans Feller. Par ailleurs, une démonstration par induction est sans doute possible.

Remarque.- Les théorèmes 1.3 et 1.4 sont deux cas particuliers du théorème 1.5. Le théorème 1.3 correpond à N=2 tandis que le théorème 1.4 correspond à N=3.
En effet, pour N=2, on a :
P(A) = P(A1 U A2) = S1S2 = ( P(A1) + P(A2) ) – ( P(A1 ∩ A2) ).
Pour N=3, on a:
P(A) = P(A1 U A2 U A3 ) = S1S2 + S3 =
=(P(A1) + P(A2)+ P(A3)) – ((P(A1 ∩ A2) + P(A2 ∩ A3) + P(A3 ∩ A1) ) + P(A1 ∩ A2 ∩ A3).


Théorème 1.6.- A et B étant deux événements quelconques de S,
si A est inclus dans B, alors, P(A) ≤ P(B).

Preuve.-
Soit A et B deux événements de S tels que A soit inclus dans B. Soit A’ le complémentaire de A dans S. On a alors :
B = A U (A’ ∩ B)
Les événements A et (A’ ∩ B) étant mutuellement exclusifs, on peut écrire :
P(B) = P(A) + P(A’ ∩ B) ≥ P(A) car P(A’ ∩ B) ≥ 0.

Fin de la Leçon 1.3

Références utilisées

  1. Hines, William W., Montgomery, Douglas C., Goldsman, David M., Borror, Connie M. (2005) Probabilités et statistique pour ingénieurs, Les Éditions de la Chenelière, 597 p., traduction de Probability and statistics in engineering, Fourth Edition, Wiley 2003 des mêmes auteurs et du chapitre 7 de Introduction to Statistical Quality Control, Fourth Edition, Montgomery, Douglas C., Wiley 2001.
  2. Rumsey, Deborah (2006) Probability for Dummies, Wiley, 358 p.
  3. Feller, William (1967) An Introduction to Probability Theory and its Applications, Volume I, Third Edition, Revised Printing (1970), Wiley, 509 p.
  4. Moi-même.

Aucun commentaire:

Enregistrer un commentaire

Compteur