Ce cours de probabilités est conforme au programme des filières MPSI et MP2I. Il contient des exemples et des exercices d’application qui faciliteront votre assimilation du contenu. N’hésitez pas à consulter notre série d’exercices corrigés pour acquérir une maîtrise solide de cours.

Dans tout le chapitre \Omega est un ensemble fini.

I) Probabilités sur un univers fini, variables aléatoires et lois

1) Univers, événements, variables aléatoires

Définition 1 :
\bullet On appelle expérience aléatoire toute expérience renouvelable, dont le résultat ne dépend que du hasard. L’observateur ne peut pas prévoir le résultat d’une telle expérience à l’avance et il n’observe pas forcément le même résultat à chaque renouvellement.
\bullet Un résultat possible d’une expérience aléatoire est dit issue.
\bullet L’ensemble des issues d’une expérience aléatoire est appelé univers. On le note généralement \Omega.
\bullet On appelle évènement tout sous-ensemble de \Omega.
\bullet Le couple (\Omega, \mathcal{P}(\Omega)) s’appelle espace probabilisable.

Exemple 1 :
Expérience aléatoire : On lance un dé équilibré à 6 faces numérotées de 1 à 6.
\bullet \Omega= \llbracket 1,6 \rrbracket .
\bullet \left\{2 \ ; \ 4 \ ;\ 6 \right\} Correspond à l’événement « avoir une face qui porte un numéro pair » .
\bullet \left\{1 \right\} est l’événement « avoir la face qui porte le numéro 1 ».

Exemple 2 :
Expérience aléatoire : On tire successivement et sans remise 3 boules d’une urne contenant 10 boules numérotées de 1 à 10.
\bullet \Omega= \mathcal{A}_{3}( \llbracket 1,10 \rrbracket . (Ensemble des arrangements de trois éléments parmi \llbracket 1,10 \rrbracket ).
\bullet \left\{ (1 \ , \ 3 \ ,\ 5) \right\} Correspond à l’événement « avoir la boule numéro 1 lors du premier tirage, la boule numéro 3 lors du deuxième tirage et la boule numéro 5 lors du troisième tirage ».

Exemple 3 :
Expérience aléatoire : On tire successivement et avec remise 3 boules d’une urne contenant 10 boules numérotées de 1 à 10.
\bullet \Omega= \llbracket 1,10 \rrbracket^{3} .
\bullet \left\{ (2, \ 2, \ 2 ) \right\} Correspond à l’événement élémentaire « obtenir la boule numéro 2 lors des trois tirages ».
\bullet \left\{ (9 \ , \ 1 \ ,\ 8) \right\} Correspond à l’événement « avoir la boule numéro 9 lors du premier tirage, la boule numéro 1 lors du deuxième tirage et la boule numéro 8 lors du troisième tirage ».

Exemple 4 :
Expérience aléatoire : On tire simultanément 3 boules d’une urne contenant 10 boules numérotées de 1 à 10.
\bullet \Omega= \mathcal{P}_{3}( \llbracket 1,10 \rrbracket . (Ensemble des combinaisons de trois éléments parmi \llbracket 1,10 \rrbracket ).
\bullet \left\{ 1 ; \ 4 ; \ 7 \right\} Correspond à l’événement « obtenir les boules portant les numéros 1, 4 et 7 à l’issue de ces trois tirages ».

Exemple 5 :
Expérience aléatoire : On lance deux fois une pièce à deux faces (pile noté « P » et face noté « F »).
\bullet \ \Omega = \left\{ (P,P) ; (P,F) ; (F,P) ; (F,F) \right\} .
\bullet \ \left\{ (P,P) ; \ (F,F) ( \right\} Correspond à l’événement « obtenir le même résultat lors des deux lancers ».

Opérations sur les événements :
On considère un espace probabilisable (\Omega, \mathcal{P}(\Omega) ).
\bullet  \ \Omega est dit événement certain.
\bullet \ \varnothing est dit événement impossible.
\bullet  Un singleton de \mathcal{P}(\Omega) est dit événement élémentaire.
\bullet Le complémentaire, dans \Omega, d’un événement A est appelé événement contraire de A, on le note \bar{A}.
\bullet Si A et B sont deux événements, on appelle événement « A et B » l’événement A \cap B.
\bullet Si A et B sont deux événements, on appelle événement. « A ou B » l’événement A \cup B.
\bullet Deux événements A et B sont dits incompatibles quand ils ne peuvent pas se réaliser simultanément. Cela signifie que A \cap B=\emptyset.
\bullet On dit qu’une famille d’événements \left(A_{i}\right)_{i \in I} est une famille d’événements deux à deux incompatibles lorsque :
\forall i, j \in I, i \neq j \Rightarrow A_{i} \cap A_{j}=\emptyset.

Système complet d’événements :
Dans un espace probabilisable (\Omega, \mathcal{P}(\Omega)), on dit qu’une famille d’événements \left(A_{i}\right)_{i \in I} est un système complet d’événements lorsque \bigcup_{i \in I} A_{i}=\Omega et que \left(A_{i}\right)_{i \in I} est une famille d’événements deux à deux incompatibles.

Exemple 6 :
On lance un dé dont les six faces sont numérotées de 1 à 6.
Les événements \left\{ 1 ; 3 \right\} , \ \left\{ 2 ; 4 ; 6 \right\} , \ \left\{ 5 \right\} forment un système complet d’événements.

Remarque 1 :
i) (\emptyset, \Omega ) est un système complet d’événements.
ii) \forall A \in \mathcal{P}( \Omega ) , \ ( A, \bar{A} ) est un système complet d’événements.
iii) Toute partition de \Omega est un système complet d’événements.

2) Espaces probabilisés finis

Définition 2 (Probabilité) :
Une probabilité sur un espace probabilisable (\Omega, \mathcal{P}(\Omega)) est une application \mathbb{P} de \mathcal{P}(\Omega) vers [0,1] qui vérifie les deux conditions suivantes :
i) \mathbb{P}(\Omega)=1.
ii) L’application \mathbb{P} est additive. C’est-à-dire : Si A et B sont deux événements incompatibles de \mathcal{P}(\Omega) alors : \mathbb{P}(A \cup B)=\mathbb{P}(A)+\mathbb{P}(B).
Dans ce cas, on dit que (\Omega, \mathbb{P}) est un espace probabilisé.

Propriétés des probabilités :
Soient (\Omega, \mathbb{P}) un espace probabilisé et A, B \in \mathcal{P}(\Omega).
i) \mathbb{P}(\bar{A})=1-\mathbb{P}(A).
ii) \mathbb{P}(\emptyset)=0.
iii) Croissance des probabilités : Si A \subset B alors \mathbb{P}(A) \leqslant \mathbb{P}(B).
iv) \mathbb{P}(A \cup B)=\mathbb{P}(A)+\mathbb{P}(B)-\mathbb{P}(A \cap B).
v) Si A_{n}, \ldots, A_{n} sont des événements deux à deux incompatibles alors : \mathbb{P}\left( \bigcup\limits_{i=1}^{n} A_{i}\right)=\sum\limits_{i=1}^{n} \mathbb{P}\left(A_{i}\right).

Démonstration :
i) On a 1 = \mathbb{P}(\Omega)= \mathbb{P}(A \cup \bar{A})=\mathbb{P}(A )+\mathbb{P}( \bar{A}) .
Donc \mathbb{P}( \bar{A}) = 1-\mathbb{P}( A) .
ii) Par i) \mathbb{P}(\emptyset)= 1 - \mathbb{P}(\bar{\emptyset})=1 - \mathbb{P}(\Omega)=1-1=0 .
iii) On suppose que A \subset B .
\mathbb{P}( B)=\mathbb{P}(A \cup (B \setminus A )=\mathbb{P}( A) + \mathbb{P}(B \setminus A )
Puisque \mathbb{P}(B \setminus A ) \geq 0 alors \mathbb{P}(A) \leqslant \mathbb{P}(B).
iv) On a \mathbb{P}(A \cup B )= \mathbb{P}( ( B \setminus A ) \cup A ) = \mathbb{P}( B \setminus A )+ \mathbb{P}(A).
Et on a \mathbb{P}(B) = \mathbb{P}( (B \setminus A) \cup (A \cap B )) = \mathbb{P}( B \setminus A) + \mathbb{P}( A \cap B) .
Donc \mathbb{P}(B \setminus A)= \mathbb{P}(B) - \mathbb{P}( A \cap B ) .
On conclut finalement que \mathbb{P}(A \cup B)=\mathbb{P}(A)+\mathbb{P}(B)-\mathbb{P}(A \cap B).
v) Par récurrence.

Proposition-définition (Probabilité uniforme) :
Soit (\Omega, \mathcal{P}(\Omega)) un espace probabilisable.
L’application \begin{matrix}  \mathbb{P} &:& \mathcal{P}(\Omega) & \longrightarrow & [0,1] \\ & & A & \longrightarrow & \frac{ Card(A) }{Card( \Omega ) } \end{matrix} est une probabilité appelée probabilité uniforme.

Démonstration :
\bullet \ \mathbb{P}(\Omega) = \frac{Card(\Omega)}{Card(\Omega)} =1.
\bullet Soient A et B deux événements incompatibles.
\mathbb{P}(A \cup B) = \frac{Card(A \cup B)}{Card(\Omega)} = \frac{Card(A)+Card(B)}{Card(\Omega)}=\mathbb{P}(A ) + \mathbb{P}(B) .
Ainsi l’application \mathbb{P} est bien une probabilité sur l’espace probabilisable ( \Omega, \mathcal{P}(\Omega)) .

Remarque 2 :
Si on constate que tous les événements élémentaires ont la même chance d’être réalisés, on dit qu’il y a équiprobabilité et on munit l’univers de la probabilité uniforme.

Exemple 7 :
On lance un dé dont les six faces sont numérotées de 1 à 6.
On veut calculer la probabilité de l’événement A « Obtenir un numéro pair ».
On constate qu’il y a équiprobabilité donc on utilise la probabilité uniforme.
\mathbb{P}(A)=\frac{Card(A)}{Card(\Omega)}= \frac{3}{6}=\frac{1}{2} .

Proposition 1 (Détermination d’une probabilité par les images des événements élémentaires) :
Soit (\Omega, \mathcal{P}(\Omega)) un espace probabilisable. On pose \Omega=\left\{\omega_{1}, \ldots, \omega_{n}\right\}. Soient p_{1}, \ldots, p_{n} des nombres réels positifs de somme égale à 1.
Il existe une unique probabilité \mathbb{P} \ sur \ (\Omega, \mathcal{P}(\Omega)) telle que : \forall k \in \llbracket 1, n \rrbracket, \ \mathbb{P}\left(\left\{\omega_{k}\right\}\right)= p_{k}.
Dans ce cas on a : \forall I \in \mathcal{P}(\llbracket 1, n \rrbracket), \ \mathbb{P}\left(\left\{\omega_{k} / k \in I\right\}\right)=\sum\limits_{k \in I} p_{k}.
On dit dans ce cas que la famille (p_{k})_{k \in \llbracket 1,n \rrbracket } est une distribution de probabilités.

Démonstration :

3) Probabilités conditionnelles

Définition 3 :
Soient (\Omega, \mathbb{P}) un espace probabilisé et A, B \in \mathcal{P}(\Omega).
Si \mathbb{P}(B)>0, on définit la probabilité de A sachant B, qu’on note \mathbb{P}_{B}(A) ou \mathbb{P}(A \mid B), par \mathbb{P}_{B}(A)=\frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}.

Proposition 2 :
Soient (\Omega, \mathbb{P}) un espace probabilisé et B \in \mathcal{P}(\Omega) tel que \mathbb{P}(B)>0.
i) L’application \mathbb{P}_{B} est une probabilité sur \Omega .
ii) Si A \subset B alors \mathbb{P}_{B}(A)=\frac{\mathbb{P}(A)}{\mathbb{P}(B)}.
iii) \mathbb{P}(A \cap B)=\mathbb{P}(B) \mathbb{P}_{B}(A).

Démonstration :

Exemple 8 :
Dans une classe il y a 12 filles dont 4 portent des lunettes et il y a 8 garçons dont 2 portent des lunettes.
On choisit au hasard un élève de la classe.
On note les événements suivants :
F « L’élève est une fille »
G « L’élève est un garçon »
L « L’élève porte des lunettes »
On a \mathbb{P}_{G}(L)= \frac{ \mathbb{P}(G \cap L )}{ \mathbb{P}( G) }= \frac{ \frac{2}{20}}{\frac{8}{20}} =\frac{1}{4}
Et on \mathbb{P}_{F}(L)= \frac{ \mathbb{P}(F \cap L )}{ \mathbb{P}( F) }= \frac{ \frac{4}{20}}{\frac{12}{20}} =\frac{4}{12} = \frac{1}{3}

Formule des probabilités composées :
Soient (\Omega, \mathbb{P}) un espace probabilisé, n \in \mathbb{N} \backslash\{0,1\} et \left(A_{i}\right)_{i \in \llbracket 1, n \rrbracket} une famille d’événements tels que \mathbb{P}\left(\bigcap\limits_{i=1}^{n-1} A_{i}\right) \neq 0. Alors :
\mathbb{P}\left(\bigcap\limits_{i=1}^{n} A_{i}\right)=\mathbb{P}\left(A_{1}\right) \mathbb{P}_{A_{1}}\left(A_{2}\right) \mathbb{P}_{A_{1} \cap A_{2}}\left(A_{3}\right) \times \ldots \times \mathbb{P}_{A_{1} \cap \ldots \cap A_{n-1}}\left(A_{\mathrm{n}}\right).

Démonstration :

Exercice d’application 1 :
Soit n un entier naturel non nul. Une urne contient n boules blanches et une boule noire.
On tire successivement et sans remise n boules de l’urne.
Pour tout k \in \llbracket 1,n \rrbracket , on note A_{k} l’événement « les k premières boules tirées sont blanches ».
Déterminer \mathbb{P}(A_{k}) pour tout k \in \llbracket1,n \rrbracket .

Corrigé :
Soit k \in \llbracket1,n \rrbracket .
En appliquant la formule des probabilités composées on trouve :
\mathbb{P}(A_{k})=\mathbb{P}\left(\bigcap\limits_{i=1}^{k} A_{i}\right)=\mathbb{P}\left(A_{1}\right) \mathbb{P}_{A_{1}}\left(A_{2}\right) \times \ldots \times \mathbb{P}_{A_{1} \cap \ldots \cap A_{k-2}}\left(A_{k-1}\right) \mathbb{P}_{A_{1} \cap \ldots \cap A_{k-1}}\left(A_{k}\right).
\mathbb{P}(A_{k}) = \frac{n }{n+1 } \times \frac{n-1 }{n } \times \dots \times \frac{n+1-(k-1) }{n+2-(k-1) } \times \frac{ n+1-k}{ n+2-k} .
Par télescopage : \mathbb{P}(A_{k}) = \frac{n+1-k }{n+1 } .

Formule des probabilités totales :
Soit (\Omega, \mathbb{P}) un espace probabilisé, n \in \mathbb{N}^{*}, \ \left(A_{i}\right)_{i \in \llbracket 1, n \rrbracket} un système complet d’événements et B un événement.
Alors on a : \mathbb{P}(B)=\sum\limits_{k=1}^{n} \mathbb{P}\left(B \cap A_{k}\right).
Si de plus \forall k \in \llbracket 1, n \rrbracket, \ \mathbb{P}\left(A_{k}\right) \neq 0 alors P(B)=\sum\limits_{k=1}^{n} \mathbb{P}\left(A_{k}\right) \mathbb{P}_{A_{k}}(B).

Démonstration :
\mathbb{P}( B) = \mathbb{P}( B \cap \Omega ) = \mathbb{P} ( B \cap ( \bigcup\limits_{k=1}^{n} A_{k} ) ) .
Par distributivité de l’intersection par rapport à la réunion on trouve
\mathbb{P}( B) =\mathbb{P} ( \bigcup\limits_{k=1}^{n} ( B \cap A_{k} ) ) .
Puisque B \cap A_{1} , \dots , \ B \cap A_{n} sont deux à deux incompatibles, on applique l’additivité de la probabilité pour obtenir :
\mathbb{P}( B) = \sum\limits_{k=1}^{n} \mathbb{P} ( B \cap A_{k} ) .

Exercice d’application 2 :
On dispose d’un dé équilibré et de six urnes numérotées de 1 à 6 telles que pour tout k \in \llbracket 1,n \rrbracket l’urne numérotée k contient k boules blanches et 6-k boules noires.
On jette le dé puis on tire une boule de l’urne dont le numéro est celui indiqué par le dé.
Déterminer la probabilité de l’événement B « Obtenir une boule blanche ».

Corrigé :
Pour tout k \in \llbracket 1,6 \rrbracket , on note A_{k} l’événement « Obtenir la face du dé numérotée k ».
(A_{k})_{k \in \llbracket 1,6 \rrbracket} est un système complet d’événements, on applique alors la formule des probabilités totales :
\mathbb{P}(B)= \sum\limits_{k=1}^{6} \mathbb{P}(A_{k}) \mathbb{P}_{A_{k}}(B) .
\mathbb{P}(B)= \sum\limits_{k=1}^{6} \frac{1}{6} \frac{k}{6}=\frac{1}{36} \frac{6 \times 7}{2} .

Formule de Bayes :
Soient (\Omega, \mathbb{P}) un espace probabilisé, A et B deux événements de probabilités non nulles.
i) \mathbb{P}_{B}(A)=\frac{\mathbb{P}(A) \mathbb{P}_{A}(B)}{\mathbb{P}(B)}.
ii) Soient n \in \mathbb{N}^{*} \ et \ \left(A_{i}\right)_{i \in \mathbb{1}, n \rrbracket} un système complet d’événements tel que \forall k \in \llbracket 1, n \rrbracket, \mathbb{P}\left(A_{k}\right) \neq 0.
Alors \forall j \in \llbracket 1, n \rrbracket, \mathbb{P}_{B}\left(A_{j}\right)=\frac{\mathbb{P}_{A_{j}}(B) \mathbb{P}\left(A_{j}\right)}{\sum\limits_{k=1}^{n} \mathbb{P}\left(A_{k}\right) \mathbb{P}_{A_{k}}(B)}.

Démonstration :
i) \mathbb{P}_{B}(A)=\frac{\mathbb{P}(A \cap B )}{\mathbb{P}(B)} =\frac{\mathbb{P}(A) \mathbb{P}_{A}(B)}{\mathbb{P}(B)} .
ii) Soit \forall j \in \llbracket 1, n \rrbracket .
Par la formule des probabilités totales on a : \mathbb{P}(B)= \sum\limits_{k=1}^{n} \mathbb{P}(A_{k}) \mathbb{P}_{A_{k}}(B)
Donc \mathbb{P}_{B}\left(A_{j}\right)= \frac{\mathbb{P}(A_{j} \cap B )}{\mathbb{P}(B)} =\frac{\mathbb{P}_{A_{j}}(B) \mathbb{P}\left(A_{j}\right)}{\sum\limits_{k=1}^{n} \mathbb{P}\left(A_{k}\right) \mathbb{P}_{A_{k}}(B)}

Exercice d’application 3 :
Une usine dispose de trois lignes de production différentes L_{1} , \ L_{2} \ et \ L_{3} qui fabriquent le même produit.
Les lignes L_{1} , \ L_{2} \ et \ L_{3} sont responsables respectivement de 60%, 30% et 10% de la production.
On estime que :
\bullet 1% des produits fabriqués dans la ligne L_{1} sont défectueux.
\bullet 2% des produits fabriqués dans la ligne L_{2} sont défectueux.
\bullet 3% des produits fabriqués dans la ligne L_{3} sont défectueux.
On contrôle un produit au hasard à la sortie de l’usine.
Pour tout i \in \left\{1 ; \ 2 ; \ 3 \right\} , on note encore L_{i} l’événement « Le produit provient de L_{i}  » et D l’événement « Le produit est défectueux ».
1) Quelle est la probabilité que ce produit soit défecteux ?
2) Quelle est la probabilité qu’un produit défectueux provient de L_{1} ?

Corrigé :
1) On applique la formule des probabilités totales au système complet d’événements (L_{1} , \ L_{2} \ et \ L_{3} ) :
\mathbb{P}( D )= \mathbb{P}( L_{1} ) \mathbb{P}_{L_{1}} (D) + \mathbb{P}( L_{2} ) \mathbb{P}_{L_{2}} (D) + \mathbb{P}( L_{3} ) \mathbb{P}_{L_{3}} (D)
\mathbb{P}( D ) = \frac{ 6}{10 } \cdot \frac{1 }{ 100} + \frac{3 }{ 10} \cdot \frac{ 2}{100 } + \frac{1 }{10 } \cdot \frac{3 }{ 100} = \frac{ 15}{1000 } .
2) Par la formule de Bayes :
\mathbb{P}_{D}( L_{1})=\frac{\mathbb{P}(L_{1} ) \mathbb{P}_{L_{1}}(D)}{\mathbb{P}(D)}.
\mathbb{P}_{D}( L_{1})= \frac{ \frac{6 }{ 10} \cdot \frac{1 }{100 } }{ \frac{ 15}{ 1000} } = \frac{ 6}{ 15} .

4) Loi d’une variable aléatoire

Définition 4 :
Soit (\Omega, P(\Omega)) un espace probabilisable.
On appelle variable aléatoire réelle toute application X de \Omega vers \mathbb{R}.

Notation :
Soit H une partie de \mathbb{R}. Par abus de notation, on note :
\bullet \ \{X \in H\} ou (X \in H) ou [X \in H] à la place \operatorname{de} X^{-1}(H)=\{\omega \in \Omega / X(\omega) \in H\}.
De même on note pour tout réel x :
\bullet \ [X=x]=(X=x)=\{X=x\}=X^{-1}(\{x\})=\{\omega \in \Omega / X(\omega)=x\}.
\bullet  \ [X \leq x]=(X \leq x)=\{X \leq x\}=X^{-1}(]-\infty, x])=\{\omega \in \Omega / X(\omega) \leq x\} .

Remarque 3 :
\bullet  \ X(\Omega)=\{X(\omega) / \omega \in \Omega\} est appelé support de la variable aléatoire X.
\bullet La famille ([X=a])_{a \in X( \Omega) } est un système complet d’événements.

Loi de probabilité de X :
Soient (\Omega, \mathbb{P}) un espace probabilisé et X une variable aléatoire réelle.
On définit une application notée \mathbb{P}_{X} par :
\begin{matrix} \mathbb{P}_{X} & : & \mathcal{P}(X(\Omega)) & \rightarrow & [0,1]  \\ & & A & \rightarrow & \mathbb{P}(X \in A)  \end{matrix}
\mathbb{P}_{X} est une probabilité sur l’espace probabilisable (X(\Omega), \mathcal{P}(X(\Omega))).
La probabilité \mathbb{P}_{X} est déterminée par la distribution de probabilités ( \mathbb{P }(X=x))_{x \in X(\Omega) }.

Démonstration :
\bullet \ \mathbb{P}_{X}(X(\Omega ))= \mathbb{P} (X \in X(\Omega )) = \mathbb{P} (X ^{-1}( X(\Omega )) = \mathbb{P} (\Omega ) =1 .
\bullet Soient A et B deux événements incompatibles de \mathcal{P}(X( \Omega )) .
\mathbb{P}_{X}( A \cup B ) = \mathbb{P} (X \in A \cup B ) = \mathbb{P} (X ^{-1}( A \cup B) =\mathbb{P} (X ^{-1}( A ) \cup X ^{-1}( B)) .
On a X^{-1}(A) \cap X^{-1}(B)= X^{-1}( A \cap B) = X^{-1}(\emptyset) = \emptyset .
En appliquant l’additivité de \mathbb{P} :
\mathbb{P}_{X} (A \cup B )= \mathbb{P} (X^{-1}(A)) +\mathbb{P} (X^{-1}(B)) = \mathbb{P} (X \in A) +\mathbb{P} (X \in B) =\mathbb{P}_{X} (A) + \mathbb{P}_{X} (B) .
\mathbb{P}_{X} est alors additive.
\bullet On conclut finalement que \mathbb{P}_{X} est une probabilité sur (X(\Omega), \mathcal{P}(X(\Omega))).

Exercice d’application 4 :
Une urne contient 3 boules blanches et 5 boules noires. Les 8 boules sont indiscernables au toucher.
On tire simultanément deux boules de l’urne et on note X la variable aléatoire égale au nombre de boules blanches tirées.
Déterminer la loi de X.

Corrigé :
X(\Omega ) = \left\{0 ; \ 1; \ 2 \right\} .
\mathbb{P}(X=0) =\frac{ \binom{5}{2}}{ \binom{8 }{2}} = \frac{ \frac {5! }{2! \cdot 3!} } { \frac { 8!}{2! \cdot 6!} } = \frac{5! \cdot 6! }{8! \cdot 3!}=\frac{5 \times 4 }{8 \times 7} = \frac{5}{14} .
\mathbb{P}(X=1) =\frac{ \binom{5}{1} \binom{3}{1}}{ \binom{8 }{2}} = \frac{ 5 \times 3} { \frac { 8!}{2! \cdot 6!} } =\frac{5 \times 3 \times 2 }{8 \times 7} = \frac{15}{28} .
\mathbb{P}(X=2) =\frac{ \binom{3}{2} }{ \binom{8 }{2}} = \frac{ 3 } { \frac { 8!}{2! \cdot 6!} } =\frac{ 3 \times 2 }{8 \times 7} = \frac{3}{28} .

Définition 5 :
Soient X et Y deux variables aléatoires définies sur le même espace probabilisé (\Omega, \mathbb{P}).
Si X(\Omega)=Y(\Omega) et \forall x \in X(\Omega),\ \mathbb{P}(X=a)=\mathbb{P}(Y=a), alors \mathbb{P}_{X} =\mathbb{P}_{Y} .
On dit dans ce cas que X et Y ont la même loi et on note X \sim Y.

Proposition-définition :
Soient X une variable aléatoire réelle sur un espace probabilisable (\Omega, \mathcal{P}(\Omega)) et f une fonction, à valeurs réelles, définie sur un domaine contenant X(\Omega).
On note f(X)=f \circ X .
f \circ X est une variable aléatoire réelle sur (\Omega, \mathcal{P}(\Omega)).

Exemple 9 :
Si X est une variable aléatoire réelle sur un espace probabilisable (\Omega, \mathcal{P}(\Omega)) alors X^{2}, \ 2 X+1 \ et \ \exp (X) sont des variables aléatoires réelles sur (\Omega, \mathcal{P}(\Omega)).

Proposition 3 :
Soient X \ et \ Y deux variables aléatoires réelles sur un espace probabilisable (\Omega, \mathcal{P}(\Omega)) et f une fonction, à valeurs réelles, définie sur un domaine contenant X(\Omega).
Si X \ et \ Y ont la même loi alors f(X) \ et \ f(Y) ont aussi la même loi.

Démonstration :
Puisque X \ et \ Y ont la même loi alors X(\Omega ) = Y(\Omega) et donc f(X)(\Omega ) = f(Y)(\Omega).
Soit a \in f(X)(\Omega) .
\mathbb{P}_{f(X)}(\left\{ a \right\} ) = \mathbb{P}(f(X) \in \left\{ a \right\} ) .
\mathbb{P}_{f(X)}(\left\{ a \right\} ) = \mathbb{P}( \left\{ \omega \in \Omega / f \circ X(\omega) \in \left\{a \right\} \right\} ) .
\mathbb{P}_{f(X)}(\left\{ a \right\} ) = \mathbb{P}( \left\{ \omega \in \Omega / X(\omega) \in f^{-1} ( \left\{a \right\} \right\} ) .
\mathbb{P}_{f(X)}(\left\{ a \right\} ) = \mathbb{P} ( \bigcup\limits_{ x \in f^{-1} ( \left\{ a \right\} ) } ( \left\{X=x \right\} ) .
Et par additivité : \mathbb{P}_{f(X)}(\left\{ a \right\} ) = \sum\limits_{ x \in f^{-1} ( \left\{ a \right\} ) } \mathbb{P} ( \left\{X=x \right\} ) .
Puisque \forall x \in X (\Omega ) , \ \mathbb{P}( \left\{X=x \right\}) = \mathbb{P}( \left\{Y=x \right\})
Alors \mathbb{P}_{f(X)}(\left\{ a \right\} ) = \sum\limits_{ x \in f^{-1} ( \left\{ a \right\} ) } \mathbb{P} ( \left\{Y=x \right\} ) = \mathbb{P}_{f(Y)}(\left\{ a \right\} ) .
Ceci étant pour tout a \in f(X)(\Omega)= f(Y)(\Omega), on déduit que f(X) \ et \ f(Y) ont la même loi.

Loi uniforme :
Soient X une variable aléatoire réelle sur un espace probabilisé (\Omega, \mathbb{P}) et E un ensemble fini non vide.
On dit que X suit la loi uniforme sur E losque X(\Omega)=E et \forall x \in E, \mathbb{P}(X=x)=\frac{1}{\operatorname{card}(E)}.
On note dans ce cas : X \sim \mathcal{U}(E).

Exemple d’une variable aléatoire qui suit la loi uniforme :
On lance un dé équilibré dont les six faces sont numérotées de 1 à 6.
On note X la variable aléatoire égale au numéro de la face obtenue.
On a X \sim \mathcal{U}( \llbracket 1,6 \rrbracket ).

Loi de Bernoulli :
Soient X une variable aléatoire réelle sur un espace probabilisé (\Omega, \mathbb{P}) et p \in[0,1].
On dit que X suit la loi de Bernoulli de paramètre p lorsque :
X(\Omega)=\{0 ; 1\}, \ \mathbb{P}(X=1)=p et \mathbb{P}(X=0)=1-p.
On note dans ce cas X \sim \mathcal{B}(p).

Interprétation de la loi de Bernoulli :
On utilise une variable de Bernoulli pour modéliser une expérience aléatoire à deux issues : succès avec probabilité p et échec avec probabilité n-p.
On note dans ce cas X=1 en cas de succès et X=0 en cas d’échec.

Exemple 10 :
Soient X une variable aléatoire réelle sur un espace probabilisé (\Omega, \mathbb{P}).
\forall A \in P(\Omega), \ 1_{A} \sim \mathcal{B}(\mathbb{P}(A)).

Exemple d’une variable aléatoire suivant la loi de Bernoulli :
Une urne contient 3 boules blanches et 4 boules noires.
On tire une boule de l’urne.
On note X la variable aléatoire qui vaut 1 si la boule tirée est blanche et vaut 0 sinon.
On a X \sim \mathcal{B}(\frac{3}{7}).

Loi binomiale :
Soient (n, p) \in \mathbb{N}^{*} \times[0,1] et X une variable aléatoire sur un espace probabilisé (\Omega, \mathbb{P}).
On dit que X suit la loi binomiale de paramètres n, \ p et on note X \sim \mathcal{B}(n, p) lorsque :
X(\Omega)=\llbracket 0, n \rrbracket et \forall k \in \llbracket 0, n \rrbracket, \ \mathbb{P}(X=k)= \binom{n}{k}p^{k}(1-p)^{n-k} .

Interprétation de la loi binomiale :
Une variable aléatoire suivant la loi \mathcal{B}(n, p) représente le nombre de succès à l’issue de n répétitions indépendantes d’une épreuve de Bernoulli de paramètre p.

Exemple d’une variable aléatoire suivant la loi binomiale :
Une urne contient 3 boules blanches et 4 boules noires.
On tire successivement et avec remise 10 boules de l’urne.
On note X la variable aléatoire égale au nombre de boules blanches tirées.
On constate que X représente le nombre de succès à l’issue de 10 répétitions indépendantes d’une épreuve de Bernoulli de paramètre \frac{3}{7}.
Donc X \sim \mathcal{B}(10, \frac{3}{7}).

Définition 6 :
Soient (\Omega, \mathbb{P}) un espace probabilisé, X une variable aléatoire réelle et A un événement tel que \mathbb{P}(A) \ne 0 .
On appelle loi conditionnelle de X sachant l’événement A , la loi de X pour la probabilité \mathbb{P}_{A} .

Définition 7 (Couple de variables aléatoires ) :
Soient X et Y deux variables aléatoires réelles sur \Omega .
\bullet L’application \begin{matrix} (X,Y) & : & \Omega & \longrightarrow & \mathbb{R}^{2} \\ & & \omega & \longrightarrow & (X(\omega) , Y(\omega)) \end{matrix} est appelée couple de variables aléatoires réelles sur \Omega .
\bullet La loi du couple (X,Y) est appelée loi conjointe du couple (X,Y) . Elle est entièrement déterminée par les \mathbb{P}((X=x) \cap (Y=y)) pour (x,y) \in X(\Omega) \times Y(\Omega) .
\bullet La loi de X est appelée première loi marginale du couple (X,Y) et la loi de Y est appelée seconde loi marginale du couple (X,Y) .

Proposition 3 :
Soient (X,Y) un couple de variables aléatoires réelles sur \Omega .
i) \forall x \in X(\Omega), \ \mathbb{P}(X=x)= \sum\limits_{y \in Y(\Omega)} \mathbb{P}((X=x)\cap (Y=y)) .
ii) \forall y \in Y(\Omega), \ \mathbb{P}(Y=y)= \sum\limits_{x \in X(\Omega)} \mathbb{P}((X=x)\cap (Y=y)) .

Démonstration :
i) Il suffit d’appliquer la formule des probabilités totales au système complet d’événements (Y=y)_{y \in Y(\Omega)} .

Exercice d’application 5 :
Soit n un entier naturel supérieur à 3. Une urne contient 3 boules numérotées de 1 à n.
On tire simultanément 3 boules de l’urne.
On note X la variable aléatoire égale au minimum des numéros obtenus et Y la variable aléatoire égale au maximum des numéros obtenus.
1) Déterminer la loi conjointe du couple (X,Y).
2) En déduire la loi de X.

5) Événements indépendants

Définition 8 :
Soit (\Omega, \ \mathbb{P}) un espace probobilisé.
\bullet On dit que deux événements A et B sont indépendants lorsque \mathbb{P}(A \cap B)=\mathbb{P}(A) \mathbb{P}(B).
\bullet On dit que des événements A_{1}, \ldots, A_{n} sont (mutuellement) indépendants, si pour toute partie J de \llbracket 1, n \rrbracket , \ \mathbb{P}\left(\bigcap\limits_{i \in J} A_{i}\right)=\prod\limits_{i \in J} \mathbb{P}\left(A_{i}\right).

Remarque 4 :
i) Si A_{1}, \ldots, A_{n} sont indépendants alors ils sont deux à deux indépendants. La réciproque est fausse.
ii) Si \mathbb{P}(B)>0, l’indépendance des événements A et B s’écrit \mathbb{P}_{B}(A)=\mathbb{P}(A).

Exemple 11 :
On dit que trois événements A_{1}, \ A_{2} et A_{3} sont indépendants lorsque :
\mathbb{P}( A_{1} \cap A_{2}) = \mathbb{P}( A_{1} ) \mathbb{P}( A_{2}) , \ \mathbb{P}( A_{1} \cap A_{3}) = \mathbb{P}( A_{1} ) \mathbb{P}( A_{3}), \ \mathbb{P}( A_{2} \cap A_{3}) = \mathbb{P}( A_{2} ) \mathbb{P}( A_{3}) \ et \ \mathbb{P}( A_{1} \cap A_{2} \cap A_{3} ) = \mathbb{P}( A_{1} ) \mathbb{P}( A_{2})\mathbb{P}( A_{3}) .

Exemple 12 :
\bullet \forall A \in \mathcal{P}(\Omega), A et \emptyset sont indépendants.
\bullet \forall A \in \mathcal{P}(\Omega), A et \Omega sont indépendants.

Exemple 13 :
Soient ( \Omega , \mathbb{P}) un espace probabilisé, A et B deux événements.
Si A et B sont indépendants alors \bar{A} et B sont également indépendants.

En effet, par la formule des probabilités totales appliquée au système complet d’événements (A, \bar{A}) , on a :
\mathbb{P}(B)=\mathbb{P}(A \cap B)+\mathbb{P}(\bar{A} \cap B).
Ainsi \mathbb{P}(\bar{A} \cap B)= \mathbb{P}( B) - \mathbb{P}(A) \mathbb{P}( B) = \mathbb{P}( B) (1-\mathbb{P}(A))=\mathbb{P}(\bar{A})\mathbb{P}( B) .
Et par la suite \bar{A} et B sont indépendants.

Exemple 14 :
Soient ( \Omega , \mathbb{P}) un espace probabilisé, A et B deux événements.
Si \mathbb{P}(A)=0 alors A et B sont également indépendants.

En effet, par croissance on a : 0 \leq \mathbb{P}(A \cap B) \leq \mathbb{P}(A )=0 .
Donc \mathbb{P}(A \cap B)=0=\mathbb{P}(A) \mathbb{P}(B)
Et par la suite A et B sont indépendants.

Exercice d’application 6 :
On lance deux fois un dé équilibré dont les six faces sont numérotées de 1 à 6.
On note les événements suivants :
A « Obtenir un numéro pair au premier lancer ».
B « Obtenir un numéro pair au deuxième lancer ».
C « La somme des numéros obtenues est paire ».
Étudier l’indépendance des événements A, B et C.

Corrigé :
\mathbb{P}(A)=\frac{3 }{6}=\frac{1 }{2}
\mathbb{P}(B)=\frac{3 }{6}=\frac{1 }{2}
\mathbb{P}(A)= \frac{18 }{36}= \frac{1 }{2}
\mathbb{P}(A \cap B) = \frac{9 }{36}=\frac{1 }{4}
\mathbb{P}(A \cap C) = \frac{9 }{36}=\frac{1 }{4}
\mathbb{P}(B \cap C) = \frac{9 }{36}=\frac{1 }{4}
\mathbb{P}(A \cap B \cap C) = \frac{9 }{36}=\frac{1 }{4}
Ainsi \mathbb{P}(A \cap B)=\mathbb{P}(A ) \mathbb{P}( B), \ \mathbb{P}(A \cap C)=\mathbb{P}(A ) \mathbb{P}( C), \ \mathbb{P}(B \cap C)=\mathbb{P}(B ) \mathbb{P}( C) \ et \ \mathbb{P}(A \cap B \cap C) \ne \mathbb{P}(A ) \mathbb{P}( B)\mathbb{P}( C) .
Ce qui signifie que A,B et C sont deux à deux indépendants mais ne sont pas (mutuellement) indépendants.