Chapitre 11: Probabilité - Mathématiques Terminale D | DigiClass
User Picture
Vous

Probabilité

I.  Introduction

La pratique des jeux du hasard et le désire des joueurs d’évaluer leur chance en dénombrant toutes les possibilités sont à l’origine des calculs de la probabilité.
L’approche quantitative du hasard se dessine au $XV^e$ siècle et se confirme $XVII^e$ siècle. C’est un problème de jeu proposé par le Chancelier de MERE (philosophe de grand joueur) à Pascal le problème suivant : « supposons que $X$ et $Y$ jouent un jeu au hasard, ils doivent brusquement sécher la partie. Comment doivent-ils se partager l’enjeux ? ».
Pascal et Ferdinand donnent chacun plusieurs réponses à ce problème c’est ainsi que commence le calcul des probabilités en $1654$. Jack Bernoulli en $1719$ généralise un mémoire de Huygens et marque le début de l’évolution vers la discipline de mathématiques parallèlement de Moivre défini la probabilité, l’espérance mathématique, les probabilités indépendantes et conditionnelles. La théorie analytique de la probabilité Laplace sera l’ouvrage de la référence au $XIX^e$ – $XX^e$ siècle l’introduction d’outil analytique nouveau vont bouleverser la théorie des probabilités. Emile Borel $(1871-1956)$ de la probabilité une définition rigoureuse fondée sur la mesure. En $1933$, Kolmogorov présente une axiomatique du calcul des probabilités largement acceptées. De nos jours, la théorie des probabilités est utilisée en biologie, en particulier en génétique (théorie de l’hérédité), en physique, dans l’industrie pour mesurer les produits et dans la vie, dans le domaine social et les statistiques.

II.  Rappel de dénombrement

A.  Vocabulaire

On considère les expressions suivantes,
$A$ l’ensemble de nombres impaires inférieur à dix $(10)$
$B$ l’ensemble de nombres $6\le{B}\le{17}$
Donnons l’écriture en extension de $A$ et de $B$.
Déterminer $A\cup{B}$ et $A\cap{B}$.
$A=\{1 ; 3 ;5 ;7 ;9\}$
$B=\{6 ;7 ;8 ;9 ;10 ;11 ;12 ;13 ;14 ;$ $15 ;16;17\}$
$A\cap{B}=\{7 ;9\}$
$A\cup{B}=\{1 ; 3 ;5 ;6 ;7 ;8 ;9 ;10 ;11 ;12 ;$ $13 ;14 ;15 ;16 ;17\}$.

Définition 1

L’écriture en extension d’un ensemble se met entre l’accolade. Dans un ensemble, il n’y pas d’ordre. Dans l’ensemble, on ne répète pas le même élément deux fois.

Définition 2

L’intersection entre deux ensembles $A\cap{B}$ est formé des éléments communs aux deux ensembles.
La réunion de deux ensemble $A\cup{B}$ est formée des éléments de l’un ou l’autre des deux ensembles.

Définition 3

Le complément de $A$ dans $E (C_E^A\;ou\;\bar{A})$ est formé des éléments qui sont dans $E$ et non dans $A$ où $A$ est un sous-ensemble de $E : A\cup{\bar{A}}=E$.

B.  Le cardinal d'un ensemble

Définition

Soit $E$ un ensemble fini. On appelle cardinal de $E$ noté $card(E)$, l’ensemble d’élément de $E$. Par convention, le $card\emptyset{=}0$.
NB: certains ${}$ sont infinis, on ne peut donc pas les dénombrer.
Cardinalité de la réunion de deux ensembles
Soient $A$ et $B$ deux ensembles finis, on a :
$card (A\cup{B})$ $=[card(A)+card(B)$ $-$ $card(A\cap{B})]$
Cardinal de complémentaire d'un ensemble
Soit $E$ un ensemble fini et $A$ un sous-ensemble de $E$. On appelle $card(\bar{A})$ le réel noté $card(\bar{A})=card(E)-card(A)$
Nombre de partie d'un ensemble
On appelle ensemble des parties d'un ensemble $E$, l'ensemble de tous les sous-ensembles de $E$. On le note $P^{\circ}E$ et $card(P^{\circ}E)=2^n$ ou $n$ est la cardinalité de $E$ $card(E)$.

C.  Dénombrement du produit cartésien

Définition

On appelle produit cartésien de deux ensembles $A$ et $B$ formés d'éléments de $A$ et de $B$
$card(A\times{B})=card(A)\times{card(B)}$
Dénombrement des $p$-listes d'éléments des produits cartésiens $(E_1\times{E_2}\times{E_3}\times{...}\times{E_p})$. Les résultats du produit cartésien $E_1\times{E_2}\times{E_3}\times{...}\times{E_p}$ constituent une $p$-listes c'est-à-dire des parties de $p$-éléments à constituer à partir de $E$
 Si $p=2$, les $p$-listes sont des couples ou couplet.
Le nombre de $p$-listes de $E_1\times{E_2}\times{E_3}\times{...}\times{E_p}$ d'ensemble fini non vide est:
$card(E_1\times{E_2}\times{E_3}\times{...}\times{E_p})$= $\\card(E_1)\times{card(E_2)}\times{card(E_3)}\\$$\times{...}\times{card(E_p)}$
Si $card(E_1)=card(E_2)=$$card(E_3)=...=$$card(E_p)=n$
${card(E^p)=n^p}$

D.  Analyse combinatoire

1.  Arrangement-permutation

On s’intéresse au classement de $20$ élèves d’une classe. Combien y’a t-il de manière pour trouver le $1^{er}$, le $2^{e}$, le $3^{e}$, ainsi de suite.
Il y’a $20$ manières de choisir le $1^{er}$
Il y’a $19$ manières de choisir le $2^{e}$
Il y’a $18$ manières de choisir le $3^{e}$
Il y’a $17$ manières de choisir le $4^{e}$
Il y’a une seule manière pour choisir le dernier nombre de classe $m$ possible de tous les élèves de cette classe est: $20\times{19}\times{18}\times{...}\times{1}$
Si on pose $n$ le nombre d'élément total à classer, le nombre de classement est:
$\mathbf{n\times{(n-1)}\times{(n-2)}\times{(n-3)}\times{...}\times{1}}$.
On le note $\mathbf{n!}$ et on le lit $''\mathbf{n\; factoriel}''$
Soit $E$ un ensemble fini de $n$ éléments et $p$ un nombre entier naturel tel que $p<n$.
On appelle arrangement de $p$ éléments de $E$ tout $p$-listes d'éléments de $E$ deux à deux distinctes. On dit aussi $p$-arrangement d'éléments de $E$ et on note $\mathbf{{A_n^p}=n\times{(n-1)}\times{(n-2)}}$ $\mathbf{\times{(n-3)}\times{...}\times{1}}$
Le nombre d'arrangement possible de $p$ éléments parmi $n$ est:
$\mathbf{A_n^p=n\times{(n-1)}\times{(n-2)}}$$\mathbf{\times{(n-3)}\times{...}\times{(n-p+1)}}$: il y'a $\mathbf"p \;facteurs"$.

Exemple

Dans un parking de cinq places, de combien de façon peut-on ranger tois(03) voitures
Solution
Le nombre de rangement possible est:
$A_5^3=5\times{4}\times{3}.\;A_5^3=60$.

 En particulier, si $n=p$, on parle de permutation.
Soit $A_n^n=n!=n\times{(n-1)}\times{(n-2)}$ $\times{(n-3)}\times{...}\times{1}$
Par convention, ${0!=1}$.
De plus,
$n!=n\times{(n-1)}\times{(n-2)}\times{(n-3)}\\$$\times{...}\times{(n-p+1)}\times{...}\times{1}$
$n!=A_n^p(n-p)!=>\mathbf{A_n^p=\large{\frac{n!}{(n-p)!}}}$

2.  Combinaison

 Soit $E$ un ensemble fini à $n$ éléments. Une combinaison de $p$ éléments de $E$ est une partie de $E$ à $p$ éléments. Le nombre de combinaison de $p$ éléments de $E$ se note $\mathbf{C_n^p}$ et est: $\mathbf{C^p_n=\large{\frac{n!}{p!(n-p)!}}}$.
En particulier, on a:
$\mathbf{A^0_n=1}$                 $\mathbf{C^0_n=1}$
$\mathbf{A^1_n=n}$                   $\mathbf{C^1_n=n}$
$\mathbf{A^n_n=n!}$                $\mathbf{C^n_n=1}$

Propriété1

$\forall{n}$ et $p\in{\mathbb{N}}$, avec $p\le{n}$, on a : $C_n^p=C_n^{n-p}$

Propriété2

Formule de Blaise Pascal
$\forall{n}$ et $p\in{\mathbb{N}}$, avec $p\le{n}$, on a :
$C_{n-1}^{p-1}+C_{n-1}^p=C_n^p$. Cette formule permet de calculer les nombres $C_n^p$ de proche en proche suivant un tableau appelé de Triangle de Pascal, l’intersection de la $n^è$ ligne et $p^è$ colonne permet de déterminer le nombre $C_n^p$

 
   $n$ \ $P$ $0$ $1$ $2$ $3$ $4$
$0$ $C_0^0$        
$1$ $C_1^0$ $C_1^1$      
$2$ $C_2^1$ $2$ $1$    
$3$ $C_3^2$ $3$ $3$ $1$  
$4$ $C_4^3$ $4$ $6$ $4$ $1$
Propriété3

Formule Isaac Newton
$a$ et $b\in{\mathbb{R}}$, $n$ et $p\in{\mathbb{N}}$ tel que $p\le{n}$, on a :

$(a+b)^n=\sum_{p=0}^{n}C_n^pa^pb^{n-p}$

III.  Calcul de probabilité : probabilité sur un univers fini

A.  Vocabulaire

On jette simultanément deux dés et on note la somme obtenue sur les deux faces supérieures.

L’univers des possibilité : $\Omega{={2,3,4,5,6,7,8,9,10,11,12}}$
Un évènement, c’est l’ensemble des résultats issus d’une action ou d’une situation

Exemple

$A$=évènement « avoir une somme paire »
$A= {2,4,6,8,10,12}$ ; $card=6$

Evènement élémentaire, c’est un évènement n’ayant qu’un seul résultat

Exemple

$B$ : «avoir 7 », $B=7$, $card(B)=1$

 
La réunion d’évènement, c’est un évènement formé par l’ensemble des deux évènements dans l’un ou dans les deux

Exemple

$C :$ « avoir une somme inférieure ou égal à 7 »

$C={2,3,4,5,6,7}$, $card(C)=6$

$AUC :{2,3,4,5,6,7,8,10,12}$

$card(A\cup{C})\\$=$card(A)+card(C)-card(A\cap{C})$

$ card(A\cup{C})=6+6-3$

Évènement incompatible ou dijoint, ce sont des évènements qui n’ont aucun élément en commun $A\cap{B}=\emptyset$
Evènement contraire : deux évènements sont dits contraires lorsqu’ils sont incompatibles et leur réunion forme la totalité des résultats possibles
$D$ : « avoir une somme impaire »
$D :{3,5,7,9,11}$ ; $card(D)=5$ ; $D\cap{A}=\emptyset$ et $A\cup{D}=\Omega$

B.  Notion de probabilité

« J’ai une chance sur 5 de rater les bus »
« Ma probabilité de rater le bus est $\frac{1}{5}$
« J’ai toutes les chances de mon côté cette fois-ci »
« Ma probabilité de réussite est $1$ »

1.  Définition

Une probabilité sur un univers est une application définie sur l’ensemble des évènements de à valeur dans l’intervalle $[0 ;\;1]$
$P$ : $\Omega{\to{[0 ;\;1]}}\\i\mapsto{pi}$

2.  Propriété

Propriété1

La probabilité d’un évènement est un nombre réel compris entre $[0 ;\;1]$

Propriété2

La probabilité d’un évènement est la somme des probabilités des évènements élémentaires qui le composent.
$A={2,4,6,8,10,12}$

$P(A)=P(2)+ P(4)+ P(6)+$$ P(8)+ P(10)+ P(12)$

Propriété3

La somme de toutes les probabilités de tous les évènements élémentaires est égale à $1$
$\Omega{={1,2,3,4,5,6,7,8,9,10,11,12}}\\P(\Omega)=1$

Propriété4

La probabilité d’un évènement contraire de $A$ est $P(\bar{A})=1-P(A)$

Propriété5

La probabilité de la réunion de deux évènements incompatibles est la somme de la probabilité

3.  Situation d’équiprobabilité

Dans un jeux où tous les évènements élémentaires ont la même chance d’apparaitre, on dit qu’il y’a équiprobabilité. Dans ce cas, la probabilité des évènements élémentaires $Pi=\frac{1}{card()} ;\ ;P(A)=\frac{card(A)}{card(A)}$

IV.  Probabilité conditionnelle

A.  Définition

Soit $A$ un évènement de $\Omega$ de probabilité non nulle. $\forall{B}\in{\Omega}$, on définit la probabilité de $B$ sachant $A$ ou probabilité de $B$ conditionné par $A$ ; notée par $P_A(B)$ ou $P(B/A)$. Le réel de l’intervalle $[0 ;\ ;1]$ défini par $\mathbf{P_A(B)=\frac{P(A\cap{B})}{P(A)}}$

B.  Propriétés

Propriété1

$P(A\cap{B})=P_A(B)\times{P(A)}\\$=$P_B(A)\times{P(B)}$

Propriété2

Deux évènements $A$ et $B$ sont indépendants lorsque l’un des conditions est satisfaite :
*$P_A(B)=P(B)$
*$P_B(A)=P(A)$
*$P(A\cap{B})=P(A)\times{P(B)}$
Cela veut dire que la connaissance de $B$ réalisé n’influe pas sur la probabilité de $A$ et inversement. Ce qui justifie les termes indépendance utilisée.

V.  Variable aléatoire

A.  Définition

Soit $\Omega$ un univers fini ; on appelle variable aléatoire sur $\Omega$ une application de $\Omega$ dans $\mathbb{R}$. L’ensemble des valeurs qui peuvent  prendre $X$ est appelé univers image de $\Omega$ dans $X$ ; $\Omega{(X)}$

B.  La loi de probabilité

On appelle loi de probabilité de $X$ toute application $P$ définie sur $X(\Omega)$ la valeur dans $[0 ;\;1]$ tel que la somme des probabilités est égale $1$

C.  Fonction de répartition

Définition

 La fonction de répartition d’une variable aléatoire est une fonction de $\mathbb{R}\to{\mathbb{R}}\\x\mapsto{P(X\le{x})}$.
$F:\mathbb{R}\to{\mathbb{R}}\\x\mapsto{F(x)}=P(X\le{x})$

Propriété

La fonction de répartition est une fonction croissante
La fonction de répartition est une fonction en escalier
$\forall{(a \;et\; b)\in{\mathbb{R^2}}}$, $P(a\le{X}\le{b})=F(b)-F(a)$

D.  Paramètre de la variable

1.  L’espérance mathématique

L’espérance mathématique d’une variable aléatoire est le réel noté $E(X)$ définie par :
$\mathbf{E(X)=\sum_{i=1}^{n}X_iP_i}$

2.  Variance-Ecart type

La variance notée $V(X)$ d’une variable aléatoire est le réel défini par :
$\mathbf{V(X)=E(X^2)-[E(X)]^2}$
La variance est toujours positive
On appelle Ecart type de $X$ noté $\sigma{(X)}$
Le réel est égal à la racine carrée de la variance
$\mathbf{\sigma{(X)}=\sqrt{V(X)}}$

VI.  Schéma de Bernoulli

Soit une épreuve ayant deux issues et deux seulement.
Soit $n\in{\mathbb{N}}$, répétons $n$ fois l’expérience ; ces expériences étant indépendantes entre elles, notons chaque fois qu’il y’a succès ou échec. Un résultat est alors une $n$-listes de l’ensemble échec-succès. Cette répétition d’expérience dans les mêmes conditions à chaque fois a été étudier par Jacque Bernoulli et est appelé le schéma de Bernoulli.
La variable aléatoire, nombre de fois où on obtient un succès au cours des expériences. La loi de probabilité de $X$ lorsque $X$ suit le schéma de Bernoulli est : $\mathbf{P(X=k)=C_n^kp^k(1-p)}$ où $p$ est la probabilité d’avoir succès
$k={0,1,2,…,n}$. Les paramètres du schéma de Bernoulli sont donnés :
$\mathbf{E(X)=np}$.

Exemple

Répond par vrai ou faux ; lancer une pièce de monnaie. Appelons succès l’une de ces issues et échec l’autre et notons $p$, la probabilité d’avoir un succès alors la probabilité d’avoir échec est $q=1-p$.