Probabilité
I. Introduction
La pratique des jeux du hasard et le désire des joueurs d’évaluer leur chance en dénombrant toutes les possibilités sont à l’origine des calculs de la probabilité.
L’approche quantitative du hasard se dessine au $XV^e$ siècle et se confirme $XVII^e$ siècle. C’est un problème de jeu proposé par le Chancelier de MERE (philosophe de grand joueur) à Pascal le problème suivant : « supposons que $X$ et $Y$ jouent un jeu au hasard, ils doivent brusquement sécher la partie. Comment doivent-ils se partager l’enjeux ? ».
Pascal et Ferdinand donnent chacun plusieurs réponses à ce problème c’est ainsi que commence le calcul des probabilités en $1654$. Jack Bernoulli en $1719$ généralise un mémoire de Huygens et marque le début de l’évolution vers la discipline de mathématiques parallèlement de Moivre défini la probabilité, l’espérance mathématique, les probabilités indépendantes et conditionnelles. La théorie analytique de la probabilité Laplace sera l’ouvrage de la référence au $XIX^e$ – $XX^e$ siècle l’introduction d’outil analytique nouveau vont bouleverser la théorie des probabilités. Emile Borel $(1871-1956)$ de la probabilité une définition rigoureuse fondée sur la mesure. En $1933$, Kolmogorov présente une axiomatique du calcul des probabilités largement acceptées. De nos jours, la théorie des probabilités est utilisée en biologie, en particulier en génétique (théorie de l’hérédité), en physique, dans l’industrie pour mesurer les produits et dans la vie, dans le domaine social et les statistiques.
II. Rappel de dénombrement
A. Vocabulaire
On considère les expressions suivantes,
$A$ l’ensemble de nombres impaires inférieur à dix $(10)$
$B$ l’ensemble de nombres $6\le{B}\le{17}$
Donnons l’écriture en extension de $A$ et de $B$.
Déterminer $A\cup{B}$ et $A\cap{B}$.
$A=\{1 ; 3 ;5 ;7 ;9\}$
$B=\{6 ;7 ;8 ;9 ;10 ;11 ;12 ;13 ;14 ;$ $15 ;16;17\}$
$A\cap{B}=\{7 ;9\}$
$A\cup{B}=\{1 ; 3 ;5 ;6 ;7 ;8 ;9 ;10 ;11 ;12 ;$ $13 ;14 ;15 ;16 ;17\}$.
L’écriture en extension d’un ensemble se met entre l’accolade. Dans un ensemble, il n’y pas d’ordre. Dans l’ensemble, on ne répète pas le même élément deux fois.
L’intersection entre deux ensembles $A\cap{B}$ est formé des éléments communs aux deux ensembles.
La réunion de deux ensemble $A\cup{B}$ est formée des éléments de l’un ou l’autre des deux ensembles.
Le complément de $A$ dans $E (C_E^A\;ou\;\bar{A})$ est formé des éléments qui sont dans $E$ et non dans $A$ où $A$ est un sous-ensemble de $E : A\cup{\bar{A}}=E$.
B. Le cardinal d'un ensemble
Soit $E$ un ensemble fini. On appelle cardinal de $E$ noté $card(E)$, l’ensemble d’élément de $E$. Par convention, le $card\emptyset{=}0$.
NB: certains ${}$ sont infinis, on ne peut donc pas les dénombrer.
Cardinalité de la réunion de deux ensembles
Soient $A$ et $B$ deux ensembles finis, on a :
$card (A\cup{B})$ $=[card(A)+card(B)$ $-$ $card(A\cap{B})]$
Cardinal de complémentaire d'un ensemble
Soit $E$ un ensemble fini et $A$ un sous-ensemble de $E$. On appelle $card(\bar{A})$ le réel noté $card(\bar{A})=card(E)-card(A)$
Nombre de partie d'un ensemble
On appelle ensemble des parties d'un ensemble $E$, l'ensemble de tous les sous-ensembles de $E$. On le note $P^{\circ}E$ et $card(P^{\circ}E)=2^n$ ou $n$ est la cardinalité de $E$ $card(E)$.
C. Dénombrement du produit cartésien
On appelle produit cartésien de deux ensembles $A$ et $B$ formés d'éléments de $A$ et de $B$
$card(A\times{B})=card(A)\times{card(B)}$
Dénombrement des $p$-listes d'éléments des produits cartésiens $(E_1\times{E_2}\times{E_3}\times{...}\times{E_p})$. Les résultats du produit cartésien $E_1\times{E_2}\times{E_3}\times{...}\times{E_p}$ constituent une $p$-listes c'est-à-dire des parties de $p$-éléments à constituer à partir de $E$
Si $p=2$, les $p$-listes sont des couples ou couplet.
Le nombre de $p$-listes de $E_1\times{E_2}\times{E_3}\times{...}\times{E_p}$ d'ensemble fini non vide est:
$card(E_1\times{E_2}\times{E_3}\times{...}\times{E_p})$= $\\card(E_1)\times{card(E_2)}\times{card(E_3)}\\$$\times{...}\times{card(E_p)}$
Si $card(E_1)=card(E_2)=$$card(E_3)=...=$$card(E_p)=n$
${card(E^p)=n^p}$
D. Analyse combinatoire
1. Arrangement-permutation
On s’intéresse au classement de $20$ élèves d’une classe. Combien y’a t-il de manière pour trouver le $1^{er}$, le $2^{e}$, le $3^{e}$, ainsi de suite.
Il y’a $20$ manières de choisir le $1^{er}$
Il y’a $19$ manières de choisir le $2^{e}$
Il y’a $18$ manières de choisir le $3^{e}$
Il y’a $17$ manières de choisir le $4^{e}$
Il y’a une seule manière pour choisir le dernier nombre de classe $m$ possible de tous les élèves de cette classe est: $20\times{19}\times{18}\times{...}\times{1}$
Si on pose $n$ le nombre d'élément total à classer, le nombre de classement est:
$\mathbf{n\times{(n-1)}\times{(n-2)}\times{(n-3)}\times{...}\times{1}}$.
On le note $\mathbf{n!}$ et on le lit $''\mathbf{n\; factoriel}''$
Soit $E$ un ensemble fini de $n$ éléments et $p$ un nombre entier naturel tel que $p<n$.
On appelle arrangement de $p$ éléments de $E$ tout $p$-listes d'éléments de $E$ deux à deux distinctes. On dit aussi $p$-arrangement d'éléments de $E$ et on note $\mathbf{{A_n^p}=n\times{(n-1)}\times{(n-2)}}$ $\mathbf{\times{(n-3)}\times{...}\times{1}}$
Le nombre d'arrangement possible de $p$ éléments parmi $n$ est:
$\mathbf{A_n^p=n\times{(n-1)}\times{(n-2)}}$$\mathbf{\times{(n-3)}\times{...}\times{(n-p+1)}}$: il y'a $\mathbf"p \;facteurs"$.
Dans un parking de cinq places, de combien de façon peut-on ranger tois(03) voitures
Solution
Le nombre de rangement possible est:
$A_5^3=5\times{4}\times{3}.\;A_5^3=60$.
En particulier, si $n=p$, on parle de permutation.
Soit $A_n^n=n!=n\times{(n-1)}\times{(n-2)}$ $\times{(n-3)}\times{...}\times{1}$
Par convention, ${0!=1}$.
De plus,
$n!=n\times{(n-1)}\times{(n-2)}\times{(n-3)}\\$$\times{...}\times{(n-p+1)}\times{...}\times{1}$
$n!=A_n^p(n-p)!=>\mathbf{A_n^p=\large{\frac{n!}{(n-p)!}}}$
2. Combinaison
Soit $E$ un ensemble fini à $n$ éléments. Une combinaison de $p$ éléments de $E$ est une partie de $E$ à $p$ éléments. Le nombre de combinaison de $p$ éléments de $E$ se note $\mathbf{C_n^p}$ et est: $\mathbf{C^p_n=\large{\frac{n!}{p!(n-p)!}}}$.
En particulier, on a:
$\mathbf{A^0_n=1}$ $\mathbf{C^0_n=1}$
$\mathbf{A^1_n=n}$ $\mathbf{C^1_n=n}$
$\mathbf{A^n_n=n!}$ $\mathbf{C^n_n=1}$
$\forall{n}$ et $p\in{\mathbb{N}}$, avec $p\le{n}$, on a : $C_n^p=C_n^{n-p}$
Formule de Blaise Pascal
$\forall{n}$ et $p\in{\mathbb{N}}$, avec $p\le{n}$, on a :
$C_{n-1}^{p-1}+C_{n-1}^p=C_n^p$. Cette formule permet de calculer les nombres $C_n^p$ de proche en proche suivant un tableau appelé de Triangle de Pascal, l’intersection de la $n^è$ ligne et $p^è$ colonne permet de déterminer le nombre $C_n^p$
$n$ \ $P$ | $0$ | $1$ | $2$ | $3$ | $4$ |
$0$ | $C_0^0$ | ||||
$1$ | $C_1^0$ | $C_1^1$ | |||
$2$ | $C_2^1$ | $2$ | $1$ | ||
$3$ | $C_3^2$ | $3$ | $3$ | $1$ | |
$4$ | $C_4^3$ | $4$ | $6$ | $4$ | $1$ |
Formule Isaac Newton
$a$ et $b\in{\mathbb{R}}$, $n$ et $p\in{\mathbb{N}}$ tel que $p\le{n}$, on a :
$(a+b)^n=\sum_{p=0}^{n}C_n^pa^pb^{n-p}$
III. Calcul de probabilité : probabilité sur un univers fini
A. Vocabulaire
On jette simultanément deux dés et on note la somme obtenue sur les deux faces supérieures.
L’univers des possibilité : $\Omega{={2,3,4,5,6,7,8,9,10,11,12}}$
Un évènement, c’est l’ensemble des résultats issus d’une action ou d’une situation
$A$=évènement « avoir une somme paire »
$A= {2,4,6,8,10,12}$ ; $card=6$
Evènement élémentaire, c’est un évènement n’ayant qu’un seul résultat
$B$ : «avoir 7 », $B=7$, $card(B)=1$
La réunion d’évènement, c’est un évènement formé par l’ensemble des deux évènements dans l’un ou dans les deux
$C :$ « avoir une somme inférieure ou égal à 7 »
$C={2,3,4,5,6,7}$, $card(C)=6$
$AUC :{2,3,4,5,6,7,8,10,12}$
$card(A\cup{C})\\$=$card(A)+card(C)-card(A\cap{C})$
$ card(A\cup{C})=6+6-3$
Évènement incompatible ou dijoint, ce sont des évènements qui n’ont aucun élément en commun $A\cap{B}=\emptyset$
Evènement contraire : deux évènements sont dits contraires lorsqu’ils sont incompatibles et leur réunion forme la totalité des résultats possibles
$D$ : « avoir une somme impaire »
$D :{3,5,7,9,11}$ ; $card(D)=5$ ; $D\cap{A}=\emptyset$ et $A\cup{D}=\Omega$
B. Notion de probabilité
« J’ai une chance sur 5 de rater les bus »
« Ma probabilité de rater le bus est $\frac{1}{5}$
« J’ai toutes les chances de mon côté cette fois-ci »
« Ma probabilité de réussite est $1$ »
1. Définition
Une probabilité sur un univers est une application définie sur l’ensemble des évènements de à valeur dans l’intervalle $[0 ;\;1]$
$P$ : $\Omega{\to{[0 ;\;1]}}\\i\mapsto{pi}$
2. Propriété
La probabilité d’un évènement est un nombre réel compris entre $[0 ;\;1]$
La probabilité d’un évènement est la somme des probabilités des évènements élémentaires qui le composent.
$A={2,4,6,8,10,12}$
$P(A)=P(2)+ P(4)+ P(6)+$$ P(8)+ P(10)+ P(12)$
La somme de toutes les probabilités de tous les évènements élémentaires est égale à $1$
$\Omega{={1,2,3,4,5,6,7,8,9,10,11,12}}\\P(\Omega)=1$
La probabilité d’un évènement contraire de $A$ est $P(\bar{A})=1-P(A)$
La probabilité de la réunion de deux évènements incompatibles est la somme de la probabilité
3. Situation d’équiprobabilité
Dans un jeux où tous les évènements élémentaires ont la même chance d’apparaitre, on dit qu’il y’a équiprobabilité. Dans ce cas, la probabilité des évènements élémentaires $Pi=\frac{1}{card()} ;\ ;P(A)=\frac{card(A)}{card(A)}$
IV. Probabilité conditionnelle
A. Définition
Soit $A$ un évènement de $\Omega$ de probabilité non nulle. $\forall{B}\in{\Omega}$, on définit la probabilité de $B$ sachant $A$ ou probabilité de $B$ conditionné par $A$ ; notée par $P_A(B)$ ou $P(B/A)$. Le réel de l’intervalle $[0 ;\ ;1]$ défini par $\mathbf{P_A(B)=\frac{P(A\cap{B})}{P(A)}}$
B. Propriétés
$P(A\cap{B})=P_A(B)\times{P(A)}\\$=$P_B(A)\times{P(B)}$
Deux évènements $A$ et $B$ sont indépendants lorsque l’un des conditions est satisfaite :
*$P_A(B)=P(B)$
*$P_B(A)=P(A)$
*$P(A\cap{B})=P(A)\times{P(B)}$
Cela veut dire que la connaissance de $B$ réalisé n’influe pas sur la probabilité de $A$ et inversement. Ce qui justifie les termes indépendance utilisée.
V. Variable aléatoire
A. Définition
Soit $\Omega$ un univers fini ; on appelle variable aléatoire sur $\Omega$ une application de $\Omega$ dans $\mathbb{R}$. L’ensemble des valeurs qui peuvent prendre $X$ est appelé univers image de $\Omega$ dans $X$ ; $\Omega{(X)}$
B. La loi de probabilité
On appelle loi de probabilité de $X$ toute application $P$ définie sur $X(\Omega)$ la valeur dans $[0 ;\;1]$ tel que la somme des probabilités est égale $1$
C. Fonction de répartition
La fonction de répartition d’une variable aléatoire est une fonction de $\mathbb{R}\to{\mathbb{R}}\\x\mapsto{P(X\le{x})}$.
$F:\mathbb{R}\to{\mathbb{R}}\\x\mapsto{F(x)}=P(X\le{x})$
La fonction de répartition est une fonction croissante
La fonction de répartition est une fonction en escalier
$\forall{(a \;et\; b)\in{\mathbb{R^2}}}$, $P(a\le{X}\le{b})=F(b)-F(a)$
D. Paramètre de la variable
1. L’espérance mathématique
L’espérance mathématique d’une variable aléatoire est le réel noté $E(X)$ définie par :
$\mathbf{E(X)=\sum_{i=1}^{n}X_iP_i}$
2. Variance-Ecart type
La variance notée $V(X)$ d’une variable aléatoire est le réel défini par :
$\mathbf{V(X)=E(X^2)-[E(X)]^2}$
La variance est toujours positive
On appelle Ecart type de $X$ noté $\sigma{(X)}$
Le réel est égal à la racine carrée de la variance
$\mathbf{\sigma{(X)}=\sqrt{V(X)}}$
VI. Schéma de Bernoulli
Soit une épreuve ayant deux issues et deux seulement.
Soit $n\in{\mathbb{N}}$, répétons $n$ fois l’expérience ; ces expériences étant indépendantes entre elles, notons chaque fois qu’il y’a succès ou échec. Un résultat est alors une $n$-listes de l’ensemble échec-succès. Cette répétition d’expérience dans les mêmes conditions à chaque fois a été étudier par Jacque Bernoulli et est appelé le schéma de Bernoulli.
La variable aléatoire, nombre de fois où on obtient un succès au cours des expériences. La loi de probabilité de $X$ lorsque $X$ suit le schéma de Bernoulli est : $\mathbf{P(X=k)=C_n^kp^k(1-p)}$ où $p$ est la probabilité d’avoir succès
$k={0,1,2,…,n}$. Les paramètres du schéma de Bernoulli sont donnés :
$\mathbf{E(X)=np}$.
Répond par vrai ou faux ; lancer une pièce de monnaie. Appelons succès l’une de ces issues et échec l’autre et notons $p$, la probabilité d’avoir un succès alors la probabilité d’avoir échec est $q=1-p$.