Retour

Probabilités

🎲 Quiz GRATUIT

📝 Mini-cours GRATUIT

Probabilités 1

Définition : On définit $P(A)$ la probabilité de l’événement $A\in\Omega$ par :
$P(A)=\frac{\mbox{nombre de cas favorables à l’événement}}{\mbox {nombre de cas possibles}}$

Propriétés élémentaires :

  • $P(\emptyset)=0$
  • $P(\Omega)=1$
  • $0\leq P(A)\leq 1$
  • $P(\bar{A})=1-P(A)$ avec $\bar{A}$ événement contraire de $A$.
  • $P(A)=1$ signifie que l’évènement est toujours réalisé (évènement certain).
  • $P(A)=0$ signifie que l’évènement est impossible.
  • $P(A\mbox{ ou }B)=P(A\cup B)=P(A)+P(B)-P(A\cap B)$ 
  • Si $A$ et $B$ sont incompatibles (ou exclusifs : ils ne peuvent pas se réaliser en même temps), alors $A\cap B=\emptyset$ et $ P(A\mbox{ et }B)=P(A\cap B)=0$. 

Définition : Soit $B$ événement de $\Omega$ tel que $P(B)>0$.

Pour tout $A$ événement de $\Omega$, la probabilité de $A$ sachant $B$ (probabilité conditionnelle) est :

$P_B(A)=P(A|B)= \displaystyle\frac{P(A\cap B)}{P(B)}$

Théorème : Soient $A, B$ deux événements de $\Omega$.

$P(A\cap B)=P(A|B)\times P(B)$

Probabilités 2

Théorème : Formule de Bayes :

Si $A$ et $B$ sont deux événements de probabilités non nulle :
$P(A|B)=\displaystyle\frac{P(B|A)\times P(A)}{P(B)}$

Définition : Deux événements $A, B$ sont indépendants si $P(A\cap B)=P(A)P(B)$.

Remarque : 

  • Si $P(B)>0$, $A$ et $B$ sont indépendants si $P(A|B)=P(A)$.
  • Deux événements qui ne sont pas indépendants, sont dits liés.

Théorème : Si $A$ et $B$ sont indépendants :

  • $A$ et $\bar{B}$ sont indépendants.
  • $\bar{A}$ et $B$ sont indépendants.
  • $\bar{A}$ et $\bar{B}$ sont indépendants.

Théorème : Formule des probabilités totales

Par lecture de l’arbre des probabilités, on retrouve la formule des probabilités totales :

$P(B)=P(A)\times P(B/A)+P(\bar{A})\times P(B/\bar{A})$.

Lois de probabilités discrètes

Variables discrètes

Une variable $X$ est discrète si on peut faire une liste, finie ou infinie, de ses valeurs possibles $x_1 ;x_2 ;…$ de probabilités respectives $P(X=x_k)=p_k$. On a la propriété suivante : $\displaystyle \sum_k p_k=1$.

Espérance ou moyenne de $X$ : $E(X)=m=\displaystyle\sum_k (p_k\times x_k).$

Variance de $X$ : C’est le nombre positif :
$V(X)=\displaystyle \sum_k (x_k-m)^2\times p_k=E(X^2)-(E(X))^2$= Moyenne des carrés moins carré de la moyenne.

Ecart-type de $X$ : C’est le nombre positif $\sigma=\sqrt{V(X)}$.

Loi de Bernoulli

Une épreuve de Bernoulli est une épreuve aléatoire dont l’univers associé peut être résumé à deux choix que l’on nommera « succès » et « échec » de probabilités respectives $p$ et $q=1-p$.

La variable aléatoire $X$ suit une loi de Bernoulli de paramètre $p$ (avec $p\in ]0 ;1[$) si :

$P(X=0)=1-p$ et $P(X=1)=p$

On note $X\sim \mathcal{B}(p)$.

$E(X)=p$ et $V(X)=p(1-p)$.

Loi binomiale

On obtient une distribution binomiale lorsque l’on répète des épreuves de Bernoulli identiques $n$ fois avec des résultats indépendants les uns des autres. 

La variable aléatoire $X$, comptant le nombre de succès, suit une loi binomiale de paramètres $n$ et $p$ (avec $n\in\mathbb N^*$ et $p\in ]0 ;1[$) si :

Pour tout $k\in [|0,n|]$, $P(X=k)=\Big(\begin{array}{ll}n\\k \end{array}\Big) p^k(1-p)^{n-k}=C_n^kp^k(1-p)^{n-k}$.
On note $X\sim \mathcal{B}(n,p)$.
$E(X)=np$ et $V(X)=np(1-p)=npq$.

Loi de Poisson

La variable aléatoire $X$ suit une loi de Poisson de paramètres $\lambda$ ($\lambda>0$) si pour tout $k\in\mathbb N$, $P(X=k)=\exp(-\lambda)\frac{\lambda^k}{k !}$.
On note $X\sim \mathcal{P}(\lambda)$.
$E(X)=\lambda$ et $V(X)=\lambda$.

On utilise en général la loi de Poisson lorsque les évènements ont une probabilité faible de se produire (maladies rares, …).

La loi de Poisson correspond à la limite d’une loi binomiale lorsque $n\to +\infty$ et $p\to 0$. En pratique si $n\geq 30$, $p\leq 0,1$ et $np\leq 15$, la loi binomiale est approchée par une loi de Poisson de paramètre $\lambda=np$.

Lois de probabilités continues

Variables continues

Une variable $X$ est continue lorsqu’elle peut prendre n’importe quelle valeur dans un intervalle.
Pour une valeur précise de $X$, la probabilité est nulle : $P(X=a)=0$ pour n’importe quelle valeur de $a$. Par conséquent dans un calcul de probabilité avec une variable continue, les inégalités larges ou strictes ne changent pas la valeur de la probabilité.

On appelle densité de probabilité toute fonction $f$ telle que pour tout $x\in\mathbb R$, $f(x)\geq 0$ et l’aire sous la courbe de $f$ est égale à 1.

La probabilité que la valeur de la variable appartienne à un intervalle donné vaut : $P(a\leq X \leq b)=\displaystyle\int_a^bf(x)dx$

Moyenne : $E(X)=\displaystyle\int_{-\infty}^{+\infty}xf(x)dx$

Où $f$ est la densité de probabilité de $X$. 

Variance : moyenne des carrés moins carré de la moyenne 

Loi normale

La loi normale dépend de 2 paramètres : 

  • Sa moyenne, notée $\mu$, qui définit l’axe de symétrie de la densité de probabilité
  • Son écart-type $\sigma$ qui définit la dispersion de la courbe : la courbe sera d’autant plus resserrée que $\sigma$ est faible.
    On note $X\sim \mathcal{N}(\mu,\sigma)$.

Variable normale centrée réduite

Si $X$ suit une loi normale de moyenne $\mu$ et d’écart type $\sigma$, alors la variable $Z$ définie par : $Z=\displaystyle\frac{X-\mu}{\sigma}$ suit une loi normale de moyenne nulle ($Z$ est centrée) et d’écart type égal à 1 ($Z$ est réduite). 

A retenir : le graphique de la densité de probabilité de la loi normale centrée réduite :

Remarque :

$P(\mu-1,96\sigma\leq X\leq \mu+1,96\sigma)=0,95$
Dans la pratique, on souvent 2 au lieu de 1,96.

Loi binomiale approximée par la loi normale

Conditions : $n\geq 30$ et $ np\geq 5 $ et $n(1-p)\geq 5$
Approximation : la loi binomiale $\mathcal{B}(n,p)$ s’approxime par la loi normale $\mathcal{N}(\mu=np ;\sigma=\sqrt{np(1-p)})$ 

Loi de Student

Cette loi dépend d’un paramètre $n$ : le nombre de degrés de liberté.

Sa représentation graphique est une cloche unimodale symétrique.
Quand $n\to+\infty$, la loi de Student tend vers la loi normale centrée réduite (ce qui est en pratique le cas pour $n>30$).

Théorème central limite

La moyenne $M$ de $X$, variable quantitative, sur un échantillon de taille $n$ suit une loi normale $N\left(\mu,\displaystyle\frac{\sigma}{\sqrt{n}}\right)$ quand $n$ tend vers l’infini.
Le théorème est applicable si $n>30$ et $X$ suit une loi quelconque ou si $X$ suit une loi normale.

Nomad+, Le pass illimité vers la réussite 🔥

NOMAD EDUCATION

L’app unique pour réussir !