Probabilité

Ensembles dénombrables

Un ensemble $X$ est dit dénombrable s'il existe une bijection $\varphi$ de $\N$ dans $X$.

Remarque

Dans ce cas, on peut écrire $X=\{\varphi(0),\varphi(1),\cdots\}=\{x_n\}_{n\in \N}$ où $x_n=\varphi(n)$.

Exemple

$\N$ est 'évidement' dénombrable, $\Z$ l'est également : on peut écrire $\Z$ sous la forme: $$\Z=\{0,1,-1,2,-2,3,-3,\cdots,n,-n,\cdots\}=\varphi(\N),$$ avec $\dsp \varphi(2k)=-k,\,\,\varphi(2k+1)=k+1.$


Montrer que $\N^2$ est dénombrable.

Correction

Pour tout $p\in \N$, on note $A_p=\{(q,r)\in \N^2,\,\,q+r=p\}$ puis on ordonne $A_p$ suivant l'ordre croissant de la première composante, i.e. $A_p=\{(0,p),(1,p-1),\cdots, (p,0)\}$. Puis on remarque que l'on peut écrire $\N^2$ en mettant bout à bout les ensemble finis $A_p$, $$\N^2=A_0\,A_1\cdots =\{(0,0),(0,1),(1,0),(0,2),(1,1),(2,0),\cdots\}.$$ On peut également écrire, pour tout $n\in \N$, $$\varphi(n)=\left(n-\frac{p(p+1)}{2},\frac{p(p+3)}{2}-n\right),$$ si $n\in \left[\dfrac{p(p+1)}{2},\dfrac{p(p+3)}{2}\right[.$


Construction graphique de $\varphi^{-1}$.

Un ensemble $X$ est dit au plus dénombrable s'il est fini ou infini dénombrable.

Un ensemble $X$ non vide est au plus dénombrable ssi il existe une surjection de $\N$ dans $X$.

  1. Si $X$ est au plus dénombrable et s'il existe une surjection de $X$ dans $Y$ alors $Y$ est au plus dénombrable.
  2. Toute partie d'un ensemble au plus dénombrable est au plus dénombrable.
  3. Si $Y$ est au plus dénombrable et s'il existe une injection de $X$ dans $Y$, alors $X$ est au plus dénombrable.
  4. Un ensemble $X$ est au plus dénombrable ssi il existe une injection de $X$ dans $\N$.


On note $E_1=\{u\in \R_+,\,\, u^2\not \in \N\}$ et $E_2$ son complémentaire dans $\R_+$. Montrer que $E_2$ est un ensemble dénombrable.

Correction

L'application $u\in E_2\mapsto u^2$ a une image incluse dans $\N$ et est injective (car $x\mapsto x^2$ l'est sur $\R^+$). $E_2$ est ainsi en bijection avec une partie de $\N$ (son image). C'est donc une partie finie ou dénombrable. Comme $E_2$ est infini ($E_2$ contient tous les entiers), $E_2$ est finalement dénombrable.

Soient $X_1,\cdots,X_n$ des ensemble au plus dénombrable, alors le produit cartésien $X_1\times X_2\cdots \times X_n$ est au plus dénombrable.

Soit $(X_i)_{i\in I}$ une famille d'ensemble au plus dénombrable indexée par un ensemble au plus dénombrable $I$. Alors $X= \dsp\bigcup_{i\in I} X_i$ est au plus dénombrable.


Montrer que $\Q$ est au plus dénombrable.

Correction

L'application $\fonct{\varphi}{\Z\times\N}{\Q}{(n,p)}{\frac{n}{p}}$ définit une surjection de $\Z\times \N^*$ (qui est au plus dénombrable) dans $\Q$. Donc $\Q$ est au plus dénombrable.


Montrer que $\R$ n'est pas dénombrable.

Correction

Il suffit de montrer que l'intervalle $[0,1]$ n'est pas dénombrable.
Supposons que $[0,1]$ est dénombrable, i.e. $[0,1]=\{x_n\}_{n\in \N}$, on construit alors une suite d'intervalles $(I_n=[a_n,b_n])_n$ de la façon suivante: $$\forall n\in \N,\quad I_{n+1}\subset I_n,\,\,x_n\not\in I_n,\,\,b_n-a_n=\dfrac{1}{3^{n+1}}.$$ La construction se fait par récurrence. Pour $n=0$, on choisit $I_0=[0,1/3]$ ou $[2/3,1]$ qui ne contient pas $x_0$ (il y en au moins un parmi ces deux intervalles qui ne contient pas $x_0$). Supposons que $I_n$ est construit ($n\geq 0$), on choisit alors pour $I_{n+1}$ un des deux intervalles $[a_n,a_n+1/3^{n+2}]$ ou $[b_n-1/3^{n+2},b_n]$ qui ne contient pas $x_{n+1}$.
Les deux suites $(a_n)$ et $(b_n)$ sont convergente vers la même limite $\ell \in [0,1]$, or, on a pour tout $n\in \N,\,x_n\neq x$, ce qui contredit l'hypothèse.

Remarque

On en déduit également que $\R\setminus \Q$ n'est pas dénombrable.


Montrer que $\mathscr{P}(\N)$ (l'ensemble des parties de $\N$) n'est pas dénombrable.

Correction

Supposons que $\mathscr{P}(\N)$ est dénombrable, et soit $\varphi$ une bijection entre $\N$ et $\mathscr{P}(N)$. Notons alors $A=\{n\in \N,\,n\not\in \varphi(n)\}\in \mathscr{P}(\N)$, soit $a\in \N$ tel que $A=\varphi(a)$, on voit alors que $a$ ne peut pas être ni un élément de $A$ (puisque cela entraînerait que $a\not\in \varphi(a)=A$), ni un élément de $\N\setminus A$ (puisque cela entraînerait que $a\in \varphi(a)=A$), ce qui est absurde.
On en déduit que $\mathscr{P}(\N)$ n'est pas dénombrable.

Famille sommable

Définitions

Soient $I$ un ensemble d'indices dénombrable et $(u_i)_{i\in I}$ une famille de réels positifs ou nuls. On note $A=\left\{ \dsum_{j\in J}u_j,\,\, J\subset I\text{ avec }J \text{ fini}\right\}$.
On dit que la famille $(u_i)_{i\in I}$ est sommable si l'ensemble $A$ est bornée. Dans ce cas on appelle somme de $(u_i)_{i\in I}$ la borne supérieure de $A$, et on note cette somme $\dsum_{i\in I}u_i$.

Remarque

Dans le cas où $I=\N$, alors la famille $(u_n)_{n\in \N}$ est sommable ssi la série $\dsum_{n=0}^\infty u_n$ converge.

Exercice ($\star\star$)

Soit $(x_i)_{i\in I}$ une famille de complexes telle que pour tout $i\in I, \, x_i\neq 0$. On suppose qu'il existe $K\in \R_+^*$ tel que $$\forall J\subset I,\, J\text{ finie},\, \dsum_{i\in J}\abs{x_i}\leq K.$$ Montrer alors que $I$ est au plus dénombrable.

Correction

Pour $n\in \N^*$, on note $A_n=\{k\in I,\, \abs{x_k}\geq \dfrac{1}{n}\}$. Montrer que $A_n$ est finie puis $I\subset\bigcup_{n\in \N^* } A_n$

Soient $I$ un ensemble d'indices dénombrable et $(u_i)_{i\in I}$ une famille de réels. On dit que la famille $(u_i)_{i\in I}$ est sommable si la famille $(\abs{u_i})_{i\in I}$ est sommable.

Remarque

Dans le cas où $I=\N$, alors la famille $(u_n)_{n\in \N}$ est sommable ssi la série $\dsum_{n=0}^\infty u_n$ est absolument converge.

Soit $(u_i)_{i\in I}$ une famille dénombrable de réels. Alors,
La famille $(u_i)_{i\in I}$ est sommable ssi il existe une bijection $\varphi$ de $\N$ dans $I$ tel que $\dsum_{n=0}^\infty u_{\varphi(n)}$ est absolument convergente.

Séries doubles

Soit $(u_{i,j})_{(i,j)\in I\times J}$ une famille de nombres réels positifs. Si pour tout $i\in I,\, \dsum_{j\in J}u_{i,j}$ converge et est égale à $a_i$ et si $\dsum_{i\in I}a_i$ converge et a pour somme $U$, alors on dit que la famille $(u_{i,j})_{(i,j)\in I\times J}$ est une série double convergente de somme U . On note $U=\dsum_{(i,j)\in I\times J}u_{i,j}$.

Remarque

On dit également que la famille $(u_{i,j})_{(i,j)\in I\times J}$ est sommable.


  1. Montrer que la famille $\left(\dfrac{1}{p^2q^2}\right)_{(p,q)\in (\N^*)^2}$ est sommable.
  2. Montrer que la famille $\left(\dfrac{1}{p^2+q^2}\right)_{(p,q)\in (\N^*)^2}$ n'est pas sommable.

Correction

  1. Soit $q\in \N^*$, la série $\dsum_{p\geq 1} \dfrac{1}{q^2p^2}$ converge (séries de références de Riemann). De plus sa somme égale à $\dfrac{\pi^2}{6q^2}$.
    La série $\dsum_{q\geq 1} \dfrac{\pi^2}{6q^2}$ converge également, donc d'après la définition, la famille $\left(\dfrac{1}{p^2q^2}\right)_{(p,q)\in (\N^*)^2}$ est sommable et on a $$\dsum_{(p,q)\in (\N^*)^2}\dfrac{1}{p^2q^2}=\dfrac{\pi^4}{36}$$
  2. Soit $q\in \N^*$, la série $\dsum_{p\geq 1} \dfrac{1}{q^2+p^2}$ converge (séries de références de Riemann). Notons $u_q$ sa somme.
    Comme $q\geq 1,\,p\geq 1$, alors $q^2+p^2\leq (p+q)^2$, donc $$u_q= \dsum_{p\geq 1} \dfrac{1}{q^2+p^2} \geq \dsum_{p\geq 1} \dfrac{1}{(q+p)^2} = \dsum_{k\geq q+1}\dfrac{1}{k^2}$$ En utilisant la Comparaison série-intégrale, on trouve $$u_q \geq \dsum_{k\geq q+1}\dfrac{1}{k^2}\geq \int_{q+1}^\infty \dfrac{\ud t}{t^2}=\dfrac{1}{q+1}.$$ comme la série $\dsum_q \dfrac{1}{q+1}$ est divergente, on en déduit alors que la série $\dsum_q u_q$ est divergente, ce qui prouve que la famille $\left(\dfrac{1}{p^2+q^2}\right)_{(p,q)\in (\N^*)^2}$ n'est pas sommable.

Soit $(u_{i,j})_{(i,j)\in I\times J}$ une famille de nombres réels. On dit que la $\dsum_{(i,j)\in I\times J}u_{i,j}$ est une série double absolument convergente si la série double $\dsum_{(i,j)\in I\times J}\abs{u_{i,j}}$ converge.

Si $\dsum_{(i,j)\in I\times J}u_{i,j}$ est une série double absolument convergente alors :

  • pour tout $i\in I$, $\dsum_{j\in J}u_{i,j}$ CV et $\dsum_{i\in I}\left(\dsum_{j\in J} u_{i,j}\right)$ CV.
  • pour tout $j\in J$, $\dsum_{i\in I}u_{i,j}$ CV et $\dsum_{j\in J}\left(\dsum_{i\in I} u_{i,j}\right)$ CV.
  • De plus, on a les égalités suivantes: $$\dsum_{(i,j)\in I\times J} u_{i,j}=\dsum_{i\in I}\left(\dsum_{j\in J} u_{i,j}\right)=\dsum_{j\in J}\left(\dsum_{i\in I} u_{i,j}\right).$$


Soit $(u_{n,p})_{n,p\in \N}$ une famille de réels définie par $u_{n,p}=\left\{\begin{array}{lcl} \frac{-1}{2^n}&\text{si }&n\geq 1\\ 1&\text{ si } & n=0 \end{array} \right. $.
Montrer que pour tout $p\in \N$, $\dsum_{n\geq 0} u_{n,p}$ converge et que pur tout $n\in \N$, $\dsum_p u_{n,p}$ diverge.

Correction

Soient $p\in \N$ et $N\in \N^*$, on a $$\dsum_{n=0}^Nu_{n,p}= 1-\dsum_{n=1}^N\dfrac{1}{2^n}=2-\dfrac{1-\frac{1}{2^{N+1}}}{1-\frac{1}{2}}=\dfrac{1}{2^N}\tendvers{N}{\infty}\,0$$ donc $\dsum_{n\geq 0}u_{n,p} \text{ CV et }\dsum_{n\geq 0}u_{n,p}=0 .$
On en déduit également que $\dsum_p\dsum_n u_{n,p}$ converge et de somme nulle
Soit $n\in \N$, on a $u_{n,p}$ est une constante non nulle (par rapport à $p$) donc $\dsum_{p}u_{n,p}$ diverge.

Espaces probabilisés

Définitions

Soit $\mathcal{F}$ une partie de $ \mathscr{P}(\Omega)$. On dit que $\mathcal{F}$ est un tribu sur $\Omega$ ssi:

  • $\mathcal{F}$ est non vide.
  • Pour tout $F\in \mathcal{F}$, $\overline{F}\in \mathcal{F}$ ($\mathcal{F}$ est stable par complémentarité).
  • $\mathcal{F}$ est stable par union dénombrable, i.e. soit $I$ une partie de $\N$ ou de $\Z$ et $(F_i)_{i\in I}$ une famille d'éléments de $\mathcal{F}$, alors $\dsp \bigcap_{i\in I} F_i\in \mathcal{F}$.

Remarques

Soit $\mathcal{F}$ un tribu sur $\Omega$, alors:

  • $\emptyset,\,\Omega \in \mathcal{F}$, en effet puisque $\mathcal{F}$ est non vide donc il existe $F\in \mathcal{F}$ puis $\overline{F}\in \mathcal{F}$ ceci donne $F\cap \overline{F}=\emptyset\in \mathcal{F}$. On utilise encore la stabilité par complémentarité pour obtenir $\Omega=\overline{\emptyset}\in \mathcal{F}$.
  • Soit $I$ une famille de $\N$ ou $\Z$, et $(F_i)_{i\in I}$ une famille d'éléments de $\mathcal{F}$, alors $\dsp\bigcup_{i\in I}F_i\in \mathcal{F}$.

Exemples

  1. $\{\emptyset,\Omega\}$ est un tribu, il est appelé le tribu trivial et utilisé dans la logique du tout ou rien du tout.
  2. $\mathcal{P}(\Omega)$ est un tribu de $\Omega$, il est appelé tribu plein et souvent utilisé dans le cas ou $\Omega$ est fini.
  3. Soit $A\in \mathcal{P}(\Omega)$, alors $\{\emptyset,A,\overline{A},\Omega\}$ est un tribu sur $\Omega$ et c'est le tribu engendré par $A$.


Soient $f:\Omega \to \Omega '$ une application et ${\mathcal{T}'}$ une tribu sur $\Omega '$. Montrer que ${\mathcal{T}} = \left\{ {f^{ - 1} (A'),\,\,A' \in {\mathcal{T}'}} \right\}$ définit une tribu sur $\Omega $.

Correction

Comme $\Omega=f^{-1}(\Omega')$ alors $\Omega\in \mathcal{T}$ (puisque $\Omega' \in \mathcal{T}'$) donc $\mathcal{T}$. n'est pas vide.
Soit $A\in \mathcal{T}$ alors il existe $A'\in \mathcal{T}'$ tel que $A=f^{-1}(A')$ comme $\mathcal{T}'$ est un tribu alors $\overline{A'}\in \mathcal{T}'$ donc $f^{-1}(\overline{A'})\in \mathcal{T}$ or $f^{-1}(\overline{A'})=\overline{f^{-1}(A')}=\overline{A}\in \mathcal{T}$. Soit $(A_n)_{n\in I}$ une famille d'éléments au plus dénombrable ($I\subset \N$), alors pour tout $n\in I$, il existe $A'_n\in \mathcal{T}'$ tel que $A_n=f^{-1}(A')$, ce qui donne $$\bigcap _{n\in I}A_n=\bigcap_{n\in I}f^{-1}(A_n')=f^{-1}\left(\underset{\in \mathcal{T}'}{\underbrace{\bigcap_{n\in I}A_n'}}\right)\in \mathcal{T}$$ On en déduit alors que $\mathcal{T}$ est un tribu de $\Omega$.

Soit $\Omega$ un ensemble et $\mathcal{F}$ un tribu sur $\Omega$. On appelle espace probabilisable le couple $(\Omega,\mathcal{F})$. On appelle les éléments de $\mathcal{F}$ événements.

Exemple

On lance un dé et on considère $\Omega=\inter{1,6}$ et $\mathcal{F}=\mathcal{P}(\Omega)$. Alors $(\Omega,\mathcal{F})$ est un espace probabilisable. Par exemple l'événement $A=\{1,3,5\}$ se traduit : Le résultat obtenu est un nombre impaire.

Soit $(\Omega,\mathcal{F})$ un espace probabilisable. On appelle:

  • $\emptyset$ l' événement impossible , $\Omega$ l'événement certain.
  • $F\in \mathcal{F}$, $\overline{F}$ est l' événement contraire de $F$.
  • $F_1,\,F_2\in \mathcal{F}$ deux événements incompatibles si $F_1\cap F_2=\emptyset$.
  • $(F_i)_{i\in I},\,(I\subset \N)$ système complet d'événements si les événements $F_i$ sont deux à deux incompatibles et $\dsp\bigcup_{i\in I}F_i=\Omega$. (Pour tout $i\in I$, $F_i\in \mathcal{F}$)

Exemples

Soit $(\Omega,\mathcal{F})$ un espace probabilisable et $(F_i)_{i\in \N}$ une famille de $\mathcal{F}$. L'événement

  1. $\dsp \bigcap_{i\in \N}F_i$ correspond à la réalisation de tous les $F_i$.
  2. $\dsp \bigcup_{i\in \N}F_i$ correspond à la réalisation d'au moins un $F_i$.
  3. $\dsp \bigcup_{n\in \N}\bigcap_{i\geq n}F_n$ correspond à la réalisation de tous les $F_i$ à partir d'un certain rang.
  4. $\dsp \bigcap_{n\in \N}\bigcup_{i\geq n}F_n$ correspond à la réalisation d'une infinité de $F_i$.

Soit $(\Omega,\mathcal{F})$ un espace probabilisable, on appelle probabilité sur l'espace $(\Omega,\mathcal{F})$ toute application $P:\mathcal{F}\longmapsto \R_+$ vérifiant:

  1. $P(\Omega)=1$.
  2. Pour tout suite $(F_n)_{n\in \N}$ d'événements de $\mathcal{F}$ deux à deux incompatibles, on a: $$P\left(\cup_{n\in \N}F_n\right)=\dsum_{n\in \N}P(F_n),\quad (\sigma -\text{ \textcolor{blue}{additivité} }).$$
Exemples

  1. Soit $\Omega$ un ensemble fini, on considère $\mathcal{F}=\mathcal{P}(\Omega)$. Alors l'application $\fonct{P}{\mathcal{F}}{\R_+}{F}{\frac{\mathrm{Card}(F)}{\mathrm{Card}(\Omega)}}$ est une probabilité sur $(\Omega,\mathcal{F})$.
  2. $(\Omega,\mathcal{F})$ un espace probabilisable et $\omega\in \Omega$. L'application $P:\mathcal{F}\longmapsto \R_+$ définie par $P(F)=\left\{\begin{array}{ll} 1&\text{ si }\omega\in F\\ 0&\text{sinon} \end{array}\right.$ est une probabilité.

Propriétés

Soit $(\Omega,\mathcal{F})$ un espace probabilisable et $P$ une probabilité sur $(\Omega,\mathcal{F})$. Alors:

  1. $P(\emptyset)=0$.
  2. Pour tout famille $(F_0,\cdots,F_n)$ d'événements deux à deux incompatibles, on a $P\left(\dsp\cup_{k=0}^nF_k\right)=\dsum_{k=0}^nP(F_k)$.
  3. Pour tout $F\in \mathcal{F}$, on a $P(\overline{F})=1-P(F)$.
  4. Pour tout $F\in \mathcal{F},\,\,P(F)\in [0,1]$.


Montrer que l'on peut définir sur $\N$ une probabilité par, pour tout $n\in \N$,$P(\{n\})=\frac{1}{2^{n+1}}$. Quelle est la probabilité (selon $P$) qu'un entier soit pair.

Correction

On a, pour tout $n\in \N$, $P(\{n\})=\dfrac{1}{2^{n+1}}\in [0,1]$, et de plus $\dsum_{n=0}^\infty \frac{1}{2^{n+1}} =1$. On définit bien une probabilité sur $\N$.
$n\in \N$ est pair ssi existe $p\in \N$ tel que $n=2p$, ainsi, $$P(n \text{ est pair})=P(n\in 2\N)=\dsum_{n=0}^\infty P({2n})=\dsum_{n=0}^\infty\dfrac{1}{2^{2n+1}}=\dfrac{1}{2}\dfrac{1}{1-\frac{1}{4}}=\dfrac{2}{3}.$$

On appelle espace probabilisé tout triplet $(\Omega,\mathcal{F},P)$ ou $\Omega$ est un ensemble, $\mathcal{F}$ un tribu sur $\Omega$ et $P$ une probabilité sur $(\Omega,\mathcal{F})$.

Soient $A,B\in \mathcal{F}$, on a:

  1. Si $A\subset B$ alors $P(A)\leq P(B)$
  2. $P(A\cup B)=P(A)+P(B)-P(A\cap B)$.

Soient $F_1,\cdots,F_n$ des événement de $\mathcal{F}$, alors $$P\left(\dsp\bigcup_{i=1}^nF_i\right)\leq \dsum_{k=1}^n P(F_k).$$

Continuité monotone

Soit $(F_n)_{n\in \N}$ une suite croissante des événements. Alors $$P(F_n)\tendversN\,P\left(\bigcup_{n\in \N} F_n\right).$$

Soit $(F_n)_{n\in \N}$ une suite décroissante des événements. Alors $$P(F_n)\tendversN\,P\left(\bigcap_{n\in \N } F_n\right).$$

Exemple

On lance indéfiniment un dé équilibré. Alors l'événement " on n'obtient jamais de 6 " est de probabilité nulle.
En effet, on note $A$ l'événement : " on n'obtient jamais de 6 " et $A_n$ l'événement " on n'a pas obtenu de 6 lors des n premiers lancers ". En supposant les lancers indépendants, on $P(A_n)=(5/6)^n$. Puisque la suite $(A_n)$ est décroissante, on a par continuité $$P(A)=P\left(\bigcap_{n\in \N^*}A_n\right)=\limiteX{n}{\infty}P(A_n)=0.$$

Événements particulières

On dit que l'événement $A\in \mathcal{F}$ est négligeable si $P(A)=0$.

Exemples

  1. L'événement impossible est négligeable.
  2. Ne jamais obtenir un 1 en lançant infiniment un dé est négligeable.

  1. Un événement inclus dans un événement négligeable est négligeable.
  2. Une réunion au plus dénombrable des événements négligeable est un événement négligeable.

On dit que l'événement $A\in \mathcal{F}$ est presque sûr si $P(A)=1$.

Remarque

$A$ est presque sûr ssi $\overline{A}$ est négligeable.

Exemples

  • L'événement certain est presque sûr.
  • Obtenir un 1 en lançant infiniment un dé est presque sûr.

  1. Un événement contenant un événement presque sûr est presque sûr.
  2. Une intersection au plus dénombrable des événements presque sûr est un événement presque sûr.

Probabilité sur un univers au plus dénombrable

Pour tout $\omega\in \Omega$, on introduit les probabilités élémentaires $p_\omega=P(\{\omega\})$ .

La famille $(p_\omega)_{\omega\in \Omega}$ est une famille de réels positifs, sommable et de somme égale à $1$.

Soit $(p_\omega)_{\omega\in \Omega}$ une famille de réels positifs, sommable et de somme égale à $1$. Alors il existe une unique probabilité définie sur $(\Omega,\mathcal{P}(\Omega))$ telle que $$\forall \omega\in \Omega,\quad P(\{\omega\})=p_\omega.$$ De plus, celle-ci est déterminée par $$\forall A\in \mathcal{P}(\Omega),\quad P(A)=\dsum_{w\in A}p_w.$$

Exemples

  1. $\Omega=\{\omega_1,\cdots,\omega_n\}$. Une probabilité sur $\Omega$ est entièrement déterminée par le choix de $p_1\cdots,p_n\in\R_+$ avec $p_1+\cdots+p_n=1$.
    En prenant $p_k=\dfrac{1}{n}$, on définit l'équiprobabilité sur $\inter{1,n}$.
    En prenant $p_k={n \choose k}p^k(1-p)^{n-k}$ avec $p\in ] 0,1 [$, on définit une probabilité sur $\inter{1,n}$.
  2. $\Omega=\N$. Dans ce cas, on peut prendre $p_n=\ee^{-a}\dfrac{a^n}{n!},\,\,a>0$.
    On peut également poser $p_n=a(1-a)^n$ avec $a\in ]0,1[$.

(CCINP PSI 2019)

Soit $p\in ]0,1[$, on pose, pour $k\in \N^*$, $p_k=p^2k(1-p)^{k-1}$. Montrer que $(p_k)_{k\in \N^*}$ définit une loi de probabilité sur $\N^*$.

Correction

Revoir le cours sur les séries entiers, pour retrouver les sommes suivantes: $$\dsum x^k=\cdots,\,\dsum kx^{k-1} =\cdots$$

(CCP PC 2018)

Pour $n\in \N^*$ on considère la probabilité de tirer l'entier $n$ comme étant égale à $\dfrac{1}{2^n}$.

  1. Montrer qu'on a ainsi bien défini une probabilité.
  2. Soit $k\in \N^*$. On note $A_k$ l'évènement " L'entier $n$ tiré est un multiple de $k$ ". Exprimer $P(A_k)$ en fonction de $k$
  3. Calculer $P(A_2\cup A_3)$
  4. On note $B$ l'évènement " L'entier $n$ tiré est un nombre premier ". Montrer que $\dfrac{13}{32}< P(B) < \dfrac{209}{504}$.

Correction

  1. $\N^*=\dsp \bigcup_{n\in \N^*}\{n\}$ puis $$\dsum_{n\geq 1}P(\{n\})=\dsum_{n\geq 1}\dfrac{1}{2^n}= \dfrac{1}{1-\frac{1}{2}}-1=1.$$
  2. $A_k=\dsp\bigcup_{k\in \N^*}\{kn\}$, donc $$P(A_k)=\dsum_{n\geq 1}P(\{kn\})=\dsum_{n\geq 1}\dfrac{1}{2^{kn}}=\dfrac{1}{2^k-1}.$$
  3. Comme $A_2\cap A_3=A_6$, alors $$P(A_2\cup A_3)=P(A_2)+P(A_3)-P(A_6)=\dfrac{1}{3}+\dfrac{1}{7}-\dfrac{1}{63}= \dfrac{29}{63}.$$
  4. $\{2,3,5\}\subset B$, donc $$P(B)\geq P(\{2,3,5\})=P(\{2\})+P(\{3\})+P(\{5\})=\dfrac{1}{4}+\dfrac{1}{8}+\dfrac{1}{32}=\dfrac{13}{32}.$$ L'ensemble $D=(\{1\}\cup(A_2\cup A_3)) \setminus \{2,3\}$ est inclus dans $\overline{B}$, donc $$P(\overline{B})\geq P(D)=P(\{1\})+P(A_2\cup A_3)-P(\{2\})-P(\{3\})=\dfrac{1}{2}+\dfrac{29}{63}-\dfrac{1}{4}-\dfrac{1}{8}=\dfrac{295}{504}.$$ Donc $$P(B)=1-P(\overline{B})\leq 1-P(D)= \dfrac{209}{504}.$$

(Arts et Métiers PSI 2018)

On considère un jeu de ballon et trois joueurs, notés $A$, $B$ et $C$. $A$ envoie la ballon à $B$ avec une probabilité de $0.75$, et à $C$ avec une probabilité de $0.25$; $B$ envoie toujours le ballon à $C$; $C$ envoie le ballon à $A$ avec une probabilité de $0.25$, et à $B$ avec une probabilité de $0.75$.
On note $A_n$ l'évènement : "$A$ possède le ballon à l'issue du $n$ième lancer " et on considère de même $B_n$ et $C_n$. On note $a_n$ la probabilité de l'évènement $A_n$, et on note de même $b_n$ et $c_n$.

  1. Donner $a_{n+1}$ en fonction de $a_n$, $b_n$, $c_n$. Exprimer de même $b_{n+1}$ et $c_{n+1}$.
  2. Montrer qu'elle existe $M\in \MM_3(\R)$ telle que, pour tout $n\in \N^*$,$\begin{pmatrix} a_{n+1}\\b_{n+1}\\c_{n+1} \end{pmatrix}=M\begin{pmatrix} a_n\\b_n\\c_n \end{pmatrix}$, déterminer $M$.
  3. Déterminer la limite de $a_n,\, b_n, \,c_n$, quand $n$ tend vers $\infty$.

Correction

  1. $a_{n+1}=0\,a_n+0\,b_n+\dfrac{1}{4}c_n$
  2. $M=\dfrac{1}{4}\begin{pmatrix} 0&0&1\\3&0&3\\1&4&0 \end{pmatrix}$
  3. Vérifier que $\Sp (M)=\{-1/4,-3/4,1\}$ puis trouver $P$ telle que $M=P\mathrm{diag}(-1/4,-3/4,1)P^{-1}$, puis $$M^n\tendversN\, P \mathrm{diag}(0,0,1)P^{-1}$$ ($P$ est constitué des vecteurs propres de $M$)

Voir aussi programme Python

Probabilité conditionnelle

Soit $B$ un événement de $\Omega$ vérifiant $P(B)>0$. Pour tout événement $A$ de $\Omega$, on définit la probabilité conditionnelle de $A$ sachant $B$ par: $$P\left( A\mid B\right)=\dfrac{P(A\cap B) } {P(B)}.$$

Remarque

Si $P(B)=0$, on pose $P(A\mid B)=0$.

Soit $B\in \mathcal{F}$ tel que $P(B)>0$. L'application $\fonct{P_B}{\Omega}{\R_+}{A}{P(A\mid B)}$ est une probabilité.


Soit $(\Omega,\mathcal{F},P)$ un espace probabilisé, $A,B\in \mathcal{F}$, on suppose que: $$P(A)=\dfrac{1}{3},\,P(B)=\dfrac{1}{4},\,P(A\cup B)=\dfrac{5}{9}.$$ Calculer $P_B(A),\,P_B(\overline{A}),\, P_B(A\cap \overline{B})$.

Correction

Calculons d'abord $P(A\cap B)$, pour cela on utilise la formule de cours, $$P(A\cup B)=P(A)+P(B)-P(A\cap B) \Longrightarrow P(A\cap B) =\dfrac{1}{3}+\dfrac{1}{4}-\dfrac{5}{9}=\dfrac{1}{36}.$$ Puis $$P_B(A)=\dfrac{P(A\cap B)}{P(B)}=\dfrac{1}{36}\dfrac{4}{1}=\dfrac{1}{9},\, P_B(\overline{A})=1-P_B(A)=\dfrac{8}{9}$$ Et enfin $P_B(A\cap \overline{B})=0$ (vous voyez pourquoi?)


Soit $(\Omega,\mathcal{F},P)$ un espace probabilisé, $A,B\in \mathcal{F}$, on suppose que $P(A)>0$. Montrer les relations suivantes:
$P(A\cup B)>0,\,\,P_{A\cup B}(A\cap B)\leq P_A(A\cap B),\, $ et $$P(B)=P_A(B)P(A)+P_{\overline{A}}(B)P(\overline{A}).$$

Correction

Comme $A\subset A\cup B$ alors $P(A\cup B)>p(A)>0$. Puis, $$\begin{array}{lcl} P_{A\cup B}(A\cap B)&=&\dfrac{P((A\cap B)\cap (A\cup B))}{P(A\cup B)}\\ &=&\dfrac{P(A\cap B)}{P(A\cup B)}\leq \dfrac{P(A\cap B)}{P(A)}=P_A(A\cap B). \end{array} $$ Ensuite, $B= (B\cap A)\cup (B\cap \overline{A})$ ce qui donne $P(B)=P(B\cap A)+P(B\cap A)$, puis on utilise la définition de $P_A,\, P_{\overline{A}}$ pour terminer.

Soit $A,B$ deux événements, alors on a $$P(A\cap B)=P(A\mid B)P(B).$$ Plus généralement, soient $A_1,\cdots,A_n$ des événements, alors: $$P(A_1\cap A_2\cdots\cap A_n)=P(A_1)P_{A_1 } (A_2)P_{A_1\cap A_2}(A_3) \cdots P_{A_1\cap A_2\cdots \cap A_{n-1}}(A_n).$$


Une urne contient une boule blanche et une boule rouge. On tire successivement des boules dans cette urne. A chaque boule tirée, on note la couleur de celle-ci et on la remet dans l'urne accompagnée d'une boule de la même couleur.
Montrer qu'il est presque sûr que la boule rouge initiale sera tirée.

Correction

Notons $A_n$ l'événement " la boule tirée au $n^{\text{ième}}$ tirage est blanche". Par probabilités composées $$P(A_1\cap \cdots \cap A_n)=P(A_1)P_{A_1}(A_2)\cdots P_{A_1\cap \cdots\cap A_{n-1}}(A_n).$$ avec $$P(A_1)=\dfrac{1}{2}, P_{A_1}(A_2)=\dfrac{2}{3},\cdots, P_{A_1\cap\cdots \cap A_{n-1}}(A_n)=\dfrac{n}{n+1}.$$ On a donc $P(A_1\cap \cdots \cap A_n)=\dfrac{1}{n+1}$.
Par continuité décroissante $$P\left(\dsp\bigcap_{n\in \N^*}A_n\right)=\limiteX{n}{\infty} P(A_1\cap\cdots\cap A_n)=0.$$ Ainsi, l'événement " toutes les boules tirées sont blanches " est négligeable et l'événement complémentaire " la boule rouge initiale est tirée " est presque sûr.

Soit $(A_i)_{i\in I}$ une famille d'événements au plus dénombrable, constituant un système complet d'événements. Alors: $$\forall B\in \mathcal{F},\quad P(B)=\dsum_{i\in I } P(A_i)P_{A_i}(B).$$


Une urne contient une boule rouge. Un joueur lance un dé, s'il obtient 6 il tire une boule dans l'urne, sinon il rajoute une boule blanche dans l'urne et il répète la manipulation.
Quelle est la probabilité que la boule tiré soit rouge?

Correction

Pour $n\in \N^*$, on note $A_n$ l'événement: "Le joueur fait un premier 6 au lancé numéro $n$", et $B$ l'événement: "La boule tirée est rouge".
Alors, on a $$P(A_n)=\dfrac{1}{6}\dfrac{5^{n-1}}{6^{n-1}},\quad P_{A_n}(B)=\dfrac{1}{n}.$$ En utilisant la formule des probabilités totales, on trouve: $$P(B)=\dsum_{n=1}^\infty P_{A_n}(B)P(A_n)=\dsum_{n\geq 1}\dfrac{5^{n-1}}{n6^n}=\dfrac{\ln(6)}{5}.$$

Soit $(F_i)_{i\in I}$ une famille d'événements au plus dénombrables forment un système complet non négligeables. Alors pour tout événement $B$ non négligeable, on a: $$\forall j\in I,\quad P_B(A_j)=\dfrac{P(A_j)P_{A_j (B)}}{\dsum_{i\in I}P(A_i)P_{A_i}(B)}.$$

  1. Deux événements $A$ et $B$ sont indépendant ssi $P(A\cap B)=P(A)P(B)$.
  2. Une famille d'événements $(F_i)_{i\in I}$ au plus dénombrable est une famille d'événements mutuellement indépendants ssi pour tout sous famille $(F_j)_{j\in J}$ extraite on a $\dsp P\left(\bigcap_{j\in J}F_j\right)=\prod_{j\in J}P(F_j)$.

Remarques

  1. L'indépendance des événements $A$ et $B$ entraîne que la connaissance de la réalisation de $B$ n'apporte rien pour savoir si $A$ est aussi réalisé.
  2. Deux événements ne peuvent être indépendants s'ils sont incompatibles, sauf si l'un d'eux a une probabilité nulle.
  3. Les seuls événements qui sont indépendants d'eux-mêmes sont les événements de probabilité 0 ou 1.
  4. Une famille d'événements peuvent être indépendants deux à deux sans être indépendants mutuellement.

Exemple

On lance deux dés et on désigne par $A$ l'événement: " le premier dé amène un nombre pair ", par $B$ l'événement : " le second dé amène un nombre impair ", par $C$ l'événement : "les deux dés amènent des nombres de même parité ". On a $P(A) = P(B) = P(C) = 1/2$, puis $P(AB) = P(BC) = P(CA) = 1/4$, mais $P(ABC) = 0 \neq P(A)P(B)P(C)$. Cet exemple montre que $A$ peut être indépendant de $B$ et de $C$ séparément, sans l'être de l'intersection $B\cap C$.

  1. Si $A,\,B$ sont indépendants alors $\overline{A},\,B$ le sont également.
  2. Si $(A_i)_{i\in I}$ est une famille d'événements mutuellement indépendants, alors toute famille indexée par $J\subset I$, composée d'événements $A_i$ ou $\overline{A_i}$ pour chaque indice, est une famille mutuellement indépendants.

Remarque

Si $A,\,B$ sont indépendants alors $\overline{B},\,A$ (resp. $\overline{A},\,\overline{B}$) le sont également.

Exemple

On lance indéfiniment une pièce. Soit $A_n$ l'événement: "on obtient face lors du $n^{\text{ème}}$ lancer".
Les événements de la famille $(A_n)_{n\geq 1}$ sont modélisés mutuellement indépendants. En effet, si la probabilité d'obtenir face lors de chaque lancer vaut $p\in ] 0,1 [$, alors la probabilité que face apparaît pour la première fois lors du $n^{ième}$ lancer vaut $$P(A_n\cap \overline{A_{n-1}}\cdots \cap \overline{A_1})=p(1-p)^{n-1}.$$ En effet, on peut montrer que les événements $\overline{A_1},\cdots,\overline{A_{n-1}}$ et $A_n$ sont mutuellement indépendants.


Une boîte contient 1 boule Blanche et 1 boule Rouge. On tire une boule dans la boîte, on note sa couleur et on la remet dans la boîte accompagnée de deux boules de la même couleur. On répète ensuite cette opération.
Pour : $n\in \N^*$, quelle est la probabilité que les $n$ premières boules tirées soient Rouge ?
Quelle est la probabilité de l'événement « on tire infiniment des boules Rouges » ?

Correction

On note $R_k$ l'événement « la boule tirée au $k$ième essai est Rouge ». On note aussi $A_n$ l'événement « les $n$ premières boules tirées sont Rouges ». Alors : $A_n=R_1\cap R_2\cdots \cap R_n$, et avec la formule des probabilités conditionnelles: $$\begin{array}{lcl} P(A_n)&=&\dsp P(R_1)P_{R_1}(R_2)\cdots P_{R_1\cap R_2\cdots\cap R_{n-1}}(R_n)\\ &=&\dsp \dfrac{1}{2}\dfrac{3}{4}\dfrac{5}{6}\cdot\dfrac{2n-1}{2n}=\dfrac{(2n)!}{4^n(n!)^2} \end{array} $$ La formule de Stirling nous donne $P(A_n)\underset{n\to \infty}{\backsim}\dfrac{1}{\sqrt{\pi n}}$.
Il est clair que $A_{n+1}\subset A_{n}$ donc la probabilité que le jeu dure à l'infinie est: $$P(\bigcap_{n\in \N^*}A_n)=\lim_{n\to \infty}P(A_n)=0.$$


Reprendre l'exercice 7, mais au lieu d'ajouter deux boules, on ajoute trois boules.
Quelle est la probabilité de $A_n$ et de $A = \bigcap_{n\in \N^*}A_n$?
Écrire un programme Python qui simule ce tirage.