next up previous contents index
suivant: Moyenne et variance empirique monter: Les théorèmes de statistique précédent: Théorème de Bienaymé-Tchebychef   Table des matières   Index

Loi des grands nombres

Notation
On note ici $\displaystyle \bar{X}_{n}^{}$ = $\displaystyle {\frac{{X_1+X_2+..+X_n}}{{n}}}$ pour bien faire ressortir que $ \bar{X}$ dépend de n, mais quelquefois dans la suite on écrira simplement : $\displaystyle \bar{X}$ = $\displaystyle {\frac{{X_1+X_2+..+X_n}}{{n}}}$ pour ne pas alourdir les notations.

Loi faible des grands nombres :
Soient X1, X2,.., Xn des variables aléatoires indépendantes de moyenne $ \mu_{1}^{}$, $ \mu_{2}^{}$,.., $ \mu_{n}^{}$ et d'écart-type $ \sigma_{1}^{}$, $ \sigma_{2}^{}$,.., $ \sigma_{n}^{}$.
Si quand n tend vers l'infini $ {\frac{{1}}{{n}}}$$ \sum_{{j=1}}^{n}$$ \mu_{j}^{}$ tend vers $ \mu$ et,
si quand n tend vers l'infini $ {\frac{{1}}{{n^2}}}$$ \sum_{{j=1}}^{n}$$ \sigma_{j}^{2}$ tend vers 0,
alors $\displaystyle \bar{X}_{n}^{}$ = $\displaystyle {\frac{{X_1+X_2+..+X_n}}{{n}}}$ converge en probabilité vers $ \mu$ quand n tend vers l'infini (i.e. pour tout $ \epsilon$ et pour tout $ \eta$ il existe n0 tel que pour tout n > n0 on a Proba(|$ \bar{X}_{n}^{}$ - $ \mu$| > $ \epsilon$) < $ \eta$).
Cas des échantillons :
Si X1,X2,..,Xn sont un échantillon de X de moyenne $ \mu$ et décart-type $ \sigma$, on a $ \mu_{1}^{}$ = $ \mu_{2}^{}$ = .. = $ \mu_{n}^{}$ = $ \mu$ et $ \sigma_{1}^{}$ = $ \sigma_{2}^{}$ = .. = $ \sigma_{n}^{}$ = $ \sigma$. Donc $ {\frac{{1}}{{n}}}$$ \sum_{{j=1}}^{n}$$ \mu_{j}^{}$ = $ \mu$ et quand n tend vers l'infini $ {\frac{{1}}{{n^2}}}$$ \sum_{{j=1}}^{n}$$ \sigma_{j}^{2}$ = $ {\frac{{\sigma^2}}{{n}}}$ tend vers 0 ce qui montre que la variable aléatoire
$\displaystyle \bar{X}_{n}^{}$ = $\displaystyle {\frac{{X_1+X_2+..+X_n}}{{n}}}$ converge en probabilité vers $ \mu$ quand n tend vers l'infini.

Loi forte des grands nombres :
Soient X1, X2,.., Xn des variables aléatoires indépendantes de moyenne $ \mu_{1}^{}$, $ \mu_{2}^{}$,.., $ \mu_{n}^{}$ et d'écart-type $ \sigma_{1}^{}$, $ \sigma_{2}^{}$ ,.., $ \sigma_{n}^{}$.
Si quand n tend vers l'infini $ {\frac{{1}}{{n}}}$$ \sum_{{j=1}}^{n}$$ \mu_{j}^{}$ tend vers $ \mu$ et,
si $ \sum_{{j=1}}^{\infty}$$ {\frac{{\sigma_j^2}}{{j^2}}}$ est convergente,
alors $\displaystyle \bar{X}_{n}^{}$ = $\displaystyle {\frac{{X_1+X_2+..+X_n}}{{n}}}$ converge presque sûrement vers $ \mu$ quand n tend vers l'infini (i.e. dire que Yn converge presque sûrement vers U c'est dire que l'ensemble des points de divergene est de probabilité nulle i.e.
Proba($ \omega$,$ \lim_{{n \rightarrow +\infty}}^{}$(Yn($ \omega$) $ \neq$ U($ \omega$)) = 0).
Cas des échantillons :
Si X1,X2,..,Xn sont un échantillon de X de moyenne $ \mu$ et décart-type $ \sigma$, on a $ \mu_{1}^{}$ = $ \mu_{2}^{}$ = .. = $ \mu_{n}^{}$ = $ \mu$ et $ \sigma_{1}^{}$ = $ \sigma_{2}^{}$ = .. = $ \sigma_{n}^{}$ = $ \sigma$.
Donc $ {\frac{{1}}{{n}}}$$ \sum_{{j=1}}^{n}$$ \mu_{j}^{}$ = $ \mu$ et $\displaystyle \sum_{{j=1}}^{\infty}$$\displaystyle {\frac{{\sigma^2}}{{j^2}}}$ = $\displaystyle \sigma^{2}_{}$$\displaystyle \sum_{{j=1}}^{\infty}$$\displaystyle {\frac{{1}}{{j^2}}}$ est convergente ce qui montre que :
$\displaystyle \bar{X}_{n}^{}$ = $\displaystyle {\frac{{X_1+X_2+..+X_n}}{{n}}}$ converge presque sûrement vers $ \mu$ quand n tend vers l'infini.

Le théorème central-limite :
Quand n tend vers l'infini, alors
$\displaystyle \bar{Y}_{n}^{}$ = $\displaystyle \sqrt{n}$$\displaystyle {\frac{{(\bar X_n-\mu)}}{{\sigma}}}$ converge en loi vers U variable aléatoire qui suit la loi normale centrée réduite (dire que Yn converge en loi vers U $ \in$ $ \mathcal {N}$(0, 1) veut dire que si F est la fonction de répartition de la loi normale centrée réduite et si Fn est la fonction de répartition de Yn alors pour tout x $ \in$ $ \mathbb {R}$, Fn(x) tend vers F(x) quand n tend vers l'infini).


next up previous contents index
suivant: Moyenne et variance empirique monter: Les théorèmes de statistique précédent: Théorème de Bienaymé-Tchebychef   Table des matières   Index
Documentation de giac écrite par Renée De Graeve