next up previous contents index
suivant: En résumé monter: Les théorèmes de statistique précédent: Étude de   Table des matières   Index


Estimateur de $ \sigma^{2}_{}$

On appelle estimateur de $ \sigma^{2}_{}$, une variable aléatoire Vn fonction d'un échantillon X1,X2,..,Xn qui vérifie :
$ \lim_{{n->\infty}}^{}$E(Vn) = $ \sigma^{2}_{}$ et $ \lim_{{n->\infty}}^{}$$ \sigma^{2}_{}$(Vn) = 0
On dit que Vn est un estimateur sans biais de $ \sigma^{2}_{}$ si c'est un estimateur de $ \sigma^{2}_{}$ qui vérifie E(Vn) = $ \sigma^{2}_{}$.
Théorème
Z2 = $\displaystyle {\frac{{(X_1-\mu)^2+..+(X_n-\mu)^2}}{{n}}}$ est un estimateur sans biais de $ \sigma^{2}_{}$.
S2 = $\displaystyle {\frac{{(X_1-\bar X)^2+..+(X_n-\bar X)^2}}{{n}}}$ est un estimateur de $ \sigma^{2}_{}$.
$\displaystyle {\frac{{n}}{{n-1}}}$S2 = $\displaystyle {\frac{{(X_1-\bar X)^2+..+(X_n-\bar X)^2}}{{n-1}}}$ est un estimateur sans biais de $ \sigma^{2}_{}$.
En effet :
Pour S2 cela découle des théorèmes précédents.
Pour Z2 on a :
E(Z2) = $ {\frac{{1}}{{n}}}$$ \sum_{{j=1}}^{n}$E((Xj - $ \mu$)2) = $ {\frac{{1}}{{n}}}$n$ \sigma^{2}_{}$ = $ \sigma^{2}_{}$
et puisque $ \sigma^{2}_{}$(X - $ \mu$)2 = E((X - $ \mu$)4) - ($ \sigma^{2}_{}$)2 = $ \mu_{4}^{}$ - ($ \sigma^{2}_{}$)2 on a :
$ \sigma^{2}_{}$(Z2) = $ {\frac{{1}}{{n}}}$($ \mu_{4}^{}$ - ($ \sigma^{2}_{}$)2) (où $ \mu_{4}^{}$ = E((X - $ \mu$)4) est le moment centré d'ordre 4).
Remarque :
À partir des valeurs x1, x2,.., xn de l'échantillon, on utilisera lorsqu'on connait $ \mu$, $\displaystyle {\frac{{(x_1-\mu)^2+(x_2-\mu)^2+..+(x_n-\mu)^2}}{{n}}}$ comme estimateur de $ \sigma^{2}_{}$ et si $ \mu$ est inconnu on utilisera comme estimateur de $ \sigma^{2}_{}$ $\displaystyle {\frac{{(x_1-m)^2+(x_2-m)^2+..+(x_n-m)^2}}{{n-1}}}$ avec m = $\displaystyle {\frac{{x_1+x_2+..+x_n}}{{n}}}$.

Documentation de giac écrite par Renée De Graeve