Les lois de probabilités sont des objets mathématiques qui permettent
aux statisticiens de fabriquer des modéles pour décrire des phénomènes
où le hasard intervient.
Une loi de probabilité est une distribution théorique de fréquences.
Soit Ω un ensemble muni d’une probabilité P. Une variable
aléatoire X est une application définie sur Ω dans ℝ.
X permet de transporter la loi P en la loi P’ définie sur
Ω′=X(Ω) : on a P′(xj)=P(X−1(xj))=P(X=xj).
La loi P′ est appelée loi de X.
Une variable aléatoire discréte X est une application dont la valeur est
la valeur du caractère étudié, c’est à dire le résultat d’une
épreuve.
Si X prend n valeurs x1,...x−n, on définit :
Les n valeurs observées du caractère forment un échantillon de X
d’ordre n : on dira que ces n valeurs sont les valeurs de n variables
aléatoires X1,X2,...,Xn qui suivent la même loi que X.
Par exemple, lorsqu’on lance un dé, on peut définir la variable aléatoire
X qui est égale à la valeur de la face visible, donc X vaut 1 ou 2
ou ... 6.
Il y a trop de paramètres en jeu pour pouvoir déterminer le résultat
du lancer d’un dé, mais à chaque lancer la valeur de X est définie.
Attention
Ce n’est pas parce que deux variables aléatoires suivent la
même loi qu’elles sont égales. Par exemple, je lance deux dés, un rouge
et un vert : la variable X1 égale à la face visible du dé rouge et la
variable X2 égale à la face visible du dé vert suivent toutes les deux
une loi équirépartie de probabilité p=1/6 sur
{1,2,3,4,5,6}.
La loi équirépartie P sur un ensemble Ω à k éléments
ω0,ω1,ωk−1 est définie par : P(ωj)=1/k pour
tout j=0 .. k−1.
Choisir un élément de Ω selon la loi équirépartie P, c’est
choisir au hasard un élément de Ω.
La variable aléatoire X suit une loi équirépartie si :
X a pour valeurs x0,x1,xk−1 et si P(X=xj)=1/k pour tout
j=0 .. (k−1).
On a :
µ=E(X)=1/k∑j=0k−1xj
σ2=σ2(X)=1/k∑j=0k−1xj2−µ2
La variable aléatoire X suit une loi de Bernouilli de probabilité
p, si X vaut
1 ou 0 avec les probabilités respectives p et 1−p.
On a alors :
E(X)=p,
E(X2)=p,
σ(X)=√p(1−p).
Si la variable aléatoire X
suit une loi binomiale B(n,p), cela veut dire que X est
égale au nombre de succès obtenus dans une série de n épreuves de
Bernouilli de probabilité p. La variable aléatoire X peut donc prendre
n+1 valeurs : 0,1,...,n.
La loi binomiale B(n,p) est
la somme de n variables de Bernouilli indépendantes.
On a :
Proba(X=k)=Cnk pk(1-p)n-k, pour 0 ≤ k ≤ n,
E(X)=np,
σ(X)=√np(1−p).
Exercice
On fabrique des pièces et on suppose que la probabilité pour qu’une
pièce soit défectueuse est p=0.05 et donc il y a un contrôle de
ces pièces.
Soit X la variable alèatoire égale au nombre de défectueuses
trouvées lors d’un contrôle de n=1000 pièces
Déterminer la loi de X ainsi que son espérance et son écart-type.
Ici X suit une loi binomiale B(n,p) de probabilité p.
E(X)=np=50
σ(X)=√np(1−p)=6.89202437604
Si la variable aléatoire Y
suit la loi, dite loi des fréquences, cela veut dire que Y est
égale à la fréquence des succès obtenus dans une série de n
épreuves de Bernouilli de probabilité p. La variable aléatoire Y peut
donc prendre n+1 valeurs : 0,1/n,2/n...,n/n avec les probabilités :
p0=(1−p)n,p−1=comb(n,1)p(1−p)n−1,p−2=comb(n,2)p2(1−p)n−2,...pn.
On a :
Proba(Y=k/n)=Cnk pk(1-p)n-k, pour 0 ≤ k ≤ n,
E(Y)=p,
σ(Y)=√p(1−p)/n.
On dit que la variable aléatoire X suit une loi géométrique de
probabilité p, si X est égale au nombre de tirages à effectuer pour
avoir un succès dans une série d’épreuves de Bernouilli de probabilité
p. La variable aléatoire X peut donc prendre toutes les valeurs
entières : 1,..,n,...
On a donc :
Proba(X=1)=p
Proba(X=2)=(1−p)p
.....
Proba(X=n)=(1−p)n−1p
.....
On vérifie que l’on a bien :∑j=1+∞(1−p)k−1p=1
Donc :
F(1)=p
F(n)=∑k=1n(1−p)k−1p=1−(1−p)n
Espérance
E(X)= |
| n(1−p)n−1p= |
|
Variance et Ecart type
V(X)= |
| (n−1/p)2(1−p)n−1p= |
|
σ(X)= |
|
Exercice
On fabrique des pièces et on suppose que la probabilité pour qu’une
pièce soit défectueuse est p=0.05 et donc il y a un contrôle de
ces pièces.
Soit X la variable alèatoire égale à la valeur du nombre de contrôles
effectués pour trouver une pièce défectueuse.
Déterminer la loi de X ainsi que son espérance et son écart-type.
Ici X suit une loi géométrique de probabilité p=0.05.
E(X)=1/p=20
σ(X)=√1−p/p=19.4935886896
La loi binomiale négative est une distribution de probabilité
discrète. Elle dépend de 2 paramètres : un entier n (le nombre de
succès attendus) et un réel p de ]0,1[ (la probabilité d’un succés).
On la note NegBin(n,p).
Elle permet de décrire la situation suivante : on fait une suite de tirages
indépendants (avec pour chaque tirage, la probabilité p d’avoir un
succès) jusqu’à obtenir n succès.
La variable aléatoire représentant le nombre d’échecs qu’il a fallut avant
d’avoir n succès, suit alors une loi binomiale négative.
Si on définit comb(n,k) pour n<0 par comb(n,k)=n*(n-1)*..*(n-k-1)/k!, alors
Si X ∈ NegBin(n,p) (n ∈ ℕ et p ∈ ]0;1[) alors
Proba(X=k)=pn*(p-1)k*comb(-n,k)
ce qui justifie le nom de loi binomiale négative et qui facilite le calcul de
l’espérance (égale à n(1−p)/p) et de la variance (égale à
n(1−p)/p2).
On tape :
On obtient :
La variable aléatoire X suit une loi de Poisson P(λ)
de paramètre λ (λ ≥ 0) si :
- X a pour valeurs les entiers naturels,
- Prob(X=k)=e−λλk/k!, pour k∈ ℕ.
On a :
E(X)=λ
σ(X)=√λ
Exercice 1
Soit une variable aléatoire X qui vérifie pour λ ≥ 0 et pour
tout entier n ≥ 1 :
Prob(X=n)=λ/nProb(X=n−1)
Montrer que X suit une loi de Poisson.
On cherche pour k entier strictement positif :
Prob(X=k)=λ/kProb(X=k−1)=...
λk/(k)!Prob(X=0).
Donc :
Prob(X=k)= |
| Prob(X=0) |
On tape :
sum(lambda^
k/k!,k=0..inf)
On obtient :
exp(lambda)
On doit avoir :
∑k=0+∞Prob(X=k)=1
Donc on a le relation :
Prob(X=0)*∑k=0+∞λk/k!=exp(λ)*Prob(X=0)=1
c’est à dire :
Prob(X=0)=exp(−λ)
Donc on a bien :
Prob(X=k)=e−λλk/k!, pour k∈ ℕ
Exercice 2
Soient X et Y deux variables aléatoires indépendantes qui suivent une
loi de Poisson :
X suit une loi de Poisson
P(λ1) de paramètre λ1 (λ1 ≥ 0) et
Y suit une loi de Poisson
P(λ2) de paramètre λ2 (λ2 ≥ 0).
Déterminer la loi de la variable aléatoire Z=X+Y.
On a :
Prob(X=k)=e−λ1λ1k/k!, pour k∈ ℕ
Prob(X=k)=e−λ2λ2k/k!, pour k∈ ℕ
Donc :
Prob(Z=n)=Prob(X+Y=n)=∑k=0nProb(X=k)*Prob(Y=n−k)=∑k=0ne−λ1λ1k/k!*e−λ2λ2n−k/(n−k)!
On sait que :
(λ1+λ2)n=∑k=0nλ1kλ2n−kn!/k!(n−k)!
Donc :
Prob(Z=n)=e−(λ1+λ2)(λ1+λ2)n/n!
Donc Z suit une loi de Poisson de paramètre λ1+λ2.
Variable aléatoire absolument continue
Une variable aléatoire X est absolument continue si il existe f(x) telle
que sa fonction de répartition F(x) est égale à :
Prob(X≤ x)=F(x)= | ∫ |
| f(t)dt |
Densité de probabilité
La fonction f(x) est appelée densite de probabilité et on a :
f(x)=F′(x) |
Espérance mathématique
L’espérance mathématique ou moyenne de x est :
E(X)= |
| = | ∫ |
| t*f(t)dt |
Variance et Ecart type
La variance de X est :
V(X)= | ∫ |
| (t−E(X))2f(t)dt |
L’ecart type de X est :
σ(X)= | √ |
|
Définition
On dit que la variable aléatoire X suit une loi uniforme sur un segment
[a,b] si sa densité de probabilité f(x) est une constante C sur
[a,b] et est nulle en dehors du segment [a,b].
On a donc :
C=1/b−a puisque ∫abCdt=1
F(x)=0 pour x<a
F(x)=x−a/b−a pour a≤ x<b
F(x)=1 pour x≥ b
Espérance
E(X)= |
| ∫ |
| tdt= |
|
Variance et Ecart type
V(X)= |
| ∫ |
| (2t−a−b)2dt= |
|
σ(X)= |
|
Exercice
Soient n variables aléatoires indépendantes Uk qui suivent une loi
uniforme sur [0,1].
On considère les variables X=Max(Uk) et Y=Min(Uk).
Déterminer les fonctions de répartition de X et Y
Calculer E(X), E(Y), V(X), V(Y).
On a :
Proba(X≤ x)=Proba(U1≤ x) et Proba(U2≤ x)...et Proba(Un≤ x)
Donc puisque les Uk sont indépendantes :
Proba(X≤ x)=Πk=1nProba(Uk≤ x)
Soit :
FX(x)=0 pour x<0
FX(x)=xn pour x∈ [0,1]
FX(x)=1 pour x>1
La densité de probabilités vaut fX(x)=nxn−1 sur [0,1] donc :
E(X)=n∫01xndx=n/n+1
V(X)=n∫01(x−n/(n+1))2xn−1dx=n/n3+4*n2+5*n+2
En effet, on tape :
assume(n>=1)
n*int(1(x-n/(n+1))^
2*x^
(n-1),x=0..1)
On obtient :
n/(n^
3+4*n^
2+5*n+2)
On a :
Proba(Y≤ x)=Proba(U1≤ x) ou Proba(U2≤ x)...ou Proba(Un≤ x)
On sait que :
Proba(Y<x)=1−Proba(Y>x) et
Proba(Uk<x)=0 et Proba(Uk>x)=1 si x<0
Proba(Uk<x)=x et Proba(Uk>x)=1−x si 0<x<1
Proba(Uk<x)=1 et Proba(Uk>x)=0 si x>1
On calcule :
Proba(Y>x)=Proba(U1>x) et Proba(U2>x) et....Proba(Un>x)
Comme les Uk sont independants :
Proba(Y>x)=1 si x<0
Proba(Y>x)=(1−x)n si 0<x<1
Proba(Y>x)=0 si 1<x
Donc :
Proba(Y<x)=1−1=0 si x<0
Proba(Y<x)=1−(1−x)n si 0<x<1
Proba(Y<x)=1−0=1 si x>1
La densité de probabilité est donc :
fY(x)=n(1−x)n−1 sur [0;1] et 0 en dehors de [0;1].
donc :
E(Y)=n∫01x(1−x)n−1dx=1/n+1
V(Y)=n∫01(x−1/(n+1))2(1−x)n−1dx=n/n3+4*n2+5*n+2
En effet, on tape :
assume(n>=1)
n*int(x*(1-x)^
(n-1),x=0..1)
On obtient :
1/(n+1)
On tape :
assume(n>=1)
n*int((x-1/(n+1))^
2*(1-x)^
(n-1),x=0..1)
On obtient :
n/(n^
3+4*n^
2+5*n+2)
Définition
On dit que la variable aléatoire X suit une loi exponentielle si sa
densité de probabilité vaut pour a>0 :
f(x)=aexp(−ax) pour x≥ 0 et
f(x)=0 pour x<0
On a donc :
F(x)=Proba(X≤ x)=a∫0xexp(−at)dt=1−exp(−ax)
Espérance
E(X)=a | ∫ |
| texp(−at)dt= |
|
Variance et Ecart type
V(X)=a | ∫ |
| (t−1/a)2exp(−at)dt= |
|
σ(X)= |
|
La variable aléatoire X suit une loi Normale ou loi de Gauss
de paramètres µ,σ (σ > 0) si :
- X a pour valeurs tous les réels,
- Prob(a ≤ X<b)=∫ab f(t) dt où
f(x)=1/σ√2πe−1/2(x−µ/σ)2 (f est la densité de probabilité et a comme représentation
graphique une courbe en cloche).
On note cette loi N(µ,σ).
On a :
E(X)=µ
σ(X)=σ.
On dit que N(0,1) est la loi normale centrée réduite.
Si X suit la loi N(0,1) alors :
Prob(a ≤ X<b)=∫ab =1/√2πe−t2/2dt
Si X suit la loi N(µ,σ) alors X−µ/σ
suit la loi N(0,1).
On a des tables où on peut lire que :
P(|X−µ|/σ >1.96)=0.05,
P(|X−µ|/σ >2.58)=0.01,
P(|X−µ|/σ >3.1)=0.001,
et on a P(|X−µ|/σ>t)=1−2∫0t f(x)dx.
On montre qu’une loi binomiale B(n,p) peut être approchée :
La distribution des fréquences issues de la répétition d’expériences
identiques et indépendantes varient alors qu’une loi de probabilité
associée à la réalisation d’une expérience est un invariant.
La fréquence d’un élément est calculée à partir de données
expérimentales alors que sa probabilité est calculée mathématiquement
selon le modéle choisi. Les calculs de la statistique consistent à nous
aider à choisir le bon modèle.
Exemple :
On lance 100 fois, une pièce bien équilibrée, et on obtient 48 faces :
la probabilité
de tomber sur "face" est 0.5 alors que la fréquence d’apparition des
"faces" est ici 0.48.
En statistique on étudie la valeur d’un caractère et en en langage
probabiliste on étudie la valeur d’une variable aléatoire.
En statistique on parle de fréquences et en langage probabiliste on parle de
probabilité.
En statistique on parle de moyennes et en en langage probabiliste on parle
d’espérance.
Dans le monde théorique défini par une loi de probabilité P sur un
ensemble Ω,
les fréquences des éléments de Ω dans une suite de n
expériences identiques et indépendantes tendent vers leur probabilité
quand n augmente indéfiniment.
Définition
Soit, deux événements A et B dans un espace de probabilisé.
On dit que les événements A et B sont indépendants si et seulement
si :
Prob(A∩ B)=Prob(A)*Prob(B)
Définition
La probabilité de B sachant A notée ProbA(B) est la
probabilité de B quand A est réalisé.
Théorème
On a :
ProbA(B)= |
|
Exercice
Dans une fabrique de pièces il y a 5% de pièces défectueuses.
Lors des contrôles :
- les pièces bonnes sont refusées avec une probabilité de 4%.
- les pièces défectueuses sont refusées avec une probabilité de 98%.
Calculer pour une pièce :
On a les événements :
A la pièce est acceptée,
R la pièce est refusée,
B la pièce est bonne,
D la pièce est défectueuse.
C la pièce est jugée conforme.
On a les probabilités :
ProbB(R)=0.04
ProbD(R)=0.98
ProbD(A)=0.02
Prob(B)=0.95
Prob(D)=0.05
Une variable aléatoire permet de faire correspondre à un espace
probabilisable Ω, un espace probabilisable d’univers ℝ.
Définitions
Soit (Ω, τ) un espace probabilisable.
On appelle variable aléatoire sur cet espace toute application X de
Ω vers ℝ telle que toute
réunion dénombrables d’intervalles B de ℝ, X−1∈ B.
On appelle fonction de répartition d’une variable aléatoire X la
fonction F de ℝ dans [0,1] par :
F(x)=Prob(X≥ x).
Une variable aléatoire peut être :
discréte et finie (si X(Ω)={x1,x2....xn}) ou,
discréte et infinie (si X(Ω)={x1,x2....xj...}) ou,
absolument continue (si sa fonction de répartition
F(x)=∫−∞xf(t)dt).
La fonction f est
alors appelée densité de probabilité de la variable aléatoire X.
On appelle espérance mathématique (ou moyenne) de la variable aléatoire X, le nombre :
On appelle variance de la variable aléatoire X, le nombre :
On a :
V(X)=E(X2)−E(X)2.
On appelle écart type de la variable aléatoire X, le nombre :
σ(X)=√V(X)
Le processus de Poisson gére les événements qui se produisent
aléatoirement.
On dit que des événements aléatoires suivent un processus de Poisson
de paramètre λ si le nombre d’événements produit dans l’intervalle
t suit une loi de Poisson de paramètre λ t.
Si les intervalles de temps sont disjoints le nombre d’événements produit
dans ces intervalles sont indépendants.
On a donc si N(t) est le nombre d’événements produit dans l’intervalle
t : Proba(N(t)=k)=e−λ t(λ t)k/k! et donc :
Proba(N(t)=0)=e−λ t
On considère les variables aléatoires T1, T2, Tn qui représentent
l’intervalle d’attente entre la production de 2 évenements. T1, T2, Tn
sont indépendantes et suivent une loi exponnentielle de paramètre λ,
en effet :
Proba(T1(t)≤ t)=1−Proba(T1(t)≥ t)=1−Proba(N(t)=0)=1−e−λ t.
Soit Sn la variable aléatoire qui représente le temps d’attente de la
production du n-ième évenement. On a donc :
Sn(t)=T1(t)+T2(t)+...+ Tn(t) et
Proba(Sn(t)≤ t)=Proba (N(t)≥ n)=1−e−λ t∑k=0n−1(λ t)k/k!.
La densité de probabilité fSn(t) de Sn est donc égale à :
fSn(t)=−e−λ t(−λ ∑k=0n−1(λ t)k/k!+λ ∑k=1n−1(λ t)k−1/(k−1)!)
Donc :
fSn(t)=λ e−λ t(λ t)n−1/(n−1)!
Sn suit donc une loi gamma ou loi de Erlang de paramètres n et
λ.
Puisque Sn(t)=T1(t)+T2(t)+...+ Tn(t) et que les Tj sont indépendantes
et suivent la même loi, on a :
E(Sn)=n*E(T1)=n/λ et
V(Sn)=n*V(T1)=n/λ2
On appelle fonction de répartition du couple de variables aléatoires
discrètes (X,Y) sur le même espace probabilisé, la fonction F
définie par :
F(x,y)=Prob((X≥ x)∩ (Y≥ y)).
On appelle loi conjointe du couple de variables aléatoires discrètes
(X,Y), l’application p définie par :
p(xi,yj)=Prob((X=xi)∩ (Y=yj)).
On a donc si xpx≤ x<xpx+1 et yqy≤ y<yqy+1 :
F(x,y)=∑i=1px∑i=1qyp(xi,yj).
On appelle loi de probabilités marginales du couple de variables
aléatoires discrètes (X,Y), les lois de probabilité de X et de Y
i.e. l’application pX définie par :
p(xi)=Prob(X=xi) et
l’application pY définie par :
p(yj)=Prob(Y=yj).
On appelle répartitions marginales du couple de variables aléatoires
discrètes (X,Y), les fonctions de répartition FX pour X et FY
pour Y définies par :
FX(x)=Prob(X≤ x) et
FY(y)=Prob(Y≤ y).
On appelle loi de probabilité conditionnelle de Y sachant que X=xi l’application qui a yj fait correspondre :
|
On appelle fonction de répartition du couple de variables aléatoires
continues (X,Y) sur le même espace probabilisé, la fonction F(X,Y)
définie par :
F(X,Y)(x,y)=∫−∞x(∫−∞yf(X,Y)(u,v)dv)du.
La fonction f(X,Y) est appelée densité de probabilité du couple de
variables aléatoires continues (X,Y).
La probabilité relative à un pavé
D={(x,y)∈ ℝ2 a≤ x ≤ b,c≤ y ≤ d } est :
Prob((X=x et Y=y et (x,y)∈ D ))=∫cd(∫ab f(x,y)dx) dy.
La probabilité relative à un domaine de Borel
D (D est la reunion (ou intersection) dénombrable d’une suite de pavés)
est :
Prob((X=x et Y=y et (x,y)∈ D ))=∫∫D f(x,y)dx dy.
On appelle répartitions marginales du couple de variables aléatoires
continues (X,Y), les fonctions de répartition FX pour X et FY pour Y
définie par :
FX(x)=∫−∞x(∫−∞+∞f(X,Y)(u,v)dv)du et
FY=∫−∞y(∫−∞+∞f(X,Y)(u,v)du)dv.
On appelle densités marginales du couple de variables
aléatoires continues (X,Y), les fonctions fX pour X et fY pour Y
définies par :
fX(x)=∫−∞+∞f(X,Y)(x,y)dy et
fY(y)==∫−∞+∞f(X,Y)(x,y)dx.
On a donc : f(X,Y)(x,y)=∂2F(X,Y)/∂ x ∂ y.
On appelle probabilité conditionnelle de Y sachant que x≤ X≤ x+dx l’application qui a y fait correspondre :
|
On appelle densité conditionnelle de Y sachant que x≤ X≤ x+dx l’application fY/X définie par :
fY/X(y/x)= |
|
Si X et Y sont indépendantes alors f(X,Y)(x,y)=fX(x)* fY(y)
|
^
2+x*y/2,y=0..2),x=0..1)^
2+x*y/2,y=0..2)^
2+x))/7^
2+u,u=0..x)^
3+1/2*x^
2))/7^
2+x*y/2,y=0..x),x=0..1)^
3+1/2*x^
2))/7,x=1/2)^
2+x*y/2,y=1/2..2),x=0..1/2)^
2+x*y/2),y=0..2),x=0..1)^
2+x*y/2),y=0..x),x=0..1)fZ1(z)= | ⎧ ⎪ ⎨ ⎪ ⎩ |
|
^
2,z=0..1)+int(z*(2-z),z=1..2)Calcul de V(Z1) et de σ(Z1)
On a :
V(Z1)=∫−∞+∞(z−1)2fZ1(z)dz=
∫01z(z−1)2dz+∫12(z−1)2(2−z)dz
On tape :
int(z*(z-1)^
2,z=0..1)+int((z-1)^
2*(2-z),z=1..2)
On obtient : 1/6
Donc V(Z1)=1/6 et σ(Z1)=√6/6.
fZ2(z)= | ⎧ ⎨ ⎩ |
|
Calcul de V(Z2) et de σ(Z2)
On a :
V(Z2)=∫−∞+∞(z−1)2fZ1(z)dz=∫01(2−2z)(z−1/3)2dz
On tape :
int((2-2z)*(z-1/3)^
2,z=0..1)
On obtient : 1/18
Donc V(Z2)=1/18 et σ(Z2)=√2/6
fZ3(z)= | ⎧ ⎪ ⎨ ⎪ ⎩ |
|
fZ1(z)= | ⎧ ⎪ ⎨ ⎪ ⎩ |
|
Calcul de V(Z1) et de σ(Z1)
On a :
V(Z1)=∫−∞+∞(z−3/2)2fZ1(z)dz=∫01(z−3/2)2(1−exp(−z))dz+
∫1+∞(z−3/2)2(exp(−z+1)−exp(−z))dz
On tape :
int((z-3/2)^
2*(1-exp(-z)),z=0..1)+
int((z-3/2)^
2*(exp(-z+1)-exp(-z)),z=1..inf)
On obtient : 13/12
Donc V(Z1)=13/12 et σ(Z1)=√13/(2√3).
fZ2(z)= | ⎧ ⎪ ⎨ ⎪ ⎩ |
|
Calcul de V(Z2) et de σ(Z2)
On a :
V(Z2)=∫−∞+∞(z+2exp(−1)−3/2)2fZ1(z)dz
On tape :
normal(int((z+2*exp(-1)-3/2)^
2*(1-exp(-(z+1))+exp(-z)-exp(z-1)),z=0..1)+ int((z+2*exp(-1)-3/2)^
2*(-exp(-1-z)+exp(-z)),z=1..inf))
On obtient : 6*exp(-1)-4*exp(-2)+(-11)/12
Donc V(Z2)=6exp(−1)−4exp(−2)+(−11)/12 et σ(Z2)=√V(Z2)
fZ3(z)= | ⎧ ⎨ ⎩ |
|
Calcul de V(Z3) et de σ(Z3)
On a :
V(Z3)=E(Z32)−(E(Z3))2
E(Z32)=∫0+∞z*(−z*exp(−1/z)+z−exp(−1/z))dz
On tape :
limit(z*(-z*exp(-1/z)+z-exp(-1/z)),z=inf)
On obtient : 1/2
Donc l’intégrale calculant E(Z32) diverge donc on ne peut pas calculer la
variance de Z3.
^
2-y^
2)*exp(-x),y=-x..x),x=0..inf)c= |
|
Prob(Y<y0|X=x)= | ∫ |
|
| dy |
^
2-y^
2)*exp(-x)/int((x^
2-y^
2)*exp(-x),y=-x..x),y=-x..y)^
2*y-y^
3)/(4*x^
3)-(1/-2)