Professional Documents
Culture Documents
TD de Probabilités
Equipe pédagogique :
Cours : Marc Arnaudon (mail : marc.arnaudon@math.univ-poitiers.fr)
TD : Clément Dombry (mail : clement.dombry@math.univ-poitiers.fr)
TP : Anthony Phan (mail : anthony.phan@math.univ-poitiers.fr)
Mode d'emploi :
Ce fascicule contient des séries d'exercices sur les diérents chapitres du cours. Ils ne seront pas
forcément tous traités en TD. Vous êtes invités à chercher à la maison la solution des exercices
avant le TD, à résoudre seuls les exercices non traités... N'hésitez pas à me poser des questions
au besoin. Les sujets de partiels et d'examens des deux années précédentes se trouvent à la n
du fascicule et peuvent servir d'entrainement lors de vos révisions.
Contenu :
5. Vecteurs gaussiens,
6. Convergence en loi,
7. Annales.
1 Base des probabilités
1. Rappeler la dénition d'espace probabilisé, de variable (ou vecteur) aléatoire, de loi d'une
variable aléatoire, d'espérance d'une variable intégrable.
1. Proposer un espace probabilisé modélisant le lancer de deux dés non pipés indépendants.
Dénisser pour i = 1, 2 une variable aléatoire Xi représentant le résultat du i-ème dé ?
3. Montrer que les événements X1 est pair et la somme X1 + X2 est paire sont indépen-
dants.
n
1X
X̄n = Xi
n i=1
n
1 X
Sn2 = (Xi − X̄n )2
n − 1 i=1
Exercice 1.6 (Vecteur aléatoire donné par ses lois conditionnelles - partiel Mars 2008)
Soit X, Y, Z trois variables aléatoires réelles telles que
X a une loi uniforme sur [0, 1],
sachant que X = x ∈ [0, 1], Y admet une densité conditionnelle fY |X=x donnée par
3. On appelle fonction indicatrice d'Euler la fonction φ dénie sur les entiers naturels dont
la valeur φ(n) est égale au nombre d'entiers non nuls inférieurs à n et premiers avec n.
Montrer que
Y 1
φ(n) = n (1 − ).
p diviseur premier de n
p
1. En utilisant les propriétés de la fonction de répartition F , montrer que pour tout u ∈]0, 1[,
l'ensemble
Du = {x ∈ R | F (x) ≥ u}
est non vide, minoré (si bien que F −1 (u) est bien déni), puis que
Du = [F −1 (u), +∞[.
2. En déduire que pour tout x∈R et u ∈]0, 1[, u ≤ F (x) si et seulement si F −1 (u) ≤ x.
3. En déduire que si U suit une loi uniforme sur [0, 1], alors F −1 (U ) suit la loi µ.
4. En utilisant la méthode d'inversion, expliquer comment simuler la loi de Bernouilli, la loi
géométrique, la loi uniforme sur {1, · · · , n}, la loi exponentielle.
5. Cette méthode est elle ecace pour simuler la loi binomiale, la loi de Poisson, la loi de
Gauss ?
Exercice 1.9 (Simulation de loi gaussienne par la méthode polaire ou de Box-Muller)
Montrer que si U, V sont
√ deux variables aléatoires indépendantes
√ et de loi uniforme sur [0, 1],
alors les variables X = −2 log U cos(2πV ) et Y = −2 log U sin(2πV ) sont gaussiennes stan-
dards et indépendantes.
xn−1 −x
fn (x) = e 1x≥0 .
(n − 1)!
4. Conclure.
1) Montrer que
Var(X) = E[Var(X|G)] + Var(E[X|G]).
On pourra utiliser l'interprétation de l'espérance comme projecteur orthogonal dans le cas L2 .
Exercice 2.3 (question de cours - conditionnement discret)
SoitX et Y deux variables aléatoires dénies sur un espace probabilisé (Ω, F, P). On suppose
que Y est intégrable et que X est une variable aléatoire discrète prenant les valeurs xi , i ≥ 1.
Explicitez la loi conditionnelle de Y sachant X = x ainsi que l'espérance conditionnelle E(Y |X).
(n+1) (n+1)
Zn+1 = X1 + . . . + XZn .
1) En utilisant l'exercice précédant, calculer E(Zn+1 ) en fonction de E(Zn ), puis E(Zn ) en fonc-
tion de n.
2) De manière analogue, calculer la variance de Zn en fonction de n.
(
f(X,Y ) (x,y)
si fY (y) 6= 0
fX|Y (x, y) = fY (y) .
0 sinon
R
Soit h une fonction borélienne sur R telle que E(|h(X)|) < ∞. Posons g(y) = h(x)fX|Y (x, y)dx.
1) Montrer que g(Y ) est une version de E(h(X)|Y ).
2) Expliciter la loi conditionnelle de X sachant Y .
alors la suite de variable aléatoire (Xi )i≥1 converge presque surement vers X .
p
2) Montrer que la convergence L , p ≥ 1 implique la convergence en probabilité.
3) Montrer que si E[Xn ] → m et Var(Xn ) → 0 lorsque n → ∞, alors Xn converge vers m dans
2
L .
n
1X
X̄n = Xi
n i=1
converge presque surement vers µ lorsque X tend n tend vers l'inni. On dit que la suite
d'estimateurs (X̄n )n≥1 est fortement consistante.
2) On suppose les Xi de carré intégrables, et on note σ 2 leur variance. Montrer que
n
1 X
Sn2 = (Xi − X̄n )2
n − 1 i=1
dénit une suite d'estimateurs fortement consistante pour σ 2 . Montrer également que X̄n converge
2
vers µ dans L .
1) Montrer que (Sn )n≥1 converge presque surement vers une variable aléatoire S .
−n
2) Montrer que (Sn )n≥1 suit une loi uniforme sur {k2 , 0 ≤ k ≤ 2−n − 1}.
3) En déduire la loi de S .
n2 − 1 avec probabilité n−2 ,
Xn = .
−1 avec probabilité 1 − n−2
Sn
Montrer que E[Xn ] = 0 pour tout n, mais si Sn = X1 + · · · + Xn , alors → −1, p.s.
n
4 Fonctions caractéristiques
2) Si de plus X et Y ont même loi normale N (0, 1), déterminer la fonction ϕXY .
3) Soient X1 , X2 , X3 , X4 des variables aléatoires réelles indépendantes, de loi normale N (0, 1).
Montrer que X1 X2 +X3 X4 suit une loi de Laplace et que |X1 X2 +X3 X4 | suit une loi exponentielle
E(1) de paramètre 1.
X = aU + bV, Y = cU + dV.
1) Calculer la fonction caractéristique ϕ(X,Y ) de la variable aléatoire (X, Y ) et en déduire que
X et Y ne sont pas indépendantes.
2) Calculer la fonction caractéristique ϕX+Y de X +Y et en déduire l'égalité des lois PX+Y =
PX ∗ PY .
n
X (it)k (it)n
ϕX (t) = E[X k ] + εn (t),
k=0
k! n!
5 Vecteurs gaussiens
1. Rappeler la dénition d'un vecteur gaussien et redémontrer que la loi d'un vecteur gaussien
est caractérisée par sa moyenne et son autocovariance.
2. Caractériser la loi de l'image d'un vecteur gaussien par une application linéaire.
Exercice 5.2 (un vecteur non gaussien dont les marginales sont gaussiennes)
Soient X une v.a.r. de loi gaussienne centrée et réduite et Z une v.a.r., indépendante de X,
uniformément distribuée sur {−1, 1}.
1. Vérier que ZX est gaussienne.
2. En considérant la somme X + ZX , montrer que le couple (X, ZX) n'est pas gaussien.
3. Montrer que X et ZX ne sont pas indépendantes bien que leur covariance soit nulle.
n
X
B0 = 0 , ∀n ≥ 1, Bn = Xk .
k=1
1. On désigne par U une matrice orthogonale de taille n. Montrer que UX suit la même loi
que X.
2. On considère a1 , · · · , an une base orthonormale. Montrer que les v.a. < a1 , X >, · · · , <
an , X > sont indépendantes et identiquement distribuées de loi gaussienne centrée réduite.
n
3. On considère P1 , · · · , P` des projecteurs orthogonaux de R associés à une décomposi-
n
tion de R en somme (orthogonale) de sous-espaces E1 , · · · , E` . Montrer que les vec-
2
teurs P1 X, · · · , P2 X sont indépendants et que, pour tout 1 ≤ i ≤ n, ||P iX|| suit une
2
loi χ (dim(Ei)).
Exercice 5.5 (loi des estimateurs de la moyenne de de la variance)
t
Soit X un vecteur gaussien de dimension n, de moyenne (m, · · · , m) et de matrice de covariance
2 −1
Pn 2
Pn 2 −1 2
égale à σ In . On pose X̄ = n i=1 Xi et S = i=1 (Xi − X̄) . Montrer que X̄ ∼ N (m, n σ ),
−2 2 2 2 2
σ S ∼ χ (n − 1) et que X̄ et S sont indépendantes. En déduire E(X̄) et E(S ).
2 1 1
K = 1 2 2 .
1 2 2
3. Montrer qu'il existe un endomorphisme f de R3 tel que f (X, Y, Z) ait pour matrice de
covariance
1 0 0
K̃ = 0 1 0 .
0 0 0
4/3 −1
A= .
−1 1
1. Montrer que si n > 1 t(n) a un moment d'ordre 1 et que si n > 2 t(n) a un moment
d'ordre 2, et les déterminer.
− n+1
1 Γ( n+1 t2
2
) 2
√ n 1+
nπ Γ( 2 ) n
6 Convergence en loi
L L Xn L X
(a) Xn + Yn −→ X + c, (b) Xn Yn −→ cX, et (c) −→ si c 6= 0.
Yn c
α
P(N ≤ z1− α2 ) = 1 −
2
avec N variable normale standard. Lorsque α = 0, 05 on a z1− α2 ≈ 1, 96.
1. Montrer l'égalité des événements
X̄ − m
n n
{m ∈ IC1−α } = q ≤ z1− α .
2
2
Sn
n
2. Montrer la convergence en loi
X̄n − m
q =⇒ N (0, 1).
2
Sn
n
3. En déduire que
n
P(m ∈ IC1−α ) → 1 − α.
n
On dit que IC1−α est un intervalle de conance de niveau 1−α de la moyenne m.
n t
nk nk e−n
Z
−n
X 1 X 1 2 /2
(a) lim e = et (b) lim =√ e−x dx.
n→∞
k=0
k! 2 n→∞ √ k! 2π −∞
0≤k≤n+t n
Indication : considérer une suite (Xn )n≥1 de variables aléatoires indépendantes de loi de Poisson
de paramètre λ = 1.
Exercice 6.13 (théorème central limite pour une somme d'un nombre aléatoire de variables
aléatoires)
Soit (Xn )n≥1 une suite de variables aléatoires indépendantes de même loi, centrées, de variance
σ 2 . On pose Sn = X1 + · · · + Xn . Soit (Nn )n≥1 une suite de variables aléatoires à valeurs dans
N∗ , indépendantes de la suite (Xn ). Montrer que si Nn → +∞ p.s. quand n → ∞, alors la suite
SN
Zn = √ n
Nn
converge en loi vers une variable aléatoire que l'on déterminera.
Nn − log n
√
log n
7 Annales