Professional Documents
Culture Documents
Olivier GARET
0 Variables de Bernoulli
0.1 La question de lexistence : de [0, 1] {0, 1}N . .
0.2 De {0, 1}N [0, 1] : o lon a envie des processus
0.3 Ingalits ; lois des grands nombres . . . . . . .
0.4 Variables de Rademacher et sries de Dirichlet .
0.4.1 Une srie de Dirichlet alatoire . . . . .
0.4.2 Comportement au bord . . . . . . . . . .
0.5 Exercices sur les variables de Bernoulli . . . . .
0.5.1 Exercices corrigs . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
1
1
3
4
6
6
7
9
9
.
.
.
.
.
.
.
.
.
11
11
13
13
14
14
15
16
16
16
.
.
.
.
19
19
20
23
26
1 qui-intgrabilit
1.1 Premires proprits . . . . . . . . . . . . .
1.2 Application la convergence dans Lp . . . .
1.3 Une condition susante dqui-intgrabilit
1.4 Une version du lemme de Sche . . . . . .
1.5 Caractrisation par lqui-continuit . . . . .
1.6 qui-intgrabilit dune famille de lois . . .
1.7 Exercices sur lqui-intgrabilit . . . . . . .
1.7.1 Exercices corrigs . . . . . . . . . . .
1.7.2 Exercices non corrigs . . . . . . . .
2 Esprance conditionnelle
2.1 Motivation . . . . . . . . .
2.2 construction . . . . . . . .
2.2.1 Proprits . . . . .
2.2.2 Ingalit de Jensen
.
.
.
.
.
.
.
.
i
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ii
2.3
3 Martingales
3.1 Dfinitions . . . . . . . . . . . . . . . . . . . . .
3.1.1 Filtrations et martingales . . . . . . . .
3.1.2 Dirences de martingales . . . . . . . .
3.1.3 Sous-martingales, sur-martingales . . . .
3.2 Premires ingalits . . . . . . . . . . . . . . . .
3.2.1 Martingales et fonctions convexes . . . .
3.2.2 Ingalit de Kolmogorov . . . . . . . . .
3.3 Convergence des martingales de carr intgrable
3.4 Temps darrts . . . . . . . . . . . . . . . . . .
3.5 Convergence des martingales bornes dans L1 .
3.5.1 Thorme des traverses montantes . . .
3.5.2 Le thorme de convergence de Doob . .
3.5.3 Martingales inverses . . . . . . . . . . .
3.6 Approximation L1 par des martingales . . . . .
3.7 Dcomposition de Doob (*) . . . . . . . . . . .
3.8 Exercices sur les martingales . . . . . . . . . . .
3.8.1 Exercices corrigs . . . . . . . . . . . . .
3.8.2 Exercices non corrigs . . . . . . . . . .
4 Complments de thorie de la mesure
4.1 Rappels de topologie . . . . . . . . . . .
4.1.1 Topologie produit . . . . . . . . .
4.1.2 Espaces polonais . . . . . . . . .
4.2 Notion de loi conditionnelle . . . . . . .
4.2.1 Le thorme gnral . . . . . . .
4.2.2 Loi dun vecteur sachant un autre
4.2.3 chantillonneur de Gibbs . . . .
4.3 Thorme de RadonNikodm . . . . . .
4.4 Exercices sur les complments . . . . . .
4.4.1 Exercices corrigs . . . . . . . . .
4.4.2 Exercices non corrigs . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
(ou un
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
27
27
28
31
31
31
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
35
35
35
36
36
37
37
37
38
40
43
43
45
46
47
49
51
51
53
.
.
.
.
.
.
.
.
.
.
.
57
57
57
58
61
61
65
67
70
73
73
73
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
75
75
76
76
79
80
80
82
82
83
6 Statistiques exhaustives
6.1 Hypothse de domination dominante privilgie
6.2 Thorme de factorisation de Neyman-Fisher . . .
6.3 Amlioration de Rao-Blackwell . . . . . . . . . .
6.4 Statistiques exhaustives minimales . . . . . . . .
6.5 Statistiques compltes . . . . . . . . . . . . . . .
6.6 Modles exponentiels . . . . . . . . . . . . . . . .
6.7 Exercices sur les statistiques exhaustives . . . . .
6.7.1 Exercices corrigs . . . . . . . . . . . . . .
6.7.2 Exercices non corrigs . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
85
86
87
91
91
92
94
96
96
96
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
99
99
101
102
102
103
105
105
105
.
.
.
.
.
.
.
.
107
. 107
. 109
. 111
. 111
. 112
. 114
. 114
. 115
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7 Information de Fisher
7.1 Hypothses . . . . . . . . . . . . . . . . . . .
7.2 Ingalit de Cramer-Rao . . . . . . . . . . . .
7.3 Quelques proprits . . . . . . . . . . . . . . .
7.3.1 Information de Fisher dun produit . .
7.3.2 Information de Fisher dune statistique
7.4 Exercices sur linformation de Fisher . . . . .
7.4.1 Exercices corrigs . . . . . . . . . . . .
7.4.2 Exercices non corrigs . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iv
8.5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9 Chanes de Markov
9.1 Dfinition et caractrisations . . . . . . . . . . . . . .
9.1.1 Dfinition . . . . . . . . . . . . . . . . . . . .
9.1.2 Caractrisation par lesprance conditionnelle
9.1.3 Dynamique markovienne . . . . . . . . . . . .
9.2 Matrice stochastique . . . . . . . . . . . . . . . . . .
9.2.1 Existence des chanes de Markov . . . . . . .
9.2.2 Point de vue fonctionnel (*) . . . . . . . . . .
9.2.3 Puissances des matrices stochastiques . . . . .
9.2.4 Graphe associ une matrice stochastique . .
9.3 Proprit de Markov . . . . . . . . . . . . . . . . . .
9.3.1 Le thorme . . . . . . . . . . . . . . . . . . .
9.3.2 Analyse au premier pas . . . . . . . . . . . . .
9.4 Exercices sur les chanes de Markov . . . . . . . . . .
9.4.1 Exercices corrigs . . . . . . . . . . . . . . . .
9.4.2 Exercices non corrigs . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
123
. 123
. 123
. 123
. 124
. 125
. 125
. 127
. 128
. 129
. 131
. 131
. 132
. 134
. 134
. 134
116
117
117
119
143
. 143
. 146
. 149
. 152
. 155
. 155
. 156
.
.
.
.
159
160
162
164
.
.
.
.
164
167
167
169
sur
sur
sur
sur
sur
sur
sur
sur
sur
sur
sur
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
invariantes
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
invariantes
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
173
. 173
. 173
. 174
. 175
. 177
. 177
. 178
. 179
. 180
. 182
. 184
.
.
.
.
.
.
.
.
.
.
.
187
. 187
. 188
. 191
. 195
. 201
. 202
. 205
. 206
. 209
. 215
. 217
C Problmes
225
C.1 Problme 1 : nombres de Stirling . . . . . . . . . . . . . . . . 225
C.2 Problme 2 : thorme dErds, Feller et Pollard . . . . . . . . 227
C.3 Problme 3 : thorme de De FinettiHewittSavage . . . . . 228
D Solutions des problmes
D.1 Solution du problme 1 . . . . . . . . . . . . . . . . . . . . .
D.2 Solution du problme 2 . . . . . . . . . . . . . . . . . . . . .
D.3 Solution du problme 3 . . . . . . . . . . . . . . . . . . . . .
231
. 231
. 234
. 240
Bibliographie
247
Index
248
vi
Chapitre 0
La premire gorge de
processus : les variables de
Bernoulli
Le premier processus que nous allons tudie est celui form par une
suite de variables de Bernoulli indpendantes. Cest un modle simple, mais
susamment riche pour permettre de voir, ou revoir, un certain nombre de
questions importantes de la thorie des probabilits.
0.1
La premire question est la question de lexistence. Est-on capable de fabriquer un espace probabilis (, F, P) sur lequel vivent une suite de variables
indpendantes ? La rponse, positive, est donne par le thorme suivant :
Thorme 1. Soit g 2 un entier naturel fix.
On considre lespace probabilis (, F, P) = ([0, 1[, B([0, 1[), [0,1[ ).
Soit g 2 un entier. On pose X0g () = . On dfinit les variables Agi
g
et Xig par les rcurrences Xig = {gXi1
} et Agi = gXi . Alors, pour tout
[0, 1[, on a
= X0 () =
i=0
Agi ()
avec Agi {0, 1, . . . , g 1}.
i+1
g
La suite
contient une infinit de termes dirents de g 1 : cest
le dveloppement g-adique de . La suite (Agi )i0 est une suite de variables
alatoires indpendantes suivant la loi uniforme sur {0, . . . , g 1}. En particulier, pour g = 2, (Agi )i0 est une suite de variables alatoires indpendantes
de Bernoulli de paramtre 1/2.
Agi ()
Ai
i=j
g i+1
i=j
Xi Xi+1
i+1
gi
g
Xj
Xn+1
n+1 .
j
g
g
Ai
Soit en faisant tendre n vers linfini : Xgjj = +
i=j g i+1 . En particulier, pour j =
0, on obtient lcriture voulue. Reste voir que Ai ne peut tre constamment
gal j 1 partir dun certain rang. En eet, si on avait Ai = g 1 pour
g1
i > j, on aurait Xj = g j +
i=j g i+1 = 1, ce qui est exclu, car Xj [0, 1[.
On va montrer par rcurrence que pour tout n, on a Hn :
(A0 , . . . , An ) et Xn+1 sont indpendants
(A0 , . . . , An ) suit la loi uniforme sur {0, . . . , g 1}n+1
Xn+1 suit la loi uniforme sur [0, 1].
Notons dabord que pour tout n 1, on a
= {gXn1 J + bn } = Xn1
J + bn
Ainsi pour n = 1, on a
P(A0 = g0 , X1 J) = P(Xn1
J + bn
J + bn
1
) = (
) = (J),
g
g
g
ce qui montre que H0 est vraie. Ensuite, on procde par rcurrence : Comme
{A0 = b0 , . . . , An = bn , An+1 = bn+1 , Xn+1 J}
J + bn+1
= {A0 = b0 , . . . , An = bn , Xn
},
g
lhypothse de rcurrence nous donne
P(A0 = b0 , . . . , An = bn , An+1 = bn+1 , Xn+1 J)
J + bn
= P(A0 = b0 , . . . , An = bn )P(Xn
)
g
1
J + bn
1 1
= n+1 (
) = n (J)
g
g
g g
1
= n+2 (J)
g
0.2
Yi
alatoire V dfinie par V = +
i=0 2i+1 suit la loi uniforme sur [0, 1]
Dmonstration. La convergence de la srie est vidente. Il sut donc de
n1 xi
n1 Yi
caractriser la loi de V . Notons n (x0 , . . . , xn ) = i=0
et Vn = i=0
.
2i+1
2i+1
n
Comme Vn = n ((X0 , . . . , Xn1 )), si on note n = ber(1/2) et n la loi de
Vn , comme n est la loi de (X0 , . . . , Xn1 ), on peut dire que n est la loi
image de n par n .
n1 A2i
Revenons la suite de la section prcdente : si lon pose Sn = i=0
,
2i+1
2
n
de sorte que Sn = n (A0 , . . . , Ag ). Comme n est la loi de (X0 , . . . , Xn1 ), la
loi de Sn sous [0,1[ est galement n : pour toute fonction continue borne
[0,1]
[0,1]
f (x) dn (x).
Nous savons que Sn () tend vers pour tout [0, 1[. La convergence
presque sre entrane la convergence en loi, donc
limn+
[0,1]
soit
limn+
[0,1]
f (x) d(x),
[0,1]
f () dn () =
f (x) d(x),
[0,1]
i=0
xi
2i+1
est U [0, 1]. Or, la loi de (Yn )n1 est ber(1/2)N , donc V = ((Xn )n0 est
U [0, 1]. Ce genre de raisonnement sera facile avec la notion de loi dun processus, que nous verrons au chapitre 8.
Mais ds prsent, nous pouvons en donner comme consquence le rsultat suivant :
Thorme 3. Sur (, F, P) = ([0, 1[, B([0, 1[), [0,1[ ), on peut faire vivre une
suite de variables indpendantes suivant la loi uniforme sur [0, 1].
+
0.3
i=0
A2
(2j+1)2i
2i
et dappliquer conscu-
x2
P(|Sn ESn | > x) 2 exp
.
2n
Dmonstration. Rappelons lingalit de Hoeding (voir par exemple Garet
Kurtzmann, page 346)
Proposition 1. Soit (Xn )n une suite de variables alatoires relles indpendantes. Supposons quil existe deux suites de rels (an )n0 et (bn )n0 telles
que, pour tout n 0, an < bn et
P(an Xn bn ) = 1.
Posons Sn = X1 + . . . + Xn . On a alors pour tout x > 0 et tout n 0 :
{
2x2
P(|Sn ESn | > x) 2 exp n
.
2
i=1 (bi ai )
Ici, on peut prendre les bornes an = 1 et bn = 1, ce qui nous donne
P(|Sn | > x) 2 exp(
2x2
).
4n
EeSn
(Eec1 )n
=
.
ex
ex
+
2k
2
2k
=
exp(
),
k k!
(2k)!
2
2
k=0
k=0
+
do
2
.
2
Il faut videmment rendre fn,x () maximal, ce qui est facile puisque cest un
polynme du second degr : on prend = x/n, do
P(|Sn | > x) 2 exp(fn,x ()) avec fn,x () = x n
x2
).
2n
n2
).
2
0.4
0.4.1
ck
k=1
k +
=
=
(sk sk1 )
k=1
n
k=1
sk
1
k +
1
k +
n1
k=0
sk
1
(k + 1)+
n1
sn
1
1
+
sk ( +
)
+
n
k
(k + 1)+
k=1
1. Vous avez sans doute dj rencontr le cas o = 0 et cn = ein avec non congru
0 modulo 2.
ck
sn
Comme limn+ n+
= 0, la srie de terme gnral k+
est de mme nature
1
1
que la srie de terme gnral sk ( k+ (k+1)+ ). Montrons que cette dernire
converge absolument. Daprs lingalit des accroissements finis, on a
1
k +
1
+
| ++1 .
+
(k + 1)
k
1
k +
1
M ( + )
)|
,
(k + 1)+
k 1+
0.4.2
Comportement au bord
cn
s > 1/2, (s) = +
n=0 ns . Alors, on a la convergence en loi
1
2h ( + h) = N (0, 1) quand h tend vers 0 par valeurs positives
2
cn
Dmonstration. Posons SN (s) = N
n=0 ns . La fonction caractristique de
N
SN (s) vaut t 7 n=0 cos( nts ). Comme eitSn (s) converge presque srement
(s) (t) =
n=0
cos(
t
),
ns
do
(1/2+h) (t) =
(1+2h)
cos(
n=0
t(1 + 2h)1/2
)
n1/2+h
Par ailleurs
+
t2
t2 (1 + 2h)1
exp( ) =
)
exp(
2
2
n1+2h
n=0
On en dduit
+
t2
t2 (1 + 2h)1
t(1 + 2h)1/2
| (1/2+h) (t)exp( )|
| cos(
)exp(
)|.
2
n1/2+h
2
n1+2h
(1+2h)
n=0
2
Mais il existe A tel que pour tout rel x | cos(x) exp( x2 )| Ax4 . On en
dduit pour h ]0, 1] :
At2
At2
t2
| (1/2+h) (t) exp( )|
(1 + 2h)2
(1 + 2h)2 .
2
(2 + 2h)
(4)
(1+2h)
Il est bien connu que (1 + h) h1 au voisinage de 0 : on en dduit la
2
convergence de (1/2+h) (t) vers exp( t2 ), et donc, daprs le thorme de
(1+2h)
(1/2+h)
Levy, la convergence en loi de
vers N (0, 1), puis, avec lquivalent
(1+2h)
k=1
k 1+h
+
k+1
k=1 k
1
t1+h
do
(1 + h) =
dt|
k=1
k 2+h
1
+ O(1).
h
(2),
0.5
0.5.1
Exercice 1. Considrons une suite (n )n1 de variables alatoires indpendantes suivant la loi de Bernoulli de paramtre p ]0, 1[. Soit X la variable
alatoire dfinie par :
n
X=
n
n=1 2
On note p la loi de X. Pour quelle(s) valeur(s) de p la variable X admet-elle
une densit par-rapport la mesure de Lebesgue ? lien vers lindication lien
vers la solution
10
Chapitre 1
qui-intgrabilit
Dfinition. On dit quune famille A de variables alatoires dfinies sur lespace probabilis (, F, P) est qui-intgrable (ou uniformment intgrable) si
limM + supXA E[|X| 1{|X|M } ] = 0.
1.1
Premires proprits
Remarque 1.
Une famille constitue dune seule variable intgrable
est qui-intgrable.
La runion de deux familles qui-intgrables est qui-intgrable. Par
suite une famille finie de variables intgrables est qui-intgrable.
Une famille qui-intgrable est toujours borne dans L1 .
En eet, si M est choisi tel que supXA E[|X| 1{|X|M } ] 1, alors
comme |X| M + |X| 1{|X|M } , on a E[|X|] M + 1 pour tout
X A.
Si la famille A est qui-intgrable et que pour tout Y B, il existe
X A avec |Y | |X|, alors la famille B est qui-intgrable.
Si la famille A est qui-intgrable, la famille (max(|X|, |Y |))(X,Y )A2
est qui-intgrable.
En eet, max(|X|, |Y |) 1{max(|X|,|Y |})M } |X| 1{|X|M } +|Y | 1{|Y |M }
entrane
E[max(|X|, |Y |) 1{max(|X|,|Y |})M } ] E[|X| 1{|X|M } ]+E[|Y | 1{|Y |M } ].
Par suite, si la famille A est qui-intgrable, la famille (X +Y )(X,Y )A2
est qui-intgrable.
En eet, il sut de remarquer que |X + Y | 2 max(|X|, |Y |) et dappliquer les remarques prcdentes.
11
12
CHAPITRE 1. QUI-INTGRABILIT
Le rsultat principal est le suivant.
[0,+[
On sait que P(Xn > t) converge vers P(X > t) en tous les points de continuit
de FX . Or les points de discontinuit de FX sont au plus dnombrables, donc
P(Xn > t) converge -presque partout vers P(X > t). On peut donc appliquer
le lemme de Fatou
EX =
[0,+[
[0,+[
limn+
[0,+[
= limn+ EXn .
et
(1.1)
13
limM + supn1
|fn | 1{|fn |M } d = 0.
1.2
Corollaire 1. Soit (Xn )n1 une suite de variables alatoires. On suppose que
Xn converge en probabilit vers X lorsque n tend vers linfini. Si la famille
(|Xn |p )n1 est qui-intgrable, alors X Lp et Xn converge dans Lp vers X.
Dmonstration. Si Xn converge en probabilit vers X, alors la suite (Yn )
dfinie par Yn = |Xn X|p converge en probabilit, donc en loi, vers 0. La
suite |Xn |p est qui-intgrable, donc |X|p est intgrable, soit X Lp .
Il reste voir que (Yn ) est qui-intgrable, ce qui dcoule de lingalit
Yn 2p max(|Xn |p , |X|p ) et des remarques faites plus haut. Il sut alors
dappliquer le thorme la suite (Yn )n1 .
1.3
E[|X|p ]
C
|X|p
1
]
p1 .
{XM }
p1
p1
M
M
M
14
CHAPITRE 1. QUI-INTGRABILIT
Ainsi, si (Xn )n1 converge en probabilit vers X et que la suite (Xn )n1 est
borne dans Lq , on sait que Xn converge vers X dans Lp pour p < q.
1.4
[0,M ]
1.5
Thorme 9. La famille A de variables alatoires dfinies sur lespace probabilis (, F, P) est qui-intgrable si et seulement si elle est borne dans L1
et vrifie
lim0 sup XA E[|X| 1A ] = 0.
AF:P(A)
Dmonstration. On a dj vu quune famille qui-intgrable est borne. Maintenant Pour tout A F , X A et M > 0, on a
|X|1A |X|1{|X|M } + M 1A .
15
lim0 sup
1A ] = 0.
Soit > 0. On peut trouver > 0 tel que pour tout X A, P(A)
supXA E[|X|]
entrane E[|X|1A ] . Maintenant, si M
, si je pose A =
{|X| M }, on a P(A)
E[|X|]
M
, donc
E[|X|1{|X|M } ] = E[|X|1A ] .
1.6
Dans ce qui prcde, lqui-intgrabilit a t prsent comme une proprit dune famille de variables alatoires dfinies sur un mme espace probabilis (, F, P). Cependant, si on convient de dire quune famille M de
mesures de probabilits sur R est qui-intgrable si et seulement
limM + supA
R\[M,M ]
|x| d = 0,
linfini.
Alors
|x|
d(x)
<
+
et
la
suite
(
x
dn (x))n1 converge vers
R
R
R x d(x).
On applique parfois ce thorme des suites de variables alatoires qui
ne sont pas toutes dfinies sur le mme espace de probabilit.
16
CHAPITRE 1. QUI-INTGRABILIT
1.7
1.7.1
Exercices corrigs
Montrer que cette famille est qui-intgrable. lien vers lindication lien vers
la solution
Exercice
3. Soient (X1 , X2 , . . . , Xn ) une suite de v-a i.i.d U[0, 1]. Soit Zn =
ni=1 X2i . Le but de lexercice est de montrer que Zn converge presque sreX
i=1
N
i=1
n
k=1
1{Xk 1/2} .
2n
. lien vers lindication lien vers la solution
un =
k
n+k
k=1
1.7.2
17
18
CHAPITRE 1. QUI-INTGRABILIT
Chapitre 2
Esprance conditionnelle
2.1
Motivation
E(X1A ) = E X
1iB 1Ai
i=1
E(1iB X1Ai ) =
i=1
i=1
Maintenant posons
X =
1Ai
j=1
EX1Aj
.
P(Aj )
1iB EX 1Ai
i=1
Mais
EX 1Ai =
EX1Aj
j=1
P(Aj )
19
1iB EX1Ai
20
(2.1)
Ce qui est intressant ici, cest que X a une proprit que X na pas en
gnral : en eet, X est A-mesurable (car cest une combinaison linaire
dindicatrices dlments de A).
Si X est une variable alatoire A-mesurable et telle que (2.1) est vrifie,
on dit que X est une esprance conditionnelle de X par rapport la tribu
A.
Nous savons donc construire des esprances conditionnelles par rapport
des tribus finies. Le but de ce chapitre est de traiter le cas gnral et de
donner les premires proprits de ces objets.
2.2
construction
(2.2)
2.2. CONSTRUCTION
21
f P f, g = 0.
En particulier si A A, 1A H, et donc
f V2
f P f, 1A = 0,
(2.3)
soit f, 1A = P f, 1A , soit
Ef 1A = EP f 1A .
En particulier
Ef = EP f.
(2.4)
Lquation (2.3) dit que P f est un bon candidat pour tre lesprance
conditionnelle. Les proprits de positivit voques plus haut sont galement
vrifies, mais il faut tre un peu soigneux car lon travaille ici avec des classes
de fonctions gales presque partout, non avec des fonctions.
Rappelons quelques proprits simples : si F et G sont deux fonctions
mesurables qui sont gales presque partout, alors pour tout borlien A les
ensembles F 1 (A) = {F A} et G1 (A) = {G A} sont gaux un
ngligeable prs : cela signifie que
P(F 1 (A)G1 (A)) = 0.
En eet
{F A}{G A} {F = G},
donc P ({F A}{G A}) P(F = G) = 0. Ainsi
|1{F A} 1{GA} | = 1{F A}{GA} = 0 P p.s.
ce qui signifie que 1{F A} et 1{GA} ont la mme classe dans Lp (avec p
quelconque).
Ainsi, si f Lp , il est licite de noter 1{f A} la classe de lindicatrice de
{F A}, o F est un reprsentant quelconque de la classe f .
On peut ainsi parler des lments positifs de Lp : ce sont les lments f
qui sont la classe dune fonction positive.
22
Pour tout f Lp , on a f = f.1 = f (1f >0 +1f =0 +1f <0 ) = f (1f >0 +1f <0 ) =
f + f , o f + = f 1f >0 et f = f 1f >0 . Il est facile de voir que f + = f 1f >0
et f + = f 1f >0
Dmontrons maintenant lanalogue du lemme 2.1 : si f est un lment
positif de L2 , on a
Ef 1P f <0 = EP f 1P f <0
Mais f 1P f <0 est une classe de fonctions positives, donc Ef 1P f <0 0, tandis
que P f 1P f <0 est une classe de fonctions ngatives, donc EP f 1P f <0 0,
finalement P f 1P f <0 = 0, soit (P f ) = 0, ce qui signifie que P f est un
lment positif.
Soit maintenant f L2 :
Par linarit, on a P f = P f + P f , do
P f 1 P f + 1 + P f 1
Mais P f + est positive, donc P f + 1 = EP f + . En utilisant (2.4), il vient
que P f + 1 = Ef + . De la mme manire P f 1 = Ef . Finalement, on a
P f 1 Ef + + Ef = E|f | = f 1
Ainsi, P prend ses valeurs dans H V1 = L1 (, A, P) et dfinit une
application linaire continue de (V2 , .1 ) dans (L1 (, A, P), .1 ). Comme
V2 est une partie dense de V1 , lapplication P admet un unique prolongement
linaire continu P de (V1 , .1 ) dans (L1 (, A, P), .1 ).
Ce prolongement a la mme norme doprateur :
f L1
P f 1 f 1
Par ailleurs, lensemble des (classes de) fonctions positives est ferm dans
L , donc la proprit de positivit est conserve par P :
1
f L1
f 0 = P f 0
et
f, g L1
f g = P f P g.
2.2. CONSTRUCTION
23
2.2.1
Proprits
(2.6)
24
Thorme 11. Soit (Xn )n1 une suite de variables alatoires convergeant
presque srement vers X. On suppose que
n 1|Xn | Y p.s.,
o Y est une variable alatoire intgrable. Alors
E[X|A] = lim E[Xn |A]p.s.
n+
Dmonstration. Posons Zn = supkn |Xn X|. (Zn )n1 est une suite dcroissante de variables alatoires qui tend presque srement vers zro. Daprs la
positivit de lesprance conditionnelle, la suite E[Zn |A] est donc une suite
dcroissante de variables alatoires positives : elle converge donc vers une variable alatoire positive Z. Pour tout n 1, on a Z Zn , donc EZ EZn .
Ainsi EZ inf n1 EZn , mais pour tout n |Zn | 2Y , donc daprs le thorme de convergence domine EZn tend vers 0, ce qui montre que EZ = 0,
donc Z est presque srement nulle. Ainsi E[Zn |A] tend presque srement
vers 0. Finalement, pour tout n, on a
|E[X|A] E[Xn |A]| = |E[X Xn |A]|
E[|X Xn | |A]
E[Zn |A],
ce qui entrane donc le rsultat voulu.
On en dduit en particulier le rsultat trs important suivant :
Thorme 12. Si Y est A-mesurable, que X et XY sont intgrables, alors
E[XY |A] = Y E[X|A]
Dmonstration. On va dabord sintresser au cas o Y est born. Pour montrer que Y E[X|A] est une version de lesprance conditionnelle de XY sachant A, il sut de montrer
que Y E[X|A] est A-mesurable
que pour toute fonction Z A-mesurable borne, on a EZXY = EZY E[X|A].
Le premier point est clair, car Y E[X|A] est le produit de deux fonctions
A-mesurables. Le deuxime point provient du fait que ZY est une fonction
A-mesurable borne et de la proprit fondamentale de lesprance conditionnelle.
Pour passer au cas gnral, il sut de poser Yn = Y 1|Y |n . Daprs ce qui
prcde, on sait que pour tout n, on a
E[XYn |A] = Yn E[X|A].
2.2. CONSTRUCTION
25
26
E[1A 1B Y ]
E[1B ]E[1A Y ]
E[1B ]E[1A X]
E[1B 1A X] = E[1C X],
2.2.2
Ingalit de Jensen
Thorme 16. Soit X une variable alatoire intgrable valeurs dans lintervalle I. Soit f une fonction continue convexe de I dans R. On suppose
que f (X) est intgrable. Alors, pour toute tribu A, on a
f (E[X|A]) E[f (X)|A].
Dmonstration. Pour donner du sens lingalit, remarquons dabord que
E[X|A] I presque srement. En eet, il est bien connu si X a presque
srement, on a alors E[X|A] a presque srement. Cependant, on va voir
que si X > a presque srement, on a encore E[X|A] > a presque srement.
Par linarit,on se ramne au cas o a = 0. On suppose donc que X > 0
et on pose Y = E[X|A]. On sait dj que Y 0 presque srement. Reste
montrer P(Y = 0) = 0. Comme lvnement {Y = 0} est A-mesurable,
on a E[1{Y =0} X] = E[1{Y =0} Y ] = 0, donc 1{Y =0} X = 0 presque srement.
Comme X > 0 presque srement, on a 1{Y =0} = 0 presque srement, donc
P(Y = 0) = 0.
Soit une famille dnombrable de fonctions anes telles que
x I
(x) f (x).
2.2. CONSTRUCTION
27
Il reste donc dmontrer que la famille peut tre choisie de telle sorte que,
presque srement, au point x = E[X|A], on ait sup{(x); } = f (x)
En tout point rationnel q de I, on considre lapplication ane q tangente droite (ou gauche) au point q la courbe reprsentative de f .
On prend alors = (q )qIQ . Lapplication x 7 sup (x) est convexe,
continue, et concide avec f sur I Q, donc, par densit et continuit, sur
I.
Pour retenir quel est le sens de lgalit, prendre la fonction convexe
(x) = |x|.
2.2.3
(2.7)
g(n) =
E[1{X=n} Y ]
,
P(X = n)
28
E[Y |X = n] =
E[1{X=n} Y ]
.
P(X = n)
E[1{X=n} Y ]
. Soit A
P(X = n)
E[1{X=n} 1A ]
P({X = n} A)
=
= P(A|X = n).
P(X = n)
P(X = n)
Ceci justifie que lon crive P(A|X) pour E(1A |X) sans quil y ait conflit
entre les direntes conventions dcriture.
Des techniques de calculs utiles
La premire technique nest que la particularisation de la formule prcdente au cas dun vecteur alatoire.
Corollaire 3. Soit Y L1 (, F, P), X1 , . . . , Xn des variables alatoires sur
(, F, P) valeurs dans S dnombrable, avec pour tous x1 , . . . , xn dans S
P(X1 = x1 , . . . , Xn = xn ) > 0. Alors, E[Y |X1 , . . . , Xn ] = g(X1 , . . . , Xn ) avec
n D
g(n) =
E[Y |X1 = x1 , . . . , Xn = xn ] =
2.2. CONSTRUCTION
29
G(x) =
30
1A (x)G(x)dPX (x)
(
1A (x)
= E1A (X)g(X, Y )
Bien sr G(X) est (X)-mesurable, ce qui achve la preuve.
Dans le mme ordre dide, le rsultat suivant peut galement tre utile :
Thorme 19. On suppose que les vecteurs (X, Y ) et (X , Y ) valeurs dans
Rn Rp ont mme loi, que Y est intgrable avec E[Y |X] = f (X). Alors
E[Y |X ] = f (X ).
Dmonstration. Bien sr, f (X ) est (X )-mesurable. Il sut donc de faire
la vrification :
E[1A (X )Y ] = E[1A (X)Y ] car (X, Y ) et (X , Y ) ont mme loi
= E[1A (X)f (X)] par dfinition de lesprance conditionnelle
= E[1A (X )f (X )] car X et X ont mme loi,
2.3
2.3.1
31
Exercice 10.
1. Soit X une variable alatoire intgrable, N une variable
alatoire valeurs dans N. Soit Y une variable alatoire intgrable
(N )-mesurable.
Montrer que Y est une version de E[X|N ] si et seulement si pour tout
entier n N E[1{N =n} Y ] = E[1{N =n} X]
2. Soit (Xn )n0 une suite de variables alatoires indpendantes suivant
la loi de Bernoulli de paramtre q. On suppose que 1 + T suit la loi
gomtrique de paramtre p et que T est indpendante de ((Xk )k1 ).
On pose U = X1 + X2 + + XT (avec U = 0 si T = 0). Calculer
E[U |T ].
lien vers lindication lien vers la solution
Exercice 11. On reprends lnonc du (b) de lexercice prcdent. Dterminer des rels et tels que E[T |U ] = U + . lien vers lindication lien vers
la solution
n+b
xi = n}. On
Exercice 12. On note n,b = {(x1 , . . . , xn+b ) {0, 1}n+b ; i=1
note n,b la loi uniforme sur n,b . On note Qn,b la mesure de probabilits
dfinie par
1. On note X1 , . . . , Xn+b les projections canoniques de n,b dans R. Montrer que la loi de (X2 , . . . , Xn+b ) sous Qn,b est n1,b .
2. On suppose que (X1 , . . . , Xn+b ) suit la loi n,b . On note T = inf{k
0; Xk+1 = 0}. T reprsente le nombre de boules noires tires dans
une urne contenant n boules noires et b boules blanches, o lon eectue une srie de tirages en sarrtant au tirage de la premire boule
n
blanche. Montrer que E[T ] = b+1
(on pourra procder par rcurrence
sur n, en conditionnant par le premier tirage).
lien vers lindication lien vers la solution
2.3.2
Exercice 13. Soient X et Y deux variables alatoires intgrables indpendantes. Calculer E[(1 + X)(1 + Y )|X]. lien vers lindication
32
Exercice 14. Soient X1 , . . . , Xn des variables alatoires indpendantes identiquement distribues admettant un moment dordre 1. Calculer
E[X1 |(X1 + X2 + . . . Xn )].
lien vers lindication
Exercice 15. Soient X et Y indpendantes, avec X B(n, p) et Y
B(n , p). Calculer E[X|X + Y ]
par un calcul direct
en utilisant le rsultat de lexercice prcdent.
lien vers lindication
Exercice 16. Soient X1 , . . . , Xn des variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. On note X(1), ..., X(n) les abscisses rordonnes
de la plus petite la plus grande. On pose
Mn = max(X(i + 1) X(i); 1 i n 1).
Le but de lexercice est de montrer que EMn = O( lnnn ).
1. Montrer que pour toute variable alatoire relle X valeurs dans [0, 1]
et tout h rel positif, on a
EX h + P(X h).
2. Pour i {1, . . . , n}, on note
Ai (h) = {j {1, . . . n}Xj Xi + h} 1jn,i=j {Xj ]X
/ i , Xi + h[}.
Montrer que
{Mn h} = ni=1 Ai (h).
3. On pose
Yi (h) =
c (Xj ).
1
j=i ]Xi ,Xi +h[
33
Exercice 17. On suppose que la loi du couple (X, Y ) sous P admet la densit
(x, y) 7 f (x, y) par rapport la mesure . Montrer que
E[X|Y = y] =
xf (x, y)d(x)
.
f (x, y)d(x)
jD
2 1 1
M =
1 2 1
1
1 2
3 0 2
M = 0 2 1
2 1 2
1. Montrer quon peut construire un vecteur gaussien centr (X, Y, Z)
admettant M comme matrice de covariance.
2. Calculer E[X|Y, Z].
3. Soit une fonction mesurable borne telle que (X) est intgrable.
Montrer que
E[(X)|Y = y, Z = z] =
34
Exercice 21. Soit (Yn )n1 une suite de variables alatoires positives intgrables, A une tribu quelconque. On pose Y = limn+ Yn et Z = limn+ E[Yn |A].
Le but de lexercice est de montrer que si Z est fini presque srement, alors
Y est galement fini presque srement.
1. Soit M > 0. Montrer que E[1{Y >M } |A] = limn+ E[1{Yn >M } |A].
2. Montrer que pour tout n 1, on a M E[1{Yn >M } |A] E[Yn |A].
3. En dduire que E[1{Y >M } |A] tend presque srement vers 0 lorsque M
tend vers linfini.
4. Conclure.
lien vers lindication
Exercice 22. Soit (Rn )n0 une suite dcroissante dentiers naturels, avec
R0 = N . On pose, pour n 0, Sn+1 = Rn Rn+1 et Fn = (S1 , . . . , Sn ). On
pose T = inf{n 0; Rn = 0}. On suppose en outre que
k 1 E[1T >k1 (Sk 1)|Fk1 ] = 0.
1. Montrer que pour tout entier naturel non nul k, on a
P(Sk = 0, T k) = E(1T k (Sk 1)+ ).
En dduire que P(T < +) = 1.
2. Que peut-on dire de la suite (Mi )i1 dfinie par
Mi =
1T k (Sk 1) ?
k=1
Chapitre 3
Martingales
3.1
3.1.1
Dfinitions
Filtrations et martingales
36
CHAPITRE 3. MARTINGALES
3.1.2
Dirences de martingales
(3.1)
Rciproquement, si la suite (Yn )n1 est adapte la filtration (Fn )n0 et vrifie 3.1, la suite des sommes partielles dfinie par Xn = Y1 + + Yn est une
martingale adapte la filtration (Fn )n0 .
Dfinition: On appelle une telle suite (Yn ) une dirence de martingale.
Remarque: Si la suite de dirences de martingale (Yn )n1 est dans L2 , la
variable Yn est orthogonale toutes les variables Z de carr intgrable qui
sont Fn1 -mesurables. En particulier, les (Yn )n1 forment une suite orthogonale dans L2 .
Comme on le verra dans les exercices, les martingales sont souvent utiles
pour udier des suites de variables alatoires qui ne sont pas elles-mmes des
martingales. Mettre en vidence une martingale partir dune suite nest pas
toujours facile. Une bonne ide est de commencer par exhiber une dirence
de martingale. Par exemple, si (Xn )n0 est une suite intgrable quelconque,
(Xn+1 E[Xn+1 |X0 , . . . Xn ])n0 est toujours une dirence de martingales.
3.1.3
Sous-martingales, sur-martingales
Dfinition: Soit (Fn )n0 une filtration et (Xn )n0 une suite de variables
alatoires. On dit que la suite (Xn )n0 est une sous-martingale adapte la
filtration (Fn )n0 si
1. la suite (Xn )n0 est (Fn )n0 adapte
2. Pour tout n, Xn est intgrable.
3. Pour tout n, Xn E[Xn+1 |Fn ].
Dfinition: Soit (Fn )n0 une filtration et (Xn )n0 une suite de variables
alatoires. On dit que la suite (Xn )n0 est une surmartingale adapte la
filtration (Fn )n0 si
1. la suite (Xn )n0 est (Fn )n0 adapte
2. Pour tout n, Xn est intgrable.
3. Pour tout n, Xn E[Xn+1 |Fn ].
37
3.2
3.2.1
Premires ingalits
Martingales et fonctions convexes
Thorme 20. Soit (Fn )n0 une filtration et une fonction convexe.
Si la suite (Xn )n0 est une martingale adapte la filtration (Fn )n0 et
que les ((Xn ))n0 sont intgrables, alors la suite la suite ((Xn ))n0
est une sous-martingale adapte la filtration (Fn )n0 .
Si la suite (Xn )n0 est une sous-martingale adapte la filtration
(Fn )n0 , que est croissante et que les ((Xn ))n0 sont intgrables,
alors la suite ((Xn ))n0 est une sous-martingale adapte la filtration (Fn )n0 .
Dmonstration.
Comme Xn = E[Xn+1 |Fn ], on a (Xn ) = (E[Xn+1 |Fn ])
E[(Xn+1 )|Fn ], daprs lingalit de Jensen conditionnelle.
Xn E[Xn+1 |Fn ] entrane, avec lhypothse de croissance (Xn )
(E[Xn+1 |Fn ]) et on conclut comme prcdemment avec lingalit de
Jensen conditionnelle.
Exemple: En particulier, si une suite (Xn )n0 de variables alatoires positives est une sous-martingale de carr intgrable, alors la suite (Xn2 )n0 est
une sous-martingale.
3.2.2
Ingalit de Kolmogorov
Thorme 21. Soit (Xn )n0 une sous-martingale. Pour tout > 0, on a
P( max Xi )
1in
1
E|Xn |.
38
CHAPITRE 3. MARTINGALES
1in
1
1
EXn+ E|Xn |,
3.3
Thorme 22. Soit (Xn )n0 une martingale adapte la filtration (Fn )n1
telle que
sup EXn2 < +.
n1
Alors (Xn )n0 converge presque srement et dans L2 vers une variable X
de carr intgrable.
Dmonstration. La convergence quadratique sobtient par des mthodes hilbertiennes classiques : comme L2 est complet, il sut en eet de montrer que
la suite (Xn )n0 est de Cauchy. Soit p < n entiers. Comme Xn est dans L2 ,
in
niN
La suite (Xn Xi )ni est une martingale, donc la suite ((Xn Xi )2 )ni
est une sous-martingale positive : on a donc
P( sup |Xn Xi |2 > 2 /9)
niN
Ainsi
P(Rn > )
9
E(Xn XN )2 .
2
9
sup E(Xn XN )2 ,
2
N n
cette dernire suite tend bien vers 0, puisque (Xn )n1 converge en moyenne
quadratique.
40
3.4
CHAPITRE 3. MARTINGALES
Temps darrts
41
Thorme 23 (Thorme de Hunt). Soit (Fn )n0 une filtration et (Xn )n0
une sous-martingale adapte la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] XS .
Dmonstration. Il sagit de montrer que pour tout vnement A FS -mesurable,
on a EXT 1A EXS 1A . Soit M un entier dterministe tel que lon ait
S T M . Posons k = Xk Xk1 , avec X1 = 0. Notons, que comme
(Xn ) est une sous-martingale E1B k est positif pour tout ensemble B Fk1 mesurable. On a
E((XT XS )1A ) = E(
k 1S<kT 1A )
k=0
Ek 1{S<kT }A
k=0
Pour conclure, il reste donc voir que {S < k T } A est Fk1 -mesurable,
ce qui vient de lidentit
{S < k T } A = ({S k 1} A) (T k 1)c .
42
CHAPITRE 3. MARTINGALES
Corollaire 5. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] = XS .
Thorme 24 (Thorme darrt). Soit (Fn )n0 une filtration et (Xn )n0
une sous-martingale adapte la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration (Fn )n0 . Alors la suite (XnT )n0 est une sousmartingale adapte la filtration (Fn )n0 .
Dmonstration. Soit A un vnement Fn -mesurable et n un entier. On a
E1A X(n+1)T = E1A X(n+1)T 1{T n} + E1A Xn+1T 1{T >n}
= EXnT 1A 1{T n} + EX(n+1)T 1A 1{T >n}
Pour linstant, on a juste utilis que quand T n, on a (n + 1) T =
T = n T.
Montrons que A {T > n} est FnT -mesurable : soit p un entier ; on doit
montrer que A {T > n} {n T p} est dans Fp . Si n > p, lintersection
est lensemble vide, donc est Fp -mesurable. Si n p, alors {n T p} = ,
donc
A {T > n} {n T p} = A {T > n} Fn Fp .
Ainsi, en appliquant le thorme de Hunt aux temps darrts (n + 1) T
et n T , on a
EX(n+1)T 1A 1{T >n} EXnT 1A 1{T >n}
Do
E1A X(n+1)T = EXnT 1A 1{T n} + EX(n+1)T 1A 1{T >n}
EXnT 1A 1{T n} + EXnT 1A 1{T >n}
EXnT 1A
ce qui achve la preuve.
On en dduit facilement les deux rsultats suivants :
Corollaire 6. Soit (Fn )n0 une filtration et (Xn )n0 une surmartingale adapte la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration
(Fn )n0 . Alors la suite (XnT )n0 est une surmartingale adapte la filtration (Fn )n0 .
43
Corollaire 7. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration (Fn )n0 .
Alors la suite (XnT )n0 est une martingale adapte la filtration (Fn )n0 .
Remarque: Certains auteurs appellent thorme darrt ce que nous
avons appel thorme de Hunt . En fait, ces deux rsultats sont quivalents. Ici, nous avons choisi de dmontrer le thorme de Hunt et den
dduire le thorme darrt, tandis que dautres auteurs (par exemple Baldi,
Mazliak et Priouret) font le choix inverse.
Les deux lemmes suivants seront utiles par la suite. Leur preuve relve
des mthodes classiques.
Lemme 4. Soit (Fn )n0 une filtration et (Xn )n0 une martingale adapte
la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration (Fn )n0 .
Alors, la variable alatoire 1{T <+} XT est FT -mesurable.
Dmonstration. Il sut de voir que pour tout borlien de R, lvnement
{1{T <+} XT A} est FT -mesurable. Soit n un entier : on a
{1{T <+} XT A} {T n} = in {Xi A; T = i},
qui est bien Fn -mesurable.
Lemme 5. Soit (Fn )n0 une filtration et (An )n0 une suite dvnements
adapte la filtration (Fn )n0 . Soit T un temps darrt adapt la filtration
(Fn )n0 . Alors, la variable alatoire S dfinie par
S() = inf{n T (); An }.
est un temps darrt.
Dmonstration. Il sut de remarquer que pour tout n
{S n} = in Ai {T i},
qui est clairement Fn -mesurable.
3.5
3.5.1
Thorme 25. Soit (Xn )n1 une sous-martingale a, b deux rels avec a < b.
On note Un[a,b] le nombre de traverses montantes de a b entre les instants
1 et n. Alors, on a
E(Xn a)+
EUn[a,b]
ba
44
CHAPITRE 3. MARTINGALES
(Xn a)+
ba
: comme |Yn |
1
(|Xn |+
ba
1{k n} .
k=1
Ynk Ynk .
k=1
On peut crire
Yn Y0 = Yn n Y0 n
=
=
Yk n Yk1 n
k=1
n
k=1
45
Il sensuit que
Un[a,b] Yn Y0
Yk n Yk1 n
k=1
Yn
Yk n Yk1 n ,
k=1
E[Yk n Yk1 n ].
k=1
3.5.2
46
CHAPITRE 3. MARTINGALES
3.5.3
Martingales inverses
3.6
47
48
CHAPITRE 3. MARTINGALES
7
sont des mesures ce sont en fait des mesures densit
EZ
EZ
par rapport P. Ce sont mme des probabilits. Daprs ce qui prcdent, ces
deux probabilits concident sur n1 Fn ) qui est un -systme engendrant
F : elles concident donc sur F , ce qui montre que Y est bien une version
de lesprance conditionnelle de Z sachant F .
Les deux preuves sont assez semblables, la deuxime tant peut-tre un
peu plus facile. On suggre donc la lectrice de lire la premire preuve, puis
dessayer de faire la seconde preuve seule avant de lire la preuve propose.
Dmonstration. Par linarit, avec Z = Z + Z , il sut de traiter le cas o
Z 0. Daprs les thormes de convergence des surmartingales renverses,
on sait que (Zn ) converge presque srement. Montrons quelle est de Cauchy
dans L1 . Soit > 0 et prenons a tel que E(Z1{Z>a} ) /3.
La suite E(Z a|Gn ) est une martingale renverse : elle converge presque
srement. Mais une suite de variables alatoires qui converge presque srement et est uniformment borne par une constante converge dans L1 . Ainsi,
il existe N tel que pour n, p N , E(Z a|Gn ) E(Z a|Gp )1 /3, ce qui
entrane avec le lemme que E(Z|Gn ) E(Z a|Gp )1 pour n, p N : la
suite (Zn ) est de Cauchy dans L1 , donc convergentes dans L1 . Notons Z la
limite. Il reste voir que Z = E[Z|G ].
Fixons n. Pour p n, Zp est Gp -mesurable, donc Gn -mesurable, et la
limite Z est Gn -mesurable. Mais si Z est Gn -mesurable pour tout n, elle est
G -mesurable. Soit A G . Comme A Gn , on a E[Z1A ] = E[Zn 1A ], donc
|E[Z1A ] E[Z 1A ]| = |E[Zn 1A ] E[Z 1A ]|
E(|Zn Z ]1A ) E|Zn Z |
49
3.7
Dfinition: On dit quun processus (Fn )n0 - adapt (Cn )n0 est un processus
croissant prvisible si C0 = 0, Cn Cn+1 et si Cn+1 est Fn -mesurable.
Thorme 30. Toute sous-martingale (Xn )ge0 scrit de manire unique
comme somme dune martingale (Mn )n0 et dun processus croissant prvisible intgrable (Cn )n0 .
Dmonstration. Supposons quune telle dcomposition existe : on a alors
E[Xn+1 Xn |Fn ] = E[Mn+1 Mn |Fn ] + E[Cn+1 Cn |Fn ]
= 0 + (Cn+1 Cn )
= Cn+1 Cn ,
car (Mn )n0 est une martingale et Cn+1 Cn est Fn -mesurable. Comme
C0 = 0, on doit ncessairement avoir
Cn =
E[Xi+1 Xi |Fi ].
i<n
Chaque terme de la somme est bien dans Fn1 et est positif, car (Xn )n0 est
une sous-martingale, donc Cn est bien croissant prvisible.
On prsente maintenant une jolie application de la Dcomposition de
Doob. On va donner une nouvelle preuve du thorme de Hunt, base sur
son corollaire relatif aux martingales (lequel peut bien sr se montrer sans
utiliser la version sous-martingale du thorme de Hunt, voir par exemple
Stroock).
Corollaire 9 (Thorme de Hunt, version 2). Soit (Fn )n0 une filtration et
(Xn )n0 une sous-martingale adapte la filtration (Fn )n0 .
Soient S et T deux temps darrts (Fn )n0 -adapts borns avec S T .
Alors
E[XT |FS ] XS .
Dmonstration. On crit la dcomposition de Doob Xn = Mn + An , avec la
martingale (Mn )n0 et le processus croissant prvisible intgrable (Cn )n0 .
XT = MT + CT MT + CS , car (Cn )n0 est croissant. Donc E[XT |FS ]
E[MT |FS ] + E[CS |FS ]. Daprs le thorme de Hunt sur les martingales,
50
CHAPITRE 3. MARTINGALES
E[MT |FS ] = MS . Dautre part , le processus (Cn )n0 est adapt, donc daprs
le lemme 4, CS est FS -mesurable et E[CS |FS ] = CS . Finalement, E[XT |FS ]
MS + CS = XS .
3.8
3.8.1
51
Exercice 23. Soit a R. Soit (Un )n1 une suite de variables alatoires
indpendantes suivant la loi uniforme sur [0, 1]. On dfinit par rcurrence
une suite Xn par X0 = a et Xn+1 = Un+1 + (1 Un+1 )Xn2 .
1. Montrer que la suite (Xn )n0 est une sous-martingale.
2. On suppose maintenant que a [0, 1].
(a) Montrer que (Xn )n0 converge presque srement vers une variable
alatoire X .
(b) Donner la valeur de X
lien vers lindication lien vers la solution
Exercice 24. Urne de Plya
Une urne contient des boules de m couleurs direntes. On suit le procd
suivant : on prend au hasard (avec quiprobabilit) une boule dans lurne,
puis on la replace dans lurne en mme temps quon y ajoute S boules de la
couleur tire. On sintresse au comportement asymptotique de la rpartition
des couleurs dans lurne.
On modlise le problme comme suit : on suppose que lurne contient
initialement d1 boules de couleur 1, . . ., dm boules de couleur m. On pose
d = d1 + +dm . On se donne un vecteur dterministe (B1 , . . . , Bd ) valeurs
dans {1, . . . , m} de telle sorte que di est le nombre dapparitions de i dans
la suite B1 , . . . , Bd . On prend maintenant (Un )n1 , une suite de variables
alatoires indpendantes telles que pour tout n, Un suive la loi uniforme sur
{1, . . . , d + (n 1)S}. On dfinit alors par rcurrence les suites (Bi )i>d et
(Tn )n1 en posant, pour n 1 :
Tn = BUn puis, pour i entre 1 et S : Bd+i+(n1)S = Tn .
(Bi )i1 reprsente la suite des couleurs des boules successivement ajoutes
dans lurne, tandis que (Ti )i1 reprsente la suite des tirages.
On note Vn = d+nS
k=1 eBk : Vn reprsente le vecteur des eectifs des diffrentes couleurs avant le n + 1-ime tirage. On a donc V0 = (d1 , . . . , dm ).
Notons que par construction Vn+1 = Vn + SeTn+1 . On pose Vni = Vn , ei :
cest le nombre de boules de couleur i dans lurne avant le n-ime tirage.
Pour n 1, n note Fn la tribu engendre par U1 , . . . , Un ; on pose galement F0 = {, }.
1. (a) Montrer que pour tout n 1 et pour tout i entre 1 et S, Bd+(n1)S+i
est Fn -mesurable.
52
CHAPITRE 3. MARTINGALES
i
(b) Montrer que Vn+1
= Vni + S
d+nS
k=1
i
(c) En dduire que E[Vn+1
|Fn ] = Vni +
Vn
(d) Montrer que ( Sn+d
)n0 est une martingale.
i=1
Yibi ]
m
+ b)
(ai )
B(a
.
, avec B(a)
= i=1
=
m
( i=1 ai )
B(a)
i=1
P(T1 = t1 , . . . Tn = tn ) = E
Yiai
(3.3)
i=1
n
P((Vn d)/S = (a1 , . . . , am )) =
E[ Yiai ].
a1 , . . . , a m
i=1
53
(
On rappelle que le coecient multinomial a1 ,a2n,...,am est, par dfinition, le nombre dapplications de {1, . . . , n} dans {1, . . . , m}
prenant ai fois la valeur i. On a la formule du multinme :
(
m
)n
j=1
Xj
(a1 ,...,am )
m
n
X ak ,
k=1 k
a1 , a 2 , . . . , a m
iuk
n (u) = E
Yk e
.
k=1
Wti ,
i=1
3.8.2
Exercice 25. Soient 1 et 2 des temps darrts adapts la filtration (Ft )t0 .
Montrer que = max(1 , 2 ) est un temps darrt et que F = (F1 , F2 ).
lien vers lindication
Exercice 26. Soit (Xn )n1 une suite de variables alatoires indpendantes
identiquement distribues admettant un moment dordre 3 et vrifiant EX1 =
EX13 = 0 et EX12 = 1. On note Fn = (X1 , . . . , Xn ) et on pose
Sn =
k=1
Xi .
54
CHAPITRE 3. MARTINGALES
1. On pose Yn = Sn3 3nSn . Montrer que (Yn )n1 est une martingale par
rapport la filtration (Fn )n1 .
2. Soient a, b, c, d des rels. On pose
Q(x, t) = x2 + axt + bx + ct + d.
Pour quelles valeurs du quadruplet (a, b, c, d) la suite Zn = Q(Sn , n)
forme-t-elle une martingale rapport la filtration (Fn )n1 ?
lien vers lindication
Exercice 27. Soit (Xn )n1 une surmartingale (Fn )n1 -adapte. On suppose
que les (Xn )n1 ont toutes la mme loi.
1. Montrer que (Xn )n1 est une martingale.
55
56
CHAPITRE 3. MARTINGALES
4. Montrer que est une fonction concave. Soit ]s, t[ [0, n] tel que
{x [s, t]; f (x) = (x)} = {s, t}. Montrer que est ane sur [s, t].
5. On dfinit Topt = min{n N, f (Xn ) = (Xn )}, ainsi que
A = min{j i0 , f (j) = (j)} et B = max{j i0 , f (j) = (j)}.
Calculer E(f (XTopt )) en fonction de f (A) et f (B), et en dduire que
E(f (XTopt )) = (i0 ).
Chapitre 4
Complments de thorie de la
mesure
4.1
4.1.1
Rappels de topologie
Topologie produit
Si les (Ei , di ) sont des espaces mtriques, on dfinit une distance sur
i=1 Ei par
(x, y)
Ei
d(x, y) =
i=1
2i arctan di (xi , yi ).
i=1
i1 2i /2 < +
Ainsi, le rsultat annonc dcoule du thorme de convergence domine pour
la mesure de comptage.
Corollaire 10. Un produit dnombrable despaces mtriques complets est
complet.
57
58
4.1.2
Espaces polonais
f (x) = ki=1 yk 1Ak , il est alors clair que f est une application (2 , F2 )(E, B)
mesurable et que Y = f (X).
Pour traiter le cas gnral, on a besoin dune technique dapproximation :
considrons une suite (yn )n1 dlments de E qui est dense dans E. On pose
alors pour tout y E :
n (y) =
k=1 i<k
1{d(y,yi )>d(y,yk )}
1{d(y,yi )d(y,yk )} yk .
k<in
Comme les fonctions y 7 d(y, yi ) sont continues, elles sont (E, B)(R, B(R))mesurable. Ainsi, les fonctions y 7 d(y, yi )d(y, yk ) sont (E, B)(R, B(R))mesurables : on en dduit que les ensembles {d(y, yi ) > d(y, yk )} et {d(y, yi )
d(y, yk )} sont dans B, puis que n est (E, B) (E, B)-mesurable. n (y) est
llment le plus proche de y parmi y1 , . . . , yk (on prend celui de plus petit
index en cas dgalit). Comme la suite (yn ) est dense dans E, n (y) converge
vers y quand n tend vers linfini. 1
1. Si E = R ou E = Rd , on peut prendre plus simplement n (x) =
nx
n 1[0,n] (x).
59
Prenons maintenant Y gnrale. Si on pose Yn = n (Y ), Yn est une fonction (1 , F1 )(E, B) mesurable qui ne prend quun nombre fini de valeurs : on
peut crire Yn = fn (X), o fn est une application (2 , F2 )(E, B) mesurable.
Comme (E, d) est complet, si on pose C = {x 2 ; (fn (x))n1 converge },
on a
C = k1 N 1 n,pN {d(fn (x), fp (x)) 1/k},
donc C F2 . Soit z0 E quelconque. On pose gn (x) = 1C (x)fn (x) +
z0 1C . Il est ais de voir que gn est encore (2 , F2 ) (E, B) mesurable. Par
construction, gn (x) converge pour tout x. La limite g est (2 , F2 ) (E, B)
mesurable comme limite simple dapplications (2 , F2 )(E, B) mesurables. 2
Pour tout 1 , on a fn (X()) = n (Y ()) qui converge vers Y (), donc
X() C, et gn (X()) = fn (X()) converge vers Y (). Comme gn (X())
converge vers g(X()), on a Y () = g(X()), ce qui est le rsultat voulu.
Thorme 32. Un produit dnombrable despaces polonais est polonais.
Dmonstration. Soient (Ei , di ) des espaces polonais. Vu le corollaire prc
dent, il sut de montrer que +
i=1 Ei a une partie dnombrable dense. Notons
Di une partie dnombrable dense dans Ei et x un lment quelconque de
+
i=1 Ei . Posons D = n1 En , avec
En =
Di
i=1
{xi }.
i=n
2i arctan di (xi , yi )
i=1
arctan di (xi , yi ) +
i=1
i=1
n
2i arctan di (xi , yi )
i=n+1
+
2i di (xi , yi ) +
2i /2
i=n+1
2i /2 +
i=1
/2 + 2
2i /2
i=n+1
n
/2
2. Cette proprit est bien connue pour des variables alatoires relles. Le cas des
variables valeur dans un espace mtrique sera trait en exercice.
60
car RN est typiquement lespace sur lequel on peut faire vivre une suite de
variables alatoires.
Thorme 33. Soient (E, d) un espace mtrique sparable et B sa tribu
borlienne. B est engendre par une famille dnombrable de boules ouvertes.
Dmonstration. Soit O un ouvert de E. E est un espace mtrique qui admet
une partie dense D, donc O scrit comme runion de boules ayant leur centre
dans O D et un rayon rationnel.
En eet, pour x O, on peut trouver nx N tel que B(x, 2/nx ) O.
Si on prend cx quelconque avec cx B(x, 1/nx ) D, alors x B(cx , 1/nx )
B(x, 2/nx ) O. On a alors O = xO B(cx , 1/nx ).
Cette runion est ncessairement dnombrable, puisque les centres et les
rayons sont dnombrables, donc O est dans la tribu engendre par les boules
dont le centre est dans D et le rayon rationnel.
i=1
|i (x) yi |
arctan |xi yi |
=
lim
arctan
N +
2i
2i
i=1
est une limite dapplications ((i )i1 )-mesurables donc est (i )-mesurable.
Il sensuit que les boules de (RN , d) sont des lments de ((i )i1 ). Or
daprs le thorme prcdent, les boules ouvertes engendrent la tribu borlienne, donc B est incluse dans ((i )i1 ), ce qui achve la preuve.
Thorme 35. Soient (E, d) un espace mtrique sparable. Il existe une
famille dnombrable (Oi )iI douverts de (E, d) telles que deux mesures borliennes qui concident sur les Oi sont gales.
Dmonstration. Comme prcdemment, on a une famille dnombrable de
boules (Bd )dD telles que tout ouvert scrive comme runion dnombrable
de boules (Bdn )n1 avec dn D pour tout n. Soit I lensemble des parties
finies de D. I est dnombrable. Posons OA = iA Bi .
61
= lim
n+
(1)|A|+1 (OA )
Ainsi, si deux mesures concident sur les OA , elles concident sur les ouverts,
donc sur la tribu borlienne.
4.2
4.2.1
Le thorme gnral
PS (B) dP ().
(4.1)
Cette application est P presque srement unique. Pour toute variable alatoire X valeurs dans [0, +], lapplication
7
X dPS
62
63
f dP =
A
(f ) dP()
(4.2)
Posons
N = f Q[X1 ,...,Xd ];f { ; (f ) < 0}.
Comme runion dnombrable dlments de S de probabilit nulle, N est un
lment de S de probabilit nulle. Pour N c et f Q[X1 , . . . , Xd ], on
a pour tout > f avec rationnel : + f 0 et f 0, donc
( + f ) 0, soit (1) + (f ) 0 et (1) (f ) 0. Comme
(1) = 1, on en dduit | (f )| . Comme peut tre pris aussi proche
de f que lon veut, on a | (f )| f . On a donc montr
N c
f P
| (f )| f .
2
n
64
A S
f dP =
A
(f ) dP()
(4.3)
(f ) dP() sont
Pour tout A, les formes linaires f 7 A f dP et f 7 A
continues sur C(). Comme elles concident sur P, elles concident sur C().
Daprs le thorme de reprsentation de Riesz, pour tout , il existe
S
(f ) = f dPS .
P telle que pour tout f C(),
S
Comme 7 f dP est S-mesurable pour tout f C(), la dfinition
de T entrane, avec le thorme fondamental de la mesurabilit, que 7 PS
est S-mesurable 4 .
Soit maintenant K un compact de : on peut construire une suite (fn )
borne de fonctions continues telle que
f converge simplement vers 1K . Par
n
convergence domine, pour tout , fn dPS converge vers PS (K), ce qui
entrane en particulier que 7 PS (K) est S-mesurable. Comme
A S
fn dP =
fn dPS dP(),
1K dP =
1K dPS dP().
4.2.2
65
Un cas particulier important est le cas o P est une loi sur le produit
E F de deux espaces polonais 5 et que S est la famille des ensembles de
la forme A F , o A dcrit lensemble des borliens de E. Autrement dit,
cest le cas o S est la tribu engendre par la variable X, projection sur la
premire coordonne. Notons x un lment de E, y un lment de F .
S
Dans ce cas, comme (x, y) 7 P(x,y)
est S-mesurable, PS(x,y) ne dpend que
de x 6 . On se fixe y0 F quelconque et lon peut poser
x (B) = PS (E B).
P
(x,y0 )
x ) est (E, B(E))-(M1 (F ), T )-mesurable. Pour
On peut vrifier que (x 7 P
S
x (B).
tous x, y, on a P(x,y) (E B) = P
x (B) est couramment appele loi de Y sachant
Cette mesure B 7 P
X = x. On a ainsi
P(A B) =
EF
=
EF
1A (x)PS(x,y) (E B) dP(x, y)
(4.4)
x (B) dP(x, y) =
1A (x)P
(4.5)
f (x, y)
f (x, y)
=
fX (x)
F f (x, y ) d(y )
par rapport .
En eet, on sait que X admet par rapport la densit x 7 fX (x) =
B
F
f (x,y) d(y)
=
E
1A (x)
F
=
EF
On a alors
5. Typiquement E = Rn et F = Rp .
6. On laisse ce point prciser en exercice. On notera quon na pas besoin ici du lemme
de Doob.
66
1/2
f (x, y) =
(det M )
(2)(n+p)/2
A (x mX ), (x mX )
1
exp +2C (x mX ), (y mY )
2
+B (y mY ), (y mY )
do la densit de x :
(
1
y
7 kx exp (2C (x mX ), (y mY ) + B (y mY ), (y mY )) .
2
Posant x = x mX , y = x mY , et [x, y] = Bx, y, on note que
2C x, y + B y, y = B y, y + 2BB 1 C x, y
= [y, y] + 2[B 1 C x, y]
= [y + B 1 C x, y + B 1 C x] 2[B 1 C x, B 1 C x]
= (y + B 1 C x), B (y + B 1 C x) + cx
4.2.3
67
chantillonneur de Gibbs
=
E
(x) dPX
(x) dX = (A B)
avec (4.4).
Les hypothses dexistence dune telle fonction ne sont pas extravagantes. Rappelons le rsultat classique suivant :
Thorme 38. Soit F une fonction de R dans R, croissante, continue
droite, dont la limite est nulle en et vaut 1 en +. On suppose que sur
(, F, P), U est une variable alatoire suivant la loi uniforme sur [0, 1]. On
pose
u ]0, 1[ Q (u) = min{x R : 1 F (x) u}.
Alors Q (U ) est une variable alatoire relle dont la fonction de rpartition
est F .
68
Il reste vrifier que Q (U ) prend presque srement ses valeurs dans R. Pour
u ]0, 1[, {x R; 1 F (x) u} nest ni lensemble vide, ni R tout entier,
car F admet 0 comme limite en et 1 en +. Comme P(U ]0, 1[) = 1,
le rsultat voulu sensuit.
Ainsi, si on pose
(x, u) = min{y R :
x ([y, +[) x},
pour U variable alatoire suivant la loi uniforme sur [0, 1], la fonction
rpond aux hypothses du thorme.
Ainsi, en admettant que lon sache exprimer , on sait simuler (X, Y ) ds
lors que lon sait simuler X et une variable alatoire suivant la loi uniforme
sur [0, 1] indpendante de X.
Mais en ralit, le principe de lchantillonneur de Gibbs est plutt utilis
pour exhiber des chanes de Markov qui admettent une mesure donne
comme mesure invariante.
Avec un peu de chance, la dynamique ainsi forme convergera vers la
mesure limit, ce qui donne un manire de simuler (ou dapprocher une simulation de la loi).
Corollaire 11. Soit un ensemble fini, une mesure sur R . On note
X i : R R la projection canonique sur la i-me coordonne. Pour tout
i et x R\{i} , on note
ix la loi conditionnelle de Xi sachant X j = xj
pour tout j \{i}. On suppose que pour tout x R\{i} , si U suit la loi U,
alors i (x, U ) suit la loi
ix .
Soit maintenant (Un ) une suite de variables alatoires indpendantes de
loi U, (Vn ) une suite de variables alatoires indpendantes suivant la loi uniforme sur . Alors, si X0 est indpendantes de (Un , Vn , n 1) la suite
dfinie par Xn+1 = (XnVn , Vn (Xn , Un )) est une chane de Markov admettant
comme mesure invariante.
Dmonstration. Le caractre markovien ne fait pas de mystre vu la reprsentation par rcurrence. Il faut montrer que si X0 suit la loi , X1 aussi.
Soit une fonction mesurable borne de R dans R. Par indpendance, on
a
E((X1 )|V0 ) = g(V0 ),
69
si l \k
si l = k
1
(y)
.
)1
(
(x)
(z)
> 0.
zS;zkc =xkc
|| k
Le seul point un peu critique quil faut vrifier pour pouvoir appliquer le
thorme de convergence des chanes de Markov est celui de lirrductibilit :
il nest pas automatique quon puisse passer de nimporte quel tat de S en
changeant un point la fois.
Une condition susante est que les lois conditionnelles dune coordonnes
sachant tous les autres chargent tous les points de E : dans ce cas, on peut
passer dune configuration lautre en changeant une coordonne la fois
et || tapes susent.
70
4.3
Thorme de RadonNikodm
(x) dP(x).
A
Q(A)
APn
P(A)
1A .
Ainsi, on a f Xn =
APn
E[f Xn ] =
APn
P(A)
1A (A).
APn
(A)1A et
Q(A)(A)
= EQ [
(A)1A ] = EQ [f ].
(4.6)
APn
71
Lquation (4.6) nous sera encore utile par la suite. Elle exprime que Xn
est la densit de Q par rapport P sur la tribu Fn . Montrons que (Xn )n1
est qui-intgrable. Soit > 0. Daprs le lemme, il existe tel que P(B)
= Q(B) . Soit c > 1/. Comme 1{Xn >c} est Fn -mesurable, on a
E[Xn 1{Xn >c} ] = EQ [1{Xn >c} ] = Q(Xn > c).
Pour montrer que Q(Xn > c) , il sut de montrer que P(Xn > c) .
Or, lingalit de Markov nous donne
1
1
1
P(Xn > c) E[Xn ] = EQ [1] = ,
c
c
c
ce qui donne lqui-intgrabilit de la suite (Xn ). Comme (Xn ) est une martingale positive, Xn converge presque srement vers une fonction positive ,
et on a E[] E[X1 ] = EQ [1] = 1. Soit A Fn . Pour tout p n, on a
A Fp , do
Q(A) = EQ [1A ] = EXp 1A .
Comme (Xp 1A )p est qui-intgrable, de limite P-presque sre 1A , on a
limp+ E[Xp 1A ] = E[1A ], soit Q(A) = E[1A ]. Ainsi, les mesures Q et
P concident sur n1 Fn . Comme ce -systme engendre la tribu F, les
deux mesures concident et est bien la densit de Q par rapport P sur
F.
Le lemme suivant permet dtendre de nombreux rsultats des mesures
de probabilit aux mesures -finies.
Lemme 8. Si (, F, ) est un espace mesur -fini, alors il existe une probabilit P sur (, F) et une fonction -presque srement positive f tels que
f est la densit de P par rapport et 1/f la densit de par rapport P.
Dmonstration. Soit (An )n1 une suite avec 0 < (An ) < + pour tout
n 1 et = n1 An . On pose
f=
n=1
1A .
2n (A)
f d
n=1
+
1A
2n (A)
1
(A) = 1
n
n=1 2 (A)
72
1
1
Maintenant, pour g mesurable positive, on a g d = g f f d = g f dP,
ce qui montre que 1/f est la densit de par rapport P.
Corollaire 12 (RadonNikodm). Soient (, F) un espace mesurable. et
deux mesures de probabilits -finies sur (, F). On suppose quil existe
une suite (An )n1 dlments de F tels que F = (An , n 1).
Alors si et seulement si admet une densit par rapport ,
cest dire quon a la reprsentation,
(A) =
(x) d(x).
A
dQ dP d
est une densit de par rapport .
Remarque 4. Dans les thormes de RadonNicodm, lhypothse dexistence dune famille dnombrable engendrant la tribu est par exemple vrifie
dans le cas o F est la tribu borlienne dun espace sparable. Toutefois, il
faut noter que cette hypothse nest pas ncessaire, les thormes de Radon
Nicodm pouvant se dmontrer directement par des techniques hilbertiennes.
4.4
4.4.1
73
4.4.2
d
d
d
d
)1
d
d
74
Chapitre 5
Ingalits
Le but de ce chapitre est de prsenter, en application de la thorie des
martingales, et, plus gnralement, de lesprance conditionnelle, quelques
ingalits utiles en probabilits. Il ne sagit pas ici dapplications scolaires :
elles sont choisies pour leur utilit dans la pratique courante dun chercheur
en probabilits et en statistiques.
5.1
Ingalit dEfronStein
E[(Z Zi )2 ].
i=1
E[Yi2 ]
i=1
76
CHAPITRE 5. INGALITS
5.2
5.2.1
Lingalit de HoedingAzuma
Le thorme
Thorme 41. Soient (Fn )n0 une filtration et (Yn )n0 une martingale adapte la filtration (Fn )n0 .
On suppose quil existe des rels (kn )n1 tels que |Yn Yn1 | kn presque
srement.
On suppose que la srie de terme gnral kn2 est convergente, de somme
2 . Alors, si on note Y la limite de Yn , on a E[Y ] = E[Y0 ] et pour tout
x > 0, on a
(
x2
P(Y Y0 x) exp 2
2
x2
et P(Y Y0 x) exp 2 ,
2
(
x
de sorte que P(|Y Y0 | x) 2 exp 2
2 .
2
).
2
1 x 1 + x
e +
e .
2
2
77
2n
n=1 (2n)!
+
2n
( 2 )
exp( /2) = 1 +
=1+
n
n=1 2 n!
n=1 n!
2
Or pour tout n 1, on a
2n
2 .2
... 2
2n
2n
= n
n
(2n)!
2 n! (n + 1).(n + 2) . . . (2n)
2 n!
2
2
).
2
2 2
2
) = exp( kn+p
),
2
2
soit
E[eDn+p |Fn+p1 ] exp(
2 2
k ),
2 n+p
78
CHAPITRE 5. INGALITS
do
1
2
E[e(Yn+p Yp ) |Fn+p1 ] e(Yn+p1 Yp ) exp( 2 kn+p
).
2
En prenant lesprance, on a
1
2
E[e(Yn+p Yp ) ] E[e(Yn+p1 Yp ) ] exp( 2 kn+p
),
2
soit
E[e(Yn+p Yp ) ]
1 2 2
exp(
k ).
E[e(Yn+p1 Yp ) ]
2 n+p
exp(
k ),
n=1
E[e(Yp Yp ) ]
2 n+p
soit
E[e
(Y+p Yp )
1
1
2
] exp( 2
kn+p
) = exp 2 (L+p Lp ) .
2 n=1
2
ex
(
)
1 2
exp x + (L+p Lp ) .
2
En prenant =
x
,
L+p Lp
on obtient
(
1
1
P(Y+p Yp x) exp x2
) .
2 L+p Lp
Cependant (Yn )n0 est galement une martingale, avec | Yn (Yn1 )|
kn , donc on a galement
(
1
1
.
P(Y+p + Yp x) exp x2
2 L+p Lp
Finalement
(
x2
P(|Y+p Yp | x) P(Y+p Yp x)+P(Y+p +Yp x) 2 exp
.
2(L+p Lp )
79
On a pour tout n :
E|Y0 Yn | =
2tP(|Y0 Yn | > t) dt
t2
4t exp 2
2
dt = 4 2 .
(Yn Y0 )n0 est une martingale centre borne dans L2 : elle converge presque
srement et dans L2 vers une variable Y Y0 desprance nulle. Soient x > 0
et ]0, x/2[
P(Y Y0 x) P(|Y Yn | > ) + P(Yn Y0 > x 2)
(
)
(x 2)2
P(|Y Yn | > ) + exp
2 2
En faisant tendre n vers +, puis vers 0, on obtient une des deux ingalits
voulue. Lautre sobtient de la mme manire.
5.2.2
Principe de Maurey
x2
P(Z E[Z] x) exp 2
2
et
do
x2
P(Z E[Z] x) exp 2 ,
2
x2
P(|Z E[Z]| x) 2 exp 2 .
2
80
CHAPITRE 5. INGALITS
Ainsi
Yi1 Yi
E[f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , . . . , Xi1 , Xi ]
E[f
]
[ (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )|X1 , .. . , Xi1 , Xi ]
f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn )
X , . . . , Xi1 , Xi
= E
f (X1 , . . . , Xi1 , Xi , Xi+1 , . . . , Xn ) 1
=
n
n
1{xj =i} .
i=1 j=1
5.3
x2
).
2n
Ingalit de Harris
81
soit 2(E[f (X1 )g(X1 )]Ef (X1 )Eg(X1 )) 0, ce qui est lingalit voulue pour
n = 1.
Supposons le rsultat acquis jusqu n et soient f, g deux fonctions de
R
dans R. On pose
n+1
do
E[H(X1 , . . . , Xn )] E[F (X1 , . . . , Xn )G(X1 , . . . , Xn )].
Mais F et G sont des fonctions croissantes, donc daprs lhypothse de rcurrence
E[F (X1 , . . . , Xn )G(X1 , . . . , Xn )] E[F (X1 , . . . , Xn )]E[G(X1 , . . . , Xn )].
Comme E[H(X1 , . . . , Xn )] = E[f (X1 , . . . , Xn+1 )g(X1 , . . . , Xn+1 )] tandis que
E[F (X1 , . . . , Xn )] = E[f (X1 , . . . , Xn+1 )] et E[G(X1 , . . . , Xn )] = E[g(X1 , . . . , Xn+1 )],
on a le rsultat voulu.
82
CHAPITRE 5. INGALITS
5.4
5.4.1
x2
).
2nM 2
83
k
1 k1
.
=n 1
n
n
2. On pose vn = max0kn3/2 E[Xkn ]. Montrer que vn ne .
E[Xkn ]
n N
n/e| n)
n3/2
k=0
Xn /n
4. En dduire que
5. Montrer linclusion
5.4.2
Exercice 41. Lors dun vote, les deux candidats en prsence optiennent chacun n voix. On note En lcart maximal observ dans les bulletins dpouills
au cours du scrutin. Montrer que pour tout x > 0,
P(|En E(En )| > x) 2 exp(
lien vers lindication
x2
).
2n
84
CHAPITRE 5. INGALITS
2
P(| E()| > n 1)| 2e /2 .
lien vers lindication
Chapitre 6
Statistiques exhaustives
On suppose ici que pour tout , P est une mesure de probabilit
sur (, F). Le problme fondamentale de la statistique est dobtenir des
informations sur la valeur du paramtre , rput inconnu, partir dune
observation. Une telle collection (P ) est appele un modle statistique.
On note X lobservation gnrique, cest dire que lon travaille directement
sur lespace observ : X() = . Les applications mesurables sur (, F) sont
appeles des statistiques.
un modle statistique (P ) sur (, F) est naturellement associ un
autre modle sur (n , F n ) : la (Pn
) : Dans ce cas, les projections canon
niques X1 , . . . , Xn de sur constituent sous Pn
un chantillon de la loi
(6.1)
P [X A|S]() = P (A)
85
P -p.s
(6.2)
86
6.1
i mi ,
(6.3)
iD
n \An1 ))
et (An+1 ) > (An ) pour tout n, lidentit (A) = n1 2n (A(A
(An \An1 )
dfinit une mesure de probabilit.
n \An1 ))
(A) = 0 si et seulement si (A(A
= 0 pour tout n, soit si et
(An \An1 )
seulement si (A (An \An1 )) = 0 pour tout n, ce qui arrive si et seulement
si (A) = 0. Les mesures et sont donc absolument continues lune par
rapport lautre.
Notons P lensemble des mesures de la forme (6.3), et regardons la classe
A = P {A : (A) > 0, ( A) }.
Formons une suite (An ) telle (An ) converge vers supAA (A). Soit i
une mesure telle que ( Ai ) i . On pose
m=
1
.
n i
n=1 2
87
6.2
88
Thorme 44. On suppose que la famille des lois (P ) est domine par
rapport une mme mesure -finie.
Alors, une statistique S est exhaustive si et seulement si il existe une
fonction h et des fonctions telles que la fonction de vraisemblance f (x)
scrive (S(x))h(x) presque partout.
et
Thorme 45. On suppose que la famille des lois (P ) admet une densit
par rapport une mme mesure -finie.
Alors, une tribu S est exhaustive si et seulement si il existe une fonction
h et des fonctions S-mesurables telles que la fonction de vraisemblance f
scrive
f (x) = (x)h(x) presque partout.
Vu le lemme de Doob, il sut de dmontrer le thorme 45 : en lappliquant une tribu engendre par une statistique, on obtient le thorme 44.
On va commencer par traiter le cas o la mesure de rfrence est une
dominante privilgie.
Thorme 46. On suppose que la famille des lois (P ) est domine et
que m en est une dominante privilgi.
Alors, une tribu S est exhaustive si et seulement pour tout , il existe
une fonction g S-mesurable telle que
g soit une densit de P par rapport m.
Dmonstration. Supposons que la statistique est exhaustive et prenons
. On note r la densit de P par rapport m.
Rappelons quon sait que pour tout
P [X A|S]() = P (A) P -p.s
Comme m est un mlange dnombrable des P , on a encore
m[X A|S]() = P (A) m-p.s.
On a
P (X A) =
P (X A|S) dP
P (A) dP ()
P (A) r () dm()
P (A) g () dm(),
(6.4)
89
On a donc montr
P (X A) = Em (1XA g ),
cest dire que g est la densit de la loi P par rapport m.
Rciproquement, supposons que pour tout , il existe une fonction g
S-mesurable telle que pour tout A P (A) = Em (1A g ) et montrons que
P (A|S) = Pm (A|S) P p.s..
Fixons et A, et considrons sur S la mesure A, = P (A ). On va
calculer de deux manires direntes une densit de A, () par rapport m.
En utilisant tout de suite la forme particulire de la densit de P par
rapport m, on a
A, (C) = Em (1C 1A g )
= Em [Em [1C 1A g |S]]
= Em [1C g Pm [A|S]
donc la drive de RadonNicodm de A, () par rapport m est g (S)Pm [A|S].
Cependant, en commenant par un calcul direct, on obtient
A, (C) = E [1A 1C ]
= E (E [1A 1C |S])
= E (1C P [A|S])
= Em (1C P [A|S]g ),
donc la drive de RadonNicodm de A, () par rapport m est g P [A|S].
On en dduit que
g P [A|S] = g (S)Pm [A|S] m p.s.
Comme P m, on a encore
g P [A|S] = g Pm [A|S] P p.s.
Notons enfin P (g = 0) = Em [1{g =0} g(S) ] = 0. Ceci permet de diviser
par g (S) et on obtient
P [A|S] = Pm [A|S] P p.s.
90
ai Pi (A)
iD
ai
1A (x)r(x)h(x) d(x),
iD
P (A) = P (A Z)
1A 1Z h d
1A 1Z h
rh
d
rh
rh d
r
= 1A 1Z
dm
r
dm
= 1A
r
=
En posant g (s) =
(s)
,
r(s)
1A 1Z
6.3
91
Amlioration de Rao-Blackwell
Le thorme de Rao-Blackwell-Kolmogorov permet comment la connaissance dune statistique exhaustive permet damliorer des estimateurs.
Thorme 47. Soit g un estimateur de g() et S une statistique exhaustive.
Alors
E [
g |S]
est un estimateur de g qui est prfrable g au sens o
E ((E [
g |S] g())2 ) E (
g g())2 .
g dPs .
6.4
Var g Var g.
On dit quune tribu exhaustive S0 est minimimale si toute tribu exhaustive S vrifie S0 S.
Une statistique exhaustive est dite minimale si la tribu quil engendre est
minimale.
Thorme 48. Soit une famille de mesures de probabilit (P ) telle que
chaque m est absolument continue par rapport une mme mesure . On
note f la densit de P par rapport . Alors, si, avec les notations du
92
soit f = dP
f . Ainsi r est la densit de P par rapport m. videmment, r
dm m
est T -mesurable, donc daprs le thorme de Fisher, T est exhaustive. Soit
S une tribu quelconque suppose exhaustive pour (P ). Daprs le thorme
de Fisher, on a une criture
f = h,
iD
i fi =
i i h
iD
h
f
=
=
fm
iD i i h
iD i i
(En eet h est -presque srement non nulle.) Cette identit montre que r
est S-mesurable, do T = ((r )D ) S, ce qui montre bien que T est
minimale.
Corollaire 13. On suppose que les mesures P ont toutes le mme support
et que les hypothses du thorme de Factorisation sont vrifies :
f (x) = h(x) (S(x)).
Si il existe 1 , 2 avec 1 = 2 tels que lapplication x 7
alors S est une statistique exhaustive minimale.
1
2
est bijective,
6.5
Statistiques compltes
93
94
6.6
Modles exponentiels
()
i=1
et
n
i=1
S(xi ) ,
i=1
f (x)(S(x)) d = 0.
Pour tout , on a
soit encore
95
0=
1{(y)=0} dS
1{(S(x))=0} d
1{(S(x))=0} (x) d
96
6.7
6.7.1
6.7.2
i=1
(nz)k
f (k)
k=0 k!
97
n
1
1
(Xi X n )2
(X1 + + Xn ) et Sn2 =
n
n 1 i=1
sont indpendantes.
lien vers lindication
98
Chapitre 7
Information de Fisher
Soit un ouvert de R Dans tout ce qui suit, on suppose que ( ) est
une famille de lois sur Rd et une loi sur telles que :
P admet une densit f par rapport avec f > 0.
Pour presque tout x , f (x) est drivable par rapport .
7.1
Hypothses
h(x)f x d.
alors on aura
E [h(X)] = E [W h(X)],
avec
W = (
h H
(7.1)
log f )(X).
E [h(X)] = E [W h(X)].
(7.2)
100
Thorme 52. Si lon prend pour H lensemble des fonctions bornes, alors
une condition susante pour (7.2) est la suivante :
Pour tout , il existe un voisinage V de tel que
sup
V
f L1 ().
(gx ())2
d(x) =
)2
f (x)
d(x)
La quantit (
log f )(X) est indpendante de la mesure de rfrence
. En eet si les ( ) ont des densits (f ) par rapport et (g ) par
rapport , alors les ( ) ont des densits (h ) par rapport +
et on a
d
d
d
d
d
d
=
et
=
.
d( + )
d d( + )
d( + )
d d( + )
est + presque partout non-nulle. Soit x un point de Rd :
on suppose que f0 (x) > 0 (ce qui est + partout quivalent
h0 (x) > 0) : on a sur un voisinage V de 0 :
d
d(+)
d
(x),
d( + )
101
log f )(X),
Remarque 7. Lhypothse (7.2) est trs importante. Cest elle qui donne du
sens linformation de Fisher. Nanmoins, il est intressant de dfinir I()
avant de savoir si (7.2) est ralise, car on verra que certaines proprits de
I peuvent parfois tre utiles pour dmontrer que (7.2) est vrifie.
7.2
Ingalit de Cramer-Rao
102
g ()2
,
I()
7.3
7.3.1
Quelques proprits
Information de Fisher dun produit
Thorme 56. On suppose que (P1 ) et (P2 ) ont mme support pour tout
et que les modles (P1 ) et (P2 ) vrifient les hypothses du thorme 53. Alors,
le modle P = P1 P2 vrifie les hypothses du thorme 53, on a
W(1 ,2 ) (X) = W1 (X1 ) + W2 (X)
et I() = I1 () + I2 ().
103
7.3.2
I S () I().
= E [E [W |S]h(S(x))]
= E [ (S)h(S(x))]
I () =
= E [2 (x)] = E [E [W |S]2 ]
104
7.4
7.4.1
105
Exercice 50. On appelle loi de Pareto Pa, de paramtre (a, ) la loi sur R
de densit xa
+1 1]a,+[ (x). On considre le modle (P1, )>0 .
1. Calculer le score W , puis I().
2. En dduire que T = log X est un estimateur sans biais de g() = 1 .
3. Calculer Var T . Comparer avec la borne de Cramer-Rao
pliquer
4. Existe-til un estimateur sans biais de ?
lien vers lindication lien vers la solution
g ()2
.
I()
Ex-
Sd (Sd +d1)
.
d
7.4.2
Sd (Sd 1)
d2
Exercice 52.
1. calculer linformation de Fischer lorsque =]0, +[
et est la loi de Poisson de paramtre .
2. Mme question lorsque = P()n
lien vers lindication
Exercice 53. Le but de cet exercice est de dmontrer le thorme suivant
annonc en cours :
Soit (P ) un modle domin par , de densit
f . On suppose que
(gx ())2
d(x) =
)2
f (x)
d(x)
106
Xn = 2h(X) f+U n (x) Yn =
( f+U n )(X),
et Zn = Xn Yn .
h(x)
f (x) d(x).
Chapitre 8
Loi dun processus
8.1
Dfinition: Un processus stochastique est une famille infinie (Xt )tT de variables alatoires dfinies sur le mme espace de probabilit (, F, P)
Le plus souvent, T est un ensemble ordonn qui joue le rle du temps,
par exemple T = N, Z, R. Le cas T = Zd , qui voque plutt une structure
spatiale est galement intressant.
Dfinition: On appelle trajectoire de X tout lment X() = (Xn (), n
T), .
Dfinition: On dfinit la tribu borlienne sur RT , note B(RT ), comme tant
la plus petite tribu qui rend mesurable les projections i : RT R, =
(n )nT 7 i .
On a vu au chapitre 4 que dans le cas o T est dnombrable, B(RT )
concide avec la tribu borlienne de RT . Cest encore vrai lorsque T est infini
dnombrable, mais dans ce cas la topologie qui doit tre mise sur RT (la
topologie produit) nest pas mtrisable.
Dfinition: Pour toute parties non vides S et S de T telle que S S , on
108
Xn : ( , F , P ) (R, B(R))
ont la mme loi si et seulement sils ont les mmes lois de dimension finie.
Dmonstration. La condition ncessaire est vidente, daprs la proposition
prcdente. Rciproquement, si X et X ont les mmes lois de dimension
finie, daprs la proposition prcdente, PX et PX ont les mmes images
par projection sur les espaces-produits de dimension finie (RS , B(RS )). On
considre
C={
An , n, An B(R), et N, n N An = R}
nT
109
Thorme 60. Tout processus stochastique a mme loi que son processus
canonique associ, quand on munit lespace de ses trajectoires de la loi PX .
Dmonstration. : (Xn )nT 7 (Xn (), )nT est lapplication identit
de RT . Donc limage de PX par est PX .
8.2
.
N une mesure QS comme tant la mesure image de Q{1,...,max S} par S
Il nest alors pas dicile de vrifier que (QS ) est un systme projectif de lois.
Exemple: Si pour tout i T, i est une mesure de probabilit sur R, la
famille (QS )SF (T ) dfinie par QS = iS i est un systme projectif de lois.
Thorme 61. Thorme dexistence de Kolmogorov.
On se place sur (RT , B(RT )). Pour toute partie S F(T), soit QS une mesure de probabilit sur (RS , B(RS )). Les trois conditions suivantes sont quivalentes :
1. Il existe un espace de probabilit (, F, P) et pour tout n T une
variable alatoire Xn : (, F, P) (R, B(R)) telle que (QS , S
F(T)) soit lensemble des lois de dimension finie du processus X =
(Xn , n T)
2. Il existe une mesure de probabilit Q sur (RT , B(RT )) dont limage par
S soit QS quelle que soit la partie finie, non vide S de T,
3. (QS , S F (T)) est un systme projectif de lois.
Dmonstration. On va seulement donner la preuve dans le cas o T = N. Le
cas o T est dnombrable sen dduit immdiatement ; en revanche la preuve
dans le cas gnral demanderait un argument supplmentaire.
(1)=(2) : il sut de prendre Q = PX .
(2)=(3) : si S S, on a S = SS S . QS est la mesure image de Q
par S , mais cest aussi la mesure image par SS de la mesure image
de Q par S , soit donc la mesure image de QS par SS , ce qui montre
bien que le systme (QS ) est projectif
110
111
8.2.1
8.2.2
Loi markovienne
n1
pxi ,xi+1 .
i=0
Dmonstration. On dfinit par rcurrence une suite de mesures (Pn )n0 avec
P0 = , puis
Pn+1 ({(x0 , . . . , xn+1 )}) = Pn ({(x0 , . . . , xn )})pxn ,xn+1 .
112
Soit A Dn+1 . On a
Pn+1 (A D) =
Pn ({(x0 , . . . , xn )})1
(x0 ,...xn )A
= Pn (A)
Lidentit quon vient de montrer permet de montrer par rcurrence que
Pn (Dn+1 ) = 1. Elle exprime galement que la loi de (0 , . . . , n ) sous Pn+1
est Pn : on a donc un systme projectif de lois, ce qui permet dappliquer le
(corollaire du) thorme dexistence de Kolmogorov.
8.3
113
Dmonstration.
On raisonne par rcurrence. Au rang initial, A
F, P(A) = P(T 1 (A)) parce que T conserve P. Si pour un entier n 1,
on a dmontr que
A F , P(A) = P(T n (A)),
alors comme
P(T n (A)) = P(T 1 (T n (A))) = P(T (n+1) (A)),
et il vient
114
8.4
8.4.1
Processus gaussiens
Caractrisation
Dfinition: On dit quun processus (Xt )tT est gaussien si pour tout S
F(T ), le vecteur (Xs )sS est gaussien.
tout processus gaussien, on peut associer son esprance (EXt )tT et sa
fonction de covariance
CX : (s, t) 7 E(Xt EXt )(Xs EXs )).
Proposition 6. Deux processus gaussiens ont mme esprance et mme
fonction de covariance si et seulement si ils ont mme loi.
Dmonstration. Notons (Xs ) et (Ys ) les deux processus considrs.
115
EXs =
s dPX ()
RT
et
EYs =
RT
s dPY ().
Dire que (Xs ) et (Ys ) ont mme loi, cest prcisment dire que PX =
PY . Cela implique donc quils ont les mmes esprances. Les identits
EXs Xt =
et
EYs Yt =
RT
s t dPX ()
RT
s t dPY ()
8.4.2
Condition dexistence
Thorme 66. Soit (mt )tT et (cs,t )(s,t)T T des rels. Il existe un processus
gaussien de moyenne (mt )tT et de covariance (cs,t )(s,t)T T si et seulement
si
Pour tous s, t T , on a cs,t = ct,s .
Four tous S fini inclus dans T et tout x RT , on a
(s,t)SS
Dmonstration. La ncessit des deux conditions provient du fait que (cs,t )(s,t)SS
doit tre la matrice de covariance du vecteur (Xs )sS Pour voir que ces conditions sont susantes, il sut dappliquer le thorme de Kolmogorov la
famille de mesures N (mS , CS ) o mS = (mt )tS et CS = (cs,t )(s,t)SS qui
est compatible.
116
8.4.3
Thorme 67. Soit (Xn )nZ un processus gaussien. (Xn )nZ est stationnaire
si et seulement si il existe une constante m et une fonction telle que
Pour tout n EXn = m
Pour tous n, p entiers on a E(Xn m)(Xp m) = (n p).
est appele fonction dautocovariance du processus.
Dmonstration. Supposons que le processus est stationnaire et posons m =
EX0 et (n) = E(Xn m)(X0 m). Pour tout n X0 et Xn ont mme loi, donc
EXn = EX0 = m. Dautre part, le couple (Xn , Xp ) a mme loi que le couple
(Xnp , X0 ) : on a donc E(Xn m)(Xp m) = E(Xnp )(X0 m)) = (n p).
Rciproquement, supposons que pour tout n EXn = m et que pour tous n, p
entiers on a E(Xn m)(Xp m) = (np). Il faut dmontrer que le processus
(Xn+1 )nZ a mme loi que le processus (Xn )nZ . Ces deux processus tant
gaussiens, ils sut de montrer quils ont mme esprance et mme covariance.
Or on a pour tout n :EXn+1 = m = EXn et pour tous n, p
E(Xn+1 EXn+1 )(Xp+1 EXp+1 ) =
=
=
=
=
ce qui achve la preuve.
E(Xn+1 m)(Xp+1 m)
((n + 1) (p + 1))
(n p)
E(Xn m)(Xp m)
E(Xn EXn )(Xp EXp ),
8.5
8.5.1
117
iD
(i)Pi .
118
|B(
xi )|.
i=1
a{1,...,q}
|B((x1 , . . . , xn ))|
S(q, n)
119
|B((x1 , . . . , xn ))|
.
S(q, n)
6. Montrer que Pq est rversible, cest dire que pour tout n 1 et tout
x = (x1 , . . . , xn ) {1, . . . , q}N , on a
Pq (1 = x1 , . . . n = xn ) = Pq (1 = xn , . . . n = x1 ).
7. En dduire que Pq est invariante par le dcalage .
8. On sintresse maintenant au cas o q = 4.
(a) Montrer quil existe des constantes (cn,p )n0,p0 telles que pour
tout n, p 0, pour tout x {1, . . . , q}n et tout y {1, . . . , q}p , on
ait
8.5.2
i
1. Posons, pour s B(0, 1) : S(s) = +
i=0 1{i =c} s . Montrer que
E(S(s)) =
1 s + ps
.
1s
(x)
=
T (x) (x)
x
si T (x) < +
.
sinon.
120
Nk
GT (s) = E[sT ]. En remarquant que S(s) = +
k=0 s , avec N0 = 0 et
k1
Nk = i=0 T i , montrer que E(S(s)) = 1G1T (s) , puis que GT (s) =
ps2
1s+ps2
121
Exercice 64. Soit un rel. Montrer que lapplication de [0, 1] dans luimme qui x associe la partie fractionnaire de x + laisse invariante la
mesure de Lebesgue sur [0, 1]. Comment interprter ce rsultat si lon identifie
[0, 1[ au cercle unit par lapplication x 7 e2ix ? lien vers lindication
Exercice 65. On appelle bruit blanc une suite (Zn )nZ de variables alatoires
indpendantes suivant la loi N (0, 1). Soit (Zn )nZ un bruit blanc et =
(0 , . . . , q ) Rq+1 avec 0 = 0 et q = 0. On considre la moyenne mobile :
Xn =
k Znq .
k=0
122
Chapitre 9
Chanes de Markov
9.1
9.1.1
Dfinition et caractrisations
Dfinition
n1
pxi ,xi+1 .
i=0
9.1.2
Thorme 68. Soit (Xn )n0 une suite de variables alatoires valeurs dans
S. Les trois proprits suivantes sont quivalentes :
1. (Xn )n0 est une chane de Markov de matrice de passage P valeurs
dans S
2. Quels que soient x0 , . . . , xn1 dans S tels que P(X0 = x0 , X1 = x1 , . . . Xn1 =
xn1 ) > 0, alors P(Xn = xn |X0 = x0 , X1 = x1 , . . . , Xn1 = xn1 ) =
pxn1 ,xn .
123
124
(9.1)
Cela signifie que toute linformation que X0 , . . . , Xn1 peuvent nous apporter sur Xn est comprise dans Xn . Remarque : (9.1) implique que P(Xn =
xn |Xn1 ) = pXn1 ,xn
9.1.3
Dynamique markovienne
Alors (Xn )n0 est une chane de Markov de loi initiale et de matrice de
transition M , o M est dfinie par
(i, j) S S
125
=
=
=
=
=
P({(X0 , . . . , Xn ) A} {Xn
P({(X0 , . . . , Xn ) A} {Xn
P({(X0 , . . . , Xn ) A} {Xn
P({(X0 , . . . , Xn ) A} {Xn
P({(X0 , . . . , Xn ) A} {Xn
P({(X0 , . . . , Xn ) A} {Xn
= i} {Xn+1 = j})
= i} {fn+1 (i) = j})
= i})P(fn+1 (i) = j)
= i})P(fn+1 S . . . {j} . . . S)
= i})(S . . . {j} . . . S)
= i})mi,j
9.2
Matrice stochastique
Dfinition: Soit S un ensemble dnombrable et P = (pi,j )(i,j)SS une matrice coecients positifs. On dit que P est une matrice stochastique si on
a
i S
pi,j = 1.
jS
9.2.1
126
n1
pxi ,xi+1 .
i=0
Corollaire 16. Soit P une matrice markovienne sur S. Pour tout , on note
P la mesure markovienne sur S N de loi initiale et de matrice de passage
P , ainsi que Pi = Pi . Pour toute loi sur S, P admet la dsintgration
P =
Pi d
(9.2)
Pi (A) d
(9.3)
(A) =
Pi (A) d
n1
pxi ,xi+1 .
i=0
Remarques :
On trouve parfois la notation Pi la place de Pi . Dans ce cas, il faut
faire attention quil peut y avoir ambiguit sur le sens de la notation
PX .
9.2.2
127
Une matrice stochastique indexe par peut assez naturellement tre vue
comme un oprateur sur lespace des fonctions bornes sur S. Rappelons
que lespace des fonctions bornes, que lon note (S), est lensemble des
fonctions f telles que f = sup{|f (i)|; i S} < +, et que est une
norme sur (S).
Maintenant, si f (S), la fonction P f dfinie par
i S
(P f )(i) =
pi,j f (j)
jS
jS
|pi,j f (j)|
pi,j f = f
jS
montre que la srie converge absolument. De plus, comme pour tout i, |P f (i)|
f , on a P f f : P est une contraction de lespace des fonctions
bornes.
Remarque : (P f )(i) est lintgrale de la fonction f par rapport la mesure
de probabilit sur S qui aecte la j la probabilit pi,j .
Thorme 70. Soit (Xn )n0 une suite de variables alatoires valeurs dans
S. On a quivalence entre
1. (Xn )n0 est une chane de Markov de matrice de passage P valeurs
dans S.
2. Pour toute fonction f (S) et pour tout entier n 0
E[f (Xn+1 )|X0 , . . . , Xn ] = (P f )(Xn ).
Dmonstration. Pour le sens direct, il sut de prendre f = i et dappliquer
la caractrisation vue en dbut de chapitre. Regardons la rciproque. Si f =
i , lidentit dcoule encore de la caractrisation vue en dbut de chapitre.
Par linarit, lidentit stend au cas des fonctions support fini. Passons
au cas dnombrable. Il existe une suite croissante densembles finis (Sp )p1
avec S = p1 Sp . f 1Sp est une fonction borne, donc
E[(f 1Sp )(Xn+1 )|X0 , . . . , Xn ] = (P (f 1Sp )(Xn ).
Le thorme de convergence domine pour lesprance conditionnelle nous
dit que
lim E[(f 1Sp )(Xn+1 )|X0 , . . . , Xn ] = E[f (Xn+1 )|X0 , . . . , Xn ].
p+
128
p+
(9.4)
9.2.3
P (Xn = i, Xn+1 = j)
=
iS
P (Xn = i)pi,j
iS
n (i)pi,j
iS
= (n M )(j)
129
9.2.4
n1
pxi ,xi+1 ,
i=0
Pi (Xn = xn ) =
(x0 ,...xn1 )S n
(9.5)
En particulier, si lon pose
(n)
pi,j =
(n)
pi,j
= P (Xn = j), on a
i
xS n1
(n)
Donc pi,j > 0, autrement dit il est possible daller en n tapes de ltat i
ltat j si et seulement si on peut trouver dans le graphe G un chemin de
longueur n allant de i j.
On en dduit que
Pi (n > 0; Xn = j) = Pi (n1 {Xn = j}),
130
p:ap >0 ap np et N =
p:ap <0 (ap )np . On a P A, N A et 1 = P N .
Soit n N (N 1). On peut crire n = bN + r, avec b N 1 et r
{0, 1, . . . N 1}. On a n = bN + r = bN + r(P N ) = rP + (b r)N A
car b r N et A est stable par addition.
Corollaire 19. Si x est un tat de priode 1 et quil existe un chemin de
longueur d(x, y) allant de x y, alors pour tout n N (x, y) = N (x)+d(x, y),
il existe un chemin de longueur n allant de x y. Ainsi, si P est la matrice
associe, P n (x, y) > 0.
131
9.3
9.3.1
Proprit de Markov
Le thorme
Thorme 72. Soit (Xk )k0 une chane de Markov de matrice de passage
P . Soit p un entier naturel. La suite (Xk+p )k0 est une chane de Markov
de matrice de passage P et de loi initiale la loi de Xp . De plus, pour tout A
Fp -mesurable et tout i S, on a
P(A, Xp = i, Xp+. B) = P(A, Xp = i)Pi (X B).
De manire quivalente, on a P presque-srement :
P(Xp+. B|Fp ) = fB (Xp ), avec fB (x) = Px (X B).
Dmonstration. Comme tre une chane de Markov est une proprit de la
loi, on peut supposer que (Xn )n0 est obtenue par le procd dcrit plus
haut : Xn+1 = fn+1 (Xn ) o (fn )n1 est une suite de variables alatoires
indpendantes de loi M ,(fn )n1 tant de plus suppose indpendante de X0 .
Posons Yn = Xn+p Si lon pose gn = fn+p , on a la rcurrence Yn+1 = gn+1 (Yn ).
132
P(A, Xp = i, Xp+. B)
P(A, Xp = i)Pi (X B)
= E[1A fB (Xp )]
9.3.2
Corollaire 21. Soit (Xn )n0 une chane de Markov de matrice de passage (pi,j ), B un borlien de RN . On note loprateur de translation :
((xn )n0 ) = ((xn+1 )n0 ).
133
Alors
P((X) B) = PPX1 (X B)
=
P(X1 = j)Pj (X B)
j:P(X =j)>0
1
j
j:pi,j >0 pi,j P (X
B)
Dmonstration. La premire galit traduit exactement la proprit de Markov : une chane de Markov observe partir du temps 1 a la mme loi
quune chane de Markov de mme dynamique commenant avec comme valeur initiale celle que prend la chane de Markov non dcale au temps 1.
La deuxime galit correspond une dcomposition suivant les valeurs que
peut prendre X1 .
Passons au cas o B est invariant :
Pi (X B) = Pi (X 1 (B))
= Pi ((X) B)
=
Pi (X1 = j)Pj (X B)
i:P i (X =j)>0
=
p P
i:pi,j >0 i,j
(X B)
134
9.4
9.4.1
x, y E
Montrer que la suite (Yn ) dfinie par Yn = (Xn ) est une chane de Markov
et dterminer sa matrice de transition. Montrer que si est une probabilit
stationnaire pour la chane (Xn ) alors limage de par est stationnaire
pour (Yn ).
lien vers lindication lien vers la solution
9.4.2
135
P =
, 0 , 1.
(1 )n
+
+
P (Xn = 0) =
+ (1 )n (0)
.
+
+
3. Si (, ) = (1, 1), montrer que (Xn )n0 converge en loi vers une loi
que lon dterminera. On supposera pour la suite de lexercice que
(, ) = (1, 1).
4. (Mesure stationnaire) Prouver que, pour tout n N,
P (Xn A) = (A).
lien vers lindication
Exercice 72. Reprsentation canonique et simulation des chanes de Markov.
136
P = 0.5 0 0.5 .
0.5 0.5 0
lien vers lindication
Exercice 73. Temps datteinte dun tat absorbant.
Soit (Xn ) une chane de Markov sur un ensemble dnombrable E et a E
un tat absorbant. On pose T = inf{n 0; Xn = a}. Montrer que P(Xn =
a) = P(T n). lien vers lindication
Exercice 74. Temps dentre : une proprit dinvariance.
Soit (Xn ) une chane de Markov sur un ensemble dnombrable E de matrice de transition Q. Pour f : E R+ , soit Qf la fonction dfinie par
Qf (x) =
yE
137
138
pg =
( pq )a+b 1
(9.6)
5 (Nicodmus)
139
Dk .
k=1
Montrer que (Sn ) est une chane de Markov . Est-elle irrductible, apriodique ?
lien vers lindication
Exercice 82. Proprit de Markov fonctionnelle
On pose F = +
k=1 f (Xk ).
Montrer que E|F | (ET 1)f .
Montrer lidentit
E1 F
E1 f (X1 )
2
2
(I N ) E F = E f (X1 )
,
3
3
EF
E f (X1 )
140
N
0 I2
En dduire E1 T, E2 T, E3 T .
lien vers lindication
Exercice 84. volution dun gnotype avec fixation
Nous travaillons ici sur une population de taille fixe forme de 2N gnes. Il
y a deux types de gnes possibles : le type a et le type A. Chacun des
gnes au temps n + 1 est engendr par deux des 2N gnes prsents au temps
N . Son type est celui dun de ses deux parents (choisi au hasard).
On considre la variable alatoire Xn gale au nombre dindividus de type
A dans la population ltape n.
On admettra quon peut modliser lvolution par la rcurrence suivante :
Xn+1 =
2N
1{Yn+1,k Xn } ,
k=1
i (j) si i = 0
=
0 (j) si i = 0
Montrer que si (Xn )n0 et (Yn )n0 sont deux chanes de Markov indpendantes, (Xn )n0 tant une chane de Galton-Waltson de loi initiale 1 et de
141
142
Chapitre 10
Rcurrence et mesures
invariantes
10.1
k=1
= lim
N +
= lim
N +
143
eitk Yk
k=1
N
1{T =j} e
it0 1A
j=1
N
j=1
eitk Yk
k=1
k=1
eitk Xj+k
144
E 1{T <+} e
it0 1A
itk Yk
= lim
N +
k=1
E 1{T =j} e
it0 1A
j=1
)
itk Xj+k
k=1
On peut rcrire 1{T =j} eit0 1A = 1{T =j}A eit0 + 1{T =j}Ac . Comme T est un
temps darrt, {T = j} A et {T = j} Ac sont dans Fj , ce qui montre que
1{T =j} eit0 1A est Fj mesurable. Par indpendance, on a donc
N
j=1
eitk Xj+k
j=1
k=1
E 1{T =j} e
it0 1A
j=1
= E 1{T N } e
it0 1A
eitk Xj+k
k=1
k=1
(tk )
)
(tk ) ,
k=1
E 1{T <+} e
it0 1A
itk Yk
= E 1{T <+} e
it0 1A
(tk )
k=1
k=1
E e
it0 1A
k=1
)
itk Yk
=E e
it0 1A
(tk ) ,
k=1
145
Thorme 74. Soit (Xn )n0 une chane de Markov. On note (Fn )n0 sa
filtration canonique. Soit T un temps darrt adapt la filtration et A FT
avec P(A{T < +}) > 0. On pose alors = {T < +}A et P = P(|)
et on dfinit sur (, F, P) : Yn () = Xn+T () (). Alors, sur (, F, P), (Yn )n1
est une chane de Markov suivant la mme dynamique que (Xn )n0 et de loi
initiale PXT .
En particulier, pour tout E borlien de RN , on a
P(Y E) = PPXT (X E).
Dmonstration. On peut supposer sans perte de gnralit que (Xn )n0 scrit
sous la forme Xn+1 = F (Xn , Un+1 ), o (Un )n1 est une suite de variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. Dans ce cas la filtration
canonique des (Xn ) coincide avec Fn = (X0 , U1 , Un ). Sur {T < +}, posons Un = UT +n . Soit B un borlien de RN . Daprs le thorme prcdent,
on a
P(A, U B|T < +) = P(A|T < +)P(U B),
soit
P(A, T < +)
P(A, U B, T < +)
=
P(U B),
P(T < +)
P(T < +)
ou encore
P(U B|(A {T < +})) = P(U B).
Ainsi, sous P(|Y B, T < +), (Un ) a la mme loi que (Un ). Maintenant,
pour tout n, on a XT +n+1 = F (XT +n , UT +n+1 ), soit Yn+1 = F (Yn , Un ) : sous
P(|Y B, T < +), (Yn ) est donc une chane de Markov avec la mme
dynamique que (Xn ). La loi initiale est la loi de Y0 sous P, soit PXT .
Comprendre le sens de la proprit de Markov forte demande un certain
travail de rflexion, mais une fois cette rflexion faite, on constatera la redoutable ecacit de cette proprit, en particulier lorsque XT est constante
sur lvnement {T < +}.
Corollaire 22. Soit S un ensemble dnombrable, (Xk )k0 une chane de
Markov sur S de matrice de passage P et T un temps darrt adapt cette
suite. Soit A un vnement se produisant avant le temps T et i S.
Conditionnellement lvnement {T < +} A {XT = i}, la suite
(XT +k )k0 est une chane de Markov de matrice de passage P partant de i.
Ainsi, pour tout borlien B de S N , on a
P(T < +, XT = i, A , XT +. B) = P(T < +, XT = i, A )Pi (X B).
146
= PPXT (X B)
X (i)
Pi (X B) dP
T
X (i)
fB (i) dP
T
= E(f
B (XT )),
fB (XT ) dP
10.2
147
1{i} (XT +k ).
k=1
k=1
k=1
Pi (Ni k) =
k=1
Pi (Ti < +)
< +.
1 Pi (Ti < +)
k=1
Pi (Xk = i) < +.
148
1{i} (Xk )
k=1
+
E 1{i} (Xk )
k=1
+
Pi (Xk = i)
k=1
(p)
Dmonstration. Soit n, p tels que pi,j > 0 et pj,i > 0. Pour tout k 0, on a
(n+p+k)
pj,j
(k)
Ainsi, si la srie de terme gnral pi,i diverge, la srie de terme gnral pj,j
aussi. Comme les rles de i et j sont symtriques, les deux sries sont de
(k)
mme nature. Comme pi,i = Pi (Xk = i), le rsultat dcoule du corollaire
prcdent.
Corollaire 26. Considrons une chane de Markov irrductible de matrice
de transition P = (pi,j )(i,j)SS et pour tous les i S , notons Pi les lois
markoviennes correspondantes. Les proprits suivantes sont quivalentes
1. i, j S Pj (Ni = +) > 0.
2. i S, i est rcurrent
3. i S, i est rcurrent
4. i, j S Pj (Ni = +) = 1.
Dmonstration.
(1) = (2). Soit l tel que Pi (Xl = j) > 0. On a
+
i
P (Ni = +) Pi (Xl = j, k=1
1{Xk+l =i} ) Pi (Xl = j)Pj (Ni =
+) > 0, donc i est rcurrent.
(2) = (3). Cest une consquence du corollaire prcdent.
149
1{i} (Xk+Ti ),
k=1
k=1
10.3
Mesures invariantes
(i)mi,j = (j).
iS
(i)mi,j = (j)mj,i .
Par extension, on dit dune chane de Markov dont la loi au temps zro est
une mesure de probabilit rversible sous laction de la matrice de transition
de la chane quelle est une chane rversible.
150
Thorme 76. Soit (Xn )n0 une chane de Markov de loi initiale rversible
sous laction de M . Alors
n 1 (X0 , X1 , . . . Xn ) et (Xn , Xn1 , . . . , X0 ) ont mme loi sous P .
Dmonstration. Il sut de montrer par rcurrence sur n que (x0 , . . . xn )
S n+1 , on a
P (X0 = x0 , X1 = x1 , . . . , Xn = xn ) = P (X0 = xn , X1 = xn1 , . . . , Xn = x0 ).
Pour n = 1, il sut de voir que
P (X0 = x0 , X1 = x1 ) = (x0 )mx0 ,x1 = (x1 )mx1 ,x0 = P (X0 = x1 , X1 = x0 ).
Ensuite
P (X0 = x0 , X1 = x1 , . . . , Xn = xn ) = P (X0 = x0 , X1 = x1 , . . . , Xn1 = xn1 )mxn1 ,xn
= mxn1 ,xn P (X0 = xn1 , X1 = xn2 , . . . , Xn1 = x0 )
= mxn1 ,xn (xn1 )
= (xn1 )mxn1 ,xn
= (xn )mxn ,xn1
n1
i=1
n1
mxni ,xni1
mxni ,xni1
i=1
n1
mxni ,xni1
i=1
= (xn )
n1
mxni ,xni1
i=0
= P (X0 = xn , X1 = xn1 , . . . , Xn = x0 ).
(n)
(i)mi,j = (j)
j S n 0
iS
151
Si une chane de Markov irrductible nest pas rcurrente, les tats sont
(n)
tous transitoires et limn+ (i)mi,j = 0 quels que soient i et j. Daprs le
thorme de convergence domine, on a alors
j S
0 = (j),
ce qui est impossible. Le premier point est donc dmontr. Prenons maintenant x E tel que (x) > 0 et soit y un autre lment de E. Il existe un
entier n et une suite x = x0 , x1 , . . . xn = y dlments de E avec pour tout i
entre 0 et n 1, mxi ,xi+1 > 0. Ainsi
n1
i=0
Thorme 78. Toute chane de Markov sur un espace dtats S fini admet
une probabilit invariante.
Dmonstration. Lensemble M(S) des mesures de probabilit sur S siden
tifie au compact K = {(x1 , . . . , xn ) Rn+ ; nk=1 xk = 1}, avec n = |S|. M(S)
est un convexe stable par 7 M . Ainsi, si est une mesure quelconque
sur S, la suite (n )n0 dfinie par
n =
1 n1
M k
n k=0
n
)
est valeurs dans M(S). On a n (I M ) = (IM
. Comme la suite
n
(I M n )n0 , est borne, il sensuit que toute valeur dadhrence de (n )n0
est laisse fixe par M . Comme M(S) est compacte, (n )n0 a au moins une
valeur dadhrence donc M au moins une mesure invariante.
Corollaire 27. Une chane de Markov irrductible dont lespace dtats est
fini est rcurrente.
Remarque-exercice : Sil est vrai quune chane de Markov avec un
espace dtat fini admet toujours une mesure invariante ; en revanche elle
nadmet pas toujours de probabilit rversible. Voici un exemple simple. Soit
N 3 un entier et p ]0, 1]. Considrons une suite (Xn )n1 de variables
indpendantes valeurs dans Z/N Z avec P(Xn = 1) = 1 P(Xn = 0) = p.
On pose Sn = X1 + + Xn . On peut dmontrer que (Sn )n1 est une chane
de Markov, qui admet la probabilit uniforme comme probabilit invariante,
mais la seule mesure rversible pour la dynamique est la mesure nulle.
152
10.4
Dmonstration. Soit X0 , X0 deux variables alatoires indpendantes, X0 suivant la loi , X0 la loi . On note galement Y0 = X0 . Soit galement (fn )n1
et (fn )n1 deux suites de variables alatoires i.i.i.d. de loi M dfinie au lemme
1, ces deux suites tant indpendantes de X0 et X0 . On dfinit par rcurrence
les suites (gn )n1 , (Xn )n1 et (Xn )n1 , (Yn )n1 par
Xn+1
n+1
gn+1
Xn+1
= fn+1 (Xn )
= fn+1
(Yn )
f
si Xn = Xn
n+1
=
f
sinon
n+1
= gn+1 (Xn )
Lemme 14. Soit (Xn )n0 une chane de Markov de matrice de transition M
et de loi initiale , (Yn )n0 une chane de Markov de matrice de transition
N et de loi initiale . On suppose en outre que les suites (Xn )n0 et (Yn )n0
sont indpendantes sous P . Alors la suite (Zn )n0 dfinie par Zn = (Xn , Yn )
est une chane de Markov de matrice de transition M N , o M N est
dfinie par
((i, j), (k, l)) S 2 S 2
153
n1
i=0
= ({x0 })({y0 })
n1
nyi ,yi+1
i=0
n1
i=0
n1
= ( )({x0 , y0 })
i=0
W () =
U () si A
V () si
/A
154
Ainsi ((Zn )n0 = ((Xn , Yn ))n0 est une chane de Markov irrductible. Comme
M M admet comme mesure invariante, la dynamique est donc rcurrente : (Zn )n0 passe donc presque srement en tout point de S S. En
particulier, elle passe presque srement sur sa diagonale, ce qui implique que
P( < +) = 1.
Soit f une fonction borne de S dans R. Pour n , on a f (Xn ) = f (Xn ).
Donc f (Xn ) f (Xn ) converge presque srement vers 0. Daprs le thorme
de convergence domine, on en dduit que E(f (Xn ) f (Xn )) converge vers
0. Comme est invariante E(f (Xn ) f (Xn)) = f d Ef (Xn ). Ainsi
pour toute fonction f , Ef (Xn ) converge vers f d, ce qui veut dire que Xn
converge en loi vers .
Remarque-exercice : lhypothse dapriodicit est importante. En effet, on peut construire deux chanes de Markov indpendantes (Xn )n0 et
(Yn )n0 ayant la mme matrice de transition irrductibles, telles que (Xn , Yn )n0
ne soit pas irrductible et que (Xn , Yn )n0 ne coupe jamais la diagonale.
Donner deux exemples dun tel phnomne, lun avec S fini, lautre avec S
infini.
155
10.5
10.5.1
Thorme 80. Soit (Xn )n0 une chane de Markov. Pour tout x S, on a
1{Tx <+}
1 n1
1{x} (Xk ) =
n+ n
Ex Tx
k=0
lim
p.s.
1 n1
1
lim
1{x} (Xk ) = x .
n+ n
E Tx
k=0
n1
Dmonstration. Si Tx = +, lgalit est vidente, car n1 k=0
1{x} (Xk ) =
1
1 n1
1
pour tout n. Si Tx < +, la suite de terme gnral n k=0 1{x} (Xk )
n {X0 =x}
n1
a le mme comportement asymptotique que la suite de terme gnral n1 k=0
1{x} (XTx +k ).
Or, daprs la proprit de Markov forte, la loi de la suite de terme gnral
1 n1
1 (XTx +k ) sous P est la mme que la loi de la suite de terme gnral
n k=0 {x}
n1
1
x
o P = Px .
k=0 1{x} (Xk ) sous P : on est ramen tudier le cas
n
inf{n > 0,
i=1
filtration naturelle engendre par (Xn )n0 . Comme x rcurrent, les T k sont
presque srement finis. Il est ais de constater que la suite (T k )k1 est croissante. Pour tout i {1, . . . k}, T i est FT i -mesurable (voir chapitre sur les
martingales). Comme T i T k , on a FT i FT k . Finalement, (T 1 , . . . , T k )
est une sous-tribu de FT k . Soit k 1 et A (T 1 , . . . , T k ) : il est clair que
A se produit avant T k . Ainsi, on va pouvoir utiliser la proprit de Markov
forte :
k
T +n
Px (A, T k+1 Tk > n) = Px (A, j=T
k +1 1{x} (Xj ) = 0)
x
x
n
= P (A)P (j=1 1{x} (Xj ) = 0)
= Px (A)Px (T 1 > n)
On en dduit que, sous la loi Px , les variables alatoires T 1 , T 2 T 1 , T 3
T 2 , . . . forment une suite de variables alatoires positives indpendantes
156
1
ayant mme loi que T
on
( = Tx . Daprs la loi forte des grands nombres
)
n
T
1
1
2
1
3
2
n
n1
en dduit que n = n T + (T T ) + (T T ) + . . . (T T
converge
x x
x
x
presque srement vers E T . Le rsultat demeure si E [T ] = + (exercice
n1
classique de troncature) Posons Sn = k=0
1{x} (Xk ). Un instant de rflexion
Sn
Sn +1
montre que T n < T
. On en dduit
T Sn
n
T Sn +1 Sn + 1
<
Sn
Sn
Sn + 1 Sn
Si x est rcurrent limn+ Sn = +, donc limn+ Snn = Ex Tx , do le
Sn
rsultat. Si x est transient, lingalit TSn Snn sut a donner la convergence
de Sn /n vers 0.
Remarque. On peut observer que la limite presque sre apparaissant dans
ce thorme dpend assez peu de ltat initial de la chane. Dans le cas
1
irrductible, Ex [T
reprsente la proportion asymptotique du temps pass
x]
par la chane dans ltat x.
Dfinition. Si x est un tat rcurrent, on convient de dire que x est rcurrent
1
1
positif si Ex [T
> 0 (soit Ex [Tx ] < +), et que x est rcurrent nul si Ex [T
=0
x]
x]
x
1
(soit E [Tx ] = +).
10.5.2
Thorme 81. Soit (Xn )n0 une chane de Markov irrductible admettant
une probabilit invariante . Pour tout x S, on a
1 n1
1
lim
1{x} (Xk ) = x = (x) > 0.
n+ n
E Tx
k=0
Dmonstration. Une chane de Markov irrductible admettant une probabilit invariante est toujours rcurrente (voir Thorme 77). Le thorme ergodique des chanes de Markov sapplique donc, et on a pour toute loi initiale
:
1 n1
1
lim
1{x} (Xk ) = x P p.s.
n+ n
E Tx
k=0
Comme | n1 n1
k=0 1{x} (Xk )| 1, le thorme de convergence domine sapplique et on a
1 n1
1
lim
P (Xk = x) = x .
n+ n
E Tx
k=0
1. On verra plus tard que pour une chane de Markov espace dtats fini, les tats
rcurrents sont tous rcurrents positifs. Les notions de rcurrence positive et de rcurrence
nulle que lon vient dintroduire nont donc pas vraiment de pertinence dans le cas de
ltude des chanes de Markov espace dtat finis.
157
xS
m(x) 1,
158
m(y)py,x = m(x).
yS
do
n
1
E[Yn ]
=
P(Xk1 = y, XXk = x)
n
yS n k=1
n
1
yS
n k=1
P(Xk1 = y)py,x
P(Xk1 = y)py,x ,
n
n k=1
yS
m(y)py,x ,
yS
do en passant au sup
m(x)
m(y)py,x .
yS
Cependant
m(y)py,x =
xS yS
m(y)py,x =
yS xS
m(y)1
yS
m(y)py,x ,
yS
10.5.3
159
Thorme 83. Soit (Xn ) une chane de Markov sur E et x S tel que
x 1
Ex [Tx ] < +. Si lon pose Nyx = Tk=0
1{Xk =y} , alors la mesure x dfinie
par
Ex [Nyx ]
x
(y) = x
.
E [Tx ]
est une mesure de probabilit invariante. En particulier x (x) =
1
Ex [Tx ]
Ainsi (Sny )n1 est une martingale 2 . Comme T x est un temps darrt, le
y
)
est aussi une martingale, en particulier
thorme darrt dit que (SnT
x n1
y
y
tend
presque srement vers STyx . Comme
]
=
0
pour
tout
n.
S
Ex [SnT
nTx
x
y
|SnTx | Tx , le thorme de convergence domine nous donne Ex [STyx ] = 0.
Cependant,
STyx =
=
=
T
x 1
k=0
Tx
1{Xk =y}
k=1
Tx
T
x 1
k=0 zS
1{Xk =y}
k=1
Nzx pz,y
zS
Nzx pz,y
zS
Ex [Nzx ]pz,y ,
zS
2. Cette martingale ne sort pas de nulle part. Dans le corollaire 17, nous avions remarqu que pour une chane de Markov (Xn )n0 de matrice de passage P et une fonction f ,
la suite (Yn )n1 dfinie par
n 0 Yn+1 = f (Xn+1 ) (P f )(Xn )
est une suite de dirences de martingales adapte la filtration canonique des Xi . Ici, on
a simplement pris f = 1i .
160
ce qui dit bien que (Ex [Nzx ])zE est une mesure invariante. Pour avoir une
mesure de probabilit, il sut de diviser par
Ex [Nzx ] = Ex [
zE
Nzx ] = Ex [Tx ].
zE
10.6
1
.
Ex [Tx ]
Considrons une chane de Markov dont lespace dtats est S On dit que
x est un tat essentiel si
x S
(x y) = (y x).
Il nest pas dicile de voir quun tat accessible depuis un tat essentiel est
lui-mme un tat essentiel.
Dmonstration. Supposons en eet que x est essentiel et que x y. Soit
z tel que que y z. On a (x y) et (y z) donc (x z). Comme x
est essentiel, (z x), or (x y), donc (z y), ce qui montre que y est
essentiel.
Soit (Ai )i I la partition de lensemble des points essentiels induite par la
relation dquivalence communique (). Chaque ensemble Ai est appel
une classe absorbante. Dun point x appartenant la classe absorbante Ai ,
on ne peut accder qu des points de Ai .
Dmonstration. En eet si x y, alors y x car x est essentiel et y est
essentiel : ainsi y est essentiel et x y, donc x et y sont dans la mme classe
dquivalence : y Ai .
Thorme 84. Les points rcurrents dune chane de Markov sont terminaux.
Dmonstration. Soient i un tat non terminal. Il existe j tel que i j mais
que j ne communique pas avec i. Soit n tel que Pi (Xn = j) > 0
Pi (Ni < +) Pi (Xn = j, k n Xk = i)
= Pi (Xn = j)Pj (k 0 Xk = i) = Pi (Xn = j).1 > 0,
ce qui montre que i nest pas rcurrent.
161
Mn = n1 n1
k=0 1{x} (Xk ). Daprs le thorme 80, Mn converge P -presque
1
srement vers {TExx<+}
, donc daprs le thorme de convergence domine
Tx
P (Tx <+)
(x) = P (TExx<+)
. Comme (x) > 0, on a Ex [Tx ] < +.
Tx
Thorme 86. Soit pi,j une matrice markovienne. Soient (Ai )iI les classes
absorbantes associes la chane, et J I lensemble des x tels que la chane
de Markov de matrice (pi,j )i,jAx soit rcurrente positive. La chane (pi,j )i,jE
possde au moins une probabilit invariante si et seulement si J est non-vide.
Dans ce cas, les probabilits invariantes sont exactements les probabilits
x
x ,
xJ
o
x est le prolongement S de lunique mesure invariante de la la chane de
markov de matrice (pi,j )i,jAx , et o les x sont des rels positifs de somme 1.
Dmonstration. Soit une probabilit invariante, cest dire telle que
i S
(i) =
(j)pj,i .
jS
Daprs les deux thormes prcdents, ne charge que des tats rcurrents
positifs, terminaux : J est donc non-vide. Soit C = xJ Ax . On sait que (i)
est nul pour i E\C. Soit x J. On sait quon ne peut accder de Ax qu
des points de Ax : i Ax j S\Ax pi,j = 0. Ainsi
i Ax
pi,j =
jAx
pi,j
jS
pi,j = 1 0 = 1.
jS\Ax
(i) =
jS
(j)pj,i =
(j)pj,i ,
jAx
162
j (j)pj,i =
jS
x (j)pj,i =
jAx
x (j)pj,i = x (j) =
x (j).
jAx
jS
j (j)pj,i =
0=0=
x (i).
jS
La mesure de probabilits
x est donc bien invariante. Pour conclure, il est
ais de voir quun barycentre de probabilits invariantes est une probabilit
invariante.
10.7
163
n+
i=1
i=
n2
n0 (n0 + 1)
0,
2
2
tandis que le choix ak = 2k1 , conduit pour k:2k2 <n0 2k1 . Cette somme
vaut 2n0 1 si n0 est une puissance de 2, et au pire 4(n0 1) 1.
Ainsi, on considre gnralement que le choix A = {2k ; k 0} est un bon
choix.
164
10.7.1
10.7.2
On suppose ici que S est un ensemble fini muni dun ordre partiel, possdant un plus grand lment et un plus petit lment. Un exemple classique
de tel ensemble est S = E L , o L est un ensemble fini et E une partie finie
de R. Dans le cas qui nous intresse ici, on prendra simplement S = E.
Dfinition On dit quune dynamique associe une matrice de Markov M
est monotone si on peut construire un ensemble F F(S, S) et une mesure
sur F(S, S) tel que
165
i, j S (f F, f (i) = j) = mi,j .
F ne comprend que des fonctions croissantes.
Mise en oeuvre
Dans la pratique, la mesure est souvent construite comme limage dune
mesure aisment simulable par lapplication
x 7 (y 7 f (x, y)),
o f est une fonction de deux variables qui est croissante par rapport
chacune des variables.
En fait, la classe des dynamiques monotones recouvre un grand nombre
de chanes de Markov classiques. Par exemple, les marches alatoires sur Z et
les marches alatoires sur Z avec barrires sont des dynamiques monotones.
Thorme 89. Soit M la matrice dune chane de Markov irrductible admettant comme mesure invariante. On suppose quon a construit un ensemble F F (S, S) et une loi support dans F telle que
i, j S (f F, f (i) = j) = mi,j .
F ne contient que des fonctions croissantes.
(Ceci signifie que la dynamique est monotone).
Soit maintenant (fn )n1 une suite de variables alatoires indpendantes
suivant la loi .
On pose g0 = IdS , puis pour n 0 gn+1 = gn fn+1 .
Soit A une partie infinie de N. On note
T = inf{n A, gn est une fonction constante}.
Alors P(T < +) = 1 et gT (x0 ) suit la loi , o x0 S est quelconque.
Dmonstration. Notons min le plus petit lment de S et Max le plus grand
lment de S. Commenons par une remarque simple : si une fonction croissante h de S dans S vrifie h(min) = Max, alors elle est constante, car
x S;
166
10.8
10.8.1
Exercices corrigs
1
3
1
3
A = 0 0 1
0 1 0
(10.1)
Montrer quil existe une unique mesure invariante, puis la donner. lien vers
lindication lien vers la solution
Exercice 87. On suppose que est la mesure invariante dune chane de
Markov sur S. Montrer que si les points i et j de S sont tels que (i) > 0 et
i j pour cette chane de Markov, alors (j) > 0. lien vers lindication lien
vers la solution
Exercice 88. Retournement du temps et oprateurs associs
Soit S un ensemble fini ou dnombrable, une mesure finie sur S.
1. Soit P = (pi,j )(i,j)S 2 , une matrice markovienne. On suppose que P
laisse invariante. Pour f 2 (), on pose
i S
(P f )(i) =
pi,j f (j)
jS
(i)pi,j = (j)qj,i .
Qf (x)g(x) d(x).
168
T m = inf n 1 + T m1 Xn A .
i=1
Ef (X0 )
.
(P f )(i) =
jE
et
i E\M
(P f )(i) =
jE
On pose T = inf{n 0; Xn M }.
(a) On suppose > 0. laide du thorme 70, montrer que E[T ]
Ef (X0 )
.
10.8.2
170
Exercice 92. Soient p ]1/2, 1[ et (Xn )n1 une suite de variables alatoires
indpendantes de loi commune p1 + (1 p)1 . On pose S0 = 0, puis pour
i=1
1{Xn (i)=0} .
x
N x
, p(x, x + 1) =
, 0 x N,
N
N
P(Bn = 1) = 1 P(Bn = 0) = 0, 6.
il
il
il
il
pleut
pleut
pleut
pleut
demain
demain
demain
demain
|
|
|
|
il
il
il
il
172
Montrer quon peut modliser ceci par une chane de Markov. Quelle est la
probabilit, sachant quil a plu lundi et mardi quil pleuve jeudi ? Sur le long
terme, quelle proportion de jours de pluie observe-t-on ?
lien vers lindication
Exercice 97. Chane de Markov rversible
1. Soit P une matrice de transition sur un espace dtats E dnombrable.
On suppose quil existe une probabilit telle que
i pi,j = j pj,i .
Montrer que est stationnaire pour la P .
2. Trouver rapidement la probabilit stationnaire de la marche alatoire
symtrique sur les sommets de lhypercube de dimension d.
3. Marche alatoire symtrique sur un chiquier (8 8). Calculer les
temps de retours moyens des dirents points de lchiquier. (On trouvera 110 pour les coins, 220/3 pour les autres points du bord, 55 pour
les autres points.)
lien vers lindication
Exercice 98. Modle de LaplaceBernoulli.
N boules noires et N boules blanches sont places dans deux urnes de sorte
que chacune contienne N boules. Aprs chaque unit de temps on choisit
au hasard une boule de chaque urne ; les deux boules ainsi choisies changent
durne. On note Yn le nombre de boules noires dans la premire urne. Montrer
que (Yn )n0 est une chane de Markov irrductible rversible et trouver sa
mesure stationnaire.
lien vers lindication
Exercice 99. Loi de Pascal Soit (Xn )n1 une suite de variables alatoires
de Bernoulli de paramtre p. On pose, pour n 1, Sn = X1 + + Xn et
n = inf{n 1; Sn n}. On appelle loi de Pascal (ou loi binomiale ngative)
de paramtre n et p.
1. Montrer que la suite (i i1 ) est une suite de variables alatoires
indpendantes dont on prcisera la loi.
2. Donner une expression explicite de P(n = k), pour k n.
3. Calculer la fonction gnratrice de la loi de Pascal de paramtres n
et p.
lien vers lindication
Annexe A
Indications
A.1
A.2
174
ANNEXE A. INDICATIONS
A.3
Indication 10
1. crire A = n0 A {N = n}.
n+1
n
x
(
)
1) nk k+1
1, puis faire ventuellement une transformation dAbel.
n
xn
nk ( k )
Indication 12
1. Calculer Qn,b (X2 = y1 , . . . Xn+b = yn+b1 ) en distinguant suivant que (y1 , . . . , yn+b1 est dans n1,b ou non.
2. crire T sous la forme T = 1{X1 =1} f (X2 , . . . , Xn+b1 ).
Indication 13 Revoir les proprits de lesprance conditionnelle.
Indication 14 On pourra crire fi (x) = xi 1A (x1 + + xn ), remarquer que
si i,j est lapplication qui change la i-me et la j-me coordonne de x, on
a fi = f1 1,i et appliquer le thorme de transfert.
Indication 15 Pour la premire mthode, on pourra poser = E[xX y Y ],
g(x, y) = x
(x, y), puis comparer les coecients de degr s de g(x, x) et de
x
(x, x).
Pour la deuxime mthode, quitte changer despace, on pourra remarquer
que X peut scrire comme une somme dindicatrices.
Indication 16
1. = {X < h} {X h}.
175
1. pas dindication
iT
k=1 (Sk
1) = (
iT
k=1
Sk ) (i T ).
A.4
Indication 23
2. (a) On pourra remarquer que (Xn ) prend ses valeurs dans [0, 1]
(b) Appliquer le thorme de convergence domine
Indication 24
d+nS
k=1
1{Un+1 =k} .
176
ANNEXE A. INDICATIONS
(b) Expliciter le lien entre
lvnement considr.
Vn d
S
iuk /n n
y1 . . . , ym sont des rels positifs de somme 1, la suite ( m
)
k=1 yk e
m
converge vers exp( k=1 iyk uk ) lorsque n tend vers linfini. Une
preuve analytique ou une preuve probabiliste est possible.
(e) Noter que la convergence presque sre entrane la convergence en
loi.
Indication 25 Soit A un vnement F mesurable. On peut crire A =
A+ A avec A+ = A {1 2 } et A = A {1 > 2 }. Il sut alors de
montrer que A+ est F2 mesurable, tandis que A est F1 mesurable.
Indication 26 Utiliser les proprits de lesprance conditionnelle
Indication 27
1. On rappelle que si Y 0 et EY = 0, alors Y est
nulle presque srement.
2. x 7 (x a)+ est une fonction convexe.
3. On pourra montrer que (Xn a) est presque srement nulle sur
lvnement {Xp a}.
4. Si deux nombres sont distincts, il y a un rationnel entre les deux.
Indication 28
1. Classique.
1. g est convexe.
177
A.5
A.6
Indication 39
1. Une permutation est une bijection, donc peut tre
utile un changement dindice.
2. Il sut montrer que h(X1 , . . . , Xn ) est valeurs dans Sn et quelle
charge galement tous les points.
3. Appliquer le principe de Maurey grce la reprsentation construite.
178
ANNEXE A. INDICATIONS
4. Appliquer la question prcdente avec n = b + r.
Indication 40
1. On trouvera Xkn = nk=1 1{Nk,p =1} . Noter que lesprance est linaire et la loi de Nk,p connue.
2. Noter que vn E[Xnn ] et que 1 x exp(x) pour tout x 0.
3. On pourra traiter sparment les vnements {Xn n/e n} et
{Xn n/e n}.
4. Appliquer le principe de Maurey. Comment est modifi X n si on
change un seul tirage ?
5. Une fois que tout a t tir deux fois, X n est connu.
6. Remarquer que Xn /n est borne.
7. Modliser le problme.
Indication 41 On pourra utiliser la mthode de lexercice 39 en considrant
x{i,j} 1{c(i)=c(j)} = 0 .
{i,j}C
On a = ((Xe )eD ) o les (Xe )eD sont des variables de Bernoulli indpendantes de paramtre p.
A.7
Indication 44
1. Exprimer E (Z) comme une intgrale par rapport
m et utiliser le thorme de factorisation de Neyman pour la dominante privilgie.
2. On pourra montrer quil existe une constante c() telle que E ((Z)|S) =
c().
Indication 45 On pourra par exemple considrer
Indication 46
n
i=1
Xi2 et
n
i=1
Xi .
179
1
n
(t)ntn1 dt.
3. Calculer E[X1 + + Xn ].
4. Utiliser la procdure classique damlioration des estimateurs sans
biais.
Indication 48
2. E [1{Xi t} ] =. . ..
3. Utiliser la procdure classique damlioration des estimateurs sans
biais.
Indication 49
A.8
Indication 50
180
ANNEXE A. INDICATIONS
Indication 52
1. On trouve W (X) = (1 + X ) = 1 (X E (X)). On
est amen calculer (ou se souvenir) de la variance dune loi de
Poisson.
2. Un thorme du cours donne le rsultat sans calcul.
Indication 53
1. Exprimer Yn2 comme une fonction de deux variables
alatoires indpendantes.
2. Appliquer le thorme de convergence domin I( + U n ).
3. Noter que Yn2 est positive et converge presque srement.
4. Utiliser lhypothse de bornitude locale pour 7 E [h2 (X)].
5. Utiliser un critre appropri dqui-intgrabilit.
6. Zn converge presque srement et . . .
7. Appliquer le thorme de transfert.
8. Utiliser la caractrisation de la drive par les suites.
A.9
Indication 54
Tout vnement A scrit comme runion dnombrable dvnements de la
forme {0 = x0 , . . . , n = xn }.
Des probabilits sur RN sont caractrises par leurs lois de dimensions finies.
Utiliser la question 1 avec n = 1.
Indication 55 On peut considrer l application
: RN RN
((xn )n0 ) 7 ((n x))
Indication 56
. . . n n + 1).
181
Indication 57
1. Considrer une partition de B(x).
2. Si x nest pas un mot propre, lidentit est vidente. Sinon, on peut
remarquer que
B(x.a) =
a{1,...,q}
3.
4.
5.
6.
7.
a{1,...,q}\{xn }
B(x.a)
Pq (1 = xn , . . . , n = x1 , n+1 = a)
a=1
ps
5. Si p > 1/4, on pourra remarquer que s 7 1s+ps
2 est un prolongement
analytique de GT sur un voisinage de la droite relle.
6. Noter que 34 < 1.
182
ANNEXE A. INDICATIONS
A.10
183
1. Revoir le cours.
(n+1)2 +(n1)2
.
2
184
ANNEXE A. INDICATIONS
A.11
k+1
TAk )1{S>k} ,
k=0 (TA
o S = inf{n 1; Yn =
Indication 90
n
n1
1{ Xi = Xi+1 k}.
i=0
Pour montrer que les (Tk )kN sont finis presque srement, on peut
remarquer que Tk+1 = Tk + F (XTK +. ), o F (x) = inf{n 0, xn = x0 }
et montrer par rcurrence sur k que pour toute mesure initiale , Tk
est presque srement fini et (XTk +. ) est une chane de Markov de loi
initiale PXT .
k
186
ANNEXE A. INDICATIONS
5. Utiliser les questions prcdentes.
6. On pourra montrer que la chane est rversible.
{0, 1}2N ; 2N
i=1 xi = N }. Si deux tats communiquent, la probabilit de passer
de lun lautre est 1/N 2 .
Indication 99
Annexe B
Solutions des exercices corrigs
B.1
n
1
k (x) = p) = 1
n+ n
k=1
= P( lim
o la dernire galit provient de la loi forte des grands nombres. Lavantdernire galit provient de lidentit
n
n
1
1
k (x) = p)} = { lim
k (x) = p},
n+ n
n+ n
k=1
k=1
{k 1 Ak (X) = k ; lim
qui mrite sans doute quelques mots : soit (n )n1 une suite valeurs dans
2 X=
n1
nk
k + n +
k=0
187
k
kn
k=n+1 2
188
k
On a pour tout k n, 0 k 1, do 0 +
k=n+1 2kn 1. Cependant, il existe au moins un k n + 1 tel que k < 1, sinon on au
k
rait limn+ n1 nk=1 k (x) = 1. Ainsi, on a +
k=n+1 2kn < 1, do comme
n1 nk
k + n est entier :
k=0 2
2n X =
n1
2nk k + n .
k=0
n1
Mais k=0 2nk k est pair et n {0, 1}, donc n = r(2n X, 2) = An (X).
Pour q = p, q (Ep ) = q (Ep Eq ) + q (Ep Eqc ) q () + q (Eqc ) = 0,
soit q (Ep ) = 0. Ep est de probabilit 1 sous p , 0 sous q si q = p : ces
mesures de probabilit sont trangres deux deux . En particulier pour
p = 1/2, p est trangre 1/2 qui est la restriction [0, 1] de la mesure de
Lebesgue. Finalement, p a une densit par rapport la mesure de Lebesgue
si et seulement si p = 1/2.
B.2
Solution 2 On a
Xn 1{Xn M }
Xn log(1 + Xn )
log(1 + M )
Donc
Solution 3
X1 +...Xn
n
X12 +...Xn2
n
converge
1
1
1
N 8
1
189
E(Zn2 ) 144 + n2 Q9 2 P(Nn < n/3). Ainsi pour voir que E(Zn2 ) est
borne, il sut de remarquer que P(Nn < n/3) dcrot exponentiellement vite. On peut utiliser par exemple lingalit de Hoeding :
P(Nn < n/3) P(|Nn ENn | n/6)
(n/6)2
n
2 exp(2
) = 2 exp( ),
n
18
mais nimporte quelle ingalit de type grandes dviations convient.
Ici, on peut facilement les retrouver la main : soit > 0. On a
P(Nn n/3) P(eNn en/3 )
en/3 E(eNn ) = en/3 (
avec C =
alors C =
intgrable.
entrane la
1 + e n
) = Cn ,
2
1 /3
(e + e2/3 ). Je choisis
2
1 3
( + 49 ) < 1. La suite Zn
2 2
190
Mthode 2.
Si B1 , . . . , Bn sont des nombres valant 0 ou 1, le nombre de triplets
Sn (Sn 1)(Sn 2)
Bi Bj Bk =
.
6
1i<j<kn
Cest un raisonnement purement dterministe. Maintenant, si B1 , . . . , Bn
sont indpendants suivant la loi de Bernoulli de paramtre p, Sn suit
alors la loi binomiale B(n, p) ; par ailleurs, par linarit de lesprance,
on a
( )
n 3 1
p = E[Sn (Sn 1)(Sn 2)].
3
6
Ainsi E(Xn (Xn 1)(Xn 2)) = (/n)3 n(n 1)(n 2) 3 . Pour
tout x 3, on a
x3 = x(x 1)(x 2)
x
9
x
x(x 1)(x 2).
x1x2
2
P(S2n n = k)(k)
k=n
n
k=n
n
k=1
2n
=2
P(S2n n = k).0 +
(
2n
un
2n
k
n+k
k=1
P(S2n n = k).k
1
2
191
un = 2 E(S2n n) = 2
2n
2n
S2n E(2n)
n/2E
.
Var Sn
Soit Z suivant la loi normale N (0, 1), daprs le thorme central limite, la
E(2n)
suite S2nVar
tend en loi vers Z.
Sn
2n E(2n)
) converge en loi vers (Z).
Comme est continue, la suite Yn = ( S
Var Sn
E(2n))
E(2n))
, do E(Yn2 ) E(S2nVar
= 1. (Yn ) est borne
On a Yn2 (S2nVar
Sn
Sn
2
dans L donc qui-intgrable. Comme elle converge en loi vers (Z), E(Yn )
converge vers E(Z). On a
2
1 + x2 /2
xe
dx
E(Z) =
2 0
M
1
2
= lim
xex /2 dx
M +
2 0
)
1
1 (
2
1 eM /2 =
= lim
M +
2
2
Finalement
B.3
Solution 10
1. La condition est videmment ncessaire daprs la dfinition de lesprance conditionnelle car {N = n} est (N )-mesurable
Si A est (N )-mesurable, A scrit A = {N B}, o B est un borlien de R. notons que comme N est valeurs dans N, on a presque
srement 1A = 1{N BN} . On a
X1A = X1{N BN}
=
n=0
= lim
N +
n=0
192
ET 1{U =k}
nP(U = k, N = n)
E[T |U = k] =
= nk
P(U = k)
nk P(U = k, N = n)
np(1 p)n
nk
=
=
n k
q (1 q)nk
k
( )
p)n nk q k (1 q)nk
p(1
nk
( )
n
k
( )
n
n
nk x k
n
nk nx
avec x = (1 p)(1 q)
n
nk (n + 1)x
xn
nk
( )
n
k
= (k + 1)
( )
( )
n
k
1=
nk (k + 1)
nk
n
k
n+1
k+1
xn
xn
xn , ainsi que cn =
n+1
k+1
kn
( )
nk
n+1
xn
k+1
(
)
n
n
nk k x
nk
n+1 n
x =
cn (rn rn+1 ) =
cn rn
cn rn+1
k+1
nk
nk
nk
cn rn
nk
nk+1
cn1 rn =
cn rn
nk
cn1 rn
nk
nk
n+1
k+1
n
k+1
( )
n
k
. Par ailleurs rn =
( )
xn
1x
n
n
. Pour n > k, on a
Finalement
( )
E[T |U = k] = (k + 1)
=
193
n xn
k 1x
( )
n
n
nk k x
nk
k+1
k
x
1=
+
1x
1x 1x
1
x
Finalement E[T |U ] = 1x
U + 1x
= x+EU
.
1x
Pour mettre lpreuve nos calculs, on va vrifier que E(E[T |U ]) = E(T ).
+x
EU
On va vrifier que EU
= E[T ] ou, de manire quivalente x = ET
:
1x
ET +1
( p1 1)(1 q)
ET EU
= 1
ET + 1
( p 1) + 1
=
( p1 1)(1 q)
1
p
= (1 p)(1 q)
Solution 12
1. Il est clair que Qn,b est une mesure de probabilits (cest
une application probabilit conditionnelle).
Par construction Qn,b est support dans {0, 1}n+b1 . Soit (y1 , . . . , yn+b1 )
{0, 1}n+b1 . On pose A = {X2 = y1 , . . . Xn+b = yn+b1 }.
Par dfinition,
n,b ({1, y1 , . . . , yn+b1 })
n,b (X1 = 1)
11+y1 ++yn+b1 =n}
=
n,b (X1 = 1)|n,b |
1y ++yn+b1 =n1}
= 1
n,b (X1 = 1)|n,b |
Qn,b (A) =
On a donc
1y1 ++yn+b1 =n1}
tandis que
n,b (X1 = 1)|n,b |
1y ++yn+b1 =n1}
n1,b ({y1 , . . . , yn+b1 }) = 1
.
|n1,b |
194
n
,
n+b
1
=
E (1{(X2 ,...,Xn+b )=y} 1{X1 =1} f (y)
n,b (X1 = 1) yn1,b n,b
=
yn1,b
yn1,b
yn1,b
n
(1 + un1 ),
n+b
B.4
195
Solution 23
1. Posons Fn = (U1 , . . . , Un ). Par rcurrence, on voit facilement que Xn est mesurable par rapport Fn . Ainsi E[Xn+1 |Fn ] =
E[Un+1 |Fn ] + Xn2 E[(1 Un+1 )|Fn ]. Dun autre ct, Un+1 est indpendant de Fn . On en dduit que
E[Xn+1 |F\ ] = E[Un+1 ] + Xn2 E[1 Un+1 ] =
1 + Xn2
Xn .
2
n
(b) E[Xn+1 ] = E[E[Xn+1 |Fn ]] = E 1+X
. Par convergence domine (par
2
1), le membre de gauche converge vers E[X ] tandis que le membre
)2
. On a donc
de droite converge vers E 1+(X
2
EX = E
2
1 + (X )2
.
2
)
, on obtient que X =
Mais comme X 1+(X
2
srement, do X = 1 presque srement.
1+(X )2
2
presque
Solution 24
1. (a) On procde par rcurrence sur n. Pour n = 1 et
i entre 1 et S, on a Bd+i = T1 = BU1 . Or, on a 1 U1 d,
or B1 , . . . , Bd sont dterministes, donc Bd+i = BU1 est (U1 ) =
F1 -mesurable. Supposons le rsultat acquis jusquau rang n 1.
Comme Bd+i+(n1)S = Tn , il sagit de montrer que Tn est Fn d+(n1)S
mesurable. Or Tn = k=1
1{Un =k} Bk . Les variables B1 , . . . , Bd
sont dterministes. Si on fait varier i de 1 S et k de 1 n 1, d +
(k 1)S +i prend toutes les valeurs entre d+1 et d+(n2)S +S =
d+(n1)S Comme la suite des tribus (Fk )k1 est croissante et que
des variables constantes sont mesurables par rapport nimporte
quelle tribu, les variables B1 , . . . , Bd+(n1)S sont Fn1 -mesurables,
donc en particulier Fn -mesurables. Comme pour tout k entre 1 et
d+(n1)S, la variable 1{Un =k} est Fn -mesurable, il sensuit que Tn
est Fn -mesurable, ce qui montre la proprit dhrdit recherche.
196
d+nS
k=1
1{Un+1 =k} , on a
d+nS
k=1
d+nS
k=1
d+nS
k=1
i
Vn+1
= Vni + S(
k=1
d+nS
= Vni + S(
k=1
= Vni + S
= Vni + S
= Vni + S
d+nS
k=1
d+nS
k=1
d+nS
k=1
d+nS
k=1
S d+nS
1{Bk =i}
d + Sn k=1
d + S(n + 1) i
S
Vni =
Vn
= Vni +
d + Sn
d + Sn
i
E(Vn+1
|Fn ) = Vni +
197
i
Vn+1
Vni
E
|Fn =
;
d + S(n + 1)
d + Sn
comme
Vni
d+Sn
Vn
cela montre que ( d+Sn
)n0 est une Fn -martingale.
i
Vn
(e) Pour tout i, la suite ( d+Sn
)n1 est une martingale borne (comme
i
0 Vn d + Sn, la martingale prend ses valeurs dans [0, 1]),
elle converge donc presque srement. Comme ses composantes
Vn
convergent, la suite de vecteurs alatoires ( d+Sn
)n1 converge presque
srement.
V i V i
(f) Soit n 0. On a 1{Tn+1 =i} = n+1S n , do
i
Vn+1
Vni
Vni
|Fn ) =
,
S
d + Sn
i
Vn
). Or,
daprs 1c. En rintgrant, on a P(Tn+1 = i) = E( d+Sn
i
Vi
Vn
Vn
( d+Sn
)n0 est une martingale, donc E( d+Sn
) = E( d0 ) = ddi . Ainsi,
pour tout n 1, P(Tn = i) = ddi .
2. (a) Les vnement {Un = k}, o k varie de 1 d + (n 1)S forment
une partition de lespace. On a donc
d+(n1)S
k=1
d+(n1)S
k=1
k=1
d+(n1)S
k=1
1
d + (n 1)S
dt + San1
tn
= 1{T1 =t1 ,...,Tn1 =tn1 } n
d + (n 1)S
tn
= 1{T1 =t1 ,...,Tn1 =tn1 } Vn1
198
dtn + Satn1
n
.
d + (n 1)S
i=1
i=1
(x+1)
(x)
(d/S+n)
,
(d/S)
(di /S+an
i )
(di /S)
do
m
(d/S)
(di /S + ani )
P(T1 = t1 , . . . Tn = tn ) =
(d/S + n) i=1 (di /S)
n
( m
i=1 (di /S + ai ))/(d/S + n)
=
m
( i=1 (di /S))/(d/S)
B(d/S
+ a)
=
,
B(d/S)
et
199
ce qui donne le rsultat voulu compte tenu des rsultats admis sur
les lois de Dirichlet.
n S
n
(b) Vn d = d+nS
k=1
i=1 eBd+(k1)S =
k=1 SeTk , donc
j=d+1 eBj =
n
Vn d
= k=1 eTk , et
S
P(
Vn d
= (a1 , . . . , am )) = P( eTk = (a1 , . . . , am ))
S
k=1
P(T1 = t1 , . . . , Tn = tn ),
tA(a)
ai
P(T1 = t1 , . . . , Tn = tn ) = E ( m
i=1 Yi ) pour tout t A(a), On
en dduit
(
Vn d
= (a1 , . . . , am )) = |A(a)|E
Yiai
P(
S
i=1
(c) Posons Wn =
Vn d
.
S
n
=
E[ Yiai ].
a1 , . . . , am
i=1
E(exp(iWn , u)) =
P(Wn = a) exp(ia, u)
a{1,...,m}n
a{1,...,m}n
a{1,...,m}n
a{1,...,m}n
m
m
n
E[ Yiai ]
eiak uk
a1 , . . . , a m
i=1
k=1
m
m
n
E[ Ykak ] (eiuk )ak
a1 , . . . , a m
k=1
k=1
n
E[ (Yk eiuk )ak ]
a1 , . . . , a m
k=1
= E[
a{1,...,m}n
= E
n
(Yk eiuk )ak ]
a1 , . . . , am k=1
Yj eiuj ,
j=1
Vn d
E exp(i
, u) = n (u/n) = E Yj eiuj /n
Sn
j=1
200
Yj e
iuj /n
j=1
|Yj e
iuj /n
|=
j=1
do
Yj = 1,
j=1
n
m
iuj /n
Yj e
1.
j=1
iuk /n n
des rels positifs de somme 1, la suite ( m
) converge
k=1 yk e
m
vers exp( k=1 iyk uk ) lorsque n tend vers linfini. Le thorme de
convergence domine permettra alors de conclure. Si je pose zn =
m
iuk /n
et zn = exp( m
k=1 yk e
k=1 iyk uk /n), on a |zn | 1 et |zn | 1,
n
n
iuk /n
donc |zn zn | n|zn zn |. Cependant, pour tout k, on a e
=
uk
1
1 + i n + O( n2 ), donc
m
k=1
yk eiuk /n =
k=1
yk (1 + i
uk
1
) + O( 2 )
n
n
m
i
1
= 1 + ( yk uk ) + O( 2 )
n k=1
n
= zn + O(
1
)
n2
iuk /n n
) , ce qui donne le
constater que (R1 ++Rn )/n (1) = ( m
k=1 yk e
rsultat voulu.
On sait donc que VnSnd = Y . Comme d/(Sn) tend vers 0, le
Vn
Sn
lemme de Slutsky entrane que Sn
= Y . Comme Sn+d
tend vers
Vn
1, le lemme de Slutsky entrane encore que Sn+d = Y
Vn
(e) On sait Sn+d
W presque srement, et la convergence presque
Vn
sre entrane la convergence en loi, donc Sn+d
= W . Daprs la
question prcdente, W a la mme loi que Y , savoir la loi de
Dirichlet de paramtre d/S.
B.5
201
Solution 35
P(X = k, Y = n k)
P(X + Y = n)
P(X = k)
P(X = k)
=
= n
n
P (i=0 {X = i, Y = n i})
i=0 P(X = i, Y = n i)
P(X = k|X + Y = n) =
nk
(nk)!
n i ni
e i! (ni)!
i=0 e
)i (
( )(
e e k!
( )
=
=
n
i
n
k
= n (n)
( )
k nk
i=0 i
)ni
i ni
n
k
k nk
( + )n
E[X |X + Y = n] =
2
n
+
)2
+n
,
( + )2
202
do E[X |X + Y ] =
2
B.6
(X + Y )
+
)2
+ (X + Y )
.
( + )2
Solution 39
1.
h(.x)(i) = |{j {1, . . . , n}, x(j) x(i) }|
= |{j {1, . . . , n}, xj x(i) }|
= [h(x)]((i))
1 (1)
...
...
1 (i)
i+1
+ k)
1 (i
i+2
+ 1)
1 (i
...
...
i+1
+ k 1)
1 (i
i+k+1
+ k + 1)
1 (i
...
...
soit
(
1 ...
=
1 ...
1
i i + 1 i + 2 ...
i+1
i + k + 1 ... n
,
i i + k i + 1 ... i + k 1 i + k + 1 ... n
1 (n)
203
4. On numrote les boules de 1 n = b+r, les boules rouges tant numrotes de 1 r. Ordonner de manire alatoire uniforme les n boules
et ne garder que les k premires est la mme chose quen prendre k
sans remise. On pose donc g() = |(1, . . . , k) {1, . . . , r}. Ainsi g()
i=1
r
kr
=
.
b+r
i=1 b + r
Solution 40
1. On a immdiatement Xkn = nk=1 1{Nk,p =1} . Comme
Nk,p est une somme de k variables de Bernoulli indpendantes de paramtre 1/n, Nk,p B(k, 1/n) et
( )
k 1
1
k
1
(1 )k1 = (1 )k1 ,
1 n
n
n
n
1 k
k
= max0kn3/2 1
n
n
k
max0kn3/2 exp(1/n)k
n
sup x exp(x)
xR+
Comme log(1 1/n)n = n log(1 1/n) n(1/n) = 1, on a classiquement limn+ (1 1/n)n = e1 . Dautre part, une petite tude de
fonction montre que supxR+ x exp(x) = exp(1), donc par comparaison limn+ n1 (1 n1 )vn = 1/e, do limn+ n1 vn = 1/e, soit
vn ne .
3. Soit N tel que (1 1/n)n1 1e /2 et vnn 1e + /2 pour n N .
On a alors pour n N :
P
Xn
1
1
n( ) P Xnn n( )
e
e
)
(
1 n1
n
/2)
P Xn n((1 )
n
= P (Xnn E[Xnn ] /2)
204
Xn
1
1
n( + ) = P nk=1 {Xnk n( + )}
e
e
)
n3/2 (
1
k
k=1 P Xn n( + )
e
n3/2 (
k=1
k=1
n3/2 (
u=1
1{1=k
j=1
1{yj =u} }
(/2n)2
),
8k
2
n).
32
Ainsi, finalement, on a
P(|X/n n e1 | > ) 2n3/2 exp(
2
n),
32
205
donc
nu=1 Nn3/2 2} {k n3/2 ; Xkn = 0}
{X n = Xn }
En passant au complmentaire, on a linclusion
{X n = Xn } np=1 {Nn3/2 ,p < 2},
6. On a alors
P(X n = Xn ) nP(Nn3/2 ,1 < 2)
= nB(n3/2 , 1/n)({0; 1})
= n((1 1/n)n
n(n
3/2
3/2
3/2 1
n3/2
+ 1)(1 1/n)
Kn5/2 (1 1/n)n
3/2
Kn5/2 exp( n)
B.7
Solution 44
1. Daprs le thorme de factorisation de Neyman, P a
une densit f par rapport m. Pour mesurable borne, on a alors
E ((Z)) = (Z)f (T ) dm. Comme Z et S sont indpendantes sous
m
E ((Z)) = Em [(Z)f (S)] = Em [(Z)]Em [f (S)]
206
B.8
Solution 50 Les lois considres ont toutes le mme support [1, +[. Un
calcul simple donne W = 1 log x. On a donc
2
1
log
x
d(x)
[1,+[ x+1
1
=
eu ( u)2 du
[0,+[
I=
1
.
2
I() = 1 est C 1 sur ]0, +[, donc le modle vrifie les bonnes conditions :
on a donc E [W ] = 0. Comme W = 1 log X, on constate bien que T est
un estimateur sans biais de 1/.
Var T = E (E E [T ])2 = E (W2 ) = I(). On note que Var T = 2 =
g ()2
1
: on a galit dans lingalit de Cramer-Rao. La densit f (x) = x+1
I()
scrit aussi x exp( log X) : on a un modle exponentiel, et on retrouve le
rsultat du cours.
207
soit
[0,+[
1
[1,+[ x+1
f (x) d(x) = ,
eu f (eu )d(u) = 1.
[0,+[
u
e g(u)
u
2
e | ue0 u g(u) e0 /2u g(u)
1=
ueu g(u)d(u).
[0,+[
Comme ]0 peut tre pris aussi petit que lon veut, lidentit
est encore vraie
sur ]0, +[. Posons A = ] 0, +[xf+ (x)ex dx. On a A = ] 0, +[xf (x)ex dx,
donc P1 = A1 xf+ ex et P2 = A1 xf ex sont deux mesures de probabilits
sur R+ . Elles ont la mme transforme de Laplace, donc f+ = f et f = 0.
Contradiction.
Solution 51
EX1 (X1 1) =
=
k=0
+
k(k 1)P(X = k)
k(k 1)P(X = k) =
k=2
= e 2
k(k 1)e
k=2
k!
k2
= e 2 e = 2
(k
2)!
k=2
208
(g ())2
(2)2
43
=
=
.
I()
d/
d
Dautre part
Var
Sd (Sd 1)
1
= 4 Var Sd (Sd 1)
2
d
d
1
= 4 Varn X1 (X1 1).
d
1
4(d)3 + 2(d)2
3 2
Sd (Sd 1)
=
Var
X
(X
1)
=
=
4
+2 4 ,
n
1
1
d2
d4
d4
d
d
B.9
209
Solution 54
1. La loi du vecteur (0 , . . . , n ) tant discrte, tout ensemble (0 , . . . , n )-mesurable peut scrire ( un ngligeable prs)
comme runion dnombrable disjointe dvnements de la forme
A = {0 = x0 , . . . , n = xn }.
Ainsi, avec le principe de partition, il sut de dmontrer lgalit
lorsque A scrit A = {0 = x0 , . . . , n = xn }, avec (x0 . . . , xn )
Dn+1 . Si i = xn , les deux membres de lgalit voulue sont nuls : il ny
a rien dmontrer. On doit donc montrer que pour tout B B(RN ),
on a
P (0 = x0 , . . . , n = xn , n (B)) = P (0 = x0 , . . . , n = xn )Pxn (B).
Bien sr, si P (0 = x0 , . . . , n = xn ) = 0, il ny a encore rien
dmontrer puisque les deux membres sont nuls. Soit C lensemble des
vnements qui scrivent
B = {0 = y0 , . . . , k = yk }
pour un certain k : il est ais de constater que les mesures de probabilit B 7 P (n (B)|0 = x0 , . . . , n = xn ) et B 7 Pxn (B) concident
sur C. Comme C est un -systme qui engendre la tribu B(RN ), ces
deux probabilits sont gales, ce qui donne le rsultat voulu.
2. Ici encore, il est ais de constater que P et
mesures de probabilit qui concident sur C.
iD
3. On a
P (1 (B)) =
P (1 = i, 1 (B))
iD
P (1 = i)Pi (B))
iD
(i)Pi (B))
iD
= P (B))
Solution 55 Considrons l application
: RN RN
((xn )n0 ) 7 ((n x))
210
Comme est mesurable de (RN , B(RN )) dans lui mme et (RN , B(RN ))
(R, B(R)) mesurable, pour tout n (n X) est bien (RN , B(RN )) (R, B(R))
mesurable, et donc est bien mesurable de (RN , B(RN )) dans lui mme. Ainsi
Y = (X). On peut noter que = . Ainsi
PY (1 (A)) = P(Y 1 (1 (A)))
= P(( Y )1 (A))
= P(( X)1 (A))
= P(( X)1 (A))
= P(X 1 (1 ( 1 (A))))
= PX (1 ( 1 (A))
= PX ( 1 (A)) = P(X 1 ( 1 (A))
= P(( X)1 (A))
= P(Y 1 (A)) = PY (A)
Solution 56
1. Il sut de montrer que pour tout n, (X1 , . . . , Xn ) et
(X2 , . . . , Xn+1 ) ont mme loi. Or si on considre la permutation cyclique de Sn+1 : = (1 2 . . . n + 1), lhypothse dchangeabilit entrane que (X1 , . . . , Xn , Xn+1 ) a mme loi que (X(1) , . . . , X(n) , X(n+1) ) =
(X2 , . . . , Xn+1 , X1 ). Par projection sur les n premires composantes,
(X1 , . . . , Xn ) et (X2 , . . . , Xn+1 ) ont mme loi.
Remarque : alternativement, on peut remarquer que changeable =
rversible = stationnaire.
2. Par bilarit et symtrie
V arSn =
k=1
Var Xk + 2
Covar(Xi , Xj ).
1i<jn
211
3. Soit (Xn )n1 un processus gaussien changeable. Daprs ce qui prcde, il existe m tel que E(Xi ) = m pour tout i (stationnarit), 2 0
tel que Var Xi = 2 pour tout i, et c tel que
Covar(Xi , Xj ) = c2 pour
i = j. videmment c = Covar(X1 , X2 ) Var X1 Var X2 = . Rciproquement, supposons que nous sont donns des rels m, 2 0
et c avec c 2 . Soient a, b rels, (Yi )i0 un bruit blanc. Si lon pose
Xi = m+aY0 +bYi , (Xi )i1 est un processus gaussien. On a E(Xi ) = m
et Var Xi = a2 Var Y0 + b2 Var Yi = a2 + b2 , tandis que pour i = j
Covar(Xi , Xj ) = Covar(aY0 + bYi , aY0 + bYj )
= a2 Var Y0 + ab(Covar(X0 , Xj ) + Covar(X0 , Xj )) + b2 Covar(Yi , Yj )
= a2 Var Y0 = a2
Ei (z + bY1 )
i=1
De manire similaire, on montre que E(i (Xi )|Z) = i (Z), avec i (z) =
E(i (z + bY1 )). Ainsi
E(1 (X1 )2 (X2 ) . . . n (Xn )|Z) =
i=1
212
Solution 57
1. Pour tout y = (y1 , . . . , yn ) B(x), il existe i tel que
yn1 = xi . Cet entier i est unique, car sil existait deux tels entiers
i et j, on aurait xi = xi+1 , ce qui est impossible car x est propre.
Notons le i(y). On peut alors poser Bi (x) = {y B(x); i(y) = i}. On
a videmment
|B(x)| =
|Bi (x)|.
i=1
|B(x.a)| =
a{1,...,q}
=
a{1,...,q}\{xn }
|B(x.a)|
(( n
a{1,...,q}\{xn }
n
|B(
xi .xn )| +
i=1
= |B(x)| +
|B(
xi .a)| + B(x)
i=1
a{1,...,q}
|B(
xi .a)| + (q 1)B(x)
i=1
bn1 (q)|B(
xi )| + (q 1)|B(x)|
i=1
213
x{1,...,q}n
a{1,...,q}
|B(x.a)|
b (q)|B(x)|
x{1,...,q}n n
= bn (q)S(n, q)
4. n est une mesure positive. On a
n ({1, . . . , q}n ) =
=
(x)
x{1,...,q}n n
x{1,...,q}n
({(x1 , . . . , xn , a})
a{1,...,q} n+1
|B(x.a)|
+ 1, q)
a{1,...,q} S(n
1
|B(x.a)|
bn (q)S(n, q) a{1,...,q}
1
=
bn (q)|B(x)|
bn (q)S(n, q)
= n ({(x1 , . . . , xn )})
a=1
q
Pq (1 = xn , . . . , n = x1 , n+1 = a)
Pq (1 = a, 2 = x1 , . . . , n = x1 , n+1 = xn )
a=1
= Pq (2 = x1 , . . . , n = x1 , n+1 = xn ),
ce qui donne linvariance par le dcalage.
214
|B(x.a.y)| =
a=xn ,a=y1
a=1
=
=
|B(x.a.y)|
(
a=xn ,a=y1
a=xn
|B(
xi .a.y)| + B(x.y) +
i=1
|B(x.a.
yi )|
i=1
|B(
xi .a.y)| +
i=1
a=y1
|B(x.a.
yi )|
i=1
a=xn
|B(
xi .a.y)| =
|B(
xi .xn .y)| +
i=1
i=1
= B(x.y) +
a{1,...,q}
|B(
xi .a.y)|
i=1
cn1,p |B(
xi )|.|B(y)|
i=1
a=y1
|B(x.a.
yi )| = B(x.y) + cn,p1 |B(x)|.|B(y)|,
i=1
do
q
a=1
215
, soit
q
a=1
= Pq (1 = x1 , . . . , n = xn )Pq (1 = y1 , . . . , n = yp ),
soit enfin en utilisant une partition et la stationnarit :
Pq (1 = x1 , n = xn , n+2 = y1 , . . . , n+p+1 = yp )
= Pq (1 = x1 , . . . , n = xn )Pq (n+2 = y1 , . . . , n+p+1 = yp ).
B.10
1
1
6
5
6
*6
1
6
66
216
xi = Ei [1 + T (X)]
= 1 + Ei [T (X)]
= 1 + Ei [
1X1 =j T (X)]
jE
=1+
Ei [1X1 =j T (X)]
jE
Px (T n) .
=n
=
1,
b
a
ab
ab
donc il existe p entier avec
nu
b
nv
.
a
On a alors lcriture
B.11
218
Solution 88
1. La quantit jS pi,j |f (j)| est toujours bien dfinie,
ventuellement infinie. Cest lintgrale de la fonction j 7 |f (j)| par
rapport la mesure de probabilit qui aecte la valeur pi,j au point
j. On a donc
pi,j |f (j)|
(i)
pi,j |f (j)|
iS
(i)
jS
jS
et en sommant
pi,j |f (j)|2 ,
jS
jS
do
pi,j |f (j)|
jS
iS jS
iS jS
jS
iS
jS
)2
< +.
En particulier, pour tout i S, on a (i)
jS pi,j |f (j)|
Si (i) > 0, cela entrane que la srie de terme gnral (pi,j f (j))j
converge absolument, donc converge, ce qui montre que (P f )(i) est
(
)2
bien dfini. On a bien sr |(P f )(i)|2
p
|f
(j)|
, do en
i,j
jS
2
2
combinant avec les ingalits ci-dessus : P (f )2, |f 2, .
2. Pour tout j S, on a
(i)pi,j =
(j)pj,i (j)
(j)(j).1 = (j),
iS
iS
iS
iS
(i)qi,j =
iS
(j)pj,i (j)
iS
(j)(j).1 = (j)
est une forme bilinaire sur 2 (). Cest aussi une forme continue car,
daprs Cauchy-Schwarz,
|
Qf (x)g(x)
Qf (x)g(x),
xS
xS
220
Bien sr, les coecients sont tous positifs. Posons S(j) = iS qj,i . Si
(j) = 0, (j) = 1. Sinon,
S(j) =
(i)
iS
(j)
pi,j =
1
(i)pi,j .
(j) iS
0
1
Qf (x)g(x) d(x)
0
)|Zk , . . . Z0 ] = Qf (Zk ),
E[f (Zk+1
ce qui montre que (Zk )0kn ) est une chane de Markov qui a le mme
oprateur de transition que (Xn )n0 . Comme la loi initiale est la mme,
on a lgalit en loi entre (Z0 , . . . Zn ) et (X0 , X1 , . . . , Xn ), soit donc
entre (Xn , Xn1 , X0 ) et (X0 , X1 , . . . , Xn ).
Si P = Q, le systme est alors rversible : on retrouve le fait que pour
une mesure initiale rversible, (Xn , Xn1 , X0 ) et (X0 , X1 , . . . , Xn ) ont
mme loi.
{T m = k} = {
1A (Xk ) = m 1, Xk A} Fk ,
i=0
Donc T m est un temps darrt adapt la filtration (Fm )m0 . Montrons par rcurrence que T m est Px -presque srement fini. Cest vrai
pour m = 0 et m = 1. Supposons T m1 < + Px -presque srement.
On a
{Tm < +} = {Tm1 < +, ; n 1; XTm1 +n A},
donc avec la proprit de Markov forte, on a Px presque srement
Px (Tm < +|FTm ) = Px (Tm1 < +)PXTm1 (; n 1; XTm1 +n A)
= 1.PXTm1 (T 1 < +) = 1,
et en rintgrant Px (Tm < +) = Ex [Px (Tm < +|FTm )] = 1, ce qui
montre par rcurrence la proprit voulue. Enfin, pour tout borlien
B, on a
{XT m B, T m n} = ni=1 {Xi B} {T m = i}.
Mais pour tout i entre 1 et n, {Xi B} {T m = i} Fi Fn ,
donc {XT m B, T m n} Fn , ce qui montre que {XT m B}
FT m . Comme cest vrai pour B borlien quelconque, XT m est FT m mesurable. On a vu en cours que T m tait FT m -mesurable. Maintenant, si k m, comme T k T m , on a linclusion FT k FT k FT m , ce
qui entrane que pour k m, T k et XT k sont FT m -mesurables.
2. En utilisant la proprit de Markov forte, on a
Px (XT m+1 = y|FT m ) =
=
n=1
+
Px (inf{i 1; XT m +i A} = n, XT m +n = y|FT m )
PXT m (inf{i 1; Xi A} = n, Xn = y)
n=1
XT m
=P
(XT 1 = y)
222
k=0
k=0
XT k
inf{n 1, Xn A} = E
TA1 .
x
x
do en faisant la somme Ex (T x ) +
k=0 P (S > k) = E (S). Mais
S est le temps de retour en x pour une chane de Markov irrductible
sur un espace dtat fini : il est donc intgrable, car une chane de
Markov irrductible sur un espace dtats fini est toujours rcurrente
positive. On a donc E x (Tx ) < +, ce qui montre que la chane (Xn )
elle-mme est rcurrente.
1. (a) On a
f (XnT ) f (X0 ) =
=
=
nT
i=1
n
i=1
n
(f (Xi ) f (Xi1 ))
1{iT } (f (Xi ) f (Xi1 ))
1{i1<T } (f (Xi ) f (Xi1 ))
i=1
En prenant lesprance, on a
E(f (XnT ) f (X0 )) =
i=1
))
i=1
i=1
P(T > i 1) =
i=1
Ef (X0 )
.
(B.1)
(B.2)
224
Annexe C
Problmes
C.1
Partie I Soit X0 une variable alatoire valeurs dans N, (Un )n1 une suite
de variables alatoires indpendantes suivant la loi uniforme sur [0, 1]. On
suppose de plus que X0 est indpendante de (Un )n1 . On dfinit une suite
de variables alatoires (Xn )n0 par la donne de X0 et la rcurrence Xn+1 =
Ent(Un Xn ).
1. Montrer que lon obtient ainsi une chane de Markov.
Dans la suite, on notera PN la loi sur lespace canonique de la chane
de Markov associe cette dynamique qui vrifie PN (X0 = N ) = 1.
2. On note T = inf{n 0; Xn = 0}. Montrer que PN (T < +) = 1.
3. On note n la fonction gnratrice de T sous la loi Pn , cest dire
n (x) = En [xT ]. laide de la proprit de Markov, tablir la formule
de rcurrence
x n1
n (x) =
i (x).
n i=0
4. Montrer que
n 0 x [0, 1] n (x) = Pn (x),
o la suite de polynmes (Pn )n0 est dfinie par P0 = 1 et Pn (X) =
X(X+1)...(X+n1)
pour n 1.
n!
[ ]
[ ]
n
n
k=1
225
n
par lidentit
k
X k.
226
ANNEXE C. PROBLMES
Montrer que
[ ]
(1)n+k n
P (T = k) =
.
k
n!
n
1
k=1
1
N n Zn
1{j<Zn } +
1{j=Zn } .
N n
N n
C.2
Processus de renouvellement
Soit (Un )n1 une suite de variables alatoires indpendante suivant la loi .
On suppose que pgcd(n 1; (n 1) > 0) = 1. Soit une loi quelconque
sur N. On dfinit une suite (Xn )n0 par la donne de X0 suivant la loi et
indpendante de (Un )n1 , puis, pour n 0
si Xn = 0
n+1
Xn+1 =
Xn 1 sinon
1. Montrer que (Xn )n0 est une chane de Markov de loi initiale . crire
sa matrice.
2. Montrer que la chane est irrductible et apriodique.
3. La chane est-elle transiente, rcurrente ?
4. Montrer que
k N P (X1 = k) = (k + 1) + (0)(k).
5. Montrer que si (0) = 0, alors la chane nest pas stationnaire.
6. Pour k 0, on note
Tk = inf{n 1; Xn = k}.
Montrer que sous P0 , T0 et 1 + X1 ont mme loi.
7. En utilisant les questions prcdentes, montrer que si la chane admet
une mesure invariante, alors admet un moment dordre 1 et on a la
1
relation (0) = 1+E[U
.
1]
8. Rciproquement, montrer que si admet un moment dordre 1, alors
la chane admet une mesure invariante.
Indication : on pourra considrer la mesure dfinie par
(k) =
P(U1 k)
.
1 + E[U1 ]
n1
Xk
9. Montrer que si admet un moment dordre 1, la suite n1 k=0
converge presque srement vers une limite que lon dterminera.
10. On pose pk = P0 (T0 = k) et qk = P0 (Xk = 0). tablir la rcurrence
q0 = 1 et n 1 qn =
k=1
pk qnk
.
228
ANNEXE C. PROBLMES
11. Dmontrer le thorme de renouvellement, appel galement, en lhonneur de ses auteurs, thorme dErds, Feller et Pollard :
Soient X1 , . . . , Xn . . . des variables alatoires indpendantes identiquement distribues avec P(X1 = k) = pk . On suppose que 0 <
E[X1 ] < + et que le pgcd des lments du support de X1 est 1.
On note
Sn = X1 + X2 + + Xn et Nk =
1
.
n=1 {Sn =k}
Alors, si on pose
z BF (0, 1) P (z) =
pn z n
n=0
+
1
et Q(z) =
=
qn z n ,
1 P (z) n=0
on a E[Nk ] = qk et limk+ qk =
C.3
1
.
E[X1 ]
T (A) = A}.
On note enfin
I = n1 In et S = n1 Sn .
On dit quune mesure P sur (, B()) est changeable si
S
PT = P.
(C.1)
fi (Xi )|I) =
i=1
i=1
(a) Montrer que (In )n1 est une suite dcroissante de tribus.
(b) Soit n 1, F une fonction (, B()) (R, B(R)) mesurable telle
que F T = F pour tout Sn . Montrer que F est In -mesurable.
(c) Soit n un entier naturel non nul et f une fonction borne de R
dans R. Montrer que pour tout A In et tout k entre 1 et n,
E[1A f (X1 )] = E[1A f (Xk )]. En dduire que pour tout i entre 1 et
n,
n
1
E[f (Xi )|In ] =
f (Xk ).
n k=1
fi (Xi )|In =
i=1
fi (Xg(i) )
1
(f) Comparer |In,p
|
En dduire que
lim
n+
gIn,p
i=1
fi (Xg(i) ) et
1
g{1,...,n}p
np
fi (Xg(i) ) =
E(
i=1
fi (Xi )|I) =
i=1
i=1
i=1
fi (Xg(i) ).
230
ANNEXE C. PROBLMES
(h) En suivant les notations introduites dans le thorme 36, pour
, on note PI la valeur au point dune loi conditionnelle de
M (A) dP(),
Annexe D
Solutions des problmes
D.1
Solution du problme 1
Partie I
1. La rcurrence scrit Xn+1 = F (Xn , Un ), avec (Un )n0 iid et indpendant de X0 , avec F (x, y) = Ent(x, y)
2. Si Xn > 0, on a presque srement Un Xn < Xn , or Xn est entier, donc
Xn+1 = Ent(Un Xn ) < Xn Xn 1, do T X0 = N et on a bien
PN (T < +) = 1.
3. Pour tout n, on a Pn (0 X1 < N ) = 1, donc
En [xT ] =
=
=
=
=
=
n1
i=0
n1
i=0
n1
i=0
n1
i=0
n1
En [1{X1 =i} xT ]
En [1{X1 =i} x1+T ]
En [(1{X1 =i} x)xT ]
En [(1{X1 =i} x]Ei [xT ]
xPn (X1 = i)i (x)
i=0
n1
x
n
i=0
i (x)
232
X(X 1) . . . (X n + 1) =
k=1
X k,
par substitution
(X)(X 1) . . . (X n + 1) =
[ ]
n
n
k=1
(1)k X k ,
[ ]
n
n
k=1
(1)n+k X k ,
(1)n+k n
.
P (T = k) =
k
n!
n
1
P (1) n1
1
Pn
=
, donc n
=
=
,
Pn
Pn (1)
i=0 X + i
i=0 1 + i
k=1 k
1
k=1
Partie II
1. F () est le nombre de records descendants de la permutation .
2. On a
P((n + 1) = an+1 |(1) = a1 , . . . , (n) = an )
|{ SN : (1) = a1 , . . . , (n + 1) = an+1 }|/N !
=
|{ SN : (1) = a1 , . . . , (n) = an }|/N !
(N (n + 1))!
1{an+1 {a1 ,...,an }}
=
(N n)!
1
=
1{a {a ,...,a }}
N n n+1 1 n
233
Notons m = min(a1 , . . . , an ). Si j = m 1,
P(Zn+1 = j|(1) = a1 , . . . , (n) = an )
= P(Xn+1 > m|(1) = a1 , . . . , (n) = an )
N m (n 1)
N nj
=
N n
N n
et si j < m 1, on a
P(Zn+1 = j|(1) = a1 , . . . , (n) = an )
= P(Xn+1 = j + 1|(1) = a1 , . . . , (n) = an )
1
=
,
N n
ce qui donne lidentit
P(Zn+1 = j|(1), . . . , (n)) =
1
N n Zn
1{j<Zn } +
1{j=Zn } .
N n
N n
N ni
1{j=i} ,
N n
0,j
qi,j =
0,
pi,j
1pi,i
si i = 0
si i = j > 0 ,
si i > 0, i = j
234
0,j
qi,j = 0,
1
i
si i = 0
si j i > 0 .
si i > 0, j < i
12 . . . . . . . . . . . .
r1 (r1 ) 2 (r1 ) . . .
............
...
r2 (r2 ) 2 (r2 ) . . . . . .
.........N
rk (rk ) . . .
Cest la rciproque.
6. Daprs la question II.3., comme (Xn )n0 a la mme loi que (Yn ))n0 ,
F a la mme loi que T . Do avec I.5 :
[
(1)N +k N
.
P(F = k) = PN (T = k) =
k
N!
[
N
Donc (1)
est le nombre de permutations avec k records,
k
donc daprs II.5 le nombre de permutations possdant exactement k
cycles.
N +k
D.2
Solution du problme 2
235
...
..
..
..
..
.
.
.
.
..
..
.. ..
.
.
.
.
2. Soit n N . 0 x car P0 (X1 = n) = (n) > 0. Dautre part, n 0
car Pn (X1 = n 1, X2 = n 2, . . . , Xn = 0) = 1. La chane est donc
irrductible. Comme la chane est irrductible, elle admet la priode
de 0 comme priode, mais la priode de 0 est 1 car P0 (X1 = 0) =
(0) > 0.
3. Notons A = {k 1; Xk = 0}. On a vu que pour tout n > 0,
Pn (X1 = n 1, X2 = n 2, . . . , Xn = 0) = 1 On en dduit que pour
tout n > 0 Pn (A) = 1. Maintenant
P0 (A) =
P0 (X1 = j; k 1; Xk = 0)
j=0
= P (X1 = 0) +
0
P0 (X1 = j; k 2; Xk = 0)
j=1
= P0 (X1 = 0) +
j=1
P0 (X1 = j) = 1,
j=0
236
1
E0 T0
1
.
1 + EX1
P(X1 k)
.
1 + EX1
(k) =
k0
1
P(X1 k)
1 + EX1 k=0
1
=
P(1 + X1 > k)
1 + EX1 k=0
1
=
E(1 + X1 )
1 + EX1
= 1
237
1
(k) + (k + 1),
E(1 + X1 )
k=1
n
k=1
n
P0 (T0 = k, Xn = 0)
P0 (T0 = k, Xn = j)
P0 (T0 = k)Pj (Xnk = 0)(proprit de Markov forte)
k=1
n
11. Prliminaire : si f (z) = +
n=0 an z est une srie entire de rayon de
convergence R, alors pour tout r ]0, R[ et tout entier naturel k,
on a
1 2
f (rei )eik d.
2 0
Cela peut tre vu comme une version simple de la formule de Cauchy,
mais on peut aussi le voir simplement partir de lidentit
ak = rk
f (rei )eik =
n=0
an rn ei(nk) .
238
rn ei(nk) |
n=0
|an |rn
n=0
n
fonction constante +
n=0 |an |r est bien sr intgrable sur [0, 2].
La fonction gnratrice de X1 est P , donc par indpendance, la fonction gnratrice de Sn est P (z)n , soit
+
P (z)n =
P(Sn = k)z k ,
k=0
1 2
P (rei )n eik d.
2 0
pn r n
n=0
pn 1n = 1,
n=0
n
pn = 0 et donc pn rn < pn 1n : finalement +
n=0 pn r = P (r) < 1.
On peut donc crire :
N
1
P(Sn = k) = r
n=0
1
2
1 P (rei )N ik
e
d.
1 P (rei )
n=1
E[1{Sn =k} ] =
n=1
P(Sn = k) = qk .
239
pk qnk .
k=0
q0 = Q(0) =
1
1P (0)
1
1p0
1
10
qn =
= 1. Pour n 1, on a
pk qnk
k=1
Comme
qn =
pk qnk
=
k=1
pk qnk
,
k=1
n+
1
1
1
=
=
,
1 + E[U1 ]
E[(1 + U1 )]
E[X1 ]
pn z n et z B(0, 1) Q(z)
=
n=0
1
=
qn z n ,
1 P (z) n=0
on a limk+ qk = E[X
k . On a facilement
1 ] , avec P(X1 = k) = p
1p0
1 ] = E[X1 ] , do lim
E[X
k = E[X
Cependant P (z) = p0 + (1 +
k+ q
1p0
1]
1
Q(z),
ce qui entrane qn = 1 qn . Finalep0 )P (z), do Q(z) =
1p0
1
.
E[X1 ]
1p0
240
D.3
Solution du problme 3
241
n
1
f (Xk )).
n k=1
(D.1)
n
n
n
1
1
1
f (Xk ) T =
f (X1 (k) ) =
f (Xk ) = F.
n k=1
n k=1
n k=1
E(f (Xi )|I). Or pour n i, E(f (Xi )|In ) = n1 nk=1 f (Xk ), donc la
suite ( n1 nk=1 f (Xk ))n1 converge presque srement vers E(f (Xi )|I).
Par unicit de la limite presque sre, on a pour tout i E(f (Xi )|I) =
E(f (X1 )|I) presque srement.
(e) Soit A In et g In,p . Soit une permutation de {1, . . . , n}, que
lon tend en un lment de Sn . On a
(
fi (Xg(i) )) T =
i=1
i=1
i=1
fi (Xg(i) )) T =
fi (Xi )).
i=1
Comme 1A T = 1A , en multipliant on a
(1A
i=1
fi (Xg(i) )) T = 1A
i=1
fi (Xi )),
242
fi (Xg(i) )) = E(1A
i=1
fi (Xi )).
i=1
fi (Xi )),
i=1
G=
fi (Xg(i) ),
de pi=1 fi (Xg(i) ) sachant In , il sut de montrer que G est In mesurable. Daprs (2b), il sut de montrer que G = G T pour
tout Sn . Or pour Sn , on a
F T =
fi (X1 (g(i)) ) =
fi (X(1 g)(i) ),
fi (X
( 1 g)(i)
)=
fi (Xi ) = F,
g{1,...,n}p \In,p
gIn,p
i=1
fi (Xg(i) )
fi (Xg(i) ),
i=1
donc
|Bn An |
g{1,...,n}p \In,p
243
p
Bn
(f
(X
)/n)
=
(fi (Xj )/n).
=
i
g(i)
i=1
g{1,...,n}p
np
i=1
j=1
Pour i quelconque entre 1 et p, on sait daprs (2d) que nj=1 (fi (Xj )/n) =
n
1
j=1 fi (Xj ) converge presque srement vers E(fi (X1 )|I). Finan
lement, Bnpn converge vers pi=1 E(fi (X1 )|I), ce qui donne le rsultat
voulu.
(g) On a vu en (2d) que pour f quelconque borne E(f (Xi )|I) =
E(f (X1 )|I). Cest vrai en particulier pour f = fi , donc la limite de
Bn
n
se rcrit pi=1 E(fi (X1 )|I). Comme cest aussi la limite de |IAn,p
np
|
qui est E ( pi=1 fi (Xi )|I), les deux expressions concident presque
srement.
(h) Soit E lensemble des
A B() tels que A 7 M (A) est mesu
rable, avec P(A) = M (A) dP().
E, car 7 M () est identiquement
nulle, donc mesu
rable et on a videmment 0 = 0 dP.
Si A E, M (Ac ) = 1 M (A), donc 7 M(Ac ) est
mesurable,
et M (Ac ) dP = (1 M ) dP() = 1 dP
M (A) dP = lim
n+
M (Ak ) dP().
k=1
Or
n
M (Ak ) dP() =
k=1
do
M (Ak ) dP() =
M (A) dP = lim
n+
P(Ak ),
k=1
k=1
k=1
P(Ak ) =
k=1
P(Ak ).
244
fi (Xi )) = E(E(
i=1
E(
fi (Xi )|I))
i=1
fi (Xi )|I) dP
i=1
i=1
p
i=1
p
=
=
i=1
a pour tout , M (C) = pi=1 (PI )X1 (Bi ) = pi=1 (PI )(X11 (Bi ))
Mais on sait que PI (X11 (Bi )) est un reprsentant de E(1X 1 (Bi ) |I),
1
donc
p
M (C) =
p
i=1
245
(b) Fixons t1 , . . . tp . Avec (2d), P(Xi = ti |I) est la limite presque sre
de
n
1
1{Xk =ti } .
n k=1
Or
n
1
(V ti V0ti )/S
,
1{Xk =ti } = n
n k=1
n
P(Xi = ti |I) =
i=1
Wti ,
i=1
Wti ,
i=1
246
Bibliographie
[1] M. Briane and G. Pags. Thorie de lintgration. Ellipses, Vuibert, 2009.
[2] O. Garet and A. Kurtzmann. De lintgration aux probabilits. Ellipses,
Paris, 2011.
[3] Francis Hirsch and Gilles Lacombe. lments danalyse fonctionnelle.
Enseignement des Mathmatiques. Masson, Paris, 1997. Cours et exercices.
[4] W. Rudin. Analyse relle et complexe. Masson, Paris, 1980.
[5] Daniel W. Stroock. Probability theory. Cambridge University Press, Cambridge, second edition, 2011. An analytic view.
247
Index
echangeable, 117, 228
accessible, 130
analyse au premier pas, 132
apriodique, 130
chane
observe quand elle bouge, 169
rcurrente, 149
rcurrente positive, 157
rversible, 149, 172
trace, 168
chane de Markov, 123
classe absorbante, 160
convergence L1 des martingales, 54
INDEX
mesure
invariante, 149
rversible, 149, 151
mesure absolument continue, 70
modle
dEhrenfest, 170
durne de Plya, 51, 230
de LaplaceBernoulli, 172
oprateur markovien, 127, 167
Plya (urne de), 51, 230
priode, 130
principe de Maurey, 79
ProppWilson (mthode, algorithme
de), 162
proprit de Markov
forte, 143
simple, 131
rcurrent, 146
rcurrent nul, 156
rcurrent positif, 156, 157
rversible, 149
RadonNikodm, 70, 89
renouvellement, 227, 228
retournement du temps, 167
stochastique (matrice), 125, 128, 129
temps darrt, 40, 145
thorme
de De FinettiHewittSavage, 117,
228
de ErdsFellerPollard, 227, 228
de RadonNikodm, 70, 72, 89
de renouvellement, 227, 228
thorme de Foster, 169
thorme de Vitali, 13
trace dune chane, 168
transient, 146
uniformment intgrable, 11
249
Vitali (thorme de), 13