You are on page 1of 378

Introduction

au calcul des probabilites


et `a la statistique
Exercices, Probl`emes et
corrections
Responsable de publication :
En application du Code de la Propriete Intellectuelle et notamment de ses articles L.
122.4, L. 122-5 et L. 335-2, toute representation ou reproduction integrale ou partielle faite sans le
consentement de lauteur ou de ses ayants droit ou ayants cause est illicite. Une telle representation
ou reproduction constituerait un delit de contrefacon, puni de trois ans demprisonnement et de
300 000 euros damende.
Ne sont autorises que les copies ou reproductions strictement reservees `a lusage prive
du copiste et non destinees `a une utilisation collective, ainsi que les analyses et courtes citations,
sous reserve que soient indiques clairement le nom de lauteur et la source.
c Les Presses de lENSTA,
Imprime en France
ISBN
www.ensta.fr
Jean-Fran cois Delmas
Introduction
au calcul des probabilites
et `a la statistique
Exercices, Probl`emes et
corrections
PARIS
LES PRESSES DE LENSTA
32, boulevard Victor, Paris 15
e
Table des mati`eres
I Espaces probabilises 9
I.1 Denombrement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
I.2 Formule du crible et applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
I.3 Probabilites conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II Variables aleatoires discr`etes 15
II.1 Exercices de manipulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
II.2 Jeu de pile ou face . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
II.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
II.4 Modelisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
III Variables aleatoires continues 25
III.1 Calculs de probabilites ou desperance . . . . . . . . . . . . . . . . . . . . . . . . . 25
III.2 Calculs de loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
III.3 Modelisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
IV Fonctions caracteristiques 33
IV.1 Calculs de loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
IV.2 Modelisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
V Theor`emes limites 37
V.1 Quelques convergences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
V.2 Calcul de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
V.3 Modelisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
VI Vecteurs Gaussiens 47
VI.1 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
VI.2 Proprietes et applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Table des mati`eres
VII Simulation 51
VIII Estimateurs 53
IX Tests 61
X Intervalles et regions de conance 73
XI Controles `a mi-cours 75
XI.1 1999-2000 : Le collectionneur (I) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
XI.2 2000-2001 : Le collectionneur (II) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
XI.3 2001-2002 : Le paradoxe du bus (I) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
XI.4 2002-2003 : La statistique de Mann et Whitney . . . . . . . . . . . . . . . . . 81
XI.5 2003-2004 : Le processus de Galton Watson . . . . . . . . . . . . . . . . . . . . 84
XI.6 2004-2005 : Theor`eme de Cochran ; Loi de Bose-Einstein . . . . . . . . . 86
XI.7 2005-2006 : Le paradoxe du bus (II) . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
XI.8 2006-2007 : Formule de duplication ; Sondages (I) . . . . . . . . . . . . . . . 91
XI.9 2007-2008 : Le collectionneur (III) ; Loi de Yule (I) . . . . . . . . . . . . . . 94
XI.10 2008-2009 : Mathematiques nanci`eres . . . . . . . . . . . . . . . . . . . . . . . . . 97
XI.11 2009-2010 : Transmission de message . . . . . . . . . . . . . . . . . . . . . . . . . . 100
XII Controles de n de cours 103
XII.1 1999-2000 : Le mod`ele de Hardy-Weinberg . . . . . . . . . . . . . . . . . . . . . 103
XII.2 2000-2001 : Estimation de la taille dune population . . . . . . . . . . . . . 106
XII.3 2001-2002 : Comparaison de traitements . . . . . . . . . . . . . . . . . . . . . . . 109
XII.4 2002-2003 : Ensemencement des nuages . . . . . . . . . . . . . . . . . . . . . . . . 114
XII.5 2003-2004 : Comparaison de densite osseuse . . . . . . . . . . . . . . . . . . . . 117
XII.6 2004-2005 : Taille des grandes villes . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
XII.7 2005-2006 : Resistance dune ceramique . . . . . . . . . . . . . . . . . . . . . . . . 128
XII.8 2006-2007 : Geyser ; Sondages (II) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
XII.9 2007-2008 : Loi de Yule (II) ; Sexe des anges . . . . . . . . . . . . . . . . . . . . 135
XII.10 2008-2009 : Comparaison dechantillons apparies . . . . . . . . . . . . . . . . 140
XII.11 2009-2010 : Mod`ele auto-regressif pour la temperature . . . . . . . . . . . 144
XIII Corrections 149
XIII.1 Espaces probabilises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
XIII.2 Variables aleatoires discr`etes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
XIII.3 Variables aleatoires continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
XIII.4 Fonctions caracteristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
XIII.5 Theor`emes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
XIII.6 Vecteurs Gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
XIII.7 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
6
Table des mati`eres
XIII.8 Estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
XIII.9 Tests . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
XIII.10 Intervalles et regions de conance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
XIII.11 Contr oles `a mi-cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
XIII.12 Contr oles de n de cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
Index 377
7
I
Espaces probabilises
I.1 Denombrement
Exercice I.1.
On tire au hasard deux cartes dans un jeu de 52 cartes.
1. Quelle est la probabilite pour que la couleur des deux cartes soit pique ?
2. Quelle est la probabilite pour que les deux cartes ne soient pas de la meme
couleur (pique, cur, carreau, tr`ee) ?
3. Quelle est la probabilite pour que la premi`ere carte soit un pique et la seconde
un cur ?
4. Quelle est la probabilite pour quil y ait un pique et un cur ?
5. Quelle est la probabilite pour quil y ait un pique et un as ?

Exercice I.2.
Le joueur A poss`ede deux des `a six faces, et le joueur B poss`ede un de `a douze
faces. Le joueur qui fait le plus grand score remporte la mise (match nul si egalite).
Calculer la probabilite que A gagne et la probabilite davoir un match nul. Le jeu
est-il equilibre ?

Exercice I.3.
On consid`ere une classe de n el`eves. On suppose quil ny a pas dannee bissextile.
1. Quelle est la probabilite, p
n
, pour que deux el`eves au moins aient la meme date
danniversaire ? Trouver le plus petit entier n
1
tel que p
n
1
0.5. Calculer p
366
.
2. Quelle est la probabilite, q
n
, pour quau moins un el`eve ait la meme date
danniversaire que Socrate ? Calculer q
n
1
et q
366
.
I Espaces probabilises

Exercice I.4.
Eug`ene et Diog`ene ont lhabitude de se retrouver chaque semaine autour dun verre
et de decider `a pile ou face qui r`egle laddition. Eug`ene se lamente davoir paye
les quatre derni`eres additions et Diog`ene, pour faire plaisir `a son ami, propose de
modier exceptionnellement la r`egle : Eug`ene, tu vas lancer la pi`ece cinq fois et
tu ne paieras que si on observe une suite dau moins trois piles consecutifs ou dau
moins trois faces consecutives. Eug`ene se felicite davoir un si bon ami.
`
A tort ou
`a raison ?

Exercice I.5.
Une urne contient r boules rouges et b boules bleues.
1. On tire avec remise p N

boules. Calculer la probabilite pour quil y ait p


r
boules rouges et p
b
boules bleues (p
r
+p
b
= p).
2. On tire sans remise p r + b boules. Calculer la probabilite pour quil y ait
p
r
boules rouges et p
b
boules bleues (p
r
r, p
b
b et p
r
+p
b
= p).
3. Calculer, dans les deux cas, les probabilites limites quand r , b et
r/(b +r) ]0, 1[.

I.2 Formule du crible et applications


Exercice I.6.
La formule du crible. Soit A
1
, , A
n
des ev`enements.
1. Montrer que P(A
1
A
2
) = P(A
1
) +P(A
2
) P(A
1
A
2
).
2. Montrer la formule du crible par recurrence.
P
_
n
_
i=1
A
i
_
=
n

p=1
(1)
p+1

1i
1
<<ipn
P(A
i
1
A
ip
). (I.1)
3. Inegalites de Bonferroni. Montrer, par recurrence sur n, que pour 1 m n,
m

p=1
(1)
p+1

1i
1
<<ipn
P(A
i
1
A
jp
)
est une majoration (resp. minoration) de P(

n
i=1
A
i
) lorsque m est impair (resp.
pair).
10
I.2 Formule du crible et applications

Exercice I.7.
An de savoir si les el`eves travaillent independamment ou en groupe, un enseignant
donne m exercices `a une classe de n el`eves et demande `a chaque el`eve de choisir k
exercices parmi les m.
1. Calculer la probabilite pour que les el`eves aient tous choisi une combinaison
xee de k exercices.
2. Calculer la probabilite pour que tous les el`eves aient choisi les k memes exer-
cices.
3. Calculer la probabilite pour quune combinaison xee ` a lavance, nait pas ete
choisie.
4. Calculer la probabilite pour quil existe au moins une combinaison de k exer-
cices qui nait pas ete choisie. (On utilisera la formule du crible (I.1), cf. exercice
I.6)
5. A.N. Donner les resultats pour n = 20, m = 4, k = 2. Comparer les valeurs
pour les questions 1 et 2 puis 3 et 4. Que peut dire lenseignant si tous les
el`eves ont choisit la meme combinaison de 2 exercices ?

Exercice I.8.
On utilise dans cet exercice la formule du crible (I.1) (cf exercice I.6). Soit 1 k
n.
1. Calculer `a laide de la formule du crible le nombre de surjections de 1, , n
dans 1, , k.
2. En deduire
_
n
k
_
, le nombre de partitions dun ensemble `a n elements en k sous-
ensembles non vides. Les nombres
_
n
k
_
sont appeles les nombres de Stirling de
deuxi`eme esp`ece.
3. Montrer que
_
n
k
_
=
_
n 1
k 1
_
+k
_
n 1
k
_
,
_
n
1
_
= 1,
_
n
k
_
= 0 si k > n.

Exercice I.9.
On utilise dans cet exercice la formule du crible (I.1) (cf exercice I.6).
11
I Espaces probabilises
1. Pour feter leur reussite `a un concours, n etudiants se donnent rendez-vous dans
un chalet. En entrant chaque personne depose sa veste dans un vestiaire. Au
petit matin, quand les esprits ne sont plus clairs, chacun prend au hasard une
veste. Quelle est la probabilite pour quune personne au moins ait sa propre
veste ?
2. En deduire le nombre de permutations de 1, . . . , n sans point xe (probl`eme
formule par P. R. de Montmort en 1708)
1
3. En sinspirant de la question 1, calculer la probabilite
n
(k) pour que k per-
sonnes exactement aient leur propre veste.
4. Calculer la limite (k) de
n
(k) quand n tend vers linni. Verier que la
famille ((k), k N) determine une probabilite sur N. Il sagit en fait de la loi
de Poisson.

I.3 Probabilites conditionnelles


Exercice I.10.
On suppose que lon a autant de chance davoir une lle ou un gar con `a la naissance.
Votre voisin de palier vous dit quil a deux enfants.
1. Quelle est la probabilite quil ait au moins un gar con ?
2. Quelle est la probabilite quil ait un gar con, sachant que lanee est une lle ?
3. Quelle est la probabilite quil ait un gar con, sachant quil a au moins une lle ?
4. Vous telephonez `a votre voisin. Une lle decroche le telephone. Vous savez que
dans les familles avec un gar con et une lle, la lle decroche le telephone avec
probabilite p, quelle est la probabilite que votre voisin ait un gar con ?
5. Vous sonnez `a la porte de votre voisin. Une lle ouvre la porte. Sachant que
lane(e) ouvre la porte avec probabilite p, et ce independamment de la repar-
tition de la famille, quelle est la probabilite que votre voisin ait un gar con ?

Exercice I.11.
Les laboratoires pharmaceutiques indiquent pour chaque test sa sensibilite , qui
est la probabilite que le test soit positif si le sujet est malade, et sa specicite , qui
est la probabilite que le test soit negatif si le sujet est sain. Sachant quen moyenne
1
Voir L. Takacs (The problem of coincidences, Arch. Hist. Exact Sci. 21 :3 (1980), 229-244)
pour une etude historique du probl`eme des concidences vu par les probabilistes.
12
I.3 Probabilites conditionnelles
il y a un malade sur 1000 personnes, calculer la probabilite pour que vous soyez
un sujet sain alors que votre test est positif, avec = 98% et = 97%. Calculer
la probabilite detre malade alors que le test est negatif. Commentaire.

Exercice I.12.
Le g`ene qui determine la couleur bleue des yeux est recessif. Pour avoir les yeux
bleus, il faut donc avoir le genotype bb. Les genotypes mm et bm donnent des yeux
marron. On suppose que les parents transmettent indieremment un de leurs g`enes
`a leurs enfants. La sur et la femme dAdrien ont les yeux bleus, mais ses parents
ont les yeux marron.
1. Quelle est la probabilite pour quAdrien ait les yeux bleus ?
2. Quelle est la probabilite que le premier enfant dAdrien ait les yeux bleus
sachant quAdrien a les yeux marron?
3. Quelle est la probabilite pour que le deuxi`eme enfant dAdrien ait les yeux
bleus sachant que le premier a les yeux marron?
4. Comment expliquez-vous la dierence des resultats entre les deux derni`eres
questions ?

Exercice I.13.
Paradoxe de Bertrand (1889). On consid`ere trois cartes : une avec les deux faces
rouges, une avec les deux faces blanches, et une avec une face rouge et une face
blanche. On tire une carte au hasard. On expose une face au hasard. Elle est rouge.
Parieriez-vous que la face cachee est blanche ? Pour vous aider dans votre choix :
1. Determiner lespace de probabilite.
2. Calculer la probabilite que la face cachee soit blanche sachant que la face visible
est rouge.

Exercice I.14.
Le probl`eme qui suit est inspire du jeu televise americain Lets Make a Deal
(1963-1977) presente par Monty Hall
2
. On consid`ere trois portes : A, B et C.
Derri`ere lune dentre elles se trouve un cadeau et rien derri`ere les deux autres.
Vous choisissez au hasard une des trois portes sans louvrir, par exemple la porte A.
`
A ce moment-l`a, le presentateur, qui sait derri`ere quelle porte se trouve le cadeau,
2
Voir le site Wikipedia http://en.wikipedia.org/wiki/Monty_Hall_problem.
13
I Espaces probabilises
ouvre une porte parmi les deux B et C, derri`ere laquelle il ny a evidemment rien.
On vous propose alors de changer ou non de porte, le but etant douvrir la porte
qui cache le cadeau an de gagner. Lobjectif de cet exercice est de determiner
votre meilleure strategie.
1. On suppose que si le cadeau est derri`ere la porte A, alors le presentateur choisit
au hasard entre les deux autres portes. Calculer la probabilite pour que le
cadeau soit derri`ere la porte B sachant que le presentateur ouvre la porte C.
Que faites-vous ?
2. On suppose que si le cadeau est derri`ere la porte A, alors le presentateur choisit
systematiquement la porte B. Que faites-vous si le presentateur ouvre la porte
B (respectivement C) ?
3. Montrer que quelle que soit la valeur de la probabilite pour que le presentateur
ouvre la porte B (respectivement C) sachant que le cadeau est derri`ere la porte
A, vous avez interet `a changer de porte. En deduire que la meilleure strategie
consiste `a changer systematiquement de porte.
4. Une fois que le presentateur a ouvert une porte, et quel que soit le mecanisme
de son choix, vous tirez `a pile ou face pour choisir si vous changez ou non
de porte. Quelle est votre probabilite de gagner le cadeau ? Verier que cette
strategie est moins bonne que la precedente.

14
II
Variables aleatoires discr`etes
II.1 Exercices de manipulation
Exercice II.1.
Calculer les fonctions generatrices des lois usuelles : Bernoulli, binomiale, geome-
trique et Poisson. En deduire leur moyenne et leur variance.

Exercice II.2.
Soit X une variable aleatoire de loi de Poisson de param`etre > 0 : P(X = k) =
e


k
k!
, k N.
1. Verier que
1
1 +X
est une variable aleatoire integrable. Calculer E
_
1
1 +X
_
.
2. Calculer E
_
1
(1 +X)(2 +X)
_
et en deduire E
_
1
2 +X
_
.

Exercice II.3.
Un gardien de nuit doit ouvrir une porte dans le noir, avec n clefs dont une seule
est la bonne. On note X le nombre dessais necessaires pour trouver la bonne clef.
1. On suppose que le gardien essaie les clefs une `a une sans utiliser deux fois la
meme. Donner la loi de X, son esperance et sa variance.
2. Lorsque le gardien est ivre, il melange toutes les clefs `a chaque tentative. Donner
la loi de X, son esperance et sa variance.
3. Le gardien est ivre un jour sur trois. Sachant quun jour n tentatives ont ete
necessaires pour ouvrir la porte, quelle est la probabilite que le gardien ait ete
ivre ce jour l`a ? Calculer la limite quand n tend vers linni.
II Variables aleatoires discr`etes

Exercice II.4.
On jette 5 des. Apr`es le premier lancer, on reprend et on lance les des qui nont
pas donne de six, jusqu`a ce quon obtienne 5 six. Soit X le nombre de lancers
necessaires.
1. Calculer P(X k) pour k N.
2. Soit Y une variable `a valeurs dans N. Montrer que
E[Y ] =

k=1
P(Y k).
3. Combien de lancers sont necessaires en moyenne pour obtenir les 5 six ?

Exercice II.5.
Soit des variables aleatoires independantes X, de loi de Bernoulli de param`etre
p ]0, 1[, Y de loi geometrique de param`etre a ]0, 1[ et Z de loi de Poisson de
param`etre > 0.
1. Donner les fonctions generatrices de Y et Z.
2. Soit U la variable aleatoire egale `a 0 si X = 0, egale `a Y si X = 1. Calculer la
fonction generatrice de U, en deduire E[U] et E[U
2
].
3. Soit V la variable aleatoire egale `a Y si X = 0, egale `a Z si X = 1. Calculer la
fonction generatrice de V , en deduire E[V ] et E[V
2
].

Exercice II.6.
On pose 20 questions `a un candidat. Pour chaque question k reponses sont propo-
sees dont une seule est la bonne. Le candidat choisit au hasard une des reponses
proposees.
1. On lui attribue un point par bonne reponse. Soit X le nombre de points obtenus.
Quelle est la loi de X ?
2. Lorsque le candidat donne une mauvaise reponse, il peut choisir `a nouveau une
des autres reponses proposees. On lui attribue alors
1
2
point par bonne reponse.
Soit Y le nombre de
1
2
points obtenus lors de ces seconds choix. Quelle est la
loi de Y ?
3. Soit S le nombre total de points obtenus. Determiner k pour que le candidat
obtienne en moyenne une note de 5 sur 20.
16
II.2 Jeu de pile ou face

Exercice II.7.
On consid`ere deux urnes contenant chacune R boules rouges et B boules bleues.
On note X le nombre de fois o` u en retirant une boule de chacune des deux urnes,
elles nont pas la meme couleur. Les tirages sont sans remise.
1. Calculer la probabilite pour que lors du i-`eme tirage, les deux boules naient
pas la meme couleur. En deduire E[X].
2. Calculer la loi de X. Est-il facile de calculer E[X] `a partir de la loi de X ?

Exercice II.8.
Une urne contient N boules numerotees de 1 `a N. On tire n boules une `a une avec
remise. Soit X et Y le plus petit et le plus grand des nombres obtenus.
1. Calculer P(X x) pour tout x 1, , N. En deduire la loi de X.
2. Donner la loi de Y .
3. Calculer P(X > x, Y y) pour tout (x, y) 0, , N
2
. En deduire la loi du
couple (X, Y ).

Exercice II.9.
On desire repondre `a la question suivante : Peut-on reproduire le resultat dun
lancer dun de equilibre `a onze faces, numerotees de 2 `a 12, comme la somme dun
lancer de deux des `a six faces, numerotees de 1 `a 6, eventuellement dieremment
biaises ?
1. Soit X de loi uniforme sur 2, . . . , 12. Verier que la fonction generatrice de
X est un polynome. Quelles sont ses racines reelles ?
2.

Etudier les racines de la fonction generatrice associee `a la somme dun lancer
de deux des `a six faces. Conclure.

II.2 Jeu de pile ou face


Exercice II.10.
Deux joueurs lancent une pi`ece de monnaie parfaitement equilibree n fois chacun.
Calculer la probabilite quils obtiennent le meme nombre de fois pile.

17
II Variables aleatoires discr`etes
Exercice II.11.
Les botes dallumettes de Banach
1
. Ce probl`eme est d u `a H. Steinhaus (1887-1972)
qui le dedia `a S. Banach (1892-1945), lui aussi grand fumeur.
Un fumeur a dans chacune de ses deux poches une bote dallumettes qui
contient initialement N allumettes.
`
A chaque fois quil veut fumer une cigarette,
il choisit au hasard une de ses deux poches et prend une allumette dans la bote
qui sy trouve.
1. Lorsquil ne trouve plus dallumette dans la bote quil a choisi, quelle est la
probabilite pour quil reste k allumettes dans lautre bote ?
2. Le fumeur cherche alors une allumette dans son autre poche. Quelle est la
probabilite pour que lautre bote soit vide, ce qui sut ` a gacher la journee ?
Application numerique : N = 20 (la bote plate), N = 40 (la petite bote).

Exercice II.12.
On consid`ere un jeu de pile ou face biaise : les variables aleatoires (X
n
, n N

) sont
independantes et de meme loi de Bernoulli de param`etre p ]0, 1[ : P(X
n
= 1) = p
et P(X
n
= 0) = 1 p. On note T
k
linstant du k-i`eme succ`es : T
1
= infn
1; X
n
= 1 et pour k 2,
T
k
= infn T
k1
+ 1; X
n
= 1.
1. Montrer que T
1
et T
2
T
1
sont independants.
2. On pose T
0
= 0. Montrer que T
1
T
0
, T
2
T
1
, , T
k+1
T
k
sont independantes
et de meme loi.
3. Calculer E[T
k
] et Var(T
k
).
4. Determiner P(T
k
= n) directement. Donner la fonction generatrice de T
k
. La
loi de T
k
est appelee loi binomiale negative de param`etre (k, p).
On poss`ede une seconde pi`ece de param`etre ]0, 1[. On note linstant du
premier succ`es de la seconde pi`ece. On decide de jouer avec la premi`ere pi`ece
jusquau -i`eme succ`es (cest-` a-dire T

).
5. Determiner la loi de T

`a laide des fonctions generatrices. Reconnatre la loi


de T

.
6. Retrouver ce resultat `a laide dun raisonnement probabiliste sur les premiers
temps de succ`es.

1
Feller, An introduction to probability theory and its applications, Vol. 1. Third ed. (1968). Wiley
& Sons.
18
II.3 Lois conditionnelles
Exercice II.13.
On consid`ere un jeu de pile ou face biaise : les variables aleatoires (X
n
, n N

) sont
independantes et de meme loi de Bernoulli de param`etre p ]0, 1[ : P(X
n
= 1) = p
et P(X
n
= 0) = 1 p. On consid`ere le premier temps dapparition de la sequence
10 : T = infn 2; X
n1
= 1, X
n
= 0, avec la convention inf = +.
1. Montrer que P(T < +) = 1.
2. Calculer la loi de T, et montrer que T a meme loi que U +V o` u U et V sont des
variables aleatoires independantes de loi geometrique de param`etre respectif p
et 1 p.
3. Trouver la fonction generatrice de T.
4. Calculer la moyenne et la variance de T.

Exercice II.14.
Soit (X
n
, n 1) une suite de variables aleatoires independantes de loi de Bernoulli
de param`etre p ]0, 1[, P(X
n
= 1) = p et P(X
n
= 0) = 1 p, et N une variable
aleatoire `a valeurs dans N independante de (X
n
, n 1). On pose S = 0 si N = 0
et S =

N
k=1
X
k
sinon. On desire determiner les lois de N telles que les variables
S et N S soient independantes. On note la fonction generatrice de N.
1. On suppose que la loi de N est la loi de Poisson de param`etre > 0 : P(N =
n) =

n
n!
e

pour n N. Determiner la loi de (S, N S). Reconnatre la loi de


S. Verier que S et N S sont independants.
On suppose que S et N S sont independants.
2. Monter que pour tout z [1, 1], (z) = ((1 p) + pz)(p + (1 p)z). On
pose h(z) =

(z)/(z), pour z ]0, 1[. Montrer que h(z) = ph((1 p) +pz) +


(1 p)h(p + (1 p)z).
3. On suppose p = 1/2. Verier que h(z) = h((1 + z)/2). En deduire que h(z) =
lim
r1

h(r), puis que soit N = 0 p.s., soit N suit une loi de Poisson.
4. On suppose p ]0, 1/2[. Montrer, en sinspirant de la question precedente, que
soit N = 0 p.s., soit N suit une loi de Poisson.

II.3 Lois conditionnelles


Exercice II.15.
Soit (X
1
, . . . , X
n
) une suite de variables aleatoires independantes de loi de Bernoulli
de param`etre p ]0, 1[. On note S
n
=

n
i=1
X
i
.
19
II Variables aleatoires discr`etes
1. Calculer la loi de (X
1
, . . . , X
n
) conditionnellement `a S
n
.
2. Calculer la loi de X
i
conditionnellement `a S
n
(pour n i).
3. Les variables X
1
et X
2
sont-elles independantes conditionnellement `a S
n
(pour
n 2) ?

Exercice II.16.
Soit X et Y deux variables aleatoires independantes de loi geometrique de meme
param`etre p ]0, 1[.
1. Calculer les fonctions generatrices de X et de Y , en deduire celle de S = X+Y .
Calculer P(S = n) pour n N.
2. Determiner la loi de X sachant S. En deduire E[X[S].
3. Verier la formule E[E[X[S]] = E[X].

II.4 Modelisation
Exercice II.17.
Optimisation de co uts. Le co ut de depistage de la maladie M `a laide dun test
sanguin est c. La probabilite quune personne soit atteinte de la maladie M est
p. Chaque personne est malade independamment des autres. Pour eectuer un
depistage parmi N personnes, on propose les deux strategies suivantes :
Strategie 1 : Un test par personne.
Strategie 2 : On suppose que N/n est entier et on regroupe les N personnes
en N/n groupes de n personnes. Par groupe, on melange les prel`evements
sanguins des n personnes et on eectue le test. Si on detecte la maladie M
dans le melange, alors on refait un test sanguin pour chacune des n personnes.
Calculer le co ut de la strategie 1, puis le co ut moyen de la strategie 2. On
supposera np 1, et on montrera que n p
1/2
est une taille qui minimise
correctement le co ut moyen de la strategie 2. Quelle strategie choisissez-vous ?
Illustrer vos conclusions pour le cas o` u p = 1%.
Cette demarche a ete utilisee initialement par R. Dorfman
2
, durant la Seconde
Guerre mondiale, dans un programme commun avec lUnited States Public Health
Service et le Selective Service System, an de reformer les futurs appeles du contin-
gent ayant la syphilis (taux de syphilis en Amerique du nord : de lordre de 1%
2
The detection of defective numbers of large populations, Ann. Math. Statist. 14, 436-440 (1943).
20
II.4 Modelisation
`a 2% dans les annees 1940 et de lordre de 5 `a 20 pour 100 000 en 1990). De
nombreuses generalisations ont ensuite ete etudiees.

Exercice II.18.
On desire modeliser la loi du temps dattente dune panne de machine `a laide
dune lois sans memoire : la probabilite pour que la machine tombe en panne apr`es
la date k + n sachant quelle fonctionne `a linstant n est independante de n. Plus
precisement, on dit quune variable aleatoire X `a valeurs dans N est de loi sans
memoire si P(X > k +n[X > n) est independant de n N pour tout k N.
1. Montrer que la loi geometrique de param`etre p est sans memoire.
2. Caracteriser toutes les lois sans memoire des variables aleatoires X `a valeurs
dans N

. On pourra calculer P(X > 1 +n) en fonction de P(X > 1).


3. Caracteriser toutes les lois sans memoire des variables aleatoires X `a valeurs
dans N.

Exercice II.19.
La France a eu 38 medailles dont 13 dor aux jeux olympiques de Sydney en 2000,
sur 928 medailles dont 301 dor. On estime la population `a 6 milliards dont 60
millions en France. Peut-on dire que les sportifs de haut niveau sont uniformement
repartis dans la population mondiale ?

Exercice II.20.
On sinteresse aux nombres de suites typiques contenant des 0 ou des 1. Plus
precisement, on consid`ere
n
lensemble des suites = (
1
, . . . ,
n
) 0, 1
n
muni de la probabilite P() = p
P
n
i=1

i
q
n
P
n
i=1

i
. On denit le sous-ensemble
de des suites typiques de longueur n par :
C
n
=
_

n
;

1
n
n

i=1

i
p


n
_
,
o` u lim
n

n
= 0 et lim
n

n
n
= +. Le but de lexercice est de montrer que
lensemble C
n
est de probabilite proche de 1 et destimer son cardinal (qui peut
etre signicativement plus petit que celui de
n
qui vaut 2
n
).
1. Soit ]0, 1[. Montrer, `a laide de linegalite de Tchebychev que pour n assez
grand, on a P(C
n
) 1 .
21
II Variables aleatoires discr`etes
On denit lentropie de la loi de Bernoulli de param`etre p par H
p
= p log(p)
(1 p) log(1 p).
2. Pour quelle valeur de p lentropie est-elle maximale ?
3. Montrer que pour n assez grand, on a pour tout C
n
:
e
n(Hp+n)
P() e
n(Hpn/2)
e
n(Hpn)
,
avec 0
n
= c
p

n
, la constante c
p
dependant seulement de p.
4. Montrer que pour tout n assez grand, on a :
e
n(Hpn)
Card (C
n
) e
n(Hp+n)
,
5. Quel resultat obtenez-vous si p = 1/2, si p 0 ou p 1 ?
Certaines techniques de compression consistent `a trouver les suites typiques pour
une longueur n xee, et `a les coder par des sequences courtes (do` u la compression).
La contre-partie est que les suites non-typiques sont codees par des sequences plus
longues. Comme les suites non-typiques sont tr`es rares, elles apparaissent peu
souvent et donc la compression est peu degradee par les suites non-typiques. La
compression est dautant plus importante que lensemble des suites typiques est
petit. Dans le cas de sequences aleatoires traitees dans cet exercice, cela correspond
aux cas p 0 ou p 1.

Exercice II.21.
On souhaite modeliser des phenom`enes qui se rep`etent `a des intervalles de temps
aleatoires independants et identiquement distribues (theorie des processus de re-
nouvellement). On ne peut pas predire la date o` u ces phenom`enes vont se produire
mais on peut estimer la probabilite que ces phenom`enes se produisent `a un instant
n donne, pour n N,
P(le phenom`ene se produit ` a linstant n) = v
n
.
Lobjetif de cet exercice est dutiliser les fonctions generatrices pour calculer ces
probabilites en fonction des lois des intervalles de temps aleatoires, puis, den
deduire les lois des intervalles de temps quand les probabilites v
n
sont stationnaires,
i.e. independantes de n.
On note T
n
linstant de n-i`eme occurrence du phenom`ene considere. On pose
X
1
= T
1
, et pour n 2, X
n
= T
n
T
n1
, lintervalle de temps ou le temps ecoule
entre la n-i`eme et la (n 1)-i`eme occurrence du phenom`ene. On suppose que les
variables aleatoires (X
n
, n 1) sont independantes, que X
1
est `a valeurs dans N
et que les variables aleatoires (X
n
, n 2) sont identiquement distribuees `a valeurs
22
II.4 Modelisation
dans N

. La loi de X
1
est a priori dierente de celle de X
2
car le choix du temps
`a partir duquel on commence `a compter les occurrences est arbitraire.
Pour k N, on pose b
k
= P(X
1
= k) et pour s [1, 1], B(s) =

k=0
b
k
s
k
la
fonction generatrice de X
1
. Pour k N, on pose f
k
= P(X
2
= k) (avec f
0
= 0) et
pour s [1, 1], F(s) =

k=0
f
k
s
k
la fonction generatrice de X
2
.
On denit u
0
= 1 et, pour j 1,
u
j
= P
_
k

i=2
X
i
= j pour un k 2, . . . , j + 1
_
.
Pour s ] 1, 1[, on pose U(s) =

n=0
s
n
u
n
ainsi que V (s) =

n=0
v
n
s
n
.
1. Verier que les fonctions U et V sont bien denies pour s ] 1, 1[.
2. Montrer que v
n
= b
n
u
0
+ b
n1
u
1
+ b
n2
u
2
+ + b
0
u
n
. En deduire que pour
s ] 1, 1[, on a V (s) = B(s)U(s).
3. Montrer que u
n
= f
1
u
n1
+f
2
u
n2
+ +f
n
u
0
. En deduire que
V (s) =
B(s)
1 F(s)
pour s ] 1, 1[. (II.1)
On suppose que les probabilites v
n
sont stationnaires et non triviales, i.e. il existe
p ]0, 1[ et v
n
= p pour tout n 0.
4. Calculer V . Calculer b
0
. Montrer, en calculant les derivees successives de F en
fonction de celles de B, que f
n
=
b
n1
b
n
p
pour tout n 1.
5. On suppose de plus que le choix arbitraire du temps `a partir duquel on com-
mence `a compter les occurrences ne change pas le processus des occurrences :
plus precisement si il ny a pas doccurrence `a linstant initial, alors le temps
de la premi`ere occurrence a meme loi que X
2
. Autrement dit, on suppose que
la loi de X
1
sachant X
1
> 0 est la loi de X
2
. Montrer alors que X
2
suit la
loi geometrique de param`etre p, i.e. f
n
= p(1 p)
n1
pour n 1, et que X
1
a
meme loi que X
2
1.
Ce mod`ele simple permet, par exemple, de rendre compte des temps darrivees
des particules `a un compteur Geiger : les probabilites dobserver larrivee dune
particule au compteur Geiger ne varie pas avec le temps dobservation (regime
stationnaire), et le choix du debut des mesures ne change pas la loi dattente de la
premi`ere mesure. Avec une discretisation reguli`ere du temps, on peut modeliser les
intervalles de temps entre deux arrivees de particules par des variables aleatoires
independantes de loi geometrique.

23
III
Variables aleatoires continues
III.1 Calculs de probabilites ou desperance
Exercice III.1.
Soit la fonction f denie sur R par : f(x) = xe
x
2
/2
1
x>0
.
1. Verier que f est une densite de probabilite.
2. Soit X une variable aleatoire continue dont la loi a pour densite f. Montrer
que Y = X
2
est une variable aleatoire continue, dont on precisera la densite.
Reconnatre la loi de Y .
3. Calculer lesperance et la variance de Y

Exercice III.2.
On consid`ere une galette des rois circulaire de rayon R, une f`eve de rayon r cachee
dans la galette (R > 2r > 0). Calculer la probabilite de toucher la feve quand
on donne le premier coup de couteau dans la galette. (On suppose que le coup
de couteau correspond `a un rayon de la galette.) Donner un equivalent de cette
probabilite pour r petit.

Exercice III.3.
On consid`ere un gateau circulaire avec une cerise sur le bord. On decoupe le gateau
en deux parts en coupant suivant deux rayons choisis au hasard.
1. Avec quelle probabilite la part contenant la cerise est-elle plus petite que la
part ne contenant pas la cerise ?
2. Quelle est la longueur angulaire moyenne de la part contenant la cerise ?

III Variables aleatoires continues


Exercice III.4.
On consid`ere un b aton sur lequel on trace au hasard deux marques. On decoupe
le b aton suivant les deux marques. Quelle est la probabilite pour que lon puisse
faire un triangle avec les trois morceaux ainsi obtenus ?
Exercice III.5.
Soit (X
n
, n 1) une suite de variables aleatoires independantes de loi exponentielle
de param`etre rescpectif
n
> 0. Montrer que les trois conditions suivantes sont
equivalentes.
1.

n1

1
n
< .
2. E
_

n1
X
n
_
< .
3. P
_

n1
X
n
<
_
> 0.
Pour 3 1, on pourra considerer E[e

P
n1
Xn
].

III.2 Calculs de loi


Exercice III.6.
Soit Y une variable aleatoire de loi exponentielle > 0 et une variable aleatoire
discr`ete independante de Y et telle que P( = 1) = P( = 1) = 1/2. Montrer que
la loi de la variable aleatoire Z = Y poss`ede une densite et la calculer. Cette loi
est appelee loi exponentielle symetrique.
Exercice III.7.
Soit X et Y deux variables aleatoires independantes de loi respective (, a) et
(, b) avec a, b, ]0, [.
1. Calculer la loi du couple (X +Y,
X
X +Y
).
2. Montrer que X +Y et
X
X +Y
sont independantes et identier leur loi.

Exercice III.8.
Soit X une variable aleatoire de Cauchy.
1. Determiner la loi de 1/X.
26
III.3 Modelisation
2. Montrer que si Y et Z sont deux variables gaussiennes centrees reduites inde-
pendantes, alors Y/Z suit une loi de Cauchy.
3. Retrouver ainsi le resultat de la question 1.

Exercice III.9.
Soit X
1
, X
2
des variables aleatoires independantes de loi ^(0, 1).
1. Montrer que X
2
1
suit la loi
2
(1).
2. Montrer que X
2
1
+X
2
2
suit la loi
2
(2).

Exercice III.10.
Soit n 2 et X
1
, . . . , X
n
une suite de n variables aleatoires independantes de loi
uniforme sur [0, 1]. On note Y = min
1in
X
i
et Z = max
1in
X
i
.
1. Calculer la loi de (Y, Z).
2. En deduire la loi de Y et la loi de Z. Reconnatre ces deux lois.
3. Calculer E[Y [Z].
4. Calculer E[g(Y/Z)[Z], pour une fonction g mesurable bornee. En deduire puis
reconnatre la loi de Y/Z conditionnellement `a Z. Retrouver le resultat de la
question 3.
5. Montrer que (1 Z, 1 Y ) a meme loi que (Y, Z).
6. En deduire que (1 Z)/(1 Y ) est independant de Y .

III.3 Modelisation
Exercice III.11.
La duree de vie, exprimee en annees, dun circuit electronique est une variable alea-
toire T dont la fonction de repartition F est denie par : F(t) = (1e
t
2
/2
)1
t0
.
1. Donner la densite de probabilite f de T. Calculer E[T].
2. Sachant que le circuit a dej`a fonctionne durant 1 an, quelle est la probabilite
quil continue `a fonctionner encore durant au moins 2 ans ? La loi est-elle sans
memoire ?
Un equipement electronique E est compose de 10 circuits identiques et indepen-
dants. Au circuit i (1 i 10) est associee la variable aleatoire X
i
, avec X
i
= 1
si la duree de vie du circuit i est inferieure `a un an et X
i
= 0 sinon.
27
III Variables aleatoires continues
3. Quelle est la loi du nombre, N, de circuits de E dont la duree de vie est inferieure
`a 1 an ?
4. Lequipement E est dit en serie si la defaillance de lun de ses circuits entrane
sa defaillance. Quelle est alors la probabilite quil soit defaillant avant 1 an ?
5. Lequipement E est dit en parall`ele si sa defaillance ne peut se produire que
si tous ses circuits sont defaillants. Quelle est alors la probabilite quil soit
defaillant avant 1 an ?

Exercice III.12.
On utilise des f uts pour stocker un dechet toxique liquide. On suppose que sur la
tr`es longue periode de stockage les f uts se degradent. En particulier, par corrosion
des perforations aleatoires apparaissent sur les f uts. Le liquide toxique secoule
alors par ces perforations.
On consid`ere n f uts de hauteur h et on suppose que le nombre de perfora-
tions par f ut suit une loi de Poisson de param`etre et que ces perforations sont
uniformement repartis sur la hauteur du f ut.
On sinteresse `a un seul f ut.
1. On note Z la variable aleatoire correspondant `a la hauteur de la perforation la
plus basse sur le cote du f ut et N la variable aleatoire donnant le nombre de
perforations sur ce f ut. Donner la loi de Z conditionnellement `a N.
2. Quel pourcentage de liquide peut-on esperer conserver connaissant le nombre
de perforations du f ut ?
On consid`ere lensemble des n f uts, avec n grand.
3. Quel pourcentage du liquide toxique peut-on esperer conserver ?
Application numerique : = 5.

Exercice III.13.
Le paradoxe de Bertrand
1
est un exemple classique (cf le livre Calcul des probabi-
lites de Poincare en 1912), qui met en evidence la diculte detendre la formule
classique des probabilites uniformes :
Probabilite dun ev`enement =
nombre de resultats favorables
nombre de resultats possibles
aux espaces detats non denombrables.
1
Joseph Bertrand, mathematicien francais (1822-1900).
28
III.3 Modelisation
On choisit au hasard une corde sur un cercle de rayon r et de centre O. On
note L sa longueur. Pour les trois choix ci-dessous de la corde, donner la loi de L,
son esperance, sa variance et p = P(L >

3r) la probabilite pour que la corde soit


plus longue que le cote du triangle equilateral inscrit (i.e. la distance de la corde
au centre du cercle est inferieure `a r/2).
1. On se donne un rayon au hasard et un point J uniformement sur le rayon. La
corde choisie est perpendiculaire au rayon et passe par J.
2. On choisit la corde AB o` u A et B sont choisis independamment et uniforme-
ment sur le cercle. On pourra faire intervenir langle au centre

AOB et montrer
quil est de loi uniforme sur [0, 2].
3. On choisit le milieu de la corde, I, uniformement dans le le disque : les coordon-
nees (X, Y ) de I suivent la loi uniforme sur le disque de densite
1
r
2
1
x
2
+y
2
r
2

.
Quelle est votre conclusion ?

Exercice III.14.
Les vehicules spatiaux desirant sarrimer ` a la Station Spatiale Internationale (ISS)
sappuient sur le syst`eme de guidage GPS (Global Positioning system) pour la
phase dapproche de la station. Cependant, `a faible distance de lISS, les signaux
emits par la constellation de satellites qui constituent le syst`eme GPS sont for-
tement perturbes par les phenom`enes de reexions multiples sur la structure me-
tallique de la station. Londe electromagnetique re cue par le recepteur GPS du
vehicule spatial se presente donc comme la superposition de deux ondes en qua-
drature dont les amplitudes X et Y sont des variables aleatoires de loi gaussienne
^(0,
2
) supposees independantes (pour des raisons disotropie). Letude de lam-
plitude R =

X
2
+Y
2
de londe re cue est de premi`ere importance pour assurer
un guidage able du vaisseau lors de la manuvre darrimage
2
.
1. Quelle est la loi du couple (X, Y ) ?
2. En faisant le changement de variable X = Rcos , Y = Rsin , donner la loi
du couple (R, ).
3. Montrer que R et sont independants. Reconnatre la loi de . Donner la
densite de la loi de R. Cette loi est appelee loi de Rayleigh.
4. Calculer lesperance et la variance de R.

2
D. E. Gaylor, R. Glenn Lightsey, K. W. Key. Eects of Multipath and Signal Blockage on GPS
Navigation in the Vicinity of the International Space Station (ISS), ION GPS/GNSS (2003),
Portland, OR.
29
III Variables aleatoires continues
Exercice III.15.
Laiguille de Buon (1777). On lance des aiguilles de longueur sur un parquet
dont les lames sont parall`eles, toutes identiques et de largeur d > . Les lancers
sont independants et seectuent tous dans les memes conditions. On param`etre
la position dune aiguille par rapport aux lames de parquet par labscisse de son
milieu, X, et sa direction, donnee par langle , quelle fait par rapport `a une droite
orthogonale `a la direction des lames.
1. Traduire le fait quune aiguille coupe une rainure du parquet `a laide des va-
riables X et .
2. Proposer un mod`ele pour la loi de (X, ). Calculer la probabilite pour quune
aiguille coupe une rainure du parquet.
3. On eectue n lancers et on note N
n
le nombre daiguilles coupant une rainure
du parquet. Que vaut lim
n
N
n
n
?
4. On suppose que 2 = d. Trouver n pour que la precision sur 1/ soit de 10
2
avec une probabilite dau moins 95%.
5. On eectue 355 lancers avec 2 = d, et on obtient 113 intersections. On a ainsi
une approximation de 1/ `a 3.10
7
. Ce resultat est-il en contradiction avec le
resultat de la question precedente ? Que devient la precision de lapproximation
avec un lancer de plus ?

Exercice III.16.
Votre ami choisit deux nombres positifs sans vous faire part de la mani`ere dont il
les choisit. Apr`es avoir lance une pi`ece equilibree, il vous donne le plus petit sil
a obtenu face et le plus grand sinon. Vous devez parier sil vous a donne le plus
petit ou le plus grand. Votre objectif est de maximiser votre probabilite de gagner
votre pari.
1. Vous lancez une pi`ece equilibree ou non. Si vous obtenez face, vous pariez quil
vous a donne le plus petit, sinon vous pariez quil vous a donne le plus grand.
Quelle est la probabilite de gagner votre pari ?
2. Vous simulez une variable aleatoire positive continue Z ayant pour support
R
+
(i.e. P(Z O) > 0 pour tout ouvert O non vide de R
+
). Si le nombre
donne par votre ami est plus petit que Z, alors vous pariez quil vous a donne
le plus petit, sinon vous pariez quil vous a donne le plus grand. Quelle est la
probabilite de gagner votre pari ?
3. On suppose que les deux nombres de votre ami, ont ete obtenus par simulation
suivant une loi (continue de densite strictement positive sur ]0, [) donnee et
30
III.3 Modelisation
connue de vous. Determiner votre strategie optimale (i.e. la loi de Z que lon
ne suppose plus continue). Quelle est alors la probabilite de gagner votre pari ?

Exercice III.17.
On desire determiner la distribution des vitesses des molecules dun gaz monoato-
mique parfait `a lequilibre (loi de Maxwell (1859)).
1. Soit (X, Y, Z), un vecteur aleatoire continu `a valeurs dans R
3
dont la loi est
invariante par rotation autour de lorigine et dont les composantes X, Y, Z
sont independantes. Caracteriser
3
les lois marginales de X, Y et Z dans le cas
o` u les densites des lois marginales sont des fonctions de classe C
1
.
2. On represente la vitesse dune molecule dun gaz monoatomique parfait `a lequi-
libre dans un rep`ere orthonormal par un vecteur aleatoire V = (V
1
, V
2
, V
3
). Le
choix du rep`ere etant arbitraire, il est naturel de supposer que la loi de V est
invariante par rotation. Il est de plus naturel de supposer que les coordonnees
de V sont independantes. Si on suppose de plus que la loi de V poss`ede une
densite derivable, on en deduit que le vecteur V verie les proprietes de la
question 1. Determiner la densite de probabilite de la vitesse dune molecule,
sachant que lenergie cinetique moyenne dun atome du gaz de masse m est
3
2
kT o` u k est la constante de Boltzmann et T la temperature du gaz. (Pour des
molecules `a plusieurs atomes, lenergie cinetique moyenne tient compte deets
complexes comme la rotation, les oscillations... La loi de Maxwell nest plus
veriee dans ces cas.)
3. Montrer que si X et Y sont deux variables aleatoires independantes de loi
respective (, a) et (, b), alors la loi de X +Y est une loi gamma dont on
precisera les param`etres.
4. Calculer la loi de V
2
1
. En deduire la loi de [V [
2
et la loi de [V [ =
_
V
2
1
+V
2
2
+V
2
3
dite loi de Maxwell.

3
En fait, on peut, en utilisant les fonctions caracteristiques, caracteriser toutes les lois des
vecteurs aleatoires qui sont invariantes par rotation autour de lorigine et dont les coordonees
sont independantes, voir lexercice IV.5. Hormis la variable nulle, on ne trouve pas dautres lois
que celles obtenues sous les hypoth`eses de cet exercice.
31
IV
Fonctions caracteristiques
IV.1 Calculs de loi
Exercice IV.1.
Proprietes des lois gamma.
1. Soit X
1
, X
2
deux variables aleatoires independantes et de loi gamma de pa-
ram`etres respectifs (,
1
) et (,
2
). (Le param`etre est identique.) Montrer
que la loi de X
1
+X
2
est une loi gamma de param`etre (,
1
+
2
).
2. Soit (X
n
, n N

) une suite de variables aleatoires independantes de loi ex-


ponentielle de param`etre > 0. Donner la loi de la moyenne empirique

X
n
=
1
n

n
i=1
X
i
.

Exercice IV.2.
Soit Y une variable aleatoire de loi exponentielle de param`etre > 0 et une
variable aleatoire independante de Y et telle que P( = 1) = P( = 1) = 1/2.
1. Calculer la densite et la fonction caracteristique de Z = Y . La loi de Z est
appelee loi exponentielle symetrique.
2. En deduire la fonction caracteristique de la loi de Cauchy.

Exercice IV.3.
Soit N une variable aleatoire de carre integrable et `a valeurs dans N. Soit
(X
k
, k N) une suite de variables aleatoires reelles, de meme loi, de carre in-
tegrable, independantes et independantes de N. On pose S
0
= 0, et pour n 1,
S
n
=

n
k=1
X
k
.
1. Calculer E[S
N
] et Var(S
N
).
IV Fonctions caracteristiques
2. Calculer la fonction caracteristique de S
N
et retrouver les resultats precedents.

Exercice IV.4.
Soit X une variable aleatoire reelle dont la fonction caracteristique est
X
(u).
1. Montrer que X est symetrique (i.e. X et X ont meme loi) si et seulement si

X
(u) R pour tout u R.
2. Montrer que [
X
(u)[
2
est la fonction caracteristique dune variable aleatoire
reelle. On pourra ecrire [
X
(u)[
2
comme le produit de deux fonctions.
3. Que peut-on dire `a propos des fonctions caracteristiques des variables aleatoires
reelles dont la loi est symetrique par rapport `a a ,= 0 (i.e. X et 2a X ont
meme loi) ?

Exercice IV.5.
Soit X = (X
1
, . . . , X
d
) un vecteur aleatoire `a valeurs dans R
d
. On suppose que la
loi de X est invariante par rotation et que les variables aleatoires X
1
, . . . , X
d
sont
independantes. Le but de cet exercice est de determiner la loi de X. On note
X
1
la fonction caracteristique de X
1
.
1. On pose g(x) =
X
1
(

x) pour x 0. Verier que g est reelle et solution de :


d

k=1
g(v
k
) = g
_
d

k=1
v
k
_
, pour tout v
1
, . . . , v
d
[0, [. (IV.1)
2. En deduire que
X
1
(u
1
) = e

2
u
2
1
/2
, pour 0. Montrer que soit X = 0 p.s.
soit X
1
, . . . , X
d
sont de meme loi gaussienne centree.

IV.2 Modelisation
Exercice IV.6.
La loi de defaut de forme est utilisee pour la matrise statistique des procedes
(MSP). Cette loi est decrite dans les normes AFNOR (E60-181) et CNOMO
(E 41 32 120 N) et sert `a quantier les defauts geometriques de type planeite, pa-
rallelisme, circularite. Il sagit de la loi de [X Y [ o` u X et Y sont deux variables
aleatoires independantes suivant respectivement les lois gaussiennes ^(
x
,
2
x
) et
^(
y
,
2
y
).
34
IV.2 Modelisation
1. Calculer la loi de X Y .
2. En deduire la loi de Z = [X Y [.
3. Calculer E[Z] et Var(Z).

35
V
Theor`emes limites
V.1 Quelques convergences
Exercice V.1.
Soit (X
n
, n N

) une suite de variables aleatoires de loi exponentielle de param`etre

n
.

Etudier la convergence en loi dans les trois cas suivants :
1. lim
n

n
= ]0, [,
2. lim
n

n
= +,
3. lim
n

n
= 0.

Exercice V.2.
Soit (U
n
, n 1) une suite de variables aleatoires independantes de loi uniforme sur
lintervalle [0, ], o` u > 0. On pose pour n 1, M
n
= max
1in
U
i
.
1. Montrer que (M
n
, n 1) converge p.s. et determiner sa limite. On pourra cal-
culer P([M
n
[ > ) pour > 0.
2.

Etudier la convergence en loi de la suite (n( M
n
), n 1).

Exercice V.3.
Soit (X
n
, n 1) une suite de variables aleatoires independantes de loi de Cauchy
de param`etre a > 0. On note S
n
=

n
k=1
X
k
.

Etudier les convergences en loi et en
probabilite des suites suivantes.
1.
_
S
n

n
, n 1
_
.
V Theor`emes limites
2.
_
S
n
n
2
, n 1
_
.
3.
_
S
n
n
, n 1
_
. On pourra determiner la loi de
S
2n
2n

S
n
n
, et en deduire que la
suite
_
S
2n
2n

S
n
n
, n 1
_
ne converge pas en probabilite vers 0. On montrera
alors que lon ne peut avoir la convergence en probabilite de la suite
_
Sn
n
, n 1
_
.

Exercice V.4.
Soit X
N
une variable aleatoire de loi hypergeometrique de param`etre (N, m, n).
On rappelle que X
N
represente le nombre de boules blanches obtenues lors dun
tirage sans remise de n boules hors dune urne contenant m boules blanches et
N m boules noires.
1. Verier que P(X
N
= k) =
C
k
m
C
nk
Nm
C
n
N
=
C
k
n
C
mk
Nn
C
m
N
pour n N +m k m et
n k 0.
2. On suppose que le nombre de boules blanches, m, est xe, n et N tendent vers
+ avec lim
N+
n/N = p [0, 1] (p est la proportion limite du nombre de
boules obtenues lors du tirage). Montrer que la suite (X
N
, N N

) converge
en loi vers la loi binomiale de param`etre (m, p).
3. On suppose que le tirage est de taille n est xe, m et N tendent vers + avec
lim
N+
m/N = [0, 1] ( est la proportion limite du nombre de boules
blanches dans lurne). Montrer que la suite (X
N
, N N

) converge en loi vers


la loi binomiale de param`etre (n, ).

Exercice V.5.
Majoration du theor`eme des grandes deviations.
Soit (X
n
, n 1) une suite de variables aleatoires independantes et de meme
loi que X. On suppose que X est une variable aleatoire bornee non constante
de moyenne = E[X]. Le but de cet exercice est de trouver une majoration
exponentielle de levenement rare
_

X
n

)
_
avec > 0, o` u

X
n
=
1
n
n

i=1
X
i
.
Cette majoration est un exemple particulier des resultats de la theorie des grandes
deviations
1
.
1
Les theor`emes des grandes deviations etudient les equivalents logarithmiques des probabilites
dev`enements rares. Lexemple typique dev`enement considere est {


Xn E[X1]

> }, dont
38
V.1 Quelques convergences
On note la transformee de Laplace de X denie par () = E[e
X
] pour
R.
1. Montrer que est de classe C

. Calculer ses derivees.


2. Montrer que (

)
2

. En deduire que la fonction = log() est convexe.


Verier que (0) = 0.
On consid`ere la transformee de Legendre de , I, denie pour x R par :
I(x) = sup
R
x () .
3. Montrer que I est convexe, positive et nulle en .
4. Montrer que P(

X
n
+) e
(+)+n(/n)
pour 0. En deduire que :
P(

X
n
+) e
nI(+)
= e
ninfI(x);x+
.
5. Montrer que :
P(


X
n

) 2 e
ninfI(x);[x[
. (V.1)
6. Calculer explicitement la majoration exponentielle quand X suit la loi de Ber-
noulli de param`etre p ]0, 1[.
La majoration exponentielle (V.1) est en fait vraie pour des variables aleatoires
non bornees. La theorie des grandes deviations permet egalement dobtenir un
equivalent logarithmique de P(

X
n
).

Exercice V.6.
On eectue n series de 400 tirages de pile ou face avec une pi`ece equilibree. On
observe les frequences empiriques de pile F
1
, . . . , F
n
dans ces series.
1. Quelle est (approximativement) la loi de probabilite du nombre N de ces fre-
quences (F
i
, 1 i n) qui ne verient pas la condition 0.45 < F
i
< 0.55,
lorsque n = 20 ?
2. Est-il plus probable que N = 0, que N = 1 ou que N 2 ?

letude est due `a Cram`er (1938). Dautre part, la theorie des grandes deviations est un sujet
detude qui connat un essor important depuis les annees 1980.
39
V Theor`emes limites
V.2 Calcul de limites
Exercice V.7.
Soit X une variable aleatoire `a valeurs dans N.
1. Montrer que
+

k=1
P(X k) = E[X].
On suppose que X est integrable. Soit (X
n
, n 1) une suite de variables aleatoires
de meme loi que X.
2. Soit m N

. Montrer que la variable aleatoire Y


m
=
+

n=1
1

Xn
n

1
m

est p.s. nie.


3. En deduire que
X
n
n
converge p.s. vers 0 quand n tend vers linni.
4. Montrer que
1
n
max(X
1
, . . . , X
n
) converge p.s. vers 0 quand n tend vers linni.
5. Soit X une variable aleatoire integrable `a valeurs dans R et soit (X
n
, n 1) une
suite de variables aleatoires de meme loi que X. Montrer que
1
n
max(X
1
, . . . , X
n
)
converge p.s. vers 0 quand n tend vers linni.

Exercice V.8.
Calcul de limites dintegrales.
1. En considerant une suite de variables aleatoires independantes de loi uniforme
sur [0, 1], calculer `a laide de la loi (faible) des grands nombres :
lim
n
_
[0,1]
n
f(
x
1
+ +x
n
n
) dx
1
dx
n
,
o` u f est une application continue bornee de R dans R.
2. Soit (Y
k
, k 1) une suite de variables aleatoires independantes de loi de Poisson
de param`etre > 0. Determiner la loi de Z
n
=

n
k=1
Y
k
.
3. Montrer que la suite des moyennes empiriques (

Y
n
= Z
n
/n, n 1) converge
vers une limite que lon determinera. Calculer, en sinspirant de la question 1 :
lim
n

k0
e
n
(n)
k
k!
f(
k
n
),
o` u > 0 et f est une application continue bornee de R dans R.

40
V.3 Modelisation
Exercice V.9.
Soit (X
n
, n 1) une suite de variables aleatoires independantes de loi de Poisson
de param`etre 1. On note S
n
=

n
k=1
X
k
.
1. Montrer que
S
n
n

n
Loi

n
^(0, 1).
2. Determiner la loi de S
n
, puis montrer que lim
n
e
n
(1+n+
n
2
2!
+ +
n
n
n!
) =
1
2
.

V.3 Modelisation
Exercice V.10.
Le paradoxe de Saint-Petersbourg est dabord un probl`eme imagine par Nicolas
Bernoulli, qui obtint une solution partielle donnee par Daniel Bernoulli (1738)
dans les Commentaires de lAcademie des sciences de Saint-Petersbourg (do` u son
nom). Aujourdhui encore, ce probl`eme attire lattention de certaines personnes en
mathematiques et en economie
2
.
Un casino propose le jeu suivant qui consiste `a lancer plusieurs fois de suite une
pi`ece equilibree jusqu`a obtenir pile. Le joueur gagne 2
k
euros si le premier pile
a lieu au k-i`eme jet. La question est de savoir quel doit etre le prix ` a payer pour
participer `a ce jeu.
Soit X
n
le gain realise lors du n-i`eme jeu et S
n
= X
1
+ +X
n
le gain obtenu
lors de n jeux successifs.
1. Peut-on appliquer la loi forte des grands nombres pour donner un prix equi-
table ?
Les fonctions dutilite qui quantient laversion au risque permettent de proposer
des prix pour ce jeu. La suite de lexercice est consacre `a letude de la convergence
de la suite (S
n
, n 1) convenablement renormalisee
3
.
2. On pose S

n
=

n
k=1
X
n
k
, o` u pour k 1, . . . , n :
X
n
k
= X
k
1
X
k
n log
2
n
,
o` u log
2
x est le logarithme en base 2 de x > 0 : 2
log
2
x
= x. Apr`es avoir verie
que pour tout > 0 :
2
Voir par exemple larticle suivant et les references citees : G. Szekely and D. Richards, The
St. Petersburg paradox and the crash of high-tech stocks in 2000, Amer. Statist. 58, 225231
(2004).
3
Feller, An introduction to probability theory and its applications, Vol. 1. Third ed. (1968). Wiley
& Sons.
41
V Theor`emes limites
P
_

n
n log
2
n
1

>
_
P
_

n
E[S

n
]
n log
2
n

> /2
_
+P
_

E[S

n
]
n log
2
n
1

> /2
_
, (V.2)
montrer que la suite
_
S

n
n log
2
n
, n 1
_
converge en probabilite vers 1.
3. Calculer P(S
n
,= S

n
), et en deduire sa limite quand n tend vers linni.
4. En deduire que la suite
_
S
n
n log
2
n
, n 1
_
converge en probabilite vers 1.

Exercice V.11.
Precision des sondages.
1.
`
A quelle precision peut pretendre un sondage sur deux candidats eectue sur
un echantillon de 1 000 personnes ? Est-ce que ce resultat depend de la taille
de la population ?
2. En Floride, pour lelection presidentielle americaine en 2000, on compte 6 mil-
lions de votants. Sachant quil y a eu environ 4 000 voix decart, quel est le
nombre de personnes quil aurait fallu interroger dans un sondage pour savoir
avec 95% de chance qui allait etre le vainqueur ?

Exercice V.12.
Repartition des bombes sur Londres lors de la Seconde Guerre Mondiale
4
.
1. Soit (Y
m
, m N) une suite de variables aleatoires de loi binomiale de para-
m`etres (m, p
m
). On suppose que m tend vers linni et que lim
m
mp
m
=
]0, [. Montrer que la suite (Y
m
, m N) converge en loi vers la loi de
Poisson de param`etre .
Cette approximation est utile quand m est grand car le calcul numerique des
coecients bin omiaux C
m
k
est peu ecace.
2. Les donnees suivantes representent le nombre de bombes qui sont tombees dans
le sud de Londres pendant la Seconde Guerre Mondiale
5
. Le sud de Londres a
ete divise en N = 576 domaines de taille 0.25 km
2
chacun. On a recense dans
la table V.1 le nombre N
k
de domaines qui ont ete touches exactement k fois.
4
Feller, W. An Introduction to Probability Theory and Applications, Wiley, 3rd edition, vol. 1,
pp. 160-161
5
Clarke R. D., An application of the Poisson distribution, J. of Institute of Actuaries (1946),
72, p. 481.
42
V.3 Modelisation
k 0 1 2 3 4 5+
N
k
229 211 93 35 7 1
.
Tab. V.1. Nombre N
k
de domaines du sud de Londres qui ont ete touches par exactement k
bombes.
Faire un mod`ele simple qui represente cette experience. Le nombre total dim-
pacts dans le sud de Londres est T =

k1
kN
k
= 537. Calculer les probabili-
tes theoriques pour quun domaine contienne exactement k impacts. Comparer
avec les frequences empiriques N
k
/N ci-dessus.

Exercice V.13.
Lobjectif de cet exercice est de demontrer le theor`eme suivant d u `a Borel (1909) :
Tout nombre reel choisi au hasard et uniformement dans [0, 1] est presque s ure-
ment absolument normal.
Soit x [0, 1], et considerons son ecriture en base b 2 :
x =

n=1
x
n
b
n
,
avec x
n
0, . . . , b 1. Cette ecriture est unique, sauf pour les fractions ration-
nelles de la forme x = a/b
n
et a 1, . . . , b
n
1. En eet, dans ce cas, deux
representations sont possibles : lune telle que x
k
= 0 pour k n + 1 et lautre
telle que x
k
= b 1 pour k n + 1. On dit que x est simplement normal en base
b si et seulement si pour tout i 0, . . . , b 1, lim
n
1
n
Card 1 k n; x
k
= i
existe et vaut 1/b. Cela revient `a dire que les frequences dapparition de i dans le
developpement de x en base b sont uniformes.
On dit que x est normal en base b si et seulement si il est simplement normal
en base b
r
pour tout r N

. Remarquons quun nombre est normal en base b si et


seulement si pour tout r N

, la frequence dapparition dune sequence donnee de


longueur r, dans le developpement de x est uniforme (et vaut donc 1/b
r
) i.e. pour
tout i 0, . . . , b 1
r
:
lim
n
1
n
Card 0 k n; (x
rk+1
, . . . , x
r(k+1)
) = i =
1
b
r
.
Le nombre de Champernowne
6
dont la partie decimale est la suite consecutive des
entiers (0.12345678910111213...) est normal en base 10. Les fractions rationnelles
ne sont pas normales, quelle que soit leur representation.
6
Champernowne D. G., The construction of decimals normal in the scale of ten, J. London
MAth. Soc. (1933), 8 pp. 254-260
43
V Theor`emes limites
On dit que x est absolument normal si et seulement si il est normal en toute
base b 2.
Soit X une variable aleatoire de loi uniforme sur [0, 1].
1. Quelle est la loi de (X
1
, . . . , X
n
), des n premiers chires du developpement de
X en base b ?
2. Calculer la loi de X
n
. Montrer que les variables aleatoires (X
n
, n 1) sont
independantes et de meme loi.
3. En utilisant la loi forte des grands nombres, montrer que X est p.s. simplement
normal en base b.
4. Montrer que X est p.s. normal en base b, puis quil est p.s. absolument normal.
Bien que presque tous les reels soient absolument normaux, il est tr`es dicile de
montrer quun reel donne est absolument normal. On ne sait toujours pas si des
nombres tels que , e,

2 ou log(2) sont absolument normaux, ni meme normaux


en base 10 (cf. Pour la Science, janvier 1999).

Exercice V.14.
Theor`eme de Weierstrass (1885) : Toute fonction continue sur un intervalle ferme
borne est limite uniforme dune suite de polynomes.
Cet exercice sinspire de la demonstration de Bernstein du theor`eme de Weiers-
trass. Soit (X
n
, n 1) une suite de variables aleatoires independantes de loi de
Bernoulli de param`etre x [0, 1]. Pour n 1, on consid`ere la moyenne empirique

X
n
=
1
n

n
k=1
X
k
. Soit h : [0, 1] R une fonction continue. Soit > 0. On pose

n
=


X
n
x

> .
1. Montrer que P(
n
)
2
E[(

X
n
x)
2
]. Majorer P(
n
) independamment de
x [0, 1].
2. Determiner lim
n
sup
x[0,1]

h(x) E[h(

X
n
)]

, en ecrivant :

h(x) h(

X
n
)

h(x) h(

X
n
)

1
n
+

h(x) h(

X
n
)

c
n
.
3. Quelle est la loi de n

X
n
?
4. En deduire que :
lim
n
sup
x[0,1]

h(x)
n

k=0
_
n
k
_
h(k/n)x
k
(1 x)
nk

= 0.
5. Soit f : R
+
R continue bornee. Montrer, en sinspirant des questions prece-
dentes, que pour tout x R
+
:
44
V.3 Modelisation
lim
n

f(x)

k=0
e
nx
(nx)
k
k!
f(k/n)

= 0.
Si lon suppose f uniformement continue, la convergence ci-dessus est-elle uni-
forme en x? (Prendre par exemple f(x) = cos(x) pour x
n
= n.)

Exercice V.15.
Contamination au mercure.
1. Soit (X
n
, n 1) une suite de variables aleatoires independantes de meme loi.
On suppose quil existe deux reels > 0, > 0 tels quau voisinage de linni :
P(X
1
> x)

x

.
Montrer que la suite (Z
n
, n 1) denie par :
Z
n
= n

max(X
1
, . . . , X
n
)
converge en loi vers la loi de Frechet. On rappelle que la fonction de repartition
de la loi de Frechet de param`etre (, ) ]0, [
2
est y exp(y

)1
y>0
.
2. Le mercure, metal lourd, est present dans peu daliments. On le trouve essen-
tiellement dans les produits de la mer. LOrganisation Mondiale de la Sante
xe la dose journali`ere admissible en mercure `a 0.71 g par jour et par kilo de
poids corporel. Des etudes statistiques
7
donnent la forme de la queue de distri-
bution empirique de la contamination globale annuelle en gramme de mercure
pour un individu de 70 kg :
P(X > x) =

x

pour x assez grand,


avec = 3.54 10
9
et = 2.58.
Seriez-vous etonne(e) quau moins une personne soit exposee `a ce risque sani-
taire en France ? Dans le 15`eme arrondissement de Paris
8
? Dans une promotion
de cent etudiants ?
`
A partir de quelle valeur de n pouvez-vous armer, avec
seulement 5% de chances de vous tromper : Parmi ces n personnes, au moins
une a un niveau de mercure trop eleve?

7
Evaluation des risques dexposition `a un contaminant alimentaire : quelques outils statistiques,
P. Bertail, Laboratoire de statistique, CREST, ao ut 2002, disponible `a ladresse :
www.crest.fr/doctravail/document/2002-41.pdf
8
Population du 15`eme arrondissement de Paris, Recensement 1999 : 225 362 personnes.
45
VI
Vecteurs Gaussiens
VI.1 Exemples
Exercice VI.1.
Soit X = (X
1
, X
2
, X
3
, X
4
) un vecteur gaussien centre de matrice de covariance :
=
_
_
_
_
2 1 0 1
1 1 0 1
0 0 1 0
1 1 0 2
_
_
_
_
1. Que peut-on dire de X
3
et de (X
1
, X
2
, X
4
) ?
2. Donner la loi marginale de (X
1
, X
2
) et calculer E[X
1
[X
2
].
3. Meme question pour (X
2
, X
4
).
4. En deduire deux variables independantes de X
2
, fonctions respectivement de
X
1
, X
2
et de X
2
, X
4
.
5. Verier que X
1
X
2
et X
4
X
2
sont independants et ecrire X comme la somme
de quatre vecteurs gaussiens independants.

Exercice VI.2.
Soit X et Z deux variables aleatoires reelles independantes, X etant de loi gaus-
sienne centree reduite ^(0, 1) et Z de loi denie par P(Z = 1) = P(Z = 1) = 1/2.
On pose Y = ZX.
1. Determiner la loi de Y .
2. Calculer Cov(X, Y ).
3. Le vecteur (X, Y ) est-il gaussien ? Les variables X et Y sont-elles indepen-
dantes ?
VI Vecteurs Gaussiens

Exercice VI.3.
Soit X et Y deux variables aleatoires reelles gaussiennes independantes.
1. Donner une condition necessaire et susante pour que X +Y et X Y soient
independantes.
2. On suppose de plus que X et Y sont des gaussiennes centrees reduites. Calculer
la fonction caracteristique de Z
1
= X
2
/2 puis celle de Z
2
= (X
2
Y
2
)/2.
3. Montrer que Z
2
peut secrire comme le produit de deux variables aleatoires
normales independantes.

VI.2 Proprietes et applications


Exercice VI.4.
Soit X
1
, . . . , X
n
des variables aleatoires reelles independantes de meme loi, despe-
rance m, de variance
2
nie. On pose

X
n
=
1
n
n

i=1
X
i
,
2
n
=
1
n
n

i=1
(X
i
m)
2
et V
n
=
1
n 1
n

i=1
(X
i


X)
2
.
On suppose que, pour tout i, la loi de X
i
est la loi gaussienne ^(m,
2
).
1. Quelle est la loi de

X
n
?
2. Quelle est la loi de n
2
n
/
2
?
3. Montrer que

X
n
et V
n
sont independantes.
4. Montrer que (n 1)V
n
/
2
suit la loi
2
(n 1).

Exercice VI.5.
Soit X
1
, . . . , X
n
des variables aleatoires reelles independantes de meme loi, de
carre integrable, desperance m et de variance
2
. On suppose que la moyenne
empirique

X
n
=
1
n
n

i=1
X
i
et la variance empirique V
n
=
1
n 1
n

i=1
(X
i


X
n
)
2
sont
des variables aleatoires independantes. Le but de cet exercice est de demontrer que
la loi de X
i
est alors la loi gaussienne ^(m,
2
).
On note la fonction caracteristique de X
i
. On suppose m = 0.
1. Calculer E[(n 1)V
n
] en fonction de
2
. Montrer que pour tout reel t :
E[(n 1)V
n
e
itn

Xn
] = (n 1)(t)
n

2
.
48
VI.2 Proprietes et applications
2. En developpant V
n
dans legalite precedente, verier que :
E[(n 1)V
n
e
itn

Xn
] = (n 1)

(t)(t)
n1
+ (n 1)

(t)
2
(t)
n2
.
3. En deduire que, sur un voisinage ouvert de 0, est solution de lequation
dierentielle :
_
_
_

_
2
=
2
,
(0) = 1,

(0) = 0.
4. En deduire que la loi des variables X
i
est la loi gaussienne ^(0,
2
).
5. Que peut on dire si lon ne suppose plus m = 0 ?

Exercice VI.6.
Soit (X
n
, n 1), une suite de variables aleatoires independantes, de loi gaussienne
^(, ), avec > 0. Lobjectif de cet exercice est de presenter une methode pour
estimer , et de donner un (bon) intervalle de conance pour cette estimation. On
note :

X
n
=
1
n
n

k=1
X
k
et V
n
=
1
n 1
n

k=1
(X
k


X
n
)
2
.
1. Donner la loi de

X
n
, son esperance et sa variance. Determiner la limite de
(

X
n
, n 1).
2. Donner la loi de V
n
, son esperance et sa variance. Determiner la limite de
(V
n
, n 2).
3. Donner la loi du couple (

X
n
, V
n
). Determiner la limite de ((

X
n
, V
n
), n 2).
4. On consid`ere la classe des variables aleatoires T

n
de la forme :
T

n
=

X
n
+ (1 )V
n
, R.
Calculer leur esperance, leur variance, et montrer la convergence presque s ure
de (T

n
, n 2).
5.

Etudier la convergence en loi de (

n(

X
n
), n 1).
6.

Etudier la convergence en loi de (

n(V
n
), n 2).
7.

Etudier la convergence en loi de (

n(

X
n
, V
n
), n 2).
8.

Etudier la convergence en loi de (

n(T

n
), n 2).
9. On pose =
_

2
+ 2(1 )
2

2
. Construire, `a partir de T

n
, et n, un in-
tervalle de conance de de niveau asymptotique 95%. Autrement dit trouver
un intervalle aleatoire I
n
, fonction de T

n
, et n, qui contient le param`etre ,
avec une probabilite asymptotique de 95%.
49
VI Vecteurs Gaussiens
10. Comme est inconnu on lestime par
n
=
_

2
T

n
+ 2(1 )
2
(T

n
)
2
et on le
remplace dans lexpression de I
n
. Montrer que lintervalle obtenu est encore
un intervalle de conance de de niveau asymptotique de 95%. Donner un tel
intervalle pour la realisation = 0.5, n = 100, x
n
= 4.18 et v
n
= 3.84.
11. Verier quil existe un unique reel

[0, 1], fonction de , qui minimise la


longueur de lintervalle de conance, I
n
. On consid`ere maintenant les variables
aleatoires

n
=
2V
n
1 + 2V
n
. Montrer que la suite (

n
, n 2) converge presque
s urement vers

.
12.

Etudier la convergence en loi de la suite (

n(T

n
n
), n 2). En deduire
un intervalle de conance de de niveau asymptotique de 95%. Donner un tel
intervalle pour les valeurs numeriques presentees `a la question 10.

50
VII
Simulation
Exercice VII.1.
Le but de cet exercice est de presenter la methode du rejet pour la simulation
dune variable aleatoire de densite h donnee.
Soit X une variable aleatoire `a valeurs dans R
d
et soit A R
d
un ensemble
mesurable tel que P(X A) > 0. Soit (X
n
, n N

) des variables aleatoires


independantes de meme loi que X. On pose T = infn N

; X
n
A, avec la
convention inf = +, et Y = X
T
si T < + et Y = 0 si T = +.
1. Montrer que les variables aleatoires Y et T sont independantes.
2. Montrer que la loi de T est la loi geometrique de param`etre P(X A).
3. Montrer que la loi de Y est la loi conditionnelle de X sachant X A : pour
tout borelien B R
d
, P(Y B) = P(X B[X A).
Soit h la densite dune variable aleatoire `a valeurs dans R. On suppose quil
existe une densite g et une constante c > 0 telles que c h g (et que lon sait
simuler des variables aleatoires independantes de densite g).
Soit (Z
n
, n N

) une suite de variables aleatoires independantes de meme loi


de densite g. Soit (U
n
, n N

) une suite de variables aleatoires de loi uniforme


sur [0, 1], independantes et independantes de (Z
n
, n N

). On pose T

= infn
N

; U
n
c h(Z
n
)/g(Z
n
) et A

= (z, u); g(z) > 0 et u c h(z)/g(z).


4. Calculer P((Z
1
, U
1
) A

).
5. Montrer que la variable aleatoire Z
T
(que lon peut donc simuler) a pour
densite h.

Exercice VII.2.
Soit (U
n
, n N

) une suite de variables aleatoires independantes de loi uniforme


sur [0, 1]. Soit > 0.
VII Simulation
1. Donner la loi de X
k
= log(U
k
)/.
2. Donner la loi de

n
k=1
X
k
.
3. Calculer la loi de N deni par N = inf
_
n N;

n+1
k=1
U
k
< e

_
.
4. En deduire une methode pour simuler des variables aleatoires de Poisson.

52
VIII
Estimateurs
Exercice VIII.1.
Soit X
1
, . . . , X
n
n variables aleatoires independantes de meme loi et de carre in-
tegrable. Trouver lestimateur de la moyenne, = E[X
1
], qui soit de variance
minimale dans la classe des estimateurs lineaires,

n
=

n
k=1
a
k
X
k
, et sans biais.

Exercice VIII.2.
On consid`ere le mod`ele dechantillonnage X
1
, . . . , X
n
de taille n associe `a la famille
de lois exponentielles T = c(), > 0. On veut estimer .
1.
`
A partir de la methode des moments, construire un estimateur convergent

n
de .
2. Verier quil sagit de lestimateur du maximum de vraisemblance.
3. Determiner la loi de

n
i=1
X
i
. Calculer E

n
]. Lestimateur est-il sans biais ?
4. Determiner un estimateur

n
sans biais et un estimateur

n
qui minimise le
risque quadratique parmi les estimateurs

(c)
n
=
c

n
i=1
X
i
, o` u c > 0.
5. Calculer le score, linformation de Fisher et la borne FDCR.
6. Les estimateurs etudies font intervenir la statistique S
n
=
n

i=1
X
i
. Est-elle ex-
haustive et totale ?
7. Resume : quelles proprietes

n
a-t-il parmi les suivantes ?
a) Sans biais.
b) Optimal.
VIII Estimateurs
c) Ecace.
d) Preferable `a

n
.
e) Inadmissible.
f) Regulier.
g) Asymptotiquement normal.

Exercice VIII.3.
On consid`ere le mod`ele dechantillonnage X
1
, . . . , X
n
de taille n associe `a la famille
de lois de Poisson T = T(), > 0. On cherche `a estimer P

(X
i
= 0).
1. Montrer que le mod`ele est exponentiel. Determiner la statistique canonique S
n
.
Est-elle exhaustive et totale ? Donner sa loi.
2. Calculer P

(X
i
= 0) et montrer que 1
X
1
=0
en est un estimateur sans biais.
3. Montrer que la loi conditionnelle de X
1
sachant S
n
est une loi binomiale de
param`etres
_
S
n
,
1
n
_
.
4. En deduire que
Sn
=
_
1
1
n
_
Sn
est lestimateur optimal de P

(X
i
= 0). Est-il
convergent ?
5. Calculer le score et linformation de Fisher.
6. En deduire la borne FDCR pour lestimation de P

(X
i
= 0). Est-elle atteinte
par
S
?

Exercice VIII.4.
On observe la realisation dun echantillon X
1
, . . . , X
n
de taille n de loi beta
(1, 1/) de densite
f(x, ) =
1

(1 x)
1

1
1
]0,1[
(x), R
+

.
1. Donner une statistique exhaustive. Est-elle totale ?
2. Determiner lestimateur du maximum de vraisemblance T
n
de .
3. Montrer que log(1 X
i
) suit une loi exponentielle dont on precisera le para-
m`etre.
4. Calculer le biais et le risque quadratique de T
n
. Cet estimateur est-il convergent,
optimal, ecace ?
5.

Etudier la limite en loi de

n(T
n
) quand n .
54
VIII Estimateurs

Exercice VIII.5.
Soient Z et Y deux variables independantes suivant des lois exponentielles de
param`etres respectifs > 0 et > 0. On dispose dun echantillon de variables
aleatoires independantes (Z
1
, Y
1
), . . . , (Z
n
, Y
n
) de meme loi que (Z, Y ).
1. Calculer la loi de
n

i=1
Z
i
.
2. Sagit-il dun mod`ele exponentiel ? Si oui, peut-on exhiber une statistique ex-
haustive ?
3. Calculer lestimateur du maximum de vraisemblance (

n
,
n
) de (, ).
4. Montrer quil est asymptotiquement normal et determiner sa matrice de cova-
riance asymptotique.
On suppose dorenavant que lon observe seulement X
i
= min(Z
i
, Y
i
) pour i
1, . . . , n.
5. Calculer la fonction de repartition de la variable X
i
.
6.

Ecrire le mod`ele statistique correspondant. Le mod`ele est-il identiable ? Quelle
fonction de (, ) est identiable ?
7. Quels sont les estimateurs du maximum de vraisemblance de = + fondes
sur les observations
a) de X
1
, . . . , X
n
,
b) de (Z
1
, Y
1
), . . . , (Z
n
, Y
n
) ?
Est-il naturel que ces estimateurs soient dierents ?
8. Comparer les proprietes asymptotiques de ces estimateurs.

Exercice VIII.6.
Une machine produit N micro-chips par jour, N connu. Chacun dentre eux a un
defaut avec la meme probabilite inconnue. On cherche `a estimer la probabilite
davoir au plus k defauts sur un jour.
`
A ce propos, on teste tous les micro-chips
pendant une periode de n jours et on retient chaque jour le nombre de defauts.
1. Choisir un mod`ele. Est-ce un mod`ele exponentiel ?
2. Determiner une statistique S exhaustive et totale. Calculer sa loi.
3. Construire un estimateur sans biais qui ne fait intervenir que les donnees du
premier jour.
55
VIII Estimateurs
4. En deduire un estimateur optimal
S
. Quest-ce quon observe quand on fait
varier k ?

Exercice VIII.7.
Soit X une variable aleatoire `a valeurs dans N

denie comme linstant de premier


succ`es dans un schema de Bernoulli de param`etre q ]0, 1[.
1. Verier que la loi de X est une loi geometrique dont on precisera le param`etre.
2. Verier quil sagit dun mod`ele exponentiel. Donner une statistique exhaustive.
3. Determiner I(q), linformation de Fisher sur q dun echantillon de taille 1.
Soit X
1
, . . . , X
n
un echantillon independant de taille n de meme loi que X.
4. Determiner q
n
, lestimateur du maximum de vraisemblance de q.
5. Montrer que lestimateur du maximum de vraisemblance est asymptotiquement
normal.
6. Donner un intervalle de conance pour q de niveau 1 .
Une societe de transport en commun par bus veut estimer le nombre de passagers
ne validant pas leur titre de transport sur une ligne de bus determinee. Elle dispose
pour cela, pour un jour de semaine moyen, du nombre n
0
de tickets compostes sur
la ligne et des resultats de lenquete suivante : `a chacun des arrets de bus de la
ligne, des contr oleurs comptent le nombre de passagers sortant des bus et ayant
valide leur ticket jusqu`a la sortie du premier fraudeur. Celui-ci etant inclus on a
les donnees (simuleees) suivantes :
44 09 11 59 81 44 19 89 10 24
07 21 90 38 01 15 22 29 19 37
26 219 02 57 11 34 69 12 21 28
34 05 07 15 06 129 14 18 02 156
7. Estimer la probabilite de fraude. Donner un intervalle de conance de niveau
95%. Estimer le nombre de fraudeur n
f
si n
0
= 20 000.

Exercice VIII.8.
Le total des ventes mensuelles dun produit dans un magasin i 1, . . . , n peut
etre modelise par une variable aleatoire de loi normale ^
_
m
i
,
2
_
. On suppose
les constantes m
i
> 0 et > 0 connus. Une campagne publicitaire est menee
an de permettre laugmentation des ventes. On note X
i
la vente mensuelle du
magasin i apr`es la campagne publicitaire. On suppose que les variables X
i
sont
independantes.
56
VIII Estimateurs
1. On suppose que laugmentation des ventes se traduit par une augmentation
de chacune des moyennes m
i
dune quantite . Determiner lestimateur du
maximum de vraisemblance de . Donner sa loi et ses proprietes.
2. On suppose que laugmentation des ventes se traduit par une multiplication de
chacune des moyennes m
i
par une quantite . On consid`ere lestimateur de :

n
=
1
n
n

i=1
X
i
m
i
.
Donner sa loi et ses proprietes `a horizon ni.
3. Determiner lestimateur du maximum de vraisemblance de . Donner sa loi et
ses proprietes `a horizon ni.
4. Application numerique aux donnees simulees du tableau VIII.1, avec n = 15
et = 12 :
mi 1023 981 1034 1007 988 1021 1005 995
xi 1109 1075 1129 1123 1092 1087 1129 1122
mi 1020 1013 1030 1046 1003 1039 968
xi 1105 1124 1103 1072 1065 1069 1098
Tab. VIII.1. Eet (simule) dune campagne publicitaire

Exercice VIII.9.
La hauteur maximale H de la crue annuelle dun euve est observee car une crue
superieure `a 6 m`etres serait catastrophique. On a modelise H comme une variable
de Rayleigh, i.e. H a une densite donnee par
f
H
(x) = 1
R
+
(x)
x
a
exp
_

x
2
2a
_
,
o` u a > 0 est un param`etre inconnu. Durant une periode de 8 ans, on a observe les
hauteurs de crue suivantes en m`etres :
2.5 1.8 2.9 0.9 2.1 1.7 2.2 2.8
1. Donner lestimateur du maximum de vraisemblance, a
n
, de a.
2. Quelles proprietes a
n
poss`ede-t-il parmi les suivantes ?
a) Sans biais.
57
VIII Estimateurs
b) Optimal.
c) Ecace.
d) Asymptotiquement normal.
3. Une compagnie dassurance estime quune catastrophe narrive quau plus une
fois tous les mille ans. Ceci peut-il etre justie par les observations ?

Exercice VIII.10.
Soient X
1
, . . . , X
n
une suite de variables aleatoires independantes et identiquement
distribuees de loi de Bernoulli p [0, 1]. On pose p
n
=
1
n

n
i=1
X
i
.
1. Montrer linegalite Var
p
( p
n
)
1
4n
.
2. Un institut de sondage souhaite estimer avec une precision de 3 points (`a
droite et `a gauche) la probabilite quun individu vote pour le maire actuel aux
prochaines elections. Combien de personnes est-il necessaire de sonder ?
3. Sur un echantillon representatif de 1000 personnes, on rapporte les avis favo-
rables pour un homme politique. En novembre, il y avait 38% davis favorables,
en decembre 36%. Un editorialiste dans son journal prend tr`es au serieux cette
chute de 2 points dun futur candidat `a la presidentielle ! Conrmer ou inrmer
la position du journaliste.

Exercice VIII.11.
Dans lindustrie agroalimentaire, on sinteresse `a la detection de la contamination
1
du lait par un micro-organisme : les spores de clostridia. Cette bacterie, naturelle-
ment presente dans les organismes humains et animaux, peut causer des maladies
chez les individus fragiles, qui peuvent meme etre mortelles. Le lait ne gure pas
parmi les premiers aliments `a risque mais il est tr`es important de contr oler une
eventuelle contamination.
Deux probl`emes importants se posent :
On ne dispose pas de lobservation du nombre de micro-organismes presents
mais seulement de lindication presence-absence.
Sans connaissance a priori de lordre de grandeur du taux de contamination,
lestimation du taux risque de ne donner aucun resultat exploitable.
1
La methode presentee, MPN (most probable number), est une methode largement utilisee
pour detecter des contaminations dans lagroalimentaire, mais egalement en environement (ri-
vi`ere, ...).
58
VIII Estimateurs
Lexperience menee consiste `a observer la presence-absence de ces spores dans
un tube de 1ml de lait, le but etant au nal destimer la densite en spores :
(nombre de spores par unite de volume).
Soit Z
k
la variable aleatoire designant le nombre (non observe) de spores pre-
sents dans le tube k et X
k
= 1
Z
k
=0
la variable aleatoire valant 1 sil ny a pas
de spore dans le tube k et 0 sinon. On suppose que Z
k
suit une loi de Poisson de
param`etre .
On eectue une analyse sur n tubes independants et Y =

n
k=1
X
k
donne le
nombre de tubes steriles (negatifs).
1. Donner les lois de X
k
et Y . On notera = P(X
k
= 1).
2. Donner lestimateur du maximum de vraisemblance de . En deduire lestima-
teur du maximum de vraisemblance de .
3. Donner les intervalles de conance de et .
4. Donner les resultats numeriques des deux questions precedentes lorsquon ob-
serve 6 tubes steriles sur 10 au total. Pour les intervalles de conance, on se
placera au niveau = 5%.
5. Indiquer quels sont les probl`emes lorsque la densite est tr`es faible ou tr`es
forte.
Des densites extremes induisant des probl`emes destimation, on va utiliser le
principe de la dilution :
Si on craint de nobserver que des tubes positifs, on ajoute des experiences
sur des tubes dilues. Dans un tube dilue d fois, la densite en spores est egale
`a /d, et le nombre de spores suit une loi de Poisson de param`etre /d.
Si on craint de nobserver que des tubes negatifs, on eectue lanalyse sur de
plus grands volumes. Dans un volume d fois plus grand, le nombre de spores
suit une loi de Poisson de param`etre d.
Pour utiliser cette methode on doit avoir une idee a priori de lordre de grandeur
de la densite.
Considerons N echantillons contenant chacun n
i
tubes avec un taux de dilution
egal `a d
i
(avec i 1, ..., N). On note Y
i
le nombre de tubes negatifs du i-`eme
echantillon.
6. Donner la loi de Y
i
.
7. Donner lequation qui determine lestimateur du maximum de vraisemblance
de .
8. Que vaut la variance asymptotique de cet estimateur ?
9. On etudie le cas particulier dun petit nombre de dilutions. Donner le resultat
formel lorsque N = 2, d
1
= 1, d
2
=
1
2
. Donner les resultats numeriques,
59
VIII Estimateurs
estimation et intervalle de conance de , si on observe y
1
= 3 et y
2
= 6 (pour
n
1
= n
2
= 10).

60
IX
Tests
Exercice IX.1.
Soit X
1
, . . . , X
n
un n-echantillon de loi exponentielle de param`etre 1/ > 0.
1. Construire le test de niveau H
0
= =
0
contre H
1
= >
0
.
2. Construire le test de niveau H
0
= =
0
contre H
1
= ,=
0
.

Exercice IX.2.
Des plaignants
1
ont poursuivi en justice le Minist`ere israelien de la Sante suite `a
une campagne de vaccination menee sur des enfants et ayant entrane des dom-
mages fonctionnels irreversibles pour certains dentre eux. Ce vaccin etait connu
pour entraner ce type de dommages en de tr`es rares circonstances. Des etudes
anterieures menees dans dautres pays ont montre que ce risque etait dun cas sur
310 000 vaccinations. Les plaignants avaient ete informes de ce risque et lavaient
accepte. Les doses de vaccin ayant provoque les dommages objet de la plainte pro-
venaient dun lot ayant servi `a vacciner un groupe de 300 533 enfants. Dans ce
groupe, quatre cas de dommages ont ete detectes.
1. On modelise levenement le vaccin provoque des dommages fonctionnels irre-
versibles sur lenfant ipar une variable aleatoire de Bernoulli, X
i
, de param`etre
p. Calculer la valeur p
0
correspondant aux resultats des etudes anterieures.
2. Justier quon peut modeliser la loi du nombre N de cas de dommages par une
loi de Poisson de param`etre . Calculer la valeur
0
attendue si le vaccin est
conforme aux etudes anterieures.
3. Lhypoth`ese H
0
= p = p
0
correspond au risque que les plaignants avaient
accepte, lhypoth`ese alternative etant H
1
= p > p
0
. Construire un test de
1
cf. Murray Aitkin, Evidence and the Posterior Bayes Factor, 17 Math. Scientist 15 (1992)
IX Tests
niveau `a partir de la variable N. Accepte-ton H
0
au seuil de 5%? Donner
la p-valeur de ce test.

Exercice IX.3.
Une agence de voyage souhaite cibler sa client`ele. Elle sait que les coordonnees
du lieu de vie dun client (X, Y ) rapportees au lieu de naissance (0, 0) sont une
information signicative pour connatre le go ut de ce client. Elle distingue :
La population 1 (Hypoth`ese H
0
) dont la loi de repartition a pour densite :
p
1
(x, y) =
1

4
2
e

x
2
+y
2
2
dxdy.
La population 2 (Hypoth`ese H
1
) dont la loi de repartition a pour densite :
p
2
(x, y) =
1
16
1
[2;2]
(x)1
[2;2]
(y)dxdy.
Lagence souhaite tester lhypoth`ese quun nouveau client vivant en (x, y) appar-
tient `a la population 1 plut ot qu`a la population 2.
1. Proposer un test de niveau inferieur `a = 5% et de puissance maximale,
construit `a partir du rapport de vraisemblance.
2. Donner une statistique de test et caracteriser graphiquement la region critique
dans R
2
.

Exercice IX.4.
On consid`ere un echantillon gaussien (X
1
, Y
1
), . . . , (X
n
, Y
n
) de variables aleatoires
independantes de loi ^
__

2
_
,
_

2
1
0
0
2
2
__
, o` u
1
et
2
sont inconnus.
1. Decrire le test de Wald pour tester si
1
=
2
et donner une region critique de
niveau asymptotique 5%.
2. On suppose
1
=
2
. Donner une region critique de niveau exact 5%, construite
`a laide de la meme statistique de test que celle utilisee dans la question pre-
cedente. Faire lapplication numerique pour n = 15.

Exercice IX.5.
Soit (X
n
, n 1), une suite de variables aleatoires independantes, de loi normale
^(, ), avec > 0. Lobjectif de cet exercice est de presenter deux tests pour
62
IX Tests
determiner si pour une valeur determinee
0
> 0, on a =
0
(hypoth`ese H
0
) ou
>
0
(hypoth`ese H
1
). On note

X
n
=
1
n
n

k=1
X
k
et V
n
=
1
n 1
n

k=1
(X
k


X
n
)
2
=
1
n 1
n

k=1
X
2
k

n
n 1

X
2
n
.
1. Determiner

n
, lestimateur du maximum de vraisemblance de . Montrer di-
rectement quil est convergent, asymptotiquement normal et donner sa variance
asymptotique. Est-il asymptotiquement ecace ?
2. Construire un test asymptotique convergent `a laide de lestimateur du maxi-
mum de vraisemblance.
On consid`ere la classe des estimateurs T

n
de la forme : T

n
=

X
n
+(1)V
n
,
R.
3. Montrer que la suite destimateurs (T

n
, n 2) est convergente, sans biais.
Donner la variance de T

n
.
4.

Etudier la convergence en loi de (Z
n
, n 1), avec Z
n
=

n(

X
n
, n
1
n

k=1
X
2
k


2
).
5.

Etudier la convergence en loi de (

n(T

n
), n 2). En deduire que la suite
destimateurs (T

n
, n 2) est asymptotiquement normale. Calculer la variance
asymptotique.
6. On consid`ere pour n 2, la statistique de test

n
=

n(T

n

0
)
_

0
+ 2(1 )
2

2
0
.
Construire un test asymptotique convergent `a partir de cette statistique de
test. On donne les valeurs numeriques suivantes :
0
= 3.8, = 0.5, n = 100,
x
n
= 4.18 et v
n
= 3.84. Calculer la p-valeur du test. Quelle est votre decision ?
7. On consid`ere maintenant la valeur

qui minimise
2

0
+2(1)
2

2
0
. Comparer
les variances asymptotique de T

n
et

n
. Reprendre la question precedente avec
=

et comparer les resultats `a ceux dej`a obtenus avec lestimateur du


maximum de vraisemblance.

Exercice IX.6.
Linformation dans une direction de lespace prise par un radar de surveillance
aerienne se presente sous la forme dun n-echantillon X = (X
1
, . . . , X
n
) de va-
riables aleatoires independantes de meme loi gaussienne de moyenne , param`etre
63
IX Tests
inconnu, et de variance
2
connu. On notera f(x, ), x R
n
la densite du vecteur
aleatoire.
En labsence de tout Objet Volant (Hypoth`ese H
0
), =
0
R
+
, sinon (Hypo-
th`ese H
1
), =
1
, avec
1
>
0
.
1. Montrer comment le lemme de Neyman-Pearson permet la construction dun
test de lhypoth`ese =
0
contre lhypoth`ese =
1
de niveau et de puissance
maximale.
2. Quelle est la plus petite valeur de n permettant de construire un test de niveau
, [0; 1] et derreur de deuxi`eme esp`ece inferieure ou egale `a , [0; 1],
avec < ?
3. Supposons maintenant quen presence dobjet volant linformation fournie par
le radar est un n-echantillon X = (X
1
, . . . , X
n
) de variables aleatoires inde-
pendates de meme loi gaussienne de moyenne ,=
0
, R et de variance
2
.
Peut-on construire un test de lhypoth`ese =
0
contre lhypoth`ese ,=
0
de
niveau donne uniformement plus puissant ?
4. On se propose de trouver un test de niveau uniformement plus puissant sans
biais parmi les tests purs pour tester lhypoth`ese =
0
contre lhypoth`ese
,=
0
.
a) Soit
1
,=
0
,
1
R. Prouver lexistence de deux constantes c et c

denis-
sant un ensemble :
A = x R
n
/f(x,
1
) cf(x,
0
) +c

f(x,
0
)

,
avec P

0
(X A) = et
_
.
f(x,)
[
0
dx = 0. Cet ensemble depend-il de
1
?
b) Montrer que le test pur de niveau dont la region critique est A est uni-
formement plus puissant dans la classe des tests purs sans biais.

Exercice IX.7.
Une machine outil fabrique des ailettes de reacteur avec les caracteristiques sui-
vantes : la longueur dune ailette suit une loi ^(

L
0
,
0
) avec

L
0
= 785 mm et

0
= 2 mm.
Une trop grande dispersion dans les caracteristiques de la machine peut avoir
deux consequences :
La premi`ere est de produire des ailettes trop longues, qui alors ne sont pas
montables.
La seconde est de produire des ailettes trop courtes, ce qui nuit aux perfor-
mances du reacteur.
64
IX Tests
On a donc particuli`erement etudie la machine an de matriser au mieux le para-
m`etre
0
, qui peut etre considere comme connu et invariable. Par contre, la lon-
gueur moyenne a tendance `a varier au l de la production. On desire verier que
les caracteristiques de la machine nont pas trop derive, `a savoir que

L [

L
0
L]
avec L = 1.5 mm. On proc`ede `a lanalyse de 200 ailettes, ce qui conduit `a une
moyenne empirique
1
200
200

i=1
L
i
= 788.3 mm.
1. Verier que le mod`ele est exponentiel. Construire un estimateur de

L.
2. On souhaite tester lhypoth`ese H
0
=

L [

L
0
L,

L
0
+ L] contre H
1
=

L /
[

L
0
L,

L
0
+ L]. Construire un test bilateral UPPS au seuil pour tester
H
0
contre H
1
.
3. Faire lapplication numerique pour = 5%. Conclusion ?
4. Calculer un intervalle de conance centre `a 95% sur

L et le comparer `a

L
0
+L.

Exercice IX.8.
Dans loutillage de votre usine vous utilisez une grande quantite de pi`eces dun
certain mod`ele. Dans les conditions usuelles demploi, vous avez observe que la
duree de vie de ces pi`eces est une variable aleatoire normale dont lesperance ma-
thematique est
0
= 120 heures, et lecart-type est = 19, 4 heures.
Le representant dun fournisseur vous propose un nouveau mod`ele, en promet-
tant un gain de performance en moyenne de 5%, pour une dispersion identique
.
Vous decidez de tester le nouveau mod`ele sur un echantillon de n = 64 unites.
On note (X
i
, i 1, . . . , 64) la duree de vie des pi`eces testees.
1. Quelle loi proposez vous pour les variables aleatoires (X
i
, i 1, . . . , 64) ?
2. Soit la duree de vie moyenne des pi`eces produites par le nouveau mod`ele.
Donner un estimateur sans biais de . Identier la loi de cet estimateur.
3. Vous ne voulez pas changer de mod`ele si le nouveau nest pas plus performant
que lancien. Plus precisement, vous voulez que la probabilite dadopter `a tort
le nouveau mod`ele ne depasse pas le seuil de 0.05. Quelle est alors la procedure
de decision construite `a partir de lestimateur de ?
4.

Evaluez le risque que cette procedure vous fasse rejeter le nouveau mod`ele si
lannonce du representant est exacte. Les 64 pi`eces testees ont eu une duree de
vie moyenne egale `a 123.5 heures. Que concluez-vous ?
Le representant conteste cette procedure, pretextant quil vaut mieux partir de
lhypoth`ese H

0
, selon laquelle le gain de performance moyen est reellement de 5%.
65
IX Tests
Il souhaite que la probabilite de rejeter `a tort le nouveau mod`ele ne depasse pas
le seuil de 0.05.
5. Quelle est alors la procedure de decision ? Quel est le risque de lacheteur ? Quel
est le resultat de cette procedure au vu des observations faites. Commentez.
6. Quelle procedure peut-on proposer pour egaliser les risques de lacheteur et du
vendeur ? Quel est alors ce risque ?

Exercice IX.9.
Suite de lexercice IX.8. Un representant dune autre societe se presente et declare
avoir un produit moins cher et equivalent `a celui des questions precedentes (de
moyenne = 1.05
0
et de variance ). Lacheteur le teste sur un echantillon
de m pi`eces. Le resultat obtenu est une moyenne de 124.8. On veut tester si les
deux mod`eles sont de performances equivalentes. On note p(x, y; , ) la densite
du mod`ele.
7. Expliciter lestimateur

du maximum de vraisemblance sachant que = .
Expliciter et les estimateurs de vraisemblance dans le cas general.
8. Expliciter la forme de la region critique. Que peut-on dire des performances
relatives des deux types de pi`eces si m = 64 ?

Exercice IX.10.
On souhaite verier la qualite du generateur de nombres aleatoires dune calcula-
trice scientique. Pour cela, on proc`ede `a 250 tirages dans lensemble 0, . . . , 9 et
on obtient les resultats suivants :
x 0 1 2 3 4 5 6 7 8 9
N(x) 28 32 23 26 23 31 18 19 19 31
`
A laide du test du
2
, verier si le generateur produit des entiers independants
et uniformement repartis sur 1, . . . , 9.

Exercice IX.11.
Test degalite des lois marginales (Test de McNemar). On consid`ere deux juges
qui evaluent les memes ev`enements, repondant chaque fois par larmative (+)
ou negative (). On note p
(i)
+
la probabilite que le juge i reponde par larmative
66
IX Tests
et p
(i)

la probabilite quil reponde par la negative. On desire savoir si les lois des
reponses des deux juges sont les memes (hypoth`ese H
0
) ou non (hypoth`ese H
1
).
1. Verier que sous H
0
la loi du couple de reponse ne depend que de deux para-
m`etres, i.e. quil existe et tels que
p
(2)
+
p
(2)

p
(1)
+

p
(1)

1 1
1 1
2. Calculer lestimateur du maximum de vraisemblance de (, ).
3. On desire realiser un test sur un echantillon de taille n. Donner la statistique
de test
n
du
2
et verier que

n
=
(N
+
N
+
)
2
N
+
+N
+
,
o` u N
+
est le nombre de fois o` u le juge 1 a repondu + et le juge 2 a repondu
, et N
+
est le nombre de fois o` u le juge 1 a repondu et le juge 2 a repondu
+. Donner la region critique `a 5%.
4. Pour n = 200, on observe N
+
= 15 et N
+
= 5, calculer la pvaleur du test.

Exercice IX.12.
Lexamen de 320 familles ayant cinq enfants donne pour resultat le tableau IX.1.
Nombres de garcons et de lles (5,0) (4,1) (3,2) (2,3) (1,4) (0,5) Total
Nombre de familles 18 52 110 88 35 17 320
Tab. IX.1. Observation de 320 familles
On veut savoir si ce resultat est compatible avec lhypoth`ese que la naissance
dun gar con et la naissance dune lle sont des evenements equiprobables. Soit r
la probabilite davoir un gar con.
1. Calculer la proportion de gar cons. Appliquez le test du
2
de niveau = 0.01,
base sur cette proportion, pour determiner si r = 1/2. Donner la p-valeur de
ce test.
2. Donner un intervalle de conance pour r de niveau asymptotique . Remarquer
que le test du
2
est equivalent `a lintervalle de conance.
67
IX Tests
3. Appliquez le test du
2
de niveau = 0.01, directement `a partir des donnees
du tableau IX.1. Donner approximativement la p-valeur de ce test. Conclusion?
4. Appliquer le test du
2
pour verier si les donnees du tableau IX.1 suivent une
loi binomiale de param`etre 5 et r, avec r inconnu. Donner approximativement
la p-valeur de ce test. Conclusion?

Exercice IX.13.
En 1986, `a Boston, le docteur Spock, militant contre la guerre du Vietnam, fut juge
pour incitation publique `a la desertion. Le juge charge de laaire etait soup conne
de ne pas etre equitable dans la selection des jures
2
. En eet, il y avait 15% de
femmes parmi les 700 jures quil avait nommes dans ses proc`es precedents, alors
quil y avait 29% de femmes eligibles sur lensemble de la ville.
1. Tester si le juge est impartial dans la selection des jures. Quelle est la p-valeur
de ce test ?
2. Que conclure si etant plus jeune, le juge na pas nomme 700, mais 40 jures ?

Exercice IX.14.
On se propose de comparer les reactions produites par deux vaccins B.C.G. designes
par A et B
3
. Un groupe de 348 enfants a ete divise par tirage au sort en deux series
qui ont ete vaccinees, lune par A, lautre par B. La reaction a ete ensuite lue
par une personne ignorant le vaccin utilise. Les resultats gurent dans le tableau
suivant :
Vaccin Reaction leg`ere Reaction moyenne Ulceration Abc`es Total
A 12 156 8 1 177
B 29 135 6 1 171
Total 41 291 14 2 348
1. En ce qui concerne les reactions, peut-on dire que les vaccins A et B sont
identiques ? On utilisera un test du
2
en supposant dans un premier temps
que le tirage au sort est equitable.
2. Que se passe-t-il si on ne suppose plus que le tirage au sort est equitable ?

2
T.H Wonnacott & R.J Wonnacot, Statistique, Economica, 1991
3
D. Schwartz et P. Lazar,

Elements de statistique medicale et biologique, Flammarion, Paris
(1964).
68
IX Tests
Exercice IX.15.
On desire etudier la predominance visuelle de loeil et lhabilite de la main. Un
experimentateur etablit la table de contingence IX.15.
`
A laide dun test du
2
dire sil existe une relation entre la predominance visuelle et lhabilite des mains
(avec un seuil de 0.25) ?
Mobilite manuelle \ Vue Gauche Deux yeux Droit Total
Gauche 9 15 7 31
Deux mains 8 7 4 19
Droite 15 26 9 50
Total 32 48 20 100
Tab. IX.2. Resultats du test mains-yeux

Exercice IX.16.
Pour determiner si les merles vivent en communaute ou en solitaire, on proc`ede
`a lexperience suivante
4
: on dispose un let dans la zone dhabitat des merles, et
on vient relever le nombre de captures pendant 89 jours. On obtient les resultats
suivants :
Nombre de captures 0 1 2 3 4 5 6
Nombre de jours 56 22 9 1 0 1 0
1. On suppose quune loi de Poisson est representative de lexperience. Construire
un estimateur du param`etre de cette loi.
2. Verier `a laide dun test du
2
ladequation du mod`ele aux donnees. Faire
lapplication numerique au niveau = 5%.
3. Reprendre lexercice en groupant les categories Nombre de captures = 2, 3, 4,
5 et 6 en Nombre de captures 2.

Exercice IX.17.
Le tableau IX.3 donne
5
, sur une periode de vingt ans (1875-1894), le nombre de
4
Revue du CEMAGREF (Clermond Ferrand) juin 1996
5
A. Gulberg, Les fonctions de frequence discontinues et les series statistiques, Annales de lI.
H. P., 3, pp.229-278, 1933.
69
IX Tests
dec`es par an et par regiment dans la cavalerie prussienne causes par un coup de
sabot de cheval. On dispose de 280 observations. Appliquer le test du
2
pour
verier si les donnees suivent une loi de Poisson (dont on estimera le param`etre).
Nombre de dec`es par an et par regiment 0 1 2 3 4
Nombre dobservations 144 91 32 11 2
Tab. IX.3. Deces par an et par regiment.

Exercice IX.18.
Les des de Weldon. Weldon a eectue n = 26306 lancers de douze des `a six
faces
6
. On note X
i
le nombre de faces indiquant cinq ou six lors du i-i`eme lancer.
Les frequences empiriques observees sont notees :

f
j
=
N
j
n
,
o` u N
j
est le nombre de fois o` u lon a observe j faces indiquant cinq ou six, sur les
douze lancers N
j
=
n

i=1
1
X
i
=j
. Les observations sont donnees dans les tableaux
IX.4 et IX.5.
N0 = 185 N1 = 1149 N2 = 3265 N3 = 5475
N4 = 6114 N5 = 5194 N6 = 3067 N7 = 1331
N8 = 403 N9 = 105 N10 = 14 N11 = 4
N12 = 0
Tab. IX.4. Observations

f0 = 0.007033

f1 = 0.043678

f2 = 0.124116

f3 = 0.208127

f4 = 0.232418

f5 = 0.197445

f6 = 0.116589

f7 = 0.050597

f8 = 0.015320

f9 = 0.003991

f10 = 0.000532

f11 = 0.000152

f12 = 0.000000
Tab. IX.5. Frequences empiriques observees
6
W. Feller, An introduction to probability theory and its applications, volume 1, third ed., p. 148.
70
IX Tests
Si les des sont non biaises, la probabilite dobserver les faces cinq ou six dans
un lancer de des est de 1/3. Les variables aleatoires (X
i
, 1 i n) suivent donc
la loi binomiale de param`etres 12 et 1/3. Les frequences theoriques sont donnees
dans le tableau IX.6.
f0 = 0.007707 f1 = 0.046244 f2 = 0.127171 f3 = 0.211952
f4 = 0.238446 f5 = 0.190757 f6 = 0.111275 f7 = 0.047689
f8 = 0.014903 f9 = 0.003312 f10 = 0.000497 f11 = 0.000045
f12 = 0.000002
Tab. IX.6. Frequences theoriques
1. Donner la statistique du test du
2
et la p-valeur. En deduire que lon rejette
lhypoth`ese des des non biaises.
2. Rejette-t-on egalement lhypoth`ese selon laquelle les variables sont distribuees
suivant une loi binomiale de meme param`etre (12, r), r etant inconnu?

71
X
Intervalles et regions de conance
Exercice X.1.
Soit X
1
, . . . , X
n
un echantillon de taille n de variables aleatoires independantes de
loi uniforme sur [0, ] o` u est un param`etre strictement positif. Soit
0
> 0. On
veut tester H
0
:
0
contre H
1
: >
0
au seuil .
1. Trouver une zone de rejet W associee `a une constante z

veriant 0 < z


0
.
2. Calculer la puissance du test ().
3. On prend
0
=
1
2
. Calculer z

en fonction de n pour que le test soit de niveau


5%.
4. Avec
0
=
1
2
et = 5%, calculer n pour que la puissance du test soit dau
moins 98% en =
3
4
. Que vaut la puissance du test en =
3
4
si n = 2 ?
5. On examine H

0
: =
0
contre H

1
: >
0
. Que proposez-vous ?
6. Soit

> 0 donne. Calculer k


n
1 tel que P

( < k
n
max
1in
X
i
) soit egale
`a 1

. En deduire un intervalle de conance pour au niveau 1

.
7. Montrer que la suite (n( max
1in
X
i
), n N

) converge en loi vers une loi


exponentielle. En deduire un intervalle de conance pour de niveau asympto-
tique 1

. Le comparer avec lintervalle de conance de la question precedente.

Exercice X.2.
Soit X une v.a. de densite :
f(x) =
1
2
e
[x[
, x R,
o` u est un param`etre reel inconnu.
1. Calculer E

[X] et Var

(X). En deduire un estimateur T


n
de .
2. Construire un intervalle de conance de niveau asymptotique 95% pour dans
le cas o` u n = 200.
X Intervalles et regions de conance

74
XI
Controles `a mi-cours
XI.1 1999-2000 : Le collectionneur (I)
Exercice XI.1.
Soit (T
n
, n n
0
) une suite de variables aleatoires de loi geometrique de param`etre
p
n
=

n
avec n
0
> > 0. Montrer que la suite
_
T
n
n
, n n
0
_
converge en loi et
determiner sa limite.

Exercice XI.2.
Determinant dune matrice `a coecients gaussiens.
1. Soit V et W deux variables aleatoires reelles ou vectorielles continues inde-
pendantes. Montrer que si est une fonction bornee, alors E[(V, W) [ W] =
h(W), o` u la fonction h est denie par h(w) = E[(V, w)].
2. Soit (X
1
, X
2
, X
3
, X
4
) des variables aleatoires independantes de loi ^(0, 1). On
consid`ere la matrice aleatoire A =
_
X
1
X
2
X
3
X
4
_
et on note Y = det A. Calculer
E
_
e
iuY
[X
1
, X
2

, puis en deduire la fonction caracteristique de Y .

Exercice XI.3.
Votre petit fr`ere collectionne les images des joueurs de la coupe du monde que
lon trouve dans les tablettes de chocolat. On suppose quil existe n images dif-
ferentes et quelles sont equitablement reparties, `a raison de une par tablette.
On note X
i
1, , n le numero de limage contenue dans la i-`eme tablette.
On note N
k
le nombre de tablettes achetees pour obtenir k images dierentes :
N
k
= inf j 1; Card X
i
, i j = k. Enn, T
k
= N
k
N
k1
, avec la convention
XI Controles `a mi-cours
T
1
= 1, represente le nombre de tablettes achetees pour obtenir une nouvelle image
alors que lon en poss`ede dej`a k 1.
1. Quelle loi proposez-vous pour la suite de variables aleatoires (X
i
, i N

) ?
2. Soit T une variable aleatoire geometrique de param`etre p ]0, 1[. Montrer que
E[T] = p
1
et Var(T) = (1 p)p
2
.
3. Calculer P(T
2
= l). En deduire que T
2
suit une loi geometrique dont on precisera
le param`etre.
4. Montrer que
P(T
2
= l
2
, T
3
= l
3
)
=

j
1
, j
2
, j
3
distincts
P(X
1
= j
1
, , X
l
2
= j
1
, X
l
2
+1
= j
2
, , X
l
2
+l
3
j
1
, j
2
, X
l
2
+l
3
+1
= j
3
).
5. En deduire que T
3
suit une loi geometrique dont on precisera le param`etre.
6. Verier que T
2
et T
3
sont independants.
7. Decrire T
k
comme premier instant de succ`es et en deduire sa loi. On admet
dorenavant que les variables aleatoires T
1
, T
2
, , T
n
sont independantes.
8. Calculer E[N
n
] et verier que E[N
n
] = n[log(n) +O(1)] o` u O(1) designe une
fonction g(n) telle que sup
n1
[g(n)[ M < .
9. Calculer Var(N
n
) et en donner un equivalent quand n .
10. Verier que 1
x
2
>
2

x
2

2
pour tout x R et > 0. Majorer P
_

N
n
E[N
n
]
1

>
_
.
11. Montrer que la suite
_
N
n
nlog n
, n N

_
converge en probabilite vers 1.

XI.2 2000-2001 : Le collectionneur (II)


Exercice XI.4.
Soit X
1
, X
2
des variables aleatoires independantes de loi de Poisson de param`etres
respectifs
1
> 0 et
2
> 0.
1. Calculer la loi de X
1
+X
2
.
2. Calculer la loi de X
1
sachant X
1
+X
2
. Reconnatre cette loi.
3. Calculer E[X
1
[X
1
+X
2
].

76
XI.2 2000-2001 : Le collectionneur (II)
Exercice XI.5.
Soit X
1
, . . . , X
n
une suite de variables aleatoires independantes de loi exponentielle
de param`etre > 0. La variable aleatoire X
i
represente le temps de panne de la
machine i. On suppose quune fois en panne les machines ne sont pas reparees.
On note X
(1)
X
(n)
le reordonnement croissant de X
1
, . . . , X
n
, appele aussi
statistique dordre. Ainsi X
(i)
represente le temps de la i-`eme panne quand on
consid`ere lensemble des n machines. On pose
Y
1
= X
(1)
= min
1in
X
i
,
le temps de la premi`ere panne, Y
2
= X
(2)
X
(1)
le temps entre la premi`ere et la
deuxi`eme panne, et plus generalement pour k 2, . . . , n,
Y
k
= X
(k)
X
(k1)
.
Le but de ce probl`eme est dans un premier temps detudier le comportement de
linstant o` u la derni`ere machine tombe en panne, X
(n)
=

n
i=1
Y
i
, quand n .
Dans un deuxi`eme temps nous etudierons la loi du vecteur (Y
1
, . . . , Y
n
). Enn nous
donnerons une application de ces deux resultats dans une troisi`eme partie.
I Comportement asymptotique de X
(n)
=

n
i=1
Y
i
.
1. Calculer la fonction de repartition de X
(n)
= max
1in
X
i
.
2. Montrer que la suite (X
(n)

1
log n, n N

) converge en loi vers une variable


aleatoire Z dont on determinera la fonction de repartition.
3. Pour = 1, en deduire la densite f de la loi de Z. Determiner, `a la premi`ere
decimale pr`es, a et b tels que
_
a

f(z)dz = 2, 5% et
_
+
b
f(z)dz = 2, 5%.
II Loi du vecteur (Y
1
, . . . , Y
n
).
1. Soit i ,= j. Calculer P(X
i
= X
j
).
2. En deduire que P(i ,= j; X
i
= X
j
) = 0. Remarquer que presque s urement le
reordonnement croissant est unique, cest-` a-dire X
(1)
< < X
(n)
. Ainsi p.s.
aucune machine ne tombe en panne au meme instant.
3. On suppose dans cette question et la suivante seulement que n = 2.
Soit g
1
et g
2
des fonctions bornees mesurables. En distinguant X
1
< X
2
et
X
2
< X
1
, montrer que
E[g
1
(Y
1
)g
2
(Y
2
)] =
_
g
1
(y
1
)g
2
(y
2
) 2
2
e
2y
1
y
2
1
y
1
>0,y
2
>0
dy
1
dy
2
.
En deduire une expression de E[g
1
(Y
1
)] puis la loi de Y
1
.
77
XI Controles `a mi-cours
4. Deduire la loi de Y
2
et verier que Y
1
et Y
2
sont independants. Donner la loi
du vecteur (Y
1
, Y
2
).
5. En decomposant suivant les ev`enements X
(1)
< < X
(n)
, o` u parcourt
lensemble o
n
des permutations de 1, . . . , n, montrer que pour n 3,
E[g
1
(Y
1
) g
n
(Y
n
)] = n! E[g
1
(X
1
)g
2
(X
2
X
1
) g
n
(X
n
X
n1
)1
X
1
<<Xn
],
o` u les fonctions g
1
, . . . g
n
sont mesurables bornees. On pourra utiliser, sans le
justier, le fait que les vecteurs (X
(1)
, . . . , X
(n)
) et (X
1
, . . . , X
n
) ont meme
loi.
6. Calculer la loi de Y
i
, i 1, . . . , n. Montrer que les variables aleatoires
Y
1
, . . . , Y
n
sont independantes. Donner la loi du vecteur (Y
1
, . . . , Y
n
).
7. En deduire la fonction caracteristique de X
(n)
.
III Application (Facultatif)
Votre petit fr`ere collectionne les images de Pokemons que lon trouve dans les
plaquettes de chocolat. On suppose quil existe n images dierentes et quelles
sont reparties au hasard dans les plaquettes. On note T
k,n
le nombre de plaquettes
quil faut acheter pour avoir une nouvelle image, alors que lon en poss`ede dej`a
k 1. On a donc T
1,n
= 1. Pour avoir toutes les images, il faut donc acheter
T
1,n
+ + T
n,n
= N
n
plaquettes. On admet (voir le contr ole de 1999, exercice
XI.3) que les variables aleatoires T
1,n
, . . . , T
n,n
sont independantes et que la loi
de T
k,n
est la loi geometrique de param`etre 1
k 1
n
. On admet de plus que
E[N
n
] nlog n et que
N
n
nlog n
converge en probabilite vers 1 quand n +. Le
but de cette partie est de determiner `a quelle vitesse a lieu cette convergence et
den deduire un intervalle de conance pour le nombre de plaquettes de chocolat
que votre petit fr`ere doit acheter pour avoir sa collection compl`ete.
Soit
k,n
la fonction caracteristique de
1
n
T
nk+1,n
, o` u k 1, . . . , n et
k
la
fonction caracteristique de la loi exponentielle de param`etre k.
1. Montrer que la suite
_
1
n
T
nk+1,n
, n k
_
converge en loi vers la loi exponen-
tielle de param`etre k.
Une etude plus precise permet en fait de montrer que pour tout u R, il existe
n(u) et C, tels que pour tout n n(u) et k 1, . . . , n, on a
[
k,n
(u)
k
(u)[
1
kn
C.
78
XI.3 2001-2002 : Le paradoxe du bus (I)
2. En utilisant linegalite

k=1
a
k

n

k=1
b
k

k=1
[a
k
b
k
[ valable pour des com-
plexes a
k
, b
k
de modules inferieur `a 1 ([a
k
[ 1 et [b
k
[ 1), montrer que

Nn/n
(u)
X
(n)
(u)

C
log n
n
,
o` u X
(n)
est denie au paragraphe I, avec = 1. De mani`ere formelle, on ecrira
que pour n grand,
1
n
Geom(1)+
1
n
Geom(
n 1
n
)+ +
1
n
Geom(
1
n
)
Loi
c(n)+c(n1)+ +c(1).
3. En deduire que la suite (n
1
(N
n
nlog n), n N

) converge en loi vers la


variable aleatoire Z denie au paragraphe I.
4. Donner un intervalle de conance, I
n
, de niveau asymptotique = 95% pour
N
n
: P(N
n
I
n
) 95%) pour n grand.
5. Application numerique : n = 151. Quel est le nombre moyen de plaquettes
de chocolat que votre petit fr`ere doit acheter pour avoir une collection de
Pokemons compl`ete. Donner un intervalle de conance `a 95% du nombre de
plaquettes que votre petit fr`ere risque dacheter pour avoir une collection com-
pl`ete.
Refaire lapplication numerique pour n = 250, qui correspond au nombre de
Pokemons au Japon.

XI.3 2001-2002 : Le paradoxe du bus (I)


Exercice XI.6.
Soit (U
i
, i N

) une suite de variables aleatoires independantes de loi uniforme


sur [0, 1]. Soit > 0.
1. Pour n N

, on pose X
n
= (U
1
U
n
)
/n
. Montrer que la suite (X
n
, n N

)
converge presque s urement et donner sa limite. On pourra considerer dans un
premier temps la suite (log(X
n
), n N

).
2. Montrer que la suite (Y
n
, n N

), denie par Y
n
= (X
n
e

n
, converge en
loi et determiner la loi limite. On calculera la densite de la loi limite sil sagit
dune variable aleatoire continue.

79
XI Controles `a mi-cours
Exercice XI.7.
`
A larret de bus, il est indique que le temps moyen entre les passages de bus est
denviron 10 minutes. Or, lorsquun client arrive `a linstant t `a larret de bus, il
attend en moyenne une dizaine de minutes. On en deduit navement, par symetrie,
que le temps moyen entre deux passages de bus est de 20 minutes. Le but de ce
probl`eme est de determiner `a laide dun mod`ele simple qui, de la societe de bus
ou du client a raison.
On note T
1
le temps de passage du premier bus et T
i+1
le temps entre le
passage du i
`eme
et du i + 1
`eme
bus. En particulier V
n
=

n
i=1
T
i
est le temps
de passage du n
`eme
bus, avec la convention que V
0
=

0
i=1
T
i
= 0.
`
A cause des
conditions aleatoires du trac, on suppose que les variables aleatoires (T
i
, i N

)
sont independantes et de loi exponentielle de param`etre > 0.
I Preliminaires
1. Quel est, dapr`es ce mod`ele, le temps moyen entre les passages des bus annonce
par la societe de bus ?
2. Determiner et reconnatre la loi de V
n
pour n 1.
On note N
t
le nombre de bus qui sont passes avant linstant t :
N
t
= supn 0;
n

i=1
T
i
t.
3. Quelle est la valeur de P(N
t
= 0) ?
4.

Ecrire lev`enement N
t
= n en fonction de V
n
et T
n+1
.
5. Pour n 1, calculer P(N
t
= n), et verier que la loi de N
t
est une loi de
Poisson dont on precisera le param`etre.
II Les temps moyens
On note R
t
= t
Nt

i=1
T
i
, le temps ecoule entre le passage du dernier bus avant t
et t, avec la convention que R
t
= t si N
t
= 0. Et on note S
t
=
Nt+1

i=1
T
i
t le temps
dattente du prochain bus lorsquon arrive `a linstant t. Soit r, s [0, [.
1. Que vaut P(R
t
t) ? Calculer P(R
t
r, S
t
s, N
t
= 0).
2. Verier que pour n 1, on a
P(R
t
r, S
t
s, N
t
= n) = e
t
(1 e
s
)

n
n!
[t
n
(t r)
n
+
],
o` u z
+
= z si z 0 et z
+
= 0 si z < 0.
80
XI.4 2002-2003 : La statistique de Mann et Whitney
3. Calculer P(R
t
r, S
t
s) la fonction de repartition du couple (R
t
, S
t
). On
distinguera les cas r < t et r t.
4. Determiner et reconnatre la loi de S
t
.
5. Montrer que R
t
a meme loi que min(T
1
, t).
6. En deduire le temps moyen dattente dun bus lorsquon arrive `a linstant t ainsi
que lecart moyen entre le dernier bus juste avant linstant t et le premier bus
juste apr`es linstant t. Pouvez vous repondre `a la question initiale du probl`eme ?
Quel est le paradoxe ?
III Loi du temps entre deux passages de bus
On desire maintenant etudier la loi du temps entre le dernier bus juste avant
linstant t et le premier bus juste apr`es linstant t : U
t
= R
t
+S
t
.
1. Verier que les ev`enements R
t
r et S
t
s sont independants pour
tout (r, s) R
2
. On rappelle que cela implique que les variables R
t
et S
t
sont
independantes.
2. Verier que (U
t
, t > 0) converge en loi vers une variable aleatoire U. Determiner
et reconnatre la loi limite.
3. Calculer la loi de U
t
= R
t
+S
t
.

XI.4 2002-2003 : La statistique de Mann et Whitney


Exercice XI.8.
Lobjectif est detudier le comportement asymptotique dune suite de variables
aleatoires appelees statistiques de Mann et Whitney.
I Calculs preliminaires
Soit X, Y deux variables aleatoires reelles independantes de densite respective
f et g. On introduit les fonctions de repartitions
F(x) = P(X x) =
_
x

f(u) du et G(y) = P(Y y) =


_
y

g(u) du.
On suppose que p = P(Y X) ]0, 1[.
1. Quelle est la loi de 1
Y X
? Donner Var(1
Y X
) en fonction de p.
81
XI Controles `a mi-cours
2. Determiner p comme une integrale en fonction de G et f (ou en fonction de F
et g). Verier que, si X et Y ont meme loi (i.e. f = g), alors p = 1/2.
3. On pose S = E
_
1
Y X
[X

et T = E
_
1
Y X
[Y

. Determiner S et T. Donner
E[S] et E[T].
4. On pose = Var(S) et = Var(T). Calculer (respectivement ) en fonction
de p, G et f (respectivement p, F et g).
5. Montrer que, si X et Y ont meme loi, alors = . Donner alors leur valeur.
6. Calculer Cov(S, 1
Y X
) et Cov(T, 1
Y X
).
On admet que p ]0, 1[ implique que (, ) ,= (0, 0).
II

Etude de la projection de Hajek de la statistique de Mann et
Withney
Soit (X
i
, i 1) et (Y
j
, j 1) deux suites independantes de variables aleatoires
independantes. On suppose de plus que X
i
a meme loi que X pour tout i 1, et
Y
j
a meme loi que Y pour tout j 1. La statistique de Mann et Whitney (1947)
est la variable denie pour m 1, n 1, par
U
m,n
=
m

i=1
n

j=1
1
Y
j
X
i

.
On pose U

m,n
= U
m,n
E[U
m,n
] =
m

i=1
n

j=1
_
1
Y
j
X
i

p
_
. La projection de Hajek
(1968) de U

m,n
est denie par
H
m,n
=
m

i=1
E[U

m,n
[X
i
] +
n

j=1
E[U

m,n
[Y
j
].
On pose S
i
= G(X
i
) et T
j
= 1 F(Y
j
).
1. Verier que H
m,n
= n

m
i=1
(S
i
p) +m

n
j=1
(T
j
p).
2. Calculer Var(H
m,n
) en fonction de et .
3. Determiner la limite en loi des suites
_
V
m
=
1

m
m

i=1
(S
i
p), m 1
_
et
_
_
W
n
=
1

n
n

j=1
(T
j
p), n 1
_
_
.
82
XI.4 2002-2003 : La statistique de Mann et Whitney
Il est facile de verier, `a partir de la demonstration du theor`eme central limite le
resultat suivant sur la convergence uniforme locale des fonctions caracteristiques.
Soit (Z
k
, k 1) une suite de variables aleatoires independantes, de meme loi et de
carre integrable, telles que E[Z
k
] = 0 et Var(Z
k
) =
2
. Alors on a
1

k
P
k
i=1
Z
i
(u) = e

2
u
2
/2
+R
k
(u),
et pour tout K 0, lim
k
sup
[u[K
[R
k
(u)[ = 0.
4.

Ecrire H
m,n
/
_
Var(H
m,n
) comme une combinaison lineaire de V
m
et W
n
. En
utilisant la propriete ci-dessus, montrer que, quand min(m, n) tend vers linni,
la suite
_
H
m,n
/
_
Var(H
m,n
), m 1, n 1
_
converge en loi vers la loi gaus-
sienne centree reduite ^(0, 1).
5. On admet la formule suivante (voir la partie IV pour une demonstration) :
Var(U
m,n
) = mn
2
+m
2
n +mn(p p
2
). (XI.1)
Determiner la limite en loi de la suite
_
H
m,n
/
_
Var(U
m,n
), m 1, n 1
_
quand min(m, n) tend vers linni.
III Convergence de la statistique de Mann et Whitney (Facultatif )
1. Montrer que Cov(H
m,n
, U

m,n
) = mn
2
Cov(S, 1
Y X
)+nm
2
Cov(T, 1
Y X
).
2. En deduire Var(H
m,n
U

m,n
).
3. Calculer la limite de Var(H
m,n
U

m,n
)/ Var(U
m,n
) quand min(m, n) tend vers
linni.
4. En deduire que la suite
_
H
m,n
U

m,n
_
Var(U
m,n
)
, m 1, n 1
_
converge en probabilite
vers 0 quand min(m, n) tend vers linni.
5. Montrer que la suite
_
U
m,n
mnp
_
Var(U
m,n
)
, m 1, n 1
_
converge en loi quand min(m, n) tend vers linni. Determiner la loi limite.
83
XI Controles `a mi-cours
IV Calcul de la variance de la statistique de Mann et Whitney
(Facultatif )
Soit X

et Y

des variables aleatoires de meme loi que X et Y . On suppose de


plus que les variables aleatoires X, X

, Y et Y

sont independantes.
1. On consid`ere la partition de = (i, i

, j, j

) (N

)
4
; i m, i

m, j n, j


n en quatre sous-ensembles :

1
= (i, i, j, j)

2
= (i, i

, j, j) ; i ,= i

3
= (i, i, j, j

) ; j ,= j

4
= (i, i

, j, j

) ; i ,= i

, j ,= j

.
Calculer le cardinal des quatre sous-ensembles.
2. Verier que Cov(1
Y X
, 1
Y

X
) = et Cov(1
Y X
, 1
Y X

) = .
3. Calculer la variance de U
m,n
et verier ainsi la formule (XI.1).
4. Donner Var(U
m,n
) dans le cas o` u les variables aleatoires (X
i
, i 1) et (Y
j
, j
1) ont toutes meme loi.

XI.5 2003-2004 : Le processus de Galton Watson


Exercice XI.9.
En 1873, Galton publie un probl`eme concernant le calcul de la probabilite dex-
tinction des noms de familles. Nobtenant pas de reponse satisfaisante, il contacte
Watson qui fournit une reponse partielle. Ce nest qu`a partir de 1930 que ce
probl`eme attire `a nouveau lattention et obtient alors une reponse detaillee
1
.
Le but du probl`eme qui suit est, `a partir dun mod`ele elementaire devolution
de population, appele mod`ele de Galton-Watson, de determiner cette probabilite
dextinction.
On consid`ere un individu masculin `a linstant 0, et on note Z
n
le nombre de des-
cendants masculin de cet individu `a la n-i`eme generation (Z
0
= 1 par convention).
On suppose que les nombres de gar cons de chaque individu sont independants et
de meme loi quune variable aleatoire, , `a valeurs enti`eres. Plus precisement, soit
1
Voir larticle de D. Kendall. Branching processes since 1873, J. London Math. Soc. (1966), 41
pp. 385-406.
84
XI.5 2003-2004 : Le processus de Galton Watson
(
i,n
, i 1, n 0) une suite doublement indicee de variables aleatoires indepen-
dantes de meme loi que . Le nombre dindividus de la n + 1-i`eme generation est
la somme des gar cons des individus de la n-i`eme generation : pour n 0,
Z
n+1
=
Zn

i=1

i,n
,
avec la convention que Z
n+1
= 0 si Z
n
= 0. On note
= P(il existe n 0 tel que Z
n
= 0)
la probabilite dextinction de la population. Pour k N, on note p
k
= P( = k), et
lon suppose que p
0
> 0 (sinon presque s urement la population ne seteint pas).
I Calcul de la probabilite dextinction
1. Montrer que est la limite croissante de la suite (P(Z
n
= 0), n 0).
On suppose que est integrable, et on pose m = E[].
2. Calculer E[Z
n+1
[Z
n
]. En deduire que E[Z
n
] = m
n
.
3. Montrer que si m < 1, alors = 1, i.e. la population seteint presque s urement.
On note la fonction generatrice de , et
n
la fonction generatrice de Z
n
(et

0
(z) = z pour z [0, 1]).
4. Calculer E[z
Z
n+1
[Z
n
] pour z [1, 1]. En deduire que
n+1
=
n
, puis que

n+1
=
n
.
5. Montrer que P(Z
n+1
= 0) = (P(Z
n
= 0)). En deduire que est solution de
lequation
(x) = x. (XI.2)
6. Calculer

(1). Verier que si m 1, alors est strictement convexe sur [0, 1].
Tracer le graphe z (z) pour z [0, 1].
7. En deduire que si m = 1, alors = 1.
On suppose dorenavant que m > 1.
8. Montrer que (XI.2) poss`ede une unique solution x
0
]0, 1[.
9. Montrer que P(Z
n
= 0) x
0
pour tout n 0. En deduire que = x
0
.
85
XI Controles `a mi-cours
II Comportement asymptotique sur un exemple
Les donnees concernant les U.S.A. en 1920 pour la population masculine (cf la
reference (1) en bas de page 84) sont telles que lon peut modeliser la loi de sous
la forme
p
0
= , et pour k 1, p
k
= (1 )(1 )
k1
, (XI.3)
avec 0 < < < 1. On suppose dorenavant que la loi de est donnee par (XI.3).
1. Calculer m = E[], verier que m > 1 et calculer , lunique solution de (XI.2)
dans ]0, 1[, o` u est la fonction generatrice de . Application numerique (cf la
note (1) en bas de page 84) : = 0.4813 et = 0.5586.
2. Verier que
(z) 1
(z)
= m
z 1
z
. En deduire
n
(z), o` u
1
= et pour n 2,

n
=
n1
.
3. Calculer la fonction caracteristique de XY , o` u X et Y sont independants, X
est une variable aleatoire de Bernoulli de param`etre p [0, 1], et Y une variable
aleatoire exponentielle de param`etre > 0.
4. Montrer que la suite (m
n
Z
n
, n 1), o` u Z
n
est une variable aleatoire de
fonction generatrice
n
, converge en loi vers une variable aleatoire Z dont on
reconnatra la loi.

XI.6 2004-2005 : Theor`eme de Cochran ; Loi de Bose-Einstein


Exercice XI.10.
Le but de cet exercice est la demonstration du theor`eme de Cochran. Soit n 2, et
X
1
, . . . , X
n
des variables aleatoires independantes de meme loi gaussienne ^(0, 1).
Soit e = e
1
, . . . , e
n
la base canonique de R
n
et X =

n
i=1
X
i
e
i
le vecteur aleatoire
de R
n
.
1. Soit f = f
1
, . . . , f
n
une base orthonormee de R
n
et Y = (Y
1
, . . . , Y
n
) les
coordonnees de X dans la base f. Montrer que les variables Y
1
, . . . , Y
n
sont
independantes de loi ^(0, 1). (On rappelle quil existe une matrice U de taille
n n telle que si x = (x
1
, . . . , x
n
) sont les coordonnees dun vecteur dans la
base e, alors ses coordonnees dans la base f sont donnees par y = Ux. De plus
on a U
t
U = UU
t
= I
n
, o` u I
n
est la matrice identite.)
2. Soit E
1
, . . . , E
p
une famille de p 2 sous-espaces vectoriels de R
n
orthogonaux
deux `a deux tels que E
1
E
p
= R
n
(i.e. si f
(i)
= f
(i)
1
, . . . , f
(i)
n
i
, o` u
n
i
= dim(E
i
), est une base orthonormee de E
i
, alors f =
1ip
f
(i)
est une
base orthonormee de R
n
). On note X
E
i
la projection orthogonale de X sur
86
XI.6 2004-2005 : Theor`eme de Cochran ; Loi de Bose-Einstein
E
i
. Montrer que les variables X
E
1
, . . . , X
Ep
sont independantes et que la loi de
|X
E
i
|
2
est une loi du
2
dont on determinera le param`etre.
3. On note la droite vectorielle engendree par le vecteur unitaire f
1
=
n
1/2

n
i=1
e
i
et H le sous-espace vectoriel orthogonal (en particulier H =
R
n
). Calculer X

et |X
H
|
2
= |X X

|
2
. Retrouver ainsi que la moyenne
empirique

X
n
=
1
n

n
i=1
X
i
est independante de T
n
=

n
i=1

X
i


X
n

2
, et
donner la loi de T
n
.

Exercice XI.11.
Lenergie dune particule est quantiee, cest-` a-dire que les valeurs possibles de
lenergie forment un ensemble discret. Mais, pour un niveau denergie donne, une
particule peut-etre dans dierents sous-etats, que lon peut decrire `a laide du mo-
ment cinetique (nombre quantique secondaire), du moment magnetique (nombre
quantique magnetique) et de la rotation propre des electrons de latome (spin). Il
existe deux types de particules :
Les fermions (electron, proton, neutron, etc.) ont un spin demi-entier et
obeissent `a la statistique de Fermi-Dirac : au plus une particule par sous-
etat.
Les bosons (photon, phonon, etc.) obeissent `a la statistique de Bose-Einstein :
plusieurs particules peuvent occuper le meme etat, et les particules sont in-
discernables.
Le but de ce probl`eme est, apr`es avoir etabli la loi de Bose-Einstein, devaluer
plusieurs quantites naturelles associees `a cette loi.
I Convergence en loi pour les variables aleatoires discr`etes
Soit (X
n
, n 1) une suite de variables aleatoires `a valeurs dans N. On pose
p
n
(k) = P(X
n
= k) pour k N, n 1.
1. On suppose que, pour tout k N, la suite (p
n
(k), n 1) converge vers une
limite, notee p(k), et que

k=0
p(k) = 1. Soit g une fonction bornee mesurable.
Montrer que pour n
0
N xe, on a

E[g(X
n
)]

k=0
p(k)g(k)

|g|
_
n
0

k=0
[p
n
(k) p(k)[ +2
n
0

k=0
(p
n
(k) +p(k))
_
,
o` u |g| = sup[g(x)[; x R. En deduire que la suite (X
n
, n 1) converge en
loi vers la loi dune variable aleatoire discr`ete X `a valeurs dans N, o` u p(k) =
P(X = k) pour k N.
87
XI Controles `a mi-cours
2. (Facultatif) Montrer que si la suite (X
n
, n 1) converge en loi (vers la loi
dune variable aleatoire X), alors pour tout k N, les suites (p
n
(k), n 1)
convergent vers une limite. De plus, la variable aleatoire X est discr`ete `a valeurs
dans N, et si on note p(k) = lim
n
p
n
(k), alors on a p(k) = P(X = k) et

k=0
p(k) = 1.
II La loi de Bose-Einstein
On suppose que lon dispose de r particules indiscernables pouvant occuper n
sous-etats (appeles aussi botes) du meme niveau denergie. Dire que les particules
sont indiscernables revient `a dire que toutes les congurations sont equiprobables.
Ainsi pour r = n = 2, on dispose des 3 congurations dierentes
[ [ [ , [ [ [ et [ [ [ ,
o` u les etoiles representent les particules et les barres verticales les bords des botes.
Chaque conguration est donc de probabilite 1/3.
1. Montrer quil existe
(n +r 1)!
r!(n 1)!
congurations dierentes. En deduire la pro-
babilite dune conguration (loi de Bose-Einstein).
On suppose n 2. Letat du syst`eme est decrit par X
n,r
= (X
(1)
n,r
, . . . , X
(n)
n,r
), o` u
X
(i)
n,r
est le nombre de particules dans la bote i.
2. Remarquer que si k particules sont dans la premi`ere bote, alors il reste r k
particules dans les n 1 autres botes. En deduire la loi de X
(1)
n,r
.
3. On suppose que r , n et r/n ]0, [. Montrer que sous ces
hypoth`eses la suite (X
(1)
n,r
, n N

, r N) converge en loi vers la loi dune


variable aleatoire enti`ere X. Donner la loi de X, verier que la loi de X +1 est
la loi geometrique dont on precisera le param`etre.
4. Donner la loi de X
(i)
n,r
, pour i 1, . . . , n. Calculer

n
i=1
X
(i)
n,r
. En deduire
E[X
(1)
n,r
].
5. Verier que si r , n et r/n ]0, [, alors E[X
(1)
n,r
] converge vers
E[X], o` u la variable X est denie `a la question II.3.
6. (Facultatif) On suppose r 1. Donner une relation simple entre P(X
(1)
n+1,r1
=
k) et P(X
(1)
n,r
= k). En deduire E[r X
(1)
n,r
], puis retrouver E[X
(1)
n,r
].
7. (Facultatif) En sinspirant de la question precedente calculer egalement
E[(X
(1)
n,r
)
2
] pour r 2. Verier que si r , n et r/n ]0, [, alors
E[(X
(1)
n,r
)
2
] converge vers E[X
2
], o` u la variable X est denie `a la question II.3.
88
XI.7 2005-2006 : Le paradoxe du bus (II)
III Quand on augmente le nombre de particules
On suppose que lon dispose de n botes et de r particules disposees dans ces
botes suivant la loi de Bose-Einstein. Conditionnellement `a letat du syst`eme, X
n,r
,
quand on ajoute une particule, elle est mise dans la bote i avec une probabilite
proportionnelle `a X
(i)
n,r
+ 1. Ainsi la nouvelle particule a plus de chance detre
mise dans une bote contenant dej`a beaucoup de particules. On note X
n,r+1
=
(X
(1)
n,r+1
, . . . , X
(n)
n,r+1
) le nouvel etat du syt`eme.
1. Calculer la loi de X
n,r+1
sachant X
n,r
.
2. En deduire la loi de X
n,r+1
, et reconnatre cette loi.

XI.7 2005-2006 : Le paradoxe du bus (II)


Exercice XI.12.
Le paradoxe du bus (II). Les parties I et II sont independantes.
Soit T une variable aleatoire p.s. strictement positive, i.e. P(T > 0) = 1.
I Le temps dattente `a larret de bus
Soit (T
n
, n 1) une suite de variables aleatoires independantes et de meme loi
que T. Soit n 2 xe.
`
A linstant t = 0 un premier bus (bus 1) passe devant votre
arret. Le temps ecoule entre le passage des k-i`eme et (k +1)-i`eme bus est modelise
par la variable T
k
. Lexperience est terminee lors du passage du (n + 1)-i`eme bus.
On pose, pour k N

, S
k
=

k
i=1
T
i
le temps de passage du (k + 1)-i`eme bus, et
S
0
= 0.
On suppose que vous arrivez au hasard apr`es le premier bus (t = 0) et avant
le dernier bus (t = S
n
). On note N

n
le numero du dernier bus passe avant votre
arrivee, et T

n
= T
N

n
le temps ecoule entre le passage du bus juste avant votre
arrivee et le passage du bus juste apr`es votre arrivee. Le but de cette partie est
de determiner la loi de T

n
, et de donner son comportement asymptotique quand
n tend vers linni.
Soit U une variable aleatoire de loi uniforme sur [0, 1] et independante de
(T
n
, n 1). On modelise votre temps darrivee par US
n
.
1. Expliquer bri`evement pourquoi on modelise votre temps darrivee par US
n
.
2. Montrer que les variables aleatoires T
k
/S
n
ont meme loi.
3. En deduire E[X
n
] = 1, o` u X
n
=
nT
1
S
n
.
89
XI Controles `a mi-cours
4. Soit Z une variable aleatoire `a valeurs dans R
n
de densite h, independante de
U. Montrer que pour toute fonction bornee mesurable, on a
E[(U, Z)] = E
__
1
0
du (u, Z)
_
. (XI.4)
On admettra que (XI.4) est vraie pour toute variable aleatoire Z vec-
torielle independante de U.
5. Remarquer que pour 1 k n, on a N

n
= k = U ]S
k1
/S
n
, S
k
/S
n
].
Soit g une fonction bornee mesurable. Montrer, en decomposant suivant les
valeurs de N

n
et en utilisant (XI.4), que
E[g(T

n
)] = E
_
nT
1
S
n
g(T
1
)
_
. (XI.5)
On suppose que T est integrable et on pose = E[T].
6. Montrer que la suite (X
n
, n 1) converge p.s. vers une limite X. Calculer
E[X].
7. On denit la fonction
+
(x) = max(x, 0). Verier que la fonction
+
est
continue et que
+
(x y) x pour tout x 0, y 0. Montrer que
lim
n
E[
+
(X X
n
)] = 0.
8. Verier que [x[ = x+2
+
(x) pour tout x R. En deduire que lim
n
E[[X X
n
[] =
0.
9. Soit g une fonction bornee mesurable. Deduire de la question precedente que
la limite lim
n
E[g(T

n
)] existe et la determiner.
10. En utilisant (XI.5) pour un choix judicieux de fonctions g, montrer que la suite
(T

n
, n 1) converge en loi vers une limite T

quand n tend vers linni. La loi


de T

est appelee loi de T biaisee par la taille.


II Loi biaisee par la taille
On suppose que T est integrable, et on pose = E[T]. Soit T

une variable
aleatoire suivant la loi de T biaisee par la taille : pour toute fonction g positive
mesurable
E[g(T

)] =
1

E[Tg(T)] .
1. On suppose que T est de carre integrable. On note
2
sa variance. Calculer
E[T

] et comparer avec E[T].


2. On suppose que la loi de T poss`ede une densite f. Montrer que la loi de T

poss`ede une densite, notee f

, et lidentier.
90
XI.8 2006-2007 : Formule de duplication ; Sondages (I)
3. Si T est une variable aleatoire de loi exponentielle de param`etre , montrer que
T

a meme loi que T +T

o` u T

est une variable aleatoire independante de T


et de meme loi que T. (La loi exponentielle est la seule loi de variable aleatoire
strictement positive `a posseder cette propriete.) En deduire en particulier que
E[T

] = 2E[T].
4. On pose G(a) = E[(T )1
Ta
] pour a 0. Montrer que G est decroissante
sur [0, ] et croissante sur [, [. En deduire que pour tout a 0, G(a) 0
puis que P(T

a) P(T a).
5. Soit Z une variable aleatoire reelle de fonction de repartition F
Z
. On note F
1
Z
linverse generalise de F
Z
: pour p ]0, 1[, F
1
Z
(p) = infx R, F(x) p, o` u
par convention inf = +. (Si F
Z
est continue strictement croissante, alors
F
1
Z
correspond `a linverse de F
Z
.) On admet que
F
Z
(x) p x F
1
Z
(p).
Soit U une variable aleatoire uniforme sur [0, 1]. Montrer en utilisant les fonc-
tions de repartition que F
1
Z
(U) a meme loi que Z.
6. Deduire des deux questions precedentes, quil existe des variables aleatoires

T,
de meme loi que T, et

T

, de meme loi que T

, telles que p.s.



T



T. (On dit
que T

domine stochastiquement T.)


Conclusion
On deduit des deux parties que si les temps ecoules entre les passage de deux
bus consecutifs peuvent etre modelises par des variables aleatoires independantes
de meme loi et de moyenne , alors quand on arrive au hasard `a larret de bus, le
temps moyen ecoule entre le passage du bus precedent et le passage du prochain
bus est plus grand que (et egal `a 2 dans le cas de la loi exponentielle).

XI.8 2006-2007 : Formule de duplication ; Sondages (I)


Exercice XI.13 (Formule de duplication de la fonction ).
Soit X et Y deux variables aleatoires independantes de loi respective (, ) et
( +
1
2
, ) avec > 0 et > 0. On rappelle que la densite de la loi (a, ) est
x
1
(a)

a
x
a1
e
x
1
x>0
o` u (a) =
_

0
x
a1
e
x
dx.
1. Determiner la loi de (

XY ,

Y ).
91
XI Controles `a mi-cours
2. Calculer la loi de

XY . On pourra utiliser legalite suivante :


_

0
e
(v
2
+
u
2
v
2
)
dv =

e
2u
.
3. Reconnatre la loi de

XY (identite en loi due `a S. Wilks


2
). En deduire, en
utilisant (1/2) =

, la formule de duplication de la fonction : (2) =
2
21
()( +
1
2
)
(1/2)
.

Exercice XI.14.
Sondages
3 4
. On consid`ere un sondage pour le deuxi`eme tour de lelection pre-
sidentielle fran caise eectue sur n personnes parmi la population des N elec-
teurs, dont N
A
2 (resp. N
B
2) votent pour le candidat A (resp. B), avec
N = N
A
+ N
B
. Le but du sondage est destimer la proportion, p = N
A
/N, de
personnes qui votent pour A. On se propose de comparer les methodes de sondage
avec remise et de sondage sans remise.
I Sondage avec remise
Dans le sondage avec remise, on suppose que la k-i`eme personne interrogee
est choisie au hasard parmi les N electeurs, independamment des personnes pre-
cedemment choisies. (En particulier, une personne peut etre interrogee plusieurs
fois.) La reponse de la k-i`eme personne interrogee est modelisee par une variable
aleatoire Y
k
: Y
k
= 1 (resp. Y
k
= 0) si la personne interrogee vote pour le candidat
A (resp. B). On estime p `a laide de la moyenne empirique,

Y
n
=
1
n

n
k=1
Y
k
.
1. Donner la loi des variables aleatoires Y
1
, . . . , Y
n
. En deduire la loi de n

Y
n
. Cal-
culer E[

Y
n
] et Var(

Y
n
). Montrer que (

Y
n
, n 1) converge p.s. vers p. Montrer, `a
laide du theor`eme de Slutsky, que (

n(

Y
n
p)/
_

Y
n
(1

Y
n
), n 1) converge
en loi vers une limite que lon precisera.
2. Donner un intervalle de conance sur p de niveau asymptotique 1 . Pour
n = 1000 et = 5%, quelle est la precision (i.e. la demi largeur maximale) de
lintervalle de conance ?
2
S. Wilks, Certain generalizations in the analysis of variance, Biometrika, vol. 24, pp.471-494
(1932)
3
Y. Tille, La theorie des sondages. (2001). Dunod.
4
W. Cochran, Sampling techniques. Thrid ed. (1977). Wiley & Sons.
92
XI.8 2006-2007 : Formule de duplication ; Sondages (I)
II Sondage sans remise
Dans le sondage sans remise, on suppose que la k-i`eme personne interrogee
est choisie au hasard parmi les N k + 1 personnes qui nont pas encore ete
interrogees. La reponse de la k-i`eme personne interrogee est modelisee par une
variable aleatoire X
k
: X
k
= 1 (resp. X
k
= 0) si la personne interrogee vote pour
le candidat A (resp. B). On suppose que 1 n N, et on estime p, `a laide de la
moyenne empirique,

X
n
=
1
n

n
k=1
X
k
.
II.1 Loi faible des grands nombres
1. Montrer que P((X
1
, . . . , X
n
) = (x
1
, . . . , x
n
)) =
N
A
!N
B
!(N n)!
(N
A
s)!(N
B
(n s))!N!
,
o` u s =

n
k=1
x
k
et (x
1
, . . . , x
n
) 0, 1
n
. On precisera les valeurs possibles
pour s.
2. Verier que la loi de (X
(1)
, . . . , X
(n)
) ne depend pas de la permutation de
1, . . . , n.
3. Deduire de la question II.1.2 que E[X
k
] = p pour tout 1 k N, puis E[

X
n
].
4. Calculer E[X
2
1
] et E[X
1
X
2
]. Montrer, en utilisant la question II.1.2 que Var(

X
n
) =
1
n
p(1 p)(1
n 1
N 1
). Que se passe-t-il pour n = N ?
5. Montrer, en utilisant linegalite de Tchebychev, que

X
n
p converge en pro-
babilite vers 0 quand N et n tendent vers linni.
II.2 Theor`eme central limite
Soit (V
k
, k 1) des variables aleatoires independantes de loi de Bernoulli de
param`etre o` u ]0, 1[ est xe. On rappelle que p =
N
A
N
.
1. Montrer que, quand N tend vers linni avec lim
N
N
A
N
= et n reste xe, pour
tout x 0, 1
n
, P((X
1
, . . . , X
n
) = x) converge vers P((V
1
, . . . , V
n
) = x) et en
deduire que (X
1
, . . . , X
n
) converge en loi vers (V
1
, . . . , V
n
).
On admet quil existe C > 0 tels que pour tous 1 n
2
min(N
A
, N
B
) et
(x
1
, . . . , x
n
) 0, 1
n
, on a, avec s =

n
k=1
x
k
,

P
_
(X
1
, . . . , X
n
) = (x
1
, . . . , x
n
)
_
p
s
(1 p)
ns

C
n
2
min(N
A
, N
B
)
p
s
(1 p)
ns
.
(XI.6)
Soit (g
n
, n 1) une suite de fonctions mesurables bornees par M, avec g
n
denie sur R
n
.
93
XI Controles `a mi-cours
2. Montrer [E[g
n
(X
1
, . . . , X
n
)] E[g
n
(Z
1
, . . . , Z
n
)][ MC
n
2
min(N
A
, N
B
)
pour
tout 1 n
2
min(N
A
, N
B
), o` u les variables aleatoires (Z
1
, . . . , Z
n
) sont inde-
pendantes de loi de Bernoulli de param`etre p.
3. En utilisant la majoration
[p
s
(1p)
ns

s
(1)
ns
[
_
[p,]
sx
s
(1x)
ns
dx
x
+
_
[1p,1]
(ns)x
ns
(1x)
s
dx
x
,
avec la convention
_
[a,b]
f(x)dx =
_
max(a,b)
min(a,b)
f(x)dx, montrer que
[E[g
n
(Z
1
, . . . , Z
n
)] E[g
n
(V
1
, . . . , V
n
)][ 2Mn[p [.
4. En deduire que quand N et n tendent vers linni, n
2
/N et n(p ) tendent
vers 0, alors [E[g
n
(X
1
, . . . , X
n
)] E[g
n
(V
1
, . . . , V
n
)][ tend vers 0. (On rappelle
que 0 < < 1.)
5. En deduire que quand N et n tendent vers linni, et n
2
/N et n(p) tendent
vers 0, alors

n(

X
n
)/
_

X
n
(1

X
n
) converge en loi vers une variable alea-
toire gaussienne centree. (On rappelle que 0 < < 1.)
6. Deduire de la question precedente un intervalle de conance sur p de niveau
asymptotique 1 . Quelle est la dierence entre un sondage avec remise et
un sondage sans remise quand N est grand et n
2
/N petit ? Que pensez vous
de la precision dun sondage sans remise pour le deuxi`eme tour de lelection
presidentielle fran caise en 2007 portant sur n = 1 000 personnes (avec N =
44 472 834 inscrits).

XI.9 2007-2008 : Le collectionneur (III) ; Loi de Yule (I)


Exercice XI.15 (Autour du collectionneur).
Votre petit fr`ere collectionne les images des joueurs de la coupe du monde que
lon trouve dans les tablettes de chocolat. On suppose quil existe n 1 images
dierentes et quelles sont equitablement reparties, ` a raison dune par tablette. On
note T
n
le plus petit nombre de tablettes quil faut acheter pour obtenir une image
en double.
1. Donner un mod`ele probabiliste elementaire qui permette detudier T
n
. Montrer
que pour k 1, . . . , n, on a
P(T
n
> k) =
k

i=1
_
1
i 1
n
_
.
94
XI.9 2007-2008 : Le collectionneur (III) ; Loi de Yule (I)
2. Montrer en utilisant les fonctions de repartition que (T
n
/

n, n 1) converge
en loi vers une variable aleatoire X. (On rappelle que log(1 + x) = x + O(x
2
)
au voisinage de 0.)
3. Montrer que la loi de X poss`ede une densite et la calculer.
4. Determiner et reconnatre la loi de X
2
.
5. On consid`ere un groupe de k personnes. On suppose quil ny a pas dannee
bissextile. Donner une approximation de la probabilite, p
k
, pour que deux per-
sonnes du groupe au moins aient la meme date danniversaire ? On traitera les
valeurs suivantes de k : k = 20, k = 40 et k = 366.

Exercice XI.16 (Loi de Yule).


La loi de Yule
5
permet de modeliser de nombreux phenom`enes
6
en economie, so-
ciologie, en biologie ou encore en physique. Par exemple elle permet de representer
la loi du nombre de consultations dune page web, du nombre de personnes vivant
dans une ville, du nombre de publications dun scientique, du nombre doccur-
rences dun mot dans un texte, du salaire (comprendre nombre deuros gagnes)
dun individu, du nombre de disques vendus, ...
Pour illustrer la problematique, on consid`ere le cas du nombre de disques ven-
dus. On fait lhypoth`ese suivante : le n-`eme disque vendu est,
avec probabilite ]0, 1[, celui dun nouvel album (pour lequel aucun disque
navait encore ete vendu).
avec probabilite proportionnelle `a k, celui dun album pour lequel k( 1)
disques ont dej`a ete vendus ;
Alors, le nombre de disques vendus pour un album, pris au hasard parmi les albums
ayant au moins un disque vendu, suit asymptotiquement quand le nombre de
disque vendus est grand la loi de Yule. La premi`ere partie de lexercice permet
de demontrer ce resultat. La deuxi`eme partie de lexercice etudie la loi de Yule.
Les deux parties sont independantes.
I

Etude asymptotique
On consid`ere le mod`ele suivant. On dispose dune innite de botes vides.
`
A
linstant n = 1 on met une boule dans une bote.
`
A linstant n > 1, on met une
nouvelle boule dans une bote vide avec probabilite ]0, 1[. Sinon, on met la
5
U. Yule, A mathematical theory of evolution based on the conclusion of Dr. J. C. Willis,
Philosophical Transactions of the Royal Society (B), 213, 21-87 (1924).
6
Voir par exemple H. Simon, On a class of skew distribution functions, Biometrika, 42, 425-440
(1955).
95
XI Controles `a mi-cours
nouvelle boule dans une bote non vide avec une probabilite proportionnelle au
nombre de boules dans cette boite.
`
A linstant n on dispose de n boules reparties
dans N
n
botes non vides. On note Z
n
= 1 si on met la boule dans une bote vide
`a linstant n 1 et Z
n
= 0 sinon. On a donc N
n
=

n
k=1
Z
k
. Remarquer que
Z
1
= 1.
(Dans lexemple precedent, une bote correspond `a un album et le nombre de
boules dans la bote aux nombre de disques vendus de cet album. Le nombre total
de disques vendus est n, et le nombre dalbums (dierents) vendus est N
n
, Z
n
= 1
si la n-`eme vente est la premi`ere vente dun album.)
1. Donner la loi de (Z
n
, n 2).
2. En deduire que la suite (N
n
/n, n 1) converge en un sens `a preciser vers une
limite que lon determinera.
Pour k N

, on note F
(k)
n
le nombre de botes contenant exactement k boules `a
linstant n.
3. Calculer

n
k=1
kF
(k)
n
,

n
k=1
F
(k)
n
et

n
k=1
E[F
(k)
n
].
Pour n N

, on note Y
n
le nombre de boules `a linstant n1 de la bote `a laquelle
on rajoute la n-`eme boule. En particulier, on a Z
n
= 1 si et seulement si Y
n
= 0.
4. Pour k N

, exprimer F
(k)
n+1
`a laide de F
(k)
n
, 1
Y
n+1
=k1
et de 1
Y
n+1
=k
.
Pour k N

, on pose p
n
(k) =
E[F
(k)
n
]
n
.
5. Montrer que, pour k 2, P(Y
n+1
= k[Z
n+1
= 0) = kp
n
(k).
6. En deduire que (n+1)p
n+1
(1) = np
n
(1) +(1)p
n
(1). Et donner une
relation entre p
n+1
(k), p
n
(k) et p
n
(k 1) pour k 2.
On admet que pour tout k N

, il existe p(k) [0, [ tel que lim


n
p
n
(k) = p(k)
o` u p(k) est une solution stationnaire des equations de la question precedente. En
fait, on peut facilement montrer que pour tout k 1, (F
(k)
n
/n, n 1) converge
en probabilite (et donc en moyenne car F
(k)
n
/n est borne) vers p(k), voir le corrige.
On pose = 1/(1 ).
7. Deduire de ce qui prec`ede que
p(1) = /(1 +), et pour tout k 2, p(k) =
k 1
k +
p(k 1). (XI.7)
II Loi de Yule
On rappelle la denition et quelques proprietes de la fonction : pour tout
a > 0, b > 0,
96
XI.10 2008-2009 : Mathematiques nanci`eres
(a) =
_
R
+
x
a1
e
x
dx, (1) = 1, (a + 1) = a(a)
lim
a
(a)
a
a
1
2
e
a

2
= 1, B(a, b) =
(a)(b)
(a +b)
=
_
]0,1[
x
a1
(1 x)
b1
dx.
Soit (p(k), k N

) deni par (XI.7), avec ]0, [ .


1. Verier que pour k N

, p(k) = B(k, + 1). Montrer que (p(k), k N

)
denit la loi dune variable aleatoire discr`ete `a valeurs dans N

. (Cette loi est


appelee loi de Yule.)
2. Montrer que

i=k
p(i) = B(k, ). Donner un equivalent de p(k) et de

i=k
p(i) quand k tend vers linni. (On dit que la loi de Yule est une loi
en puissance sur N

.)
3. Calculer la moyenne et la variance de la loi de Yule. (On pourra utiliser le
calcul de la moyenne et de la variance de la loi geometrique pour obtenir le
resultat.)

XI.10 2008-2009 : Mathematiques nanci`eres


Exercice XI.17 (Mathematiques pour la nance).
On presente une application du mod`ele de Cox-Ross-Rubinstein
7
qui est une ver-
sion discr`ete du mod`ele de Black-Sholes
8
, mod`ele fondateur en mathematiques
pour la nance. On consid`ere un marche avec un actif sans risque (par exemple un
placement sur un livret) et un actif risque (une action, une obligation, ...) `a des
instants discrets n N. On note
S
0
n
= (1 +r)
n
S
0
0
le prix de lactif sans risque `a linstant n, o` u r represente le taux dinteret xe.
On note S
n
le prix de lactif risque `a linstant n, et on suppose que levolution de
lactif risque est donne par
S
n+1
= X
n+1
S
n
,
o` u les variables aleatoires (X
n
, n N

) sont `a valeurs dans 1 + d, 1 + m avec


1 < d < r < m.
Soit h une fonction positive. Loption h de maturite N promet le gain h(S
N
) `a
linstant N. On peut distinguer deux notions de prix pour cette option :
7
J. C. Cox, S. A. Ross and M. Rubinstein, Option pricing : a simplied approach, Journal of
Financial Economics, 7, 229-263, 1979.
8
Black, F. and M. Scholes, The pricing of options and corporate liabilities, Journal of Political
Economy, 81, nr3, 637-654, 1973.
97
XI Controles `a mi-cours
Le prix du gain moyen espere : E[h(S
N
)]. Ce prix correspond `a un point de
vue speculatif. Il depend de la loi, dite historique, de (X
1
, . . . , X
N
) a priori
non connue. Il ne sera pas considere ici.
Le prix de couverture qui correspond au co ut dune strategie autonancee de
couverture, que nous detaillons dans ce qui suit.
Une strategie est denie par = ((
0
n
,
n
), n 0, . . . , N), o` u
0
n
represente
la quantite dactif sans risque detenu `a linstant n et
n
la quantite dactif risque
detenu `a linstant n. La valeur de la strategie `a linstant n est
V
n
=
0
n
S
0
n
+
n
S
n
. (XI.8)
La strategie est une strategie de couverture pour loption h de maturite N si elle
donne la meme valeur que loption `a la maturite :
V
N
= h(S
N
). (XI.9)
La strategie est dite autonancee si les variations de la valeur de la strategie sont
dues aux variations des actifs : on change `a linstant n la repartition (sans co ut de
transaction) entre actif sans risque et actif risque en fonction des cours observes
jusque l`a, mais on ne rajoute ni ne prel`eve dactifs : pour tout n 0, . . . , N 1
V
n+1
=
0
n
S
0
n+1
+
n
S
n+1
. (XI.10)
Le prix de couverture est V
0
: le co ut `a linstant initial qui permet la mise en uvre
de la strategie autonancee de couverture. Quelque soit levolution de lactif risque,
la strategie autonancee de couverture donne V
N
= h(S
N
) `a la maturite N.
Le but de lexercice est de determiner la strategie autonancee de couverture
et le prix de couverture dune option h de maturite N.
On introduit la probabilite risque
9
neutre P

, et E

lesperance correspondante,
sous laquelle les variables aleatoires (X
n
, n N

) sont independantes et de meme


loi denie par
P

(X
1
= 1 +m) = (r d)/(md) et P

(X
1
= 1 +d) = (mr)/(md).
Soit une option h de maturite N. On pose v(N, s) = h(s) et pour n
0, . . . , N 1,
v(n, s) = (1+r)
N+n
E

_
h(s
N

k=n+1
X
k
)
_
et (n, s) =
1
s
v(n, (1 +m)s) v(n, (1 +d)s)
md
.
Soit une strategie autonancee de couverture pour loption h de maturite N.
9
La probabilite risque neutre est a priori dierente de la probabilite reelle P, dite probabilite
historique.
98
XI.10 2008-2009 : Mathematiques nanci`eres
I Le cas `a une periode : de N 1 `a N
1. Deduire de (XI.9) et (XI.10) les equations suivantes :

0
N1
(1 +r)S
0
N1
+
N1
(1 +m)S
N1
= h((1 +m)S
N1
),

0
N1
(1 +r)S
0
N1
+
N1
(1 +d)S
N1
= h((1 +d)S
N1
).
2. Verier que
N1
= (N, S
N1
).
3. Montrer que V
N1
= v(N 1, S
N1
).
II Le cas general
1. Montrer que pour n 1, . . . , N, on a v(n 1, s) = (1 +r)
1
E

[v(n, sX
n
)].
2. Montrer que, pour n 0, . . . , N 1, on a
V
n
= v(n, S
n
) et
n
= (n + 1, S
n
). (XI.11)
3. En deduire quil existe une unique strategie autonancee de couverture pour
loption h de maturite N. Montrer que le co ut initial de cette strategie, i.e. le
prix de couverture de loption, est
V
0
= (1 +r)
N
E

[h(S
N
)]. (XI.12)
4. Le prix de couverture de loption donne par la strategie autonancee de couver-
ture semble sans risque. Quen pensez vous ? (Repondre en moins de 5 lignes.)
III Call et Put
1. Calculer E

N
k=n+1
X
k
] pour 0 n N 1.
2. Deduire de (XI.12) le prix de couverture de loption qui promet S
N
`a la ma-
turite N. Donner, `a laide de (XI.11), la strategie autonancee de couverture
correspondante.
On note x
+
= max(x, 0) la partie positive de x. Soit K > 0. On consid`ere deux
options tr`es repandues sur les marches nanciers : le Call de strike K et de maturite
N qui promet le gain (S
N
K)
+
`a linstant N, et le Put de strike K et de maturite
N qui promet le gain (K S
N
)
+
`a linstant N. On note C(s, K, N) le prix de
couverture de ce Call et P(s, K, N) le prix de couverture de ce Put quand la
valeur initiale de lactif risque est S
0
= s.
3. Montrer, `a laide de (XI.12), la relation de parite
10
Call-Put :
C(S
0
, K, N) P(S
0
, K, N) = S
0
(1 +r)
N
K.
10
Pour des raisons dabsence darbitrage sur les marches, cette relation est toujours veriee. Les
mod`eles mathematiques sur levolution de lactif risque doivent donc permettre de la retrouver.
99
XI Controles `a mi-cours
4. Montrer la formule du prix du Call :
C(s, K, N) = (1+r)
N
N

k=0
_
N
k
_
(r d)
k
(mr)
Nk
(md)
N
_
(1 +m)
k
(1 +d)
Nk
s K
_
+
.

XI.11 2009-2010 : Transmission de message


Exercice XI.18 (Transmission de message).
On souhaite envoyer un message forme de 0 ou de 1 en utilisant un canal bruite.
Si on envoie un message z = (z
1
, . . . , z
n
) de longueur n par le canal, on re coit le
message y note z+E, o` u E = (E
1
, . . . , E
n
) represente les erreurs et y = (y
1
, . . . , y
m
)
avec : pour 1 i n,
y
i
= z
i
+E
i
mod 2 =
_
z
i
si E
i
= 0,
1 z
i
si E
i
= 1.
(XI.13)
Si on a E
i
= 0 alors le signal z
i
est correctement transmis.
On suppose que les erreurs dues au canal (E
i
, i N

) sont des variables alea-


toires independantes, independantes du message envoye et de meme loi de Bernoulli
de param`etre p ]0, 1/2[. Le param`etre p sinterpr`ete comme la probabilite derreur
du canal.
An dameliorer la qualite de la transmission, on utilise un schema de codage :
on code le message initial de longueur m en un message de longueur n m;
ce message de longueur n est envoye par le canal puis decode en un message de
longueur m.
Plus precisement un schema de codage (ou code) est deni par une fonction de
codage f : 0, 1
m
0, 1
n
, et une fonction de decodage g : 0, 1
n
0, 1
m
.
Un message x 0, 1
m
de longueur m est code par z = f(x), puis transmis par
le canal. On re coit le message bruite f(x) + E = z + E (deni par (XI.13)), o` u
E = (E
1
, . . . , E
n
) represente les erreurs dues au canal. Le message re cu est decode
`a laide de la fonction g : le message re cu est alors x

= g(y(x, E)). Le taux de


transmission du schema de codage est deni par m/n et sa probabilite derreur
par
p
f,g
= P
_
g(f(X) +E) ,= X
_
,
o` u X est de la loi uniforme sur 0, 1
m
et est independant de E. La probabilite
derreur du schema de codage represente la probabilite dobtenir un message ne
correspondant pas au message initial, pour un message initial pris au hasard.
100
XI.11 2009-2010 : Transmission de message
Lobjectif du probl`eme est de montrer que lon peut trouver asymptotiquement
(pour m grand) des schemas de codage dont les probabilites derreur sont arbi-
trairement proches de 0 et dont le taux de transmission peut etre arbitrairement
proche dune constante c
p
denie par (XI.17) non nulle. De plus on peut montrer
que cette constante est optimale. Ces resultats sont dus `a Shannon
11
; il sagit du
theor`eme fondamental de la theorie de linformation.
I Code `a repetition
On suppose m = 1. On choisit le code `a repetition suivant : n = 3, f(x) =
(x, x, x) pour x 0, 1 et la r`egle de la majorite pour le decodage :
g(y
1
, y
2
, y
3
) =
_
0 si y
1
+y
2
+y
3
1,
1 si y
1
+y
2
+y
3
2.
1. Calculer la probabilite derreur du code `a repetition.
2. Donner un code dont la probabilite derreur soit inferieure `a > 0 xe. Que
devient le taux de transmission quand tend vers 0 ?
II Probabilites dev`enements rares
Soit (V
n
, n N

) une suite de variables aleatoires independantes et de meme


loi de Bernoulli de param`etre ]0, 1[. On consid`ere la moyenne empirique

V
n
=
1
n

n
i=1
V
i
. Soit a ], 1[.
1. Expliquer pourquoi intuitivement lev`enement

V
n
> a est un ev`enement rare
cest-` a-dire de faible probabilite.
2. Montrer que pour > 0, on a P(

V
n
a) E
_
e
V
1
_
n
e
an
.
On consid`ere la transformee de Legendre de la log-Laplace de la loi de Bernoulli :

(v) = v log
_
v/
_
+ (1 v) log
_
(1 v)/(1 )
_
, v ]0, 1[. (XI.14)
3. Montrer que la fonction

est strictement convexe sur ]0, 1[, nulle en et


atteint son minimum en .
4. Montrer que
P(

V
n
> a) P(

V
n
a) e
n

(a)
. (XI.15)
5. Deduire de la question precedente que pour b ]0, [ :
P(

V
n
b) e
n

(b)
. (XI.16)
11
C. E. Shannon : A mathematical theory of communication, Bell System Technical Journal, vol.
27, pp. 379-423 and 623-656, 1948.
101
XI Controles `a mi-cours
III Codes presque optimaux
Soit m n. On denit la distance de Hamming sur lensemble 0, 1
n
par :
(y, y

) =
n

i=1

y
i
y

pour y = (y
1
, , y
n
) et y

= (y

1
, , y

n
) 0, 1
n
.
Soit (Z
x
, x 0, 1
m
) une famille de variables aleatoires independantes de
meme loi uniforme sur 0, 1
n
. Soit p < r < 1/2.
1. Soit x 0, 1
m
et z 0, 1
n
. Determiner la loi de (Z
x
, z).
2. Soit x, x

0, 1
m
distincts. Montrer que : pour z 0, 1
n
,
P
_
(Z
x
, Z
x
) nr[Z
x
= z
_
e
n

1/2
(r)
.
Pour x 0, 1
m
, on pose h(x) = P(Il existe x

,= x tel que (Z
x
, Z
x
) nr).
3. Deduire de la question precedente que la fonction h est bornee par 2
m
e
n

1/2
(r)
.
On consid`ere le codage (aleatoire) suivant. La fonction de codage f est denie par
f(x) = Z
x
pour x 0, 1
m
et la fonction de decodage par :
pour y 0, 1
n
, g(y) =
_
x sil existe un unique x 0, 1
m
tel que (Z
x
, y) nr,
0 sinon.
Soit un message aleatoire de longueur m, X, de loi uniforme sur 0, 1
m
et les
erreurs E = (E
1
, . . . , E
n
), o` u les variables aleatoires (E
1
, . . . , E
n
) sont indepen-
dantes de loi Bernoulli de param`etre p, telles que X, E et (Z
x
, x 0, 1
m
) soient
independantes.
4. Montrer que P
_
g(f(X) +E) ,= X
_
E[h(X)] +P((0, E) > nr).
5. Deduire de (XI.15) que P
_
g(f(X) +E) ,= X
_
2
m
e
n

1/2
(r)
+e
n

p
(r)
.
On rappelle (XI.14) et on pose
c
p
=

1/2
(p)
log 2
. (XI.17)
6. Montrer que pour tout > 0, il existe m n (grands) et un codage (deter-
ministe) f, g tels que P
_
g(f(X) + E) ,= X
_
< et c
p
m/n < c
p
. (On
choisira r proche de p.)
7. Conclure.
Il est toutefois dicile en pratique dexhiber des codes optimaux simples `a imple-
menter.

102
XII
Controles de n de cours
XII.1 1999-2000 : Le mod`ele de Hardy-Weinberg
Exercice XII.1.
Soit Y une variable aleatoire de loi (1, 1/2). On rappelle la densite de cette loi :
f
Y
(y) =
1

y
e
y
1
y>0
.
On suppose que la loi conditionnelle de X sachant Y est une loi gaussienne
^
_
0,
1
2Y
_
.
1. Calculer la loi du couple (X, Y ).
2. Calculer et reconnatre la loi conditionnelle de Y sachant X.
3. Calculer E[Y [X].

Exercice XII.2.
Le but de cet exercice est letude simpliee de la repartition dun genotype dans
la population humaine.
On consid`ere un g`ene possedant deux caract`eres a et A. Le genotype dun
individu est donc soit aa, Aa ou AA. On note 1 le genotype aa ; 2 le genotype Aa
et 3 le genotype AA. On sinteresse `a la proportion de la population possedant le
genotype j 1, 2, 3.
I Distribution du genotype : le mod`ele de Hardy-Weinberg
Le but de cette partie est detablir que la repartition du genotype de la popu-
lation est stable `a partir de la premi`ere generation.
XII Controles de n de cours
On consid`ere la generation 0 dune population de grande taille dont les propor-
tions sont les suivantes :
_

_
proportion de aa : u
1
;
proportion de aA : u
2
;
proportion de AA : u
3
.
On suppose les mariages aleatoires et la transmission du g`ene a ou A uniforme.
On note M le genotype de la m`ere, P le genotype du p`ere et E celui de lenfant.
1. Montrer que P(E = aa[M = aA, P = aA) =
1
4
, P(E = aa[M = aa, P = aA) =
1
2
, P(E = aa[M = aA, P = aa) =
1
2
, et P(E = aa[M = aa, P = aa) = 1.
2. Montrer, en precisant les hypoth`eses, que P(E = aa) = u
2
1
+ u
1
u
2
+
1
4
u
2
2
=
_
u
1
+
u
2
2
_
2
.
3. Montrer sans calcul que P(E = AA) =
_
u
3
+
u
2
2
_
2
.
4. On pose donc = u
1
+
u
2
2
. Montrer, sans calcul, que la repartition du genotype
`a la premi`ere generation est
_

_
proportion de aa : q
1
=
2
;
proportion de aA : q
2
= 2(1 );
proportion de AA : q
3
= (1 )
2
.
(XII.1)
5. Calculer la repartition du genotype `a la seconde generation. En deduire que la
repartition (XII.1) est stationnaire au cours du temps.
II Mod`ele probabiliste
On suppose que la taille de la population est grande et que la repartition du
genotype suit le mod`ele de Hardy-Weinberg (XII.1). On dispose dun echantillon
de n personnes. On note X
i
1, 2, 3 le genotype de la i-`eme personne. On a donc
P(X
i
= j) = q
j
. On suppose de plus que les variables aleatoires (X
i
; i 1, . . . , n)
sont independantes. On note
N
j
= N
j
[n] =
n

i=1
1
X
i
=j
, (XII.2)
le nombre de personnes de lechantillon possedant le genotype j.
1. Donner la loi 1
X
i
=j
. En deduire que la loi de N
j
est une binomiale dont on
precisera les param`etres.
2. Donner E[N
j
] et Var(N
j
).
104
XII.1 1999-2000 : Le mod`ele de Hardy-Weinberg
3. Deduire des questions precedentes un estimateur sans biais de q
j
. Est-il
convergent ?
4. Montrer quil est asymptotiquement normal et donner sa variance asympto-
tique.
5. On rappelle que n
1
+n
2
+n
3
= n. Montrer que
P(N
1
= n
1
, N
2
= n
2
, N
3
= n
3
) =
n!
n
1
!n
2
!n
3
!
q
n
1
1
q
n
2
2
q
n
3
3
. (XII.3)
On pourra utiliser que le nombre de partitions dun ensemble `a n elements en
trois sous-ensembles de n
1
, n
2
et n
3
elements est
n!
n
1
!n
2
!n
3
!
.
6. Calculer la matrice de covariance du vecteur (1
X
1
=1
, 1
X
1
=2
). En deduire
Cov(N
1
, N
2
).
7. Donner la limite en loi du couple
_
N
1
[n] nq
1

n
,
N
2
[n] nq
2

n
_
quand n .
III Estimation de `a laide du genotype
On note P

la loi de (N
1
, N
2
, N
3
) denie par lequation (XII.3) de param`etre
]0, 1[.
1. Verier que la log vraisemblance L
n
(n
1
, n
2
, n
3
; ) de lechantillon de loi P

est
L
n
(n
1
, n
2
, n
3
; ) = c + 2n
1
log +n
2
log +n
2
log(1 ) + 2n
3
log(1 ),
o` u c est une constante independante de .
2. Calculer le score de lechantillon.
3. Calculer la derivee du score en . En deduire que linformation de Fisher de
lechantillon de taille n est
I
n
() =
2n
(1 )
.
4. On rappelle que N
1
+N
2
+N
3
= n. Montrer que

n
=
N
1
n
+
N
2
2n
est lestimateur
du maximum de vraisemblance de .
5.

n
est-il sans biais ?
6. Est-il ecace ?
7. Montrer que lestimateur

n
est convergent. Montrer quil est asymptotique-
ment normal et donner sa variance asymptotique. On pourra soit utiliser di-
rectement (XII.2) soit utiliser le resultat de la question II.7.
105
XII Controles de n de cours
IV Tests asymptotiques sur le mod`ele de Hardy-Weinberg
On desire savoir si le mod`ele de Hardy-Weinberg est valide pour certaines ma-
ladies genetiques. On teste donc lhypoth`ese H
0
: la proportion (q
1
, q
2
, q
3
) des
genotypes aa, aA, AA satisfait lequation (XII.1).
1. Donner lestimateur du maximum de vraisemblance de (q
1
, q
2
, q
3
) note ( q
1
, q
2
, q
3
).
2. En deduire que n
3

j=1
( q
j
q
j
(

n
))
2
q
j
converge sous H
0
. Preciser le mode de
convergence et la limite.
3. En deduire un test asymptotique convergent.
4. On etudie la maladie genetique CF. Le genotype aa correspond aux cas pa-
thologiques. Les genotypes aA et AA sont sains. Les valeurs numeriques sui-
vantes sont inspirees de valeurs reelles. Nombre de naissances aux USA en
1999 : n = 3, 88 millions, nombre de nouveau-nes atteints de la maladie CF :
n
1
= 1580, nombre de nouveau-nes portant le g`ene a : n
1
+ n
2
= 152480.
Rejetez-vous le mod`ele au seuil de 5%?
5. On dispose des donnees suivantes sur lhemophilie. Nombre de nouveau-nes
atteints dhemophilie : n
1
= 388, nombre de nouveau-nes portant le g`ene a :
n
1
+ n
2
= 1164. Rejetez vous le mod`ele au seuil de 5%? En fait on sait que
lhemophilie concerne essentiellement la population masculine. Commentaire.

XII.2 2000-2001 : Estimation de la taille dune population


Exercice XII.3.
On desire etudier la repartition des naissances suivant le type du jour de semaine
(jours ouvrables ou week-end) et suivant le mode daccouchement (naturel ou
par cesarienne). Les donnees proviennent du National Vital Statistics Report
et concernent les naissances aux USA en 1997. (On a omis 35 240 naissances pour
lesquelles le mode daccouchement na pas ete retranscrit.)
Naissances Naturelles Cesar. Total
J.O. 2331536 663540 2995076
W.E. 715085 135493 850578
Total 3046621 799033 3845654
Naissances Naturelles Cesar. Total
J.O. 60.6 % 17.3 % 77.9%
W.E. 18.6 % 3.5 % 22.1%
Total 79.2 % 20.8 % 100.0%
On note p
J,N
la probabilite quun bebe naisse un jour ouvrable et sans ce-
sarienne, p
W,N
la probabilite quun bebe naisse un week-end et sans cesarienne,
p
J,C
la probabilite quun bebe naisse un jour ouvrable et par cesarienne, p
W,C
la
probabilite quun bebe naisse un week-end et par cesarienne.
106
XII.2 2000-2001 : Estimation de la taille dune population
1. Rappeler lestimateur du maximum de vraisemblance de p = (p
J,N
, p
W,N
, p
J,C
, p
W,C
).
2.
`
A laide dun test du
2
, pouvez-vous accepter ou rejeter lhypoth`ese dinde-
pendance entre le type du jour de naissance (jour ouvrable ou week-end) et le
mode daccouchement (naturel ou cesarienne) ?
3. On desire savoir sil existe une evolution signicative dans la repartition des
naissances par rapport `a 1996.
`
A laide dun test du
2
, pouvez-vous accepter
ou rejeter lhypoth`ese p = p
0
, o` u p
0
correspond aux donnees de 1996 ? On
donne les valeurs suivantes pour p
0
:
Naissances Naturelles Cesariennes
J.O. 60.5 % 17.0 %
W.E. 18.9 % 3.6 %

Exercice XII.4.
On desire estimer le nombre inconnu N de chevreuils vivant dans une foret. Dans
une premi`ere etape, on capture `a laide de pi`eges n
0
chevreuils que lon marque `a
laide de colliers, puis on les rel ache. Dans une deuxi`eme etape, des observateurs se
rendent en plusieurs points de la foret et comptent le nombre de chevreuils quils
voient. Un chevreuil peut donc etre compte plusieurs fois. Parmi les n chevreuils
comptabilises, m portent un collier. On suppose quentre la premi`ere et la deuxi`eme
etape, la population de chevreuils na pas evolue, et que les chevreuils avec ou
sans collier ont autant de chance detre vus. Enn, on suppose que les chevreuils
ne peuvent pas perdre les colliers. Le but de ce probl`eme est de construire un
estimateur de N.
I Modelisation
On note X
i
= 1 si le i
`eme
chevreuil vu porte un collier et X
i
= 0 sinon. On
dispose donc de lechantillon X
1
, . . . , X
n
.
1. Au vu des hypoth`eses du mod`ele, quelle est la loi des variables aleatoires
X
1
, . . . , X
n
?
2. Verier que la densite de la loi de X
1
est p(x
1
; p) = p
x
1
(1 p)
1x
1
, avec
x
1
0, 1.
On a p =
n
0
N
]0, 1[. Comme n
0
est connu, chercher un estimateur de N revient
`a chercher un estimateur de 1/p.
3. Quelle est la densite de lechantillon ?
4. Montrer que S
n
=

n
i=1
X
i
est une statistique exhaustive. Quelle est la loi de
S
n
? On admet que la statistique S
n
est totale.
107
XII Controles de n de cours
5. Soit h une fonction denie sur 0, . . . , n. Verier que lim
p0
E
p
[h(S
n
)] = h(0).
En deduire quil nexiste pas destimateur de 1/p, fonction de S
n
, qui soit sans
biais.
6. Montrer alors quil nexiste pas destimateur de 1/p sans biais.
II Estimation asymptotique
1. Montrer que
_
n + 1
S
n
+ 1
, n N

_
est une suite destimateurs convergents de 1/p.
2. Quel est le biais de lestimateur
n + 1
S
n
+ 1
deni par E
_
n + 1
S
n
+ 1
_

1
p
?
3. Determiner le mode de convergence et la limite de la suite
_

n
_
S
n
n
p
_
, n N

_
.
4. Verier que la suite
_

n
_
S
n
+ 1
n + 1

S
n
n
_
, n N

_
converge presque s urement
vers 0. En deduire que
_
S
n
+ 1
n + 1
, n N

_
est une suite destimateurs conver-
gente de p asymptotiquement normale.
5. En deduire que la suite destimateurs de substitution
_
n + 1
S
n
+ 1
, n N

_
est
asymptotiquement normale de variance asymptotique s
2
=
(1 p)
p
3
.
6. Calculer le score et linformation de Fisher de lechantillon de taille 1. La suite
destimateurs
_
n + 1
S
n
+ 1
, n N

_
est-elle asymptotiquement ecace ?
III Intervalle de conance
1. Donner un estimateur convergent de s
2
. En deduire un intervalle de conance
asymptotique `a 95% de 1/p.
2. Les donnees numeriques suivantes proviennent dun site detudes au Danemark
dans les annees 1960 (cf le livre de Seber : The estimation of animal abundance,
page 110). On a n
0
= 74, n = 462 et m = 340. Donner une estimation de 1/p
puis de N.
3. Donner un intervalle de conance asymptotique de niveau 95% de 1/p puis de
N.
108
XII.3 2001-2002 : Comparaison de traitements
IV Tests
1. On consid`ere lhypoth`ese nulle H
0
= p = p
0
, o` u p
0
= n
0
/N
0
, et lhypoth`ese
alternative H
1
= p = p
1
, o` u p
1
= n
0
/N
1
. On suppose N
1
> N
0
. Calculer le
rapport de vraisemblance Z(x), o` u x 0, 1
n
. Determiner la statistique de
test.
2. Decrire le test UPP de niveau `a laide de S
n
.
3. Ce test est-il UPP pour tester H
0
= N = N
0
contre H
1
= N > N
0
?
4. On reprend les donnees numeriques du paragraphe precedent. On consid`ere
lhypoth`ese nulle H
0
= N = 96 contre son alternative H
1
= N 97.
Rejetez-vous H
0
au niveau = 5%?
On utilisera les valeurs suivantes (p
0
= 74/96) :
c 338 339 340 341 342
P
p
0
(S
n
c) 0.0270918 0.0344991 0.0435125 0.0543594 0.0672678

XII.3 2001-2002 : Comparaison de traitements


Exercice XII.5.
On consid`ere une population de souris en presence de produits toxiques. Le temps
dapparition, en jour, des eets dus aux produits toxiques est modelise par une
variable aleatoire T qui suit une loi de type Weibull :

(t) = P

(T > t) = e
(tw)
k
pour t w, et

F

(t) = 1 pour t < w.


Le param`etre w 0 correspond `a la periode de latence des produits toxiques. Le
param`etre k > 0 est lie `a levolution du taux de mortalite des souris en fonction
de leur age. Enn le param`etre > 0 correspond plus directement `a la sensibilite
des souris aux produits toxiques. En particulier, on pense quun pre-traitement de
la population des souris permet de modier le param`etre . On consid`ere que les
param`etres w et k sont connus, et que seul le param`etre est inconnu.
I Lestimateur du maximum de vraisemblance de
1. Calculer la densite f

de la loi de T.
2. Soit T
1
, . . . , T
n
un echantillon de taille de n de variables aleatoires indepen-
dantes de meme loi que T. Donner la densite p

n
(t; ) de lechantillon o` u
t = (t
1
, . . . , t
n
) ]w, +[
n
.
109
XII Controles de n de cours
3. Calculer la log-vraisemblance de lechantillon, puis

n
, lestimateur du maxi-
mum de vraisemblance de .
4. Calculer linformation de Fisher I

() de lechantillon de taille 1 associee `a .


5. Calculer E

[(T w)
k
] et E

[(T w)
2k
]. On pourra utiliser la fonction denie
par
() =
_

0
x
1
e
x
dx, > 0.
On rappelle que si est entier, alors () = ( 1)!.
6. En deduire que lestimateur du maximum de vraisemblance est un estimateur
convergent et asymptotiquement normal de .
7. Calculer la variance asymptotique de

n
. Et verier que lestimateur du maxi-
mum de vraisemblance est asymptotiquement ecace.
8. On a les n = 17 observations suivantes :
143, 164, 188, 188, 190, 192, 206, 209, 213, 216, 220, 227, 230, 234, 246, 265, 304.
On suppose w = 100 et k = 3. Donner une estimation de et un intervalle
de conance asymptotique `a 95%. On donne la valeur de

n
i=1
(t
i
100)
3
=
33 175 533.
II Donnees censurees
En fait parmi les souris, certaines sont retirees de la population observee pour
diverses raisons (maladie, blessure, analyse) qui ne sont pas liees `a lapparition
des eets dus aux produits toxiques. Pour une souris donnee, on nobserve pas T
le temps dapparition des premiers eets mais R = T S (on utilise la notation
ts = min(t, s)), o` u S est le temps aleatoire o` u la souris est retiree de la population
etudiee. On observe egalement la variable X denie par X = 0 si T > S (la souris
est retiree de la population etudiee avant que les eets dus aux produits toxiques
soient observes sur cette souris) et X = 1 si T S (les eets apparaissent sur
la souris avant que la souris soit retiree de la population). On suppose que les
variables T et S sont independantes. On suppose aussi que S est une variable
aleatoire continue de densite g, et g(x) > 0 si x > 0. On consid`ere la fonction

G(s) = P(S > s) =


_

s
g(u) du, s R.
Les fonctions

G et g sont inconnues et on ne cherche pas `a les estimer. En revanche
on desire toujours estimer le param`etre inconnu .
1. Quelle est la loi de X ? On note p = P

(X = 1).
110
XII.3 2001-2002 : Comparaison de traitements
2. Calculer P

(R > r, X = x), o` u x 0, 1 et r R. La densite des donnees


censurees p(r, x; ) est la densite de la loi de (R, X). Elle est denie par
pour tout r R,
_

r
p(u, x; ) du = P

(R > r, X = x).
Verier que p(r, x; ) =
x
e
[(rw)
k
+
]
c(r, x), o` u z
+
= z1
z>0
designe la partie
positive de z et o` u la fonction c est independante de .
3. Soit (R
1
, X
1
), . . . , (R
n
, X
n
) un echantillon de taille n de variables aleatoires
independantes de meme loi que (R, X). Cet echantillon modelise les donnees
censurees. On note N
n
=

n
i=1
X
i
. Que represente N
n
?
4. Calculer lestimateur du maximum de vraisemblance

n
de . Quelle est la
dierence avec lestimateur

n
deni precedemment ?
5. Montrer que p
n
= N
n
/n est un estimateur sans biais convergent de p.
6. Determiner pour les donnees censurees I(), linformation de Fisher de pour
lechantillon de taille 1.
7. On admet dorenavant que lestimateur du maximum de vraisemblance est un
estimateur convergent asymptotiquement ecace (voir la partie IV). Deduire
des questions precedentes un estimateur convergent de I().
8. En fait dans la partie I on na pas tenu compte des donnees censurees corres-
pondant `a X
i
= 0, cest-` a-dire `a lobservation de S
i
et non de T
i
. Il sagit des 2
valeurs supplementaires suivantes : 216 et 244. On suppose toujours w = 100 et
k = 3. Donner une estimation de et un intervalle de conance asymptotique
`a 95%. On donne la valeur de

n+2
i=n+1
(s
i
100)
3
= 4 546 880. Comparer le
resultat obtenu `a celui de la partie precedente (centre et largeur de lintervalle
de conance)
9. Verier que dans ce mod`ele, si lon tient compte de souris supplementaires
i n + 1, . . . , n + m qui sont retirees avant linstant w, alors la densite de
lechantillon est multipliee par une quantite qui est independante de . Verier
que

n+m
=

n
et que lestimation de linformation de Fisher de lechantillon
de taille n, nI() et de lechantillon de taille n + m, (n + m)I() sont egales.
En particulier lintervalle de conance asymptotique de reste inchange.
III Comparaison de traitements
On desire comparer linuence de deux pre-traitements A et B eectues avant
lexposition des souris aux produits toxiques. On note
A
le param`etre de la
loi de T correspondant au pre-traitement A et
B
celui correspondant au pre-
traitement B. On desire donc etablir une procedure pour comparer
A
et
B
. On
111
XII Controles de n de cours
note (R
A
1
, X
A
1
), . . . , (R
A
n
A
, X
A
n
A
) les donnees censurees de la population de n
A
souris
ayant subi le pre-traitement A et (R
B
1
, X
B
1
), . . . , (R
B
n
B
, X
B
n
B
) les donnees censurees
de la population de n
B
souris ayant subi le pre-traitement B. On suppose de plus
que les variables (R
j
i
, X
j
i
), o` u 1 i n et j A, B, sont independantes. On
suppose dans un premier temps que les deux populations ont le meme nombre
dindividus n = n
A
= n
B
. On note Z
i
= (R
A
i
, X
A
i
, R
B
i
, X
B
i
) pour i 1, . . . , n.
1. Donner la densite de Z
1
et de lechantillon Z
1
, . . . , Z
n
.
2. Donner lestimateur du maximum de vraisemblance (

A
n
,

B
n
) du param`etre
(
A
,
B
).
3. On note
p
A
= P
(
A
,
B
)
(X
A
1
= 1) et p
B
= P
(
A
,
B
)
(X
B
1
= 1).
Donner linformation de Fisher I(
A
,
B
) pour lechantillon de taille 1. Verier
que la matrice I(
A
,
B
) est diagonale.
4. Sous lhypoth`ese H
0
=
A
=
B
donner lestimateur du maximum de vrai-
semblance

n
de =
A
=
B
.
5. Donner deux tests asymptotiques convergents pour tester lhypoth`ese nulle H
0
contre lhypoth`ese alternative H
1
=
A
,=
B
construits `a laide du test de
Hausman.
6. Donner un estimateur convergent de p
j
construit `a partir de N
j
n
=

n
i=1
X
j
i
,
pour j A, B. En deduire un estimateur,

I
n
, convergent de la fonction
I : (
A
,
B
) I(
A
,
B
).
7. Verier que si lon rajoute dans chaque population m
A
et m
B
souris virtuelles
qui auraient ete retirees avant linstant w, alors cela multiplie la densite de
lechantillon par une constante independante du param`etre (
A
,
B
). Verier
que les estimateurs de
A
,
B
, et de la fonction I restent inchanges. On admet
que lon peut remplacer dans les tests precedents la fonction I par la fonction

I
n
et que lon peut ajouter des souris virtuelles sans changer les proprietes des
tests (convergence, region critique et niveau asymptotique).
8. Dans le cas o` u la taille n
A
de la population A est plus petite que la taille n
B
de la population B, on compl`ete la population A par n
B
n
A
souris virtuelles
qui auraient ete retirees avant linstant w. Les donnees de lechantillon A cor-
respondent `a celles de la partie precedente. Les donnees de lechantillon B sont
les suivantes. La population comporte n
B
= 21 souris dont
19 souris pour lesquelles les eets des produits toxiques ont ete observes aux
instants t
i
:
142, 156, 163, 198, 205, 232, 232, 233, 233, 233, 233,
239, 240, 261, 280, 280, 296, 296, 323,
112
XII.3 2001-2002 : Comparaison de traitements
avec

19
i=1
(t
i
100)
3
= 64 024 591,
2 souris qui ont ete retirees de lexperience aux instants s
i
: 204 et 344, avec

2
i=1
(s
i
100)
3
= 15 651 648.
Calculer

A
n
,

B
n
, et

n
. Les pre-traitements A et B sont-ils dierents ?
9. Donner des intervalles de conance J
A
n
A
pour
A
et J
B
n
B
pour
B
tels que
la conance asymptotique sur les deux intervalles soit dau moins 95% (i.e.
P
(
A
,
B
)
(
A
J
A
,
B
J
B
) 95%). Retrouvez-vous la conclusion de la ques-
tion precedente ?
IV Proprietes asymptotiques de lestimateur

n
(Facultatif)
1. Exprimer p comme une integrale fonction de f

et

G.
2. Calculer P

(R > r) en fonction de

F

et

G. En deduire la densite de la loi de
R.
3. Montrer `a laide dune integration par partie, que E

[(R w)
k
+
] = p/.
4. Montrer directement que

n
est un estimateur convergent de .
5. On pose = E

[1
X=1
(Rw)
k
+
]. Verier `a laide dune integration par partie
que E

[(R w)
2k
+
] = 2/.
6. Donner la matrice de covariance du couple ((R w)
k
+
, X).
7. Montrer que lestimateur

n
est asymptotiquement normal et donner sa va-
riance asymptotique.
8. Verier que lestimateur

n
est asymptotiquement ecace.
Les donnees numeriques proviennent de larticle de M. Pike, A method of
analysis of a certain class of experiments in carcinogenesis (Biometrics, Vol. 22,
p. 142-161 (1966)).
Remarque sur la loi de T. Dans lexemple considere, on suppose que chaque
cellule de lorgane sensible aux produits toxiques se comporte de mani`ere indepen-
dante. Le temps T apparat donc comme le minimum des temps

T
k
dapparition
des eets dans la cellule k. La loi de

T
k
est inconnue a priori. Mais la theorie des va-
leurs extremes permet de caracteriser la loi limite de min
1kK

T
k
, eventuellement
renormalisee, quand K . En particulier les lois de type Weibull apparaissent
comme loi limite.

113
XII Controles de n de cours
XII.4 2002-2003 : Ensemencement des nuages
Exercice XII.6.
Il existe deux types de nuages qui donnent lieu `a des precipitations : les nuages
chauds et les nuages froids. Ces derniers poss`edent une temperature maximale de
lordre de -10rC `a -25rC. Ils sont composes de cristaux de glace et de gouttelettes
deau. Ces gouttelettes deau subsistent alors que la temperature ambiante est
inferieure `a la temperature de fusion. On parle deau surfondue. Leur etat est
instable. De fait, quand une particule de glace rencontre une gouttelette deau,
elles saggr`egent pour ne former quune seule particule de glace. Les particules
de glace, plus lourdes que les gouttelettes, tombent sous laction de la gravite.
Enn si les temperatures des couches dair inferieures sont susamment elevees,
les particules de glace fondent au cours de leur chute formant ainsi de la pluie.
En labsence dun nombre susant de cristaux de glace pour initier le phe-
nom`ene decrit ci-dessus, on peut injecter dans le nuage froid des particules qui
ont une structure cristalline proche de la glace, par exemple de liodure dargent
(environ 100 `a 1000 grammes par nuage). Autour de ces particules, on observe la
formation de cristaux de glace, ce qui permet, on lesp`ere, de declencher ou daug-
menter les precipitations. Il sagit de lensemencement des nuages. Signalons que
cette methode est egalement utilisee pour limiter le risque de grele.
Il est evident que la possibilite de modier ainsi les precipitations presente
un grand interet pour lagriculture. De nombreuses etudes ont ete et sont encore
consacrees `a letude de lecacite de lensemencement des nuages dans divers pays.
Letude de cette ecacite est cruciale et delicate. Le debat est encore dactualite.
Lobjectif du probl`eme qui suit est detablir `a laide des donnees concernant len-
semencement des nuages en Floride (1975)
1
si lensemencement par iodure dargent
est ecace ou non.
On dispose des donnees des volumes de pluie deversees en 10
7
m
3
(cf. les deux
tableaux ci-dessous) concernant 23 jours similaires dont m = 11 jours avec ense-
mencement correspondant aux realisations des variables aleatoires X
1
, . . . , X
m
et
n = 12 jours sans ensemencement correspondant aux realisations des variables
aleatoires Y
1
, . . . , Y
n
. On suppose que les variables aleatoires X
1
, . . . , X
m
ont
meme loi, que les variables aleatoires Y
1
, . . . , Y
n
ont meme loi, et que les variables
X
1
, . . . , X
m
, Y
1
, . . . , Y
n
sont toutes independantes.
On considerera divers mod`eles pour la quantite deau deversee par les nuages.
Et lon construira des statistiques de tests et des regions critiques pour tester
lhypoth`ese nulle
H
0
= lensemencement naccrot pas de mani`ere sensible la quantite deau deversee,
1
William L. Woodley, Joanne Simpson, Ronald Biondini, Joyce Berkeley, Rainfall results, 1970-
1975 : Florida Area Cumuls Experiment, Science, Vol 195, pp. 735-742, February 1977.
114
XII.4 2002-2003 : Ensemencement des nuages
i 1 2 3 4 5 6 7 8 9 10 11
Xi 7.45 4.70 7.30 4.05 4.46 9.70 15.10 8.51 8.13 2.20 2.16
Tab. XII.1. Volume de pluie en 10
7
m
3
deversee avec ensemencement
j 1 2 3 4 5 6 7 8 9 10 11 12
Yj 15.53 10.39 4.50 3.44 5.70 8.24 6.73 6.21 7.58 4.17 1.09 3.50
Tab. XII.2. Volume de pluie en 10
7
m
3
deversee sans ensemencement
contre lhypoth`ese alternative
H
1
= lensemencement accrot de mani`ere sensible la quantite deau deversee.
I Mod`ele gaussien `a variance connue
On suppose que Y
j
suit une loi gaussienne ^(,
2
0
), o` u R est inconnu et

2
0
= 13.
1. Calculer
n
lestimateur du maximum de vraisemblance de . Est-il biaise ?
2. Donner la loi de
n
. En deduire un intervalle de conance exact de de niveau
1 . Application numerique avec = 5%.
3. Montrer directement que
n
est un estimateur convergent de .
On suppose que X
i
suit une loi gaussienne ^(,
2
0
), o` u est inconnu. Lhypoth`ese
nulle secrit dans ce mod`ele H
0
= = et lhypoth`ese alternative H
1
= > .
On consid`ere le mod`ele complet forme des deux echantillons independants
X
1
, . . . , X
m
et Y
1
, . . . , Y
n
.
4.

Ecrire la vraisemblance et la log-vraisemblance du mod`ele complet.
5. Calculer
m
, lestimateur du maximum de vraisemblance de . Verier que
lestimateur du maximum de vraisemblance de est bien
n
.
6. Donner la loi de (
m
,
n
).
7. On consid`ere la statistique de test
T
(1)
m,n
=
_
mn
m+n

m

n

0
.
Donner la loi de T
(1)
m,n
. En particulier, quelle est la loi de T
(1)
m,n
sous H
0
?
8. Montrer que pour tout > , presque s urement, on a
lim
min(m,n)
T
(1)
m,n
= +.
115
XII Controles de n de cours
9. Deduire des questions precedentes un test convergent de niveau . Determiner
la region critique exacte.
10. On choisit = 5%. Rejetez vous lhypoth`ese nulle ? On appelle p-valeur, la
plus grande valeur p telle que pour tout < p, alors on accepte H
0
au niveau
. Cest aussi la plus petite valeur p telle que pour tout > p, alors on rejette
H
0
au niveau . Calculer p
1
la p-valeur du mod`ele.
II Mod`ele non parametrique de decalage
On note F la fonction de repartition de X
i
et G la fonction de repartition de
Y
j
. On suppose que F(x +) = G(x), o` u est le param`etre de decalage inconnu.
En particulier, X
i
a meme loi que Y
j
+ . On suppose de plus que X
i
(et donc
Y
j
) poss`ede une densite f. On ne fait pas dhypoth`ese sur la forme de la densite ;
on parle alors de mod`ele non-param`etrique. Lhypoth`ese nulle dans ce mod`ele est
donc H
0
= = 0 et lhypoth`ese alternative H
1
= > 0. On consid`ere la
statistique de Mann et Whithney :
U
m,n
=
m

i=1
n

j=1
1
Y
j
X
i

.
On pose p = E[1
Y
j
X
i

], et il vient E[U
m,n
] = mnp. On rappelle que
Var(U
m,n
) = mn
2

+m
2
n

+mn(p p
2

),
avec

0 et

0. De plus si p , 0, 1 (cas non degenere), alors au moins lun


des deux termes

ou

est strictement positif. On suppose p ]0, 1[. On pose


Z
m,n
=
U
m,n
mnp
_
Var(U
m,n
)
.
On rappelle que si min(m, n) tend vers linni, alors la suite (Z
m,n
, m 1, n 1)
converge en loi vers la loi gaussienne centree reduite ^(0, 1).
On rapelle que sous H
0
(i.e. X
i
et Y
j
ont meme loi), on a
p = 1/2 et Var(U
m,n
) =
mn(m+n + 1)
12
.
On admet que la loi de U
m,n
sous H
0
ne depend pas de F. On admet que sous H
1
,
on a p > 1/2. Le cas p = 1 etant degenere, on supposera donc que sous H
1
, on a
p ]1/2, 1[.
On consid`ere la statistique de test
T
(2)
m,n
=
U
m,n

mn
2
_
mn(m+n+1)
12
.
116
XII.5 2003-2004 : Comparaison de densite osseuse
1. Montrer que
T
(2)
m,n
> a = Z
m,n
> b
m,n
,
o` u lon determinera b
m,n
. Verier que sous H
1
, on a lim
min(m,n)
b
m,n
= .
2. En deduire, que sous H
1
, on a pour tout a > 0, lim
min(m,n)
P(T
(2)
m,n
> a) = 1.
3. Deduire des questions precedentes un test asymptotique convergent de niveau
. Ce test est le test de Mann et Whithney.
4. On choisit = 5%. Rejetez vous lhypoth`ese nulle ? Calculer p
2
la p-valeur du
mod`ele.
III Mod`ele non parametrique general
On note F la fonction de repartition de X
i
et G la fonction de repartition de Y
j
.
On suppose que F et G sont des fonctions continues. On desire tester lhypoth`ese
nulle H
0
= F = G contre son alternative H
1
= F ,= G. On consid`ere la
statistique de test
T
(3)
m,n
=
_
mn
m+n
sup
xR

1
m
m

i=1
1
X
i
x

1
n
n

j=1
1
Y
j
x

.
1. Donner un test asymptotique convergent de niveau construit `a partir de T
(3)
m,n
.
2. On choisit = 5%. On observe la realisation de T
(3)
m,n
: t
(3)
m,n
= 0.5082. Re-
jetez vous lhypoth`ese nulle ? Calculer p
3
la p-valeur du mod`ele. On donne
quelques valeurs de la fonction de repartition K de la loi limite de T
(3)
m,n
quand
min(m, n) sous H
0
:
x 0.519 0.571 0.827 1.223 1.358
K(x) 0.05 0.10 0.50 0.90 0.95
IV Conclusion
Lexperience densemencement des nuages pratiquee en Floride est-elle concluante ?

XII.5 2003-2004 : Comparaison de densite osseuse


Exercice XII.7.
Des medecins
2
de luniversite de Caroline du Nord ont etudie lincidence de lac-
tivite physique sur les fractures osseuses chez les femmes agees de 55 `a 75 ans en
2
M. Paulsson, N. Hironori, Age- and gender-related changes in the cellularity of human bone.
Journal of Orthopedic Research 1985 ; Vol. 3 (2) ; pp. 779-784.
117
XII Controles de n de cours
comparant la densite osseuse de deux groupes de femmes. Un groupe est constitue
de femmes physiquement actives (groupe 1 de n = 25 personnes), et lautre de
femmes sedentaires (groupe 2 de m = 31 personnes). Les mesures pour chaque
groupe sont presentees ci-dessous.
Groupe 1
213 207 208 209 232
202 217 184 203 216
219 211 214 204 210
207 212 212 245 226
227 230 214 210 221
Groupe 2
201 173 208 216 204 210
205 217 199 185 201 211
201 187 209 162 207 213
208 202 209 192 202 219
205 214 203 176 206 194
213
On souhaite repondre `a la question suivante : La densite osseuse chez les femmes
du groupe 1 est-elle signicativement superieure `a celle des femmes du groupe 2 ?
I Le mod`ele
On note X
i
(resp. Y
i
) la densite osseuse de la i-`eme femme du groupe 1 (resp.
du groupe 2) et x
i
(resp. y
i
) lobservation correspondant `a une realisation de X
i
(resp. Y
i
). On suppose que les variables (X
i
, i 1) sont independantes de loi
gaussienne de moyenne
1
et de variance
2
1
, que les variables (Y
j
, j 1) sont
independantes de loi gaussienne de moyenne
2
et de variance
2
2
, et enn que
les groupes sont independants i.e. les variables (X
i
, i 1) et (Y
j
, j 1) sont
independantes. On note n la taille du groupe 1 et m celle du groupe 2. On note
= (
1
,
1
,
2
,
2
) = R R

+
R R

+
le param`etre du mod`ele.
1. Decrire simplement, pour ce mod`ele, les hypoth`eses nulle et alternative corres-
pondant `a la question posee.
On pose

X
n
=
1
n
n

i=1
X
i
, V
n
=
1
n 1
n

i=1
(X
i


X
n
)
2
=
n
n 1
_
1
n
n

i=1
X
2
i


X
2
n
_
,
et

Y
m
=
1
m
m

j=1
Y
j
, W
m
=
1
m1
m

j=1
(Y
j


Y
m
)
2
=
m
m1
_
_
1
m
m

j=1
Y
2
j


Y
2
m
_
_
.
2. Donner la loi de (X
1
, . . . , X
n
, Y
1
, . . . , Y
m
).
118
XII.5 2003-2004 : Comparaison de densite osseuse
3. Rappeler (sans demonstration) la loi de
_

X
n
,
n 1

2
1
V
n
_
.
4. Deduire des deux questions precedentes la loi du couple
_
n 1

2
1
V
n
,
m1

2
2
W
m
_
.
Calculer la loi de
n 1

2
1
V
n
+
m1

2
2
W
m
.
5. Rappeler E

[

X
n
]. En deduire un estimateur sans biais de
1
, puis un estimateur
sans biais de
2
. Ces estimateurs sont-ils convergents ?
6. Rappeler E

[V
n
]. En deduire un estimateur sans biais de
2
1
, puis un estimateur
sans biais de
2
2
. Ces estimateurs sont-ils convergents ?
On donne les valeurs numeriques (`a 10
3
pr`es) correspondant aux observations :
n = 25, x
n
= 214.120, v
n
= 142.277, (XII.4)
m = 31, y
m
= 201.677, w
m
= 175.959. (XII.5)
II Simplication du mod`ele
An de simplier le probl`eme, on desire savoir si les variances
2
1
et
2
2
sont
signicativement dierentes. Pour cela, on construit dans cette partie un test asso-
cie `a lhypoth`ese nulle H
0
=
1
=
2
,
1
R,
2
R et lhypoth`ese alternative
H
1
=
1
,=
2
,
1
R,
2
R.
On consid`ere la statistique de test
Z
n,m
=
V
n
W
m
.
1. Verier que la loi de Z
n,m
sous H
0
est une loi de Fisher-Snedecor dont on
precisera les param`etres.
2. Quelles sont les limites de (Z
n,m
, n 2, m 2) sous H
0
et sous H
1
quand
min(n, m) ?
Soit
1
,
2
]0, 1/2[, et a
n,m,
1
(resp. b
n,m,
2
) le quantile dordre
1
(resp. 1
2
)
de F
n,m
de loi de Fisher-Snedecor de param`etre (n, m) i.e.
P(F
n,m
a
n,m,
1
) =
1
(resp. P(F
n,m
b
n,m,
2
) =
2
).
On admet les convergences suivantes
lim
min(n,m)
a
n,m,
1
= lim
min(n,m)
b
n,m,
2
= 1. (XII.6)
119
XII Controles de n de cours
3. Montrer que le test pur de region critique Z
n,m
,]a
n1,m1,
1
, b
n1,m1,
2
[
est un test convergent, quand min(n, m) , pour tester H
0
contre H
1
.
Determiner son niveau, et verier quil ne depend pas de n et m.
4. On choisit usuellement
1
=
2
. Determiner, en utilisant les tables en n de
probl`eme, la region critique de niveau = 5%. Conclure en utilisant les valeurs
numeriques du paragraphe precedent.
5. Calculer la p-valeur du test (la p-valeur est linmum des valeurs de qui per-
mettent de rejeter H
0
, cest aussi le supremum des valeurs de qui permettent
daccepter H
0
). Aner la conclusion.
6. (Facultatif)

Etablir les convergences (XII.6).
III Comparaison de moyenne
On suppose dorenavant que
1
=
2
, et on note la valeur commune (inconnue).
On note H
0
=
1
=
2
, > 0 et H
1
=
1
>
2
, > 0. On pose
S
n,m
=
(n 1)V
n
+ (m1)W
m
n +m2
,
et on consid`ere la statistique de test
T
n,m
=
_
nm
n +m

X
n


Y
m
_
S
n,m
.
1. Deduire de la partie I la loi de
n +m2

2
S
n,m
, et la limite de la suite (S
n,m
, n
2, m 2) quand min(n, m) .
2. Deduire de la partie I la loi de
1

_
nm
n +m
(

X
n


Y
m
).
3. Verier que sous H
0
, la loi de T
n,m
est une loi de Student dont on precisera les
param`etres.
4. Quelle est la limite sous H
1
de la suite (

X
n


Y
m
, n 1, m 1) quand
min(n, m) .
5. En deduire sous H
1
la valeur de lim
min(n,m)
T
n,m
.
6. Construire un test pur convergent quand min(n, m) de niveau pour
tester H
0
contre H
1
.
7. On choisit = 5%. Quelle est la conclusion avec les donnees numeriques de la
n de la partie I ?
8. Donner, en utilisant les tables `a la n de ce probl`eme, une valeur approchee de
la p-valeur associee `a ce test, et aner la conclusion.
120
XII.5 2003-2004 : Comparaison de densite osseuse
IV (Facultatif) Variante sur les hypoth`eses du test
On reprend les notations de la partie III.
1. On ne presuppose pas que
1

2
. On consid`ere donc, au lieu de H
1
, lhypo-
th`ese alternative H

1
=
1
,=
2
, > 0. Quelles sont sous H

1
les valeurs de
lim
min(n,m)
T
n,m
?
2. En sinspirant des questions de la partie III, construire un test pur convergent
pour tester H
0
contre H

1
et donner une valeur approchee de sa p-valeur.
Conclusion.
3. On consid`ere lhypoth`ese nulle H

0
=
1

2
, > 0 et lhypoth`ese alterna-
tive H
1
. Verier que
P
(
1
,,
2
,)
(T
n,m
> c) = P
(0,,0,)
_
T
n,m
> c
_
nm
n +m

1

2
_
S
n,m
_
En deduire que le test pur de la question III.6 est un test convergent de niveau
pour tester H

0
contre H
1
. Conclusion.
V Quantiles
On fournit quelques quantiles pour les applications numeriques.
Quantiles de la loi de Student. Soit T
k
une variable aleatoire de loi de Student
de param`etre k. On pose P(T
k
t) = . La table fournit les valeurs de t en
fonction de k et . Par exemple P(T
54
1.674) 0.05 .
@
@
@
n

0.05000 0.02500 0.01000 0.00500 0.00250 0.00100 0.00050 0.00025 0.00010


54 1.674 2.005 2.397 2.670 2.927 3.248 3.480 3.704 3.991
55 1.673 2.004 2.396 2.668 2.925 3.245 3.476 3.700 3.986
56 1.673 2.003 2.395 2.667 2.923 3.242 3.473 3.696 3.981
Quantiles de la loi de Fisher-Snedecor. Soit F
k,l
une variable aleatoire de loi de
Fisher-Snedecor de param`etre (k, l). On pose P(F
k,l
f) = . La table fournit les
valeurs de f en fonction de (k, l) et . Par exemple P(F
24,30
1.098) 0.4 .
121
XII Controles de n de cours
H
H
H
H
H
(k, l)

0.400 0.300 0.200 0.100 0.050 0.025


(24, 30) 1.098 1.220 1.380 1.638 1.887 2.136
(24, 31) 1.096 1.217 1.375 1.630 1.875 2.119
(25, 30) 1.098 1.219 1.377 1.632 1.878 2.124
(25, 31) 1.096 1.216 1.372 1.623 1.866 2.107
(30, 24) 1.111 1.236 1.401 1.672 1.939 2.209
(30, 25) 1.108 1.231 1.394 1.659 1.919 2.182
(31, 24) 1.111 1.235 1.399 1.668 1.933 2.201
(31, 25) 1.108 1.230 1.392 1.655 1.913 2.174
Quantiles de la loi de Fisher-Snedecor. Soit F
k,l
une variable aleatoire de loi de
Fisher-Snedecor de param`etre (k, l). On pose P(F
k,l
f) = . La table fournit les
valeurs de f en fonction de (k, l) et . Par exemple P(F
24,30
0.453) 0.025 .
H
H
H
H
H
(k, l)

0.025 0.050 0.100 0.200 0.300 0.400


(24, 30) 0.453 0.516 0.598 0.714 0.809 0.900
(24, 31) 0.454 0.517 0.599 0.715 0.810 0.900
(25, 30) 0.458 0.521 0.603 0.717 0.812 0.902
(25, 31) 0.460 0.523 0.604 0.718 0.813 0.902
(30, 24) 0.468 0.530 0.611 0.725 0.820 0.911
(30, 25) 0.471 0.532 0.613 0.726 0.821 0.911
(31, 24) 0.472 0.533 0.614 0.727 0.822 0.912
(31, 25) 0.475 0.536 0.616 0.729 0.823 0.912

XII.6 2004-2005 : Taille des grandes villes


Exercice XII.8.
Les lois en puissance semblent correspondre `a de nombreux phenom`enes, voir
letude de M. E. J. Newman
3
: nombre dhabitants des villes, nombre de telechar-
gements des pages web, nombre doccurences des mots du langage. . . Lobjectif
de ce probl`eme est detudier la famille des lois de Pareto, et de comparer `a laide
dun tel mod`ele les nombres, convenablement renormalises, dhabitants des plus
grandes villes europeennes et americaines.
On consid`ere la loi de Pareto (reduite) de param`etre > 0. Cest la loi de
densite
f

(x) =

x
+1
1
x>1
.
3
Power laws, Pareto distributions and Zipfs law, Contemporary Physics `a paraitre.
122
XII.6 2004-2005 : Taille des grandes villes
La partie I est consacree `a la recherche destimateurs du param`etre . Dans
la partie II, on construit un test pour comparer les param`etres provenant de
deux echantillons dierents (villes europeennes et villes americaines). La partie III
concerne lapplication numerique. La partie IV est independante des autres parties,
et permet de comprendre que les donnees sur les plus grandes villes sont susantes
et naturelles pour lestimation du param`etre .
I Estimations et intervalles de conance du param`etre de la loi de
Pareto
Soit (X
k
, k N

) une suite de variables aleatoires independantes de meme loi


de Pareto de param`etre > 0.
1. Calculer E

[X
1
], puis E

[X
2
1
].
2. Deduire du calcul de E

[X
1
] un estimateur
n
de , construit `a partir de
X
1
, . . . , X
n
. Verier que, pour > 1, lestimateur (
n
, n 1) est convergent.
3. Donner la vraisemblance du mod`ele et determiner une statistique exhaustive.
Que dire de lestimateur
n
?
4. Montrer que lestimateur du maximum de vraisemblance de , construit `a
partir de X
1
, . . . , X
n
, est
n
=
n

n
k=1
log(X
k
)
.
5. Montrer que la loi de log(X
1
) est une loi exponentielle dont on precisera le
param`etre. En deduire E

[log(X
1
)] et E

[log(X
1
)
2
].
6. Verier directement, `a laide de la question I.5, que la suite (
n
, n 1) est un
estimateur convergent de .
7. Montrer directement, `a laide de la question I.5, que lestimateur (
n
, n 1)
est asymptotiquement normal. Montrer que sa variance asymptotique est
2
.
8. Calculer linformation de Fisher. Lestimateur est-il asymptotiquement e-
cace ?
9. Construire un intervalle de conance asymptotique de niveau 1 pour .
10. (Facultatif) Montrer, `a laide des fonctions caracteristiques, que la loi de

1
n
est une loi gamma dont les param`etres ne dependent pas de . Construire
alors un intervalle de conance exact de niveau 1 pour , utilisant les
quantiles des lois gamma.
II Comparaison dechantillons
Pour une region du globe r, on suppose que les nombres dhabitants des villes
suivent approximativement une loi de Pareto generale qui sera introduite dans
123
XII Controles de n de cours
la partie IV. Ce mod`ele est raisonnable pour les grandes villes
4
. On note x
r
(1)
>
> x
r
(n
r
+1)
les nombres dhabitants des n
r
+ 1 plus grandes villes
5
. On veriera
dans la partie IV, que les observations renormalisees par le minimun
x
r
(1)
x
(n
r
+1)
>
>
x
r
(n
r
)
x
(n
r
+1)
correspondent alors au reordonnement decroissant de realisations de
n variables aleatoires, (X
r
1
, . . . , X
r
n
), independantes et de meme loi de Pareto de
param`etre note
r
.
Le param`etre
r
peut sinterpreter comme le rapport du taux de naissance
plus le taux dapparition de nouvelles grandes villes sur le taux de naissance de la
region r. Plus
r
est grand et plus la probabilite dobserver des (relativement) tr`es
grandes villes est faible.
On dispose des nombres dhabitants des 266 (n
UE
= 265) plus grandes villes de
lUnion Europeenne (UE) et des 200 (n
USA
= 199) plus grandes villes des

Etats-
Unis dAmerique (USA). Les histogrammes XII.1 (UE) et XII.2 (USA) concernent
les donnees estimees en 2005. On a egalement porte la densite de la loi de Pareto
avec le param`etre estime, pour se convaincre que la modelisation est credible.
Pour simplier lecriture, on pose n = n
UE
et m = n
USA
.
Le but de cette partie est de savoir sil existe relativement moins de tr`es grandes
villes dans lUE quaux USA. Pour cela on consid`ere les hypoth`eses H
0
=
UE

USA
et H
1
=
UE
>
USA
.
1. Existe-t-il un lien entre les variables (X
UE
1
, . . . , X
UE
n
) et (X
USA
1
, . . . , X
USA
m
) ?
2. Comme les nombres dhabitants des villes nous sont donnes par ordre decrois-
sant, cela signie que lon observe seulement une realisation du reordonnement
decroissant. Verier que lestimateur du maximum de vraisemblance de
r
,
r
n
r ,
deni dans la partie I, peut secrire comme une fonction du reordonnement de-
croissant.
Pour k N

, on pose Z
r
k
=

k(
r
k

r
) et on note
r
k
la fonction caracteristique
de Z
r
k
. La question I.7 assure la convergence simple de (
r
k
, k N

) vers la fonction
caracteristique de la loi gaussienne ^(0, (
r
)
2
). On admet que la convergence est
en fait uniforme sur les compacts : pour u R,
lim
k
sup
[0,1]

r
k
(u) e

2
u
2
(
r
)
2
/2

= 0.
3. Montrer que si
UE
=
USA
, alors la suite
4
Voir par exemple la modelisation fournie par Y. Ijiri and H. A. Simon, Some distributions
associated with Bose-Einstein statistics, Proc. Nat. Acad. Sci. U.S.A., 72, 1654-1657 (1975).
5
Ces donnees sont disponibles par exemple sur le site Internet http ://www.citymayors.com/
124
XII.6 2004-2005 : Taille des grandes villes
__
m
n +m
Z
UE
n

_
n
n +m
Z
USA
m
, n N

, m N

_
converge en loi, quand min(n, m) , vers une loi gaussienne de moyenne
nulle et de variance
2
.
On consid`ere

2
n,m
=
n(
UE
n
)
2
+m(
USA
m
)
2
n +m
,
et la statistique de test

n,m
=
_
nm
n +m

UE
n

USA
m

n,m
=

nm

UE
n

USA
m
_
n(
UE
n
)
2
+m(
USA
m
)
2
.
4. Deduire de la question precedente que, si
UE
=
USA
, alors la suite (
n,m
, n
N

, m N

) converge en loi, quand min(n, m) , vers la loi gaussienne


centree reduite ^(0, 1).
5. Si
UE
<
USA
, donner le comportement de la suite (
n,m
, n N

, m N

)
quand min(n, m) .
6. Si
UE
>
USA
, donner le comportement de la suite (
n,m
, n N

, m N

)
quand min(n, m) .
7. En deduire la forme de la region critique pour tester asymptotiquement H
0
contre H
1
.
8. (Facultatif) Montrer, en utilisant le fait que la loi de
r
n
i
/
r
ne depend pas
de
r
(cf question I.10), que lerreur de premi`ere esp`ece est maximale pour

UE
=
USA
.
9. En admettant le resultat de la question precedente, donner la region critique
de niveau asymptotique pour tester H
0
contre H
1
.
10. Ce test est-il convergent ?
11. Comment calculer la p-valeur asymptotique de ce test ?
III Application numerique
On donne = 5% et les statistiques suivantes pour les nombres dhabitants des
plus grandes villes de lUnion Europeenne et des

Etats-Unis dAmerique :
1. Donner les estimations par maximum de vraisemblance de
UE
,
USA
et leurs
intervalles de conance asymptotiques de niveau 1 (cf. partie I).
2. Calculer la p-valeur du test presente dans la partie II.
3. Conclusion?
125
XII Controles de n de cours
Region : r UE USA
Nombre de donnees : n
r
265 199
Plus grande ville : x
(1)
(Londres) 7.07 (New York) 8.08
Plus petite ville : x
(n
r
+1)
0.15 0.12
P
n
r
k=1
x
k
676.8 620.8
P
n
r
k=1
x
2
k
5584.6 8704.6
P
n
r
k=1
log(x
k
) 166.6 147.6
P
n
r
k=1
log(x
k
)
2
210.2 207.6
Tab. XII.3. Donnees 2005 sur les plus grandes villes de lUE et des USA. Les nombres dhabitants
sont en millions.
0 10 20 30 40 50
0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1 2 3 4 5 6 7 8 9 10 11
0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.6
1 2 3 4 5 6 7 8 9 10 11
0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.6
Fig. XII.1. Histogramme des nombres dhabitants des n = 265 plus grandes villes de lUnion
Europeenne (divisees par la taille de la (n + 1)-i`eme grande ville), et densite de la loi de Pareto
de param`etre
UE
n
(sur le graphique de droite seulement).
IV Reduction des lois de Pareto
Soit une suite (

X
n
, n N

) de variables aleatoires independantes de loi de


Pareto de param`etre (, ) ]0, [
2
. La loi de Pareto de param`etre (, ) ]0, [
2
a pour densite
f
,
(x) =

x
+1
1
x>
.
1. Calculer la fonction de repartition, F
,
, de la loi de Pareto de param`etre (, ).
2. Calculer P
_

X
1
y
> x

X
1
> y
_
pour y > et x > 1. En deduire la fonction de
repartition, puis la loi, de

X
1
y
sachant

X
1
> y, o` u y > .
126
XII.6 2004-2005 : Taille des grandes villes
0 10 20 30 40 50 60 70
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1 2 3 4 5 6 7 8 9 10 11
0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.6
1 2 3 4 5 6 7 8 9 10 11
0
0.2
0.4
0.6
0.8
1.0
1.2
1.4
1.6
Fig. XII.2. Histogramme des nombres dhabitants des m = 199 plus grandes villes des

Etats
Unis dAmerique (divisees par la taille de la (m + 1)-i`eme grande ville), et densite de la loi de
Pareto de param`etre
USA
m
(sur le graphique de droite seulement).
Soit n, k N

. On consid`ere le reordonnement decroissant, appele aussi sta-


tistique dordre, de (

X
1
, . . . ,

X
n+k
), que lon note (

X
(1)
, . . . ,

X
(n+k)
) et qui, on
ladmet, est p.s. uniquement deni par

X
(1)
> >

X
(n+k)
et

X
1
, . . . ,

X
n+k
=

X
(1)
, . . . ,

X
(n+k)
.
En particulier on a

X
(1)
= max
1in+k

X
i
et

X
(n+k)
= min
1in+k

X
i
. On admet
que le reordonnement decroissant est un vecteur de loi continue et de densite
g
n+k
(x
1
, . . . , x
n+k
) = (n +k)! 1
x
1
>>x
n+k

n+k

i=1
f
,
(x
i
).
Le but de ce qui suit est de determiner la loi des n plus grandes valeurs divisees
par la (n + 1)-i`eme, cest-` a-dire de (Y
1
, . . . , Y
n
) =
_

X
(1)

X
(n+1)
, . . . ,

X
(n)

X
(n+1)
_
.
3. Montrer que la densite de la loi de (

X
(1)
, . . . ,

X
(n+1)
) est
(n +k)!
(k 1)!
1
x
1
>>x
n+1

F
,
(x
n+1
)
k1
f
,
(x
n+1
)
n

i=1
f
,
(x
i
).
4. Montrer que (Y
1
, . . . , Y
n
) a meme loi que le reordonnement decroissant de
(X
1
, . . . , X
n
), o` u les variables X
1
, . . . , X
n
sont independantes de meme loi de
Pareto de param`etre (, 1). Verier ainsi que la loi de (Y
1
, . . . , Y
n
) ne depend
ni de ni de k.
127
XII Controles de n de cours
Quitte `a considerer les n+1 plus grandes valeurs de la suite (

X
i
, 1 i n+k),
on peut les remplacer par les n plus grandes divisees par la (n+1)-i`eme, et supposer
ainsi que lon consid`ere le reordonnement decroissant de n variables aleatoires
independantes de loi de Pareto de param`etre (, 1).

XII.7 2005-2006 : Resistance dune ceramique


Exercice XII.9.
Les ceramiques poss`edent de nombreux defauts comme des pores ou des micro-
ssures qui sont repartis aleatoirement. Leur resistance `a la rupture est modelisee
par une variable aleatoire de loi de Weibull
6
.
La premi`ere partie du probl`eme permet de manipuler la loi de Weibull. La
deuxi`eme permet dexpliquer le choix de la loi de Weibull pour la loi de la resis-
tance `a la rupture. Les troisi`eme et quatri`eme parties abordent lestimation des
param`etres de la loi de Weibull
7
. La partie II dune part, et les parties III et IV
dautre part, sont independantes.
La densite de la loi de Weibull de param`etre (, ) ]0, [
2
est denie sur R
par
f
,
(x) =

_
x

_
1
exp
_

_
x

_
1
x>0
et la fonction de repartition par F
,
(x) = 0 si x 0 et
F
,
(x) = 1 exp
_

_
x

_
pour x 0.
Le param`etre de forme est, en analyse des resistances des ceramiques, appele
module de Weibull. Ce param`etre qui caracterise lhomogeneite de la ceramique
est adimensionnel. Il est dautant plus eleve que la ceramique est homog`ene. Les
valeurs actuelles sont de lordre de 5 `a 30. Le param`etre dechelle est parfois
appele contrainte caracteristique (F
,
() = 1 e
1
63.21%). Il est exprime
dans les memes unites que les contraintes (i.e. en Pascal ), il depend de la qualite
et de la taille de la ceramique.
I

Etude sommaire de la loi de Weibull
Soit X une variable aleatoire de loi de Weibull de param`etre (, ) ]0, [
2
.
On rappelle la denition de la fonction Gamma :
6
Norme ISO 20501 :2003
7
Plusieurs ouvrages sont consacres `a ce probl`eme, voir par exemple : P. Murthy, M. Xie and R.
Jiang, Weibull models, Wiley Series in Probability and Statistics, 2004.
128
XII.7 2005-2006 : Resistance dune ceramique
(r) =
_
1
t>0
t
r1
e
t
dt, r > 0.
On a (r + 1) = r(r) et, pour r N

, on a (r + 1) = r!.
1. Soit c > 0. Determiner, `a laide des fonctions de repartition, la loi de cX.
2. Montrer, en utilisant la fonction , que
E[X

] =

et E[X
2
] = 2
2
.
3. Calculer la loi de X

et reconnatre une loi exponentielle dont on determinera


le param`etre. Retrouver les resultats de la question precedente.
II Pourquoi la loi de Weibull ?
On consid`ere une barre de ceramique de longueur L soumise `a une force de
traction. On modelise la resistance de la barre de ceramique, i.e. la valeur de la
force de traction qui fait se rompre la barre, par une variable aleatoire X
(L)
. On
decompose la barre de ceramique en n tranches de longueur L/n, et on note X
(L/n)
i
la resistance de la tranche i 1, . . . , n. La resistance de la barre de ceramique
est simplement la resistance de la tranche la plus faible :
X
(L)
= min
1in
X
(L/n)
i
. (XII.7)
Ce mod`ele de tranche la plus faible intervient egalement en abilite quand on
consid`ere la duree de fonctionnement dun appareil forme de composants en serie,
i.e. quand la duree de fonctionnement de lappareil est la plus petite duree de
fonctionnement de ses composants. On suppose que
(A) Les variables aleatoires (X
(L/n)
i
, i 1, . . . , n) sont independantes de
meme loi.
(B) Pour tout > 0, X
()
a meme loi que c

X, o` u c

> 0 est une constante qui


depend de (et de la qualite de la ceramique) et X est une variable aleatoire
strictement positive.
Le but des questions qui suivent est didentier les lois possibles de X telles
que les hypoth`eses (A) et (B) ainsi que (XII.7) soient satisfaites.
Soit (X
k
, k 1) une suite de variables aleatoires independantes et de meme loi.
1. On note F la fonction de repartition de X
1
et F
n
celle de min
1kn
X
k
. Montrer
que 1 F
n
(x) = (1 F(x))
n
pour tout x R.
2. Deduire de la question precedente et de la question I.1 que si la loi de X
1
est la
loi de Weibull de param`etres (, ), alors min
1kn
X
k
a meme loi que n
1/
X
1
.
129
XII Controles de n de cours
3. Montrer que si X suit la loi de Weibull de param`etres (, ), alors sous les
hypoth`eses (A) et (B), legalite (XII.7) est satisfaite en loi d`es que c

= c
1

1/
pour tout > 0. Determiner la loi de X
(L)
.
On suppose que la fonction de repartition de X, H, poss`ede lequivalent suivant
quand x tend vers 0 par valeurs superieures :
H(x) = bx
a
+o(x
a
) (x > 0),
o` u a > 0 et b > 0. On suppose egalement que la resistance est inversement pro-
portionnelle `a la longueur de la barre de ceramique : c

= c
1

1/
, avec > 0.
4. (Facultatif) Donner la limite de la fonction de repartition de ( min
1in
X
(L/n)
i
, n
1). En deduire que legalite (XII.7) implique que a = ainsi que X
(L)
et X
suivent des lois de Weibull.
En fait la theorie des lois de valeurs extremes assure que si lon suppose les
hypoth`eses hypoth`eses (A) et(B), legalite (XII.7) et le fait que la resistance X
(L)
nest pas deterministe (et donc sans hypoth`ese sur la fonction de repartition de X
ni sur c

) alors X
(L)
et X suivent des lois de Weibull. En particulier lindependance
des resistances des tranches conduisent `a modeliser la resistance dune ceramique
par une variable aleatoire de Weibull.
III Estimation du param`etre dechelle
Soit (X
k
, k 1) une suite de variables aleatoires independantes de meme loi de
Weibull de param`etre (
0
, ) ]0, [
2
, o` u
0
est suppose connu.
1. Montrer que la vraisemblance associee `a un echantillon x = (x
k
, k 1, . . . , n)
de taille n secrit
p
n
(x; ) =

n
0

n
0
e

0
P
n
i=1
x

0
i
n

j=1
x

0
1
j
n

l=1
1
x
l
>0
.
2. En utilisant le theor`eme de factorisation, donner une statistique exhaustive
pertinente.
3. Determiner lestimateur du maximum de vraisemblance,

n
, de .
4. (Facultatif) En utilisant la question I.3, calculer le biais de

n
. Verier quil
est nul si
0
= 1.
5.
`
A laide des resultats de la question I.2, montrer directement que

0
n
est un
estimateur convergent et asymptotiquement normal de

0
.
6. En deduire que

n
est un estimateur convergent et asymptotiquement normal
de . Donner la variance asymptotique.
130
XII.8 2006-2007 : Geyser ; Sondages (II)
IV Estimation du param`etre de forme
Soit (X
k
, k 1) une suite de variables aleatoires independantes de meme loi de
Weibull de param`etre (, ) ]0, [
2
. On suppose que le param`etre (, ) ]0, [
2
est inconnu.
1. Donner la vraisemblance et la log-vraisemblance, L
n
(x; (, )), associee `a un
echantillon x = (x
k
, k 1, . . . , n) de taille n.
2. Peut-on resumer les donnees `a laide dune statistique exhaustive ?
3. Donner les equations satisfaites par tout extremum, (
n
,

n
), de la log-vraisemblance.
4. Verier que

n
= u
n
(
n
), pour une fonction u
n
qui depend de x. Que pensez-
vous de lestimation de que soit connu ou non ?
On denit la fonction h
n
sur ]0, [ par
h
n
(a) =
1
n
n

i=1
log(x
i
) +

n
j=1
log(x
j
)x
a
j

n
l=1
x
a
l
,
o` u x
i
> 0 pour tout i 1, . . . , n. On suppose n 2 et quil existe i, j 1, . . . , n
tels que x
i
,= x
j
. On admet que la fonction h
n
est strictement croissante.
5. Verier, en utilisant

n
= u
n
(
n
), que
n
est lunique solution de lequation
h
n
(a) =
1
a
.
6. Montrer que la fonction g : a L
n
(x; (a, u
n
(a))) est strictement concave. En
deduire que la log-vraisemblance atteint son unique maximum en (
n
,

n
).
7. Montrer que h
n
, o` u lon remplace x
i
par X
i
, converge p.s. vers une fonction h
que lon determinera. Verier que h() =
1

.
Ce dernier resultat permet de montrer la convergence p.s. de (
n
,

n
) vers (, ).
Par ailleurs les estimateurs sont fortement biaises.

XII.8 2006-2007 : Geyser ; Sondages (II)


Exercice XII.10.
On consid`ere les donnees
8
sur le geyser Old Faithful du parc national de Yel-
lowstone aux

Etats Unis dAmerique. Elles sont constituees de 299 couples corres-
pondant `a la duree dune eruption, et au temps dattente correspondant au temps
8
A. Azzalini and A. W. Bownman, A look at some data on Old Faithful, Applied Statistics, vol
39, pp.357-365 (1990).
131
XII Controles de n de cours
ecoule entre le debut de cette eruption et la suivante. Les donnees sont collectees
contin ument du 1er au 15 ao ut 1985.
Le temps dattente (en minutes) moyen est de 72.3, lecart-type de 13.9, et la
mediane de 76. Un temps dattente
9
est dit court (C) sil est inferieur `a 76, et long
(L) sil est superieur ou egal `a 76.
On note w
k
C, L la duree qualitative du temps dattente entre le debut de
la k-i`eme eruption et la suivante. On consid`ere les couples (X
k
, Y
k
) = (w
2k1
, w
2k
)
pour 1 k K = 149, qui representent les durees qualitatives de deux temps
dattente successifs. On note N
i,j
pour i, j C, L le nombre doccurrences de
(i, j) pour la suite ((X
k
, Y
k
), 1 k K). Les donnees sont resumees dans le
tableau XII.4. On suppose que les variables aleatoires ((X
k
, Y
k
), 1 k K) sont
independantes et de meme loi.
N C L
C 9 70
L 55 15
Tab. XII.4. Donnees qualitatives pour deux temps dattente successifs : NCL = 70.
1. Tester si deux temps dattente successifs sont independants (i.e. X
k
est indepen-
dant de Y
k
). Pourquoi nutilise-t-on pas les occurrences des couples (w
k
, w
k+1
)
pour ce test ?
2. Tester si deux temps dattente successifs sont independants et de meme loi (i.e.
X
k
est independant de Y
k
et X
k
a meme loi que Y
k
).

Etes vous etonnes de
votre conclusion vu la reponse `a la question precedente ?

Exercice XII.11.
On consid`ere un sondage pour le deuxi`eme tour de lelection presidentielle fran caise
eectue sur n personnes parmi la population des N electeurs, dont N
A
2 (resp.
N
B
2) votent pour le candidat A (resp. B), avec N = N
A
+ N
B
. Le but du
sondage est destimer la proportion, p = N
A
/N, de personnes qui votent pour A.
Comme N (environ 44 Millions dinscrits pour lelection presidentielle fran caise
de 2007) est grand devant n (de lordre de 1000), on consid`ere uniquement des
sondages avec remise (en particulier une personne peut etre interrogee plusieurs
fois).
9
On constate quun temps dattente inferieur `a 72 minutes est toujours suivi par une longue
eruption et quun temps dattente superieur `a 72 minutes est suivi en egale proportion par une
eruption soit longue soit courte. La duree dune eruption varie entre 2 et 5 minutes.
132
XII.8 2006-2007 : Geyser ; Sondages (II)
I Mod`ele de reference
La reponse de la k-i`eme personne interrogee est modelisee par une variable
aleatoire Z
k
: Z
k
= 1 (resp. Z
k
= 0) si la personne interrogee vote pour le candidat
A (resp. B). Les variables aleatoires (Z
k
, k 1) sont independantes de loi de
Bernoulli de param`etre p. On estime p `a laide de la moyenne empirique,

Z
n
=
1
n

n
k=1
Z
k
. Rappelons que

Z
n
est un estimateur sans biais de p convergent et
asymptotiquement normal.
1. Calculer le risque quadratique R(

Z
n
, p) = E
p
[(

Z
n
p)
2
] pour lestimation de p
par

Z
n
.
2. Verier que la vraisemblance du mod`ele est p
n
(z; p) = p
n zn
(1 p)
nn zn
, avec
z = (z
1
, . . . , z
n
) 0, 1
n
et z
n
=
1
n
n

k=1
z
k
. En deduire que

Z
n
est lestimateur
du maximum de vraisemblance de p.
3. Calculer linformation de Fisher du mod`ele. Montrer que

Z
n
est un estimateur
ecace de p (dans la classe des estimateurs sans biais de p).
II Methode de stratication
Lobjectif des methodes de stratication est dameliorer la precision de lesti-
mation de p, tout en conservant le meme nombre, n, de personnes interrogees. Pour
cela on consid`ere H strates (ou groupes) xees. La strate h comporte N
h
1 indi-
vidus (N
h
est connu), et on note p
h
la proportion inconnue de personnes de cette
strate qui votent pour A, n
h
le nombre de personnes interrogees dans cette strate,
Y
h
=
1
n
h

n
h
i=1
X
(h)
i
la proportion des personnes interrogees dans cette strate qui
votent pour A. La variable aleatoire X
(h)
i
modelise la reponse de la i-`eme personne
interrogee dans la strate h : X
(h)
i
= 1 (resp. X
(h)
i
= 0) si la personne interrogee vote
pour le candidat A (resp. B) ; elle suit une loi de Bernoulli de param`etre p
h
. On
suppose que les variables aleatoires (X
(h)
i
, 1 i, 1 h H) sont independantes.
Le nombre total de personnes interrogees est n =

H
h=1
n
h
. On suppose que
p
h
]0, 1[ pour tout 1 h H.
On consid`ere lestimateur de Horvitz-Thompson
10
(initialement construit pour
des sondages sans remise) de p deni par
Y =
H

h=1
N
h
N
Y
h
.
10
D. G. Horvitz and D.J. Thompson, A generalization of sampling without replacement from a
nite universe, Journal of the American Statistical Association, vol. 47, pp.663-685 (1952).
133
XII Controles de n de cours
II.1

Etude `a horizon ni
1. On choisit un individu au hasard. Quelle est la probabilite quil soit dans la
strate h? En deduire que
H

h=1
N
h
N
p
h
= p.
2. Verier que lestimateur de Horvitz-Thompson est sans biais : E
p
[Y ] = p.
3. Calculer le risque quadratique de Y : R(Y, p) = E
p
[(Y p)
2
] en fonction de

2
h
= p
h
(1 p
h
).
4. Pourquoi dit-on que la stratication est mauvaise si nVar
p
(Y ) > p(1 p) ?
5. Donner un exemple de mauvaise stratication.
On repondra aux trois questions suivantes en admettant que n
h
peut prendre
toutes les valeurs reelles positives et pas seulement des valeurs enti`eres. On rap-
pelle linegalite de Cauchy-Schwarz. Soit a
i
, b
i
R pour i I et I ni ; on
a
_

iI
a
i
b
i
_
2

iI
a
2
i
__

iI
b
2
i
_
avec egalite si et seulement si il existe
(, ) R
2
(0, 0) tel que a
i
= b
i
pour tout i I.
6. Montrer que pour lallocation proportionnelle, n
h
= n
N
h
N
, on a nVar
p
(Y )
p(1 p). Donner une condition necessaire et susante pour que nVar
p
(Y ) <
p(1 p).
7. Montrer que lallocation optimale (i.e. celle pour laquelle Var
p
(Y ) est minimal)
correspond `a lallocation de Neyman o` u n
h
est proportionnel `a lecart-type de
la strate h : N
h

h
. Donner une condition necessaire et susante pour que lal-
location de Neyman soit strictement meilleure que lallocation proportionnelle.
8. Deduire de ce qui prec`ede que sous des conditions assez generales, on peut
construire un estimateur de p sans biais qui est strictement preferable `a les-
timateur ecace (dans la classe des estimateurs sans biais)

Z
n
. En quoi cela
nest-il pas contradictoire ?
II.2

Etude asymptotique
1. Montrer que (Y
h
, n
h
1) converge p.s. vers p
h
et que (

n
h
(Y
h
p
h
), n
h
1)
converge en loi vers une loi gaussienne dont on precisera les param`etres.
2. Montrer que p.s. Y converge vers p quand min
1hH
n
h
tend vers linni.
3. Montrer que, si min
1hH
n
h
tend vers linni, alors (Y p)/
_
Var
p
(Y )
converge en loi vers une loi gaussienne centree reduite ^(0, 1). On pourra
utiliser le resultat suivant sur la convergence uniforme locale des fonctions ca-
racteristiques. Soit (V
k
, k 1) une suite de variables aleatoires independantes,
134
XII.9 2007-2008 : Loi de Yule (II) ; Sexe des anges
de meme loi et de carre integrable, telles que E[V
k
] = et Var(V
k
) =
2
. Alors
on a, en posant

V
k
=
1
k
k

i=1
V
i
,

k(

V
k
)
(u) = e

2
u
2
/2
+R
k
(u),
et pour tout K 0, lim
k
sup
[u[K
[R
k
(u)[ = 0.
4. Montrer que
1
Var
p
(Y )
H

h=1
_
N
h
N
_
2
Y
h
(1 Y
h
)
n
h
converge p.s. vers 1, quand min
1hH
n
h
tend vers linni. On pourra, apr`es lavoir justie, utiliser que pour tout > 0
on a [Y
h
(1 Y
h
)
2
h
[
2
h
pour min
1hH
n
h
susamment grand.
5. Deduire de la question precedente que
_
_
Y a

_
H

h=1
_
N
h
N
_
2
Y
h
(1 Y
h
)
n
h
_
_
, o` u
a

est le quantile dordre 1 /2 de la loi gaussienne, est un intervalle de


conance sur p de niveau asymptotique 1 ( ]0, 1[) quand min
1hH
n
h
tend vers linni.

XII.9 2007-2008 : Loi de Yule (II) ; Sexe des anges


Exercice XII.12 (Disques dor et loi de Yule).
On suppose que les ventes des disques dun artiste dependent de sa reputation
seulement (i.e. du nombre de disques dej`a vendus) et donc pas de son talent, voir
letude de Chung et Cox
11
. Dans ce cas, il est naturel de modeliser le nombre de
ventes pour un artiste par la loi de Yule (voir le contr ole precedent). On mesure
la notoriete dun artiste par le nombre de disques dor quil a obtenu (voir Chung
et Cox pour la r`egle dattribution des disques dor). Le tableau XII.5 donne le
nombre dartistes ayant eu un nombre de disques dor xe pendant la periode de
1959 `a 1989. (Pour information, le tableau XII.6 indique les artistes ayant eu au
moins 14 disques dor.) On compte n = 1377 disques dor. Les donnees sont issues
de larticle de Chung et Cox.
Si on estime que la probabilite dacheter un disque dun artiste inconnu est
tr`es faible, alors on peut modeliser le nombre de disques dor dun artiste par une
11
K. H. Chung and R. A. K. Cox : A Stochastic Model of Superstardom : an application of the
Yule distribution. The Review of Economics and Statistics, vol. 76, pp. 771-775 (1994).
135
XII Controles de n de cours
variable aleatoire Y de loi de Yule de param`etre > 0. On rappelle que si Y suit
une loi de Yule de param`etre ]0, [, alors
P

(Y = k) = B(k, + 1), k N

.
1. Determiner la loi de Yule de param`etre = 1. Comparer les donnees observees
du tableau XII.5 avec les donnees theoriques attendues si le nombre de disques
dor pour un artiste pris au hasard suit la loi de Yule de param`etre = 1.
2. Apr`es avoir precise le mod`ele, indiquer en detail une methode pour tester si
les donnees observees correspondent `a la realisation dun echantillon de taille
n de loi min(Y, m), o` u m = 17 et Y suit une loi de Yule de param`etre = 1.
3. (Facultatif) Justier le fait que, pour repondre `a la question 2, on ait re-
groupe dans le tableau XII.5 les artistes ayant eu plus de 17 disques dor.
4. On suppose que les donnees observees correspondent `a la realisation dun echan-
tillon de taille n de loi de Yule de param`etre inconnu. On note N
k
le nombre
dartistes ayant eu au moins k disques dor ; ainsi N
1
correspond au nombre
dartistes ayant eu au moins un disque dor. Exprimer la log-vraisemblance du
mod`ele en fonction de (N
k
, k N

).
5. (Facultatif) Trouver la plus grande constante c > 0 telle que x
2
(x +
c)(x +c 1) pour tout x > 1. En deduire que

k=1
1
( +k)
2

1
+
1
2
.
Montrer que la log-vraisemblance de la question precedente poss`ede un seul
maximum local sur ]0, (1 +

3)/2] et, si N
2
1, alors elle poss`ede au moins
un maximum sur ]0, [.
Pour les donnees du tableau (XII.5), on obtient la valeur approchee suivante pour
lestimateur du maximum de vraisemblance de : 1.137.
6. Apr`es avoir precise le mod`ele, indiquer en detail une methode pour verier si
les donnees observees correspondent `a la realisation dun echantillon de taille
n de loi min(Y, m), o` u m = 17 et Y suit une loi de Yule.
7. Les p-valeurs pour les questions 2 et 6 sont plus petites que 10
5
. Quelle est
votre conclusion concernant le talent des artistes.
8. Les auteurs de letude proposent de ne pas tenir compte des artistes ayant plus
de 18 disques dor et de considerer la loi de Yule conditionnee `a prendre des
valeurs inferieures `a 18. Il obtiennent alors une p-valeur de lordre de 17%.
Quelle est leur conclusion, concernant le talent des artistes ?
136
XII.9 2007-2008 : Loi de Yule (II) ; Sexe des anges
Pour plus de renseignement sur letude presentee, voir par exemple larticle de L.
Spierdijk et M. Voorneveld
12
.
Nombre de Nombre Nombre de Nombre
disques dor dartistes disques dor dartistes
1 668 10 14
2 244 11 16
3 119 12 13
4 78 13 11
5 55 14 5
6 40 15 4
7 24 16 4
8 32 17 et + 26
9 24
Tab. XII.5. Nombres dartistes par nombre de disques dor.
Artiste Nombre de Artiste Nombre de
disques dor disques dor
Beatles 46 John Denver 18
Elvis Presley 45 Kiss 18
Elton John 37 Kool and the Gang 18
Rolling Stones 36 Rod Stewart 18
Barbra Streisand 34 Andy Williams 17
Neil Diamond 29 Frank Sinatra 17
Aretha Franklin 24 Billy Joel 16
Chicago 23 Hank Williams, Jr. 16
Donna Summer 22 Linda Ronstadt 16
Kenny Rogers 22 Willie Nelson 16
Olivia Newton-John 22 Doors 15
Beach Boys 21 Glen Campbell 15
Bob Dylan 20 Queen 15
Earth, Wind and Fire 20 REO Speedwagon 15
Hall and Oates 20 Anne Murray 14
Barry Manilow 19 Doobie Brothers 14
Three Dog Night 19 Jethro Tull 14
Bee Gees 18 Johnny Mathis 14
Carpenters 18 OJays 14
Creedence Clearwater Revival 18
Tab. XII.6. Artistes ayant eu au moins 14 disques dor entre 1958 et 1989.
12
L. Spierdijk and M. Voorneveld : Superstars without talent ? The Yule distribution controversy.
SSE/EFI Working Paper Series in Economics and Finance. No 658, http://swopec.hhs.se/
hastef/abs/hastef0658.htm
137
XII Controles de n de cours

Exercice XII.13 (Sexe des anges).


Soit p
0
la probabilite (inconnue) davoir un gar con `a la naissance (p
0
est de lordre
de 0.51 environ). On remarque, `a laide dun test du
2
sur les donnees du ta-
bleau XII.7, que le nombre de gar cons dune famille `a n 2 enfants ne suit pas
une loi binomiale de param`etre (n, p
0
). Une des raisons possibles est que la pro-
babilite davoir un gar con depende de la famille consideree, et quelle soit donc
aleatoire. Le mod`ele que nous etudions est un mod`ele classique de la statistique
bayesienne.
On note P la probabilite (aleatoire) davoir un gar con pour une famille choisie
au hasard. On modelise P par une variable aleatoire de loi beta de param`etre
= (a, b) ]0, [
2
, dont la densite est
1
B(a, b)
x
a1
(1 x)
b1
1
]0,1[
(x).
On note X
n
le nombre de gar cons parmi les n premiers enfants dune famille choisie
au hasard (parmi les familles ayant au moins n enfants).
I Preliminaires
1. Calculer E

[P] et E

[P
v
(1 P)
w
] pour v, w ]0, [.
2. Justier legalite p
0
=
a
a +b
.
3. Quelle est la loi conditionnelle de X
n
sachant P ? Determiner la fonction
telle que E[g(X
n
)[P] = (P) en fonction de g.
4. Montrer que E

[X
n
] = nE

[P] et Var

(X
n
) = nE

[P(1 P)] +n
2
Var

(P).
5. En deduire
E

[X
n
] = n
a
a +b
et Var

(X
n
) =
1
n
E

[X
n
] (n E

[X
n
])
_
1 +
n 1
a +b + 1
_
.
(XII.8)
II Estimation des param`etres
On consid`ere les familles `a n enfants. On note X
(k)
n
le nombre de gar cons de
la k-`eme famille `a n enfants. On suppose que les variables aleatoires (X
(k)
n
, k 1)
sont independantes et de meme loi que X
n
.
1. Montrer que si n = 1, alors la loi de X
n
ne depend que de p
0
. En deduire que
le mod`ele nest pas identiable.
On suppose n 2.
138
XII.9 2007-2008 : Loi de Yule (II) ; Sexe des anges
2. Construire, en utilisant (XII.8), un estimateur

K
de `a partir de
M
K
=
1
K
K

k=1
X
(k)
n
et V
K
=
1
K
K

k=1
_
X
(k)
n
_
2
M
2
K
.
3. Montrer que (

K
, K 1) est un estimateur convergent de .
4. Montrer, sans calculer explicitement la matrice de covariance asymptotique,
que lestimateur (

K
, K 1) de est asymptotiquement normal.
5. On pose N
r
=

K
k=1
1
X
(k)
n
=r
. Verier que
K

k=1
X
(k)
n
=
n

r=0
rN
r
et que
K

k=1
_
X
(k)
n
_
2
=
n

r=0
r
2
N
r
. Donner une valeur numerique pour lestimation de
`a partir du tableau XII.7. Pour des raisons de temps de calcul, on ne donnera
pas dintervalle de conance asymptotique pour .
Nombres de garcons et de lles (5,0) (4,1) (3,2) (2,3) (1,4) (0,5) Total
Nombre de familles 18 52 110 88 35 17 320
Tab. XII.7. Observation de 320 familles `a 5 enfants
III Estimation de la probabilite davoir un gar con
On note P
n
= E

[P[X
n
].
1. Soit h une fonction bornee mesurable et k 0, . . . , n. Calculer E

[h(P)[X
n
=
k] deni par
E

[h(P)[X
n
= k] =
E

[h(P)1
Xn=k
]
P

(X
n
= k)
.
2. Calculer et reconnatre la loi conditionnelle de P sachant X
n
. Verier que
P
n
=
a +X
n
a +b +n
.
3. Montrer que la suite (X
n
/n, n N) converge p.s. vers P.
4. En deduire que P
n
est un estimateur convergent de P : p.s. lim
n
P
n
= P.
5. Montrer que P
n
est le meilleur estimateur de P au sens quadratique : pour
toute fonction h mesurable bornee, on a E

[(P h(X
n
))
2
] E

[(P P
n
)
2
].
(On pourra faire intervenir la quantite P
n
h(X
n
) pour reecrire le membre de
droite de linegalite ci-dessus.)
139
XII Controles de n de cours
6. Deduire de la question III.2 un intervalle de conance de niveau 90% de la
forme [c, 1] sur P en fonction de X
n
.
Pour les valeurs numeriques de de la question II.5, si la famille consideree na
que des gar cons (X
n
= n), alors pour n = 6, on obtient [0.502, 1] comme intervalle
de conance `a 90% de P (et P
n
0.61). En particulier, on peut armer que
dans cette famille le n + 1 enfant (`a venir) `a plus dune chance sur deux detre un
gar con (avec une conance de 90%). Attention, ce resultat est tr`es sensible aux
erreurs destimation de (pour = (1, 1) et donc p
0
= 1/2, avec n = 3, on obtient
P
n
= 0.8 et lintervalle de conance `a 90% sur P : [0.56, 1]).

XII.10 2008-2009 : Comparaison dechantillons apparies


Exercice XII.14 (Ecacite dune operation de la retine. Test des signes et test
de Wilcoxon).
On consid`ere le resultat dune intervention chirurgicale sur des patients atteints
de troubles de la retine
13
. Les donnees consistent en des mesures de la fonction
retinienne `a laide dun electro-retinogramme 3 mois avant loperation et 3 `a 5
mois apr`es loperation pour n = 10 patients. Pour le patient k, on modelise par
X
k
le resultat de la mesure avant loperation et par Y
k
celui de la mesure apr`es
loperation. Les deux variables aleatoires X
k
et Y
k
sont appariees et ne peuvent etre
traitees separement. Le tableau XII.8 donne les mesures eectuees sur 10 patients
(oeil gauche).
X
k
Y
k
V
k
= X
k
Y
k
S
k
= sgn(V
k
) Rn(k)
8.12 6.50 1.62 1 10
2.45 2.10 0.35 1 8
1.05 0.84 0.21 1 6
6.86 5.32 1.54 1 9
0.14 0.11 0.03 1 3
0.11 0.17 -0.06 -1 4
0.19 0.16 0.03 1 2
0.23 0.16 0.07 1 5
1.89 1.54 0.35 1 7
0.07 0.05 0.02 1 1
Tab. XII.8. Mesures en micro Volt avant (X
k
) et apr`es (Y
k
) loperation de lactivite retinienne
de loeil gauche par electro-retinogramme pour n = 10 patients. La variable S
k
represente le signe
de V
k
= X
k
Y
k
et Rn(k) le rang de |V
k
| (voir la denition dans la partie III).
13
B. Rosner, R. J. Glynn and M.-L. T. Lee, The Wilcoxon signed rank test for paires comparisons
of clustered data, Biometrics, 62, 185-192, 2006.
140
XII.10 2008-2009 : Comparaison dechantillons apparies
On consid`ere le mod`ele suivant. Soit X une variable aleatoire reelle de loi in-
connue. On suppose que ((X
k
, Y
k
), k N

) est une suite de vecteurs aleatoires


independants de meme loi, que X
k
et Y
k
sont independantes, que X
k
a meme loi
que X et que Y
k
a meme loi que X o` u R. Le param`etre de decalage
est a priori inconnu. On desire construire un test pour les hypoth`eses suivantes :
H
0
= = 0 (loperation ne diminue pas la mesure de lelectro-retinogramme)
et H
1
= > 0 (loperation diminue la mesure de lelectro-retinogramme). On
peut construire un test `a partir de la dierence des moyennes empiriques avant
loperation et apr`es loperation, mais le peu de donnees et labsence dinformation
sur la loi de X rendent cette approche peu pertinente. On a alors recours soit au
test de signe soit au test de Wilcoxon
14
. Ces deux tests ne dependent pas de la
loi de X, on parle de tests non-parametriques. Le test de Wilcoxon est en general
prefere au test de signe, car plus puissant. Nous etudions dans les parties II et III
les comportements asymptotiques de ces deux tests. En pratique, les tailles des
echantillons etant faibles, on utilise la loi exacte des statistiques de test obtenue
soit par calcul direct soit par simulation.
Les resultats de la partie preliminaire I, peuvent etre directement utilises dans
les parties II et III. Les parties II et III sont independantes. Dans les parties II et
III, on suppose que la fonction de repartition de X est continue.
Pour v R, on note sgn(v) = 1
v>0
1
v<0
le signe de v. On pose V
k
= X
k
Y
k
et S
k
= sgn(V
k
).
I Preliminaires
Soit X

une variable aleatoire independante de X et de meme loi que X. On


pose V = X X

. On rappelle que la mediane de V est son quantile dordre 1/2


deni par infv R; P(V v) 1/2.
1. Montrer que V et V ont meme loi et que, pour tout x R,
P(V x) = 1 P(V < x). (XII.9)
2. Deduire de (XII.9) que 2P(V 0) = 1 + P(V = 0) et que, pour tout > 0,
2P(V ) = 1 P(V ] , [).
3. Montrer que pour tout > 0, il existe > 0 tel que pour tout a R, P(V
] , [) P(X ]a , a + [, X

]a , a + [). En deduire que pour tout


> 0,
P(V ] , [) > 0. (XII.10)
4. Deduire des questions precedentes que la mediane de V est nulle.
14
F. Wilcoxon, Individual comparisons by ranking methods, Biometrics Bulletin, 1, nr6, 80-83,
1945.
141
XII Controles de n de cours
On admet que si est une fonction bornee mesurable denie sur R
2
alors, si Z et
Z

sont deux variables aleatoires reelles independantes, on a


E[(Z, Z

)] = E[(Z)], avec, pour z R, (z) = E[(z, Z

)]. (XII.11)
On suppose que la fonction de repartition de X est continue : x R,
P(X = x) = 0.
5. Montrer en utilisant (XII.11) que la fonction de repartition de V est continue :
pour tout v R, P(V = v) = 0.
6. Montrer que sgn(V ) est de loi uniforme sur 1, 1.
7. En etudiant E[g(sgn(V ))f([V [)], pour des fonctions f et g mesurables bornees,
montrer que les variables aleatoires sgn(V ) et [V [ sont independantes.
II Test des signes
On rappelle que S
k
= sgn(V
k
). On consid`ere la statistique de test sur lechan-
tillon de taille n denie par

n
=
1

n
n

k=1
S
k
.
1. Deduire de la question I.6 que, sous H
0
, la suite (
n
, n N

) converge en loi
vers une variable aleatoire gaussienne de loi ^(0, 1).
2. Deduire de (XII.10), que sous H
1
, E[S
k
] > 0. En deduire que, sous H
1
, la suite
(
n
, n N

) converge p.s. vers +.


3. Determiner la region critique W
n
du test pur, construit `a partir de la statistique
de test
n
, de niveau asymptotique ]0, 1[.
4. Verier que le test pur de region critique W
n
est convergent.
5. Calculer, `a partir des observations, la p-valeur asymptotique du test pur de
region critique W
10
. Rejetez vous H
0
?
6. (Facultatif) Calculer, `a partir des observations, la p-valeur exacte du test
pur de region critique W
10
. Commenter alors le resultat de la question II.5.
III Test de Wilcoxon
On note o
n
lensemble des permutation de 1, . . . , n. On rappelle que
n

k=1
k =
n(n + 1)
2
et
n

k=1
k
2
=
n(n + 1)(2n + 1)
6
.
142
XII.10 2008-2009 : Comparaison dechantillons apparies
1. Montrer en utilisant (XII.11) ou la question I.5 que pour k ,= , P([V
k
[ = [V

[) =
0. En deduire quil existe une unique permutation aleatoire
n
o
n
telle que
p.s.
[V
n(1)
[ < < [V
n(n)
[. (XII.12)
Pour les questions III.2 `a III.7, on se place sous H
0
.
2. Verier en utilisant la question I.7 que
n
et (S
1
, . . . , S
n
) sont independants.
3. Montrer que (S
n(1)
, . . . , S
n(n)
) a meme loi que (S
1
, . . . , S
n
).
On note R
n
linverse de
n
: R
n
(i) = j
n
(j) = i. On remarque que R
n
(k) est le
rang de [V
k
[ parmi ([V
1
[, . . . , [V
n
[). En particulier R
n
(k) = 1 si [V
k
[ est le minimum
et R
n
(k) = n si [V
k
[ est le maximum. On denit
T
n
=
n

k=1
R
n
(k)1
S
k
>0
et la statistique de test du test de Wilcoxon

n
=
T
n

n(n+1)
4

n
, avec
n
0 et
2
n
=
n(n + 1)(2n + 1)
24
.
4. Montrer, `a laide de la question III.3 et I.6 que T
n
a meme loi que
T

n
=
n

k=1
kZ
k
,
o` u les variables aleatoires (Z
n
, n N

) sont independantes de loi de Bernoulli


de param`etre 1/2.
5. Calculer E[T

n
] et Var(T

n
).
6. Montrer que la fonction caracteristique
n
de
n
est :

n
(u) =
n

k=1
E
_
e
iuk(Z
k

1
2
)/n
_
= exp
_
n

k=1
log(cos(
uk
2
n
))
_
.
7. Montrer que, sous H
0
, la suite (
n
, n N

) converge en loi vers une variable


aleatoire gaussienne de loi ^(0, 1).
On admet que sous H
1
la suite (
n
, n N

) converge en probabilite
15
vers + :
pour tout a R, lim
n
P(
n
a) = 1.
8. Determiner la region critique W

n
du test pur, construit `a partir de la statistique
de test
n
, de niveau asymptotique . Verier que le test est convergent.
9. Calculer la p-valeur asymptotique du test pur de region critique W

n
. Rejetez
vous H
0
? Comparer avec la question II.5.

15
P. Capera`a et B. Van Custen, Methodes et mod`eles en statistique non parametrique, Dunod,
1988
143
XII Controles de n de cours
XII.11 2009-2010 : Mod`ele auto-regressif pour la temperature
Exercice XII.15 (Mod`ele de temperature).
On desire etudier un mod`ele de serie temporelle
16
pour les temperatures journa-
li`eres o` u la temperature du jour depend de mani`ere lineaire de la temperature de
la veille. Plus precisement, on modelise par X
n
la temperature du jour n N `a la
station de mesure et on suppose que pour n N,
X
n+1
= X
n
+ +
n+1
, (XII.13)
o` u , R, X
0
est une constante connue et (
n
, n N

) est une suite de variables


aleatoires independantes de meme loi gaussienne ^(0,
2
) avec > 0. On suppose
les param`etres , et inconnus. Le mod`ele considere est appele mod`ele auto-
regressif avec bruits gaussiens.
On note G une variable aleatoire gaussienne de loi ^(0, 1).
I Preliminaires
1. Montrer que pour tout v < 1, on a :
E
_
exp
_
v
2
G
2
__
=
1

1 v
.
On pose
0
= 0 et pour n N

:
V
n
=
n

k=1

2
k
et T
n
=
n

k=1

k1

k
.
On souhaite etudier la convergence de la suite (T
n
, n N

) convenablement renor-
malisee.
Pour x 0, on note x lentier m tel que m x < m+1 et x lentier m

tel
que m

1 < x m

.
2. En ecrivant T
n
=
_

n/2
k=1

2k2

2k1
_
+
_

n/2
k=1

2k1

2k
_
, montrer que la
suite (T
n
/n, n N

) converge p.s. vers une limite que lon precisera.


Soit u R. On pose :
N
n
(u) = exp
_
u
2

2
2
V
n1
n
_
et M
n
(u) = N
n
(u) exp
_
iu
T
n

n
_
.
On suppose que u
2
< n/2
4
.
16
Voir : G. Box and G. Jenkins : Time series analysis : Forecasting and control, Holden-Day, 1970.
Voir aussi : P. Brockwell and R. Davis : Time Series : Theory and Methods, Springer-Verlag,
1987.
144
XII.11 2009-2010 : Mod`ele auto-regressif pour la temperature
3. Calculer E[N
n
(u)] et E[N
n
(u)
2
], puis montrer que :
lim
n+
Var(N
n
(u)) = 0.
4. Pour n 2, calculer E[M
n
(u)[
1
, . . . ,
n1
].
5. Montrer, en utilisant la question precedente, que E[M
n
(u)] = 1.
On note
n
la fonction caracteristique de T
n
/

n.
6. Montrer, en utilisant deux fois linegalite de Jensen, que :

n
(u)E[N
n
(u)] E[M
n
(u)]


_
Var(N
n
(u)).
7. Deduire de ce qui prec`ede que la suite (T
n
/

n, n N

) converge en loi vers

2
G.
II Estimation des param`etres
1. Justier que la vraisemblance du mod`ele associe aux variables aleatoires
(
1
, . . . ,
n
) secrit :
p
n
(
1
, . . . ,
n
; , , ) = (2
2
)
n/2
exp
_

k=1
(x
k
x
k1
)
2
/2
2
_
,
o` u (x
0
, . . . , x
n
) correspond `a une realisation de (X
0
, . . . , X
n
).
On pose
n
=
1
n
(X
n
X
0
) et :

n
=
1
n
n

k=1

k
,

X
n1
=
1
n
n1

k=0
X
k
, X
2
n1
=
1
n
n1

k=0
X
2
k
, et
n
=
1
n
n

k=1
X
k1
X
k
.
2. Montrer que les estimateurs du maximum de vraisemblance de et sont :

n
=

n
(

X
n1
+
n
)

X
n1
X
2
n1


X
2
n1
et

n
=

X
n1
+
n

n

X
n1
.
3. Montrer en utilisant (XII.13) que :

X
n1
(1 ) = +
n

n
.
On suppose que ] 1, 1[ et on admet alors que p.s. lim
n+
X
n
/n = 0 et que
p.s. lim
n+
I
n
= 0, o` u :
I
n
=
1
n
n

k=1
X
k1

k
.
145
XII Controles de n de cours
4. Montrer que (

X
n
, n N

) converge p.s. vers a = /(1 ).


5. On rappelle la notation : V
n
=

n
k=1

2
k
. Montrer que :
X
2
n1
(1
2
) =
2
+
V
n
n
+ 2

X
n1
+
_
X
2
0
n

X
2
n
n
_
+ 2
n
+ 2I
n
.
6. Montrer que (X
2
n
, n N

) converge p.s. vers une limite b que lon calculera.


7. En sinspirant des questions precedentes, montrer que (
n
, n N

) converge
p.s. vers b +a.
8. Montrer que les estimateurs
n
et

n
sont convergents.
9. (Facultatif) Calculer
2
n
lestimateur du maximum de vraisemblance de
2
.
10. (Facultatif) Montrer que
2
n
est un estimateur convergent de
2
.
On peut egalement demontrer que lestimateur (
n
,

n
,
2
n
) de (, ,
2
) est asymp-
totiquement normal.
III Test dutilite du coecient dauto-regression
On utilise les notations des paragraphes precedents. On consid`ere lhypoth`ese
nulle H
0
= = 0 et son alternative H
1
=
_
] 1, 0[]0, 1[
_
. On introduit la
statistique de test :

n
=

n
n
.
1. Verier que sous H
0
, on a :

n
=
T
n
/

n +R

n
V
n1
/n +R
n
,
o` u les suites (R

n
, n N

) et (R
n
, n N

) convergent en loi vers 0.


2. Montrer en utilisant la question I.7 que la suite (
n
, n N

) converge en loi
sous H
0
vers G de loi gaussienne ^(0, 1).
3. Donner, en utilisant la question II.8, le comportement asymptotique de
n
sous
H
1
. Puis determiner la region critique pour un test de niveau asymptotique
]0, 1[.
4. Donner la formule de la p-valeur asymptotique.
5. On observe les temperatures journali`eres moyennes de la station Meteo France
de Lille du 31/12/2001 au 31/12/2002 (n = 365), et on obtient :

X
n1
11.349521,
n
= 0.0102397, X
2
n1
158.79738,
n
156.86773.
Faire lapplication numerique (avec par exemple = 5%) et conclure.
146
XII.11 2009-2010 : Mod`ele auto-regressif pour la temperature
Les gures XII.4 et XII.3 donnent respectivement pour la periode du 2/01/1994
au 31/12/2002 (n = 32285) et du 01/01/2002 au 31/12/2002 (n = 365) :

`
A gauche : les valeurs des temperatures journali`eres moyennes (X
k
, k
1, . . . , n) relevees `a la station de Meteo France de Lille, ainsi que les valeurs
des residus correspondants (
k
, k 1, . . . , n), o` u
k
= X
k

n
X
k1

n
.

`
A droite : lhistogramme des residus et la densite de la loi gaussienne ^(0,
2
n
).
Un mod`ele plus realiste pour levolution journali`ere des temperatures devrait tenir
compte de la saisonalite (cf la periodicite du signal dans la gure XII.4 `a gauche).
0 50 100 150 200 250 300 350 400
10
5
0
5
10
15
20
25
30
10 5 0 5 10
0.00
0.05
0.10
0.15
0.20
0.25
Fig. XII.3.
`
A gauche : temperatures journali`eres moyennes en 2002, et valeurs des residus cor-
respondants.
`
A droite : histogramme des residus et densite gaussienne associee.
0 500 1000 1500 2000 2500 3000 3500
15
10
5
0
5
10
15
20
25
30
10 5 0 5 10
0.00
0.05
0.10
0.15
0.20
0.25
Fig. XII.4.
`
A gauche : temperatures journali`eres moyenne de 1994 `a 2002, et valeurs des residus
correspondants.
`
A droite : histogramme des residus et densite gaussienne associee.

147
XIII
Corrections
XIII.1 Espaces probabilises
Exercice I.1.
1)
1
17
; 2)
13
17
; 3)
13
52
13
51
=
13
204
; 4)
13
102
; 5)
2
52
+ 2
12
52
3
51
=
29
26 17
.
Exercice I.2.
Lespace detat est = (i, j, k); 1 i, j 6, 1 k 12, o` u i represente le
resultat du premier de `a 6 faces, j celui du second `a 6 faces et k celui du de `a 12
faces. On munit (, T()) de la probabilite uniforme P (des equilibres indepen-
dants). Pour calculer P(A gagne), on compte le nombre de cas favorables divise
par le nombre de cas possibles (Card = 6.6.12). Le nombre de cas favorables
est :
Card (i, j, k) ; i +j > k =

1i,j6
12

k=1
1
i+j>k
=

1i,j6
(i +j 1)
= 2 6
6

i=1
i 36 = 36 7 36 = 36 6.
Donc on a P(A gagne) = 6/12 = 1/2.
P(match nul) = Card (i, j, k) ; i +j = k/6 6 12
=
1
6 6 12

1i,j6
12

k=1
1
k=i+j
= 1/12.
Le jeu nest pas equilibre car P(A gagne) =
1
2
> P(A perd) =
1
2

1
12
.
Exercice I.3.
XIII Corrections
Pour repondre `a la premi`ere question on denit dabord lespace de probabili-
tes : = 1, . . . , 365
n
avec = (
1
, . . . ,
n
) o` u
i
est la date danniversaire de
lel`eve i. On choisit la probabilite uniforme sur . On a alors :
p
n
= P(au moins 2 el`eves ont la meme date danniversaire)
= 1 P(tous les el`eves ont des dates danniversaires dierentes)
= 1 P(;
i
,=
j
, i ,= j)
= 1
Card ;
i
,=
j
, i ,= j
365
n
= 1
Card injections de 1, . . . , n dans 1, . . . , 365
365
n
=
_
_
_
1
365!
(365 n)!365
n
si n 365,
1 si n 366.
On obtient les valeurs numeriques suivantes :
p
22
0.476; p
23
0.507; p
366
= 1.
(Pour les petites valeurs de n, on a lapproximation suivante :
365!
(365 n)!365
n
=
n1

k=1
_
1
k
365
_
= e
P
n1
k=1
log(1
k
365
)
e

P
n1
k=1
k
365
= e
n(n1)/730
e
n
2
/730
.
On obtient p
n
1/2 pour e
n
2
/730
1/2 soit n
_
730 log(2). Comme log(2)
0.7, il vient n

511 soit n 22, 23.)


En fait, les naissances ne sont pas uniformement reparties sur lannee. Les
valeurs statistiques de p
n
sont donc plus elevees.
Pour la deuxi`eme question, on a, en notant x la date danniversaire de Socrate :
q
n
= P(au moins un el`eve a son anniversaire le jour x)
= 1 P(tous les el`eves ont leur date danniversaire dierente de x)
= 1 P(;
i
,= x, i 1, . . . , n)
= 1
Card ;
i
,= x, i 1, . . . , n
365
n
= 1
_
364
365
_
n
.
On obtient les valeurs numeriques suivantes :
150
XIII.1 Espaces probabilises
q
23
0.061; q
366
0.634.

Exercice I.4.
On jette une pi`ece n fois. Notons E
n
lev`enement on observe au moins trois
piles ou trois faces consecutifs et p
n
sa probabilite. Il est facile de calculer les
premi`eres valeurs de la suite (p
n
, n 1) : p
1
= p
2
= 0 et p
3
= 1/4. Notons A
lev`enement les deux premiers jets donnent deux resultats dierents, B lev`ene-
ment les deux premiers jets donnent deux resultats identiques mais dierents du
resultat du troisi`eme jet et enn C lev`enement les trois premiers jets donnent
trois resultats identiques, de sorte que A, B, C forme une partition de lensemble
fondamental . Pour n 3, on a donc
p
n
= P(A)P(E
n
[A) +P(B)P(E
n
[B) +P(C)P(E
n
[C)
=
1
2
p
n1
+
1
4
p
n2
+
1
4
.
Par consequent, il vient p
4
= 3/8 et p
5
= 1/2. Eug`ene sest donc rejoui un peu
vite...
On peut verier par recurrence que pour n 1,
p
n
= 1
1
2

5
_
_
(3 +

5)
_
1 +

5
4
_
n1
(3

5)
_
1

5
4
_
n1
_
_
.
On obtient bien s ur que lim
n
p
n
= 1. Par exemple on a p
10
0.826.
Exercice I.5.
1. On a P((p
r
, p
b
)) = C
pr
pr+p
b
_
r
r +b
_
pr
_
b
r +b
_
p
b
.
2. On a
P((p
r
, p
b
)) =
C
pr
r
C
p
b
b
C
pr+p
b
r+b
=
C
pr
p
C
rpr
r+bp
C
r
r+b
= C
pr
pr+p
b
pr

k=1
r k + 1
r +b k + 1
p
b

=1
r + 1
r +b + 1
.
Pour la premi`ere egalite, on consid`ere quil faut choisir p
r
boules rouges parmi
r et p
b
boules bleues parmi b. Pour la deuxi`eme egalite, on consid`ere quil faut
quil y ait p
r
boules rouges parmi les p premi`eres boules et r p
r
dans les
r +b p autres.
151
XIII Corrections
3. Dans les deux cas, on obtient :
lim
r,b+;
r
r+b

P((p
r
, p
b
)) = C
pr
pr+p
b

pr
(1 )
p
b
.

Exercice I.6.
1. La correction est elementaire.
2. On a verie (I.1) pour n = 2. On suppose (I.1) vraie pour n, et on la demontre
pour n + 1. On a
P
_
n+1
_
i=1
A
i
_
= P
_
n
_
i=1
A
i
_
+P(A
n+1
) P
_
n
_
i=1
(A
i
A
n+1
)
_
=
n

p=1
(1)
p+1

1i
1
<<ipn
P(A
i
1
A
ip
) +P(A
n+1
)

p=1
(1)
p+1

1i
1
<<ipn
P(A
i
1
A
ip
A
n+1
)
=
n+1

p=1
(1)
p+1

1i
1
<<ipn+1
P(A
i
1
A
ip
),
o` u lon a utilise (I.1) avec n = 2 pour la premi`ere egalite et (I.1) avec n deux
fois pour la deuxi`eme egalite. Legalite (I.1) est donc vraie au rang n + 1. Elle
est donc veriee par recurrence.
3. On pose I
m,n
=

m
p=1
(1)
p+1

1i
1
<<ipn
P(A
i
1
A
ip
). On a pour
n = 2 :
I
2,2
= P(A
1
) +P(A
2
) P(A
1
A
2
) P(A
1
A
2
) P(A
1
) +P(A
2
) = I
1,2
.
Soit n 2. On suppose la relation de recurrence vraie au rang n : pour tout
1 m n, on a I
m,n
P(

n
i=1
A
i
) si m est pair et P(

n
i=1
A
i
) I
m,n
si m
est impair. Soit 2 m n impair. On a
152
XIII.1 Espaces probabilises
P
_
n+1
_
i=1
A
i
_
= P
_
n
_
i=1
A
i
_
+P(A
n+1
) P
_
n
_
i=1
(A
i
A
n+1
)
_

p=1
(1)
p+1

1i
1
<<ipn
P(A
i
1
A
ip
) +P(A
n+1
)

m1

p=1
(1)
p+1

1i
1
<<ipn
P(A
i
1
A
ip
A
n+1
)
=
m

p=1
(1)
p+1

1i
1
<<ipn+1
P(A
i
1
A
ip
),
o` u lon a utilise (I.1) avec n = 2 pour la premi`ere egalite et lhypoth`ese de
recurrence sur n avec m et m 1 pour linegalite. Un raisonnement similaire
assure que I
m,n
P(

n
i=1
A
i
) pour m pair avec 2 m n. Linegalite pour
m = 1 est immediate. Linegalite pour m = n+1 est en fait une egalite dapr`es
(I.1). La relation de recurrence est vraie au rang n + 1. Elle est donc veriee
par recurrence.

Exercice I.7.
Le nombre de combinaisons de k exercices est N = C
k
m
.
1. p
1
= N
n
.
2. p
2
= N
n+1
.
3. p
3
= (1 N
1
)
n
.
4. Par la formule du crible, on a
p
4
= P
_
_
_
i1,...,N
combinaison i non choisie
_
_
=
N

p=1
(1)
p+1
C
p
N
_
N p
N
_
n
.
5. N = 6 et p
1
2.7 10
16
; p
2
1.6 10
15
; p
3
2.6%; p
4
15.2%.
Si les el`eves choisissent au hasard, il est quasiment impossible quils choisissent
tous la meme combinaison. Sils ont tous choisi la meme combinaison, alors le
choix netait pas fait au hasard (travail en groupe, exercices de diculte ou
dinteret dierent, ...).

Exercice I.8.
153
XIII Corrections
1. Soit F lensemble des fonctions de 1, . . . , n dans 1, . . . , k. On pose A
i
=
f E; f
1
(i) = . Le nombre de surjection, N, est donc egal `a Card (F)
Card (
k
i=1
A
i
). On a Card (F) = k
n
. Dapr`es la formule du crible, on a
Card (
k
i=1
A
i
) =
k

j=1
(1)
j+1

1i
1
i
j
Card (A
i
1
A
i
j
)
=
k

j=1
(1)
j+1
C
j
k
(k j)
n
.
On obtient N =
k

j=0
(1)
j
C
j
k
(k j)
n
.
2. Comme k! surjections distinctes de 1, . . . , n dans 1, . . . , k denissent la
meme partition de 1, . . . , n en k sous-ensembles non vides, il vient
_
n
k
_
=
N
k!
=
1
k!
k

j=0
(1)
j
C
j
k
(k j)
n
.
3. Il est clair que
_
n
1
_
= 1 et
_
n
k
_
= 0 si k > n. Quand on dispose de n > k > 1
elements `a repartir en k sous-ensembles non vides, alors :
Soit le dernier element forme un sous-ensemble `a lui tout seul et les n
1 premiers elements sont repartis en k 1 sous-ensembles non vides. Ceci
represente
_
n 1
k 1
_
cas possibles.
Soit les n1 premiers elements sont repartis en k sous-ensembles non vides,
et le dernier element appartient `a lun de ces k sous-ensemble. Ceci represente
k
_
n 1
k
_
cas possibles.
On en deduit donc la formule de recurrence.

Exercice I.9.
Lespace detat est lensemble des permutations de 1, . . . , n, la probabilite sur
cet espace est la probabilite uniforme.
1. On pose A
i
= i a sa veste, on a par la formule du crible
154
XIII.1 Espaces probabilises
P
_
_
_
1in
A
i
_
_
=
n

p=1
(1)
p+1

1i
1
<...<ipn
P(A
i
1
. . . A
ip
)
=
n

p=1
(1)
p+1
C
p
n
(n p)!
n!
=
n

p=1
(1)
p+1
1
p!
.
2. On note (n) le nombre de permutations de 1, . . . , n sans point xe. On
a dapr`es la question precedente 1
(n)
n!
=
n

p=1
(1)
p+1
1
p!
soit (n) =
n!
n

p=0
(1)
p
1
p!
.
3. On remarque que

n
(k) =
Card permutations de 1, . . . , n ayant k points xes
Card permutations de 1, . . . , n
Il existe C
k
n
possibilites pour les k points xes. On en deduit

n
(k) =
C
k
n
Card permutations de 1, . . . , n k sans point xe
Card permutations de 1, . . . , n
=
C
k
n
(n k)
n!
=
1
k!
nk

p=0
(1)
p
1
p!
.
4. On a lim
n

n
(k) = (k) =
1
k!
e
1
. On retrouve la loi de Poisson de param`etre
1. En fait, on peut montrer le resultat
1
suivant sur la vitesse de convergence des
probabilites
n
vers : pour tout B N, on a (avec la convention
n
(k) = 0
si k > n)

kB

n
(k)

kB
(k)

2
n
(n + 1)!
.

Exercice I.10.
On decrit une realisation = (
1
,
2
) o` u
1
est le sexe de lane(e) G ou F, et

2
le sexe du second. Lespace detats est donc
= (G, G), (G, F), (F, G), (F, F).
Les naissances etant equiprobables, on choisit la probabilite uniforme sur .
1
Voir le chapitre 4 du livre Poisson approximation de A. D. Barbour, L. Holst et S. Janson
(1992), Oxford University Press.
155
XIII Corrections
1. P(G) =
Card (G, F), (F, G), (G, G)
Card (F, F), (G, F), (F, G), (G, G)
= 3/4.
2. P(cadet = G[ainee = F) =
P(cadet = G, ainee = F)
P(ainee = F)
=
1/4
1/2
= 1/2.
3. P(G[F) =
P(G, F)
P(F)
=
1/2
3/4
= 2/3.
4. On a P(G[F, F decroche) =
P(G, F, F decroche)
P(F, F decroche)
. On calcule dabord le
numerateur
P(G, F, F decroche)
= P(F decroche [(G, F) ou (F, G))P((G, F) ou (F, G)) = p/2.
On remarque ensuite que
F, F decroche = (F, F), F decroche
_
G, F, F decroche
= (F, F)
_
G, F, F decroche,
et les deux evenements du dernier membre de droite sont disjoints. Ainsi on
obtient :
P(G[F, F decroche) =
1
2
p
P((F, F)) +P(G, F, F decroche)
=
2p
1 + 2p
[0, 2/3].
5. On a
P(G[F, F ouvre la porte) =
P(G, F, F ouvre la porte)
P(F, F ouvre la porte)
.
Calculons P(G, F, F ouvre la porte). On a par la formule de decomposition
(suivant que laine(e) ou le cadet(te) ouvre la porte) :
P(G, F, F ouvre la porte) = P(anee ouvre la porte , (F, G))
+P(cadette ouvre la porte, (G, F)).
Par independance de ane(e) ouvre la porte et (F, G), on a :
P(anee ouvre la porte , (F, G))
= P(ane(e) ouvre la porte )P((F, G)) = p
1
4
.
156
XIII.1 Espaces probabilises
Comme
P(cadette ouvre la porte, (G, F))
= P((G, F)) P(ane ouvre la porte , (G, F)),
on a par independance de ane(e) ouvre la porte et (G, F) que
P(cadette ouvre la porte, (G, F))
=
1
4
P(aine(e) ouvre la porte)P((G, F)) = (1 p)
1
4
.
On en deduit donc que
P(G, F, F ouvre la porte) = p
1
4
+(1 p)
1
4
=
1
4
.
De mani`ere similaire, on obtient
P(F, F ouvre la porte)
= P(ane(e) ouvre la porte)P((F, G) ou (F, F))
+P(cadet(te) ouvre la porte)P((G, F) ou (F, F))
= p
1
2
+(1 p)
1
2
=
1
2
.
Ainsi on trouve P(G[F ouvre la porte) =
1
4
1
1
2
=
1
2
.

Exercice I.11.
On note les ev`enements S = je suis sain, M = je suis malade, + = mon
test est positif et = mon test est negatif. On cherche P(S[+) et P(M[). On
connat les valeurs des probabilites suivantes : P(+[M) = , P([S) = et P(M)
que lon note . On deduit de la formule de Bayes que :
P(S[+) =
P(+[S)P(S)
P(+[M)P(M) +P(+[S)P(S)
=
(1 )(1 )
+ (1 )(1 )
.
On deduit egalement de la formule de Bayes que :
P(M[) =
P([M)P(M)
P([M)P(M) +P([S)P(S)
=
(1 )
(1 ) +(1 )
.
A.N. P(S[+) 30/31 (en fait P(S[+) 96.8%) et P(M[) 2.10
5
.
157
XIII Corrections
Exercice I.12.
On note M le phenotype yeux marron, et B yeux bleus. Le phenotype M
provient des genotypes mm et mb, alors que le phenotype B provient du genotype
bb. Le genotype des parents dAdrien est mb.
1. P(Adrien = B) =
1
4
.
2. P(1 = B[ Adrien = M) =
1
3
.
3. En decomposant suivant le genotype dAdrien, on a
P(1 = M, 2 = B) = P(1 = M, 2 = B, Adrien = bb)
+P(1 = M, 2 = B, Adrien = mb)
+P(1 = M, 2 = B, Adrien = mm)
= P(1 = M, 2 = B[ Adrien = mb) P(Adrien = mb)
=
1
2
1
2
1
2
=
1
8
,
et
P(1 = M) = P(1 = M, Adrien = mm) +P(1 = M, Adrien = mb) =
1
2
.
On en deduit donc que P(2 = B[1 = M) =
P(1 = M, 2 = B)
P(1 = M)
=
1
4
.
4. Si le premier enfant a les yeux marron, on sait dej`a quAdrien a les yeux marron.
On a donc plus dinformation dans la question 3) que dans la question 2).

Exercice I.13.
La description de lespace detats doit etre faite avec soin. On numerote les faces
de la premi`ere carte a, b, de la deuxi`eme c, d et de la troisi`eme e, f. Les couleurs
des faces sont :
a = R, b = R, c = R, d = B, e = B, f = B.
Une carte cest une face exposee et une face cachee : (E, C). Lespace detat est
donc
= (a, b), (b, a), (c, d), (d, c), (e, f), (f, e).
On munit (, T()) de la probabilite uniforme. Il faut ici se convaincre que les faces
sont discernables et donc que (b, a) ,= (a, b). On pourra raisonner en remarquant
que le resultat ne change pas si on numerote eectivement les faces des cartes. On
a
158
XIII.1 Espaces probabilises
P(C = B[E = R) =
P(E = R, C = B)
P(E = R)
=
Card (c, d)
Card (a, b), (b, a), (c, d)
=
1
3
.

Exercice I.14.
On note r
A
la probabilite que vous choisissiez la porte A. La probabilite, p
B[A;C
,
pour que le cadeau soit derri`ere la porte B (cadeau en B) sachant que vous avez
choisi la porte A (choisir A) et que le presentateur ouvre la porte C (ouvrir C)
est egale `a
P(choisir A, cadeau en B, ouvrir C)
P( choisir A, ouvrir C)
.
Si vous avez choisi la porte A, et que le cadeau est en B, alors le presentateur ouvre
la porte C. Votre choix etant independant de la position du cadeau, on en deduit
que le numerateur est egal `a r
A
/3. Pour calculer le denominateur, on decompose
suivant les positions possibles du cadeau (la position C est impossible quand le
presentateur ouvre la porte C) : pour la position B, on a obtenu que la probabilite
est r
A
/3, pour la position A, il vient
P(choisir A, cadeau en A, ouvrir C)
= P(ouvrir C[ choisir A, cadeau en A)
P(choisir A, cadeau en A).
En notant q
x[y
, la probabilite que le presentateur ouvre la porte x sachant que
vous avez choisi la porte y et que le cadeau est en y, on obtient
p
B[A;C
=
r
A
/3
r
A
q
C[A
/3 +r
A
/3
=
1
q
C[A
+ 1
.
1. On modelise au hasard par q
C[A
= 1/2. Il vient alors p
B[A;C
= 2/3. On a
donc interet `a changer de porte.
2. On a q
C[A
= 0. Il vient alors p
B[A;C
= 1. Si le presentateur ouvre la porte C,
on est certain que le cadeau est en B. On note p
C[A;B
la probabilite pour que
le cadeau soit derri`ere la porte C sachant que vous avez choisi la porte A et
que le presentateur ouvre la porte B. Des calculs similaires donnent
p
C[A;B
=
1
q
B[A
+ 1
.
On en deduit donc que p
C[A;B
= 1/2. On ne perd rien `a changer de porte.
3. Comme q
C[A
et q
B[A
sont dans [0, 1], on en deduit donc que p
B[A;C
et p
C[A;B
sont dans [1/2, 1]. Dans tous les cas, vous avez interet `a changer de porte !
159
XIII Corrections
4. Supposons que vous ayez choisi la porte A et que le presentateur ait ouvert
la porte C. Votre probabilite de gagner est p =
1
2
p
B[A;C
+
1
2
p
A[A;C
=
1
2
, o` u
p
A[A;C
= 1 p
B[A;C
est la probabilite pour que le cadeau soit derri`ere la porte
A sachant que vous avez choisi la porte A et que le presentateur ouvre la porte
C. Cette strategie est moins bonne que celle qui consiste `a changer de porte,
pour laquelle la probabilite de gagner est comprise entre 1/2 et 1.

XIII.2 Variables aleatoires discr`etes


Exercice II.1.
Loi E[X] Var(X)
X
(z)
Bernoulli p [0, 1] p p(1 p) 1 p +pz
binomiale (n, p) N [0, 1] np np(1 p) (1 p +pz)
n
geometrique p ]0, 1]
1
p
1 p
p
2
pz
1 (1 p)z
Poisson ]0, [ e
(1z)

Exercice II.2.
1. Comme X 0 p.s., on en deduit que p.s.

1
1 +X

=
1
1 +X
1. Donc la v.a.
1
1 +X
est integrable. On a :
E
_
1
1 +X
_
=

k=0
1
1 +k
P(X = k) =

k=0
1
1 +k
e


k
k!
=
e

k=0

k+1
(k + 1)!
=
1 e

.
2. De meme
1
(1 +X)(2 +X)
est integrable, et on a
160
XIII.2 Variables aleatoires discr`etes
E
_
1
(1 +X) (2 +X)
_
=

k=0
1
(1 +k) (2 +k)
P(X = k)
=

k=0
1
(1 +k) (2 +k)
e


k
k!
=
e

k=0

k+2
(k + 2)!
=
1 e

2
.
Comme
1
1 +X

1
2 +X
=
1
(1 +X) (2 +X)
, on deduit que
1
2 +X
est integrable
et que
E
_
1
2 +X
_
= E
_
1
1 +X
_
E
_
1
(1 +X) (2 +X)
_
=
1 + e

2
.

Exercice II.3.
1. La position de la bonne clef est au hasard sur les positions possibles. La loi de
X est donc la loi uniforme sur 1, , n. On a
E[X] =
n

k=1
kP(X = k) =
1
n
n

k=1
k =
n + 1
2
,
E[X
2
] =
n

k=1
k
2
P(X = k) =
1
n
n

k=1
k
2
=
(n + 1)(2n + 1)
6
,
Var(X) = E[X
2
] E[X]
2
=
(n + 1)(2n + 1)
6

_
n + 1
2
_
2
=
n
2
1
12
.
2. Le gardien essaie les clefs eventuellement plusieurs fois chacune. (Il sagit dun
tirage avec remise, alors que dans la question precedente il sagissait dun tirage
sans remise). Soit A
k
levenement : le gardien choisit la bonne clef lors de la k-
i`eme tentative. Les evenements (A
k
, k 1) sont independants et de probabilite
1/n. La loi de X est donc la loi geometrique de param`etre p = 1/n. On a X N

et pour k 1,
P(X = k) =
_
1
1
n
_
k1
1
n
.
On sait que si une variable aleatoire X suit une loi geometrique de param`etre p
alors E[X] = 1/p et Var(X) = (1 p)/p
2
. En rempla cant p par 1/n, on trouve
E[X] = n et Var(X) = n(n 1).
161
XIII Corrections
3. On note par I levenement : le gardien est ivre. Par la formule de Bayes, on
obtient
P(I[X = n) =
P(X = n[I)P(I)
P(X = n[I)P(I) +P(X = n[I
c
)P(I
c
)
=
1
1 + 2(
n
n1
)
n1
.
On a lim
n
P(I[X = n) =
1
1 + 2 e
0.16.

Exercice II.4.
1. Soit X
i
le nombre de jets necessaires pour que le i
`eme
de am`ene un six pour
la premi`ere fois. Les variables aleatoires (X
i
, 1 i 5) sont independantes et
suivent une loi geom`etrique de param`etre 1/6. Comme X = max
1i5
X
i
, on
obtient pour k 1
P(X k) = P(X
i
k, 1 i 5)
=
5

i=1
P(X
i
k) par independance,
= (P(X
i
k))
5
car les lois sont identiques,
= (1 P(X
i
k + 1))
5
=
_
1
_
5
6
_
k
_
5
.
Cette formule est valable pour k = 0 : P(X 0) = 0.
2. On a

k=1
1
Y k
=

k=1

j=k
1
Y =j
=

j=1
j1
Y =j
.
En prenant lesperance dans les egalites ci-dessus, et en utilisant le theor`eme de
convergence monotone pour permuter les sommations et lesperance, on obtient

k=1
P(Y k) =

j=1
jP(Y = j) = E[Y ].
3. On a E[X] =

k=1
(1 P(X k 1)) =

k=0
_
_
1
_
1
_
5
6
_
k
_
5
_
_
. Il vient
E[X] 13.02.

162
XIII.2 Variables aleatoires discr`etes
Exercice II.5.
1. On a
Y
(z) =
az
1 (1 a)z
et
Z
(z) = e
(1z)
.
2. On a U = Y 1
X=1
, z
U
= 1
X=0
+z
Y
1
X=1
. Il vient

U
(z) = E[z
U
] = E[1
X=0
+z
Y
1
X=1
] = 1 p +p
Y
(z).
On a
E[U] =

U
(1) = p

Y
(1) =
p
a
,
E[U
2
] = E[U(U 1)] +E[U]
=

U
(1) +

U
(1) = p
_

Y
(1) +

Y
(1)
_
=
p(2 a)
a
2
.
3. On a V = Y 1
X=0
+Z1
X=1
, z
V
= 1
X=0
z
Y
+1
X=1
z
Z
. Il vient

V
(z) = E[z
V
] = E[1
X=0
z
Y
+1
X=1
z
Z
] = (1 p)
Y
(z) +p
Z
(z).
On a
E[V ] =

V
(1) = (1 p)

Y
(1) +p

Z
(1) =
1 p
a
+p,
E[V
2
] =

V
(1) +

V
(1) =
(1 p)(2 a)
a
2
+p(1 +).

Exercice II.6.
1. On note X
i
le resultat du candidat `a la question i. Les v.a.d. (X
i
, 1 i 20)
sont des v.a.d. de Bernoulli independantes et de meme param`etre P(X
i
=
1) = 1/k. Comme X =

20
i=1
X
i
, la loi de X est donc la loi binomiale B(20, 1/k).
2. Si X
i
= 0, on note Y
i
le resultat du candidat `a la question i lors du second
choix. Si X
i
= 1, on pose Y
i
= 0. Ainsi Y =

20
i=1
Y
i
represente le nombre de
bonnes reponses au deuxi`eme choix. Les v.a.d. (Y
i
, 1 i 20) sont des v.a.d.
independantes et de meme loi. Comme elles sont `a valeurs dans 0, 1, il
sagit de v.a. de Bernoulli. On determine leur param`etre :
P(Y
i
= 1) = P(Y
i
= 1, X
i
= 0) = P(Y
i
= 1[X
i
= 0)P(X
i
= 0)
=
1
k 1
k 1
k
=
1
k
.
Donc Y suit la loi binomiale B(20, 1/k). On remarquera que les v.a.d. X et Y
ne sont pas independantes.
163
XIII Corrections
3. Le nombre total de points est S = X+
1
2
Y . Il vient E[S] = E[X] +
1
2
E[Y ] =
30
k
.
Il faut prendre k = 6.

Exercice II.7.
1. La probabilite pour que lors du i-`eme tirage, les deux boules naient pas la
meme couleur est p =
2RB
(R +B)
2
. On denit les variables aleatoires X
i
par
X
i
= 1 si lors du i-`eme tirage, les deux boules nont pas la meme couleur
et X
i
= 0 sinon. Les variables aleatoires (X
i
, 1 i R + B) suivent la loi
de Bernoulli de param`etre p. (Elles ne sont pas independantes.) On a X =

R+B
i=1
X
i
. On en deduit par linearite que
E[X] =
R+B

i=1
E[X
i
] = (R +B)p =
2RB
R +B
.
2. La variable aleatoire X prend des valeurs paires. Les valeurs possibles de X
sont 2d; 0 d min(R, B). Pour obtenir 2d tirages de couleurs dierentes,
il faut choisir d boules parmi les rouges et d boules parmi les bleues. En-
n, une fois les boules de couleurs dierentes choisies, lordre du tirage de la
premi`ere urne (il y a
(R +B)!
R!B!
possibilites) na pas dimportance. On a donc
(R +B)!
R!B!
R!B!
(R d)!d!(B d)!d!
cas favorables parmi
_
(R +B)!
R!B!
_
2
cas possibles.
Donc, pour 0 d min(R, B), on a
P(X = 2d) =
R!
2
B!
2
(R +B)!(R d)!(B d)!d!
2
.

Exercice II.8.
On note par X
1
, X
2
, , et X
n
les resultats des n boules. Ces variables alea-
toires sont independantes de loi uniforme sur 1, . . . , N.
1. Soit x 1, , N. On a X x =
n
k=1
X
k
x. Comme les variables
aleatoires X
1
, , X
n
sont independantes et identiquement distribuees, il vient
P(X x) = P(X
1
x, . . . , X
n
x) = P(X
1
x)
n
=
(N x + 1)
n
N
n
.
On en deduit que pour x 1, , N 1,
164
XIII.2 Variables aleatoires discr`etes
P(X = x) = P(X x) P(X x + 1) =
(N x + 1)
n
(N x)
n
N
n
.
Cette formule est encore valable pour x = N, car P(X = N) =
1
N
n
.
2. Par symetrie, Y a meme loi que N X + 1. Pour y 1, , N, on a P(Y =
y) =
y
n
(y 1)
n
N
n
.
3. Soit (x, y) 0, , N
2
. Si x y, on a
P(X > x, Y y) = P(x < X Y y) = 0.
Si x < y, on a
P(X > x, Y y) = P(x < X Y y)
= P(x < X
i
y, i 1, , n)
= P(x < X
1
y)
n
=
(y x)
n
N
n
.
Cette formule est encore valable pour x = y. Pour la loi du couple (X, Y ), on
a pour (x, y) 1, . . . , N
2
,
si x > y, P(X = x, Y = y) = 0 car on a toujours X Y .
si x = y, P(X = x, Y = y) = P(X
i
= x, i 1, , n) =
1
N
n
.
si x < y,
P(X = x, Y = y) = P(X > x 1, Y = y) P(X > x, Y = y)
= P(X > x 1, Y y) P(X > x 1, Y y 1)
P(X > x, Y y) +P(X > x, Y y 1)
=
(y x + 1)
n
2(y x)
n
+ (y x 1)
n
N
n
.

Exercice II.9.
1. La fonction generatrice associee au resultat dun lancer du de `a onze faces est :
(z) =
1
11
12

k=2
z
k
=
1
11
z
2
1 z
11
1 z
.
Toutes les racines du polynome 1 z
11
sont complexes sauf la racine 1 qui est
reelle. Le polynome admet donc deux racines reelles : 0 (de multiplicite 2) et
1.
165
XIII Corrections
2. La fonction generatrice associee `a la somme dun lancer de deux des `a six faces
est, par independance, de la forme

2
(z) = (
6

k=1
p
k
z
k
)(
6

k=1
q
k
z
k
) = z
2
(
6

k=1
p
k
z
k1
)(
6

k=1
q
k
z
k1
),
o` u p
k
(resp. q
k
) est la probabilite dobtenir k avec le premier (resp. deuxi`eme)
de. Si =
2
, alors le polynome

6
k=1
p
k
z
k1
est de degre 5. Comme il est `a
coecients reels, il admet au moins une racine reelle. Il en est de meme pour le
polynome

6
k=1
q
k
z
k1
. Le polynome
2
admet donc au moins quatre racines
reelles. Il ne peut donc etre egal `a qui nadmet que deux racines reelles dont
une de multiplicite 2.
On ne peut donc pas reproduire le resultat dun lancer dun de equilibre `a onze
faces, numerotees de 2 `a 12, comme la somme dun lancer de deux des `a six
faces, numerotees de 1 `a 6, eventuellement dieremment biaises.

Exercice II.10.
Soient X et Y les variables aleatoires discr`etes qui representent le nombre de
piles obtenus par chacun des joueurs au cours des n lancers. Les variables X et Y
sont independantes et suivent des loi binomiales B(n, 1/2). On a, en utilisant la
formule de decomposition puis lindependance de X et Y ,
P(X = Y ) =
n

k=0
P(X = k, Y = k) =
n

k=0
P(X = k)P(Y = k)
=
1
2
2n
n

k=0
(C
k
n
)
2
=
C
n
2n
2
2n
.
Pour demontrer legalite
n

k=0
(C
k
n
)
2
= C
n
2n
, on peut calculer de deux mani`eres dif-
ferentes le coecient de x
n
dans le polynome (1 +x)
2n
= (1 +x)
n
(1 +x)
n
.
Exercice II.11.
On suppose que la phrase il choisit au hasard une de ses deux poches signie
que le choix de la poche est une realisation dune variable aleatoire de Bernoulli
de param`etre p (on code par exemple 0 pour la poche de gauche et 1 pour la
poche de droite) et que chaque choix est independant des choix precedents. En
absence dinformation supplementaire, il sera naturel de choisir p = 1/2. On note
(X
n
, n 1) une suite de v.a. de Bernoulli de param`etre p ]0, 1[ independantes.
La variable X
n
represente le choix de la poche lors du n-i`eme tirage (i.e. de la
n-i`eme cigarette).
166
XIII.2 Variables aleatoires discr`etes
1. Lorsque le fumeur saper coit que la bote quil a choisie est vide, sil reste k
allumettes dans lautre bote, cest quil a dej`a fume 2N k cigarettes, et donc
il a cherche 2N + 1 k fois une allumette. En particulier lev`enement quand
le fumeur ne trouve plus dallumette dans une bote, il reste k allumettes dans
lautre bote, de probabilite p
k
, est donc egal `a la reunion des deux ev`enements
exclusifs suivants : `a la 2N k +1-i`eme cigarette, le fumeur a choisi la poche
de droite pour la N +1-i`eme fois et `a la 2N k +1-i`eme cigarette, le fumeur
a choisi la poche de gauche pour la N+1-i`eme fois, cest-` a-dire `a la reunion de

2N+1k
i=1
X
i
= N+1, X
2N+1k
= 1 et de

2N+1k
i=1
X
i
= Nk, X
2N+1k
=
0. On en deduit donc
p
k
= P
_
2N+1k

i=1
X
i
= N + 1, X
2N+1k
= 1
_
+P
_
2N+1k

i=1
X
i
= N k, X
2N+1k
= 0
_
= P
_
2Nk

i=1
X
i
= N
_
P(X
2N+1k
= 1)
+P
_
2Nk

i=1
X
i
= N k
_
P(X
2N+1k
= 0)
= C
N
2Nk
[p
N+1
(1 p)
Nk
+ (1 p)
N+1
p
Nk
].
2. La probabilite cherchee est p
0
= C
N
2N
p
N
(1 p)
N
. Si on suppose que p = 1/2,
alors p
0
= C
N
2N
/2
2N
. Il vient p
0
12.5% pour N = 20 et p
0
8.9% pour
N = 40.
Comme
N

k=0
p
k
= 1, on en deduit, en prenant p = 1/2, la relation suivante non
triviale sur les coecients binomiaux :
N

k=0
2
k
C
N
2Nk
= 2
2N
.

Exercice II.12.
1. Soit m, n 1. Lev`enement T
1
= m, T
2
T
1
= n est egal `a X
1
=
0, . . . , X
m1
= 0, X
m
= 1, X
m+1
= 0, . . . , X
m+n1
= 0, X
m+n
= 1. Par inde-
pendance des variables aleatoires X
i
, on a donc
167
XIII Corrections
P(T
1
= m, T
2
T
1
= n)
= P(X
1
= 0) P(X
m1
= 0)P(X
m
= 1)P(X
m+1
= 0)
P(X
m+n1
= 0)P(X
m+n
= 1)
= p
2
(1 p)
m+n2
.
En utilisant la formule des lois marginales, il vient
P(T
1
= m) =

n1
P(T
1
= m, T
2
T
1
= n) =

n1
p
2
(1 p)
m+n2
= p
2
(1 p)
m1

n1
(1 p)
n1
= p(1 p)
m1
.
De meme, P(T
2
T
1
= n) = p(1 p)
n1
. Par consequent, pour tous m, n 1,
P(T
1
= m, T
2
T
1
= n) = P(T
1
= m)P(T
2
T
1
= n), ce qui prouve que les
variables aleatoires T
1
et T
2
T
1
sont independantes. Noter quelles suivent
toutes les deux la loi geometrique de param`etre p.
2. Plus generalement, si n
1
, n
2
, . . . , n
k+1
1, notons I = n
1
, n
1
+ n
2
, . . . , n
1
+
+n
k+1
et J = 1, . . . , n
1
+ +n
k+1
I. Lev`enement T
1
T
0
= n
1
, T
2

T
1
= n
2
, . . . , T
k+1
T
k
= n
k+1
est alors egal `a

iI
X
i
= 1

iJ
X
i
= 0.
Par independance des variables aleatoires X
i
, on a donc
P(T
1
T
0
= n
1
, T
2
T
1
= n
2
, . . . , T
k+1
T
k
= n
k+1
)
=

iI
P(X
i
= 1)

iJ
P(X
i
= 0)
= p
k+1
(1 p)
n
1
++n
k+1
k1
.
Comme ci-dessus, la formule des lois marginales implique que pour tous j
0, . . . , k et n
j+1
1,
P(T
j+1
T
j
= n
j+1
) = p(1 p)
n
j+1
1
. (XIII.1)
Par consequent, il vient
P(T
1
T
0
= n
1
, . . . , T
k+1
T
k
= n
k+1
) =
k

j=0
P(T
j+1
T
j
= n
j+1
),
ce qui prouve que les variables aleatoires T
1
T
0
, T
2
T
1
, . . . , T
k+1
T
k
sont
independantes. De plus, dapr`es (XIII.1), elles suivent toutes la loi geometrique
de param`etre p.
168
XIII.2 Variables aleatoires discr`etes
3. Noter que T
k
=

k1
j=0
(T
j+1
T
j
). Par linearite de lesperance, on a
E[T
k
] = E
_
_
k1

j=0
(T
j+1
T
j
)
_
_
=
k1

j=0
E[T
j+1
T
j
] =
k1

j=0
1
p
=
k
p
.
Par independance des variables aleatoires T
j+1
T
j
, il vient
Var(T
k
) = Var
_
_
k1

j=0
(T
j+1
T
j
)
_
_
=
k1

j=0
Var(T
j+1
T
j
) =
k1

j=0
1 p
p
2
=
k(1 p)
p
2
.
4. Soit n k 1. On suppose n 2. Lev`enement T
k
= n est egal `a

n1
i=1
X
i
= k 1 X
n
= 1. De plus la loi de

n1
i=1
X
i
est la loi bino-
miale de param`etre (n1, p). Par independance des variables aleatoires X
i
, on
a donc
P(T
k
= n) = P(
n1

i=1
X
i
= k 1)P(X
n
= 1) = C
k1
n1
p
k
(1 p)
nk
.
Pour n = k = 1, on obtient P(T
1
= 1) = p.
Par independance des variables aleatoires T
j+1
T
j
, la fonction generatrice

T
k
de T
k
est le produit des fonctions generatrices des variables aleatoires
T
j+1
T
j
(j 0, . . . , k 1). Comme ces derni`eres suivent la loi geometrique
de param`etre p, on a donc

T
k
(z) =
k1

j=0
pz
1 (1 p)z
=
_
pz
1 (1 p)z
_
k
.
5. On decompose sur les ev`enements = n et on utilise le fait que est inde-
pendant de (T
n
, n 1) :

T
(z) = E[z
T
] =

n1
E[z
T
[ = n]P( = n) =

n1

Tn
(z)P( = n).
Puisque P( = n) = (1 )
n1
, on a donc dapr`es la question precedente

T
(z) =

n1
(1 )
n1
_
pz
1 (1 p)z
_
n
=
pz
1 (1 p)z
,
ce qui prouve que T

suit la loi geometrique de param`etre p.


169
XIII Corrections
6. Considerons lexperience suivante. On jette la premi`ere pi`ece et chaque fois que
lon obtient 1 (pile) on jette la seconde pi`ece. On note T

le premier instant o` u
la seconde pi`ece montre pile. Dune part T

et T

ont meme loi. Dautre part, T

est linstant de premier succ`es dans une suite dexperiences independantes o` u


la probabilite de succ`es vaut p. En eet, les deux jets etant independants, la
probabilite que la premi`ere pi`ece montre pile puis que la seconde montre aussi
pile est le produit p. On retrouve que T

suit la loi geometrique de param`etre


p.

Exercice II.13.
1. On a
P(T = +) = P(
_
n0
X
k
= 0, 1 k n X
k
= 1, k > n)
=

n=0
P(X
k
= 0, 1 k n X
k
= 1, k > n).
Par ailleurs, on a
P(X
k
= 0, 1 k n X
k
= 1, k > n)
= lim
N
P(X
k
= 0, 1 k n X
k
= 1, N k > n)
= lim
N
(1 p)
n
p
Nn
= 0.
On en deduit donc que P(T = +) = 0.
On propose une deuxi`eme methode de portee plus generale : on cherche `a
majorer T par une variable aleatoire geometrique. On a T 2T

avec T

=
infn N

; X
2n1
= 1, X
2n
= 0. La variable aleatoire T

est le premier instant


o` u Y
n
= (X
2n1
, X
2n
) est egal `a (1, 0). Les variables aleatoires discr`etes (Y
n
, n
N

) sont independantes et de meme loi. T

est un premier instant de succ`es. La


loi de T

est donc la loi geometrique de param`etre P(Y


n
= (1, 0)) = p(1 p).
En particulier T

est nie p.s. On en deduit que T est ni p.s.


2. On calcule P(T = k) en decomposant suivant les valeurs de T
1
= infn
N

; X
n
= 1 :
P(T = k) =
k1

i=1
P(T = k, T
1
= i) =
k1

i=1
(1 p)
i1
p
ki
(1 p).
Soit U et V deux variables aleatoires independantes de loi geometrique de
param`etres respectifs p et 1 p. La loi de U +V est :
170
XIII.2 Variables aleatoires discr`etes
P(U +V = k) =
k1

i=1
P(U = i, V = k i) =
k1

i=1
(1 p)
i1
p
ki
(1 p).
Donc T a meme loi que U+V . (En fait U est le premier temps doccurrence de 1,
et `a partir de cet instant on attent la premi`ere occurrence de 0, qui correspond
`a V . Le temps total dattente de loccurrence 10 est donc T = U +V .)
3. On a
U
(z) =
zp
1 (1 p)z
,
V
(z) =
z(1 p)
1 pz
. On en deduit, par independance
de U et V , que
T
(z) =
U+V
(z) =
U
(z)
V
(z).
4. On a E[T] = E[U] + E[V ] =
1
p(1 p)
. On a egalement par independance
Var(T) = Var(U) + Var(V ) =
1 3p(1 p)
p
2
(1 p)
2
.

Exercice II.14.
1. On calcule la fonction generatrice du couple (S, N S). Pour v, z [1, 1], on
a par independance

(S,NS)
(v, z) = E[v
S
z
NS
] = P(N = 0) +

n=1
P(N = n)z
n
E[(v/z)
P
n
k=1
X
k
]
= P(N = 0) +

n=1
P(N = n)(pv + (1 p)z)
n
= (pv + (1 p)z) = e
p(1v)
e
(1p)(1z)
.
On remarque que
(S,NS)
(v, z) =
V
(v)
Z
(z), o` u V et Z suivent des lois de
Poisson de param`etre respectif p et (1p). En particulier, cela implique que
S et N S sont independants.
2. Soit z [1, 1]. On a, par independance entre N et NS, (z) = E[z
S
z
NS
] =
E[z
S
]E[z
NS
]. Par independance entre N et (X
n
, n 1), on a
E[z
S
] = P(N = 0) +

n=1
P(N = n)E[z
P
n
k=1
X
k
]
= P(N = 0) +

n=1
P(N = n)((1 p) +pz)
n
= ((1 p) +pz),
et par symetrie E[z
NS
] = (p + (1 p)z). On en deduit donc que (z) =
((1p) +pz)(p +(1p)z). Remarquons que h est bien denie sur ]0, 1[, car
est strictement positif pour z > 0 et

est denie a priori sur ] 1, 1[. La


relation h(z) = ph((1 p) +pz) + (1 p)h(p + (1 p)z) est immediate.
171
XIII Corrections
3. Rappelons que est continue en 1, non nulle en 1 (en fait egale `a 1 en 1), et
que

est croissante et admet une limite `a gauche en 1, eventuellement egale `a


linni. En particulier, h admet une limite `a gauche en 1, eventuellement egale
`a linni.
Pour a [0, 1[, on pose f
a
(z) = 1 a + az pour z R. Lapplication f
a
est
contractante (avec constante de Lipschitz a) admet 1 comme seul point xe,
et la suite (f
n
a
(z), n 1) converge en croissant vers 1 pour z [0, 1[, o` u f
n
a
designe litere n-i`eme de f
a
.
Comme h = h f
1/2
, on en deduit que h = h f
n
1/2
et par continuite h(z) =
lim
r1

h(r) pour tout z [0, 1[. Ceci implique que h est constant sur [0, 1[.
Comme h est positive et nie sur [0, 1[, on en deduit quil existe c 0 tel que

= c sur [0, 1[ et donc sur [0, 1] par continuite. Si c = 0, on a constant


et donc, comme (1) = 1, on a = 1 cest-` a-dire p.s. N = 0. Si c > 0, la
solution de lequation dierentielle ordinaire

= c sur [0, 1] avec condition


(1) = 1 donne (z) = e
c(1z)
. Donc, si c > 0, alors N suit la loi de Poisson
de param`etre c.
4. Comme p < 1/2, on a p +(1 p)z 1 p +pz pour z [0, 1[. On deduit donc
de h(z) min(h((1 p) +pz), (1 p)h(p +(1 p)z)) que h(z) infh(u); u
p + (1 p)z. Comme h(z) infh(u); u f
1p
(z), on en deduit que h(z)
infh(u); u f
n
1p
(z), et donc h(z) liminf
r1

h(r) pour tout z [0, 1[.


Un raisonnement similaire `a ce qui prec`ede assure que h(z) max(h((1
p) + pz), (1 p)h(p + (1 p)z)), puis h(z) suph(u); u f
p
(z) et h(z)
suph(u); u f
n
p
(z), et donc h(z) limsup
r1

h(r) pour tout z [0, 1[.


Comme h admet une limite `a gauche en 1, eventuellement egale `a linni (cf
le debut de la demonstration de la question precedente), on en deduit que
h(z) = lim
r1

h(r), et donc h est constant sur [0, 1[. La n de la demonstration


de la question precedente permet de conclure.

Exercice II.15.
1. On a P(X
1
= k
1
, . . . , X
n
= k
n
[ S
n
= k) = 0 si
n

i=1
k
i
,= k et sinon
P(X
1
= k
1
, . . . , X
n
= k
n
[ S
n
= k) =

i;k
i
=1
p

j;k
j
=0
(1 p)
C
k
n
p
k
(1 p)
nk
=
1
C
k
n
.
On en deduit que la loi conditionnelle de (X
1
, . . . , X
n
) sachant S
n
est la loi
uniforme sur (k
1
, . . . , k
n
) 0, 1
n
;

n
i=1
k
i
= k.
172
XIII.2 Variables aleatoires discr`etes
2. La variable X
i
prend les valeurs 0 ou 1. Il en est de meme quand on conditionne
par rapport `a S
n
. La loi de X
i
conditionnellement `a S
n
est donc une loi de
Bernoulli de param`etre p. Comme P(X
i
= 1[S
n
= k) = C
k1
n1
/C
k
n
= k/n pour
k 1, et P(X
i
= 1[S
n
= 0) = 0, on en deduit que p = S
n
/n.
3. On a P(X
1
= 1, X
2
= 1[S
n
) = S
n
(S
n
1)/(n(n 1)). En particulier P(X
1
=
1, X
2
= 1[S
n
) ,= P(X
1
= 1[S
n
)P(X
2
= 1[S
n
). Conditionnellement `a S
n
, les
variables X
1
et X
2
ne sont pas independantes.

Exercice II.16.
1. On note
X
,
Y
et
S
les fonctions generatrices de X, Y et S. On a
X
(z) =

Y
(z) =
pz
1 (1 p)z
. Par independance, on a
S
(z) =
X
(z)
Y
(z) =
p
2
z
2
(1 (1 p)z)
2
. En utilisant le developpement
1
(1 x)
2
=

k=0
(k + 1)x
k
, on
deduit que

S
(z) =

k=0
p
2
(k + 1)(1 p)
k
z
k+2
=

k=2
p
2
(k 1)(1 p)
k2
z
k
.
Ainsi on a pour n 2, P(S = n) = p
2
(n 1)(1 p)
n2
.
2. Si k , 1, , n 1 on a P(X = k[S = n) = 0 et pour k 1, , n 1.
P(X = k[S = n) =
P(X = k, S = n)
P(S = n)
=
P(X = k, Y = n k)
P(S = n)
=
p(1 p)
k1
p(1 p)
nk1
p
2
(n 1)(1 p)
n2
=
1
n 1
.
Ainsi, conditionnellement `a S, X suit la loi uniforme sur 1, .., S 1. On note
par h(n) = E[X[S = n]. On a h(n) =
n1

k=1
kP(X = k[S = n) =
n1

k=1
k
n 1
=
n
2
.
On en deduit que E[X[S] =
S
2
.
3. On a bien E[E[X[S]] =
E[S]
2
=
E[X +Y ]
2
= E[X].

Exercice II.17.
Le co ut de la premi`ere strategie est c
1
= cN. On note C
n
le co ut du test sur un
groupe de n personnes en melangeant les prel`evements. On a P(C
n
= c) = (1p)
n
et P(C
n
= c + nc) = 1 (1 p)
n
. On suppose que N/n est entier et on regroupe
173
XIII Corrections
les N personnes en N/n groupes de n personnes. Le co ut moyen total du test, en
utilisant la deuxi`eme strategie, est c
2
=
N
n
E[C
n
] soit :
c
2
=
N
n
[c(1 p)
n
+ (c +nc)(1 (1 p)
n
)] = cN
_
1 (1 p)
n
+
1
n
_
.
En supposant que np 1, il vient en faisant un developpement limite :
c
2
= cN
_
np +
1
n
_
+o(np).
Cette quantite est minimale pour n 1/

p. La condition np 1 est alors equiva-


lente `a p 1. On obtient donc c
2
2cN

p. On choisit donc la deuxi`eme strategie.


On peut verier que pour p 1, en prenant n =
_
1/

, on a c
2
2c + 2cN

p.
Exemple numerique : si p = 1%, alors il est optimal de realiser des tests sur des
groupes de n = 10 personnes. Leconomie realisee est alors de :
c
1
c
2
c
1
1 2

p = 80% .

Exercice II.18.
1. Soit X une variable aleatoire geometrique de param`etre p ]0, 1[. On a pour
n N,
P(X > n) =

kn+1
P(X = k) =

kn+1
p(1 p)
k1
= (1 p)
n
.
On en deduit que
P(X > k +n[X > n) = P(X > k +n)/P(X > n) = (1 p)
k
= P(X > k).
2. On pose q = P(X > 1) [0, 1]. Comme P(X > 1 + n[X > n) est independant
de n, on a
P(X > 1 +n[X > n) = P(X > 1[X > 0) = P(X > 1) = q,
car p.s. X N

. Si q = 0, alors P(X > n) = 0, et les probabilites conditionnelles


ne sont pas denies. On a donc q > 0. Comme P(X > 1 + n[X > n) =
P(X > 1 +n)
P(X > n)
, il vient P(X > n + 1) = qP(X > n) i.e P(X > n + 1) =
q
n+1
P(X > 0), et donc P(X > n) = q
n
car P(X > 0) = 1. Cela implique que
pour n N

,
P(X = n) = P(X > n 1) P(X > n) = (1 q)q
n1
= p(1 p)
n1
,
o` u p = 1 q. Comme P(X N

) = 1, on en deduit que

nN
P(X = n) = 1
i.e. p > 0. On reconnat, pour X, la loi geometrique de param`etre p ]0, 1[.
174
XIII.2 Variables aleatoires discr`etes
3. On note = P(X > 0). La question precedente traite le cas = 1. On suppose
]0, 1[. (Le cas = 0 implique P(X > n) = 0, et donc le caract`ere sans
memoire na pas de sens.) On pose q = P(X > 1[X > 0) [0, 1]. Labsence de
memoire implique que P(X > 1+n[X > n) = q soit P(X > 1+n) = qP(X > n)
et donc en iterant P(X > 1+n) = q
n+1
P(X > 0) = q
n+1
. Donc, il vient P(X =
0) = 1 et pour n 1, P(X = n) = P(X > n1)P(X > n) = p(1p)
n1
,
o` u p = 1q = P(X = 1[X > 0) et p ]0, 1[. On peut remarquer que X a meme
loi que Y Z, o` u Y est une variable aleatoire de Bernoulli de param`etre , et Z
est une variable aleatoire independante de Y de loi geometrique de param`etre
p. En ce qui concerne les temps de panne de machines, soit la machine est
en panne (probabilite 1 ), soit la machine est en etat de marche. Dans ce
dernier cas, la loi du temps de panne est une geometrique.

Exercice II.19.
Si les sportifs de haut niveau sont uniformement repartis dans la population,
les medailles le sont aussi. Chaque individu a donc, environ, une probabilite p
m

928/6 10
9
davoir une medaille et p
o
301/6 10
9
davoir une medaille dor. Le
nombre de medailles fran caise suit donc une loi binomiale de param`etre (n, p
m
),
avec n 60 10
6
. On peut approcher cette loi par la loi de Poisson de param`etre

m
= np
m
9. De meme, on peut approcher la loi du nombre de medaille dor
par une loi de Poisson de param`etre
o
= np
o
3. La probabilite davoir plus de
20 medailles est de 4 pour 10 000, et la probabilite davoir plus de 10 medailles
dor est de 3 pour 10 000. Ceci est invraisemblable. Lhypoth`ese selon laquelle les
sportifs de haut niveau sont uniformement repartis dans la population nest donc
pas realiste.

Exercice II.20.
1. On consid`ere des variables aleatoires (X
n
, n N

) independantes de loi de
Bernoulli de param`etre p. On pose

X
n
=
1
n

n
k=1
X
k
. On a :
P(C
c
n
) = P([

X
n
p[ >
n
)
E[(

X
n
p)
2
]

2
n
=
Var(

X
n
)

2
n
=
p(1 p)
n
2
n
,
o` u lon a utilise linegalite de Tchebychev pour linegalite et lindependance
pour la derni`ere egalite. On en deduit le resultat.
2. Un calcul elementaire assure que lentropie H
p
est maximale pour p = 1/2.
3. On a P() = e
n(
1
n
P
n
i=1

i
log(p)+(1
1
n
P
n
i=1

i
) log(1p))
. Pour C
n
, il vient :
n(p log(p) + (1 p) log(1 p) +
n
log(p(1 p)))
log(P()) n(p log(p) + (1 p) log(1 p)
n
log(p(1 p))).
175
XIII Corrections
On a donc :
e
n(Hp+n)
P() e
n(Hpn/2)
,
o` u 0
n
= 2
n
log(p(1 p)).
4. En sommant linegalite precedente sur C
n
, on obtient :
Card (C
n
) e
n(Hp+n)
P(C
n
) 1 et P(C
n
) e
n(Hpn/2)
Card (C
n
).
Comme P(C
n
) 1 pour n grand et que lim
n+
n
n
= +, on en deduit
que pour n susament grand on a P(C
n
) e
nn/2
. Pour n susament grand,
il vient :
e
n(Hpn)
Card (C
n
) e
n(Hp+n)
.
5. Pour p = 1/2, lentropie est maximale et vaut H
p
= log(2). On en deduit que
le cardinal de lensemble des suites typiques est de lordre de 2
n
= Card ().
Pour p 1, on obtient que le cardinal de lensemble des suites typiques est
de lordre de e
n(Hpn)
qui est beaucoup plus petit que le cardinal de . (Le
resultat est similaire pour p 0).

Exercice II.21.
1. Comme 0 u
n
, v
n
1, on en deduit que les series U et V sont absolument
convergentes sur ] 1, 1[.
2. On note H
n
= le phenom`ene se produit ` a linstant n. On a
v
n
= P(H
n
) =
n

=0
P(H
n
[X
1
= )P(X
1
= )
=
n

=0
P(X
1
+
k

i=2
X
i
= n, pour un k 2[X
1
= )P(X
1
= )
=
n

=0
P(
k

i=2
X
i
= n , pour un k 2)P(X
1
= ).
La derni`ere egalite est obtenue gr ace `a lindependance de X
1
et de la suite
(X
k
, k 2). Comme les variables aleatoires (X
k
, k 2) sont `a valeurs dans N

,
on en deduit que
P(
k

i=2
X
i
= n , pour un k 2)
= P(
k

i=2
X
i
= n , pour un k 2, . . . , n + 1) = u
n
.
176
XIII.3 Variables aleatoires continues
On a demontre que (v
n
, n 0) est la convolution des suites (b
n
, n 0) avec
(u
n
, n 0). On a donc V = BU.
3. La preuve de la premi`ere egalite se traite comme dans la question 1. Pour
demontrer la relation entre U(s) et F(s) on multiplie par s
n
et on somme sur
n. On obtient

n=1
s
n
u
n
=

n=1
n1

k=0
s
n
u
k
f
nk
.
Il vient U(s) 1 = F(s)U(s) et donc V = B/(1 F).
4. On a V (s) = p/(1 s). En evaluant (II.1) en s = 0, on obtient b
0
= p.
On a F(s) = 1
1
p
(1 s)B(s). En derivant n 1 fois, il vient F
(n)
(s) =
1
p
(nB
(n1)
(s) (1 s)B
(n)
(s)). En evaluant en s = 0, on obtient f
n
= (b
n1

b
n
)/p pour tout n 1.
5. Comme P(X
1
= n[X
1
> 0) = P(X
2
= n) = f
n
pour n 1, il vient pour n 1,
b
n
= P(X
1
= n) = P(X
1
= n[X
1
> 0)P(X
1
> 0) = f
n
(1 p).
On en deduit donc que b
n
= (1p)b
n1
, puis b
n
= (1p)
n
b
0
= (1p)
n
p pour
n 0 et f
n
= (1 p)
n1
p pour n 1. La loi de X
2
est la loi geometrique de
param`etre p, et X
1
a meme loi que X
2
1.

XIII.3 Variables aleatoires continues


Exercice III.1.
1. La fonction f denie sur R est positive, mesurable (car continue) et
_
+

f(x) dx =
_
+
0
xe
x
2
/2
dx = 1.
Donc f est une densite de probabilite.
2. Soit g une fonction mesurable bornee. On a
E[g(Y )] = E[g(X
2
)] =
_
+
0
g(x
2
) x e
x
2
/2
dx =
_
+
0
g(y)
1
2
e
y/2
dy,
o` u lon a fait le changement de variable y = x
2
sur R
+
. Donc Y suit une loi
exponentielle de param`etre 1/2.
177
XIII Corrections
3. Pour une loi exponentielle de param`etre , lesperance est 1/ et la variance
1/
2
, donc on a E[Y ] = 2 et Var(Y ) = 4.

Exercice III.2.
La probabilite, p, de toucher la f`eve correspond `a la probabilite que le centre
de la f`eve, qui est uniformement reparti sur le disque de rayon Rr (et de surface
(R r)
2
) soit `a une distance inferieure `a r dun rayon donne. On trouve
p =
1
(R r)
2
_
r
2
2
+r
_
(R r)
2
r
2
+ (R r)
2
arcsin(
r
R r
)
_
,
et pour r petit, on obtient p
2r
R
.

Exercice III.3.
On note
1
et
2
les angles formes par les deux rayons et le rayon qui passe
par la cerise. Lenonce du probl`eme indique que
1
et
2
sont independants et
suivent la loi uniforme sur [0, 2]. La longueur angulaire de la part contenant la
cerise est 2 [
1

2
[.
1. La probabilite pour que la part contenant la cerise soit la plus petite est P(2
[
1

2
[ < [
1

2
[). Comme les angles sont independants, la loi du couple
est la loi produit. On calcule :
P(2 [
1

2
[ < [
1

2
[) =
1
(2)
2
__
[0,2]
2
1
[
1

2
[>
d
1
d
2
=
1
(2)
2
2
_
[0,2]
d
1
_
[0,
1
]
1

2
>
d
2
=
1
4
.
La probabilite pour que la part contenant la cerise soit la plus petite est 1/4.
2. La longueur moyenne de la part contenant la cerise est egale `a 2E[[
1

2
[].
On calcule :
E[[
1

2
[] =
1
(2)
2
__
[0,2]
2
[
1

2
[ d
1
d
2
=
1
(2)
2
2
_
[0,2]
d
1
_
[0,
1
]
(
1

2
) d
2
=
2
3
La longueur moyenne de la part contenant la cerise est donc 4/3.
178
XIII.3 Variables aleatoires continues
La part qui contient la cerise est plus grande en moyenne et elle est egalement
plus grande dans 75% des cas. Pour voir que ces resultats ne contredisent pas
lintuition il faut inverser les operations. On decoupe dabord au hasard deux
rayons dans le gateau, puis on jette au hasard la cerise sur le bord. Celle-ci a
intuitivement plus de chance de tomber sur la part la plus grosse ! Il reste `a se
convaincre que jeter la cerise sur le bord puis couper le gateau au hasard, ou
couper le gateau au hasard puis jeter la cerise sur le bord donne bien le meme
resultat.

Exercice III.4.
On suppose que la longueur du b aton est de une unite. On note X et Y les em-
placements des deux marques. Par hypoth`ese X et Y sont des variables aleatoires
independantes de loi uniforme sur [0, 1]. On fait un triangle si et seulement si au-
cune des longueur des morceaux nest plus grande que la somme des deux autres,
ou ce qui revient au meme, si et seulement si la longueur de chaque morceau est
plus petite que 1/2. Cela est equivalent aux trois conditions suivantes :
1 max(X, Y ) 1/2, min(X, Y ) 1/2 et max(X, Y ) min(X, Y ) 1/2.
On obtient :
P(triangle)
= P(max(X, Y ) 1/2, min(X, Y ) 1/2, max(X, Y ) min(X, Y ) 1/2)
= E[1
max(X,Y )1/2,min(X,Y )1/2,max(X,Y )min(X,Y )1/2
]
=
_
1
max(x,y)1/2,min(x,y)1/2,max(x,y)min(x,y)1/2
1
[0,1]
(x)1
[0,1]
(y) dxdy
= 2
_
1
1/2
dx
_
1/2
x1/2
dy =
1
4
.

Exercice III.5.
On a par linearite E[

n1
X
n
] =

n1

1
n
. Donc on a 1 2.
On montre ensuite que 2 3. Si on a E[

n1
X
n
] < , alors la variable
aleatoire (positive)

n1
X
n
est nie p.s., et donc P(

n1
X
n
< ) = 1.
On montre maintenant que 3 1. Si P(

n1
X
n
< ) > 0, alors on a
E
_
e

P
n1
Xn
_
= E
_
e

P
n1
Xn
1

P
n1
Xn<
_
> 0.
Dautre part, par independance, on a
179
XIII Corrections
E
_
e

P
n1
Xn
_
=

n1
E
_
e
Xn

n1

n
1 +
n
= e

P
n1
log(1+
1
n
)
.
On en deduit que

n1
log(1 +
1
n
) < . Cela implique lim
n

n
= ainsi que

n1

1
n
< . On a donc montre que 3 1.
Exercice III.6.
Soit g une fonction mesurable bornee. En utilisant = 1
=1
1
=1
p.s.,
puis lindependance, on a
E[g(Z)] = E[g(Y )1
=1
] +E[g(Y )1
=1
]
= E[g(Y )]P( = 1) +E[g(Y )]P( = 1)
=
1
2
_
+
0
e
y
g(y)dy +
1
2
_
+
0
e
y
g(y)dy
=
1
2
_
R
e
[z[
g(z) dz.
Donc Z est une variable aleatoire continue dont la loi a pour densite f(z) =
1
2
e
[z[
, z R.
Exercice III.7.
1. Soit S = X + Y et T =
X
X +Y
. Comme X + Y > 0 p.s., T est une variable
aleatoire reelle bien denie. Soit h une fonction de R
2
dans R, mesurable et
bornee. On a
E[h(S, T)] = E
_
h
_
X +Y,
X
X +Y
__
=
_
T
h
_
x +y,
x
x +y
_

a+b
(a)(b)
e
(x+y)
x
a1
y
b1
dxdy ,
o` u T = (x, y) R
2
; x > 0, y > 0. On consid`ere la fonction denie sur T :

_
x
y
_
=
_
s
t
_
o` u s = x +y, t =
x
x +y
.
La fonction est une bijection de T dans =
_
(s, t) R
2
; s > 0, 0 < t < 1
_
.
De plus la fonction est de classe C
1
ainsi que son inverse :

1
_
s
t
_
=
_
st
s(1 t)
_
=
_
x
y
_
.
180
XIII.3 Variables aleatoires continues
La matrice jacobienne de ce changement de variable est :
_
1 1
y
(x+y)
2
x
(x+y)
2
_
.
La valeur absolue du determinant de la matrice jacobienne est [Jac[](x, y)[ =
1
x+y
. On en deduit que dtds = [Jac[](x, y)[ dxdy i.e. s dsdt = dxdy. On obtient
E[h(S, T)] =
_

h(s, t)

a+b
(a)(b)
e
s
s
a+b1
t
a1
(1 t)
b1
ds dt.
Donc, la densite du couple (S, T), f, est denie par
f(s, t) =

a+b
(a)(b)
e
s
s
a+b1
t
a1
(1 t)
b1
1
]0,+[
(s)1
]0,1[
(t) .
2. La fonction f est le produit dune fonction de s et dune fonction de t. Les
variables aleatoires S et T sont donc independantes. On obtient la densite de
T et de S par la formule des lois marginales. La densite de T est la fonction
f
T
denie par
f
T
(t) =
_
f(s, t) ds =
(a +b)
(a)(b)
t
a1
(1 t)
b1
1
]0,1[
(t) .
On reconnat la densite de la loi beta de param`etres a et b. La densite de S est
la fonction f
S
denie par
f
S
(s) =
_
f(s, t) dt =

a+b
(a +b)
e
s
s
a+b1
1
]0,+[
(s) .
On reconnat la densite de la loi gamma de param`etres et a +b.

Exercice III.8.
1. Remarquons que p.s. X ,= 0. La variable aleatoire 1/X est donc bien denie.
Soit g une fonction mesurable bornee. On a :
E[g(1/X)] =
_
R

g(1/x)
1

1
1 +x
2
dx
=
_
R

g(y)
1

1
1 + (1/y)
2
dy
y
2
=
_
+

g(y)
1

1
1 +y
2
dy,
o` u lon a fait le changement de variable y = 1/x (C
1
dieomorphisme de R

dans lui meme). On obtient donc que 1/X est de loi de Cauchy.
181
XIII Corrections
2. Comme Z ,= 0 p.s., la variable aleatoire Y/Z est bien denie. Soit g une fonction
mesurable bornee. On a :
E[g(Y/Z)] =
_
+

dz
1

2
e
z
2
/2
_
+

dy
1

2
e
y
2
/2
g(y/z)
= 2
_
+
0
dz
1

2
e
z
2
/2
_
+

dy
1

2
e
y
2
/2
g(y/z)
=
1

_
+
0
dz e
z
2
/2
_
+

duze
u
2
z
2
/2
g(u)
=
1

_
+
0
dz ze
(1+u
2
)z
2
/2
_
+

dug(u)
=
_
+

1
1 +u
2
g(u) du,
o` u lon a fait le changement de variable u(y) = y/z pour y R. Donc Y/Z suit
une loi de Cauchy.
3. Si X est de loi de Cauchy, alors X a meme loi que Y/Z. Donc 1/X a meme loi
que Z/Y . Comme (Z, Y ) a meme loi que (Y, Z) on en deduit que Y/Z a meme
loi que Z/Y . On retrouve bien que 1/X a meme loi que X.

Exercice III.9.
Soit g une fonction mesurable bornee.
1. On a :
E[g(X
2
1
)] =
_
+

g(x
2
)
1

2
e
x
2
/2
dx = 2
_
+
0
g(x
2
)
1

2
e
x
2
/2
dx
=
_
+
0
g(y)
1

2
1

y
e
y/2
dy,
o` u lon a fait le changement de variable y = x
2
sur ]0, +[. Donc X
2
1
suit la
loi
2
(1).
2. On a :
E[g(X
2
1
+X
2
2
)] =
_
R
2
dx
1
dx
2
1
2
e
(x
2
1
+x
2
2
)/2
g(x
2
1
+x
2
2
)
=
1
2
_
2
0
d
_
+
0
r drg(r
2
) e
r
2
/2
=
_
+
0
g(y)
1
2
e
y/2
dy,
182
XIII.3 Variables aleatoires continues
o` u lon a utilise lindependance de X
1
et X
2
pour ecrire la densite du couple
comme produit des densite dans la premi`ere egalite, le changement de variable
en coordonnees polaires dans la deuxi`eme puis le changement de variable y = r
2
sur ]0, [ dans la derni`ere. On en deduit que X
2
1
+X
2
2
suit la loi
2
(2).

Exercice III.10.
1. Soit D = (x
1
, . . . , x
n
) ]0, 1[
n
; x
i
,= x
j
pour tout i ,= j. Les ensembles

= (x
1
, . . . , x
n
) ]0, 1[
n
; x
(1)
< < x
(n)
, pour o
n
, o` u o
n
est
lensemble des permutations de 1, . . . , n, forment une partition de D.
Soit g une fonction mesurable bornee. On a :
E[g(Y, Z)] = E[g( min
1in
X
i
, max
1in
X
i
)]
=
_
g( min
1in
x
i
, max
1in
x
i
)1
[0,1]
n(x
1
, . . . , x
n
) dx
1
. . . dx
n
=
_
g( min
1in
x
i
, max
1in
x
i
)1
D
(x
1
, . . . , x
n
) dx
1
. . . dx
n
=

Sn
_
g(x
(1)
, x
(n)
)1

(x
1
, . . . , x
n
) dx
1
. . . dx
n
= n!
_
g(x
1
, x
n
)1

0
(x
1
, . . . , x
n
) dx
1
. . . dx
n
,
o` u
0
est lidentite. La derni`ere egalite sobtient par un argument de symetrie.
On en deduit donc que :
E[g(Y, Z)] =
_
g(y, z)n!1
y<x
2
<...<x
n1
<z
dx
2
. . . dx
n1
1
0<y<z<1
dydz
=
_
g(y, z) n(n 1)(z y)
n2
1
0<y<z<1
dydz.
Donc (Y, Z) est une variable aleatoire continue de densite f
(Y,Z)
(y, z) = n(n
1)(z y)
n2
1
0<y<z<1
.
2. Par la formule des lois marginales, on en deduit que Y est une variable aleatoire
continue de densite f
Y
(y) = n(1y)
n1
1
0<y<1
. Il sagit de la loi beta (1, n).
Par symetrie, on verie que la loi de Z est la loi (n, 1) de densite f
Z
(z) =
nz
n1
1
0<z<1
.
3. La variable aleatoire Y etant integrable, lesperance conditionnelle E[Y [Z] a un
sens. On a, pour z ]0, 1[ :
183
XIII Corrections
E[Y [Z = z] =
_
y
f
(Y,Z)
(y, z)
f
Z
(z)
dy
=
_
z
0
(n 1)y(z y)
n2
z
1n
dy
=
_
z
1n
(z y)
n1
y

z
0
+
_
z
0
z
1n
(z y)
n1
dy
=
z
n
.
On en deduit donc E[Y [Z] = Z/n.
4. Soit g une fonction mesurable bornee. On a, pour z ]0, 1[ :
E[g(Y/Z)[Z = z] =
_
g(y/z)
f
(Y,Z)
(y, z)
f
Z
(z)
dy
=
_
g(y/z)(n 1)(z y)
n2
z
1n
1
0<y<z
dy
=
_
g()(n 1)(1 )
n2
1
0<<1
d,
o` u lon a eectue le changement de variable = y/z (`a z xe). On en deduit
donc que pour toute fonction g mesurable bornee,
E[g(Y/Z)[Z] =
_
g()(n 1)(1 )
n2
1
0<<1
d.
Donc la densite de la loi conditionnelle de Y/Z sachant Z est (n 1)(1
)
n2
1
0<<1
. On reconnat une loi (1, n 1). Elle est independante de Z.
Cela signie donc que Y/Z est independante de Z. On retrouve alors :
E[Y [Z] = E
_
Z
Y
Z
[Z
_
= Z E
_
Y
Z
_
=
Z
n
.
5. Le resultat sobtient par symetrie. En eet X
i
a meme loi que 1X
i
. Donc (1
X
1
, . . . , 1X
n
) a meme loi que (X
1
, . . . , X
n
). Comme 1Z = min
1in
(1X
i
)
et 1 Y = max
1in
(1 X
i
), on en deduit donc que (1 Z, 1 Y ) a meme
loi que (Y, Z).
6. On deduit de la question precedente que
1 Z
1 Y
est independant de 1Y donc
de Y .

Exercice III.11.
184
XIII.3 Variables aleatoires continues
1. La densite de probabilite f est f(t) = t exp
_

1
2
t
2
_
1
t>0
. Lesperance vaut :
E[T] =
_
+
0
t
2
exp
_

1
2
t
2
_
dt =
_
t exp
_

1
2
t
2
__
+
0
+
_
+
0
exp
_

1
2
t
2
_
dt
=
1
2
_
+

exp
_

1
2
t
2
_
dt
=

2
2
.
2. La probabilite secrit :
P(T 3 [T 1) =
P(T 3, T 1)
P(T 1)
=
P(T 3)
P(T 1)
=
e

9
2
e

1
2
= e
4
.
Comme P(T 3 [T 1) ,= e
2
= P(T 2) la loi nest pas sans memoire.
3. Les variables aleatoires X
1
, . . . , X
10
sont independantes et suivent une loi de
Bernoulli de param`etre :
P(T 1) = F (1) = 1 e

1
2
.
On en deduit que la loi de N est la loi binomiale de param`etre (10, 1 e

1
2
).
4. La probabilite que lequipement en serie soit defaillant avant 1 an vaut :
P(N 1) = 1 P(N = 0) = 1 e

10
2
9.9 10
1
= 99%.
5. La probabilite que lequipement en parall`ele soit defaillant avant 1 an vaut :
P(N = 10) =
_
1 e

1
2
_
10
8.9 10
5
.

Exercice III.12.
1. On note Z
k
la variable aleatoire reelle donnant la hauteur de la k-i`eme per-
foration. Les variables aleatoires (Z
k
, k 1) sont independantes de meme loi
uniforme sur [0, h], et on a Z = min
1kN
Z
k
. On en deduit, en utilisant lin-
dependance entre (Z
k
, k 1) et N, que pour z [0, h] et n > 0 :
P(Z > z[N = n) = P(Z
1
> z, . . . , Z
n
> z[N = n)
= P(Z
1
> z, . . . , Z
n
> z) =
n

k=1
P(Z
k
> z) =
_
1
z
h
_
n
.
185
XIII Corrections
Donc on a P(Z < z[N = n) = 1
_
1
z
h
_
n
. Comme la fonction de repartition
de Z sachant N est de classe C
1
(en z), on en deduit que conditionnellement
`a N, Z est une variable aleatoire continue de densite
f
Z[N
(z[n) =
n
h
_
1
z
h
_
n1
.
2. Le pourcentage
N
de liquide quon peut esperer conserver sachant le nombre
de perforations N, correspond `a lesperance de E[Z[N] rapportee `a la hauteur
h du f ut. On a
N
= E[Z[N]/h. Il vient pour n 1 :
1
h
E[Z[N = n] =
1
h
_
h
0
zf
Z[N
(z[n) dz =
1
h
_
h
0
z
n
h
_
1
z
h
_
n1
dz =
1
1 +n
.
On constate que cette formule couvre aussi le cas o` u n = 0. En eet, dans
ce cas on conserve la totalite du liquide (le f ut nest pas perfore). On a donc

N
= 1/(N + 1).
3. Soit Z
(1)
, . . . , Z
(n)
les hauteurs des perforations les plus basse des f uts de 1 `a
n. Le pourcentage de la cargaison que lon sauve est
1
n
n

i=1
Z
(i)
. Si on suppose
les variables aleatoires Z
(1)
, . . . , Z
(n)
independantes et de meme loi que Z, ce
pourcentage est, pour n grand, `a peu pr`es egal `a E[Z]/h dapr`es la loi faible
(ou forte) des grands nombres. Le pourcentage moyen que lon peut esperer
conserver est donc
=
E[Z]
h
=
1
h
E[E[Z[N]] = E
_
1
N + 1
_
=
+

k=0
1
1 +k
e


k
k!
=
1 e

.
Pour = 5, on obtient 19.8%.

Exercice III.13.
Soit f une fonction mesurable bornee.
1. On note H la distance de J `a O. Par une application du theor`eme de Pythagore,
on trouve L = 2

r
2
H
2
. Pour calculer sa loi, on utilise la methode de la
fonction muette. Comme H est uniforme sur [0, r], on a :
E[f(L)] =
1
r
_
r
0
f
_
2
_
r
2
h
2
_
dh =
_
2r
0
f(u)
udu
4r
_
r
2

u
2
4
,
o` u lon a eectue le changement de variable u = 2

r
2
h
2
. La variable alea-
toire L est continue de densite
u
4r
_
r
2
u
2
/4
1
]0,2r[
(u). Lesperance de L est :
186
XIII.3 Variables aleatoires continues
E[L] =
_
2r
0
u
2
du
4r
_
r
2

u
2
4
=
_
/2
0
2r sin
2
(t)dt =
_
/2
0
r(1 cos(2t))dt =
r
2
,
o` u lon a eectue le changement de variable u = 2r sin(t). En utilisant le meme
changement de variable, on calcule :
E[L
2
] =
_
2r
0
u
3
du
4r
_
r
2

u
2
4
= 4r
2
_
/2
0
sin(t)(1 cos
2
(t))dt =
8r
2
3
.
La variance est donc Var(L) =
8r
2
3

r
2

2
4
.
La probabilite que la corde soit plus grande quun cote du triangle equilateral
inscrit est la probabilite que sa distance au centre soit plus grande que r/2.
Comme la loi de H est uniforme sur [0, r], il vient p = P(H r/2) = 1/2.
2. Si A et B sont choisis uniformement sur le cercle, leurs angles au centre (
A
et
B
) par rapport `a laxe des abscisses est uniforme sur ] , [. On note
=

AOB. On a = (
A

B
) modulo 2. La longueur de la corde est alors
L = 2r [sin (/2)[. On utilise la methode de la fonction muette pour calculer la
loi de . On a :
E[f()] = E[f(
A

B
)1
]0,2[
(
A

B
) +f(2 +
A

B
)1
]2,0[
(
A

B
)]
=
1
4
2
_
]0,2[
2
dq
A
dq
B
_
f(q
A
q
B
)1
]0,2[
(q
A
q
B
)
+f(2 +q
A
q
B
)1
]2,0[
(q
A
q
B
)
_
=
1
4
2
_
]0,2[
2
dq
A
dq
B
(f(q
A
q
B
) +f(2 q
A
+q
B
))1
]0,2[
(q
A
q
B
)
=
1
4
2
_
]0,2[
dq
B
_
2q
B
0
dt (f(t) +f(2 t))
=
1
4
2
_
]0,2[
dt (2 t)(f(t) +f(2 t)) =
1
2
_
]0,2[
dt f(t),
o` u lon a eectue le changement de variable t = q
A
q
B
`a q
B
xe. La loi de
est donc la loi uniforme sur ]0, 2[.
On utilise, encore la methode de la fonction muette pour determiner la loi de L :
E[f(L)] =
1
2
_
2
0
dt f (2r [sin(t/2)[) =
2

_
/2
0
f(2r sin(t))dt
=
_
2r
0
f(u)
2du

4r
2
u
2
, (XIII.2)
187
XIII Corrections
o` u lon a eectue le changement de variable u = 2r sin(t). La variable aleatoire
L est donc continue de densite
2

4r
2
u
2
1
]0,2r[
(u).
Pour calculer lesperance et la variance de L, on utilise (XIII.2) :
E[L] =
2

_
/2
0
dt 2r sin(t) =
4r

,
et pour la variance :
Var(L) = E[L
2
] (E[L])
2
=
8r
2

_
/2
0
sin
2
(t)dt
16r
2

2
= 2r
2

16r
2

2
.
On a p = P( 2/3) = 1/3.
3. On calcule la longueur de la corde comme `a la question 1, `a partir de la distance
de I au centre du cercle : L = 2
_
r
2
x
2
y
2
. La loi de L est calculee par la
methode de la fonction muette :
E[f(L)] =
1
r
2
_
r
r
dx
_
r
r
dy f
_
2
_
r
2
x
2
y
2
_
1
x
2
+y
2
r
2

=
1
r
2
_
r
0
d
_

d f
_
2
_
r
2

2
_
=
1
2r
2
_
2r
0
f(u)udu.
o` u on a eectue un changement de coordonnees polaires dans R
2
, puis le chan-
gement de variable u = 2
_
r
2

2
. La variable L est continue de densite
u
2r
2
1
[0,2r]
(u).
La moyenne et la variance de cette loi se calcule immediatement :
E[L] =
1
2r
2
_
2r
0
u
2
du =
4r
3
,
Var(L) =
1
2r
2
_
2r
0
u
3
du
16r
2
9
= 2r
2

16r
2
9
=
2r
2
9
.
Enn, la probabilite que la corde soit de longueur plus grande que

3r est :
p =
1
2r
2
_
2r

3r
udu =
1
2r
2
4r
2
3r
2
2
=
1
4
.
On resume dans le tableau ci-dessous, les valeurs numeriques (avec r = 1) des
dierentes moyennes et variances et des valeurs de p. On voit bien que la notion
de choisir au hasard dans un enonce doit etre precisee.
188
XIII.3 Variables aleatoires continues
Cas moyenne variance p
1 1.57 0.20 1/2
2 1.27 0.38 1/3
3 1.33 0.22 1/4

Exercice III.14.
1. Les variables X et Y etant independantes, la loi du couple (X, Y ) a pour
densite :
f
X,Y
(x, y) = f
X
(x)f
Y
(y) =
1
2
2
exp
_

x
2
+y
2
2
2
_
.
2. On consid`ere le changement de variables en coordonnees polaires. Verions
quil sagit dun C
1
-dieomorphisme. On consid`ere la fonction denie sur
= (r, ) R
2
; r > 0, < < :

_
r

_
=
_
x
y
_
o` u x = r cos , y = r sin .
Il est immediat de verier que est une bijection de dans T = R
2
(R

0),
dont linverse a pour expression :

1
_
x
y
_
=
_
r

_
o` u r =
_
x
2
+y
2
, = sgn(y) arccos
_
x/
_
x
2
+y
2
_
,
avec la convention que sgn(0) = 1. La matrice jacobienne de existe pour tout
(r, ) et ses elements sont des fonctions C
1
de (r, ) :
(r, ) =
_
cos r sin
sin r cos
_
.
On a egalement que
1
est C
1
sur T(]0, [0) de matrice jacobienne

1
(x, y) =
_
x/
_
x
2
+y
2
y/
_
x
2
+y
2
[y[/(x
2
+y
2
) x/(x
2
+y
2
)
_
.
La verication du caract`ere C
1
de
1
sur ]0, [0 se fait par une etude
directe. Pour x > 0, on a
1
(x, 0) = (x, sgn(0) arccos(1)) = (x, 0) et :

1
(x +h
x
, 0 +h
y
)
1
(x, 0)
= (
_
(x +h
x
)
2
+h
2
y
x, sgn(h
y
) arccos
_
(x +h
x
)/
_
(x +h
x
)
2
+h
2
y
_
)
= (h
x
, h
y
/x) +o(h
2
x
, h
2
y
).
189
XIII Corrections
Ceci implique `a la fois la continuite, la dierentiabilite et la continuite des
derivees partielles de
1
en (x, 0). On a donc verie que le changement de
variables en coordonnees polaires est un C
1
-dieomorphisme de T dans .
Soit g une fonction de R
2
dans R, mesurable et bornee. On remarque que
(X, Y ) T p.s, donc (R, ) =
1
(X, Y ) est bien deni. On a :
E[g(R, )] = E[g(
_
X
2
+Y
2
, sgn(Y ) arccos(X/
_
X
2
+Y
2
)]
=
_
T
g
_
_
x
2
+y
2
, sgn(y) arccos(x/
_
x
2
+y
2
)
_
1
2
2
exp
_

x
2
+y
2
2
2
_
dxdy.
Comme dxdy = [Jac[](r, )[drd = rdrd, il vient :
E[g(R, )] =
_

g(r, )
1
2
2
exp
_

r
2
2
2
_
rdrd
=
_
R
2
g(r, )
r
2
2
exp
_

r
2
2
2
_
1
]0,[
(r)1
],[
()drd.
On en deduit que (R, ) est une v.a.c. de densite :
f
R,
(r, ) =
r
2
2
exp
_

r
2
2
2
_
1
]0,[
(r)1
],[
.
3. Comme f
R,
(r, ) = f
R
(r)f

() avec f
R
(r) =
r

2
exp
_

r
2
2
2
_
1
]0,[
(r) et
f

() =
1
2
1
],[
(), on en deduit que R et sont independants. La loi de
est la loi uniforme sur [, ] et la loi de R a pour densite f
R
.
4. Lesperance de R vaut :
E[R] =
_
+
0
r
r

2
exp
_

r
2
2
2
_
dr
=
_
r exp
_

r
2
2
2
__
+
0
+
_
+
0
exp
_

r
2
2
2
_
dr =
_

2
.
On a E[R
2
] = E[X
2
+ Y
2
] = 2
2
. La variance de R vaut donc Var(R) =
(2 /2)
2
.

Exercice III.15.
190
XIII.3 Variables aleatoires continues
1. La direction est `a valeurs dans [/2, /2[. En supposant que la rainure de
gauche a pour abscisse d/2 et celle de droite d/2, laiguille coupe une rainure
sous la condition [X[ >
d
2


2
cos().
2. Au vu des hypoth`eses, il est naturel de supposer que X et sont independantes
et de loi uniforme respectivement sur [d/2, d/2] et [/2, /2]. La probabilite
cherchee vaut :
P([X[ >
d
2
cos()

2
) =
_
1
[x[>
d
2

2
cos()
1
d
1
[d/2,d/2][/2,/2]
(x, ) dxd
= 2
_
/2
/2
_
_ d
2
d
2

2
cos()
1
d
dx
_
d
=
2
d
_
/2
/2

2
cos d
=
2
d
.
3. On note Y
i
le resultat du i-`eme lancer : Y
i
= 1 si laiguille coupe la rainure
et 0 sinon. La suite (Y
i
, i N

) forme un schema de Bernoulli de param`etre


p = 2/d. Dapr`es la loi faible des grands nombres, la moyenne empirique
Nn
n
converge en probabilite vers lesperance de Y
1
, cest-` a dire vers 2/d. En fait
la loi forte des grands nombres assure que cette convergence est presque s ure.
On a ainsi un moyen experimental de calculer une approximation de 1/ et
donc de .
4. On veut trouver n tel que P(

Nn
n

1

> 10
2
) 5%. On deduit de linegalite
de Tchebychev que
P
_

N
n
n

1

> a
_

E
_
_
Nn
n

1

_
2
_
a
2

1

(1
1

)
na
2
.
On trouve n = 43 398. Mais la precision `a 10
2
sur 1/ correspond `a une
precision de lordre de 10
1
sur .
5. Il ny a pas de contradiction avec le resultat precedent qui quantiait le nombre
de lancer n `a eectuer pour que dans 95% des realisations de ces lancers on
obtienne une approximation `a 10
2
de 1/. Cela nimpose pas que lapproxima-
tion soit systematiquement de lordre de 10
2
! Avec 355 lancers, la meilleure
approximation de 1/ que lon puisse obtenir est precisement 113/355, et cette
approximation est de tr`es bonne qualite (113/355 est une fraction de la suite
des approximations de 1/ en fractions continues). Le caract`ere articiel de ce
resultat apparat si lon eectue un lancer supplementaire : on obtient 113/356
191
XIII Corrections
ou 114/356 comme approximation de 1/, qui sont des approximations `a 10
3
et 2.10
3
respectivement. Cette brutale perte de precision sugg`ere que le choix
de 355 lancers et peut-etre meme du nombre aleatoire de 113 lancers avec
intersection est intentionnel.

Exercice III.16.
On note s < t les deux nombres choisis par votre ami et X la variable aleatoire
de Bernoulli de param`etre 1/2 qui modelise le lancer de sa pi`ece : X = 0 sil a
obtenu face et X = 1 sinon. Le nombre donne par votre ami est
Y = s1
X=0
+t1
X=1
.
On note G lev`enement gagner le pari.
1. On modelise le lancer de votre pi`ece par une variable independante de X de
loi de Bernoulli de param`etre p [0, 1], U : U = 0 si vous avez obtenu face et
U = 1 sinon. On a
G = U = 0, Y = s U = 1, Y = t = U = 0, X = 0 U = 1, X = 1.
En utilisant lindependance entre X et U, on en deduit que la probabilite de
gagner est P(G) = (1 p)/2 +p/2 = 1/2.
2. Par construction X et Z sont independants. On a
G = Z Y, Y = s Z Y, Y = t = Z s, X = 0 Z t, X = 1.
Il vient, en utilisant lindependance entre X et Z, et t > s
P(G) =
1
2
[P(Z s) +P(Z t)] =
1
2
+
1
2
P(Z [s, t]).
Comme P(Z [s, t]) > 0, on a P(G) > 1/2.
3. On suppose que s et t sont les realisations de variables aleatoires S et T inde-
pendantes et de meme loi de fonction de repartition F. Comme on a suppose
que s < t, cela impose que s est la realisation de min(S, T) et t la realisation
de max(S, T). Dans ce cas, le nombre fourni par votre ami est donc
Y = min(S, T)1
X=0
+ max(S, T)1
X=1
.
On a G = Z min(S, T), X = 0 Z max(S, T), X = 1. En utilisant
lindependance de S, T, Z et X, il vient
192
XIII.3 Variables aleatoires continues
P(G) =
1
2
[P(Z min(S, T)) +P(Z max(S, T))]
=
1
2
+
1
2
P(Z [min(S, T), max(S, T)]).
Pour maximiser la probabilite de gagner, il faut donc maximiser la probabilite
P(Z [min(S, T), max(S, T)]). Supposons un instant que Z soit une variable
continue de densite g. On note f la densite de S et T, il vient en utilisant
lindependance entre S et T :
P(Z [min(S, T), max(S, T)]) =
_
1
z[min(s,t),max(s,t)]
g(z)f(s)f(t) dzdsdt
= 2
_
1
z[s,t]
1
s<t
g(z)f(s)f(t) dzdsdt
= 2
_
g(z)F(z)(1 F(z)) dz
= 2E[F(Z)(1 F(Z))].
Admettons dans un premier temps que P(Z [min(S, T), max(S, T)]) =
2E[F(Z)(1 F(Z))] meme si Z nest pas une variable continue. (Ce resul-
tat est eectivement vrai, mais nous ne le demontrons pas en toute generalite.)
Comme F(x) [0, 1], la valeur de F(x)(1F(x)) est maximale pour x = x
1/2
,
le quantile dordre 1/2 de la loi de F (i.e. comme F est strictement croissante,
x
1/2
est lunique solution de F(x) = 1/2), et donc 2E[F(Z)(1 F(Z))] 1/2
avec egalite si p.s. Z = x
1/2
.
Verions que Z = x
1/2
est optimal. Un calcul direct donne, si Z = x
1/2
p.s.,
P(G) =
1
2
+
1
2
P(min(S, T) x
1/2
max(S, T)) =
1
2
+
1
4
=
3
4
.
Il reste `a verier que si P(Z = x
1/2
) < 1 alors P(Z [min(S, T), max(S, T)]) <
1/2. On suppose quil existe > 0 et > 0, tels que P(

Z x
1/2

> ) > .
On decompose, pour n xe, suivant Z [
k
n
,
k+1
n
[, pour k N. On calcule :
P(Z [
k
n
,
k + 1
n
[, Z [min(S, T), max(S, T)])
P(Z [
k
n
,
k + 1
n
[, min(S, T)
k + 1
n
, max(S, T)
k
n
)
= 2P
_
Z [
k
n
,
k + 1
n
[
_
F
_
k + 1
n
__
1 F
_
k
n
__
.
En sommant sur k, et en distinguant suivant
k
n
> x
1/2
+ ,
k+1
n
< x
1/2
et
x
1/2

1
n

k
n
x
1/2
+, on obtient :
193
XIII Corrections
P(Z [min(S, T), max(S, T)])
2P(Z x
1/2
> ) sup
x>x
1/2
+
F(x +
1
n
)(1 F(x))
+ 2P(Z x
1/2
< ) sup
x<x
1/2

F(x +
1
n
)(1 F(x))
+ 2P(

Z x
1/2

+
1
n
) sup
x;[xx
1/2[+
1
n
F(x +
1
n
)(1 F(x)).
En laissant n tendre vers linni, et en utilisant le fait que F est continue, on
obtient :
P(Z [min(S, T), max(S, T)]) 2P(

Z x
1/2

> )q +
1
2
P(

Z x
1/2

),
o` u q = sup
x; [xx
1/2[>
(F(x)(1 F(x)) = max(F(x
1/2
+ )(1 F(x
1/2
+
)), F(x
1/2
)(1 F(x
1/2
)). Comme F est strictement croissante, on
a q < 1/4 et donc P(Z [min(S, T), max(S, T)]) < 1/2.
On a donc demontre que la quantite P(G) est maximale si et seulement si p.s.
Z = x
1/2
. Et dans ce cas on a P(G) = 3/4.

Exercice III.17.
1. La densite du triplet (X, Y, Z) etant invariante par rotation, elle est de la forme
f
(X,Y,Z)
(x, y, z) = (x
2
+y
2
+z
2
) avec une fonction positive denie sur R
+
.
Les variables X, Y et Z etant independantes, on a dautre part :
f
(X,Y,Z)
(x, y, z) = f
X
(x)f
Y
(y)f
Z
(z).
La loi de (X, Y, Z) etant invariante par rotation, on en deduit que X, Y et Z
ont meme loi de densite : f = f
X
= f
Y
= f
Z
. Legalite
f(x)f(y)f(z) = (x
2
+y
2
+z
2
), pour tout (x, y, z) R
3
implique f(x)f

(y)f(z) = 2y

(x
2
+ y
2
+ z
2
) et f

(x)f(y)f(z) = 2x

(x
2
+
y
2
+ z
2
). On en deduit que xf(x)f

(y)f(z) = f

(x)yf(y)f(z) pour tout


(x, y, z) R
3
. Comme f est une densite sur R, f est non constante. En
particulier il existe y
0
,= 0, z
0
R tels que f(y
0
)f(z
0
) > 0. On en deduit
donc quil existe une constante c telle que pour tout x R, f

(x) = 2cxf(x).
Ceci implique que f(x) = a e
cx
2
pour une certaine constante a. Comme f est
une densite de probabilite, on a f 0 et
_
R
f(x) dx = 1. On en deduit que
f(x) =
1

2
2
e

x
2
2
2
avec une constante strictement positive. Finalement,
les variables aleatoires X, Y et Z suivent une loi gaussienne centree.
194
XIII.4 Fonctions caracteristiques
2. Lenergie cinetique moyenne est denie par E
c
=
1
2
mE[[V [
2
] =
1
2
mE[V
2
1
+V
2
2
+
V
2
3
]. Comme E[V
2
1
] =
2
, on en deduit que E
c
=
3
2
m
2
. On obtient
2
=
kT
m
.
3. La loi de X +Y est la loi (, a +b), cf. lexercice (III.7).
4.
`
A laide de la methode de la fonction muette, on montre que V
2
i
suit une loi
gamma de param`etres (
1
2
2
, 1/2). On deduit de la question precedente que
la loi de [V [
2
est une loi gamma de param`etres (
1
2
2
, 3/2). Sa densite est
1

2
3

z e
z/2
2
1
z>0
.
`
A laide de la methode de la fonction muette, on
montre que [V [ est une variable continue de densite

_
m
kT
_
3/2
v
2
e
mv
2
/2kT
1
v>0
.
Il sagit de la densite de la loi de Maxwell.

XIII.4 Fonctions caracteristiques


Exercice IV.1.
1. Par independance, on a :

X
1
+X
2
(u) =
X
1
(u)
X
2
(u) =
_

iu
_

1
_

iu
_

2
=
_

iu
_

1
+
2
.
La loi de X
1
+X
2
est donc la loi (,
1
+
2
).
2. Par recurrence, on deduit de la question precedente que la loi de

n
i=1
X
i
est
la loi (, n). Si Z est de loi (a, b) alors pour c > 0, on a :

cZ
(u) =
_
a
a icu
_
b
=
_
a/c
a/c iu
_
b
.
Ainsi cZ est de loi (a/c, b). On en deduit que

X
n
est de loi (n, n).

Exercice IV.2.
195
XIII Corrections
1. La densite de la loi de Z, f
Z
, a ete calculee dans lexercice III.6 : f
Z
(z) =

2
e
[z[
. On utilise la formule de decomposition et lindependance entre Y et
pour obtenir

Z
(u) = E
_
e
iuY
1
=1

+E
_
e
iuY
1
=1

=
1
2
_

iu
+
_

iu
_
_
=

2

2
+u
2
.
2. On remarque que
1


Z
est la densite de la loi de Cauchy de param`etre .
`
A
laide du theor`eme dinversion de la transformee de Fourier pour les fonctions
integrables, on a donc p.p. f
Z
(z) =
_
R
e
iuz

Z
(u)
du
2
. Comme les membres
de droite et de gauche sont des fonctions continues, on a legalite pour tout
z R. On a donc

2
e
[z[
=
_
R
e
iuz

2

2
+u
2
du
2
. On en deduit ainsi la fonction
caracteristique, , de la loi de Cauchy de param`etre : pour tout z R,
(z) =
_
R
e
iuz
1

2
+u
2
du = e
[z[
.

Exercice IV.3.
1. En utilisant lesperance conditionnelle, on a pour n N :
E[S
N
[N = n] = E[S
n
[N = n] = E[S
n
] = nE[X
1
].
On en deduit donc E[S
N
[N] = NE[X
1
] et E[S
N
] = E[N]E[X
1
]. Le calcul de la
variance est similaire. On a pour n N :
E[S
2
N
[N = n] = E[S
2
n
] = Var(S
n
) +E[S
n
]
2
= nVar(X
1
) +n
2
E[X
1
]
2
.
On en deduit donc que E[S
2
N
] = E[N] Var(X
1
) +E[N
2
]E[X
1
]
2
. On obtient alors
la formule de Wald :
Var(S
N
) = E[N] Var(X
1
) +E[X
1
]
2
Var(N).
On peut egalement utiliser une formule de decomposition pour donner la re-
ponse.
196
XIII.4 Fonctions caracteristiques
2. De la meme mani`ere, on a :
E[e
iuS
N
[N = n] = E[e
iuSn
] =
X
1
(u)
n
,
o` u
X
1
est la fonction caracteristique de X
1
. On a utilise le fait que les variables
aleatoires X
1
, . . . , X
n
sont independantes et de meme loi. Il vient :
E[e
iuS
N
] =

n=0
E[e
iuS
N
[N = n]P(N = n) =

n=0

X
1
(u)
n
P(N = n) = (
X
1
(u)),
o` u est la fonction generatrice de N. Comme E[S
N
] = i(
X
1
)

(0), il vient :
E[S
N
] = i

(
X
1
(0))

X
1
(0) =

(1)(i

X
1
(0)) = E[N]E[X
1
].
Comme E[S
2
N
] = (
X
1
)

(0), il vient
E[S
2
N
] = (


X
1

X
1
)

(0)
=

(1)

X
1
(0)
2

(1)

X
1
(0)
= E[N(N 1)]E[X
1
]
2
+E[N]E[X
2
1
]
= E[N] Var(X
1
) +E[N
2
]E[X
1
]
2
.
On retrouve ainsi les resultats de la question precedente.

Exercice IV.4.
On note (z) la partie imaginaire de z C.
1. Si X est symetrique alors (
X
(u)) =
1
2
(
X
(u)

X
(u)) =
1
2
(E[e
iuX
]
E[e
iuX
]) = 0. Si (
X
(u)) = 0 alors le calcul precedent montre que les fonc-
tions caracteristiques de X et X concident, donc X et X sont egales en
loi.
2. Si Y est independant de X et de meme loi que X, alors la fonction caracteris-
tique de X Y est
X
(u)

X
(u) = [
X
(u)[
2
.
3. La loi de X est symetrique par rapport `a a R si et seulement si e
iau

X
(u)
R pour tout u R.

Exercice IV.5.
1. Soit u R
d
. On note , ) le produit scalaire de R
d
. Comme la loi du vecteur
est invariante par rotation, on en deduit que u, X)/|u| a meme loi que X
1
.
On a par independance et en utilisant que X
1
, . . . , X
d
ont meme loi (gr ace `a
linvariance de la loi de X par rotation)
197
XIII Corrections

X
(u) = E[e
iu,X)
] =
d

k=1

X
1
(u
k
).
On a egalement
X
(u) =
u,X)/|u|
(|u|) =
X
1
(|u|). Comme X
1
est X
1
ont
meme loi (car la loi de X est invariante par rotation), on a
X
1
(u) =
X
1
(u) =

X
1
(u) =

X
1
(u). En particulier la fonction
X
1
est reelle symetrique. On
pose g(x) =
X
1
(

x) pour x 0. On en deduit que la fonction reelle g verie


(IV.1).
2. Rappelons que les fonctions caracteristiques sont continues vallent 1 en 0, sont
en valeurs absolue inferieures `a 1 et caracterisent la loi. En particulier g est
continue, g(0) = 1 et [g(v
1
)[ 1. En integrant (IV.1) en v
2
, on en deduit
que g(v
1
) est derivable, puis que g

/g est constant et donc g(v


1
) = e
v
1
. Les
conditions g(0) = 1 et [g(v
1
)[ 1 impliquent = 0 et =
2
/2 o` u 0.
On en deduit que
X
1
(u
1
) = e

2
u
2
1
/2
. Ceci implique que :
Si = 0 alors p.s. X
1
= 0 et donc p.s. X
k
= 0 pour tout k 1, . . . , d.
Si > 0 alors X
1
, et donc X
2
, . . . , X
n
, sont de loi gaussienne centree de
variance
2
.

Exercice IV.6.
1. En utilisant les fonctions caracteristiques, il vient par independance, pour u
R :

XY
(u) =
X
(u)
Y
(u) =
X
(u)
Y
(u) = e
iu(
X

Y
)
u
2
(
2
X
+
2
Y
)
2
.
On en deduit que la loi de XY est la loi gaussienne de moyenne =
X

Y
et de variance
2
=
2
X
+
2
Y
.
2. On utilise la methode de la fonction muette. Soit g une fonction mesurable
bornee, on a, en notant
f(v) =
1

2
2
e
(v)
2
/2
2
,
la densite de la loi gaussienne ^(,
2
) :
E[g(Z)] = E[g([X Y [)]
=
_
R
g([v[)f(v)dv
=
_
R
g(v)f(v)1
v>0
dv +
_
R
g(v)f(v)1
v<0
dv
=
_
R
g(v)[f(v) +f(v)]1
v>0
dv.
198
XIII.5 Theor`emes limites
On en deduit que Z est une variable aleatoire continue et la densite de sa loi
est donnee par [f(v) +f(v)]1
v>0
.
3. Remarquons que Z est egal en loi `a [G+[, o` u G est une variable aleatoire
de loi gaussienne ^(0, 1). En particulier, on a :
E[Z] = E[[G+[]
= E[(G +)1
G>/
] E[(G+)1
G</
]
= 2

2
e

2
/2
2
+((/) (/))
=
_
2

2
/2
2
+(2(/) 1),
o` u est la fonction de repartition de la loi ^(0, 1), et
E[Z
2
] = E[(G+)
2
] =
2
+
2
.
Enn, la variance de Z est egale `a E[Z
2
] E[Z]
2
.

XIII.5 Theor`emes limites


Exercice V.1.
Soit g continue bornee.
1. On a E[g(X
n
)] =
_

0

n
e
nx
g(x) dx. Il existe n
0
N

, et 0 <

<

+
< tels que pour tout n n
0
, on a
n
[

,
+
]. On a alors

n
e
nx
g(x)

|g|

+
e

x
= h(x). La fonction h est integrable sur
[0, [. On a lim
n

n
e
nx
g(x) = e
x
g(x). On deduit du theor`eme de
convergence dominee que :
E[g(X
n
)]
n
_

0
e
x
g(x) dx.
Donc la suite (X
n
, n N

) converge en loi vers la loi exponentielle de param`etre


.
2. On a E[g(X
n
)] =
_

0
e
x
g(x/
n
) dx. On a la majoration [e
x
g(x/
n
)[
|g|

e
x
= h(x), et la fonction h est integrable sur [0, [. Comme la fonction
g est continue, on a lim
n
g(x/
n
) = g(0). Par convergence dominee, il vient :
E[g(X
n
)]
n
g(0) = E[g(X)],
o` u p.s. X = 0. Donc la suite (X
n
, n N

) converge en loi vers 0.


199
XIII Corrections
3. Si la suite (X
n
, n N

) converge en loi vers une variable aleatoire X, alors les


fonctions caracteristiques
Xn
(u) convergent vers
X
(u) pour tout u R. On
a :
lim
n

Xn
(u) = lim
n

n
iu
= 1
u=0
.
La fonction u 1
u=0
nest pas continue en 0. Or les fonctions caracteristiques
sont continues. Par contraposee, ce nest donc pas la fonction caracteristique
dune variable aleatoire et la suite (X
n
, n N

) ne converge pas en loi.

Exercice V.2.
1. La suite (M
n
, n 1) est croissante et bornee p.s. par . Elle converge donc p.s.
vers une limite M. Soit ]0, ], on a :
P([M
n
[ > ) = P(M
n
> +) +P(M
n
< ) = 0 + (

)
n
.
Donc on a :
lim
n
P([M
n
[ > ) = 0,
i.e. la suite (M
n
, n 1) converge en probabilite vers . Comme la suite converge
aussi en probabilite vers M, par unicite de la limite, on en deduit que p.s.
M = .
2. On etudie la fonction de repartition sur R
+
, car n( M
n
) 0. Soit a > 0. On
a :
P(n( M
n
) a) = P(M
n
>
a
n
) = 1 (1
a
n
)
n

n
1 e

.
On reconnat la fonction de repartition de la loi exponentielle de param`etre
1/. La suite (n( M
n
), n 1) converge donc en loi vers la loi exponentielle
de param`etre 1/.

Exercice V.3.
On rappelle que
Xn
(u) = e
a [u[
.
1. On a :

Sn/

n
(u) =
Sn
(u/

n) =
n

k=1

X
k
(u/

n) = (e
a [u[ /

n
)
n
= e
a

n[u[
,
o` u lon a utilise lindependance des variables aleatoires pour la deuxi`eme egalite.
Donc on en deduit que :
200
XIII.5 Theor`emes limites

Sn/

n
(u)
n
1
u=0
.
La limite est une fonction discontinue en 0. Ce nest donc pas une fonction
caracteristique. La suite ne converge donc pas en loi. Elle ne converge pas non
plus en probabilite.
2. On a :

Sn/n
2(u) =
Sn
(u/n
2
) = (e
a [u[ /n
2
)
n
= e
a [u[ /n
.
Donc on en deduit que :

Sn/n
2(u)
n
1.
La suite converge en loi vers la variable aleatoire constante egale `a 0.
Un resultat general assure que la convergence en loi vers une constante implique
la convergence en probabilite vers cette constante. On en donne une preuve
elementaire. Soit (Z
n
, n 1) une suite de variables aleatoires qui converge en
loi vers une constante c. Quitte `a considerer Z
n
c, on peut supposer que
c = 0. Soit > 0. On a P([Z
n
[ ) E[g(Z
n
)], o` u g(z) = min([z[/, 1).
La fonction g est continue bornee. On deduit de la convergence en loi que
lim
n
E[g(Z
n
)] = E[g(0)] = 0. Ceci implique que lim
n
P([Z
n
[ ) = 0. (Plus
directement, on peut dire que 0 est un point de continuite de la fonction 1
[z[
,
et donc lim
n
P([Z
n
[ ) = lim
n
E[1
[Zn[
] = E[1
0
] = 0.) Ainsi la suite
(Z
n
, n 1) converge en probabilite vers 0.
La suite (S
n
/n
2
, n 1) converge donc en probabilite vers 0.
3. On a :

Sn/n
(u) =
Sn
(u/n) = (e
a [u[ /n
)
n
= e
a [u[
.
On reconnat la fonction caracteristique dune loi de Cauchy de param`etre a.
La suite (S
n
/n, n 1) est donc constante en loi.
Montrons maintenant que la suite (
S
n
n
, n 1) ne converge pas en probabilite.
On a :
S
2n
2n

S
n
n
=
X
n+1
+ +X
2n
2n

X
1
+ +X
n
2n
.
On a donc par independance, puis en utilisant le fait que
X
n+1
++X
2n
2n
et
X
1
++Xn
2n
ont meme loi que S
n
/2n, que :

(
S
2n
2n

Sn
n
)
(u) = X
n+1
++X
2n
2n
(u)X
1
++Xn
2n
(u) =
Sn/2n
(u)
2
= e
a [u[
.
Donc pour tout n,
S
2n
2n

S
n
n
est une variable aleatoire de Cauchy de param`etre
a.
201
XIII Corrections
Raisonnons par labsurde pour la convergence en probabilite. Si
_
S
n
n
, n 1
_
convergeait en probabilite vers une limite X, on aurait alors
_

S
2n
2n

S
n
n

S
2n
2n
X

/2
_

S
n
n
X

/2
_
.
En particulier on aurait :
P
_

S
2n
2n

S
n
n


_
P
_

S
2n
2n
X

/2
_
+P
_

S
n
n
X

/2
_
,
et par passage `a la limite :
P
_

S
2n
2n

S
n
n

n
0,
pour tout > 0. La suite (
S
2n
2n

S
n
n
, n 1) convergerait alors en probabilite, et
donc en loi, vers 0. Ceci est absurde car
_
S
2n
2n

S
n
n
, n 1
_
est de loi de Cauchy
de param`etre a. La suite
_
S
n
n
, n 1
_
ne converge donc pas en probabilite.

Exercice V.4.
1. On consid`ere pour lensemble des resultats des tirages de n boules. Les tirages
sont equiprobables. On a Card () = C
n
N
. Parmi ces tirages, on consid`ere ceux
qui donnent k boules blanches. Il faut donc choisir k boules blanches parmi les
m boules blanches et n k boules noires parmi les N m boules noires. Il
existe donc C
k
m
C
nk
Nm
congurations possibles. On en deduit que P(X
N
= k) =
C
k
m
C
nk
Nm
C
n
N
.
On peut egalement considerer pour lensemble des resultats des tirages ex-
haustifs de N boules, et regarder les positions des m boules blanches. Les tirages
sont equiprobables. On a Card () = C
m
N
. Parmi ces tirages, on consid`ere ceux
qui donnent k boules blanches dans les n premi`eres boules. Il donc faut choisir
k positions pour les boules blanches parmi les n premi`eres boules, et m k
positions pour les boules blanches parmi les N n derni`eres. Il existe donc
C
k
n
C
mk
Nn
congurations possibles. On en deduit que P(X
N
= k) =
C
k
n
C
mk
Nm
C
m
N
.
Il est facile de verier que
C
k
m
C
nk
Nm
C
n
N
=
C
k
n
C
mk
Nn
C
m
N
.
202
XIII.5 Theor`emes limites
2. Pour N et n susament grands, on a nN+m 0 et les conditions nN+m
k m et n k 0 deviennent 0 k m. On note p
N
(k) = P(X
N
= k). On
remarque que :
p
N
(k) =
C
k
m
C
nk
Nm
C
n
N
= C
k
m
_
k1

i=0
n i
N i
_
_
_
mk1

j=0
N n j
N k j
_
_
= C
k
m
_
k1

i=0
(p +o(1))
_
_
_
mk1

j=0
(1 p +o(1))
_
_
= C
k
m
p
k
(1 p)
mk
+o(1).
On en deduit que pour tout k 0, . . . , m, on a lim
N
p
N
(k) = C
k
m
p
k
(1
p)
mk
. Soit g une fonction continue bornee. Comme la somme porte sur un
nombre ni de termes, on a :
E[g(X
N
)] =
m

k=0
p
N
(k)g(k)
N
m

k=0
C
k
m
p
k
(1 p)
mk
g(k) = E[g(S
m
)],
o` u lim
N
n/N = p et S
m
suit la loi binomiale de param`etre (m, p). On en
deduit que la suite (X
N
, N N

) converge en loi, quand lim


N
n/N = p,
vers la loi binomiale de param`etre (m, p).
3. Remarquons que p
N
(k) =
C
k
n
C
mk
Nn
C
m
N
pour n N + m k m et n k
0. Cette expression correspond `a celle de la question precedente, o` u lon a
echange m et n. Les calculs de la question precedente assurent donc que la
suite (X
N
, N N

) converge en loi vers la loi binomiale de param`etre (n, ).

Exercice V.5.
1. La fonction e
X
est de classe C

et sur tout intervalle borne de R cette


fonction et ses derivee sont p.s. bornees (car X est bornee). Ceci assure que
est de classe C

et que
(n)
() = E[X
n
e
X
].
2. Linegalite de Cauchy-Schwarz E[Y Z]
2
E[Y
2
]E[Z
2
] avec Y = X e
X/2
et
Z = e
X/2
implique que (

)
2

. Comme

)
2

2
, on en deduit
que

0 et donc est convexe. On a (0) = log(1) = 0.


203
XIII Corrections
3. Comme I(x) (0) et que (0) = 0, on en deduit que I est positive. Comme
est convexe et de classe C
1
, on en deduit que () est maximal en
tel que =

() soit encore

() = (). Remarquons que (0) = 1 et

(0) = E[X] = . Ceci assure que I() = 0.


Soit ]0, 1[, x, y R. On a :
I(x + (1 )y) = sup
R
(x + (1 )y) ()
= sup
R
(x ()) + (1 ) (y ())
sup
R
x () + (1 ) sup
R
y ()
= I(x) + (1 )I(y).
4. On a, pour 0 :
P(

X
n
+) = P(e


Xn(+)
1) E[e


Xn(+)
] = E[e
X/n
]
n
e
(+)
,
o` u lon a utilise linegalite de Markov puis lindependance pour la seconde
egalite.
On peut optimiser en 0 et obtenir :
P(

X
n
+) e
sup
0
(+)n(/n)
.
On consid`ere la fonction g denie par g() = ( + ) (). Cette fonction
est concave (car est convexe) et :
g

(0) = +

(0)
(0)
= + = 0.
En particulier le supremum de g est obtenu sur [0, [ et donc
sup
0
( +) n(/n) = sup
0
ng(/n) = n sup

R
g(

) = nI( +),
avec le changement de variable

= /n. Comme la fonction I est convexe et


atteint son minimum en , on en deduit que I( + ) = inf
x+
I(x). Il vient
donc :
P(

X
n
+) e
ninfI(x);x+
.
5. En considerant X au lieu de X, on deduit de linegalite precedente que :
P(

X
n
) e
ninfI(x);x
.
Ceci implique donc P(


X
n

) 2 e
ninfI(x);[x[
.
204
XIII.5 Theor`emes limites
6. Pour la loi de Bernoulli de param`etre p ]0, 1[, on a = p, () = 1 p +p e

,
() = log(1 p + p e

) et I(x) = xlog(x/p) + (1 x) log((1 x)/(1 p)) si


x [0, 1] et I(x) = + sinon. Pour ]0, min(p, 1 p)[, on a :
P(

X
n
p ) e
ninfI(x);xp
,
et infI(x); x p =

2
2p(1 p)
+ O(
3
). En particulier, on retrouve la
loi faible des grands nombres avec en plus une majoration exponentielle de la
vitesse de convergence.

Exercice V.6.
1. Soit S
m
le nombre de fois o` u pile est apparu lors de m tirages. Ainsi S
m
=

m
i=1
X
i
, o` u (X
i
, i 1) est un schema de Bernouilli de param`etre 1/2. En
particulier E[X
i
] = 1/2 et Var(X
i
) = 1/4. La loi de S
m
est une loi binomiale
B(m, 1/2). On note :
p
m
= P
_
S
m
m
,]0.45, 0.55[
_
= P
_
_

S
m

1
2
m
1
2

m 0.1
_
.
On remarque que si m est grand, alors, dapr`es le theor`eme central limite, la
loi de
S
m

1
2
m
1
2

m
est asymptotiquement la loi gaussienne centree. On a alors :
p
m
P([G[ >

m0.1),
o` u G est de loi ^(0, 1) gaussienne centree.
Les frequences empiriques de pile lors de n series de m tirages sont egales en
loi `a S
m
/m. Notons que les variables aleatoires F
1
,...,F
n
sont independantes et
de meme loi. On a que, pour tout i, P(F
i
,]0.45, 0.55[) = p
m
. En particulier,
pour m = 400 tirages, on a `a laide des tables de la fonction de repartition de
la loi normale ^(0, 1) :
P(F
i
,]0.45, 0.55[) = p
400
P([G[ 2) 0.05.
On consid`ere maintenant une suite de variables aleatoires (
i
, i 1) telles que :

i
=
_
1 si F
i
,]0.45, 0.55[,
0 sinon.
Le nombre des frequences (F
i
, 1 i n) qui ne verient pas la condition
0.45 < F
i
< 0.55, lorsque n = 20, est egal `a N =

20
i=1

i
. La loi de N est donc
la loi binomiale de param`etre (n, p
m
).
205
XIII Corrections
2. Comme p
m
est petit, la loi binomiale de param`etre (n, p
m
) peut etre approchee
par la loi de Poisson de param`etre np
m
= 20p
400
1 (on a la convergence en
loi de la loi binomiale de param`etre (n, p) vers la loi de Poisson de param`etre
quand n tend vers linni et np vers > 0). En particulier, on a :
P(N = 0) e
1

1
3
, P(N = 1) e
1

1
3
, P(N 2) 1 2 e
1

1
3
.
Ainsi les ev`enements N = 0, N = 1 et N 2 sont `a peu pr`es de meme
probabilite.

Exercice V.7.
1. Il sut dappliquer lesperance `a legalite X =

+
k=1
1
Xk
. On peut ensuite
intervertir lesperance et la somme en utilisant le theor`eme de convergence
dominee car tous les termes de la somme sont positifs.
2. En appliquant le resultat de la question precedente `a la variable aleatoire mX
(qui est integrable et `a valeurs dans N), il vient :
E[mX] =

n=1
P(mX
n
n) =

n=1
P
_
X
n
n

1
m
_
= E[Y
m
].
Lintervertion de la somme et de lesperance dans la deuxi`eme egalite est jus-
tiee car tous les termes sont positifs. La variable aleatoire Y
m
est desperance
nie, elle est donc p.s. nie.
3. Lev`enement A
m
= Y
m
< + est de probabilite 1. Par consequent, lev`ene-
ment A =

m1
A
m
est lui aussi de probabilite 1. Pour A, on a que pour
tout m, Y
m
() est ni et donc
X
n
()
n

1
m
pour n assez grand. On en deduit
donc que lim
n
X
n
()
n
= 0 pour tout A. Comme P(A) = 1, on en deduit
que
X
n
n
converge p.s. vers 0 quand n tend vers linni.
4. Soit (a
n
, n 1) une suite de termes positifs telle que lim
n
a
n
/n = 0. En parti-
culier la suite est bornee par une constante M 0. Pour tout > 0, il existe n
0
tel que a
n
/n pour tout n n
0
. On a pour tout n max(n
0
, M/) = n
1
:
1
n
max
1kn
a
k

1
n
max
1kn
1
a
k
+ max
n
1
<kn
a
k
k

M
n
+ 2.
On en deduit donc que lim
n
1
n
max
1kn
a
k
= 0. Comme p.s. lim
n
X
n
/n = 0,
on deduit de ce resultat deterministe que p.s. lim
n
1
n
max
1kn
X
k
= 0.
206
XIII.5 Theor`emes limites
5. On note x lentier relatif n tel que n 1 < x n. Remarquons que [X[
est une variable aleatoire `a valeurs dans N. Elle est integrable car [X[
[X[ + 1. On deduit de la question precedente que p.s. lim
n
1
n
max
1kn
[X
k
[ = 0.
Comme [X
k
[ [X
k
[, on a donc p.s. lim
n
1
n
max
1kn
[X
k
[ = 0 et donc p.s.
lim
n
1
n
max
1kn
X
k
= 0.

Exercice V.8.
1. Soit (X
n
, n N

) une suite de variables aleatoires independantes de loi uni-


forme sur [0, 1]. On deduit de la loi faible des grands nombres que la moyenne
empirique

X
n
=
1
n

n
k=1
X
k
converge en probabilite vers E[X
1
] = 1/2. La
convergence en probabilite implique la convergence en loi. On a donc, comme
f est continue, que :
E[f(
1
n
n

k=1
X
k
)]
n
E[f(1/2)] = f(1/2).
Dautre part, on a :
E[f(
1
n
n

k=1
X
k
)] =
_
[0,1]
n
f(
x
1
+ +x
n
n
) dx
1
dx
n
.
On en deduit donc :
lim
n
_
[0,1]
n
f(
x
1
+ +x
n
n
) dx
1
dx
n
= f(1/2).
Le resultat reste vrai si on suppose seulement que f est bornee et continue en
1/2.
2. On verie facilement `a laide des fonctions caracteristiques que

n
k=1
Y
k
est
une variable aleatoire de loi de Poisson de param`etre n. En eet, en utilisant
lindependance des variables aleatoires Y
1
, . . . , Y
n
, on a :

Zn
(u) =
n

k=1

Y
k
(u) = e
n(1e
iu
)
.
On reconnat dans le membre de droite la fonction caracteristique de la loi de
Poisson de param`etre n.
207
XIII Corrections
3. La loi faible des grands nombres assure que la moyenne empirique

Y
n
=
1
n

n
k=1
Y
k
converge en probabilite vers E[Y
1
] = . La convergence en probabi-
lite implique la convergence en loi. On a donc, comme f est continue bornee,
que :
E[f(
1
n
n

k=1
Y
k
)]
n
E[f()] = f().
On en deduit que :
lim
n

k0
e
n
(n)
k
k!
f(
k
n
) = f().
Le resultat est vrai en fait d`es que f est bornee et continue en .

Exercice V.9.
1. Les variables aleatoires X
n
sont independantes, de meme loi et de carre inte-
grable. On a E[X
n
] = 1, Var(X
n
) = 1. Le theor`eme central limite implique que
(
S
n
n

n
, n 1) converge en loi vers la loi gaussienne ^(0, 1).
2. On verie facilement `a laide des fonctions caracteristiques que S
n
est une
variable aleatoire de loi de Poisson de param`etre n.
Soit F
n
(x) la fonction de repartition de
S
n
n

n
. La question precedente assure
que la suite (F
n
(x), n 1) converge vers la fonction de repartition de la loi
gaussienne ^(0, 1), F(x), pout tout x point de continuite de F. Comme F est
une fonction continue, on obtient pour x = 0 :
P(
S
n
n

n
0)
n
F(0) =
1
2
.
Comme S
n
est de loi de Poisson de param`etre n, il vient :
P(
S
n
n

n
0) = P(S
n
n) =
n

k=0
P(S
n
= k) =
n

k=0
e
n
n
k
k!
.
On en deduit le resultat.

Exercice V.10.
208
XIII.5 Theor`emes limites
1. Les variables aleatoires (X
n
, n 1) sont independantes et de meme loi avec :
P(X
1
= 2
k
) =
1
2
k
, k 1.
On observe que E[X
1
] = . Les variables aleatoires etant positives indepen-
dantes et de meme loi, on a par la loi forte des grands nombres que p.s.
lim
n
S
n
n
= E[X
1
] = . Le prix equitable du jeu correspond pour le casino
`a la moyenne des pertes : lim
n
S
n
n
, cest-` a-dire linni.
2. La majoration (V.2) est evidente. On consid`ere le deuxi`eme terme du membre
de droite de (V.2). On note x la partie enti`ere de x. On a :
E[S

n
] = nE[X
1
1
X
1
n log
2
n
] = nlog
2
(n log
2
n)
et, pour n susament grand :
log
2
(n) < log
2
(n log
2
n) log
2
(n) + log
2
(log
2
n).
Ceci implique que lim
n
E[S

n
]
n log
2
n
= 1. Donc pour n assez grand (dependant
de ), on a

E[S

n
]
n log
2
n
1

/2. Pour n assez grand, le deuxi`eme terme du


membre de droite de (V.2) est donc nul.
On consid`ere le premier terme du membre de droite de (V.2). Linegalite de
Tchebychev implique :
P
_

n
E[S

n
]
n log
2
n

> /2
_

4 Var(S

n
)
(n log
2
n)
2
.
En utilisant lindependance des variables (X
k
, 1 k n), il vient :
Var(S

n
) = nVar(X
1
1
X
1
nlog
2
n
) nE[X
2
1
1
X
1
nlog
2
n
].
De plus, on a :
E[X
2
1
1
X
1
nlog
2
n
] =

k1;2
k
n log
2
n
2
k

1klog
2
(n log
2
n)
2
k
2
log
2
(n log
2
n)+1
2nlog
2
n.
On en conclut que
4 Var(S

n
)
( nlog
2
n)
2

8

2
log
2
n
. On en deduit donc que pour tout
> 0, lim
n
P
_

n
n log
2
n
1

>
_
= 0. Donc la suite
_
S

n
n log
2
n
, n 1
_
converge en probabilite vers 1.
209
XIII Corrections
3. On observe que :
P(X
1
> n log
2
n) =

k1;2
k
>n log
2
n
2
k

klog
2
(n log
2
n)
2
k
= 2
log
2
(n log
2
n)+1
.
On remarque que :
log
2
(n log
2
n) = log
2
n + log
2
(log
2
n) log
2
n + log
2
(log
2
n) 1,
et donc :
P(S
n
,= S

n
) = P(
n
k=1
X
k
,= X
n
k
)
n

k=1
P(X
k
,= X
n
k
)
= nP(X
1
> n log
2
n)
4
log
2
n

n
0.
4. Soit > 0. On a :
_

S
n
n log
2
n
1

>
_
=
__

n
n log
2
n
1

>
_
S
n
= S

__

S
n
n log
2
n
1

>
_
S
n
,= S

_
.
Il vient donc :
P
_

S
n
n log
2
n
1

>
_
P
_

n
n log
2
n
1

>
_
+P(S
n
,= S

n
).
On deduit des questions precedentes que la suite
_
S
n
n log
2
n
, n 1
_
converge
en probabilite vers 1.
On peut en fait montrer que la suite (2
n
S
2
n n, n 1) converge en loi
2
.
Exercice V.11.
1. On note X
i
la reponse de la i-`eme personne interrogee (X
i
= 1 sil vote pour
le candidat A et X
i
= 0 sil vote pour le candidat B). Les variables aleatoires
X
1
, . . . , X
n
sont independantes de meme loi de Bernoulli de param`etre p ]0, 1[.
(Les variables X
i
sont eectivement independantes si lon a `a faire `a un tirage
avec remise : une personne peut etre interrogee plusieurs fois. Dans le cas dun
tirage sans remise, ce qui est souvent le cas dun sondage, alors les variables ne
sont pas independantes. Mais on peut montrer que si la taille de la population
2
A. Martin-Lof. A limit theorem which claries the Petersburg paradox, J. Appl. Prob., 22,
634-643 (1985).
210
XIII.5 Theor`emes limites
est grande devant le nombre de personnes interrogees, n, alors les resultats
de convergence et en particulier lintervalle de conance sont les memes que
pour le tirage etait avec remise). On estime p avec la moyenne empirique :

X
n
=
1
n

n
k=1
X
k
. On deduit du TCL que avec une probabilite asymptotique
de 95%, on a :
p [

X
n
1.96
_
p(1 p)

n
] [

X
n

1.96
2

n
] [

X
n

1

n
].
En particulier pour n = 1 000, on obtient une precision asymptotique (par
exc`es) denviron 1/

n cest-` a-dire 3 points. La precision ne depend pas de


la taille de la population, pourvu quelle soit bien plus grande que n.
2. On a p = 0.5 + 3.3 10
4
. Comme on assure que A est le vainqueur d`es que

X
n

1

n
1/2, et que dans 95% des cas

X
n
[p
1

n
] (p 1/2), on en
deduit que lon donne A gagnant d`es que p
2

n

1
2
avec une certitude dau
moins 95%. On en deduit
2

n
= 3.3 10
4
soit n = 36 000 000. Comme n est
plus grand que la taille de la population, on ne peut donc pas determiner le
vainqueur en faisant un sondage.

Exercice V.12.
1. On consid`ere les fonctions caracteristiques :

Ym
(u) = (1 p
m
+p
m
e
iu
)
m
=
_
1
mp
m
(1 e
iu
)
m
_
m
.
Rappelons que (1
x
n
n
)
n
converge vers e
x
si x
n
converge dans C vers x, quand
n tend vers linni. On en deduit que lim
n

Ym
(u) = e
(1e
iu
)
. On reconnat
la fonction caracterisitique de la loi de Poisson de param`etre . On en deduit
donc (Y
m
, m N) converge en loi vers la loi de Poisson de param`etre .
2. Chaque impact a une probabilite 1/N = 1/576 detre dans le domaine i
0
donne.
La loi du nombre dimpacts dans le domaine i
0
est donc une variable aleatoire
binomiale B(537, 1/576) soit approximativement une loi de Poisson de para-
m`etre 0.9323. On peut alors comparer les probabilites empiriques N
k
/N et
les probabilites theoriques p
k
= P(X = k), o` u X est une variable aleatoire de
loi de Poisson de param`etre . On compare N
k
et N p
k
dans la table (XIII.1).
Les valeurs sont tr`es proches. En fait, en faisant un test statistique du
2
, on
peut verier quil est raisonnable daccepter le mod`ele. On peut donc dire que
les bombes qui sont tombees dans le sud de Londres sont reparties au hasard.
211
XIII Corrections
k 0 1 2 3 4 5+
N
k
229 211 93 35 7 1
Np
k
226.7 211.4 98.5 30.6 7.1 1.6
.
Tab. XIII.1. Nombres N
k
et N p
k
en fonction de k.

Exercice V.13.
On remarquons que lensemble des fractions rationnelles F = a/b
n
; a N, n
N

[0, 1] est denombrable. En particulier, on a P(X F) = 0. Cela implique


que p.s. la representation X =
+

n=1
X
n
b
n
est unique.
1. Soit x
1
, . . . , x
n
0, . . . , b 1. On a P(X
1
= x
1
, . . . , X
n
= x
n
) = P(X

n
k=1
x
k
b
k
[0, b
n
[). Comme X est de loi uniforme, il vient P(X
1
= x
1
, . . . , X
n
=
x
n
) = b
n
. La loi de (X
1
, . . . , X
n
) est donc la loi uniforme sur 0, . . . , b 1
n
.
2. Par la formule des lois marginales, on obtient P(X
n
= x
n
) = 1/b, et donc
X
n
est de loi uniforme sur 0, . . . , b 1. On a P(X
1
= x
1
, . . . , X
n
= x
n
) =

n
k=1
P(X
k
= x
k
) pour tout x
1
, . . . , x
n
0, . . . , b 1. Cela implique que les
variables aleatoires X
1
, . . . , X
n
sont independantes. Ceci etant vrai pour tout
n 2, cela signie que les variables aleatoires (X
n
, n 1) sont independantes.
3. Soit a 0, . . . , b 1. On pose Y
k
= 1
X
k
=a
. La quantite

n
k=1
Y
k
compte
le nombre dapparition du chire a parmi les n premiers chires de lecriture
en base b de X, et
1
n

n
k=1
Y
k
est la frequence correspondante. Les variables
(X
k
, k N) etant independantes et de meme loi, il en est de meme pour les
variables (Y
k
, k N). De plus, Y
k
est une variable aleatoire de Bernoulli de
param`etre P(X
k
= a) = 1/b. Dapr`es la loi forte des grands nombres, on a :
lim
n
1
n
n

k=1
Y
k
= E[Y
1
] =
1
b
p.s..
Ceci est vrai pour tout a 0, . . . , b 1. On en deduit que p.s. X est simple-
ment normal en base b.
4. Le raisonnement qui prec`ede est vrai pour toute base b 2. On note N
b
lensemble des reels de [0, 1] simplement normal en base b. On a pour tout
b 2, P(X N
b
) = 1 et P(X , N
b
) = 0. On en deduit que :
P(X ,
r1
N
b
r )

r1
P(X , N
b
r ) = 0.
Cela implique que X est p.s. normal en base b. De meme, on a :
212
XIII.5 Theor`emes limites
P(X ,
b2
N
b
)

b2
P(X , N
b
) = 0.
On en deduit que X est p.s. absolument normal.

Exercice V.14.
1. On deduit de linegalite de Tchebychev que :
P(
n
) = E[1
[

Xnx[>
]
E[(

X
n
x)
2
]

2
=
Var(

X
n
)

2
=
x(1 x)
n
2

1
4n
2
,
o` u lon utilise que x [0, 1] pour la derni`ere inegalite.
2. La fonction h est uniformement continue sur [0, 1] car elle est continue sur le
compact [0, 1] (theor`eme de Heine). Soit > 0, il existe donc > 0, tel que
pour tous x, y [0, 1], si [x y[ , alors on a [h(x) h(y)[ . Dautre
part, h etant continue sur [0, 1], elle est bornee par une constante M > 0. En
utilisant linegalite de Jensen, il vient :

h(x) E[h(

X
n
)]

E[

h(x) h(

X
n
)

] = A+B,
avec A = E[[h(x) h(

X
n
)[1
[

Xnx[
] et B = E[[h(x) h(

X
n
)[1
[

Xnx[>
].
Dapr`es les remarques preliminaires on a A < P([

X
n
x[ ) . Dapr`es la
question precedente, on a :
B 2MP([

X
n
x[ > )
M
2n
2
.
Pour n M/2
2
, on a B et

h(x) E[h(

X
n
)]

2 pour tout x [0, 1].


En conclusion, il vient :
lim
n
sup
x[0,1]

h(x) E[h(

X
n
)]

= 0.
3. La variable aleatoire n

X
n
=

n
k=1
X
k
est de loi binomiale de param`etres (n, x).
4. On a :
E[h(

X
n
)] = E[h(n

X
n
/n)] =
n

k=1
h(k/n)
_
n
k
_
x
k
(1 x)
nk
.
On deduit de la question 4, que la suite de polynomes (

n
k=1
h(k/n)
_
n
k
_
x
k
(1
x)
nk
, n 1), appeles polynomes de Bernstein, converge uniformement vers h
sur [0, 1].
213
XIII Corrections
5. On raisonne cette fois-ci avec des variables aleatoires (X
k
, k 1) independantes
de loi de Poisson de param`etre x, et on utilise le fait que

n
k=1
X
k
suit une loi
de Poisson de param`etre nx. On obtient :
lim
n

f(x)

k=0
e
nx
(nx)
k
k!
f(k/n)

= 0.
La convergence nest pas uniforme. En eet, pour lexemple donne, il vient :
lim
n

f(x
n
)

k=0
e
nxn
(nx
n
)
k
k!
f(k/n)

= 1 e
/2
.

Exercice V.15.
1. En utilisant lindependance, pour tout y R, on a :
P(Z
n
y) = P
_
X
1
n
1/
y
_
n
= (1
n
)
n
,
o` u
n
= P
_
X
1
> n
1/
y
_
. Pour y 0, on a
n
> > 0, et donc lim
n+
P(Z
n

y) = 0. Pour y > 0, on a
n

y

n
quand n tend vers linni. Par consequent,
lim
n+
P(Z
n
y) = exp(y

). Cela demontre que la fonction de repartition


de Z
n
converge vers exp(y

)1
y>0
et donc la suite (Z
n
, n 1) converge
en loi vers Y de loi de Frechet de param`etre (, ).
2. Soit n individus. On note X
k
le niveau annuel dexposition au mercure de
lindividu k. On suppose les variables aleatoires X
k
independantes et de meme
loi que X. Pour un individu de 70 kg, la dose annuelle admissible xee par
lOMS est s = 18.14 10
3
g. La probabilite quun individu au moins ait un
niveau de mercure trop eleve est
p
n
= P(max(X
1
, . . . , X
n
) > s) = 1 P(max(X
1
, . . . , X
n
) s)
= 1 e
nln(1s

)
1 exp(s

n).
Si n
1
= 225 362, n
2
= 100, on a p
n
1
1 et p
n
2
0.01. Enn, 1
exp(s

n) 0.95 si et seulement si n
log(20)
s

, i.e. n 27 214.

214
XIII.6 Vecteurs Gaussiens
XIII.6 Vecteurs Gaussiens
Exercice VI.1.
1. On voit que quelque soit i = 1, 2, 4, on a Cov(X
3
X
i
) = 0, donc X
3
est inde-
pendant du vecteur gaussien (X
1
, X
2
, X
4
).
2. Le vecteur gaussien (X
1
, X
2
) est centre, de matrice de covariance
12
=
_
2 1
1 1
_
.
Pour le calcul de lesperance conditionnelle, on cherche ` a ecrire X
1
= aX
2
+W
o` u W est une variable aleatoire independante de X
2
. Comme X
1
et X
2
sont
centrees, W lest aussi. On calcule alors :
Cov(X
1
, X
2
) = E[X
1
X
2
] = aE[X
2
2
] +E[X
2
]E[W] = a,
car W est independante de X
2
. On en deduit que a = 1 et que W = X
1
X
2
.
Il vient ensuite E[X
1
[X
2
] = E[W] +X
2
= X
2
.
3. Le vecteur (X
2
, X
4
) est egalement gaussien centre, de matrice de covariance

24
=
_
1 1
1 2
_
. On obtient de meme que E[X
4
[X
2
] = X
2
.
4. Si (X, Y ) est un vecteur gaussien alors (X E[X[Y ], Y ) est aussi un vecteur
gaussien car E[X[Y ] est une fonction lineaire de Y . Or E[(X E[X[Y ])Y ] = 0,
donc ces deux variables sont independantes. Au vu des questions 2 et 3, on sait
que X
1
X
2
et X
4
X
2
sont deux variables gaussiennes independantes de X
2
.
5. Le vecteur (X
1
X
2
, X
4
X
2
) est gaussien et on a E[(X
1
X
2
)(X
4
X
2
)] =
Cov(X
1
, X
4
) Cov(X
2
, X
4
) Cov(X
1
, X
2
) + Cov(X
2
, X
2
) = 0. Donc ces va-
riables sont independantes. On pose Y
1
= (X
1
X
2
, 0, 0, 0), Y
2
= (X
2
, X
2
, 0, X
2
),
Y
3
= (0, 0, X
3
, 0) et Y
4
= (0, 0, 0, X
4
X
2
). Les vecteurs gaussiens Y
1
, Y
2
, Y
3
et
Y
4
sont independants et leur somme vaut X.

Exercice VI.2.
1. Soit g une fonction mesurable bornee. On a par independance :
E[g(Y )] = E[g(ZX)]
= E[g(X)1
Z=1
+g(X)1
Z=1
]
= E[g(X)]P(Z = 1) +E[g(X)]P(Z = 1)
=
1
2
_
E[g(X)] +E[g(X)]
_
= E[g(X)],
car la loi de X est symetrique. Donc X et Y sont de meme loi ^(0, 1).
215
XIII Corrections
2. On a :
Cov(X, Y ) = E[XY ] = E[X
2
]P(Z = 1) +E[X
2
]P(Z = 1) = 0.
3. On a P(X+Y = 0) = P(Z = 1) = 1/2 donc X+Y nest pas une variable alea-
toire continue. En particulier ce nest pas une variable gaussienne. Donc (X, Y )
nest pas un vecteur gaussien. De plus X et Y ne sont pas independants, sinon
(X, Y ) serait un vecteur gaussien. Ainsi on a dans cet exercice deux variables
aleatoires gaussiennes de covariance nulle qui ne sont pas independantes.

Exercice VI.3.
1. Comme X et Y sont independantes et gaussiennes, (X, Y ) est un vecteur gaus-
sien. Par consequent, (X + Y, X Y ) est un vecteur gaussien et les variables
X +Y et X Y sont des variables gaussiennes. Ces deux variables sont inde-
pendantes si et seulement si leur covariance est nulle :
E[(X +Y )(X Y )] E[X +Y ]E[X Y ] = Var(X) Var(Y ).
On conclut donc que X + Y et X Y sont independantes si et seulement si
Var(X) = Var(Y ).
2. On sait que X
2
suit une loi
2
(1) = (1/2, 1/2). On a donc pour Z
1
:

Z
1
(u) =
X
2(u/2) =
_
1/2
1/2 iu/2
_
1/2
=
_
1
1 iu
_
1/2
.
Ainsi la loi de Z
1
est la loi (1, 1/2). Pour Z
2
on utilise le fait que X et
Y sont independantes et donc
Z
2
(u) =
Z
1
(u)
Z
1
(u). On en deduit que

Z
2
(u) =
1

1+u
2
.
3. On voit que Z
2
=
_
XY

2
__
X+Y

2
_
et vu la question 1, ces variables sont inde-
pendantes. De plus on a Var(
XY

2
) = Var(
X+Y

2
) = 1. Ceci assure que
XY

2
et
X+Y

2
sont de loi gaussienne centree reduite.

Exercice VI.4.
1. Le vecteur X = (X
1
, . . . , X
n
) est un vecteur gaussien ^(m1
n
,
2
I
n
). Donc

X
n
,
qui est combinaison lineaire des composantes de X, est une variable aleatoire
gaussienne. On a E[

X
n
] =
1
n
n

i=1
E[X
i
] = m et Var(

X
n
) =
1
n
2
n

i=1
Var(X
i
) =

2
n
. Donc on en deduit que la loi de

X est ^(m,
2
/n).
216
XIII.6 Vecteurs Gaussiens
2. On a n
2
n
/
2
=
n

i=1
_
X
i
m

_
2
o` u
X
i
m

a pour loi ^(0, 1). Il vient donc


que n
2
n
/
2
suit la loi
2
(n).
3. Pour montrer que

X et V
2
n
sont independants, il sut de montrer que

X
n
et
(X
1


X
n
, . . . , X
n


X
n
) le sont. Or le vecteur Y = (

X
n
, X
1


X
n
, . . . , X
n


X
n
)
est gaussien (les coordonnees sont des combinaisons lineaires de celles de X).
Donc il sut de montrer que Cov(

X
n
, X
i


X
n
) = 0, ce qui est le cas car :
Cov(

X
n
, X
i
) = Cov
_
1
n
n

j=1
X
j
, X
i
_
=
1
n
Cov(X
i
, X
i
) =
1
n

2
= Var(

X
n
).
4. Supposons m = 0. En developpant, on obtient :
(n 1)V
n
=
n

i=1
(X
i


X
n
)
2
=
n

i=1
X
2
i

1
n
n

i=1
n

j=1
X
i
X
j
.
On en deduit que :
n

i=1
X
2
i
= (n 1)V
n
+
_
n

X
n
_
2
.
La loi de

n
i=1
X
2
i
/
2
est la loi
2
(n). Comme

n

X
n
/ est une variable alea-
toire gaussienne centree reduite, la loi de
_
n

X
n
/
_
2
est donc la loi
2
(1). Par
independance, obtient pour les fonctions caracteristiques :
_
1
1 2iu
_
n/2
=
P
n
i=1
X
2
i

2
(u)
= (n1)Vn

2
(u)

n

Xn

(u)
= (n1)Vn

2
(u)
_
1
1 2iu
_
1/2
.
On en deduit donc que
(n1)Vn/
2(u) =
_
1
12iu
_
(n1)/2
. Ainsi (n 1)V
n
/
2
est de loi
2
(n 1). Si m ,= 0, alors on consid`ere X
i
m au lieu de X
i
dans
ce qui prec`ede. Cela ne change pas la denition de V
n
et on obtient la meme
conclusion.

Exercice VI.5.
217
XIII Corrections
1. On a :
E[(n 1)V
n
] = E[
n

j=1
(X
2
j
2

X
n
X
j
+

X
2
n
)] = n
2
2n

2
n
+n
2

2
n
2
= (n 1)
2
.
Comme V
n
et

X
n
sont independants, on a :
E[(n 1)V
n
e
itn

Xn
] = E[(n 1)V
n
] E[e
itn

Xn
] = (n 1)
2
(t)
n
.
2. En developpant, il vient :
E[(n 1)V
n
e
itn

Xn
] = E
__
(1
1
n
)
n

j=1
X
2
j

2
n

1j<kn
X
j
X
k
_
e
it
P
n
j=1
X
j

= (1
1
n
)
n

j=1
E[X
2
j
e
itX
j
]E[e
itX
1
]
n1

2
n

1j<kn
E[X
j
e
itX
j
]E[X
k
e
itX
k
]E[e
itX
1
]
n2
= (1
1
n
)n

(t)(t)
n1

2
n
n(n 1)
2
(i

(t))
2
(t)
n2
= (n 1)

(t)(t)
n1
+ (n 1)

(t)
2
(t)
n2
.
3. Soit louvert t; (t) ,= 0 et O la composante connexe de cet ouvert conte-
nant 0. On deduit de la question precedente que est solution de lequation
dierentielle : _
_
_

_
2
=
2
sur O,
(0) = 1 ,

(0) = 0.
4. On pose =

/ sur O. On obtient que

(t) =
2
et (0) = 0. On en deduit
que (t) =
2
t. Donc

(t) =
2
t(t). Une solution est (t) = e
t
2

2
/2
sur
O. On cherche alors les solutions sous la forme (t) = e
t
2

2
/2
h(t) (methode
de la variation de la constante). On en deduit que h

= 0. La condition (0) = 1
implique que e
t
2

2
/2
est la seule solution de lequation dierentielle consideree
et O = R. La loi de X
i
est donc la loi gaussienne ^(0,
2
).
5. Si m ,= 0, on applique ce qui prec`ede `a X

i
= X
i
m. On trouve alors que la
loi de X
i
est la loi gaussienne ^(m,
2
).

Exercice VI.6.
218
XIII.6 Vecteurs Gaussiens
1. On sait que la variable aleatoire

X
n
est de loi gaussienne avec E[

X
n
] = et
Var(

X
n
) =

n
. Par la loi forte des grands nombres, la suite (

X
n
, n 1) converge
presque s urement vers E[X
1
] = .
2. On sait que (n 1)V
n
/ suit la loi
2
(n 1), et on a E[V
n
] = et Var(V
n
) =
2
2
(n 1)
. Remarquons que V
n
=
n
n1
1
n

n
k=1
X
2
k

n
n1
_
1
n

n
k=1
X
k
_
2
. Comme
les variables aleatoires X
k
sont independantes, de meme loi et de carre inte-
grable, on deduit de la loi forte des grands nombres que la suite (
1
n

n
k=1
X
2
k
, n
2) converge presque s urement vers E[X
2
1
]. On en deduit donc que la suite
(V
n
, n 2) converge presque s urement vers Var(X
1
) = .
3. Les variables aleatoires

X
n
et V
n
sont independantes. La loi du couple est donc
la loi produit. La suite ((

X
n
, V
n
), n 2) converge p.s. vers (, ).
4. On a :
E[T

n
] = E[

X
n
] + (1 )E[V
n
] = ,
Var(T

n
) =
2
Var(

X
n
) + (1 )
2
Var(V
n
) + 2 Cov(

X
n
, V
n
)
=
2

n
+ (1 )
2
2
2
(n 1)
,
car

X
n
et V
n
sont independants. Par continuite de lapplication (x, s) x +
(1 )s, on en deduit que la suite (T

n
, n 2) converge presque s urement vers
E[X
1
] + (1 ) Var(X
1
) = .
5. Les variables aleatoires (X
k
, k 1) sont de meme loi, independantes, et de
carre integrable. De plus E[X
k
] = et Var(X
k
) = . On deduit du theor`eme
central limite, que la suite
_
n(

X
n
), n 1
_
converge en loi vers une loi
gaussienne ^(0, ).
6. Remarquons que
n1

V
n
est distribue suivant la loi
2
(n 1). En particulier,
n1

V
n
a meme loi que

n1
k=1
G
2
k
, o` u (G
k
, k 1) est une suite de variables alea-
toires independantes, identiquement distribuees, de loi ^(0, 1). On en deduit
donc :

n(V
n
) =
_
n
n 1

n 1
_
1

V
n
1
__
loi
=
_
n
n 1

n 1(
1
n 1
n1

k=1
G
2
k
1)
_
.
Comme E[G
2
k
] = 1 et Var(G
2
k
) = 2, le theor`eme central limite implique que la
suite (

n 1(
1
n 1
n1

k=1
G
2
k
1), n 2) converge en loi vers G de loi gaussienne
219
XIII Corrections
^(0, 2). Remarquons que
_
n
n 1
converge vers . On deduit du theor`eme de
Slutsky, la convergence en loi de la suite
_
(
_
n
n 1
,

n 1(
1
n 1
n1

k=1
G
2
k

1)), n 1
_
vers (, G). Par continuite de la multiplication, on en deduit que la
suite (

n(V
n
), n 2) converge en loi vers G. Soit encore (

n(V
n
), n
2) converge en loi vers ^(0, 2
2
).
7. On pose Y
n
=

n(

X
n
) et W
n
=

n(V
n
). En utilisant lindependance
entre Y
n
et W
n
, et les deux questions precedentes, on obtient :
lim
n

(Yn,Wn)
(v, w) = lim
n

Yn
(v)
Wn
(w) = e
v
2
/2
e
2
2
w
2
/2
pour tout v, w R. On reconnat la fonction caracteristique du couple (Y, W),
o` u Y et W sont independants de loi respective ^(0, ) et ^(0, 2
2
). On en
deduit que la suite (

n(

X
n
, V
n
), n 2) converge en loi vers le vecteur
gaussien (Y, W).
8. Par continuite de lapplication (a, b) a+(1)b, on en deduit que la suite
(

n(T

n
) =

n(

X
n
) + (1 )

n(V
n
), n 2) converge en loi vers
Y + (1 )W. Autrement dit la suite (

n(T

n
), n 2) converge en loi
vers une loi gaussienne ^(0,
2
+ 2(1 )
2

2
).
9. Comme

n
T

converge en loi vers une loi gaussienne ^(0, 1), et que la


loi gaussienne est une loi `a densite, on a :
lim
n
P
_
[T

n
a

n
, T

n
+a

n
]
_
=
1

2
_
a
a
e

x
2
2
dx.
Lintervalle aleatoire [T

n
a

n
, T

n
+ a

n
] est un intervalle de conance de
de niveau asymptotique
1

2
_
a
a
e

x
2
2
dx. Pour le niveau de 95%, on trouve
a 1.96, soit alors :
I
n
= [T

n
1.96

n
, T

n
+ 1.96

n
].
10. Comme
n
converge presque s urement vers , en appliquant le theor`eme de
Slutsky, on obtient que (

n
T

n
, n 2) converge en loi vers une loi gaus-
sienne ^(0, 1). On a :
lim
n
P
_
[T

n
a

n

n
, T

n
+a

n

n
]
_
=
1

2
_
a
a
e

x
2
2
dx.
220
XIII.7 Simulation
Lintervalle aleatoire [T

n
a

n

n
, T

n
+ a

n

n
] est un intervalle de conance de
de niveau asymptotique
1

2
_
a
a
e

x
2
2
dx. Pour le niveau de 95%, on trouve
a 1.96, soit alors :

I
n
= [T

n
1.96

n

n
, T

n
+ 1.96

n

n
].
On obtient lintervalle

I
n
[3.42, 4.60].
11. En minimisant la fonction
2
+ 2(1 )
2

2
, on trouve

=
2
1 + 2
.
Par la convergence presque s ure de la suite V
n
vers et la continuite de la
fonction x
2x
1 + 2x
sur [0, +[, on a la convergence presque s ure de la suite
(

n
, n 2) vers

.
12. On utilise les notations des questions precedentes. Par le theor`eme de Slutsky,
on a la convergence en loi de ((

n
, Y
n
, W
n
), n 2) vers (

, Y, W). Comme la
fonction (

, a, b)

a+(1

)b est continue, on en deduit que (

n(T

n
n
) =

n(

X
n
)+(1

n
)

n(V
n
), n 2) converge en loi vers

Y +(1

)W.
Autrement dit (

n(T

n
n
), n 2) converge en loi vers une loi gaussienne
^(0,
2
2
1 + 2
). En remarquant que T

n
n
converge presque s urement vers , il
resulte du theor`eme de Slutsky que (
_
n(1 + 2T

n
n
)
T

n
n

2T

n
n
, n 2) converge
en loi vers une loi gaussienne ^(0, 1). Par un raisonnement similaire `a celui
utilise dans les questions precedentes, on obtient lintervalle de conance de
niveau asymtopique 95% :

n
= [T

n
n
1.96

2T

n
n
_
n(1 + 2T

n
n
)
, T

n
n
+ 1.96

2T

n
n
_
n(1 + 2T

n
n
)
].
On a

n
0.885, T

n
n
4.015, 1.96

2T

n
n
_
n(1 + 2T

n
n
)
0.370. On obtient linter-
valle

I

n
[3.64, 4.39].

XIII.7 Simulation
Exercice VII.1.
221
XIII Corrections
1. Soit une fonction mesurable bornee et n N

. On a, en utilisant lindepen-
dance des variables aleatoires :
E[(Y )1
T=n
] = E[(X
k
)1
X
1
,A,...,X
n1
,A,XnA
]
= P(X , A)
n1
E[(X)1
XA
] (XIII.3)
Cette esperance est sous forme produit. On en deduit que Y et T sont inde-
pendants.
2. En prenant = 1 dans (XIII.3), on obtient :
P(T = n) = P(X A)
_
1 P(X A)
_
n1
.
On en deduit que T est de loi geometrique de param`etre P(X A).
3. En sommant (XIII.3) sur n N

, il vient :
E[(Y )] = E[(X)1
XA
]/P(X A) = E[(X)[X A].
La loi de Y est donc la loi de X conditionnellement `a X A.
4. On a :
P((Z
1
, U
1
) A

) = P(U
1
ch(Z
1
)/g(Z
1
))
=
_
g(z)1
[0,1]
(u)dzdu 1
uch(z)/g(z)
= c
_
h(z) dz = c.
5. Soit une fonction mesurable bornee. On deduit de ce qui prec`ede que :
E[(Z
T
)] = E[(Z
1
)[(U
1
, Z
1
) A

]
=
1
c
E[(Z
1
)1
U
1
ch(Z
1
)/g(Z
1
)
]
=
1
c
_
g(z)1
[0,1]
(u)dzdu (z)1
uch(z)/g(z)
=
_
h(z)dz (z).
On en deduit que Z
T
est une variable aleatoire de densite h.

Exercice VII.2.
222
XIII.8 Estimateurs
1. On calcule la fonction de repartition de X
k
= log(U
k
)/, qui est une variable
aleatoire positive : pour x > 0,
P(log(U
k
)/ x) = P(U
k
e
x
) = 1 e
x
.
On en deduit que la loi de X
k
est la loi exponentielle de param`etre .
2. En utilisant les fonctions caracteristiques, on en deduit que la loi de

n
k=1
X
k
est la loi (, n).
3. Pour n = 0, on a P(N = 0) = P(U
1
e

) = e

, et pour n 1,
P(N = n) = P
_
n

k=1
U
k
e

>
n+1

k=1
U
k
_
= P
_
n

k=1
X
k
1 <
n+1

k=1
X
k
_
= P(1 <
n+1

k=1
X
k
) P(1 <
n

k=1
X
k
)
=
_

1
n!

n+1
x
n
e
x
dx
_

1
(n 1)!

n
x
n1
e
x
dx
=
_

n!

n
x
n
e
x
_

1
=
n!

n
e

.
On en deduit donc que la loi de N est la loi de Poisson de param`etre .
4. Le generateur de nombres pseudo-aleatoires fournit une realisation, x
1
, x
2
, . . .,
dune suite de variables aleatoires independantes de loi uniforme sur [0, 1].
On deduit de ce qui prec`ede que inf
_
n N;

n+1
k=1
x
k
< e

_
est la realisation
dune variable aleatoire de loi de Poisson de param`etre .

XIII.8 Estimateurs
Exercice VIII.1.
Un estimateur lineaire et sans biais de secrit sous la forme

n
=

n
i=1
a
i
X
i
avec

n
i=1
a
i
= 1. Comme les variables alatoires sont independantes, on a
Var(

n
) =

n
i=1
a
2
i

2
, avec
2
= Var(X
1
). Dapr`es linegalite de Cauchy-Schwarz
on a (

n
i=1
a
2
i
)(

n
i=1
1
n
2
)
_
n
i=1
a
i
n
_
2
. Puisque

n
i=1
a
i
= 1, on deduit que
223
XIII Corrections

n
i=1
a
2
i

1
n
avec egalite si et seulement si a
i
=
1
n
pour tout i 1, . . . , n.
Lestimateur de variance minimale dans la classe des estimateurs lineaires et sans
biais est donc la moyenne empirique.

Exercice VIII.2.
1. La loi forte des grands nombres implique que (

X
n
, n 1), o` u

X
n
=
1
n

n
i=1
X
i
,
converge p.s. vers E

[X
1
] = 1/. Par continuite de la fonction x 1/x sur
]0, [, on en deduit que

n
=
1

X
n
est un estimateur convergent de .
2. La log-vraisemblance est donnee par
L
n
(x; ) =
n

i=1
log
_
e
x
i
1
x
i
>0
_
= nlog
n

i=1
x
i
+ log
n

i=1
1
x
i
>0
.
Pour calculer lestimateur du maximum de vraisemblance, on cherche les zeros
de la derivee de la log-vraisemblance L
n
:

L
n
(x; ) =
n

i=1
x
i
= 0 =
n

n
i=1
x
i
.
Comme

2

2
L
n
(, x) > 0, la log-vraisemblance est strictement convexe. On en
deduit quelle est maximale pour =
n

n
i=1
x
i
. Lestimateur du maximum de
vraisemblance est donc

n
.
3. En utilisant les fonctions caracteristiques, on verie que la loi de

n
i=1
X
i
est
la loi (n, ) sous P

. On obtient pour n 2,
E

_
1

n
i=1
X
i
_
=
_

0
1
s

n
(n 1)!
s
n1
e
s
ds
=

n 1
_

0

n1
(n 2)!
s
n2
e
s
ds
=

n 1
,
o` u on a identie la densite de (n 1, ) dans lintegrale. Donc on a E

n
] =
n
n 1
. Lestimateur

n
est donc biaise pour n 2. (Pour n = 1, on verie
que E

1
] = .)
224
XIII.8 Estimateurs
4. Les calculs precedents necessitent de supposer n 2 et donnent comme esti-
mateur sans biais

n
=
n 1

n
i=1
X
i
.
On calcule le deuxi`eme moment de la meme mani`ere que le premier, pour n 3
E

_
1
(

n
i=1
X
i
)
2
_
=

2
(n 1)(n 2)
_

0

n2
(n 3)!
s
n3
e
s
ds =

2
(n 1)(n 2)
.
Donc pour tout c > 0, on a
R(

(c)
n
, ) = E

_
_
c

n
i=0
X
i

_
2
_
=

2
(n 1)(n 2)
_
c
2
2(n 2)c + (n 1)(n 2)
_
.
Le risque quadratique est minimal pour 2c 2(n2) = 0 soit c = n2. Parmi
les estimateurs

(c)
, cest donc

(n2)
qui minimise le risque quadratique.
Pour n 2 le risque quadratique est inni.
5. Notons dabord que le mod`ele est regulier. En eet, le support de toutes les lois
exponentielles est (0, ) et est donc independant du param`etre ; la fonction
de vraisemblance (densite) est de classe C
2
(en ) ; on peut verier des formules
dinterversion entre lintegrale en x et la dierentiation en ; on verra dans la
suite que linformation de Fisher existe. Par denition on a
L
1
(x
1
; ) = log() x
1
+ log(1
x
1
>0
).
Il vient

L
1
(x
1
; ) =
1

x
1
et

2

L
1
(x
1
; ) =
1

2
.
On a donc
I() = E

_

2

L
1
(X
1
; )
_
=
1

2
et FDCR() =
1
nI()
=

2
n
.
6. On verie que le mod`ele est exponentiel en regardant la densite jointe de
(X
1
, . . . , X
n
)
p
n
(, x) =
n
exp
_

i=1
x
i
_
= C()h(x)e
Q()S(x)
o` u C() =
n
, h(x) =

n
i=1
1
x
i
>0
, Q() = et S(x) =

n
i=1
x
i
. On en
deduit que S
n
= S(X) =

n
i=1
X
i
est la statistique canonique. Elle est donc
exhaustive et totale.
225
XIII Corrections
7. On suppose n 3.
a)

n
a ete choisi sans biais.
b)

n
est optimal car il est fonction de la statistique exhaustive et totale S(X)
(Theor`eme de Lehman-Shee).
c) Lestimateur sans biais

n
a comme risque quadratique
Var

n
) = R(

n
, ) =

2
(n 1)(n 2)
_
(n 1)
2
(n 1)(n 2)
_
=

2
n 2
.
Il natteint donc pas la borne FDCR. Il nest donc pas ecace. Il nexiste
pas destimateur ecace, parce que tout estimateur ecace serait optimal
et alors (p.s.) egal `a

par lunicite (p.s.) de lestimateur optimal.


d)

n
est preferable `a

n
car R(

n
, ) < R(

n
, ) pour tout > 0.
e)

n
est inadmissible car R(

n
, ) < R(

n
, ) pour tout > 0.
f)

n
est regulier parce quil est de carre integrable et le mod`ele est regulier
(on peut verier que

n
satisfait les proprietes dinterversion de lintegrale
en x et de la dierentiation en ).
g) On est dans un mod`ele regulier et identiable. Lestimateur du maximum de
vraisemblance

n
est asymptotiquement ecace, i.e.

n
_

n

_
converge
en loi vers une loi normale centree de variance 1/I(). En remarquant que

n(

n
) tend vers 0 p.s., le Theor`eme de Slutsky entrane que

n
aussi
est asymptotiquement normal de variance 1/I().

Exercice VIII.3.
1. On a
P

(X
1
= k
1
, . . . , X
n
= k
n
) = e
n
_
n

i=1
1
k
i
!
_
exp
_
log()
n

i=1
k
i
_
et on identie la statistique canonique S
n
=

n
i=1
X
i
. La statistique canonique
dun mod`ele exponentiel est toujours exhaustive et totale. La variable aleatoire
S
n
suit une loi de Poisson de param`etre n sous P

. (On le verie facilement


avec les fonctions caracteristiques par exemple.)
2. On a P

(X
i
= 0) = e

et E

[1
X
1
=0
] = P

(X
1
= 0) = e

.
3. On calcule pour tout k, s N les probabilites conditionnelles
226
XIII.8 Estimateurs
P

(X
1
= k[S
b
= s) =
P

(X
1
= k, S
n
X
1
= s k)
P

(S
n
= s)
=
e

k
/k! e
(n1)
((n 1))
sk
/(s k)!
e
n
(n)
s
/s!
= C
k
n
_
n 1
n
_
sk
_
1
n
_
k
et on identie les probabilites binomiales de param`etres
_
s,
1
n
_
. La loi de X
1
conditionnellement `a S
n
est donc la loi binomiale de param`etre (S
n
, 1/n).
4. On applique le Theor`eme de Lehman-Shee pour = 1
X
1
=0
et on calcule
lestimateur optimal
Sn
par la methode de Rao-Blackwell :

Sn
= E[[S
n
] = E[1
X
1
=0
[S
n
] = P(X
1
= 0[S
n
) =
_
1
1
n
_
Sn
.
Par la loi forte des grands nombres on a p.s. lim
n
S
n
/n = , en particulier p.s.
lim
n
S
n
= , et, comme
Sn
=
_
1
1
n
_
Sn
=
_
1
S
n
/n
S
n
_
Sn
, on deduit que
p.s. lim
n

Sn
= e

. Ainsi,
Sn
est un estimateur convergent de e

.
5. On verie la regularite du mod`ele (support, derivabilite, interchangeabilite et
existence de I()), et on calcule
V

(k) =

log
_
e

k
/k!
_
=

(k log()) ) =
k

1,
I() = E

(X
1
)
_
=
E

[X
1
]

2
=
1

.
6. On en deduit
FDCR(e

) =
_

_
2
1
nI()
=
e
2
n
.
Pour calculer la variance de
Sn
on utilise la fonction generatrice E[z
Y
] =
e
(1z)
pour une variable Poisson Y de param`etre . Il vient
Var

(
Sn
) = E

_
_
_
_
1
1
n
_
2
_
Sn
_
_
e
2
= exp
_
n
_
1
_
1
1
n
_
2
__
e
2
= e
2
_
e
/n
1
_
.
La borne FDCR nest donc pas atteinte. Lestimateur
Sn
est donc optimal
mais pas ecace.
227
XIII Corrections

Exercice VIII.4.
1. La densite de la loi (1, 1/) peut secrire
p(x, ) =
1

(1 x)
1
exp(
1

log(1 x))1
[0,1]
(x), R
+

.
Le mod`ele T = (1, 1/), > 0 forme un mod`ele exponentiel. La variable
aleatoire S
n
=

n
i=1
log(1X
i
) est la statistique canonique. Elle est exhaustive
et totale.
2. La log-vraisemblance du mod`ele est donnee par
L
n
(x
1
, . . . , x
n
; ) = (
1

1)
n

i=1
log(1 x
i
) nlog() +
n

i=1
log(1
[0,1]
(x
i
)).
La log-vraisemblance vaut sur la fronti`ere de ]0, 1[. Son maximum est donc
atteint au point qui annule sa derivee. On obtient lestimateur du maximun
de vraisemblance : T
n
=
1
n

n
i=1
log(1 X
i
).
3. En utilisant la methode de la fonction muette et le changement de variable
y = log(1 x), on obtient pour une fonction h mesurable bornee
E

[h(log(1X
i
))] =
_
1
0
h(log(1x))
1

(1x)
1

1
dx =
_

0
h(y)
1

exp(
y

)dy.
On en deduit donc que log(1 X
i
) suit une loi exponentielle de param`etre
1

4. a) Lestimateur est sans biais car E

[T
n
] = E

[log(1 X
1
)] = .
b) Le risque quadratique est
R(T
n
, ) = E

[T
n
]
2
= Var

(T
n
) =

2
n
.
c) Les variables aleatoires (log(1X
i
), i 1) sont independantes, de meme
loi et integrables. La loi forte des grands nombres assure que la suite
(T
n
, n > 1) converge presque s urement vers .
d) La statistique T
n
est une fonction de la statistique S
n
qui est exhaustive et
totale. En appliquant les theor`emes de Rao-Blackwell et de Lehman-Shefe,
on en deduit que T
n
est un estimateur optimal de .
e) On calcule linformation de Fisher
I
1
() = E[

2

2
L
1
(X
1
, )] =
2

3
E[log(1 X
1
)]
1

2
=
1

2
.
On a donc I
n
() = nI
1
() = n/
2
et R(T
n
, ) = 1/nI
1
(). Lestimateur T
n
est donc ecace.
228
XIII.8 Estimateurs
5. Remarquons que les variables aleatoires (log(1 X
i
), i 1) sont egalement
de carre integrable. Par le theor`eme central limite, la suite (

n(T
n
), n 1)
est asymptotiquement normale de variance asymptotique
2
. On peut aussi
dire que le mod`ele est regulier et identiable, donc lestimateur du maximum
de vraisemblance est asymptotiquement normal de variance linverse de linfor-
mation de Fisher, 1/I
1
() =
2
.

Exercice VIII.5.
1. En utilisant les fonctions caracteristiques, on obtient que
n

i=1
Z
i
suit une loi
Gamma (, n).
2. La densite du couple (Z
1
, Y
1
) est p
1
(z
1
, y
1
; , ) = e
(z
1
y
1
)
1
z
1
>0,y
1
>0
.
Il sagit dun mod`ele exponentiel. La vraisemblance de lechantillon de taille n
vaut pour z = (z
1
, . . . , z
n
) et y = (y
1
, . . . , y
n
)
p
n
(z, y; ) =
n

n
e

n
P
i=1
z
i

n
P
i=1
y
i

_
n

i=1
1
z
i
>0,y
i
>0
_
.
Une statistique exhaustive (et totale) est T =
_
n

i=1
Z
i
,
n

i=1
Y
i
_
.
3. La log-vraisemblance vaut
L
n
(z, y; , ) = nlog() +nlog()
n

i=1
z
i

i=1
y
i
+log
_
n

i=1
1
z
i
>0,y
i
>0
_
.
Si on derive cette log-vraisemblance par rapport `a on obtient que

L
n
(z, y; , ) =
0 implique = n/

n
i=1
z
i
. Comme cette fonction est concave, le maximum de
vraisemblance est bien obtenu pour = n/

n
i=1
z
i
. Lestimateur du maximum
de vraisemblance est donc

n
= n/

n
i=1
Z
i
. En utilisant les memes arguments
on trouve
n
= n/

n
i=1
Y
i
.
4. Lestimateur (

n
,
n
) est asymptotiquement normal car il sagit de lestimateur
du maximum de vraisemblance dans un mod`ele exponentiel (mod`ele regulier
et identiable). De plus la loi normale asymptotique est de moyenne nulle et
de variance linverse de linformation de Fisher. Un rapide calcul donne

2
L
n
(z, y; , )

2
=
n

2
,

2
L
n
(z, y; , )

= 0 et

2
L
n
(z, y; , )

2
=
n

2
.
Linformation de Fisher vaut donc
_
1/
2
0
0 1/
2
_
. On en deduit donc que
229
XIII Corrections

n
_

n


n

_
Loi

n
^
__
0
0
_
,
_

2
0
0
2
__
.
5. Par independance, on calcule
P(X
i
> t) = P(Z
i
> t, Y
i
> t) = P(Z
i
> t)P(Y
i
> t) = exp(( +)t),
si t > 0 et P(X
i
> t) = 1 sinon. Donc la fonction de repartition de X
i
est
F(t) = (1 exp(( + )t))1
t>0
. La loi de X
i
est la loi exponentielle de
param`etre = +.
6. Le mod`ele statistique est T = c(+), > 0, > 0. Il nest pas identiable
car si + =

, alors la loi de X
i
est la meme. En revanche le mod`ele T =
c(), > 0 est identiable en = + : la vraisemblance de lechantillon
est
n

i=1
p(x
i
; ) =
n

i=1
_
exp(x
i
)1
x
i
>0

.
7. Le premier est lestimateur du maximum de vraisemblance du mod`ele ci-dessus
et par analogie `a la question 3, on trouve
n
= n/
n

i=1
X
i
. Pour le deuxi`eme,
on trouve

n
+
n
=
n

n
i=1
Z
i
+
n

n
i=1
Y
i
.
Les estimateurs sont dierents car fondes sur des observations dierentes. Ces
derni`eres sont plus riches que les premi`eres.
8. Comme pour la question 4, on a

n(
n
)
Loi

n
^(0, ( +)
2
).
On deduit de la question 4 que

n(

n
+
n
)
Loi

n
^(0,
2
+
2
).
Comme les deux param`etres sont strictement positifs, on a (+)
2
>
2
+
2
.
Lestimateur

n
+
n
est toujours preferable `a
n
. Cela correspond bien `a
lintuition car lestimateur

n
+
n
repose sur des observations plus detaillees.

Exercice VIII.6.
230
XIII.8 Estimateurs
1. Chaque micro-chip produit peut etre represente par une variable aleatoire de
Bernoulli de param`etre . Mais, en groupant par jour, on ne retient que les
sommes quotidiennes, ce qui est le nombre de defauts X
i
de chaque jour i =
1, . . . , n. Les X
i
sont alors independantes et identiquement distribuees selon
une loi binomiale de memes param`etres (N, ), N connu, (0, 1) inconnu.
On peut ecrire
P(X
i
= k) = C
k
N

k
(1 )
Nk
= (1 )
N
C
k
N
exp
_
log
_

1
_
k
_
et conclure quil sagit dun mod`ele exponentiel.
2. On identie la statistique canonique S(X) =

n
i=1
X
i
du mod`ele qui est tou-
jours exhaustive et totale. Elle suit une loi binomiale de param`etres (Nn, ).
3. Lestimateur = 1
X
1
k
est un estimateur sans biais de P

(X
i
k).
4. On utilise lamelioration de Rao-Blackwell. Dabord on a
P

(X
1
= k[S = s) =
P

(X
1
= k, S X
1
= s k)
P

(S = s)
=
C
k
N

k
(1 )
Nk
C
sk
N(n1)

sk
(1 )
N(n1)(sk)
C
s
Nn

s
(1 )
Nns
=
C
k
N
C
sk
NnN
C
s
Nn
On appelle cette loi la loi hypergeometrique de param`etres (Nn, s, N). On
peut linterpreter dans le cadre dun mod`ele durne de la mani`ere suivante :
Imaginons une urne qui contient m boules dont b blanches et mb noires. On
tire n fois sans remise. Soit Y le nombre de boules blanches tirees. Alors, Y est
une variable hypergeometrique de param`etres (m, b, n). A vrai dire, on ne fait
rien dautre dans notre exercice : supposons, que le nombre total de defauts est
xe `a b = s sur les m = Nn micro-chips produits, on demande la probabilite
que parmi N micro-chips choisis au hasard (sans remise) il y a k defauts.
Donc, on obtient

S
= E([S) =
k

j=0
P(X
1
= j[S) =
k

j=0
C
j
N
C
Sj
NnN
C
S
Nn
et, dapr`es le theoreme de Lehman-Shee,
S
est optimal.
Lorsque k varie,
S
(X, k) est la valeur en k de la fonction de repartition dune
loi hypergeometrique de param`etres (Nn, S, N).

231
XIII Corrections
Exercice VIII.7.
1. Soit x N

, P
q
(X = x) = (1 q)
x1
q. La loi de X est la loi geometrique de
param`etre q.
2. La vraisemblance est p(x; q) = (1 q)
x1
q. Il sagit dun mod`ele exponentiel
avec T(X) = X comme statistique canonique. La statistique T est exhaustive
et totale.
3. On a

q
log p(x; q) =
1
q

x 1
1 q
et

2

2
q
log p(x; q) =
1
q
2

(x 1)
(1 q)
2
. On en
deduit
I(q) =
1
q
2
+
1
(1 q)
2
(E
q
[X] 1) =
1
q
2
+
1
(1 q)q
=
1
q
2
(1 q)
.
4. La vraisemblance du n echantillon est
p
n
(x
1
, . . . , x
n
; q) = q
n
(1 q)
P
n
i=1
x
i
n
.
On regarde les zeros de la derivees en q de la log-vraisemblance L
n
= log p
n
,
et on verie que q
n
=
n

n
i=1
X
i
=
1

X
n
est lestimateur du maximum de vrai-
semblance de q.
5. On peut appliquer le T.C.L. Comme Var
q
(X) = (1 q)/q
2
, il vient

n(

X
n

1
q
)
Loi
^(0,
1 q
q
2
).
Comme la fonction h(u) =
1
u
est continue pour u > 0, on a la convergence en
loi suivante

n(
1

X
n
q)
Loi
^(0,
1 q
q
2
q
4
).
Le mod`ele etant regulier, on a ainsi directement les proprietes asymptotiques
de lEMV. Dans tous les cas, nous concluons

n( q
n
q)
Loi
^(0, q
2
(1 q)).
6. La determination de lintervalle de conance est realisee `a partir de lap-
proximation asymptotique valable pour des grands echantillons. Nous avons
q
n

1 q
n
qui converge presque s urement vers q

1 q dune part, et

n
q

1q
( q
n

q) qui converge en loi vers une gaussienne centree reduite ^(0, 1) dautre part.
Appliquant le theor`eme de Slutsky, on conclut

n
q
n

1 q
n
( q
n
q) converge en loi
vers G de loi ^(0, 1). Designant par u

le fractile tel que P([G[ u

) = 1,
un intervale de conance pour q de niveau 1 est :
232
XIII.8 Estimateurs
[ q
n
u

q
n

1 q
n

n
; q
n
+u

q
n

1 q
n

n
].
7. Les param`etres de la modelisation sont n = 40 et nous avons

n
i=1
x
i
= 1779.
Nous deduisons comme estimation q
n
0.02249 et comme intervalle de
conance de niveau 95%, (u

= 1, 96) lintervalle [0, 016; 0, 028]. Le nombre


de fraudeur estime est n
f
n
0
q
n
[320; 560].

Exercice VIII.8.
1. La loi de X
i
est la loi ^
_
m
i
+,
2
_
. La log-vraisemblance secrit :
L
n
(x
1
, ..., x
n
; ) =
n
2
log
_
2
2
_

1
2
2
n

i=1
(x
i
m
i
)
2
On obtient :

L
n
(x
1
, ..., x
n
; ) =
1

2
n

i=1
(x
i
m
i
) ,
et donc

L
n
(x
1
, ..., x
n
; ) = 0 =
1
n
n

i=1
(x
i
m
i
).
Letude du signe la derivee de la log-vraisemblance, montre que la log-vraisemblance
atteint son maximum en
1
n
n

i=1
(x
i
m
i
). Lestimateur du maximum de vrai-
semblance est donc

n
=
1
n
n

i=1
(X
i
m
i
).
La loi de
n
est la loi ^(,
2
/n). En particulier, cet estimateur est sans biais.
On verie sil est ecace. On a egalement

L
n
(x
1
, ..., x
n
; ) =
n

2
,
et, on en deduit que linformation de Fisher est
I
n
= E

[

2

L
n
(X
1
, ..., X
n
; )] =
n

2
.
Comme Var

(
n
) =

2
n
=
1
I
n
, lestimateur est ecace.
233
XIII Corrections
De plus les variables (X
i
m
i
) sont independantes et de meme loi gaussienne.
Par la loi forte des grands nombre, lestimateur est convergent. Comme la loi
de

n(
n
) est la loi ^(0,
2
), lestimateur du maximum de vraisemblance
est donc asymptotiquement normal (et asymptotiquement ecace).
2. La loi de X
i
est la loi ^(m
i
,
2
). En particulier, la loi de

n
est la loi
^(,

2
n
2
n

i=1
1
m
2
i
). Ainsi

n
est un estimateur sans biais de
n
. On verie sil
est ecace. La log-vraisemblance secrit :
L
n
(x
1
, ..., x
n
; ) =
n
2
log(2
2
)
1
2
2
n

i=1
(x
i
m
i
)
2
.
On a

L
n
(x
1
, ..., x
n
; ) =
1

2
n

i=1
m
2
i
,
et donc
I
n
= E

L
n
(X
1
, ..., X
n
; )
_
=
1

2
n

i=1
m
2
i
.
Dautre part on a
Var

n
) =

2
n
2
n

i=1
1
m
2
i
.
Par Cauchy-Schwarz, on a
1
n
2
n

i=1
1
m
2
i

n
i=1
m
2
i
, et linegalite est stricte d`es
quil existe m
i
,= m
j
. En particulier Var

n
) >
1
I
n
, sil existe m
i
,= m
j
, et
lestimateur nest alors pas ecace.
3. On a

L
n
(x
1
, ..., x
n
; ) =
1

2
n

i=1
m
i
(x
i
m
i
) .
En etudiant le signe de cette derivee, on en deduit que lestimateur du maxi-
mum de vraisemblance de est

n
=

n
i=1
m
i
X
i

n
i=1
m
2
i
.
La loi de

n
est la loi ^(,

2

n
i=1
m
2
i
). En particulier, cet estimateur est sans
biais et il est ecace. Il est preferable `a

n
.
234
XIII.8 Estimateurs
4. On obtient les estimations avec les intervalles de conance de niveau 95% :

n
88.6 6.1,

n
1.088 0.006 et

n
1.087 0.006.

Exercice VIII.9.
1. Notons x
1
, . . . , x
n
les n = 8 observations. La vraisemblance secrit
p
n
(x
1
, . . . , x
n
; a) =
1
a
n
_
n

i=1
x
i
_
exp
_

1
2a
n

i=1
x
2
i
_
.
Son maximum est atteint pour
a
n
=
1
2n
n

i=1
x
2
i
,
ce qui nous donne pour a la valeur estimee a = 2.42.
2. On verie que lestimateur a
n
est :
a) Sans biais.
b) Optimal, car fonction de la statistique exhaustive et totale S
n
=
1
2
n

i=1
X
2
i
(mod`ele exponentiel).
c) Ecace, car le mod`ele exponentiel sous sa forme naturelle donne = 1/a
et () = log(a) = log(1/). Et dans un mod`ele exponentiel, sous sa
forme naturelle, S
n
est un estimateur ecace de

() = a.
d) Asymptotiquement normal, par le theor`eme central limite.
3. La probabilite quune catastrophe se produise durant une annee donnee secrit
p =
_
+
6
x
a
exp
_

x
2
2 a
_
5.8 10
4
.
Par independance, la probabilite davoir strictement plus dune catastrophe en
mille ans vaut
1
_
(1 p)
1000
+ 1000p(1 p)
999
_
0.11,
ce qui nest pas negligeable ! Notons quen moyenne une catastrophe se produit
tous les 1/p 1710 ans.

Exercice VIII.10.
235
XIII Corrections
1. On utilise lindependance des variables X
i
:
Var
p
( p
n
) = Var
p
_
1
n
n

i=1
X
i
_
=
1
n
2
n

i=1
Var
p
(X
i
) =
p (1 p)
n
.
Comme p [0, 1], on a donc p (1 p)
1
4
. Le maximum est atteint pour p =
1
2
.
Finalement : Var
p
( p
n
)
1
4n
.
2. Modelisons le vote dun electeur par une loi de Bernoulli : la variable X
i
,
designant le vote de lindividu i, vaut 1 sil vote pour lancien maire et 0 sinon.
On utilise lapproximation gaussienne donnee par le TCL :

n( p
n
p)
Loi

n
^(0, p(1 p)).
Un intervalle de conance asymptotique de niveau 5% est donne par :
_
p
n
u

2
_
Var
p
( p
n
), p
n
+u

2
_
Var
p
( p
n
)
_
.
On a u

2
_
Var
p
( p
n
) u

2
_
1
4n
. On veut que u

2
_
1
4n
0.03. On obtient donc :
n
_
u

2
2 0.03
_
2
soit n 1068.
3. On teste : H
0
= p = q contre H
1
= p ,= q o` u p et q designent respective-
ment le nombre davis favorables pour le maire actuel lors du premier et du se-
cond sondage. Le test est equivalent `a H
0
= pq = 0 contre H
1
= pq ,= 0.
On peut utiliser le formalisme du test de Wald ou du test de Hausman. On
peut aussi faire le raisonnement suivant, qui permet dobtenir le meme resultat.
Il est naturel de considerer la statistique de test p
n
q
n
et la zone de rejet est
[ p
n
q
n
[ > c : on rejettera dautant plus facilement H
0
que p
n
sera eloigne
de q
n
.
On utilise lapproximation gaussienne donnee par le TCL : comme les variables
p
n
et q
n
sont independantes, on en deduit que

n( p
n
p, q
n
q)
Loi

n
^(0, ),
o` u la matrice de covariance est diagonale : =
_
p(1 p) 0
0 q(1 q)
_
. Sous
H
0
, on en deduit donc que

n( p
n
q
n
)
Loi

n
^(0, p(1 p) +q(1 q)).
236
XIII.8 Estimateurs
On utilise enn un estimateur convergent de la variance p
n
(1 p
n
)+ q
n
(1 q
n
),
pour deduire du theor`eme de Slutsky que

n( p
n
q
n
)
_
p
n
(1 p
n
) + q
n
(1 q
n
)
Loi

n
^(0, 1).
`
A la vue de ce resultat, il est plus naturel de considerer la statistique de test
T
n
=

n( p
n
q
n
)
_
p
n
(1 p
n
) + q
n
(1 q
n
)
.
Remarquons que sous H
1
, la statistique T
n
diverge vers +ou . On choisit
donc la region critique
W
n
= [T
n
[ > c .
On determine c le plus petit possible (region critique la plus grande possible)
pour que le test soit de niveau asymptotique . On obtient, avec lapproxima-
tion gaussienne
P
p,p
(W
n
) = P
p,p
([T
n
[ > c)
n
P([G[ > c),
o` u G est une variable aleatoire de loi ^(0, 1). Pour obtenir un test de niveau
asymptotique , on choisit donc c = u

2
, le quantile dordre
_
1

2
_
de la loi
normale centree reduite.
On rejette donc H
0
avec un risque de premi`ere esp`ece si : [T
n
[ > u

2
.
Application numerique. Avec = 0, 05 : c = 1, 96 et t
n
= 0.93. On ne peut
pas rejeter H
0
au niveau 5%, inrmant ainsi la position du journaliste. La
p-valeur de ce test est : P([G[ > t
n
) = 0.177.

Exercice VIII.11.
1. On a : = P(X
k
= 1) = P(Z
k
= 0) = e

, et P(X
k
= 0) = 1 e

. La
loi de X
k
est la loi de Bernoulli de param`etre . La loi de Y , comme somme
de Bernoulli independantes et de meme param`etre, suit une loi binomiale de
param`etre (n, ).
2. La vraisemblance secrit : p (x; ) = C
y
n

y
(1 )
ny
, avec y =

n
i=1
x
i
. La
log-vraisemblance est donnee par
L(x; ) = log p (y; ) = log C
y
n
+y log + (n y) log (1 ) .
On a

L(x; ) =
y


n y
1
. En resolvant :

L(y; ) = 0, on verie que


lestimateur du maximum de vraisemblance de est =
Y
n
. On en deduit
lestimateur du maximum de vraisemblance de :

= log ( ) = log (Y/n).


237
XIII Corrections
3. En utilisant lapproximation gaussienne, on a :
IC
1
() =
_
u
1

2
_
(1 )
n
, +u
1

2
_
(1 )
n
_
,
o` u u
1

2
designe le quantile dordre
_
1

2
_
de la loi normale centree reduite.
On deduit de lintervalle de conance de `a partir de celui de , en utilisant
la transformation logarithmique :
IC
1
() =
_
log
_
+u
1

2
_
(1 )
n
_
, log
_
u
1

2
_
(1 )
n
__
.
4. On trouve : = 0.6,
_
(1 )
n
0.155,

0.51, IC
95%
() = [0.3; 0.9] et
IC
95%
() = [0.11; 1.2] (non centre sur

).
5. Si la densite est tr`es forte alors est tr`es proche de 0, ce qui implique que
la probabilite davoir des tubes negatifs est tr`es proche de 0. On ne parviendra
pas `a estimer . Remarquons que lestimateur du maximum de vraisemblance
de nest pas deni pour = 0.
Si la densite est tr`es faible alors est tr`es proche de 1, ce qui implique que
la probabilite davoir des tubes negatifs est tr`es proche de 1. On ne parviendra
pas non plus `a estimer dans ce cas.
6. La loi de Y
i
est la loi binomiale B(n
i
,
i
) o` u
i
= e
d
i
. La vraisemblance
secrit :
p (y
1
, . . . , y
N
; ) =
N

i=1
C
y
i
n
i

y
i
i
(1
i
)
n
i
y
i
=
N

i=1
C
y
i
n
i
e
d
i
y
i
_
1 e
d
i
_
n
i
y
i
,
et la log-vraisemblance
L(y
1
, . . . , y
N
; ) = log p (y
1
, . . . , y
N
; )
=
N

i=1
log C
y
i
n
i
+
N

i=1
y
i
log
i
+
N

i=1
(n
i
y
i
) log (1
i
)
=
N

i=1
log C
y
i
n
i

N

i=1
y
i
d
i
+
N

i=1
(n
i
y
i
) log
_
1 e
d
i
_
.
La derivee de la log-vraisemblance scrit donc
L(y
1
, . . . , y
N
; )

=
N

i=1
y
i
d
i
+
N

i=1
(n
i
y
i
) d
i
e
d
i
(1 e
d
i
)
.
238
XIII.8 Estimateurs
Elle sannule pour tel que :
N

i=1
y
i
d
i
=
N

i=1
(n
i
y
i
) d
i
_
e
d
i
1 e
d
i
_
.
Le menbre de droite est une fonction strictement decroissante de prenant les
valeurs limite +en 0 et 0 en +. En particulier, lequation ci-dessus poss`ede
une seule racine. La resolution de cette equation nest pas toujours possible
formellement. Lestimateur obtenu sappelle MPN : most probable number.
7. On a :
I () = E
_

2

2
L(Y
1
, . . . , Y
N
; )
_
=
N

i=1
n
i
d
2
i
e
d
i
1 e
d
i
.
Comme on a un mod`ele regulier, la variance asymptotique de lestimateur du
maximum de vraisemblance est donc
V () =
1
I ()
=
_
N

i=1
n
i
d
2
i
e
d
i
1 e
d
i
_
1
8. Dans ce cas :

L(y
1
, y
2
; ) = y
1
+ (n y
1
)
e

1 e


y
2
2
+
n y
2
2
e

2
1 e

2
.
Apr`es avoir resolu une equation du second degre, on trouve

= 2 log
_
_
(n Y
2
) +
_
(n Y
2
)
2
+ 12n(2Y
1
+Y
2
)
6n
_
_
.
Lintervalle de conance asymptotique de niveau 1 de est donc
IC
1
() =
_

u
1

2
_
V
_

_
_
.
Numeriquement, on trouve : 0.569,

1, 23 et IC
95%
() [0.44, 1.81].

239
XIII Corrections
XIII.9 Tests
Exercice IX.1.
1. Soit

> . Le rapport de vraisemblance est :


p
n
(x
1
, . . . , x
n
,

)
p
n
(x
1
, . . . , x
n
, )
=
_

_
n
exp
_

_
1

_
n

i=1
x
i
_
.
Donc, il existe un test U.P.P. de niveau donne par la region critique :
W

=
_
(x
1
, . . . , x
n
) [
n

i=1
x
i
> k

_
,
o` u k

est tel que = P

0
(W). La statistique de test

n
i=1
X
i
suit la loi Gamma
de param`etres n et
1

0
, sous lhypoth`ese nulle. Donc,
2

n
i=1
X
i
suit la loi
Gamma de param`etres n et
1
2
, i.e. la loi du
2
`a 2n degres de liberte (toujours
sous lhypoth`ese nulle). Donc, on peut determiner k

:
= P

0
(W) = = P

0
_
n

i=1
X
i
> k

_
= P

0
_
2

0
n

i=1
X
i
>
2

0
k

_
.
Donc,
2

0
k

= z

(2n). On obtient donc la region critique :


W

=
_
(x
1
, . . . , x
n
) [
n

i=1
x
i
>

0
2
z

(2n)
_
,
o` u z

(2n) est le quantile dordre 1 de la loi du


2
`a 2n degres de liberte.
2. La region critique du test U.P.P. de niveau est donne par :
W

=
_
(x
1
, . . . , x
n
) [
n

i=1
x
i
< k
1
et
n

i=1
x
i
> k
2
_
,
avec k
1
et k
2
tels que = P

0
(W) :
1 = P

0
_
k
1
<
n

i=1
X
i
< k
2
_
= P

0
_
2

0
k
1
<
2

0
n

i=1
X
i
<
2

0
k
2
_
.
Or, sous H
0
,
2

n
i=1
X
i
suit la loi du
2
`a 2n degres de liberte. On choisit
donc
2

0
k
1
= z

1
(2n) et
2

0
k
2
= z
1
2
(2n) avec
1
+
2
= . Un choix classique
240
XIII.9 Tests
consiste `a prendre
1
=
2
= /2 (on accorde alors autant dimportance de
se tromper dun cote que de lautre). Cela correspond en fait au test bilat`ere
UPPS dans un mod`ele exponentiel. Ce test est toutefois degenere car lintervalle
[
0
,
0
] est reduit `a un singleton.

Exercice IX.2.
1. Dapr`es les donnees de lenonce, p
0
= 1/310 000 3.23 10
6
.
2. En supposant les X
i
independants, la variable aleatoire N suit une loi binomiale
de param`etres n = 300 533 1 et p de lordre de p
0
= 3.23 10
6
1. On peut
donc approcher cette loi par une loi de Poisson de param`etre = np. Dans le
cas des etudes anterieures, on a
0
= 300 533 p
0
0.969.
3. On construit un test de la forme (N) = 1
NN
. Sous lhypoth`ese H
0
, N
suit une loi de Poisson de param`etre
0
. On a alors :
= E[(N)] = P(N N

) = 1

k<N

k
k!
e

.
On obtient pour N

= 3, 7.47% et pour N

= 4, 1.71%. Comme on a
observe N = 4 cas de dommages, on rejette lhypoth`ese H
0
au seuil de 5%. La
p-valeur de ce test est de 1.71%.

Exercice IX.3.
1. Cet exemple rentre dans le cadre du Lemme de Neyman-Pearson. On denit
la region critique du test :
A

= (x, y) R
2
;
p
2
(x, y)
p
1
(x, y)
> k

.
On a aussi
A

= (x, y) R
2
([2; 2] [2; 2]); x
2
+y
2
K

.
Sous lhypoth`ese H
0
, X
2
+ Y
2
suit une loi du
2
(2). On a 5% = P
1
(
2
(2)
5.99). Soit tel que K

= 5.99. On en deduit donc que P


1
(A

) = 5%.
Cest le test le plus puissant parmi les tests de meme niveau.
2. Une statistique de test est X
2
+ Y
2
. La region critique est lintersection de
lexterieur du cercle de rayon

5.99 avec le carre [2; 2] [2; 2].

241
XIII Corrections
Exercice IX.4.
1. Le vecteur des param`etres est = (
1
,
2
,
1
,
2
)

. On veut tester H
0
=
1
=

2
contre H
1
=
1
,=
2
. On applique le test de Wald avec la fonction
g(
1
,
2
,
1
,
2
) =
1

2
. Lestimateur du maximum de vraisemblance de
est

n
= (
1
,
2
,
1
,
2
)

avec

1
=
1
n
n

i=1
X
i
,
2
=
1
n
n

i=1
Y
i
,
2
1
=
1
n
n

i=1
(X
i

1
)
2
,
2
2
=
1
n
n

i=1
(Y
i

2
)
2
.
(Remarquons que, pour i 1, 2,
2
i
=
n
n 1

2
i
est un estimateur sans biais
de
2
i
.) La log-vraisemblance associee `a une observation est
log p(x, y; ) = log(2)
1
2
log(
2
1

2
2
)
(x
1
)
2
2
2
1

(y
2
)
2
2
2
2
.
On en deduit la matrice dinformation de Fisher :
I() =
_
_
_
_
1/
2
1
0 0 0
0 1/
2
2
0 0
0 0 2/
2
1
0
0 0 0 2/
2
2
_
_
_
_
.
La variance asymptotique de lestimateur g(

n
) de
1

2
est
() =
g

()I
1
()
g

() =
2
1
+
2
2
.
La statistique du test de Wald est donc :

n
=
n(
1

2
)
2

2
1
+
2
2
.
Sous H
0
,
n
converge en loi vers un
2
`a 1 degre de liberte. Sous H
1
,
n
converge
p.s. vers +. On en deduit quune region critique de niveau asymptotique 5%
est donnee par
n
> z, o` u z est le quantile dordre 95% de la loi
2
(1) soit
z 3.84. Le test est convergent. La p-valeur asymptotique (non-uniforme) du
test est donnee par P(V
obs
n
), o` u V suit la loi
2
(1) et
obs
n
est la valeur de
la statistique de test evaluee sur les donnees.
2. On note
2
la valeur commune de
2
1
et
2
2
. Pour determiner une region critique
de niveau exact, il faut determiner la loi de
n
sous H
0
. Remarquons que
n
2
1
/
2
et n
2
2
/
2
sont independants et de meme loi
2
(n 1). On en deduit,
en utilisant les fonctions caracteristiques que Z
2n2
= n(
2
1
+
2
2
)/
2
suit la
242
XIII.9 Tests
loi
2
(2n 2). On remarque aussi que, sous H
0
, n(
1

2
) =

n
i=1
(X
i
Y
i
)
a pour loi ^(0, 2n
2
). Il en decoule que Z

1
=
n(
1

2
)
2
2
2
a pour loi
2
(1).
Ainsi, on obtient que
n
= 2n
Z

1
Z
2n2
.
De lindependance de
1
avec
2
1
et de
2
avec
2
2
, il resulte que Z

1
et Z
2n2
sont independants. Ainsi la loi de
n 1
n

n
=
Z

1
Z
2n2
/(2n 2)
est la loi de
Fisher-Snedecor de param`etre (1, 2n 2). La region critique de niveau exact
5% est donnee par
n
>
n
n 1
z

, o` u z

est le quantile dordre 95% de la loi


de Fisher-Snedecor de param`etre (1, 2n2). Pour n = 15, on obtient z

4.20
et
n
n 1
z

4.50 (`a comparer avec z 3.84 dans la question precedente).


Remarquons que (
2
1
+
2
2
)/2 est bien lestimateur du maximum de vraisem-
blance de
2
dans le mod`ele o` u
2
1
=
2
2
=
2
.

Exercice IX.5.
1. La vraisemblance du mod`ele est pour x = (x
1
, . . . , x
n
) R
n
,
p
n
(x; ) =
n

i=1
e
(x
i
)
2
/2

2
,
et la log-vraisemblance est donnee par
L
n
(x; ) =
n
2
log(2)
n
2
log()
n

i=1
(x
i
)
2
2
.
On obtient

L
n
(x; ) =
n
2
+
n

i=1
(x
i
)
2
2
2
+
n

i=1
(x
i
)

=
n
2
2
(
2
+
1
n
n

i=1
x
2
i
).
Les conditions

L
n
(x; ) = 0 et > 0 impliquent

=
1
2
+

_
1
4
+
1
n
n

i=1
x
2
i
.
Comme on a lim
0
L
n
(x; ) = lim

L
n
(x; ) = , la log-vraisemblance
est maximale en

. Lestimateur du maximum de vraisemblance est donc


243
XIII Corrections

n
=
1
2
+

_
1
4
+
1
n
n

i=1
X
2
i
.
Les variables (X
2
n
, n 1) sont independantes et integrables, la fonction f :
x
1
2
+
_
1
4
+x est continue sur R
+
, on en deduit que la suite destimateur
(

n
, n 1) converge p.s. vers f(E

[X
2
1
]) = f( +
2
) = . La suite destimateur
est donc convergente. Les variables (X
2
n
, n 1) sont independantes et de carre
integrable, et la fonction f est de classe C
1
sur R
+
. On deduit donc du theor`eme
central limite, que la suite destimateur (

n
, n 1) est asymptotiquement
normale de variance asymptotique

2
= f

(E

[X
2
1
])
2
Var

(X
2
1
) =
2
2
1 + 2
.
De plus, on a
I() = E

L
1
(X
1
; )] =
1
2
2
+
1

3
E

[X
2
1
] =
1 + 2
2
2
.
Comme
2
= 1/I(), la suite destimateurs (

n
, n 1) est asymptotiquement
ecace.
2. On consid`ere la statistique de test

n
=

n(

n

0
)

1 + 2
0

2
.
On deduit de la question precedente que sous H
0
, la statistique de test converge
en loi vers une gaussienne ^(0, 1). Sous H
1
, la suite (

n
, n 1) converge p.s.
vers >
0
En particulier (

n
, n 1) converge p.s. vers +. On en deduit que
les regions critiques
W

n
=

n
> c
denissent un test asymptotique convergent de niveau = P(^(0, 1) > c).
Comme

n
i=1
x
2
i
=

n
i=1
(x
i
x
n
)
2
+ n x
2
n
, on obtient

n
= 4.17,

n
= 2.00 et
une p-valeur de 2.3%. On rejette donc H
0
au niveau de 5%.
3. Par la loi forte des grands nombres, la suite (

X
n
, n 1) converge presque
s urement vers E

[X
1
] = . Comme les variables aleatoires X
k
sont indepen-
dantes, de meme loi et de carre integrable, on deduit de la loi forte des grands
nombres que la suite (
1
n

n
k=1
X
2
k
, n 2) converge presque s urement vers
E

[X
2
1
]. Comme
V
n
=
n
n 1
1
n
n

k=1
X
2
k

n
n 1

X
2
n
,
244
XIII.9 Tests
on en deduit donc que la suite (V
n
, n 2) converge presque s urement vers
E

[X
2
1
] E

[X
1
]
2
= Var

(X
1
) = . On a
E

[T

n
] = E

[

X
n
] + (1 )E

[V
n
] = ,
Var

[T

n
] =
2
Var

[

X
n
] + (1 )
2
Var

[V
n
] + 2 Cov

(

X
n
, V
n
) =
2

n
+ (1 )
2
2
2
(n 1)
,
car

X
n
et V
n
sont independantes et car
n 1

V
n
suit la loi
2
(n1) de moyenne
n1 et de variance 2(n1). La suite destimateurs est sans biais. Par continuite
de lapplication (x, v) x + (1 )v, on en deduit que la suite (T

n
, n 2)
converge presque s urement vers E

[X
1
] + (1 ) Var

(X
1
) = . La suite
destimateurs est donc convergente.
4. Les variables aleatoires ((X
k
, X
2
k
), k 1) sont de meme loi, independantes, et
de carre integrable. De plus E

[X
k
] = et E

[X
2
k
] = Var

(X
k
) + E

[X
k
]
2
=
+
2
. On deduit du theor`eme central limite, que la suite (Z
n
, n 1) converge
en loi vers un vecteur gaussien centre de matrice de covariance . La matrice
est la matrice de covariance de (X
k
, X
2
k
). On a
Var

(X
k
) = ,
Cov

(X
k
, X
2
k
) = E[X
3
k
] E

[X
k
]E

[X
2
k
] =
3
+ 3
2
( +
2
) = 2
2
,
Var

(X
2
k
) = E[X
4
k
] E

[X
2
k
]
2
=
4
+ 6
3
+ 3
2
( +
2
)
2
= 4
3
+ 2
2
.
5. La suite
_
n(

X
n
), n 1
_
converge en loi vers une loi gaussienne ^(0, ).
(En fait la suite est constante en loi, egale en loi `a ^(0, ).)
Remarquons que
n1
n
V
n
est limage de Z
n
par la fonction h, de classe C
1
:
h(x, y) = y x
2
. En particulier, la suite (

n(
n 1
n
V
n
), n 2) converge en
loi vers la loi gaussienne centree de variance
(
h
x
,
h
y
)(, +
2
) (
h
x
,
h
y
)
t
(, +
2
) = 2
2
.
Enn remarquons que

nV
n

n
n 1
n
V
n
=
V
n

n
. En particulier, la suite
(

nV
n

n
n 1
n
V
n
, n 2) converge p.s. vers 0. On deduit du theor`eme
de Slutsky et de la continuite de laddition que la suite (

n(V
n
), n 2)
converge en loi vers la loi gaussienne centree de variance 2
2
. On pose Y
n
=

n(

X
n
) et W
n
=

n(V
n
). En utilisant lindependance entre Y
n
et W
n
,
on obtient
lim
n

(Yn,Wn)
(y, w) = lim
n

Yn
(y)
Wn
(w) = e
y
2
/2
e
2
2
w
2
/2
245
XIII Corrections
pour tout y, w R. On reconnat la fonction caracteristique du couple (Y, W),
o` u Y et W sont independants de loi respective ^(0, ) et ^(0, 2
2
). On en
deduit que la suite (

n(

X
n
, V
n
), n 2) converge en loi vers le vecteur
gaussien (Y, W). Par continuite de lapplication (a, b) a + (1 )b, on en
deduit que la suite (

n(T

n
) =

n(

X
n
) + (1 )

n(V
n
), n 2)
converge en loi vers Y +(1)W. Autrement dit, la suite (

n(T

n
), n 2)
converge en loi vers une loi gaussienne ^(0,
2
+ 2(1 )
2

2
). Ainsi la suite
destimateur est asymptotiquement normale de variance asymptotique
2

2
+ 2(1 )
2

2
.
6. On deduit de la question precedente, que sous H
0
, la statistique de test converge
en loi vers une gaussienne ^(0, 1). Sous H
1
, la suite (T

n
, n 2) converge p.s.
vers >
0
. En particulier (

n
, n 2) converge p.s. vers +. On deduit du
theor`eme de convergence dominee que les regions critiques
W
n
=

n
> c
denissent un test asymptotique convergent. Ces tests sont de niveau asymp-
totique = P(^(0, 1) > c). On obtient

n
= 0.73 et une p-valeur de 0.23. On
accepte H
0
au niveau de 5%.
7. On trouve

= 2
0
/(1+2
0
) et
2

=
2
2
0
1 + 2
0
. Lapplication numerique donne

n
= 1.86 et une p-valeur de 3.2%. On rejette H
0
au niveau de 5%.
Les suites destimateurs (

n
, n 1) et (T

n
, n 2) ont meme variance asymp-
totique. Remarquons que

n
=
1
2
+
_
1
4
+
n 1
n
V
n
+

X
2
n
=
1
2
+
_
( +
1
2
)
2
+ (
n 1
n
V
n
) + (

X
2
n

2
).
En eectuant un developpement limite, car p.s. lim
n
z
n
= 0, avec z
n
=
(
n1
n
V
n
) + (

X
2
n

2
), on obtient

n
= +
z
n
1 + 2
+g(z
2
n
),
o` u [g(z)[ z
2
/4(1 + 2). On en deduit que sous H
0
,

n
T

n
=
1
1 + 2
0
1
n 1
V
n
+ (

X
n

0
)
2
+g(z
n
).
En particulier, pour tout ]0, 1/2[, on a lim
n
n
1
(

n
T

n
) = 0 en proba-
bilite. Ainsi les deux statistiques de test

n
et

n
denissent asymtotiquement
les memes regions critiques.
246
XIII.9 Tests
On peut aussi remarquer que le mod`ele considere est un mod`ele exponentiel de
statistique canonique

n
k=1
X
2
k
. De plus la fonction en facteur de la statistisque de
test dans la vraisemblance, Q() = 1/, est monotone. En particulier, le test (pur)
UPP pour tester H
0
contre H
1
est de region critique

n
k=1
X
2
k
> c, cest exac-
tement le test construit `a partir de lestimateur du maximum de vraisemblance.
Ainsi le test construit `a laide de lestimateur du maximum de vraisemblance a de
bonnes proprietes asymptotique, mais il est meme UPP `a horizon ni.

Exercice IX.6.
1.
0
est xe. Ici
1
>
0
. Les hypoth`eses du lemme de Neymann-Pearson sont
veries. On pose
f(x, ) =
1
_
(2)
n
e

P
n
i=1

(x
i
)
2
2
2
.
Il vient
f(x,
1
)
f(x,
0
)
= e

P
n
i=1

((x
i

1
)
2
(x
i

0
)
2
)
2
2
= e
M
1
2
M
2
,
avec M =

n(
1

0
)

et (X) =

n(

X
0
)

. On notera la variable aleatoire `a


valeur dans R. On consid`ere la region critique du test A

= x R
n
,
f(x,
1
)
f(x,
0
)

c

(
1
). A

est aussi lensemble A

= x R
n
, (x)

(
1
). Ce test associe
`a la region critique A

est le test de niveau le plus puissant pour tester


lhypoth`ese =
0
contre =
1
. Reste `a determiner

. Sous
0
, est
une variable aleatoire de loi gaussienne ^(0, 1) Il sagit donc de choisir

(
1
)
tel que :
_
+
(
1
)
1

2
e

u
2
2
du = . On en deduit que

(
1
) =

est independant
de
1
. La region critique denie est independante de
1
>
0
. Ce test est donc
aussi un test de niveau uniformement plus puissant pour tester =
0

contre >
0
.
2. Si =
0
, suit une loi gaussienne ^(0, 1). Si =
1
,

n(
1

0
)

suit une loi


gaussienne ^(0, 1). On souhaite denir n tel que P

0
(A

) = et P

1
(

A

) = ,
cest `a dire
_
+

2
e

u
2
2
du = et
_

n(
1

0
)

2
e

u
2
2
du =
_

2
e

u
2
2
du.
Cette procedure nous permet ainsi de choisir n tel que

n(
1

0
)

.
On choisit donc n
2
(

)
2
/(
1

0
)
2
.
3. Les regions critiques denies pour le test de niveau uniformement plus puis-
sant de =
0
contre >
0
et le test de niveau uniformement plus puissant
de =
0
contre <
0
sont distinctes.
247
XIII Corrections
4. a) Lensemble A peut aussi secrire :
A = x R
n
/e
M(x)
1
2
M
2
c +c

(x).
Pour tout R, sous P

, admet comme distribution la loi ^(

n(
0
)

, 1).
Soit

2
tle que P

0
([[

2
) = 2
_

2
1
2
e

u
2
2
du = , on determine unique-
ment les valuers de c

2
(
1
), c

2
(
1
), telles que A = x R
n
/[(x)[

(ensemble independant de
1
). Et ceci pour tout
1
,=
0
. On a
P(X A]
[
0
=

_
1
[u[
2
1

2
e

(u

n(
0
)

)
2
2
du
[
0
= 0.
b) Soit o une autre region critique de niveau , denissant un test sans biais,
, P

(o) , et P

0
(o) = . Nos hypoth`eses (fonctions reguli`eres et
derivation sous le signe somme) nous permettent darmer :
P

(S)
[
0
= 0.
On a donc
P

(A o A)
[
0
=
P

(o o A)
[
0
et P

0
(AoA) = P

0
(ooA).
Soit A A. Alors pour tout x A, on
f(x,
1
) cf(x,
0
) +c

f(x, )
[
0
.
En integrant sur A, et en permutant lintegrale en x et la derivation en ,
il vient
_
A
f(x,
1
) dx c
_
A
f(x,
0
) dx +c

_
A
f(x, ) dx
[
0
.
Si A A

, alors on obtient
c
_
A
f(x,
0
) dx +c

_
A
f(x, ) dx
[
0

_
A
f(x,
1
) dx.
En utilisant ces deux inegalites et les deux egalites precedentes, il vient
P

1
(A o A) cP

0
(A o A) +c

(A o A)
[
0
cP

0
(o o A) +c

(o o A)
[
0
P

1
(o o A).
248
XIII.9 Tests
Finalement, on en deduit
P

1
(A) P

1
(o).
Le test pur de region critique A est plus puissant que nimporte quel autre
test pur sans biais.

Exercice IX.7.
1. La fonction de vraisemblance est :
p(l
1
;

L) =
1

2
2
e

(l
1

L)
2
2
2
=
1

2
2
e

l
2
1
+

L
2
2
2
e

2
l
1
.
Il sagit donc bien dun mod`ele exponentiel de statistique canonique S =

n
i=1
L
i
. Lestimateur du maximum de vraisemblance de

L est :

L
n
=
1
n
n

i=1
L
i
.
2. On peut donc denir un test UPPS au seuil pour tester H
0
contre H
1
, `a
laide de la statistique de test S/n : pour l = (l
1
, . . . , l
n
),
(l) = 0 si S(l)/n [c
1
, c
2
]
(l) =
i
si S(l)/n = c
i
(l) = 1 si S(l)/n / [c
1
, c
2
]
les constantes
i
et c
i
etant determinees par les conditions E
L
0
L
[(L
1
, . . . , L
n
)] =
= E
L
0
+L
[(L
1
, . . . , L
n
)]. Ici, S est la somme de variables aleatoires gaus-
siennes independantes, donc cest une variable aleatoire gaussienne donc conti-
nue : on peut prendre les
i
nuls. Le test UPPS est donc un test pur de region
critique :
W = l; S(l)/n / [c
1
, c
2
].
On determine c
1
et c
2
par les relations :
P
(

L
0
L)
(W) = 1
_

n(c
2
(

L
0
L))/
0

n(c
1
(

L
0
L))/
0
e
y
2
/2
dy

2
=
et
P
(

L
0
+L)
(W) = 1
_

n(c
2
(

L
0
+L))/
0

n(c
1
(

L
0
+L))/
0
e
y
2
/2
dy

2
= .
249
XIII Corrections
On cherche c
1
sous la forme c
1
=

L
0

n
et c
2
sous la forme c
2
=

L
0
+

2

n
.
On a donc `a resoudre :
_
L

n/
0
+
2
L

n/
0

1
e
y
2
/2
dy

2
= 1 et
_
L

n/
0
+
2
L

n/
0

1
e
y
2
/2
dy

2
= 1 .
Comme L ,= 0, on deduit du changement de variable u = y dans la premi`ere
integrale que
1
=
2
= et que :
_
L

n/
0
+
L

n/
0

e
y
2
/2
dy

2
= 1 .
3. Lapplication numerique donne :
_
10.61+
10.61
e
y
2
/2
dy

2
= 0.95.
On en deduit que > 10.61 car
_
0

e
y
2
/2
dy

2
= 0.5 < 0.95, donc la borne
inferieure de lintegrale est < 21, ce qui revient numeriquement `a la prendre
innie. On cherche donc tel que :
_
10.61+

e
y
2
/2
dy

2
= 0.95
ce qui donne 10.61 + = 1.64, cest-` a dire = 12.25. On a donc c
1
= 783.3
et c
2
= 786.7. Comme

L
n
= 788.3 / [c
1
, c
2
], on rejette lhypoth`ese H
0
. La
machine necessite donc detre revisee. La p-valeur associee `a ce test est de
lordre de 10
37
.
4. On sait que lestimateur

L de

L est sans biais et ecace, et que sa loi est une
loi gaussienne ^
_
0,
2
0
/n
_
. On a donc L
_

n(

L)

0
_
= ^ (0, 1), ce qui donne :
P(

n(

L

L)/
0
[a, a]) =
_
a
a
e

y
2
2
dy

2
= 1 .
On a a = 1.96 pour 1 = 95%. Lintervalle de conance de

L est donc
[

L
1.96
0

n
] = [788.0, 788.6]. Comme [

L
0
L,

L
0
+L] [788.0, 788.6] = , on
conrme le fait que la machine doit etre revisee.

Exercice IX.8.
1. On suppose que les variables sont independantes et de meme loi.
250
XIII.9 Tests
2. On consid`ere lestimateur de la moyenne empirique =
1
n
n

i=1
X
i
. Comme les
(X
i
, i 1 . . . , 64) sont des variables aleatoires independantes de meme loi
gaussiennes, suit une loi normale de moyenne , et de variance

2
n
.
3. On teste lhypoth`ese nulle H
0
:
0
(le nouveau mod`ele nest pas plus
performant que lancien) contre H
1
: >
0
. Dans ce cas lerreur de premi`ere
esp`ece est dadopter le nouveau mod`ele alors quil nest pas plus performant
que lancien. Il sagit dun test unilateral UPP dans un mod`ele exponentiel.
On choisit alors une region critique de la forme W = > k, o` u k est
tel que lerreur de premi`ere esp`ece est de 5%. On a donc sup
H
0
E

(1
W
) =
sup

0
P

(W) = 5%. Or, comme est une variable normale, il vient


P

(W) = P

( > k) = P

n
_

_
>

n
k

_
.
Comme

n
_

_
suit une loi ^(0, 1), on a
P

(W) = 1 N
_

n
_
k

__
,
o` u N est la fonction de repartition de la loi normale. On remarque egalement
quil sagit dune fonction croissante de donc sup

0
P

(W) = P

0
(W). Pour
un seuil de 5%, k est donc determine par lequation :
1 N
_

n
_
k
0

__
= 0.05

n
_
k
0

_
= u
95%
k =
u
95%

n
+
0
.
Pour lapplication numerique, on sait que u
95%
= N
1
(95%) = 1.64. On a
donc k = 123.9 > = 123.5. On accepte donc lhypoth`ese H
0
, au vu des
observations le nouveau mod`ele nest pas plus performant que lancien. La p-
valeur de ce test est p = 0.07. Ceci conrme que lon rejette H
0
au niveau de
5%, mais cela montre egalement que le choix de 5% est presque critique.
4. On demande egalement devaluer lerreur de deuxi`eme esp`ece pour = 1.05
0
,
cest `a dire la probabilite de rejeter le nouveau mod`ele sachant quil est plus
performant (i.e. lannonce du representant est exacte). Il sagit donc de
1 P
=1.05
0
( > k) = N
_

n
_
k 1.05
0

__
.
Utilisant la valeur de k trouvee precedemment, on a P
=1.05
0
( < k) =
N(0, 86) = 0, 195 20%. Il sagit du risque du vendeur, i.e. le risque que
sa machine ne soit pas achetee alors quelle est 5% meilleure que lancienne.
251
XIII Corrections
5. Lhypoth`ese `a tester est H

0
: = 1.05
0
contre H
1
:
0
. Dans ce cas
la region critique est de la forme W = < k. On cherche k tel que lerreur
de premi`ere esp`ece soit 0.05 ce qui donne P
1.05
0
(W) = 0.05. En raisonnant
comme precedemment (on rappelle que

n
1.05
0

est une gaussienne centree


reduite sous H

0
), on aboutit `a
k = 1.05
0

N
1
(0.05)

n
122.02.
On rejette H

0
si < 122.02. Au vue des donnees, on accepte lhypoth`ese
= 1.05
0
: le nouveau mod`ele est donc plus performant que lancien. La
p-valeur de ce test est p = 0.19. Elle conrme quil nest pas raisonnable de
rejeter H
0
.
Le risque de deuxi`eme esp`ece est alors sup

0
P

( > k) = P

0
( > k). En
utilisant la valeur k = 122.02, on obtient P

0
( > k) = 1 N
_

n
_
k
0

__

20%. Lacheteur a alors au plus 20% de chance daccepter lannonce du repre-


sentant alors que celle-ci est fausse.
6. Dans la question 3, le risque de lacheteur est P

0
( > k) et dans la question
4, celui du vendeur est P
1.05
0
( < k). On peut donc chercher k tel que ces
deux risques soient egaux. Or on sait que P

0
( > k) = 1 N
_

n
k
0

_
et P
1.05
0
( < k) = N
_

n
k1.05
0

_
. Legalite des deux probabilites donne
k
0
= 1.05
0
k et donc k = 123. Dans ce cas le risque vaut N((123126)

64/19.4) = 11%.

Exercice IX.9.
7. On dispose donc dun deuxi`eme echantillon Y
1
, ..., Y
m
de moyenne et on
desire tester H
0
: = contre ,= . Lechantillon global est donc
(X
1
, ..., X
n
, Y
1
, ..., Y
m
) et la densite du mod`ele est
p(x, y; , ) =
1
(2)
n+m
exp
_

1
2
2
n

i=1
(x )
2

1
2
2
m

i=1
(y )
2
_
.
Pour = (, ), on denit
0
= : = et
1
= R
2

0
.
Lestimateur de vraisemblance dans le cas = est

=
1
m+n
(

n
i=1
X
i
+

m
i=1
Y
i
)
et les estimateurs dans le cas general sont =
1
n

n
i=1
X
i
et =
1
n

m
i=1
Y
i
.
On remarque que (m +n)

= n +m .
8. Pour construire la region critique on proc`ede par la methode du rapport de
vraisemblance : on recherche une region critique de la forme
252
XIII.9 Tests
W = (x, y)[ p
n
(x, y, , ) > kp
n
(x, y,

,

).
En calculant le quotient des deux densites on obtient
W = (x, y)[
n

i=1
(x
i
)
2

i=1
(x
i


)
2
+
m

i=1
(y
i
)
2

i=1
(y
i


)
2
< k

.
En utilisant les identites
n

i=1
(x
i


)
2
=
n

i=1
(x
i
)
2
+n(

)
2
m

i=1
(y
i


)
2
=
m

i=1
(y
i
)
2
+m(

)
2
et le fait que (m + n)(

) = m( ) et (m + n)(

) = m( ) on
obtient que la region critique est de la forme
W =
_
(x, y)[
_
mn
m+n
[ [ > c
_
.
Or sous lhypoth`ese H
0
, suit une loi normale de moyenne nulle et de
variance
m+n
mn

2
, donc pour un risque de 0.05, on obtient que P
H
0
(W) = 0.05
implique c = 1 N
1
(0.025) = 1.96. Avec les valeurs donnees dans lenonce,
on trouve que
1

_
mn
m+n
[ [ = 0.36 et donc on accepte lhypoth`ese nulle :
les deux machines sont equivalentes. La p-valeur de ce test est p = 0.70, ceci
conrme que lon en peut pas rejeter H
0
.

Exercice IX.10.
Les statistiques

(1)
n
= n
j=9

j=0
( p
j
p
j
)
2
p
j
et
(2)
n
= n
j=9

j=0
( p
j
p
j
)
2
p
j
,
o` u ( p
j
, j 0, . . . , 9) sont les frequences empiriques observees et p
j
= 1/10 sont
les frequences theoriques, convergent en loi vers un
2
`a 10 1 = 9 degres de
liberte. Les tests denis par les regions critiques :
W
i
=
(i)
n
z

(9), i 1, 2
sont convergents de niveau asymptotique , avec z

(9) deni par :


253
XIII Corrections
P(
2
(9) z

(9)) = .
Lapplication numerique donne
(1)
n
= 11.1 et
(2)
n
= 10.4. Au seuil = 5%, on lit
dans la table des quantiles de la loi du
2
: z

(9) = 16.92. Comme z

(9) >
(i)
n
pour i 1, 2, on accepte lhypoth`ese de distribution uniforme pour chacun des
tests. Les p-valeurs de ces deux tests sont p
(1)
= 0.27 et p
(2)
= 0.32. Ces valeurs
conrme quil nest pas raisonnable de rejeter H
0
.

Exercice IX.11.
1. Puisque lon est sous H
0
, la loi des reponses des deux juges est la meme.
Notons la probabilite de repondre par larmative (notee p
+
= p
(1)
+
= p
(2)
+
),
alors p

= p
(1)

= p
(2)

= 1 . Notons p
+
= et remarquons ensuite que
p
+
= p
(1)
+
= p
++
+ p
+
. Ainsi p
++
= . De meme p

= 1 , puis
nalement p
+
= p
+
p
++
= = .
2. La vraisemblance de lechantillon x = (x
1
, . . . , x
n
) o` u x
i
, +
2
est donnee
par
p
n
(x; , ) = ()
P
n
i=1
1
{x
i
=(+,+)}

P
n
i=1
1
{x
i
=(,+)}
+1
{x
i
=(+,)}
(1)
P
n
i=1
1
{x
i
=(,)}
.
On remarque que N
++
=

n
i=1
1
x
i
=(+,+)
et N

n
i=1
1
x
i
=(,)
. De
plus le couple (N
++
, N

) est la statistisque canonique du mod`ele. On peut


alors ecrire la log-vraisemblance L
n
(x; , ) de la mani`ere suivante :
L
n
(x, , ) = N
++
log( ) + (n N

N
++
) log +N
++
log(1 ).
On cherche `a annuler les deux derivees partielles
_

_
N
++

+
n N

N
++

1
= 0,
N
++


N

1
= 0.
Ce syst`eme est equivalent `a
_

_
n N

N
++


2N

1
= 0,

2N
++

+
n N

N
++

= 0.
Ce syst`eme se resoud alors facilement et on trouve
_

_
=
n N

N
++
2n
,
=
n +N
++
N

2n
.
254
XIII.9 Tests
3. Lhypoth`ese H
0
est equivalente `a lhypoth`ese : p
+
= p
+
. On vient de
voir que sous H
0
, lestimateur du maximum de vraisemblance de p
+
est
n N

N
++
2n
que lon peut reecrire
N
+
+N
+
2n
. On peut alors calculer
la statistique de test
n
du
2
.

n
= n
_
_
_
_
N
+
n

N
+
+N
+
2n
_
2
N
+
+N
+
2n
+
_
N
+
n

N
+
+N
+
2n
_
2
N
+
+N
+
2n
_
_
_
=
(N
+
N
+
)
2
N
+
N
+
.
Sous H
0
,
n
tend en loi vers
2
`a 4-1-2 degre de liberte (on a retire 2 degres
de liberte pour lestimation de et ). Considerons le test asymptotique de
niveau 0.05 et a = 3.84 le quantile dordre 0.95 de la loi
2
(1) (i.e. P(
2
(1)
a) = 0.95). La region critique est [a, [.
4. la pvaleur du test est donnee par P(Z
obs
n
) o` u Z suit une loi du X
2
(1),
et
obs
n
est la statistique calculee sur les donnees observees. On a
obs
n
= 5. On
rejette donc lhypoth`ese nulle au seuil de 5%. La p-valeur du test est denviron
2.5%.

Exercice IX.12.
1. Le nombre total denfants observes est n = 5 320 = 1600. Le nombre total
de gar cons observes est n
g
= 18 5 +52 4 +110 3 +88 2 +35 1 = 839.
Donc, la proportion de gar cons observes est r = n
g
/n = 839/1600 = 0.524375.
Les statistiques du
2
empirique sont

(1)
n
= n
2

i=1
( p
i
p
i
)
2
p
i
et
(2)
n
= n
2

i=1
( p
i
p
i
)
2
p
i
,
o` u p
1
= r est la frequence empirique des gar cons, p
2
= 1 r, la frequence
empirique des lles, et p
1
= p
2
= 1/2. Or, on sait que la statistique (
(i)
n
, n 1)
converge en loi vers un
2
avec 2 1 = 1 degre de liberte. Donc, W
n
=
(i)
n
>
z

(1) est la region critique du test du


2
.
Application numerique : p
1
= p
2
= 1/2, p
1
= r 0.524, p
2
= 1 r 0.476,

(1)
1600
3.81 et
(2)
1600
3.80. Pour = 0.01, z

(1) 6.63. Donc, on accepte


lhypoth`ese r = 1/2 : il y a autant de gar cons que de lles `a la naissance. Les
p-valeurs de ces tests (la plus grande valeur de qui permette daccepter le
test) sont p
(1)
0.051 et p
(2)
0.051.
255
XIII Corrections
2. r est un estimateur de r. On deduit du theor`eme central limite et du theor`eme
de Slutsky que (

n( r
n
r)/
_
r
n
(1 r
n
), n 1) converge en loi vers vers la loi
gaussienne ^(0, 1). Un intervalle de conance pour r de niveau asympotique
est :
IC

=
_
r a

_
r(1 r)
n
; r +a

_
r(1 r)
n
_
.
Application numerique : pour = 0.01, a

2.5758. On a dej`a calcule r :


r 0.524. On obtient donc :
IC
0.01
= [0.492; 0.557] .
On saper coit que 1/2 IC
0.01
. Verions que, pour cette question, il y a
equivalence entre un des deux tests du
2
et lintervalle de conance :

(1)
n
= n
2

i=1
( p
i
p
i
)
2
p
i
= n
_
( r 1/2)
2
r
+
( r 1/2)
2
1 r
_
=
_

n
r 1/2
_
r(1 r)
_
2
.
Comme a
2

= z

(1), nous voyons bien quil y a equivalence entre les deux


approches.
3. On calcule dabord les probabilites theoriques : cf. tableau XIII.2.
Repartition (G,F) (5,0) (4,1) (3,2) (2,3) (1,4) (0,5) Total
Nbre de familles 18 52 110 88 35 17 320
Prop. observees : pi 0.05625 0.1625 0.34375 0.27500 0.10938 0.05312 1
Prop. theoriques : pi 1/32 5/32 10/32 10/32 5/32 1/32 1
Tab. XIII.2. Proportions observees et theoriques
Les statistiques du
2
empirique sont :

(1)
n
= n
6

i=1
( p
i
p
i
)
2
p
i
et
(2)
n
= n
6

i=1
( p
i
p
i
)
2
p
i
.
Or, on sait que la statistique (
(i)
n
, n 1) converge en loi vers un
2
avec
6 1 = 5 degres de liberte. Donc, W
n
=
(i)
n
> z

(5) est la region critique


du test du
2
.
256
XIII.9 Tests
Application numerique :
(1)
320
15.4 et
(2)
320
18.3. Pour = 0.01, z

(5)
15.09. Les p-valeur de ces tests sont p1 0.008 et p2 0.003. Donc, on rejette
lhypoth`ese r = 1/2 au niveau = 1%.
Conclusion : on obtient un test plus n en gardant la repartition par famille,
cest-` a-dire en tenant compte de toute linformation contenue dans les donnees.
Ce principe est utilise pour les sondages dopinion.
4. Nous souhaitons tester si les donnees suivent la loi binomiale de param`etres
5 et r. Les probabilites theoriques sont alors p
1
(r) = r
5
, p
2
(r) = (1
r)r
4
C
1
5
, . . . , p
6
(r) = (1 r)
5
. Lestimateur du maximum de vraisemblance de r
est r. Les statistiques du
2

(1)
n
= n
6

i=1
( p
i
p
i
( r))
2
p
i
et
(2)
n
= n
6

i=1
( p
i
p
i
( r))
2
p
i
( r)
convergent en loi vers la loi du
2
`a 6 1 1 = 4 degres de liberte. On a retire
un degre de liberte pour lestimation du param`etre r de dimension 1.
Application numerique :
(2)
320
15.9 et pour = 0.01, z

(4) 13.28. Donc,


on rejette lhypoth`ese selon laquelle les naissances des gar cons suit une loi
binomiale. La p-valeur de ce test est p2 = 0.003. On peut emettre lhypoth`ese
quil existe des familles `a gar cons et des familles `a lles.
On peut egalement calculer
(1)
320
9.7. La p-valeur associee est p1 0.045.
On devrait alors accepter H
0
au niveau = 1%. La dierence entre les deux
statistiques provient de lecart important entre le nombre escompte de familles
`a 5 gar cons, 13, contre 18 observees reellement et entre le nombre escompte
de familles `a 5 lles, 8, contre 17 observees reellement. Les valeurs p
5
et p
0
sont tres largement superieures `a p
5
( r) et p
0
( r). En particulier comme ces
quantites interviennent au denominateur des statistiques, cela implique que

(1)
320
est bien plus faible que
(2)
320
. Ainsi la statistique
(1)
320
sous-estime lecart
entre p et p( r). Si par exemple, on regroupe les familles `a 5 gar cons et `a
5 lles, on obtient les p-valeurs suivantes : pour la statistique
(2)
320
13.1,
p2 0.004 et pour la statistique
(1)
320
9.2, p1 0.027 (le nombre de degres
de liberte est ici 511 = 3). On remarque que la p-valeur p2 est peu modiee
par cette transformation alors que la p-valeur p1 varie de mani`ere importante.
Cela signie que la statistique
(1)
320
est peu able, et il convient dans ce cas
precis de conserver les resultats donnes par la statistique
(2)
320
: on rejette donc
H
0
au niveau = 1%. On peut verier que le rejet de H
0
repose sur les valeurs
observees pour les familles avec soit 5 gar cons soit 5 lles. En eet, si on
regroupe les familles `a 5 gar cons avec les familles `a 4 gar cons et les familles
`a 5 lles avec les familles `a 4 lles, les p-valeurs associees aux tests du
2
empirique (avec 4 1 1 = 2 degres de liberte) sont de lordre de 7%.
257
XIII Corrections

Exercice IX.13.
1. Soit p la proportion de femmes du jury. On teste : H
0
= p = p
0
avec p
0
= 0.29
contre H
1
= p ,= p
0
au niveau . Il sagit dun test bilateral. Soit X la variable
aleatoire donnant, pour tous les jurys, le nombre de femmes quil contient.
Sous H
0
: X suit une loi binomiale de param`etres B(n, p
0
) = B (700, 0.29).
On consid`ere la variable Z
n
=
X np
0
_
np
0
(1 p
0
)
. En utilisant lapproximation
gaussienne, on en deduit que sous H
0
, la loi de Z
n
est approximativement
la loi gaussienne ^(0, 1). Sous H
1
, en revanche on verie aisement que p.s.
lim
n
[Z
n
[ = +, et donc P
p
([Z
n
[ a) tend vers 0 quand n tend vers
linni. On peut donc contruire un test asymptotique convergent de region
critique W = [z[ > c. Le test est de niveau saymptotique pour c egal `a
u
1

2
, le quantile dordre
_
1

2
_
de la loi normale centree reduite.
Application numerique. On observe z
n
= 8.16, et la p-valeur est donnee par
P([G[ > z
n
) = 3 10
16
, o` u G est une variable gaussienne cantree reduite. On
rejette donc lhypoth`ese dimpartialite du juge.
2. Dans ce cas, on a z
n
= 1.95. Pour = 5%, on a u
1

2
= 1.96, on ne peut
donc pas rejetter lhypoth`ese dimpartialite du juge au niveau 5%.

Exercice IX.14.
Dans un premier temps on regroupe les cases an davoir au moins 5 individus
par case. On consid`ere donc le tableau suivant :
Vaccin Reaction leg`ere Reaction moyenne Ulceration ou Abc`es Total
A 12 156 9 177
B 29 135 7 171
Total 41 291 16 348
On note l, m et u les reactions suivantes : leg`eres, moyennes et ulceration ou abc`es.
Le param`etre du mod`ele est donc le vecteur des frequences p = (p
l,A
, p
m,A
, p
u,A
, p
l,B
, p
m,B
, p
u,B
)
o` u p
i,
est la probabilite davoir le vaccin A, B et la reaction i l, m, u.
On desire savoir si les vaccins sont egaux (hypoth`ese H
0
) cest-` a-dire si p
l[A
= p
l[B
,
p
m[A
= p
m[B
et p
u[A
= p
u[B
o` u p
i[
est la probabilite davoir la reaction i l, m, u
sachant que lon a le vaccin A, B.
1. On desire ecrire lhypoth`ese H
0
comme une hypoth`ese explicite. Comme le
tirage au sort est equitable, cela implique que p
A
= p
B
= 1/2, o` u p

est
la probabilite davoir le vaccin A, B. On a p
i,
= p

p
i[
= p
i[
/2. En
particulier, si p
i[A
= p
i[B
, il vient
258
XIII.9 Tests
p
i
= p
i,A
+p
i,B
=
1
2
(p
i[A
+p
i[B
) = p
i[
et p
i,
=
1
2
p
i[
=
1
2
p
i
.
Comme p
l
+ p
m
+ p
u
= 1, on en deduit que = (p
l
, p
m
) varie dans un ouvert
de R
q
avec q = 2. Lhypoth`ese nulle H
0
est une hypoth`ese explicite qui secrit :
p = h() = h(p
l
, p
m
) =
1
2
(p
l
, p
m
, 1 p
l
p
m
, p
l
, p
m
, 1 p
l
p
m
).
Il est facile de verier que le Jacobien de h est de rang q = 2. Les statistiques
de tests

(1)
n
= n

il,m,u,A,B
( p
i,
p
i,
( ))
2
p
i,
et
(2)
n
= n

il,m,u,A,B
( p
i,
p
i,
( ))
2
p
i,
( )
convergent (quand n ) sous H
0
vers un
2
`a 61q = 3 degres de liberte.
Sous H
1

(1)
n
et
(2)
n
divergent. Le test de region critique W
(j)
=
(j)
n
> z

est
un test convergent de niveau asymptotique , o` u z

est deni par P(


2
(3)
z

) = . Lestimateur du maximum de vraisemblance dune frequence est la


frequence empirique. On obtient donc
p
l,A
=
12
348
, . . . , p
u,B
=
7
348
et p
l
=
41
348
, p
m
=
291
348
.
Il vient pour n = 348 :
(1)
n
= 10, 3 et
(2)
n
= 8, 8. On lit dans les tables
z

= 7, 81 pour le seuil usuel = 5%. On rejette donc H


0
. Les p-valeurs de ces
tests sont p
(1)
= 0.016 et p
(2)
= 0.032, elles conrment que lon peut rejeter
H
0
au niveau de 5%.
2. On ne suppose plus que p
A
= p
B
= 1/2. Il faut donc estimer a = p
A
= 1 p
B
.
Si de plus p
i[A
= p
i[B
, il vient
p
i
= p
i,A
+p
i,B
= ap
i[A
+ (1 a)p
i[B
= p
i[
et p
i,A
= ap
i[
= 1 p
i,B
.
Le param`etre = (a, p
l
, p
m
) varie dans un ouvert de R
q
avec q = 3. Lhypoth`ese
nulle H
0
est une hypoth`ese explicite qui secrit :
p = h() = h(a, p
l
, p
m
)
= (ap
l
, ap
m
, a(1 p
l
p
m
), (1 a)p
l
, (1 a)p
m
, (1 a)(1 p
l
p
m
)).
Il est facile de verier que le Jacobien de h est de rang q = 3. Les statistiques
de tests

(1)
n
= n

il,m,u,A,B
( p
i,
p
i,
( ))
2
p
i,
et
(2)
n
= n

il,m,u,A,B
( p
i,
p
i,
( ))
2
p
i,
( )
259
XIII Corrections
convergent (quand n ) sous H
0
vers un
2
`a 61q = 2 degres de liberte.
Sous H
1

(1)
n
et
(2)
n
divergent. Le test de region critique W
(j)
=
(j)
n
> z

est
un test convergent de niveau asymptotique , o` u z

est deni par P(


2
(2)
z

) = . Lestimateur du maximum de vraisemblance dune frequence est la


frequence empirique. On obtient donc
p
l,A
=
12
348
, . . . , p
u,B
=
7
348
et a =
177
348
, p
l
=
41
348
, p
m
=
291
348
.
Il vient pour n = 348 :
(1)
n
= 10, 3 et
(2)
n
= 8, 7. On lit dans les tables
z

= 5, 99 pour le seuil usuel = 5%. On rejette donc H


0
. Les p-valeurs de ces
tests sont p
(1)
= 0.006 et p
(2)
= 0.013, elles conrment que lon peut rejeter
H
0
au niveau de 5%.

Exercice IX.15. Table des frequences estimees :


Mobilite manuelle Vue Gauche Deux yeux Droit
Gauche 9.92 14.88 6.20
Deux mains 6.08 9.12 3.90
Droite 16.0 24.0 10.0
Il sagit dun test dindependance. La statistique du
2
vaut environ 1.63. Le
nombre de degres de liberte de cette statistique est egal `a (3 1) (4 1) = 4.
La valeur critique pour = 0.25 vaut 5.39. Donc on ne peut pas dire quil y a une
relation entre la predominance visuelle et lhabilite des mains, meme en prenant
un risque eleve (ici 25%).

Exercice IX.16.
1. La vraisemblance du mod`ele de Poisson est :
p(x
1
; ) = e


x
1
x
1
!
= e

e
log()x
1
x
1
!
Il sagit dun mod`ele exponentiel. La densite de lechantillon de taille n est :
p(x
1
, . . . , x
n
; ) = e
n
e
log()
P
n
i=1
x
i
x
1
! . . . x
n
!
.
Lestimateur du maximum de vraisemblance est

n
=
1
n
n

i=1
X
i
.
260
XIII.9 Tests
2. On pose

(1)
n
= n
j=6

j=0
_
p
j
p
j
(

n
)
_
2
p
j
et
(2)
n
= n
j=6

j=0
_
p
j
p
j
(

n
)
_
2
p
j
(

n
)
o` u ( p
j
) sont les frequences empiriques observees et (p
j
(

n
) = e

j
n
j!
) sont
les frequences theoriques de la loi de Poisson de param`etre

n
. On sait que les
statistiques ci-dessus convergent en loi vers un
2
`a 711 = 5 degres de liberte
(on a retranche un degre de liberte supplementaire du fait de lestimation de
). Les tests denis par les regions critiques :
W
i
=
(i)
n
z

(5), i 1, 2
sont convergent de niveau asymptotique , avec z

(5) denit par :


P(
2
(5) z

(5)) = .
3. Les frequences empiriques observees, p
j
, et les frequences theoriques, p
j
(

n
),
sont donnees dans le tableau suivant :
j 0 1 2 3 4 5 6
pj 0,629 0,247 0,101 0,0112 0 0,0112 0
pj(

n) 0,583 0,315 0,0848 0,0152 2, 06 10


3
2, 22 10
4
2, 16 10
5
Tab. XIII.3. Frequences estimees et theoriques
Application numerique. On obtient

n
= 0.539,
(1)
n
= + (certaines fre-
quences empiriques sont nulles) et
(2)
n
= 50.9. Au seuil = 5%, on a
z

(5) = 11.07 <


(i)
n
i 1, 2. Donc on rejette lhypoth`ese de distribu-
tion selon une loi de Poisson avec les deux tests. La p-valeur associee `a
(2)
n
est
p 10
9
, cela conrme que lon rejette H
0
.
4. On regroupe les resultats des classes peu representees en une seule classe def-
fectif 9 + 1 + 0 + 1 + 0 = 11 et correspondant au nombre de jours o` u lon a
capture au moins 2 merles. En reprenant les statistiques du
2
empirique, on
trouve :

(1)
n
= n
j=2

j=0
_
p
j
p
j
(

n
)
_
2
p
j
et

(2)
n
= n
j=2

j=0
_
p
j
p
j
(

n
)
_
2
p
j
(

n
)
,
261
XIII Corrections
avec p
2
(

n
) =

k2
e

k
n
k!
= 1e

n
(1+

n
). Ces statistiques convergent en
loi vers un
2
`a 3 1 1 = 1 degre de liberte. Les tests denis par les regions
critiques :
W
i
=

(i)
n
z

(1), i 1, 2
sont convergent de niveau asymptotique , avec z

(1) denit par :


P(
2
(1) z

(1)) = .
On trouve numeriquement

(1)
n
= 2.26 et

(2)
n
= 2.00. Au seuil = 5%, on a
z

(1) = 3.84 >

(i)
n
, i 1, 2. Donc on accepte lhypoth`ese de distribution
selon une loi de Poisson! Les p-valeurs de ces deux tests sont p
(1)
= 0.13 et
p
(2)
= 0.16, elles conrment quil nest pas raisonnable de rejeter H
0
.
Ce paradoxe est d u au fait que lapproximation asymptotique dans le test du

2
est mauvaise sil existe des indices i tels que np
i
5. Il faut alors regrouper
les cases de sorte que cette derni`ere condition soit satisfaite.

Exercice IX.17.
On doit dabord estimer le param`etre de la loi de Poisson. Lestimateur du
maximum de vraisemblance est :

=
1
n
n

i=1
X
i
.
Application numerique :

= 0.7.
On veut donc tester si les donnees suivent la loi de Poisson de param`etre

:
sous lhypoth`ese poissonnienne, la statistique

(2)
n
= n
4

j=0
_
p
j
p
j
(

)
_
2
p
j
(

)
,
o` u ( p
j
) sont les frequences empiriques et (p
j
(

)) les frequences theoriques, converge


en loi vers un
2
`a q = 5 1 1 = 3 degres de liberte. On a retire un degre de
liberte pour lestimation de (param`etre de dimension 1). Alors, le test deni par
la region critique :
W =
(2)
n
z

(3) ,
est asymptotiquement convergent de niveau , avec z

(3) deni par :


P(
2
(3) z

(3)) = .
262
XIII.9 Tests
Application numerique : = 0.05. On lit dans la table statistique des quantiles du

2
: z
0.05
(3) = 7.81. On calcule la statistique du test :
(2)
n
= 1.98. La p-valeur de
ce test est p = 0.58. Donc, on accepte lhypoth`ese nulle : les donnees suivent une
loi de Poisson.

Exercice IX.18.
1. La statistique du test du
2
est :

(2)
n
= n
12

j=0
_

f
j
f
j
_
2
f
j
.
Sous lhypoth`ese de des non biaises, la statistique (
(2)
n
, n 1) converge en loi
vers un
2
`a 131 = 12 degres de liberte. Le test deni par la region critique :
W =
(2)
n
z

(12),
est convergent de niveau asymptotiquement , avec z

(12) deni par :


P(
2
(12) z

(12)) = .
Application numerique : = 0.05. On lit dans la table statistique des quantile
de la loi du
2
: z
0.05
(12) = 21.03. On calcule la statistique du test :
(2)
n
= 41.31.
La p-valeur de ce test est p = 4/100 000. Donc, on rejette lhypoth`ese nulle. Les
des sont donc biaises. (Il faudrait en fait regrouper les cases 10, 11 et 12 an
davoir au moins 5 observations (reelles ou theoriques) dans toutes les cases.
Dans ce cas, on obtient une p-valeur de lordre de p = 1/10 000. On rejette
aussi lhypoth`ese nulle.)
2. Lestimateur du maximum de vraisemblance de r, la probabilite dobtenir un
5 ou un 6 lors dun lancer de 12 des, est donne par la frequence empirique :
r =

12
i=0
iN
i
12

12
i=0
N
i
.
Les frequences f
j
(r) sont donnees sous H
0
par f
j
(r) = C
j
12r
j
(1 r)
12j
.
La statistique du test du
2
est :

(2)
n
= n
12

j=0
_

f
j
f
j
( r)
_
2
f
j
( r)
.
263
XIII Corrections
Sous lhypoth`ese de des ayant un meme biais, la statistique (
(2)
n
, n 1)
converge en loi vers un
2
`a 13 1 1 = 11 degres de liberte (on a retire
un degre de liberte supplementaire pour lestimation de r). Le test deni par
la region critique :
W =
(2)
n
z

(11),
est convergent de niveau asymptotiquement , avec z

(11) deni par :


P(
2
(11) z

(11)) = .
Application numerique : On trouve r = 0.338. Rappelons = 0.05. On lit dans
la table statistique des quantile de la loi du
2
: z
0.05
(11) = 19.68. On calcule la
statistique du test :
(2)
n
= 13.16. La p-valeur de ce test est p = 0.28. On accepte
donc le fait que les 12 des ont meme biais. (Il faudrait en fait regrouper les cases
10, 11 et 12 an davoir au moins 5 observations (reelles ou theoriques) dans
toutes les cases. Dans ce cas, on obtient une p-valeur de lordre de p = 0.52.
On accepte aussi lhypoth`ese nulle.)

XIII.10 Intervalles et regions de conance


Exercice X.1.
1. Soit

> . Le rapport de vraisemblance est :


p
n
(x
1
, . . . , x
n
;

)
p
n
(x
1
, . . . , x
n
; )
=
_

_
n
1
max
1in
x
i

, inf
1in
x
i
0
1
max
1in
x
i
, inf
1in
x
i
0
.
Si 0 max
1in
x
i
, alors on a
p
n
(x
1
, . . . , x
n
;

)
p
n
(x
1
, . . . , x
n
; )
=
_

_
n
,
et si max
1in
x
i
, on pose :
p
n
(x
1
, . . . , x
n
;

)
p
n
(x
1
, . . . , x
n
; )
= +.
Le rapport de vraisemblance est donc une fonction croissante de la statistique
max
1in
x
i
. Donc il existe un test U.P.P donne par la region critique :
W

= (x
1
, . . . , x
n
); max
1in
x
i
> z

,
264
XIII.10 Intervalles et regions de conance
o` u z

est determine par = sup

0
P

(W

). Il reste encore `a determiner z

.
Calculons la loi de max
1in
X
i
:
P

( max
1in
X
i
x) = P

(X
1
x)
n
=
_
_
_
0 si x < 0,
_
x

_
n
si 0 x ,
1 si x > .
On en deduit que : = sup

0
_
1
_
z

_
n
_
. Le maximum est atteint pour la
plus grande valeur de . Ainsi on a :
=
_
1
_
z

0
_
n
_
, soit z

=
0
(1 )
1/n
.
En conclusion, on obtient la region critique suivante :
W

= (x
1
, . . . , x
n
); max
1in
x
i
>
0
(1 )
1/n
.
2. Calculons la puissance du test pour H
1
. Comme 0 < z

, on a
() = P

(W

),
= P

( max
1in
X
i
> z

),
= 1 P

( max
1in
X
i
z

),
= 1
_
z

_
n
.
3. Pour
0
=
1
2
et = 5%, on obtient z

=
1
2
(0, 95)
1/n
.
4. Pour
0
=
1
2
et = 5%, il faut choisir n tel que :
1
_
(0.95)
1/n 1
2
3/4
_
n
0.98 soit n 9.5.
On trouve donc n = 10.
Si n = 2, on obtient (
3
4
) = 0.578. On remarquera que plus n grand, plus ()
est proche de 1. Lerreur de deuxi`eme esp`ece pour est proche de 0 quand n
est grand. En eet le test associe `a la region critique W est convergent.
5. Cest un cas particulier du test precedent. La region critique
W

= (x
1
, . . . , x
n
); max
1in
x
i
>
0
(1 )
1/n

denit un test UPP de niveau .


265
XIII Corrections
6. Soit

> 0. Dapr`es ce que nous avons vu precedemment, nous avons :


1

= P

_
max
1in
X
i
>

k
n
_
= 1 P

_
max
1in
X
i


k
n
_
.
On suppose k
n
1. Ceci entrane que :
1

= 1
_
1
k
n
_
n
soit k
n
=
_
1

_
1/n
.
Comme max
1in
X
i
, on obtient lintervalle de conance de niveau 1

pour :
IC

() =
_
max
1in
X
i
;
_
1

_
1/n
max
1in
X
i
_
.
7. La fonction de repartition F
n
de n( max
1in
X
i
) est pour x 0,
F
n
(x) = 1 P

(n( max
1in
X
i
) > x)
= 1 P

( max
1in
X
i
<
x
n
)
= 1 (1
x
n
)
n
.
En particulier la suite de fonctions de repartition (F
n
, n N

) converge vers la
fonction F denie par
F(x) = 1 e
x/
si x 0, et F(x) = 1 si x 0.
Ainsi la suite (n(max
1in
X
i
), n N

) converge en loi vers une loi exponen-


tielle de param`etre 1/. En particulier la suite (n(1
1

max
1in
X
i
), n N

)
converge en loi vers une variable aleatoire Y de loi exponentielle de param`etre
1. Comme les variables aleatoires exponentielles sont continues, on en deduit
que sous P

, on a
P

(0 n(1
1

max
1in
X
i
) a)
n
P(0 Y a) = 1 e
a
.
1

= 1 e
a
implique a = log(

). On en deduit donc lintervalle de


conance de niveau asymptotique 1

est IC
asymp

() =
_
max
1in
X
i
; +
_
si
n log(

) et pour n > log(

) :
IC
asymp

() =
_
max
1in
X
i
;
1
1 + log(

)/n
max
1in
X
i
_
.
266
XIII.11 Controles `a mi-cours
Il est facile de verier que
_
1

_
1/n

1
1 + log(

)/n
pour tout

, n tels que
n > log(

). En particulier lintervalle de conance asymptotique IC


asymp

est un intervalle de conance par exc`es.

Exercice X.2.
1. Calcul de lesperance :
E

[X] =
1
2
_

+
xe
[x[
dx
=
1
2
_

+
(u +)e
[u[
dx
=

2
_

+
e
[u[
dx
= .
De meme, on calcule le moment dordre 2 : E

[X
2
] = 2 +
2
; puis on en deduit
la variance de X : Var

(X) = 2. Dapr`es la methode des moments, on en


deduit que la moyenne empirique

X
n
est un estimateur de . De plus, cest un
estimateur convergent par la loi forte des grands nombres.
2. Dapr`es le Theor`eme Central Limite, on obtient lintervalle de conance asymp-
totique suivant :
IC

() =
_

X
n
u

_
2
n
_
,
o` u u

est le quantile dordre 1 /2 de la loi gaussienne ^(0, 1) : P([Y [ >


u

) = , o` u Y est de loi ^(0, 1). Pour un niveau de conance de 95%, on


obtient u

= 1, 96 et avec n = 200, on a
IC

() =

X
n
0.196
_
.

XIII.11 Controles `a mi-cours


Exercice XI.1.
La fonction caracteristique de T
n
est
Tn
(u) =
p
n
e
iu
1 (1 p
n
) e
iu
. On a
267
XIII Corrections
Tn
n
(u) =
Tn
_
u
n
_
=
e
iu/n
n (n ) e
iu/n
.
Rappelons que e
iu/n
= 1 +
iu
n
+o
_
1
n
_
. On en deduit que
Tn
n
(u) =
+o(1)
iu +o(1)

n

iu
.
On reconnat dans le terme de droite la fonction caracteristique de la loi exponen-
tielle de param`etre > 0. Donc la suite (T
n
/n, n n
0
) converge en loi vers la loi
exponentielle de param`etre > 0.

Exercice XI.2.
1. Par denition E[(V, W) [ W] = h(W) o` u
h(w) =
_
(v, w)f
V [W
(v[w) dv =
_
(v, w)
f
V,W
(v, w)
f
W
(w)
dv.
Comme les v.a. V et W sont independantes, on a f
V,W
(v, w) = f
V
(v)f
W
(w).
Il vient
h(w) =
_
(v, w)f
V
(v) dv = E[(V, w)].
2. On a par la question precedente E
_
e
iuX
1
X
4
iuX
2
X
3
[ X
1
, X
2

= h(X
1
, X
2
), o` u
h(x
1
, x
2
) = E[e
iux
1
X
4
iux
2
X
3
]
= E[e
iux
1
X
4
]E[e
iux
2
X
3
] par independance
= e

u
2
x
2
1
2

u
2
x
2
2
2
en utilisant la fonction caracteristique de la loi ^(0, 1).
Ensuite on a
E
_
e
iuX
1
X
4
iuX
2
X
3

= E
_
E
_
e
iuX
1
X
4
iuX
2
X
3
[ X
1
, X
2

= E[h(X
1
, X
2
)]
= E
_
e

u
2
X
2
1
2

u
2
X
2
2
2
_
= E
_
e

u
2
X
2
1
2
_
2
par independance
=
__
R
e

u
2
x
2
2

x
2
2
dx

2
_
2
=
_
1

u
2
+ 1
_
2
=
1
u
2
+ 1
.
268
XIII.11 Controles `a mi-cours
Remarque : on pouvait reconnatre la fonction caracteristique de la loi expo-
nentielle symetrique (cf exercice IV.2).

Exercice XI.3.
1. Independantes et de meme loi uniforme sur 1, , n.
2. La fonction generatrice de T est (z) =
pz
1(1p)z
. On a E[T] =

(1) = p
1
et
Var(T) =

(1) +

(1)

(1)
2
= (1 p)p
2
. On peut bien s ur faire un calcul
direct.
3. On decompose suivant la valeur de la premi`ere image :
P(T
2
= l) =

1jn
P(X
1
= j; , X
l
= j; X
l+1
,= j)
=

1jn
P(X
1
= j) P(X
l+1
,= j) par independance
=

1jn
_
1
n
_
l
_
1
1
n
_
=
_
1
1
n
__
1
n
_
l1
.
T
2
suit une loi geometrique de param`etre
_
1
1
n
_
.
4. On decompose suivant les cas possibles pour les images.
5. On deduit de la formule precedente en utilisant lindependance que
P(T
2
= l
2
, T
3
= l
3
) = n(n 1)(n 2)
_
1
n
_
l
2
1
n
_
2
n
_
l
3
1
1
n
=
_
1
1
n
__
1
n
_
l
2
1
_
1
2
n
__
2
n
_
l
3
1
.
En utilisant la formule des lois marginales, on obtient :
P(T
3
= l
3
) =

l
2
1
P(T
2
= l
2
, T
3
= l
3
)
=
_
1
2
n
__
2
n
_
l
3
1
T
3
suit une loi geometrique de param`etre
_
1
2
n
_
.
269
XIII Corrections
6. On a pour tout l
2
1, l
3
1 que P(T
2
= l
2
, T
3
= l
3
) = P(T
2
= l
2
)P(T
3
= l
3
).
Donc T
2
et T
3
sont independants.
7. T
k
est le premier instant o` u lon obtient une nouvelle image alors que lon en
poss`ede dej`a k 1. Cest donc une v.a. geometrique de param`etre p, o` u p est
la probabilite de succ`es : obtenir une nouvelle carte alors que lon en poss`ede
dej`a k 1 : p = 1
k 1
n
.
8. On a par linearite de lesperance :
E[N
n
] = E
_
n

k=1
T
k
_
=
n

k=1
E[T
k
]
=
n

k=1
n
n k + 1
= n
n

j=1
1
j
.
On en deduit que E[N
n
] = n[log(n) +O(1)].
9. On a par independance :
Var(N
n
) = Var
_
n

k=1
T
k
_
=
n

k=1
Var(T
k
)
=
n

k=1
n(k 1)
(n k + 1)
2
=
n

k=1
n
2
(n k + 1)
2

n
(n k + 1)
= n
2
n

j=1
1
j
2
n
n

j=1
1
j
= n
2
_

2
6
+o(1)
_
n[log(n) +O(1)] .
On en deduit que Var(N
n
) = n
2
2
6
+o(n
2
).
10. On a 1
x
2
>
2

x
2

2
pour tout x R et > 0. Par monotonie de lesperance,
il vient
P
_

N
n
E[N
n
]
1

>
_
= E
_
1

Nn
E[Nn]
1

2
>
2

_

2
E
_
_
N
n
E[N
n
]
1
_
2
_
.
11. On a
E
_
_
N
n
E[N
n
]
1
_
2
_
=
1
E[N
n
]
2
Var(N
n
)
= O
_
n
2
n
2
(log n)
2
_
= O
_
(log n)
2
_
.
270
XIII.11 Controles `a mi-cours
On en deduit que pour tout > 0, lim
n
P
_

N
n
E[N
n
]
1

>
_
= 0. Donc la suite
_
N
n
E[N
n
]
, n N

_
converge en probabilite vers 1. Comme lim
n
E[N
n
]
nlog n
= 1, on
en deduit que la suite
_
N
n
nlog n
, n N

_
converge en probabilite vers 1.
De plus, on peut montrer que la suite
_
N
n
n
log n, n N

_
converge en loi vers
une variable aleatoire continue dont la densite est f(x) = e
x
e
e
x
, x R appelee
loi de Gumbel (voir le contr ole ci-dessous).
Exercice XI.4.
1. On utilise les fonctions generatrices. Par independance, on a pour z
[1, 1],

X
1
+X
2
(z) =
X
1
(z)
X
2
(z) = e

1
(1z)
2
(1z)
= e
(
1
+
2
)(1z)
.
On reconnat la fonction generatrice de la loi de Poisson de param`etre
1
+
2
.
La loi de X
1
+X
2
est donc la loi de Poisson de param`etre
1
+
2
.
2. On calcule pour 0 k n,
P(X
1
= k[X
1
+X
2
= n) =
P(X
1
= k, X
2
= n k)
P(X
1
+X
2
= n)
=
P(X
1
= k)P(X
2
= n k)
P(X
1
+X
2
= n)
par independance,
= e

1

k
1
k!
e

2

nk
2
(n k)!
e
(
1
+
2
)
n!
(
1
+
2
)
n
= C
k
n
_

1

1
+
2
_
k
_

2

1
+
2
_
nk
.
La loi de X
1
sachant X
1
+ X
2
= n est une loi binomiale de param`etres n et
p, o` u p =

1

1
+
2
. On en deduit donc que la loi conditionnelle de X
1
sachant
X
1
+X
2
est la loi binomiale B
_
X
1
+X
2
,

1

1
+
2
_
.
3. Soit Z de loi B(n, p), on a E[Z] = np. Comme L(X
1
[X
1
+X
2
) = B
_
X
1
+X
2
,

1

1
+
2
_
,
on en deduit que
E[X
1
[X
1
+X
2
] = (X
1
+X
2
)

1

1
+
2
.

Exercice XI.5.
271
XIII Corrections
I Comportement asymptotique de X
(n)
=

n
i=1
Y
i
.
1. On a pour x 0,
P(X
(n)
x) = P( max
1in
X
i
x)
= P(X
1
x, . . . , X
n
x)
= P(X
1
x) P(X
n
x) par independance,
= (1 e
x
)
n
.
2. On utilise la methode de la fonction de repartition. On a pour x+
1
log n
0,
P(X
(n)

1
log n x) = P(X
(n)
x +
1
log n) =
_
1
e
x
n
_
n
.
Cette quantite converge vers F(x) = e
e
x
pour tout x R. Comme
lim
x
F(x) = 0 et lim
x+
F(x) = 1, on en deduit que la suite (X
(n)

1
log n, n N

) converge en loi vers une variable aleatoire Z de fonction de


repartition F.
3. On a f(x) = e
x
e
e
x
pour x R. On obtient e
e
a
= 0, 025 soit a 1, 3
et e
e
b
= 1 0, 025 soit b 3, 7. La loi de densite f porte le nom de loi de
Gumbel.
4 3 2 1 0 1 2 3 4 5 6
0.0
0.1
0.2
0.3
0.4
Fig. XIII.1. Densite de la loi de Gumbel
272
XIII.11 Controles `a mi-cours
II Loi du vecteur (Y
1
, . . . , Y
n
).
1. Comme les lois poss`edent des densites et que les v.a. sont independantes,
P(X
i
= X
j
) = 0 si i ,= j. En eet :
P(X
i
= X
j
) = E[1
X
i
=X
j

] =
_
R
2
+
1
x=y

2
e
xy
dxdy = 0.
2. On a :
P(i ,= j; X
i
= X
j
)

i,=j
P(X
i
= X
j
) = 0.
Pour presque tout , les reels X
1
(), . . . , X
n
() sont distincts deux `a
deux. Il existe donc un unique reordonnement croissant.
3. Par la formule de decomposition, on a
E[g
1
(Y
1
)g
2
(Y
2
)] = E[g
1
(X
1
)g
2
(X
2
X
1
)1
X
1
<X
2

] +E[g
1
(X
2
)g
2
(X
1
X
2
)1
X
2
<X
1

]
= 2
_
g
1
(x
1
)g
2
(x
2
x
1
)1
0<x
1
<x
2

2
e
x
1
x
2
dx
1
dx
2
= 2
_
g
1
(x
1
)g
2
(y
2
)1
0<x
1

1
0<y
2

2
e
x
1
(y
2
+x
1
)
dx
1
dy
2
,
o` u on a pose y
2
= x
2
x
1
, `a x
1
xe. Il vient
E[g
1
(Y
1
)g
2
(Y
2
)] =
_
g
1
(y
1
)g
2
(y
2
) 2
2
e
2y
1
y
2
1
y
1
>0,y
2
>0
dy
1
dy
2
,
o` u on a pose y
1
= x
1
. En faisant g
2
= 1, on obtient
E[g
1
(Y
1
)] =
_
g
1
(y
1
) 2
2
e
2y
1
y
2
1
y
1
>0,y
2
>0
dy
1
dy
2
=
_
g
1
(y
1
) 2e
2y
1
1
y
1
>0
dy
1
.
On en deduit que la loi de Y
1
a pour densite f
Y
1
(y
1
) = 2e
2y
1
1
y
1
>0
. On
reconnat la loi exponentielle de param`etre 2.
4. Un calcul similaire montre que la loi de Y
2
est la loi exponentielle de param`etre
: f
Y
2
(y
2
) = e
y
2
1
y
2
>0
. On remarque enn que pour toutes fonctions
g
1
, g
2
mesurables bornees, on a :
E[g
1
(Y
1
)g
2
(Y
2
)] = E[g
1
(Y
1
)]E[g
2
(Y
2
)].
Cela implique que les v.a. Y
1
et Y
2
sont independantes. La densite de la loi
du couple est donc la densite produit : f
(Y
1
,Y
2
)
(y
1
, y
2
) = f
Y
1
(y
1
)f
Y
2
(y
2
).
273
XIII Corrections
5. En decomposant suivant les ev`enements X
(1)
< < X
(n)
, et en utilisant
le fait que (X
(1)
, . . . , X
(n)
) et (X
1
, . . . , X
n
) ont meme loi, on a :
E[g
1
(Y
1
) g
n
(Y
n
)] =

Sn
E[g
1
(Y
1
) g
n
(Y
n
)1
X
(1)
<<X
(n)

]
=

Sn
E[g
1
(X
(1)
) g
n
(X
(n)
X
(n1)
)1
X
(1)
<<X
(n)

].
=

Sn
E[g
1
(X
1
) g
n
(X
n
X
n1
)1
X
1
<<Xn
].
= n! E[g
1
(X
1
) g
n
(X
n
X
n1
)1
X
1
<<Xn
]
= n!
_
g
1
(x
1
) g
n
(x
n
x
n1
)
1
0<x
1
<<xn

n
e

P
n
i=1
x
i
dx
1
dx
n
.
Pour verier que (X
(1)
, . . . , X
(n)
) et (X
1
, . . . , X
n
) ont meme loi, on remarque
que pour u = (u
1
, . . . , u
n
) R
n
, on a

(X
(1)
,...,X
(n)
)
(u) = E
_
e
i
P
n
k=1
X
(k)
u
k
_
= E
_
e
i
P
n
j=1
X
j
u

1
(j)
_
, o` u u

1 = (u

1
(1)
, . . . , u

1
(n)
)
=
n

j=1
E
_
e
iX
j
u

1
(j)
_
, par independance
=
n

k=1
E
_
e
iX
1
u
k

, car les v.a. ont meme loi


=
(X
1
,...,Xn)
(u).
On en deduit donc que les vecteurs (X
(1)
, . . . , X
(n)
) et (X
1
, . . . , X
n
) ont meme
loi.
6. On consid`ere lapplication denie sur R
n
par (x
1
, . . . , x
n
) = (y
1
, . . . , y
n
),
o` u y
1
= x
1
et pour i > 1, y
i
= x
i
x
i1
. Lapplication est un C
1
dif-
feomorphisme de louvert (x
1
, . . . , x
n
); 0 < x
1
< < x
n
dans louvert
(y
1
, . . . , y
n
) ]0, +[
n
. Le Jacobien de lapplication est
Jac[](x) =
_
_
_
_
_
_
_
1 0 . . . . . . 0
1 1 0 . . . 0
0 1 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0 1 1
_
_
_
_
_
_
_
274
XIII.11 Controles `a mi-cours
Son determinant est det(Jac[](x)) = 1. Remarquons enn que x
i
=

i
j=1
y
j
,
et donc
n

i=1
x
i
=
n

i=1
i

j=1
y
j
=
n

j=1
y
j
n

i=j
1 =
n

j=1
(n j + 1)y
j
.
On en deduit en faisant le changement de variables (y
1
, . . . , y
n
) = (x
1
, . . . , x
n
),
que
E[g
1
(Y
1
) g
n
(Y
n
)]
= n!
_
g
1
(x
1
) g
n
(x
n
x
n1
)1
x
1
<<xn

n
e

P
n
i=1
x
i
dx
1
dx
n
= n!
_
g
1
(y
1
) g
n
(y
n
)1
0<y
1
,...,0<yn

n
e

P
n
j=1
(nj+1)y
j
dy
1
dy
n
.
En posant g
j
= 1 si j ,= i, on obtient
E[g
i
(Y
i
)] = n!
_
g
i
(y
i
)1
0<y
1
,...,0<yn

n
e

P
n
j=1
(nj+1)y
j
dy
1
dy
n
=
_
g
i
(y
i
) 1
0<y
i

(n i + 1)e
(ni+1)y
i
dy
i
.
La loi de Y
i
est donc une loi exponentielle de param`etre ni +1. Remarquons
enn que pour toutes fonctions g
1
, . . . g
n
, mesurables bornees, on a
E[g
1
(Y
1
) g
n
(Y
n
)] = E[g
1
(Y
1
)] E[g
n
(Y
n
)].
Les variables aleatoires Y
1
, . . . , Y
n
sont donc independantes. La densite de
la loi du vecteur (Y
1
, . . . , Y
n
) est donc le produit des densites des lois
marginales.
7. Comme X
(n)
=

n
i=1
Y
i
, on a pour u R, en utilisant lindependance des
variables aleatoires Y
1
, . . . , Y
n
,

X
(n)
(u) =
P
n
i=1
Y
i
(u) =
n

i=1

Y
i
(u) =
n

i=1
(n i + 1)
(n i + 1) iu
=
n

k=1
k
k iu
.
III Application
1. La loi de T
nk+1,n
est la loi geometrique de param`etre k/n. La fonction carac-
teristique de la loi de
1
n
T
nk+1,n
est pour u R,

k,n
(u) =
k
n
e
iu/n
1
_
1
k
n
_
e
iu/n
= k
1 +o(1)
n (n k)
_
1 +
iu
n
+o(1/n)
_ =
k
k iu
(1+o(1)).
275
XIII Corrections
La suite (
k,n
, n > k) converge vers la fonction
k
, o` u
k
(u) =
k
k iu
est la
fonction caracteristique de la loi exponentielle de param`etre k. On en deduit
que la suite
_
1
n
T
nk+1,n
, n k
_
converge en loi vers la loi exponentielle de
param`etre k.
Nous regardons maintenant en detail
k,n

k
. On a

k,n
(u)
k
(u) =
k
n
e
iu/n
1
_
1
k
n
_
e
iu/n

k
k iu
=
k
k n(1 e
iu/n
)

k
k iu
= k
iu +n(1 e
iu/n
)
(k iu)(k n(1 e
iu/n
))
.
Remarquons que

k
k iu

1 et

iu +n(1 e
iu/n
)

C
u
2
n
, o` u C est
une constante independante de n et u. Enn, on a

k n(1 e
iu/n
)


[k n(1 cos(u/n))[. Comme [1 cos(x)[ x
2
/2, on en deduit que pour
u xe, et n assez grand, on a n(1 cos(u/n)) u
2
/2n < 1/2. Pour tout
k 1, . . . , n, on a alors

k n(1 e
iu/n
)

k 1/2 k/2. On en deduit


donc que pour tout u R, il existe n(u) ni, tel que pour tout n n(u) et
k 1, . . . , n,
[
k,n
(u)
k
(u)[
1
kn
2Cu
2
,
Quitte `a remplacer C par 2Cu
2
, o` u u est xe, on obtient bien la majoration
annoncee.
2. Comme les v.a. T
1,n
, . . . , T
n,n
sont independantes, on a
Nn/n
(u) =
n

k=1

k,n
(u).
On deduit de la derni`ere question de la partie II que

Nn/n
(u)
X
(n)
(u)

k=1

k,n
(u)
n

k=1

k
(u)

.
Toute fonction caracteristique est majoree en module par 1. On peut donc
utiliser le lemme V.25 page 89. On obtient

Nn/n
(u)
X
(n)
(u)

k=1
[
k,n
(u)
k
(u)[ C
log n
n
.
276
XIII.11 Controles `a mi-cours
3. On utilise les fonctions caracteristiques. On a

(Nnnlog n)/n
(u)
Z
(u)

(Nnnlog n)/n
(u)
(X
(n)
nlog n)
(u)

(X
(n)
nlog n)
(u)
Z
(u)

.
Apr`es avoir remarque que

(Nnnlog n)/n
(u)
(X
(n)
nlog n)
(u) = e
iu nlog n
_

Nn/n
(u)
X
(n)
(u)
_
,
On en deduit que

(Nnnlog n)/n
(u)
Z
(u)

Nn/n
(u)
X
(n)
(u)

(X
(n)
nlog n)
(u)
Z
(u)

.
Soit u R xe. Le premier terme du membre de droite converge vers 0 quand
n . On deduit de la convergence en loi de la suite (X
(n)
nlog n, n N

)
vers Z, que le deuxi`eme terme converge egalement vers 0 quand n . Par
consequent, on a :
lim
n

(Nnnlog n)/n
(u) =
Z
(u).
La suite (n
1
(N
n
nlog n), n N

) converge en loi vers la variable aleatoire


Z.
4. Les points de discontinuite de la fonction 1
[a,b]
(x) sont a, b. Comme P(Z
a, b) = 0, on deduit de la question precedente que
lim
n
P((N
n
nlog n)/n [a, b]) = P(Z [a, b])
= 1
_
a

f(x) dx
_
+
b
f(x) dx.
Comme P((N
n
nlog n)/n [a, b]) = P(N
n
[an +nlog n, bn +nlog n]), on
en deduit que I
n
= [an +nlog n, bn +nlog n] est un intervalle de conance de
niveau asymptotique
_
b
a
f(x) dx pour N
n
. On choisit par exemple a et b tels
que
_
a

f(x) dx =
_
+
b
f(x) dx = 2, 5%,
soit a = 1, 31 et b = 3, 68.
5. Pour n, on note r
n
= nlog n le nombre moyen de plaquettes `a acheter pour avoir
une collection compl`ete, et I
n
lintervalle de conance, de niveau 95%, pour
le nombre de plaquettes que lon risque dacheter an davoir une collection
compl`ete.
277
XIII Corrections
n r
n
I
n
151 758 [560, 1313]
250 1380 [1054, 2299]

Exercice XI.6.
1. On a P(i 1, . . . , n; U
i
0)
n

i=1
P(U
i
0) = 0. La variable aleatoire
X
n
est donc strictement positive p.s. On peut donc considerer V
n
= log(X
n
) =
1
n
n

i=1
log(U
i
). Les variables aleatoires (log(U
i
), i N

) sont independantes
et de meme loi. Elles sont egalement integrables :
E[[log(U
i
)[] =
_
[log(u)[ 1
]0,1[
(u) du =
_
]0,1[
log(u) du = [ulog(u)u]
1
0
= 1.
On deduit de la loi forte des grands nombres que la suite (V
n
, n N

)
converge presque s urement vers E[log(U
1
)] = . Comme la fonction expo-
nentielle est continue, on en deduit que la suite (X
n
, n N

) converge presque
s urement vers e

.
2. On a
log(Y
n
) =

n(log(X
n
) +) =

n
_
1
n
n

i=1
log(U
i
) E[log(U
i
)]
_
.
Verions que les variables aleatoires log(U
i
) sont de carre integrables. On a
E[log(U
i
)
2
] =
_
log(u)
2
1
]0,1[
(u) du = [ulog(u)
2
2ulog(u) + 2u]
1
0
= 2.
On deduit du theor`eme de la limite centrale que la suite (log(Y
n
), n N

)
converge en loi vers Z de loi gaussienne ^(0,
2
), o` u
2
= Var(log(U
i
)) =

2
(2 1) =
2
. Comme la fonction exponentielle est continue, on en deduit
que la suite (Y
n
, n N

) converge en loi vers e


Z
. Il reste donc `a determiner la
loi de Y = e
Z
. On utilise la methode de la fonction muette. Soit g une fonction
mesurable bornee. On a
E[g(e
Z
)] =
_
g(e
z
)f
Z
(z)dz =
_
g(e
z
) e
z
2
/2
2 dz

2
2
=
_
g(y)
1
y

2
2
e
log(y)
2
/2
2
1
]0,[
(y) dy,
278
XIII.11 Controles `a mi-cours
o` u lon a eectue le changement de variable y = e
z
de R dans ]0, [. On
en deduit donc que Y = e
Z
est une variable aleatoire continue de densite
1
y

2
2
e
log(y)
2
/2
2
1
]0,[
(y). La loi de Y est appelee loi log-normale.

Exercice XI.7.
I Preliminaires
1. Le temps moyen est E[T
1
] = 1/.
2. On consid`ere les fonctions caracteristiques : pour n 1, u R,

Vn
(u) =
P
n
i=1
T
i
(u)
=

T
i
(u) par independance
=
_

iu
_
n
.
On reconnat la fonction caracteristique de la loi gamma de param`etre (, n).
3. P(N
t
= 0) = P(T
1
> t) = e
t
.
4. On a N
t
= n = V
n
t < V
n
+T
n+1
.
5. Soit n 1. Comme V
n
et T
n+1
sont independantes, on a
P(N
t
= n) = P(V
n
t < V
n
+T
n+1
)
=
_
1
vt<v+w
1
(n 1)!

n
v
n1
e
v
1
v>0
e
w
1
w>0
dvdw
=
_
1
(n 1)!

n
v
n1
e
v
e
w
1
0<vt<w+v
dvdw
=
_
1
(n 1)!

n
v
n1
e
v
e
(tv)
1
0<vt
dv
=
1
(n 1)!

n
e
t
_
v
n1
1
0<vt
dv
= e
t
(t)
n
n!
.
On reconnat la loi de Poisson de param`etre t.
279
XIII Corrections
II Les temps moyens
1. Comme

Nt
i=1
T
i
0, on en deduit que R
t
t p.s. Donc P(R
t
t) = 1. On a
N
t
= 0 = R
t
= t. Donc si r < t, on a
P(R
t
r, S
t
s, N
t
= 0) = 0.
Si r t, alors
P(R
t
r, S
t
s, N
t
= 0) = P(t < T
1
t +s) = e
t
(1 e
s
).
2. Soit n 1. On pose I = P(R
t
r, S
t
s, N
t
= n). On a
I = P(t V
n
r, V
n
+T
n+1
t +s, V
n
t < V
n
+T
n+1
)
= P((t r) V
n
t < V
n
+T
n+1
t +s)
=
_
1
trvt<v+wt+s
1
(n 1)!

n
v
n1
e
v
1
0<v
e
w
1
0<w
dvdw,
car les variables V
n
et T
n+1
sont independantes. Il vient
I =
_
1
(tr)
+
vt
1
(n 1)!

n
v
n1
e
v
1
tv<wt+sv
e
w
dvdw
=
_
1
(tr)
+
vt
1
(n 1)!

n
v
n1
e
v
e
(tv)
(1 e
s
) dv
=
1
(n 1)!

n
e
t
(1 e
s
)
_
1
(tr)
+
vt
v
n1
dv
= e
t
(1 e
s
)

n
n!
[t
n
(t r)
n
+
].
3. En decomposant suivant les valeurs possibles de N
t
, on obtient
P(R
t
r, S
t
s) =

n=0
P(R
t
r, S
t
s, N
t
= n)
= e
t
(1 e
s
)
_
1
rt
+

n=1

n
n!
[t
n
(t r)
n
+
]
_
= e
t
(1 e
s
)
_
e
t
e
(tr)
1
r<t
_
= (1 e
s
)(1 e
r
1
r<t
).
4. Comme R
t
t p.s., on a F(s) = P(S
t
s) = P(R
t
t, S
t
s) = (1 e
s
).
Comme S
t
est positif p.s., on en deduit que sa fonction de repartition est F(s) =
(1e
s
)1
s>0
. La fonction de repartition F de S
t
est une fonction derivable.
On en deduit que S
t
est une variable continue de densite F

(s) = e
s
1
s>0
.
On en deduit que la loi de S
t
est la loi exponentielle de param`etre .
280
XIII.11 Controles `a mi-cours
5. La variable aleatoire S
t
est ne p.s. On en deduit que
P(R
t
r) = lim
s
P(R
t
r, S
t
s) = (1 e
r
1
r<t
).
Calculons la fonction de repartition de min(T
1
, t). On a
P(min(T
1
, t) r) = 1
rt
+1
r<t
P(T
1
r) = (1 e
r
1
r<t
).
Comme les fonctions de repartitions caracterisent la loi, on en deduit que R
t
et min(T
1
, t) ont meme loi.
6. Le temps moyen dattente dun bus quand on arrive `a linstant t est E[S
t
] = 1/.
Lecart moyen entre le dernier bus juste avant linstant t et le premier bus juste
apr`es linstant t est E[S
t
+R
t
] = E[S
t
] +E[R
t
]. On a
E[R
t
] = E[min(T
1
, t)] =
_
min(w, t)e
w
1
w>0
dw
=
_
t
0
we
w
dw +
_

t
te
w
dw = [we
w
]
t
0
+
_
t
0
e
w
dw +t e
t
=
1

(1 e
t
).
On en deduit donc que E[S
t
+R
t
] =
2

e
t
. Lecart moyen entre le dernier
bus juste avant linstant t et le premier bus juste apr`es linstant t est donc
dierent de lecart moyen entre deux bus ! Le client et la societe de bus ont
tous les deux raison.
III Loi du temps entre deux passages de bus
1. On a P(R
t
r, S
t
s) = P(R
t
r)P(S
t
s) pour tout r, s R. On deduit
que les variables R
t
et S
t
sont independantes.
2. Remarquons que U
t
a meme loi que W
t
= min(T
1
, t) + T
2
. Comme T
1
est une
variable aleatoire nie presque s urement, on en deduit que lim
t
W
t
= T
1
+T
2
pour la convergence p.s. En particulier la suite (W
t
, t > 0) converge en loi vers
T
1
+ T
2
. Comme U
t
a meme loi que W
t
, on en deduit que la suite (U
t
, t > 0)
converge en loi vers T
1
+ T
2
. De plus la loi de T
1
+ T
2
est la loi gamma de
param`etre (, 2).
3. On remarque que (R
t
, S
t
) a meme loi que (min(T
1
, t), T
2
). Soit g une fonction
bornee mesurable. Pour tout t > 0, on a
281
XIII Corrections
E[g(U
t
)] = E[g(R
t
+S
t
)] = E[g(min(T
1
, t) +T
2
)]
=
_
g(min(t
1
, t) +t
2
)
2
e
(t
1
+t
2
)
1
0<t
1
,0<t
2

dt
1
dt
2
= e
t
_
g(t +t
2
)e
t
2
1
0<t
2

dt
2
+
_
g(t
1
+t
2
)
2
e
(t
1
+t
2
)
1
0<t
1
<t,0<t
2

dt
1
dt
2
=
_
g(u)e
u
1
t<u
du
+
_
g(u)
2
e
u
1
t
2
<u<t+t
2
,0<t
2

dudt
2
=
_
g(u)e
u
[1
t<u
+(u (u t)
+
)1
0<u
] du
=
_
g(u)e
u
[u1
0<ut
+ (t + 1)1
t<u
] du.
On en deduit que U
t
est une variable aleatoire continue de densite e
u
[u1
0<ut
+
(t + 1)1
t<u
].

Exercice XI.8.
I Calculs preliminaires
1. La variable aleatoire 1
Y X
prend les valeurs 0 ou 1. Il sagit dune variable
aleatoire de Bernoulli. Son param`etre est p = P(1
Y X
= 1) = E
_
1
Y X

=
P(Y X). Sa variance est Var(1
Y X
) = p(1 p).
2. On a
p = E
_
1
Y X

=
_
1
yx
f(x)g(y) dxdy =
_ __
x

g(y) dy
_
f(x) dx
=
_
G(x)f(x) dx.
En integrant dabord en x puis en y, on obtient egalement
p =
_
(1 F(y))g(y) dy.
Si X et Y ont meme loi, alors on a
p =
_
F(x)f(x) dx =
_
F(x)
2
/2

= 1/2.
282
XIII.11 Controles `a mi-cours
3. Comme X et Y sont independants, la densite conditionnelle de Y sachant X
est la densite de Y . On a donc
E
_
1
Y X
[X = x

=
_
1
yx
g(y) dy = [G(y)]
x

= G(x).
Cela implique S = E
_
1
Y X
[X

= G(X). On a
E[S] = E
_
E
_
1
Y X
[X

= E
_
1
Y X

= p.
Des calculs similaires donnent T = 1 F(Y ) et E[T] = p.
4. On a
= Var(S) = E[G(X)
2
] p
2
=
_
G(x)
2
f(x) dx p
2
.
De fa con similaire, on obtient = Var(T) =
_
(1 F(y))
2
g(y)dy p
2
.
5. Si X et Y ont meme loi, alors on a
=
_
F(x)
2
f(x) dx p
2
=
_
F(x)
3
3
_

1
4
=
1
3

1
4
=
1
12
.
Si X et Y ont meme loi, alors par symetrie, S et T on meme loi. En particulier
= = 1/12.
6. On a
E
_
S1
Y X

= E
_
G(X)1
Y X

=
_
G(x)1
yx
g(y)f(x) dxdy =
_
G(x)
2
f(x) dx.
On en deduit donc que
Cov(S, 1
Y X
) =
_
G(x)
2
f(x) dx E[S]E
_
1
Y X

= .
Des calculs similaires donnent Cov(T, 1
Y X
) = .
Verions par labsurde que (, ) ,= (0, 0) si p ]0, 1[. Si = 0, alors Var(S) = 0
et donc S = p p.s., cest-` a-dire G(X) = p p.s. Et donc X G
1
(p) = [a, b]. En
particulier, cela implique que F(x) = 0 si x < a et F(x) = 1 si x b. Comme G
est constant sur [a, b], cela implique que Y , [a, b] p.s. Donc F(Y ) est une variable
aleatoire de Bernoulli de param`etre q = P(Y b). Sa variance est q(1 q). Par
denition, elle est egale `a . Si = 0, alors F(Y ) = 1 p.s. ou F(Y ) = 0 p.s. En
prenant lesperance, cela implique donc que P(Y X) = 0 ou P(Y X) = 1. Ce
qui contredit lhypoth`ese p ]0, 1[.
283
XIII Corrections
II

Etude de la projection de Hajek de la statistique de Mann et
Withney
1. Par independance, pour l ,= i, on a
E
_
1
Y
j
X
l

[X
i
_
= E
_
1
Y
j
X
l

_
= p.
On deduit de ce calcul et de la partie precedente que
E[U

m,n
[X
i
] =
n

j=1
E
_
1
Y
j
X
i

p[X
i
_
= n(G(X
i
) p) = n(S
i
p).
Un raisonnement similaire donne
E[U

m,n
[Y
j
] =
m

i=1
E
_
1
Y
j
X
i

p[Y
j
_
= m(1 F(Y
j
) p) = m(T
j
p).
On obtient donc
H
m,n
= n
m

i=1
(S
i
p) +m
n

j=1
(T
j
p).
2. Les variables aleatoires (n(S
i
p), i 1) et (m(T
j
p), j 1) sont indepen-
dantes. Cela implique
Var(H
m,n
) = Var
_
_
m

i=1
n(S
i
p) +
n

j=1
m(T
j
p)
_
_
=
m

i=1
Var(n(S
i
p)) +
n

j=1
Var(m(T
j
p))
=
m

i=1
n
2
Var(S
i
) +
n

j=1
m
2
Var(T
j
)
= mn
2
+nm
2
.
3. Les variables aleatoires ((S
i
p), i 1) sont independantes, de meme loi, et de
carre integrable. Remarquons que E[S
i
p] = 0 et Var(S
i
p) = . On deduit
du theor`eme central limite, que la suite (V
m
, m 1) converge en loi vers une loi
gaussienne ^(0, ). Un raisonnement similaire assure que la suite (W
n
, n 1)
converge en loi vers la loi gaussienne ^(0, ).
284
XIII.11 Controles `a mi-cours
4. On a
Vm
(u) = e
u
2
/2
+R
(1)
m
(u) et
Wn
(u) = e
u
2
/2
+R
(2)
n
(u), avec
lim
m
sup
[u[K
[R
(1)
m
(u)[ = lim
n
sup
[u[K
[R
(2)
n
(u)[ = 0. (XIII.4)
On pose Z
m,n
=
H
m,n
_
Var(H
m,n
)
. Remarquons que Z
m,n
= a
m,n
V
m
+ b
m,n
W
n
avec
a
m,n
=
n

m
_
mn
2
+mn
2

et b
m,n
=
m

n
_
mn
2
+mn
2

.
En utilisant lindependance entre V
m
et W
n
pour la premi`ere egalite, il vient

Zm,n
(u) =
Vm
(a
m,n
u)
Wn
(b
m,n
u) = e

(a
2
m,n
+b
2
m,n
)u
2
2
+R
(3)
m,n
(u) = e
u
2
/2
+R
(3)
m,n
(u),
o` u
R
(3)
m,n
(u) = e
a
2
m,n
u
2
/2
R
(2)
n
(b
m,n
u)+e
b
2
m,n
u
2
/2
R
(1)
m
(a
m,n
u)+R
(1)
m
(a
m,n
u)R
(2)
n
(b
m,n
u).
On a a
m,n
1/ et b
m,n
1/. On deduit de (XIII.4) que lim
min(m,n)
sup
[u[K
[R
(3)
m,n
(u)[ =
0. Ceci implique que lim
min(m,n)

Zm,n
(u) = e
u
2
/2
. Cest-` a-dire, quand min(m, n)
tend vers linni, la suite (Z
m,n
, m 1, n 1) converge en loi vers Z de loi
gaussienne centree reduite ^(0, 1).
5. On pose c
m,n
=
_
Var(H
m,n
)/ Var(U
m,n
). Comme lim
min(m,n)
c
m,n
= 1,
on deduit du theor`eme de Slutsky que la suite ((c
m,n
, Z
m,n
), m 1, n 1)
converge en loi vers (1, Z). Comme la fonction (c

, Z

) c

est continue, on en
deduit la convergence en loi de la suite (c
m,n
Z
m,n
, m 1, n 1) vers Z quand
min(m, n) tend vers linni. Cest-` a-dire la suite
_
H
m,n
/
_
Var(U
m,n
), m 1, n 1
_
converge en loi vers la loi gaussienne centree reduite ^(0, 1) quand min(m, n)
tend vers linni.
III Convergence de la statistique de Mann et Whitney
1. On a
Cov(H
m,n
, U

m,n
) = Cov(H
m,n
, U
m,n
)
= Cov(n
m

i=1
S
i
, U
m,n
) + Cov(m
n

j=1
T
j
, U
m,n
)
= n
m

i=1
n

j=1
Cov(S
i
, 1
Y
j
X
i

) +m
m

i=1
n

j=1
Cov(T
j
, 1
Y
j
X
i

)
= mn
2
Cov(S, 1
Y X
) +nm
2
Cov(T, 1
Y X
).
285
XIII Corrections
2. On deduit de ce qui prec`ede que
Var(H
m,n
U

m,n
)
= Var(H
m,n
) + Var(U

m,n
) 2 Cov(H
m,n
, U

m,n
)
= mn
2
+nm
2
+mn
2
+nm
2
+mn(p p
2
) 2mn
2
2nm
2

= mn(p p
2
).
3. En particulier, on a
lim
min(m,n)
Var(H
m,n
U

m,n
)
Var(U
m,n
)
= 0.
4. On pose Q
m,n
=
H
m,n
U

m,n
_
Var(U
m,n
)
. En utilisant linegalite de Tchebychev, on a
pour tout > 0,
P([Q
m,n
[ > ) E[Q
2
m,n
]/
2
.
Comme lim
min(m,n)
E[Q
2
m,n
] = 0, on deduit que la suite
_
H
m,n
U

m,n
_
Var(U
m,n
)
, m 1, n 1
_
converge en probabilite vers 0 quand min(m, n) tend vers linni.
5. On a
U
m,n
mnp
_
Var(U
m,n
)
= c
m,n
Z
m,n
Q
m,n
.
On deduit du theor`eme de Slutsky que la suite ((c
m,n
Z
m,n
, Q
m,n
), m 1, n
1) converge en loi vers (Z, 0) quand min(m, n) tend vers linni. Par continuite
de laddition, on en deduit que la suite (c
m,n
Z
m,n
Q
m,n
, m 1, n 1)
converge en loi vers Z quand min(m, n) tend vers linni. On a donc montre
que, quand min(m, n) tend vers linni, la suite
_
U
m,n
mnp
_
Var(U
m,n
)
, m 1, n 1
_
converge en loi vers la loi gaussienne centree ^(0, 1).
IV Calcul de la variance de la statistique de Mann et Whitney
1. On a
Card (
1
) = mn
Card (
2
) = m(m1)n
Card (
3
) = n(n 1)m
Card (
4
) = m(m1)n(n 1).
286
XIII.11 Controles `a mi-cours
2. On a
Cov(1
Y X
, 1
Y

X
) = E
_
1
Y X
, 1
Y

E
_
1
Y X

E
_
1
Y

=
_
1
yx
, 1
y

x
g(y)g(y

)f(x) dydy

dx p
2
=
_
G(x)
2
f(x) dx p
2
= .
Un calcul similaire donne Cov(1
Y X
, 1
Y X

) = .
3. On a
Var(U
m,n
) = E
_
(U

m,n
)
2

(i,i

,j,j

)
E
_
(1
Y
j
X
i

p)(1
Y
j
X
i

p)
_
.
On decompose la somme sur les ensembles dindices
1
,
2
,
3
et
4
. Il vient

(i,i

,j,j

)
1
E
_
(1
Y
j
X
i

p)(1
Y
j
X
i

p)
_
= Card (
1
) E
_
(1
Y X
p)
2

= Card (
1
) Var(1
Y X
)
= mnp(1 p),

(i,i

,j,j

)
2
E
_
(1
Y
j
X
i

p)(1
Y
j
X
i

p)
_
= Card (
2
) E
_
(1
Y X
p)(1
Y X

p)

= Card (
2
) Cov(1
Y X
, 1
Y X

)
= m(m1)n,

(i,i

,j,j

)
3
E
_
(1
Y
j
X
i

p)(1
Y
j
X
i

p)
_
= Card (
3
) E
_
(1
Y X
p)(1
Y

X
p)

= Card (
3
) Cov(1
Y X
, 1
Y

X
)
= n(n 1)m,

(i,i

,j,j

)
4
E
_
(1
Y
j
X
i

p)(1
Y
j
X
i

p)
_
= Card (
4
) E
_
(1
Y X
p)(1
Y

p)

= 0.
La derni`ere egalite sobtient en utilisant lindependance entre (X, Y ) et (X

, Y

).
On obtient donc
Var(U
m,n
) = mn
2
+m
2
n +mn(p p
2
).
287
XIII Corrections
4. Dans le cas o` u les variables aleatoires (X
i
, i 1) et (Y
j
, j 1) ont meme loi,
on a
Var(U
m,n
) =
mn(m+n + 1)
12
.

Exercice XI.9.
I Calcul de la probabilite dextinction
1. On a Z
n
= 0 Z
n+1
= 0 pour tout n 0. Ceci implique que Z
n
=
0 =
n
k=1
Z
k
= 0. On en deduit que il existe n 0 tel que Z
n
= 0 =

k1
Z
k
= 0 est la limite croissante de la suite dev`enements (Z
n
= 0, n
0). On deduit donc du theor`eme de convergence monotone que est la limite
croissante de la suite (P(Z
n
= 0), n 0).
2. On a pour k 1,
E[Z
n+1
[Z
n
= k] = E[
Zn

i=1

i,n
[Z
n
= k] = E[
k

i=1

i,n
[Z
n
= k] = E[
k

i=1

i,n
] = km,
o` u lon a utilise pour la 3-i`eme egalite le fait que les variables (
i,n
, i 1) sont in-
dependantes de (
i,l
, i 1, 0 l < n) et donc independantes de Z
n
. Le resultat
est trivialement vrai pour k = 0. On en deduit donc que E[Z
n+1
[Z
n
] = mZ
n
,
et que E[Z
n+1
] = mE[Z
n
]. En iterant, on obtient que E[Z
n
] = m
n
.
3. Remarquons que P(Z
n
> 0) E[Z
n
]. Si m < 1, alors on a lim
n
P(Z
n
> 0) = 0,
et donc = 1 lim
n
P(Z
n
> 0) = 1.
4. On a pour k 1,
E[z
Z
n+1
[Z
n
= k] = E[z
P
Zn
i=1

i,n
[Z
n
= k] = E[z
P
k
i=1

i,n
[Z
n
= k] = E[z
P
k
i=1

i,n
] = (z)
k
,
o` u lon a utilise pour la 3-i`eme egalite le fait que les variables (
i,n
, i 1) sont in-
dependantes de (
i,l
, i 1, 0 l < n) et donc independantes de Z
n
. Le resultat
est trivialement vrai pour k = 0. On en deduit donc que E[z
Z
n+1
[Z
n
] = (z)
Zn
,
et donc comme (z) [1, 1], on a

n+1
(z) = E[z
Z
n+1
] = E[(z)
Zn
] =
n
((z)).
On en deduit donc que
n
est la fonction composee avec elle-meme n fois.
En particulier on a
n+1
=
n
.
288
XIII.11 Controles `a mi-cours
5. On a
P(Z
n+1
= 0) =
n+1
(0) = (
n
(0)) = (P(Z
n
= 0)).
Comme la fonction est continue sur [1, 1], on en deduit par passage `a la
limite, quand n , que est solution de lequation (1).
6. On a

(1) = E[] = m. Si p
0
+ p
1
= 1 alors on a m < 1 car p
0
> 0. Par
contraposee, on en deduit que si m 1, alors p
0
+ p
1
< 1. En particulier, il
existe k 2 tel que p
k
> 0. Cela implique que pour z ]0, 1[, alors

(z) > 0.
Et donc la fonction est strictement convexe sur [0, 1].
7. On a (1) = 1. Si m = 1, alors

(1) = 1, et comme la fonction est strictement


convexe, on en deduit que (x) > x sur [0, 1[. En particulier, la seule solution
de (1) sur [0, 1] est donc 1. Ainsi on a = 1.
8. On a (1) = 1. Si m > 1, alors la fonction (x) x est strictement convexe
sur [0, 1], strictement positive en 0, nulle en 1 et de derivee positive en 1. En
particulier elle poss`ede un unique zero, x
0
sur ]0, 1[.
9. On demontre la propriete par recurrence. Remarquons que P(Z
0
= 0) = 0 x
0
.
Supposons que P(Z
n
= 0) x
0
. Comme la fonction est croissante, on en
deduit que (P(Z
n
= 0)) (x
0
) = x
0
. Comme (P(Z
n
= 0)) = P(Z
n+1
= 0),
on en deduit que P(Z
n+1
= 0) x
0
. Ce qui demontre que P(Z
n
= 0) x
0
pour tout n 0. Par passage `a la limite, on a = lim
n
P(Z
n
= 0) x
0
.
Comme x
0
, 1, on en deduit que = x
0
.
II Comportement asymptotique sur un exemple
1. On obtient
(z) = +
(1 )(1 )z
1 z
. (XIII.5)
On a m =

(1) =
1
1
> 1. Enn si (x) = x alors on a x
2
(+)x+ = 0.
Comme 1 est racine de cette equation, on en deduit que lautre racine est
x
0
= /. Comme on a suppose m > 1, on a = /. On obtient les valeurs
numeriques suivantes : m 1.175 et 0.8616.
2. Il est facile de verier que
(z) 1
(z)
= m
z 1
z
.
On en deduit donc par iteration que

n
(z) 1

n
(z)
= m
n
z 1
z
,
289
XIII Corrections
soit

n
(z) =
z m
n
z +m
n

z m
n
z +m
n
.
3. On a

XY
(u) = E[e
iuXY
] = E[1
X=0
] +E[1
X=1
e
iuY
] = (1 p) +p

iu
.
4. La fonction caracteristique, , de se deduit de (XIII.5), en remarquant que
(u) = (e
iu
) pour u R. En reproduisant les calculs qui permettent de
determiner
n
, on obtient
Zn
(u) =
n
(e
iu
). Il vient

m
n
Zn
(u) =
Zn
(m
n
u)
=
n
(e
im
n
u
)
=
1 m
n
(1 +im
n
u) +m
n
+o(1)
1 m
n
(1 +im
n
u) +m
n
+o(1)
=
1 iu +o(1)
1 iu +o(1)
.
On en deduit donc que
lim
n

m
n
Zn
(u) =
1 iu
1 iu
= + (1 )
1
1 iu
.
On en deduit donc que la suite (m
n
Z
n
, n 1) converge en loi vers XY , o` u
X et Y sont independants, X de loi de Bernoulli de param`etre 1 , et Y de
loi exponentielle de param`etre 1 .
En fait on peut montrer que la suite (m
n
Z
n
, n 1) converge p.s. dans cet
exemple, et meme dans un cadre plus general.

Exercice XI.10.
1. En utilisant la matrice de changement de base, on a Y = UX o` u X =
(X
1
, . . . , X
n
). Comme X est un vecteur gaussien de moyenne nulle et de ma-
trice de covariance la matrice identite, I
n
, on en deduit que Y est un vecteur
gaussien de moyenne UE[X] = 0 et de matrice de covariance UI
n
U
t
= I
n
. Ainsi
X et Y ont meme loi.
2. On note Y = (Y
1
, . . . , Y
n
) les coordonnees du vecteur X dans la base f. Ainsi
on a X
E
i
=

n
i
j=1
Y
m
i
+j
f
m
i
+j
, o` u m
i
= 0 si i = 1 et m
i
=

i1
k=1
n
i
sinon.
Dapr`es la question precedente, les variables Y
1
, . . . , Y
n
sont independantes de
loi ^(0, 1). On en deduit donc que les variables X
E
1
, . . . , X
Ep
sont indepen-
dantes. On a egalement
290
XIII.11 Controles `a mi-cours
|X
E
i
|
2
=
n
i

j=1
Y
2
m
i
+j
.
On en deduit que |X
E
i
|
2
est la somme de n
i
carre de gaussiennes centrees
reduites independantes. Sa loi est donc la loi du
2
`a n
i
degres de liberte.
3. On a X

= (X, f
1
)f
1
=

X
n

n
i=1
e
i
et
|X
H
|
2
= |X X

|
2
=
n

i=1

X
i


X
n

2
= T
n
.
Dapr`es la question precedente X

et X
H
sont independants. En particulier

X
n
= (X

, f
1
)/

n et T
n
= |X
H
|
2
sont independants. De plus, comme H est
de dimension n 1, la loi de T
n
est la loi du
2
`a n 1 degres de liberte.

Exercice XI.11.
I Convergence en loi pour les variables aleatoires discr`etes
1. Comme

k=0
p(k) = 1, on en deduit quil existe une variable aleatoire, X, `a
valeurs dans N telle que P(X = k) = p(k) pour tout k N.
Soit g une fonction bornee mesurable. On a

E[g(X
n
)]E[g(X)]

k=0
p
n
(k)g(k)

k=0
p(k)g(k)

|g|

k=0
[p
n
(k) p(k)[ .
On a de plus

k=n
0
+1
[p
n
(k) p(k)[

k=n
0
+1
(p
n
(k) +p(k)) = 2
n
0

k=0
(p
n
(k) +p(k)),
car

k=0
p
n
(k) =

k=0
p(k) = 1. On en deduit donc

E[g(X
n
)]

k=0
p(k)g(k)

|g|
_
n
0

k=0
[p
n
(k) p(k)[ +2
n
0

k=0
(p
n
(k) +p(k))
_
.
Soit > 0. Il existe n
0
N tel que

k=n
0
+1
p(k) (i.e. 1

n
0
k=0
p(k) ).
Comme lim
n
p
n
(k) = p(k) pour tout k N, il existe N 1 tel que pour
tout n N,

n
0
k=0
[p
n
(k) p(k)[ . Enn, on remarque que

n
0

k=0
p
n
(k)
n
0

k=0
p(k)

n
0

k=0
[p
n
(k) p(k)[ ,
291
XIII Corrections
et donc

n
0

k=0
p
n
(k)
n
0

k=0
p(k) +.
On en deduit que

E[g(X
n
)] E[g(X)]

|g|
_
2 + 2 2
n
0

k=0
p(k)
_
4 |g| .
Ceci implique que pour toute fonction g continue bornee lim
n
E[g(X
n
)] =
E[g(X)]. Ainsi la suite (X
n
, n 1) converge en loi vers la loi de X.
2. Soit g(x) = max(12 [x[, 0), pour x R. Pour k N, on pose g
k
() = g( k).
Ainsi, on a g
k
(X
n
) = 1
Xn=k
et donc E[g
k
(X
n
)] = p
n
(k). La fonction g
k
etant continue bornee, la convergence en loi de la suite (X
n
, n 1) implique la
convergence de la suite (p
n
(k), n 1) (on note p(k) = E[g
k
(X)] la limite), et
ce pour tout k N. La fonction G(x) =

k=0
g
k
(x) est continue bornee. On a
E[G(X
n
)] =

k=0
p
n
(k) = 1. Comme
lim
n
E[G(X
n
)] = E[G(X)] =

k=0
E[g
k
(X)] =

k=0
p(k),
on en deduit donc que

k=0
p(k) = 1. Dapr`es la question precedente, on en
deduit que la suite (X
n
, n 1) converge en loi vers la loi de Y , variable aleatoire
discr`ete `a valeurs dans N telle que P(Y = k) = p(k), pour tout k N. Par
unicite de la loi limite, cela implique que X et Y ont meme loi. Donc X est une
variable aleatoire discr`ete `a valeurs dans N telle que P(X = k) = p(k), pour
tout k N.
II La loi de Bose-Einstein
1. On consid`ere une urne contenant n 1 boules marquees [ et r boules mar-
quees . Et on eectue un tirage sans remise de toutes les boules. Quitte `a
rajouter une boule [ au debut de la sequence et une `a la n, on remarque
quun tirage complet correspond `a une (et une seule) conguration possible. Et
une conguration possible est egalement representee par un tirage complet. Il
existe C
n1
n+r1
=
(n +r 1)!
r!(n 1)!
tirages possibles. Les congurations etant equi-
probables, on en deduit que la probabilite dobtenir une conguration donnee
est
r!(n 1)!
(n +r 1)!
.
292
XIII.11 Controles `a mi-cours
2. Si X
(1)
n,r
= k, alors il faut repartir r k particules indiscernables dans n 1
botes. Il existe donc C
n2
n+r2k
=
(n +r 2 k)!
(r k)!(n 2)!
congurations possibles. On
en deduit donc que pour k 0, . . . , r,
P(X
(1)
n,r
= k) = (n1)
r!(n +r 2 k)!
(r k)!(n +r 1)!
=
(n 1)
n +r 1
r!
(r k)!
(n +r 2 k)!
(n +r 2)!
.
3. Pour k N, on pose p
n,r
(k) = P(X
(1)
n,r
= k) pour k r et p
n,r
(k) = 0 si
k r + 1. Sous les hypoth`eses de la question, on obtient
p(0) = lim p
n,r
(0) = lim
1
1
n
1 +
r
n

1
n
=
1
1 +
,
et pour k 1,
p(k) = lim p
n,r
(k) = lim
1
1
n
1 +
r
n

1
n
r
n
1 +
r
n

2
n

r
n

k1
n
1 +
r
n

2
n

k1
n
=

k
(1 +)
k+1
.
On remarque que

k=0
p(k) = 1. On deduit alors de la partie I, que la suite
(X
n,r
, n N

, r N) converge en loi vers la loi de X, o` u pour k N, P(X =


k) =

k
(1 +)
k+1
.
On pose Y = X + 1. Pour k N

, on a
P(Y = k) = P(X = k 1) =

k1
(1 +)
k
=
1
1 +
_
1
1
1 +
_
k1
.
La loi de Y est la loi geometrique de param`etre = 1/(1 +).
4. Par symetrie la loi de X
(i)
n,r
est la loi de X
(1)
n,r
. (Si X
(i)
n,r
= k, alors il faut repartir
r k particules indiscernables dans les n1 autres botes, cf question II.2.) Le
nombre total de particules est r. On en deduit donc que

n
i=1
X
(i)
n,r
= r. Par
linearite de lesperance, puis de legalite en loi, on deduit
r = E
_
n

i=1
X
(i)
n,r
_
=
n

i=1
E[X
(i)
n,r
] = nE[X
(1)
n,r
].
Ainsi, on a obtenu que E[X
(1)
n,r
] = r/n.
5. On a limE[X
(1)
n,r
] = , et E[X] = E[Y 1] =
1

1 = .
293
XIII Corrections
6. On a pour k 0, . . . , r 1,
P(X
(1)
n+1,r1
= k) = n
(r 1)!(n +r 2 k)!
(r 1 k)!(n +r 1)!
=
n
n 1
r k
r
P(X
(1)
n,r
= k),
soit
(r k)P(X
(1)
n,r
= k) = r
n 1
n
P(X
(1)
n+1,r1
= k).
Cette egalite est trivialement veriee pour k r. Il vient donc
E[r X
(1)
n,r
] =

k=0
(r k)P(X
(1)
n,r
= k) = r
n 1
n

k=0
P(X
(1)
n+1,r1
= k) = r
n 1
n
.
On retrouve ainsi que E[X
(1)
n,r
] = r r
n 1
n
=
r
n
.
7. Pour r 2, k N, on a
(r 1 k)(r k)P(X
(1)
n,r
= k) = (r 1 k)r
n 1
n
P(X
(1)
n+1,r1
= k)
= (r 1)r
n 1
n + 1
P(X
(1)
n+2,r2
= k).
On en deduit donc que
E[(r X
(1)
n,r
)(r 1 X
(1)
n,r
)] = r(r 1)
n 1
n + 1
,
puis que
E[(X
(1)
n,r
)
2
] = r(r 1)
n 1
n + 1
(r
2
+E[X
(1)
n,r
](12r) r) =
2r
2
n(n + 1)
+
r(n 1)
n(n + 1)
.
En particulier, on a
lim E[(X
(1)
n,r
)
2
] = 2
2
+.
On a egalement E[X
2
] = E[Y
2
] 2E[Y ] + 1 = Var(Y ) + E[Y ]
2
2E[Y ] + 1.
Comme E[Y ] =
1

= 1 + et Var(Y ) =
1

2
= (1 +), il vient
E[X
2
] = (1 +) + (1 +)
2
2(1 +) + 1 = 2
2
+.
On verie ainsi que lim E[(X
(1)
n,r
)
2
] = E[X
2
].
294
XIII.11 Controles `a mi-cours
III Quand on augmente le nombre de particules
1. Soit a = (a
1
, . . . , a
n
) N
n
, b = (b
1
, . . . , b
n
) N
n
avec

n
i=1
a
i
= r et

n
i=1
b
i
=
r + 1. Par construction, on a
P(X
n,r+1
= b[X
n,r
= a) = 0
si

n
i=1
[a
i
b
i
[ , = 1 et sinon, il existe un unique indice j 1, . . . , n tel que
b
j
= a
j
+ 1, et on a
P(X
n,r+1
= b[X
n,r
= a) =
a
j
+ 1
n +r
=
b
j
n +r
.
2. En utilisant la denition des probabilites conditionnelles, il vient
P(X
n,r+1
= b) =

a=(a
1
,...,an)N
n
,
P
n
i=1
a
i
=r
P(X
n,r+1
= b[X
n,r
= a)P(X
n,r
= a)
=
r!(n 1)!
(n +r 1)!

a=(a
1
,...,an)N
n
,
P
n
i=1
a
i
=r
P(X
n,r+1
= b[X
n,r
= a)
=
r!(n 1)!
(n +r 1)!
n

j=1
b
j
n +r
=
r!(n 1)!
(n +r 1)!
r + 1
n +r
=
(r + 1)!(n 1)!
(n +r)!
.
La loi de X
n,r+1
est la loi de Bose-Einstein pour r + 1 particules et n botes.

Exercice XI.12.
I Le temps dattente `a larret de bus
1. La variable aleatoire aU est de loi uniforme sur [0, a]. Il est donc naturel de
choisir US
n
, avec U independante de S
n
, pour modeliser une variable aleatoire
uniforme sur [0, S
n
].
2. Remarquons que pour toute permutation de 1, . . . , n, (T
(i)
, 1 i n)
a meme loi que (T
i
, 1 i n). Comme S
n
=

n
i=1
T
(i)
, on en deduit que
T
(1)
/S
n
a meme loi que X
1
/S
n
.
295
XIII Corrections
3. On en deduit que
E
_
nT
1
S
n
_
=
n

k=1
E
_
T
1
S
n
_
=
n

k=1
E
_
T
k
S
n
_
= 1.
4. Par independance (U, Z) est une variable aleatoire continue de densite 1
[0,1]
(u)f
Z
(z),
o` u f
Z
est la densite de la loi de Z. Par Fubini, on a :
E[(U, Z)] =
_
(u, z)1
[0,1]
(u)f
Z
(z) dudz =
_ __
1
0
(u, z) du
_
f
Z
(z)dz
= E
__
1
0
du (u, Z)
_
.
Pour 1 k n, on a N

n
= k = U ]S
k1
/S
n
, S
k
/S
n
]. On en deduit dapr`es
(XI.4) que
P(N

n
= k) = E
_
1
U]S
k1
/Sn,S
k
/Sn]

= E
_
S
k
S
n

S
k1
S
n
_
= E
_
T
k
S
n
_
=
1
n
.
On observe que la loi de N

n
est la loi uniforme sur 1, . . . , n.
5. On a
E[g(T

n
)] =
n

k=1
E
_
1
N

n
=k
g(T
k
)

=
n

k=1
E
_
1
U]S
k
/Sn,S
k+1
/Sn]
g(T
k
)

=
n

k=1
E
_
T
k
S
n
g(T
k
)
_
= E
_
nT
1
S
n
g(T
1
)
_
,
o` u lon a utilise (XI.4) pour la troisi`eme egalite et le fait que (T
k
, T
k
/S
n
) a
meme loi que (T
1
, T
1
/S
n
) pour la derni`ere egalite.
6. Par la loi forte des grands nombres, on a p.s. lim
n
S
n
/n = . Comme T > 0
p.s., on en deduit > 0. La fonction x T
1
/x est continue en . On en deduit
que p.s. lim
n
nT
1
/S
n
= X avec X = T
1
/. On a E[X] = 1.
7. On a [
+
(x)
+
(y)[ [x y[ pour tout x, y R. La fonction
+
est donc
continue. Si x y 0, on a
+
(x y) = x y x. Si y x 0, on
a
+
(x y) = 0 x. Donc, pour tout x 0, y 0, on a
+
(x y)
x. On consid`ere Y
n
=
+
(X X
n
). Dapr`es la continuite de
+
, on a p.s.
lim
n
Y
n
= 0. De plus [Y
n
[ X, et X est integrable. On deduit du theor`eme
de convergence dominee que lim
n
E[Y
n
] = E[lim
n
Y
n
] = 0.
296
XIII.11 Controles `a mi-cours
8. Legalite [x[ = x + 2
+
(x) est evidente. On a
E[[X X
n
[] = E[X +X
n
+ 2
+
(X X
n
)] = 2E[
+
(X X
n
)].
On en deduit donc que lim
n
E[[X X
n
[] = 0.
9. On pose c = sup[g(x)[, x R. On a E[g(T

n
)] = E[Xg(T
1
)]+E[(X
n
X)g(T
1
)].
On remarque que
[E[(X
n
X)g(T
1
)][ E[[X
n
X[ [g(T
1
)[] cE[[X
n
X[.
Ceci assure que lim
n
E[g(T

n
)] = E[Xg(T
1
)] =
1

E[Tg(T)].
10. On choisit g(x) = e
iux
. Dapr`es la question precedente, on a lim
n

n
(u) =
1

E[T e
iuT
]. Le theor`eme de convergence dominee assure que lapplication u
E[T e
iuT
] est continue en 0. Cela implique que la suite (T

n
, n 1) converge en
loi vers une limite, T

, de fonction caracteristique
T
(u) =
1

E[T e
iuT
].
II Loi biaisee par la taille
1. On a E[T

] =
1

E[T
2
] =
Var(T) +E[T]
2

= +

2

. Legalite a lieu si et
seulement si
2
= 0, cest-` a-dire que p.s. T est egal `a une constante.
2. On a E[g(T

)] =
1

E[Tg(T)] =
1

_
g(t) tf(t) dt pour toute fonction g bornee
mesurable. Ceci implique que T

est une variable aleatoire continue de densite


f

(t) =
t

f(t).
3. On a = 1/, et T

a pour densite
2
t e
t
1
t>0
. On reconnat la densite de la
loi (, 2). En utilisant les fonctions caracteristiques, on a que la loi de T+T

est
la loi (, 2). Donc T

a meme loi que T+T

. Il vient E[T

] = E[T+T

] = 2E[T].
4. Soit a > a

dans [0, ]. Pour x ]a

, a], on a (x ) 0. Il vient
G(a) G(a

) = E[(T )1
]a

,a]
(T)] 0.
Ceci assure que G est decroissante sur [0, ]. Un raisonnement similaire as-
sure que G est croissante sur [, [. On en deduit que G est majoree par
max(G(0), lim
a
G(a)). Comme cette derni`ere quantite est nulle, on en de-
duit que G(a) 0. Comme
G(a) = E[T1
Ta
] E[1
Ta
] = (P(T

a) P(T a)) ,
on en deduit que P(T

a) P(T a) pour tout a R.


297
XIII Corrections
5. Soit z R, on a
P(F
1
Z
(U) z) = P(U F
Z
(z)) = F
Z
(z),
car F
Z
(z) [0, 1]. On en deduit que F
1
Z
(U) et Z on meme fonction de repar-
tition et donc meme loi.
6. Soit F (resp. F

) la fonction de repartition de T (resp. T

). Soit U une variable


aleatoire uniforme sur [0, 1]. La variable

T = F
1
(U) (resp.

T

= F
1

(U)) a
meme loi que T (resp. T

). On a verie que F(x) F

(x) pour tout x R. Ceci


assure que pour tout u ]0, 1[, on a F
1
(x) F
1

(x), et donc p.s.



T

T

Exercice XI.13.
1. On utilise la methode de la fonction muette. Soit g une fonction mesurable
bornee. On a avec U =

XY et V =

Y
E[g(U, V )] = E[g(

XY ,

Y )]
=
_
g(

xy,

y)f
X,Y
(x, y) dxdy
=
_
g(

xy,

y)f
X
(x)f
Y
(y) dxdy
=

2+1/2
()( + 1/2)
_
]0,[
2
g(

xy,

y)(xy)
1/2
e
(x+y)
dxdy

x
,
o` u, pour la deuxi`eme egalite, on a utilise que, par independance, la densite de
la loi de (X, Y ) est le produit des densites des lois de X et de Y .
On consid`ere le changement de variable u =

xy, v =

y qui est un C
1
dif-
feomorphisme de ]0, [
2
dans lui meme. Le calcul du determinant du jacobien
de la transformation donne
dudv =
dxdy
4

x
.
On en deduit donc que
E[g(

XY ,

Y )] =
4
2+1/2
()( + 1/2)
_
]0,[
2
g(u, v)u
21
e
(v
2
+
u
2
v
2
)
dudv.
Ainsi la densite de la loi de (U, V ) est
f
(U,V )
(u, v) =
4
2+1/2
()( + 1/2)
u
21
e
(v
2
+
u
2
v
2
)
1
u>0,v>0
.
298
XIII.11 Controles `a mi-cours
2. Par la formule des lois marginales, la densite, f
U
, de la loi de U est
f
U
(u) =
_
f
(U,V )
(u, v) dv =
4
2+1/2
()( + 1/2)

u
21
e
2u
1
u>0
=
2

()( + 1/2)

2
u
21
e
2u
1
u>0
.
3. La densite est, `a une constante multiplicative pr`es, egale `a
2
u
21
e
2u
1
u>0
.
Il sagit donc de la densite de la loi (2, 2). En particulier, cette constante
mulptiplicative est egale `a 2
2
/(2). On en deduit alors la formule de dupli-
cation de la fonction .
Remarquons quil est facile de demontrer que h(u) =
_

0
e
(v
2
+
u
2
v
2
)
dv est en fait
egal `a

e
2u
. En eet, on a
h

(u) = 2u
_

0
e
(v
2
+
u
2
v
2
)
dv
v
2
= 2
_

0
e
(
u
2
w
2
+w
2
)
dw = 2h(u),
o` u lon a fait le changement de variable w = u/v. Ainsi h(u) = h(0) e
2u
. Il reste
`a calculer h(0). On a
h(0) =
_

0
e
v
2
dv =
1
2
_

e
v
2
dv =

e
v
2
/2(1/2)
dv
_
2(1/2)
=

,
o` u lon a utilise la parite de la fonction integree pour la premi`ere egalite et le fait
que lintegrale de la densite de la loi ^(0, 1/2) vaut 1 pour la derni`ere egalite.

Exercice XI.14.
I Sondage avec remise
1. La loi de n

Y
n
est la loi binomiale de param`etre (n, p). On a E[

Y
n
] = p et
Var(Y
n
) = p(1 p)/n. Les variables aleatoires (Y
n
, n 1) sont independantes
de meme loi et bornees (donc en particulier integrables et de carre integrable).
La loi forte des grands nombres assure que (

Y
n
, n 1) converge p.s. vers p.
On a Var(Y
1
) = p(1 p). Le TCL assure que (

n(

Y
n
p), n 1) converge
en loi vers
_
p(1 p)G, o` u G est de loi ^(0, 1). Le theor`eme de Slutsky im-
plique que ((

n(

Y
n
p),

Y
n
), n 1) converge en loi vers (
_
p(1 p)G, p).
La continuite de la fonction (x, y) x/
_
y(1 y) sur R]0, 1[ implique que
(

n(

Y
n
p)/
_

Y
n
(1

Y
n
), n 1) converge en loi vers G (on a utilise le fait
que 0 < p < 1).
299
XIII Corrections
2. Soit I
n
= [

Y
n
a

Y
n
(1

Y
n
)/

n], o` u a

est le quantile de la loi ^(0, 1)


dordre 1/2. Comme (

n(

Y
n
p)/
_

Y
n
(1

Y
n
), n 1) converge en loi vers
G et que G est une variable continue, on en deduit que
lim
n
P(p I
n
) = lim
n
P(

Y
n
p
_

Y
n
(1

Y
n
)
[a

, a

]) = P(G [a

, a

]) = 1.
Ainsi I
n
est un intervalle de conance sur p de niveau asymptotique 1 .
Comme

Y
n
(1

Y
n
) 1/4 car

Y
n
[0, 1], on en deduit que la demi largeur de
I
n
est plus petite que a

/2

n. Pour = 5% et n = 1000, on trouve a

1.96,
et
a

n
0.031. La precision du sondage est denviron 3 points.
II Sondage sans remise
II.1 Loi faible des grands nombres
1. On note x
+
= max(x, 0). La formule est evidente pour n = 1. Pour n 2, on
a
P(X
n
= 1[X
1
= x
1
, . . . , X
n1
= x
n1
) =
(N
A

n1
i=1
x
i
)
+
N n + 1
,
P(X
n
= 0[X
1
= x
1
, . . . , X
n1
= x
n1
) =
(N
B
(n 1

n1
i=1
x
i
))
+
N n + 1
.
La formule sobtient alors par recurrence. Elle est valable pour (n N
B
)
+

s min(n, N
A
).
2. On remarque que P((X
1
, . . . , X
n
) = (x
1
, . . . , x
n
)) ne depend que de

n
i=1
x
i
. En
particulier la loi de (X
1
, . . . , X
n
) est inchangee par permutation des variables
aleatoires.
3. La variable aleatoire X
1
est de loi de Bernoulli de param`etre p : E[X
1
] = p.
Dapr`es la question II.1.2, X
i
a meme loi que X
1
. Par linearite, on a donc
E[

X
n
] =
1
n

n
i=1
E[X
i
] = p.
4. On a X
1
= X
2
1
et donc E[X
2
1
] = p. On a
E[X
1
X
2
] = P(X
1
= 1, X
2
= 1) =
N
A
(N
A
1)
N(N 1)
=
N
N 1
p(p
1
N
).
Dapr`es la question II.1.2, pour tout i ,= j (X
i
, X
j
) a meme loi que (X
1
, X
2
) et
donc E[X
1
X
2
] = E[X
i
X
j
]. Il vient
E[

X
2
n
] =
1
n
2
_
_
n

i=1
E[X
2
i
] + 2

1i<jn
E[X
i
X
j
]
_
_
=
1
n
2
_
np +n(n 1)
N
N 1
p(p
1
N
))
_
.
300
XIII.11 Controles `a mi-cours
On obtient donc
Var(

X
n
) = E[

X
2
n
] E[

X
n
]
2
=
_
1
n 1
N 1
_
1
n
p(1 p).
Pour n = N, la variance est nulle : lestimation est exacte car on a interroge
tous les electeurs une et une seule fois.
5. Soit > 0. Linegalite de Tchebychev donne
P([

X
n
p[ )
E[(

X
n
p)
2
]

2
=
_
1
n 1
N 1
_
p(1 p)
n
2
.
Le membre de droite converge vers 0 quand N et n tendent vers linni. Ceci
assure la convergence en probabilite de

X
n
p vers 0.
II.2 Theor`eme central limite
1. On a avec s =

n
i=1
x
i
,
P((X
1
, . . . , X
n
) = (x
1
, . . . , x
n
)) =
s

i=1
N
A
i + 1
N i + 1
ns

j=1
N
B
j + 1
N s j + 1
=
s

i=1
N
A
i + 1
N i + 1
ns

j=1
_
1
N
A
s
N s j + 1
_

s
(1 )
ns
.
On en deduit que pour toute fonction continue bornee g, on a
E[g(X
1
, . . . , X
n
)] =

x
1
,...,xn0,1
g(x
1
, . . . , x
n
)P((X
1
, . . . , X
n
) = (x
1
, . . . , x
n
))

x
1
,...,xn0,1
g(x
1
, . . . , x
n
)
s
(1 )
ns
= E[g(V
1
, . . . , V
n
)].
Ceci implique donc (X
1
, . . . , X
n
) converge en loi vers (V
1
, . . . , V
n
) .
Montrons (XI.6). On a
P((X
1
, . . . , X
n
) = (x
1
, . . . , x
n
)) =
s

i=1
p (i 1)/N
1 (i 1)/N
ns

j=1
(1 p) (j 1)/N
1 (s +j 1)/N
= p
s
(1 p)
ns
n1

k=1
1
1
k
N
s

i=1
(1
i 1
N
A
)
ns

j=1
(1
j 1
N
B
).
301
XIII Corrections
Il existe une constante c
1
telle que pour n
2
/N 1, on a 1

n1
k=1
(1
k
N
)
(1
n
N
)
n
1 c
1
n
2
N
. Par ailleurs si (a
k
, k N

) et (b
k
, k N

) sont des suites


de nombres complexes de modules inferieurs `a 1 ([a
k
[ 1 et [b
k
[ 1 pour tout
k N

), il est facile de verier que

k=1
a
k

n

k=1
b
k

k=1
[a
k
b
k
[ .
En particulier, on a pour n min(N
A
, N
B
),

i=1
(1
i 1
N
A
)
ns

j=1
(1
j 1
N
B
) 1

i=1
i 1
N
A
+
ns

j=1
j 1
N
B

2n
2
min(N
A
, N
B
)
.
On en deduit donc (XI.6).
2. On a
[E[g
n
(X
1
, . . . , X
n
)] E[g
n
(Z
1
, . . . , Z
n
)][

x
1
,...,xn0,1
[g
n
(x
1
, . . . , x
n
)[

P
_
(X
1
, . . . , X
n
) = (x
1
, . . . , x
n
)
_
p
s
(1 p)
ns

MC
n
2
min(N
A
, N
B
)

x
1
,...,xn0,1
p
s
(1 p)
ns
= MC
n
2
min(N
A
, N
B
)
.
3. On a
[E[g
n
(Z
1
, . . . , Z
n
)] E[g
n
(V
1
, . . . , V
n
)][

x
1
,...,xn0,1
[g
n
(x
1
, . . . , x
n
)[[p
s
(1 p)
ns

s
(1 )
ns
[
M
_
[p,]
s
_
n
s
_
x
s
(1 x)
ns
dx
x
+
_
[1p,1]
(n s)
_
n
n s
_
x
ns
(1 x)
s
dx
x
= M
_
[p,]
E[S
x
]
dx
x
+
_
[1p,1]
E[S
x
]
dx
x
= 2Mn[p [,
o` u S
x
est une variable aleatoire de loi binomiale (n, x).
4. Les conditions impliquent que n
2
/ min(N
A
, N
B
) tend vers 0. On deduit des
questions precedentes que [E[g
n
(X
1
, . . . , X
n
)] E[g
n
(V
1
, . . . , V
n
)][ tend vers 0
pour toute fonction continue bornee.
302
XIII.11 Controles `a mi-cours
5. Soit G une variable aleatoire de loi gaussienne centree reduite. On a
[

n(

Xn)
(u)

(1)G
(u)[ [

n(

Xn)
(u)

n(

Vn)
(u)[
+[

n(

Vn)
(u)

(1)G
(u)[,
o` u

V
n
=
1
n

n
k=1
V
k
. Comme dans la premi`ere partie, (

n(

V
n
), n 1)
converge en loi vers
_
(1 )G. On deduit donc des questions precedentes, et
de la continuite de lexponentielle complexe, que [

n(

Xn)
(u)

(1)G
(u)[
tend vers 0. Ceci assure la convergence en loi de

n(

X
n
) vers
_
(1 )G.
Par ailleurs [p [ tend vers 0 et

X
n
p tend en probabilite vers 0, donc

X
n
converge en probabilite vers . On deduit du theor`eme de Slutsky que (

n(

X
n

),

X
n
) converge en loi vers (
_
(1 )G, ). Comme dans la premi`ere partie,
on en deduit donc que

n(

X
n
)/
_

X
n
(1

X
n
) converge en loi vers G.
6. On en deduit que J
n
= [

X
n
a

X
n
(1

X
n
)/

n], o` u a

est le quantile de
la loi ^(0, 1) dordre 1 /2 est un intervalle de conance sur de niveau
asymptotique 1. Comme p = +o(1/n), on en deduit que J
n
est egalement
un intervalle de conance sur p de niveau asymptotique 1. En conclusion si
N est grand devant n, il ny a pas de dierence sur la precision dun sondage
sans remise et dun sondage avec remise.
Si N et n tendent vers linni et
2
= Var(
n

k=1
X
k
) = np(1 p)(1
n 1
N 1
)
tend egalement vers linni, alors on peut montrer que n(

X
n
p)/ converge en
loi vers la loi gaussienne centree reduite
3
. On dispose egalement de majorations de
type Berry-Esseen pour la vitesse de convergence de la fonction de repartition de
n(

X
n
p)/ vers celle de la loi gaussienne centree reduite
4
. Ainsi, si n est grand
mais negligeable devant N, le comportement asymptotique de

n(

X
n
p) est le
meme pour un sondage avec remise et sans remise, et donc on obtient le meme
intervalle de conance pour un niveau asymptotique donne.

Exercice XI.15.
1. On note X
k
le numero de limage dans la tablette k. Les variables alea-
toires (X
k
, k N

) sont independantes et de loi uniforme sur 1, . . . , n.


On a T
n
= infk 2; X
k
X
1
, . . . , X
k1
. Soit k 2, . . . , n. On a
T
n
> k = T
n
> k 1, X
k
, X
1
, . . . , X
k1
. Par independance, on a
3
J. Hajek, Limiting distributions in simple random sampling from nite population, Pub. Math.
Inst. Hungarian Acad. Sci., vol. 5, pp. 361-374 (1960)
4
S.N. Lahiri, A. Chatterjee and T. Maiti, A sub-Gaussian Berry-Esseen Theorem for the hyper-
geometric distribution, arXiv (2006)
303
XIII Corrections
P(X
k
, X
1
, . . . , X
k1
[T
n
> k 1) = 1
k1
N
. Il vient donc P(T
n
> k) =
P(T
n
> k 1)
_
1
k1
N
_
. Comme P(T
n
> 1) = 1, on en deduit donc que
P(T
n
> k) =

k
i=1
_
1
i1
n
_
. Cette formule est valable pour k N

.
2. On a, pour x 0, P(T
n
/

n x) = 0. Soit x > 0. On a
P(T
n
/

n x) = 1 P(T
n
> [

nx]) = 1 e
P
[

nx]
i=1
log(1
i1
n
)
.
Pour i 1, . . . , [

nx], on a log(1
i1
n
) =
i1
n
+
(i1)
2
n
2
g((i 1)/n), o` u g
est une fonction bornee. On en deduit que
[

nx]

i=1
log(1
i 1
n
) =
1
2n
[

nx]([

nx] 1) +O(n
1/2
).
On en deduit donc que pour tout x R, on a lim
n
P(T
n
/

n x) = F(x)
avec F(x) = (1 e
x
2
/2
)1
x>0
. La fonction F est croissante nulle en et
vaut 1 en +. Il sagit de la fonction de repartition dune variable aleatoire
reelle X.
3. Comme la fonction F est continue et de classe C
1
sauf en 0, on en deduit que
la loi de X poss`ede la densite F

(x) = 2xe
x
2
1
x>0
.
4. Remarquons que P(X
2
x) = P(X

x)1
x>0
= (1 e
x/2
)1
x>0
. On en
deduit que X
2
est de loi exponentielle de param`etre 1/2.
5. On a p
k
= P(T
n
> k) avec n = 365. On obtient les approximations suivantes :
p
k
= P(T
n
> k) = P(T
n
/

n > k/

n) e
k
2
/2n
.
En utilisant cette approximation, on obtient pour n = 365
p
23
0.484, p
40
0.112 et p
366
2 10
80
.
Les valeurs exactes (`a 10
3
pr`es) sont
p
23
0.493, p
40
0.109 et p
366
= 0.

Exercice XI.16.
I

Etude asymptotique
1. Il sagit de variables aleatoires independantes de loi de Bernoulli de param`etre
.
304
XIII.11 Controles `a mi-cours
2. On a
N
n
n
=
1
n
+
n 1
n
1
n 1
n

k=2
Z
k
. On deduit de la loi forte des grands
nombres que la suite (N
n
/n, n 1) converge p.s. vers E[Z
2
] = .
3. On a

n
k=1
kF
(k)
n
= n,

n
k=1
F
(k)
n
= N
n
et

n
k=1
E[F
(k)
n
] = 1 +(n 1).
4. Le nombre de botes contenant une boule augmente de 1 si on rajoute une
boule `a une bote ayant k 1 boules et diminue de 1 si on rajoute une boule `a
une bote contenant dej`a k boules. On a donc
F
(k)
n+1
= F
(k)
n
+1
Y
n+1
=k1
1
Y
n+1
=k
. (XIII.6)
5. Par construction, conditionnellement `a Z
n+1
= 0 et `a (F
(k)
n
, k N

), la
probabilite de choisir une bote est proportionel `a son nombre de boules. En
particulier la probabilite de choisir une bote contenant k boules est proportio-
nel `a kF
(k)
n
, car il y a F
(k)
n
botes contenant k boules. Comme

n
k=1
kF
(k)
n
= n,
on en deduit que la probabilite de choisir une bote contenant k boules est
kF
(k)
n
/n. On en deduit donc que conditionnellement `a Z
n+1
= 0 la probabi-
lite de choisir une bote contenant k boules est E[kF
(k)
n
/n] = kp
n
(k).
6. En prenant lesperance dans (XIII.6), on en deduit
(n + 1)p
n+1
(1) = np
n
(1) + (1 )p
n
(1), (XIII.7)
(n + 1)p
n+1
(k) = np
n
(k) + (1 ) ((k 1)p
n
(k 1) kp
n
(k)) , pour k 2.
(XIII.8)
7. Les equations stationnaires donnent pour (XIII.7) : p(1) = (1 )p(1)
soit
p(1) =
1
2
=

1 +
et pour (XIII.8) : (1 + (1 )k)p(k) = (1 )(k 1)p(k 1) soit p(k) =
k 1
k +
p(k 1).
Pour completer le resultat, nous montrons un resultat qui assure que (F
(k)
n
/n, n
1) converge en probabilite vers p(k). Pour k 2, on pose f
n
(k) = np(k), o` u p(k)
est deni par (XI.7) et
n
(k) = F
(k)
n
f
n
(k). On deduit de (XIII.6) que

n+1
(k) =
n
(k) +1
Y
n+1
=k1
1
Y
n+1
=k
p(k).
et donc

n+1
(k)
2
=
n
(k)
2
+1
Y
n+1
=k1
+1
Y
n+1
=k
+
2
p(k)
2
+2
n
(k)
_
1
Y
n+1
=k1
1
Y
n+1
=k
_
2
n
(k)p(k) 2
_
1
Y
n+1
=k1
1
Y
n+1
=k
_
p(k).
305
XIII Corrections
On pose
h
n
=

kN

E[
n
(k)
2
]
et par convention
n
(k 1) = p(k 1) = 0 pour k = 1. Il vient
h
n+1
=

kN

E[
n+1
(k)
2
]
=h
n
+

kN

_
P(Y
n+1
= k 1) +P(Y
n+1
= k) +
2
p(k)
2
_
+ 2
1
n

kN

E[
n
(k) ((k 1)
n
(k 1) k
n
(k))]
+ 2(1 )

kN

E[
n
(k)] ((k 1)p(k 1) kp(k)) + 2E[
n
(1)]
2

kN

p(k)E[
n
(k)] 2

kN

p(k) (P(Y
n+1
= k 1) P(Y
n+1
= k))
=h
n
_
1
1
n
_
+ 2 +
2

kN

p(k)
2
2

kN

p(k) (P(Y
n+1
= k 1) P(Y
n+1
= k))

1
n

kN

(k 1)E
_
(
n
(k)
n
(k 1))
2

h
n
_
1
1
n
_
+ 4.
Remarquons que h
1
= E[(1 p(1))
2
] +
2

k2
p(k)
2
2. Il est alors imme-
diat de montrer par recurrence que h
n
4n/(2 ). On en deduit donc que
(
1
n
2

kN

n
(k)
2
, n 1) converge dans L
1
et en probabilite vers 0. En particu-
lier, la suite (sup
kN

F
(k)
n
n
p(k)

, n 1) converge dans L
1
et en probabilite vers
0. Ce resultat est plus fort que celui utilise dans lenonce de lexercice.
II Loi de Yule
1. On a
p(k) =
(k 1) 1
(k +) (2 +)
p(1) =
(k)( + 1)
(k + + 1)
= B(k, + 1).
On a egalement
306
XIII.11 Controles `a mi-cours

r=k
p(r) =
_
]0,1[

r=k
x
r1
(1 x)

dx =
_
]0,1[
x
k1
(1 x)
1
dx = B(k, ).
En particulier

r=1
p(r) = 1. Comme de plus p(k) 0 pour k N

, on en
deduit que (p(k), k N

) denit une probabilite sur N

.
2. Par la formule de Stirling, on a p(k) = B(k, + 1) =
( + 1)
k
+1
(1 + o(1)) et

r=k
p(r) = B(k, ) =
( + 1)
k

(1 +o(1)).
3. Soit Y de loi de Yule de param`etre > 0. Soit V
x
une variable aleatoire de loi
geometrique de param`etre 1 x ]0, 1[. On rappelle que E[V
x
] = 1/(1 x) et
E[V
2
x
] = Var(V
x
) + E[V
x
]
2
= (1 + x)/(1 x)
2
. On a, en utilisant Fubini pour
permuter lintegration (en x) et la sommation (en k),
E[Y ] =
_
]0,1[

kN

kx
k1
(1x)

dx =
_
]0,1[
E[V
x
](1x)
1
dx =
_
]0,1[
(1x)
2
dx.
On obtient donc E[Y ] = + si ]0, 1] et E[Y ] =

1
si ]1, [. On a
egalement
E[Y
2
] =
_
]0,1[

kN

k
2
x
k1
(1 x)

dx =
_
]0,1[
E[V
2
x
](1 x)
1
dx
et donc E[Y
2
] =
_
]0,1[
(1+x)(1x)
3
dx. Il vient E[Y
2
] = + pour ]0, 2]
et pour ]2, [,
E[Y
2
] = 2
_
]0,1[
(1 x)
3
dx
_
]0,1[
(1 x)
2
dx =

2
( 1)( 2)
Pour > 2, on obtient Var(Y ) =

2
( 1)
2
( 2)
.

Exercice XI.17.
I Le cas `a une periode : de N 1 `a N
1. On deduit de (XI.10) en n = N 1 et de V
N
= h(S
N
) que
0
N1
(1 +r)S
0
N1
+

N1
X
N
S
N1
= h(X
N
S
N1
). On obtient les deux equations en considerant
les evenements X
N
= 1 +m et X
N
= 1 +d.
307
XIII Corrections
2. La resolution du syst`eme lineaire elementaire donne

N1
=
1
S
N1
h((1 +m)S
N1
) h((1 +d)S
N1
)
md
= (N, S
N1
).
3. On a
V
N1
=
0
N1
S
0
N1
+
N1
S
N1
=
1
1 +r
h((1 +m)S
N1
)
1
1 +r

N1
(1 +m)S
N1
+
N1
S
N1
= (1 +r)
1
_
r d
md
h((1 +m)S
N1
) +
mr
md
h((1 +d)S
N1
)
_
= v(N 1, S
N1
).
II Le cas general
1. On a, en utilisant lindependance des variables X
n
et (X
n+1
, . . . , X
N
) sous P

,
v(n 1, s) = (1 +r)
N+n1
E

_
h(s
N

k=n
X
k
)
_
= (1 +r)
N+n1

xn,...,x
N
1+d,1+m
h(s
N

k=n
x
k
)P

(X
n
= x
n
, . . . , X
N
= x
N
)
= (1 +r)
1

xn1+d,1+m
P

(X
n
= x
n
)(1 +r)
N+n

x
n+1
,...,x
N
1+d,1+m
h(sx
n
N

k=n+1
x
k
)P

(X
n+1
= x
n+1
, . . . , X
N
= x
N
)
= (1 +r)
1

xn1+d,1+m
P

(X
n
= x
n
)v(n, sx
n
)
= (1 +r)
1
E

[v(n, sX
n
)] .
2. On demontre le resultat par recurrence descendante. Le resultat est vrai au
rang N 1 dapr`es la partie I. Supposons quil soit vraie au rang N


1, . . . , N 1. Les calculs de la partie avec N remplace par N

et h par
v(N

, ) assurent que
N

1
= (N

, S
N

1
) et V
N

1
= w(S
N

1
) o` u w(s) =
(1+r)
1
E[v(N

, sX
N
)] = v(N

1, s) dapr`es la question precedente. Lhypo-


th`ese de recurrence est satisfaite au rang N

1. Le resultat est donc vrai.


3. La construction par recurrence descendante assure que la strategie autonancee
de couverture pour loption h existe et est unique. Son prix `a linstant initial
est
308
XIII.11 Controles `a mi-cours
V
0
= v(0, S
0
) = (1 +r)
N
E

_
h(S
0
N

k=1
X
k
)
_
= (1 +r)
N
E

[h(S
N
)] .
4. Si le mod`ele est juste, il ny a pas de risque. Mais le mod`ele est-il juste ? Les
taux dinteret ne sont pas xe, les increments relatifs dun actifs risque ne
prennent pas que les deux valeurs 1 +m et 1 +d, ... Il existe donc un risque de
mod`ele. Ce risque est important en pratique, cest une des causes de lampleur
de la crise nanci`ere actuelle.
III Call et Put
1. On a par independance
E

_
N

k=n+1
X
k
_
=
N

k=n+1
E

[X
k
] = E

[X
1
]
Nn
= (1 +r)
Nn
.
2. Avec pour h la fonction identite, il vient v(n, s) = s et (n, s) = 1. On en
deduit que la valeur de la strategie `a linstant n est S
n
et quil faut detenir `a
cet instant un actif risque. La strategie autonancee de couverture pour loption
qui promet un actif risque `a linstant N consiste `a acheter un actif risque `a
linstant 0 et de le garder jusqu`a linstant N. Le prix initial de cette strategie
est S
0
.
3. Apr`es avoir remarque que (xK)
+
(Kx)
+
= (xK), on deduit de (XI.12)
et de la question III.1 avec n = 0 que
C(S
0
, K, N) P(S
0
, K, N) = (1 +r)
N
E

[(S
N
K)
+
(K S
N
)
+
]
= (1 +r)
N
E

[S
N
K]
= (1 +r)
N
E

[
N

k=1
X
k
]S
0
(1 +r)
N
K
= S
0
(1 +r)
N
K.
4. Soit (Y
n
, n N

) des variables aleatoires independantes de loi de Bernoulli de


param`etre (r d)/(md). On pose

X
n
= (1+m)
Y
k
(1+d)
1Y
k
et on remarque
que les variables aleatoires (

X
n
, n N

) ont meme loi que (X


n
, n N

). On
en deduit que
E

_
(s
N

k=1
X
k
K)
+
_
= E
_
(s
N

k=1

X
k
K)
+
_
= E
_
(s(1 +m)
Z
N
(1 +d)
NZ
N
K)
+

,
o` u Z
N
=

N
k=1
Y
k
est de loi binomiale de param`etre (N, (r d)/(m d)). La
formule en decoule.
309
XIII Corrections

Exercice XI.18.
I Code `a repetition
1. Par construction, on a :
p
f,g
= P(E
1
+E
2
+E
3
2) = p
3
+ 3p
2
(1 p) = p
2
(3 2p).
Comme p ]0, 1/2[, on peut verier que p
f,g
< p.
2. Si on consid`ere un code `a repetition de longueur impaire n = 2n

+1 avec r`egle
de la majorite pour le decodage, on obtient une probabilite derreur pour un
message de longueur m = 1 :
p
f,g
= P(
n

k=1
E
k
n

+ 1) P(

E
n
1/2),
o` u

E
n
=
1
n

n
k=1
E
k
. La loi forte des grands nombres assure que p.s. lim
n

E
n
=
p < 1/2. Le theor`eme de convergence dominee implique que lim
n
P(

E
n

1/2) = 0. Pour > 0 xe, on peut trouver, en choisissant n susamment grand
un code de repetition dont la probabilite derreur soit inferieure `a . Le taux
de transmission 1/n est alors proche de 0 car n est grand.
II Probabilites dev`enements rares
1. La loi forte des grands nombres assure (cf. la reponse `a la question I.2) que la
probabilite de lev`enement

V
n
a converge vers 0 quand n tend vers linni.
On remarque que le theor`eme de la limite centrale assure que les ev`enements

V
n
+c/

n ont une probabilite qui converge vers une limite non nulle.
2. On remarque que 1

Vna
e

P
n
i=1
V
i
na
. En prenant lesperance puis en
utilisant lindependance, il vient :
P(

V
n
a) E
_
e

P
n
i=1
V
i
na
_
= E
_
e
V
1
_
n
e
an
.
3. On a

(v)

2
v
=
1
v
+
1
1 v
> 0.
La fonction

est donc strictement convexe sur ]0, 1[. Il est immediat de verier
quelle sannule en ainsi que sa derivee. Elle atteint donc son minimum en 0.
310
XIII.11 Controles `a mi-cours
4. On consid`ere la fonction h denie pour > 0 par :
h() = E
_
e
V
1
_
e
a
= p e
(1a)
+(1 p) e
a
.
La fonction h est strictement convexe (car h

> 0). On a h

() = 0 pour =
0
deni par e

0
= a(1 p)/(p(1 a)). On remarque que h(
0
) = e

(a)
. On
deduit de la question precedente que
P(

V
n
> a) P(

V
n
a) h(
0
)
n
= e
n

(a)
.
5. On pose V

i
= 1 V
i
. Les variables aleatoires (V

n
, n N

) sont independantes
de loi de Bernoulli de param`etre 1 . En utilisant (XI.15) avec V

au lieu de
V et a = 1 b, on obtient
P(

V
n
b) = P(

V

n
1 b) e
n

1
(1b)
= e
n

(b)
.
III Codes presque optimaux
1. Soit (V
1
, . . . , V
n
) des variables aleatoires independantes de loi uniforme sur
0, 1. On remarque que [Z
xi
z
i
[ a meme loi que V
i
. On en deduit que (Z
x
, z)
a meme loi que

n
i=1
V
i
et donc suit une loi binomiale de param`etre (n, 1/2).
2. En utilisant (XI.16), il vient :
P
_
(Z
x
, Z
x
) nr[Z
x
= z
_
= P((Z
x
, z) rn) = P(

V
n
r) e
n

1/2
(r)
.
3. On a :
P
_
(Z
x
, Z
x
) nr) =

z0,1
n
P
_
(Z
x
, Z
x
) nr[Z
x
= z
_
P(Z
x
= z) e
n

1/2
(r)
.
On en deduit que :
h(x)

0,1
n
,x

,=x
P
_
(Z
x
, Z
x
) nr
_
2
m
e
n

1/2
(r)
.
4. Soit x 0, 1
m
. On remarque que si pour tout x

,= x, on a (Z
x
, Z
x
) > nr et
(0, E) nr alors on a g(f(x)+E) = x. En particulier g(f(x)+E) ,= x est in-
clus dans la reunion des deux ev`enements suivants Il existe x

,= x tel que (Z
x
, Z
x
)
nr et (Z
x
, Z
x
+E) nr = (E, 0) nr. On en deduit donc que :
P
_
g(f(x) +E) ,= x
_
h(x) +P((0, E) > nr).
311
XIII Corrections
Comme X est independant de E et (Z
x
, x 0, 1
m
), on en deduit que :
P
_
g(f(X) +E) ,= X
_
=

x0,1
m
P
_
g(f(X) +E) ,= X[X = x
_
P(X = x)
=

x0,1
m
P
_
g(f(x) +E) ,= x
_
P(X = x)

x0,1
m
(h(x) +P((0, E) > nr)) P(X = x)
= E[h(X)] +P((0, E) > nr).
5. On a E[h(X)] 2
m
e
n

1/2
(r)
et P((0, E) > nr) = P(

E
n
> r) e
n

p
(r)
dapr`es (XI.15).
6. On a :
2
m
e
n

1/2
(r)
= e
n

m
n

1/2
(r)

.
Cette quantite converge vers 0 quand n tend vers linni d`es que
m
n
<

1/2
(r)

0
pour
0
> 0 xe. Par ailleurs, la question II.3 assure que

1/2
(r)

1/2
(p)
est positif, mais peut etre choisi aussi petit que lon veut (avec r proche de p).
Donc, pour > 0 xe, on peut trouver r tel que 0 <

1/2
(r)

1/2
(p) < /3.
Pour m et n qui tendent vers linni et tels que c
p
m/n < c
p
2/3,
on a que 2
m
e
n

1/2
(r)
converge vers 0. La question II.3 assure egalement que

p
(r) est strictement positif et donc e
n

p
(r)
converge vers 0 quand n tend vers
linni.
On en deduit que P
_
g(f(X) + E) ,= X
_
< pour m et n qui susamment
grands et tels que c
p
m/n < c
p
2/3. Dans la probabilite derreur prece-
dente, les fonctions de codage et de decodage sont aleatoires et independantes
du message et des erreurs. On en deduit donc quil en existe au moins une
(deterministe) telle que sa probabilite derreur soit tr`es faible pour un taux de
transmission proche de c
p
.

XIII.12 Controles de n de cours


Exercice XII.1.
1. La densite conditionnelle est f
X[Y
(x[y) = f
X,Y
(x, y)/f
Y
(y). Donc la densite de
la loi de (X, Y ) est
f
X,Y
(x, y) = f
Y
(y)f
X[Y
(x[y) =
1

e
y(1+x
2
)
1
y>0
.
312
XIII.12 Controles de n de cours
2. Par la formule des lois marginales, on a f
X
(x) =
_
R
f
X,Y
(x, y) dy =
1

1
1+x
2
.
On peut remarquer que L(X) est la loi de Cauchy. Par denition, on a
f
Y [X
(y[x) = f
X,Y
(x, y)/f
X
(x) = (1 +x
2
) e
y(1+x
2
)
1
y>0
.
La loi de Y sachant X est la loi exponentielle de param`etre 1 +X
2
.
3. Lesperance dune variable aleatoire de loi exponentielle de param`etre est
1/. On en deduit donc que
E[Y [X] =
1
1 +X
2
.

Exercice XII.2.

Etude simpliee de la repartition dun genotype dans la population


humaine
I Distribution du genotype : le mod`ele de Hardy-Weinberg
1. On note (E
1
, E
2
) les g`enes de lenfant. E
1
represente le g`ene transmis par la
m`ere et E
2
celui transmis par le p`ere. Lespace detats est
= (E
1
, E
2
); E
1
M
1
, M
2
et E
2
P
1
, P
2
,
o` u M
1
M
2
est le genotype de la m`ere et P
1
P
2
celui du p`ere. Remarquons que
le genotype de lenfant est soit E
1
E
2
soit E
2
E
1
: on ne distingue pas la prove-
nance des g`enes. On suppose les transmissions des g`enes de la m`ere et du p`ere
independants et independants des g`enes a ou A. On choisit sur la probabilite
uniforme. Donc on a
P(E = aa[M = aA, P = aA) =
Card (E
1
, E
2
) = (a, a); E
1
A, a et E
2
a, A
Card (E
1
, E
2
); E
1
A, a et E
2
a, A
=
1
4
,
P(E = aa[M = aa, P = aA) =
Card (E
1
, E
2
) = (a, a); E
1
a et E
2
a, A
Card (E
1
, E
2
); E
1
a et E
2
a, A
=
1
2
,
et par symetrie
P(E = aa[M = aA, P = aa) =
1
2
,
P(E = aa[M = aa, P = aa) = 1.
313
XIII Corrections
2. En distinguant tous les genotypes possibles pour les parents qui peuvent don-
ner lieu au genotype aa pour lenfant, il vient en utilisant la denition des
probabilites conditionnelles :
P(E = aa) =P(E = aa[M = aA, P = aA)P(M = aA, P = aA)
+P(E = aa[M = aa, P = aA)P(M = aa, P = aA)
+P(E = aa[M = aA, P = aa)P(M = aA, P = aa)
+P(E = aa[M = aa, P = aa)P(M = aa, P = aa).
On suppose les mariages aleatoires. En supposant le genotype de la m`ere et
du p`ere independant et de meme repartition, on a P(M = i, P = j) = P(M =
i)P(P = j) = u
i
u
j
. On obtient P(E = aa) =
_
u
1
+
u
2
2
_
2
.
3. Par symetrie on a P(E = AA) =
_
u
3
+
u
2
2
_
2
.
4. En passant au complement on a P(E = aA) = 1 P(E ,= aA) = 1 P(E =
aa) P(E = AA) car les ev`enements E = aa et E = AA sont disjoints.
Donc on a P(E = aA) = 1
2
(1 )
2
= 2(1 ).
5. Le param`etre `a la seconde generation est
2
= q
1
+
q
2
2
= . La repartition est
identique `a celle de la premi`ere generation. La repartition est donc stationnaire
au cours du temps.
II Mod`ele probabiliste
1. Les v.a.
_
1
X
i
=j
, i 1, . . . , n
_
sont des v.a. independantes de meme loi :
la loi de Bernoulli de param`etre q
j
. La loi de N
j
est donc une binomiale de
param`etre (n, q
j
).
2. E[N
j
] = nq
j
et Var(N
j
) = nq
j
(1 q
j
).
3. N
j
/n est un estimateur sans biais de q
j
. Comme 1
X
i
=j
est integrable, on deduit
de la loi forte des grands nombres que N
j
/n est un estimateur convergent.
4. Comme 1
X
i
=j
est de carre integrable avec Var 1
X
1
=j
= q
j
(1 q
j
), on deduit
du theor`eme de la limite centrale que

n
_
N
j
n
q
j
_
converge en loi vers
^(0, q
j
(1 q
j
)). Lestimateur
N
j
n
est donc un estimateur asymptotiquement
normal de variance asymptotique q
j
(1 q
j
).
5.
P(N
1
= n
1
, N
2
= n
2
, N
3
= n
3
) =

(x
1
, . . . , x
n
) 1, 2, 3
n
Card i; x
i
= 1 = n
1
Card i; x
i
= 2 = n
2
P(X
1
= x
1
, . . . , X
n
= x
n
)
314
XIII.12 Controles de n de cours
par independance, et comme les X
i
ont meme loi
=

(x
1
, . . . , x
n
) 1, 2, 3
n
Card i; x
i
= 1 = n
1
Card i; x
i
= 2 = n
2
q
n
1
1
q
n
2
2
q
nn
1
n
2
3
=
n!
n
1
!n
2
!n
3
!
q
n
1
1
q
n
2
2
q
n
3
3
.
6. La matrice de covariance de Z
1
=
_
1
X
i
=1
, 1
X
i
=2
_

est
=
_
Var 1
X
1
=1
Cov(1
X
1
=1
, 1
X
1
=2
)
Cov(1
X
1
=1
, 1
X
1
=2
) Var 1
X
1
=2
_
=
_
q
1
(1 q
1
) q
1
q
2
q
1
q
2
q
2
(1 q
2
)
_
.
Par independance, on a Cov(N
1
, N
2
) = nCov(1
X
1
=1
, 1
X
1
=2
) = nq
1
q
2
.
Les variables aleatoires N
1
et N
2
ne sont pas independantes.
7. Les variables aleatoires vectorielles Z
i
= (1
X
i
=1
, 1
X
i
=2
)

sont independantes,
de meme loi et de carres integrables. Le theor`eme de la limite centrale
vectoriel assure que

n
_
n

i=1
Z
i
nE[Z
i
]
_
=
_
N
1
[n] nq
1

n
,
N
2
[n] nq
2

n
_

converge en loi quand n vers la loi gaussienne ^(0, ).


III Estimation de `a laide du genotype
1. c = log
n!
n
1
!n
2
!n
3
!
+n
2
log 2.
2. V
n
=
L
n
(N
1
, N
2
, N
3
; )

=
2N
1

+
N
2


N
2
1

2N
3
1
.
3.
I
n
() = E

2
L
n
(N
1
, N
2
N
3
; )

2
_
= E

_
2N
1

2
+
N
2

2
+
N
2
(1 )
2
+
2N
3
(1 )
2
_
=
2n
(1 )
.
4. Si (n
1
, n
2
) ,= (0, 0) et (n
2
, n
3
) ,= (0, 0), alors
lim
0
L
n
(n
1
, n
2
, n
3
; ) = lim
1
L
n
(n
1
, n
2
, n
3
; ) = .
Pour trouver les maximums on regarde les zeros de
315
XIII Corrections
L
n
(n
1
, n
2
, n
3
; )

=
2n
1

+
n
2


n
2
1

2n
3
1
.
On trouve un seul zero : =
n
1
n
+
n
2
2n
. Si (n
1
, n
2
) = (0, 0), alors L
n
(n
1
, n
2
, n
3
; ) =
c +nlog . Le maximum est atteint pour = 0 =
n
1
n
+
n
2
2n
. Si (n
2
, n
3
) = (0, 0),
alors L
n
(n
1
, n
2
, n
3
; ) = c + nlog(1 ). Le maximum est atteint pour
= 1 =
n
1
n
+
n
2
2n
. Dans tous les cas le maximum de la vraisemblance est
atteint en un point unique =
n
1
n
+
n
2
2n
. Donc

n
=
N
1
n
+
N
2
2n
est lestimateur
du maximum de vraisemblance de .
5. Oui. Par linearite de lesperance, on deduit de II.2. que E

n
_
=
2
+(1
) = .
6. On a
Var

n
=
1
4n
2
Var(2N
1
+N
2
) =
1
4n
2
[4 Var(N
1
) + Var(N
2
) + 4 Cov(N
1
, N
2
)]
gr ace aux questions II.2 et II.6,
=
1
4n
[4q
1
(1 q
1
) +q
2
(1 q
2
) 4q
1
q
2
] =
(1 )
2n
.
La borne FCDR est I
n
()
1
=
(1 )
2n
. Lestimateur est donc ecace. On
peut remarquer sur lequation (2) quil sagit dun mod`ele exponentiel.
7. En utilisant les resultats de II.3, on a que

n
est un estimateur convergent
de . En remarquant que

n
=

n
i=1
_
1,
1
2
_
Z
i
, on deduit du II.7 que

n
est
asymptotiquement normal de variance asymptotique lim
n
nVar

n
=
(1 )
2
.
IV Tests asymptotiques sur le mod`ele de Hardy-Weinberg
1. Lestimateur du maximum de vraisemblance de q = ( q
1
, q
2
, q
3
) est le vecteur
des frequences empiriques
_
N
1
n
,
N
2
n
,
N
3
n
_
.
2. Par le corollaire sur le test de Hausmann, on sait que
(1)
n
= n
3

j=1
( q
j
q
j
(

n
))
2
q
j
converge sous H
0
en loi vers un
2
`a 3 1 1 = 1 degre de liberte. Rappelons
que lon enl`eve un degre de liberte pour lestimation de ]0, 1[ R.
3. W
n
=
_

(1)
n
z
_
est la region critique dun test asymptotique convergent
de niveau = P(
2
(1) z).
316
XIII.12 Controles de n de cours
4. On a
n = 3, 88 10
6

n
= 1, 9853 10
2
n
1
= 1580 q
1
= 4, 0722 10
4
q
1
(

n
) = 3, 9415 10
4
n
2
= 150900 q
2
= 3, 8892 10
2
q
2
(

n
) = 3, 8918 10
2
n
3
= 1580 q
3
= 9, 6070 10
1
q
3
(

n
) = 9, 6068 10
1
.
On obtient
(1)
n
= 1.69. Pour 5% = P(
2
(1) z), on lit dans la table z = 3, 84.
Comme
(1)
n
3, 84, on accepte donc H
0
au seuil de 5%.
5. On obtient
(1)
n
= 1163. Comme
(1)
n
3, 84, on rejette donc H
0
au seuil de
5%. En fait le g`ene responsable de lhemophilie est porte par le chromosome
sexuel X. Le genotype pour la population feminine est donc aa, aA ou AA. En
revanche le genotype pour la population masculine est a ou A. Le mod`ele de
Hardy-Weinberg nest plus adapte.

Exercice XII.3.
1. Lestimateur du maximum de vraisemblance, p, de p est le vecteur des fre-
quences empiriques. On a donc p = (0, 606; 0, 186; 0, 173; 0, 035).
2. La dimension du vecteur p est 4. Il faut tenir compte de la contrainte p
J,N
+
p
W,N
+ p
J,C
+ p
W,C
= 1. Enn lhypoth`ese dindependance revient `a dire que
p = h(p
J
, p
N
), o` u p
J
est la probabilite de natre un jour ouvrable et p
N
la
probabilite pour que laccouchement soit sans cesarienne. En particulier, on a
p
J,N
= p
J
p
N
, p
W,N
= (1p
J
)p
N
, p
J,C
= p
J
(1p
N
) et p
W,C
= (1p
J
)(1p
N
). Il
faut tenir compte des deux estimations : celle de p
J
et celle de p
N
. Le nombre de
degres de liberte du test du
2
est donc q=4-1-2=1. Lestimateur du maximum
de vraisemblance p
J
, de p
J
, et p
N
, de p
N
, est celui des frequences empiriques.
On a donc p
J
= 0.779 et p
N
= 0.792. La statistique du
2
est

(1)
n
= n
( p
J,N
p
J
p
N
)
2
p
J,N
+n
( p
W,N
(1 p
J
) p
N
)
2
p
W,N
+n
( p
J,C
p
J
(1 p
N
))
2
p
J,C
+n
( p
W,C
(1 p
J
)(1 p
N
))
2
p
W,C
.
On obtient
(1)
n
18 219. On lit dans la table du
2
que P(X > 11) 0, 1%,
o` u la loi de X est
2
(1). On rejette donc lhypoth`ese dindependance au niveau
de 99,9%. (On aurait egalement pu utiliser la statistique
(2)
n
, avec dans notre
cas particulier
(2)
n
15 594.)
3. La dimension du vecteur p est 4. Il faut tenir compte de la contrainte p
J,N
+
p
W,N
+p
J,C
+p
W,C
= 1. Enn on teste p = p
0
, avec p
0
= (0, 605; 0, 189; 0, 17; 0, 036).
317
XIII Corrections
Il ny a pas de param`etre `a estimer. Le nombre de degres de liberte du test du

2
est donc q=4-1=3. La statistique du
2
est

(1)
n
= n
( p
J,N
p
0
J,N
)
2
p
J,N
+n
( p
J,N
p
0
J,N
)
2
p
W,N
+n
( p
J,C
p
0
J,C
)
2
p
J,C
+n
( p
W,C
p
0
W,C
)
2
p
W,C
.
On obtient
(1)
n
412. On lit dans la table du
2
que P(X > 17) 0, 1%,
o` u la loi de X est
2
(3). On rejette donc lhypoth`ese au niveau de 99,9%. Il y
a donc une evolution entre 1996 et 1997. (On aurait egalement pu utiliser la
statistique
(2)
n
, avec dans notre cas particulier
(2)
n
409.)

Exercice XII.4.
I Modelisation
1. Les variables aleatoires X
1
, . . . , X
n
sont independantes de loi de Bernoulli de
param`etre p = n
0
/N.
2. La variable aleatoire est discr`ete. Sa densite est donnee par p(x
1
; p) = P
p
(X
1
=
x
1
), avec x
1
0, 1.
3. La densite de lechantillon est
p
n
(x; p) =
_
p
1 p
_
P
n
i=1
x
i
(1 p)
n
, o` u x = (x
1
, . . . , x
n
) 0, 1
n
.
4. Remarquons que p
n
(x; p) = (S
n
(x), p), o` u (y, p) = p
y
(1 p)
ny
et S
n
(x) =

n
i=1
x
i
. Par le theor`eme de factorisation, on deduit que la statistique S
n
=

n
i=1
X
i
est exhaustive. La statistique S
n
est en fait totale, car il sagit dun
mod`ele exponentiel. On peut demontrer directement que la statistique est to-
tale.
5. Pour que h(S
n
) soit integrable, il faut et il sut que h, denie sur 0, . . . , n,
soit bornee. On a alors
E
p
[h(S
n
)] =
n

k=0
C
k
n
h(k)p
k
(1 p)
nk
.
En prenant la limite de lexpression ci-dessus pour p 0, il vient lim
p0
E
p
[h(S
n
)] =
h(0). Soit = h(S
n
) un estimateur integrable sans biais de 1/p. On a donc
E
p
[h(S
n
)] = 1/p. En regardant p 0, on deduit de ce qui prec`ede que
h(0) = +. Or h(S
n
) est integrable, implique que h est bornee. Il y a donc
contradiction. Il nexiste pas destimateur sans biais de 1/p fonction de S
n
.
318
XIII.12 Controles de n de cours
6. Soit un estimateur (integrable) sans biais de 1/p. Alors lestimateur E
p
[[S
n
] =
h(S
n
) est un estimateur sans biais de 1/p, qui est fonction de S
n
seulement.
Cela est absurde dapr`es la question precedente. Il nexiste donc pas destima-
teur sans biais de 1/p.
II Estimation asymptotique
1. Les variables aleatoires (X
i
, i N

) sont independantes, de meme loi et inte-


grables. On deduit de la loi forte des grands nombres que la suite (S
n
/n, n
N

) converge P
p
-p.s. vers p. Comme lim
n
n
n + 1
= 1 et lim
n
1
n + 1
= 0, on en
deduit
n
n + 1
S
n
+
1
n + 1
Pp-p.s.
p quand n . Comme la fonction g(x) = 1/x
est continue en p, on en deduit que
n + 1
S
n
+ 1
Pp-p.s.
1/p quand n .
Lestimateur n
0
n + 1
S
n
+ 1
est lestimateur de Bailey de N. Lestimateur de Pe-
tersen n
0
n
S
n
est egalement un estimateur convergent de N, mais il nest pas
integrable.
2. On a
E
p
_
n + 1
S
n
+ 1
_
=
n

k=0
n!
k!(n k)!
n + 1
k + 1
p
k
(1 p)
nk
=
1
p
n

k=0
(n + 1)!
(k + 1)!(n k)!
p
k+1
(1 p)
nk
=
1
p
n+1

j=0
(n + 1)!
j!(n + 1 j)!
p
j
(1 p)
n+1j

1
p
(1 p)
n+1
=
1
p
_
1 (1 p)
n+1

.
Le biais est b
n
= (1 p)
n+1
/p. Remarquons que pb
n
=
_
1
n
0
N
_
n+1

e
nn
0
/N
si n
0
N.
3. Les v.a. (X
i
, i N

) sont de carre integrable. On deduit du theor`eme cen-


tral limite que la suite
_

n
_
S
n
n
p
_
, n N

_
converge en loi vers la loi
gaussienne ^(0,
2
), o` u
2
= Var
p
(X
1
) = p(1 p).
319
XIII Corrections
4. On a
0

n
_
S
n
+ 1
n + 1

S
n
n
_
=
n S
n

n(n + 1)

n
n + 1

1

n
.
La suite converge donc P
p
-p.s. vers 0. On deduit du theor`eme de Slutsky que
la suite
__

n
_
S
n
n
p
_
,

n
_
S
n
+ 1
n + 1
p
__
, n N

_
converge en loi vers (X, 0), o` u L(X) = ^(0,
2
). Par continuite, on en deduit
que

n
_
S
n
+ 1
n + 1
p
_
=

n
_
S
n
n
p
_
+

n
_
S
n
+ 1
n + 1

S
n
n
_
en loi
X + 0 = X,
quand n . La suite
_
S
n
+ 1
n + 1
, n N

_
est une suite destimateurs de
p convergente et asymptotiquement normale de variance asymptotique
2
=
Var(X).
5. La fonction g(x) = 1/x est de classe C
1
au point p ]0, 1[. On deduit du theo-
r`eme de convergence des estimateurs de substitution que la suite de variables
aleatoires
_

n
_
n + 1
S
n
+ 1

1
p
_
, n N

_
converge en loi vers la loi gaussienne
^(0, s
2
), o` u s
2
=
2
_
dg(p)
dp
_
2
=
p(1 p)
p
4
=
1 p
p
3
. La suite
_
n+1
Sn+1
, n N

_
est une suite destimateurs de 1/p convergente et asymptotiquement normale
de variance asymptotique s
2
.
6. La log-vraisemblance est L
1
(x
1
; p) = x
1
log
_
p
1 p
_
+ log(1 p). Le score est
V
1
=
L
1
(X
1
; p)
p
= X
1
_
1
p
+
1
1 p
_

1
1 p
=
X
1
p(1 p)

1
1 p
.
Linformation de Fisher est
I(p) = Var
p
(V
1
) = Var
p
(X
1
/p(1 p)) =
1
p
2
(1 p)
2
p(1 p) =
1
p(1 p)
.
Soit la fonction g(x) = 1/x. La borne FDCR de lechantillon de taille 1, pour
lestimation de g(p) = 1/p est
_
dg(p)
dp
_
2
1
I(p)
=
1
p
4
p(1 p) =
1 p
p
3
.
La variance asymptotique de lestimateur
n + 1
S
n
+ 1
est egale `a la borne FDCR,
de lechantillon de taille 1, pour lestimation de 1/p. Lestimateur est donc
asymptotiquement ecace.
320
XIII.12 Controles de n de cours
III Intervalle de conance
1. Comme la suite
_
S
n
n
, n N

_
converge P
p
-p.s. vers p, on en deduit que
Y
n
=

_
S
n
n
_
3
n
n S
n

n
p
3/2
(1 p)
1/2
P
p
-p.s.
On deduit du theor`eme de Slutsky que la suite
__
Y
n
,

n
_
n + 1
S
n
+ 1

1
p
__
, n N

_
converge en loi vers
_
p
3/2
(1 p)
1/2
, X
_
, o` u la loi de X est la loi gaussienne
^(0, (1 p)/p
3
). Par continuite, on en deduit que
Y
n

n
_
n + 1
S
n
+ 1

1
p
_
en loi
^(0, 1), quand n .
Soit I un intervalle de R, on a en particulier
P
p
_
Y
n

n
_
n + 1
S
n
+ 1

1
p
_
I
_

n
P(T I),
o` u la loi de T est la loi gaussienne centree reduite ^(0, 1). Pour I =
[1, 96; 1, 96], on a P(T I) = 95%. On en deduit que pour n grand, on
a
P
p
_
Y
n

n
_
n + 1
S
n
+ 1

1
p
_
[1, 96; 1, 96]
_
= P
p
_
1
p

_
n + 1
S
n
+ 1

1, 96
Y
n

n
__
95%.
Donc
_
n + 1
S
n
+ 1

1, 96
Y
n

n
;
n + 1
S
n
+ 1
+
1, 96
Y
n

n
_
est un intervalle de conance asymp-
totique `a 95%.
2. Lestimateur de 1/p est
n + 1
S
n
+ 1
= 463/341 1, 36. Lestimateur de N est
n
0
p
=
74 463
341
100.
3. On a
n + 1
S
n
+ 1
= 463/341 1, 36, et Y
n
=

_
S
n
n
_
3
n
n S
n
1, 23. Linter-
valle de conance asymptotique `a 95% de 1/p est [1, 28; 1, 43]. Lintervalle de
conance asymptotique `a 95% de N = n
0
/p est [95, 106].
321
XIII Corrections
IV Tests
1. Le rapport de vraisemblance est Z(x) =
_
p
1
(1 p
0
)
(1 p
1
)p
0
_
P
n
i=1
x
i
_
1 p
1
1 p
0
_
n
, o` u
x = (x
1
, . . . , x
n
) 0, 1
n
. Le rapport de vraisemblance est une fonction de
S
n
(x) =

n
i=1
x
i
. La statistique de test est S
n
=

n
i=1
X
i
.
2. Comme N
1
> N
0
, on a p
0
> p
1
. La condition Z(x) > k est equivalente `a la
condition S
n
(x) < c, pour une constante c qui ne depend pas de x. Le test
UPP de niveau est alors deni par :
(x) = 1 si S
n
(x) < c,
(x) = si S
n
(x) = c,
(x) = 0 si S
n
(x) > c,
Les constantes c et sont denies par la condition E
p
0
[] = .
3. Comme les constantes c et sont denies par la condition E
p
0
[] = , elles
sont independantes de la valeur de N
1
. Le test est UPP de niveau pour
tester H
0
= N = N
0
contre H
1
= N = N
1
, et ce pour toutes valeurs de
N
1
(> N
0
). En particulier il est UPP de niveau pour tester H
0
= N = N
0

contre H
1
= N > N
0
.
4. Pour determiner le test , il faut calculer les constantes c et . Elles sont denies
par P
p
0
(S
n
< c) +P
p
0
(S
n
= c) = , o` u = 5%. La constante c est egalement
determinee par la condition P
p
0
(S
n
< c) < P
p
0
(S
n
< c + 1).
`
A la vue du
tableau, on en deduit que c = 341, et =
P
p
0
(S
n
< c)
P
p
0
(S
n
< c + 1) P
p
0
(S
n
< c)
, soit
0, 6. Comme m < 341, on rejette lhypoth`ese H
0
au niveau 5%.
Remarquons que si on a m = 341, alors pour decider, on tire un nombre u
uniforme sur [0, 1]. Si u < 0, 6, alors on rejette H
0
, sinon on accepte H
0
.
Remarquons que nous rejetons lhypoth`ese N = 96 (le meme test permet en
fait de rejeter lhypoth`ese N 96, il sagit dun test UPP unilateral dans le
cadre du mod`ele exponentiel). Le test UPP est ici plus precis que lintervalle
de conance de la question precedente. Il est egalement plus simple `a calculer,
dans la mesure, o` u lon ne doit pas calculer de variance asymptotique
2
, ni
destimation de
2
.

Exercice XII.5.
I Lestimateur du maximum de vraisemblance de
1. On a f

(t) =

(t)
t
= k(t w)
k1
e
(tw)
k
1
t>w
.
322
XIII.12 Controles de n de cours
2. Comme les variables sont independantes, la densite de lechantillon est
p

n
(t
1
, . . . , t
n
; ) =
n
k
n
_
n

i=1
(t
i
w)
k1
1
t
i
>w
_
e

P
n
i=1
(t
i
w)
k
.
3. La log-vraisemblance est denie pour t = (t
1
, . . . , t
n
) ]w, +[
n
, par
L

n
(t; ) = nlog()
n

i=1
(t
i
w)
k
+c

n
(t),
o` u la fonction c

n
est independante de . Pour maximiser la log-vraisemblance,
on cherche les zeros de sa derivee. Il vient
0 =
L

n
(t; )

=
n

i=1
(t
i
w)
k
soit =
n

n
i=1
(t
i
w)
k
.
Comme de plus lim
0
L

n
(t; ) = lim
+
L

n
(t; ) = , on en deduit que
la log-vraisemblance est maximale pour = n/

n
i=1
(t
i
w)
k
. Lestimateur du
maximum de vraisemblance est donc

n
=
n

n
i=1
(T
i
w)
k
.
4. Linformation de Fisher est denie par
I

() = E

2
L

1
(T; )

2
_
=
1

2
.
5. Comme p.s. T > w, la variable (T w)
k
est positive. On peut donc calculer
son esperance. On a pour > 0,
E

[(T w)
k
] =
_
(t w)
k
f

(t) dt
=
_

w
k(t w)
k+k1
e
(tw)
k
dt.
En posant y = (t w)
k
, il vient
E

[(T w)
k
] =

_

0
y

e
y
dy =

( + 1).
En particulier, on a E

[(T w)
k
] =
1
et E

[(T w)
2k
] = 2
2
.
323
XIII Corrections
6. Comme les variables aleatoires (T
1
w)
k
, . . . (T
n
w)
k
sont independantes
de meme loi et integrables, on deduit de la loi forte des grands nombres que
la suite de terme general Z
n
=
1
n

n
i=1
(T
i
w)
k
converge presque s urement
vers E

[(T w)
k
] =
1
. Comme la fonction h : x 1/x est continue en

1
> 0, on en deduit que la suite (

n
= h(Z
n
), n 1) converge presque
s urement vers h(
1
) = . Lestimateur du maximum de vraisemblance est
donc convergent. Comme de plus les variables (T
1
w)
k
, . . . (T
n
w)
k
sont
de carre integrable, on deduit du theor`eme de la limite centrale que la suite
(

n(Z
n

1
), n 1) converge en loi vers une loi gaussienne ^(0,
2
), o` u

2
= Var((T w)
k
) =
2
. Comme la fonction h est de classe C
1
en
1
> 0,
on en deduit que la suite (

n(

n
) =

n(h(Z
n
) h(
1
)), n 1) converge
en loi vers une loi gaussienne ^(0,
2
), o` u
2
=
2
h

(
1
)
2
=
2
. Lestimateur
du maximum de vraisemblance est donc asymptotiquement normal.
7. Comme
2
= I()
1
, cela signie que lestimateur du maximum de vraisem-
blance est asymptotiquement ecace.
8. Remarquons que (

n
)
2
est un estimateur convergent de
2
. On deduit donc du
theor`eme de Slutsky que la suite (

n(

n
)/

n
, n 1) converge en loi vers la
loi gaussienne ^(0, 1). En particulier J

n
=
_

n

1, 96

n
_
est un intervalle de
conance asymptotique `a 95% de . On a

n
= 17/33 175 533 = 5, 124. 10
7
.
On obtient donc lintervalle de conance `a 95% :
_
5, 124. 10
7
2, 46. 10
7

= [2, 7. 10
7
; 7, 6. 10
7
].
II Donnees censurees
1. La loi de X est une loi de Bernoulli de param`etre p = P

(X = 1).
2. On a pour x = 1
P

(R > r, X = 1) = P

(S T > r) =
_
1
st>r
f

(t)g(s) dtds =
_

r
f

(t)

G(t) dt,
et pour x = 0,
P

(R > r, X = 0) = P

(T > S > r) =
_
1
t>s>r
f

(t)g(s) dtds =
_

r
g(t)

F

(t) dt.
On en deduit donc par derivation que
p(r, 1; ) = f

(r)

G(r) = e
(rw)
k
+
c(r, 1) avec c(r, 1) = k(w r)
k1
+

G(r),
et
p(r, 0; ) = g(r)

F

(r) = e
(rw)
k
+
c(r, 0) avec c(r, 0) = g(r).
La fonction c est independante de .
324
XIII.12 Controles de n de cours
3. N
n
represente le nombre de souris pour lesquelles on a observe les eets des
produits toxiques.
4. La densite de lechantillon de taille n est pour r = (r
1
, . . . , r
n
) R
n
, x =
(x
1
, . . . , x
n
) 0, 1
n
,
p
n
(r, x; ) =
n

i=1
p(r
i
, x
i
; ) =
P
n
i=1
x
i
e

P
n
i=1
(r
i
w)
k
+
c
n
(r, x),
o` u la fonction c
n
(r, x) =

n
i=1
c(r
i
, x
i
) est independante de . La log-vraisemblance
de lechantillon est donc
L
n
(r, x; ) = log()
n

i=1
x
i

i=1
(r
i
w)
k
+
+ log(c
n
(r, x)).
En raisonnant comme dans la partie precedente, on deduit que la log-vraisemblance
atteint son maximum pour =
n

i=1
x
i
/
n

i=1
(r
i
w)
k
+
. Cela reste vrai meme si

n
i=1
x
i
= 0. Lestimateur du maximum de vraisemblance est donc

n
=
N
n

n
i=1
(R
i
w)
k
+
.
Contrairement `a

n
, lestimateur

n
tient compte meme des donnees censurees
au denominateur. En revanche le numerateur represente toujours le nombre
de souris pour lesquelles on observe lapparition des eets dus aux produits
toxiques. Remarquons egalement que la loi de S nintervient pas directement
dans lestimateur

n
. En particulier, il nest pas necessaire de connatre expli-
citement la fonction g ou

G.
5. Les variables aleatoires X
1
, . . . , X
n
sont independantes integrables et de meme
loi de Bernoulli de param`etre p. Par la loi forte des grands nombres, on en deduit
que N
n
/n est un estimateur convergent de p. Comme E

[N
n
/n] = E

[X] = p,
on en deduit que N
n
/n est un estimateur sans biais de p.
6. Linformation de Fisher pour lechantillon de taille 1 est denie par
I() = E

2
L

1
(R
1
, X
1
; )

2
_
=
E

[X
1
]

2
=
p

2
.
7. Comme la fonction h : (y, z) y/z
2
est continue sur ]0, [
2
, on en deduit que
la suite (h(N
n
/n,

n
), n 1) converge presque s urement vers h(p, ) = p/
2
=
I(). Lestimateur
N
n
n
1

2
n
est donc un estimateur convergent de I().
325
XIII Corrections
8. Lestimateur du maximum de vraisemblance est asymptotiquement ecace.
Donc la suite (

n(

n
), n 1) converge en loi vers la loi gaussienne
^(0, I()
(1)
). Comme N
n
/(n

2
n
) est un estimateur convergent de I(), on
deduit du theor`eme de Slutsky que la suite (

N
n
(

n
)/

n
, n 1) converge
en loi vers la loi gaussienne ^(0, 1). En particulier J
n
=
_

n

1, 96

N
n
_
est un
intervalle de conance asymptotique `a 95% de . On a

n
= 17/(33 175 533 +
4 546 880) = 4, 507. 10
7
. On obtient donc lintervalle de conance `a 95% :
_
4, 507. 10
7
2, 142. 10
7

= [2, 4. 10
7
; 6, 6. 10
7
].
Lintervalle de conance J
n
est plus etroit que J

n
. Mais surtout lestimation
`a laide de

n
donne des resultats pour surevalues. De plus lestimateur

n
nest pas convergent en presence de donnees censurees.
9. Pour les souris i n + 1, . . . , n +m supplementaires retirees avant linstant,
on a x
i
= 0 et (r
i
w)
k
+
= 0 aussi. En particulier la densite de lechantillon
n +m est pour r = (r
1
, . . . , r
n+m
) et x = (x
1
, . . . , x
n+m
),
p
n+m
(r, x; ) = p
n
((r
1
, . . . , r
n
), (x
1
, . . . , x
n
); )
n+m

i=n+1

0
e
0
c(r
i
, 0) =
P
n
i=1
x
i
e

P
n
i=1
(r
i
w)
k
c
n+m
(r, x).
En particulier cela ne modie pas lestimateur du maximum de vraisemblance

n+m
=

n
i=1
(r
i
w)
k
+
=

n
, ni lestimation de I
n
() = nI() par

n
i=1
x
i
/

2
n
.
En particulier lintervalle de conance asymptotique de reste inchange.
III Comparaison de traitements
1. La densite de Z
1
est le produit de la densite de (R
A
1
, X
A
1
) et de la densite
de (R
B
1
, X
B
1
) car les variables aleatoires sont independantes. La densite de
lechantillon Z
1
, . . . , Z
n
est pour r
A
= (r
A
1
, . . . , r
A
n
), r
B
= (r
B
1
, . . . , r
B
n
) R
n
,
et x
A
= (x
A
1
, . . . , x
A
n
), x
B
= (x
B
1
, . . . , x
B
n
) 0, 1
n
p
n
(r
A
, x
A
, r
B
, x
B
;
A
,
B
) = (
A
)
P
n
i=1
x
A
i
(
B
)
P
n
i=1
x
B
i
e

A
P
n
i=1
(r
A
i
w)
k
+

B
P
n
i=1
(r
B
i
w)
k
+
c
n
(r
A
, x
A
)c
n
(r
B
, x
B
).
2. On deduit de la partie precedente que lestimateur du maximum de vraisem-
blance de (
A
,
B
) est (

A
n
,

B
n
), o` u

j
n
=
N
j
n

n
i=1
(R
j
i
w)
k
+
et N
j
n
=

n
i=1
X
j
i
pour j A, B.
326
XIII.12 Controles de n de cours
3. La log-vraisemblance pour lechantillon de taille 1 est
L(r
A
1
, x
A
1
, r
B
1
, x
B
1
;
A
,
B
) = x
A
1
log(
A
) +x
B
1
log(
B
)
A
(r
A
1
w)
k
+

B
(r
B
1
w)
k
+
+ log c
1
(r
A
1
, x
A
1
) + log c
1
(r
B
1
, x
B
1
).
La matrice des derivees secondes de la log-vraisemblance est denie par
L
(2)
(r
A
1
, x
A
1
, r
B
1
, x
B
1
) =
_

2
L

2
L

2
L

2
L

B
_
=
_
x
A
1
/(
A
)
2
0
0 x
B
1
/(
B
)
2
_
.
Linformation de Fisher est donc
I(
A
,
B
) = E
(
A
,
B
)
[L
(2)
(R
A
1
, X
A
1
, R
B
1
, X
B
1
)] =
_
p
A
/(
A
)
2
0
0 p
B
/(
B
)
2
_
.
Il sagit bien dune matrice diagonale.
4. La densite de lechantillon de taille n est
p(r
A
, x
A
, r
B
, x
B
; , ) =
P
n
i=1
x
A
i
+
P
n
i=1
x
B
i
e
(
P
n
i=1
(r
A
i
w)
k
+
+
P
n
i=1
(r
B
i
w)
k
+
)
c
n
(r
A
, x
A
)c
n
(r
B
, x
B
).
On en deduit que lestimateur du maximum de vraisemblance de est donc

n
=
N
A
n
+N
B
n

n
i=1
(R
A
i
w)
k
+
+

n
i=1
(R
B
i
w)
k
+
.
5. On utilise les resultats concernant les tests de Hausman. Le param`etre
(
A
,
B
) est de dimension q = 2, le param`etre est de dimension q

= 1.
Comme la matrice de linformation de Fisher est diagonale, on obtient

(1)
n
= n(

A
n

n
)
2
p
A
(

A
n
)
2
+n(

B
n

n
)
2
p
B
(

B
n
)
2
,

(2)
n
= n
_
(

A
n

n
)
2
p
A
+ (

B
n

n
)
2
p
B
_

2
n
.
Sous H
0
les variables aleatoires
(1)
n
et
(2)
n
convergent en loi vers un
2
`a qq

=
1 degre de liberte. Le test de Hausman est deni par la region critique W
k
n
=

(k)
n
u pour k 1, 2. Ce test est convergent de niveau asymptotique
P(
2
(1) u).
6. Soit j A, B. Comme les variables X
j
1
, . . . , X
j
n
sont independantes inte-
grables et de meme loi, on deduit de la loi forte des grands nombres que la
suite (N
j
n
/n, n 1) converge presque s urement vers E

A
,
B[X
j
1
] = p
j
. Comme
327
XIII Corrections
la matrice de Fisher est une fonction continue des param`etres p
A
, p
B
et
A
,
B
,
on deduit des questions precedentes que la fonction

I
n
: (a, b)

I
n
(a, b) =
_
N
A
n
/na
2
0
0 N
B
n
/nb
2
_
est un estimateur convergent de la fonction I : (a, b) I(a, b).
7. On refait ici le meme raisonnement que pour la derni`ere question de la partie
precedente.
8. On a dej`a calcule

A
n
= 4, 507. 10
7
. On calcule

B
n
=
19
64 024 591 + 15 651 648
= 2, 385. 10
7
et

n
= 3, 066. 10
7
.
Il vient

(1)
n
= (4, 507 3, 066)
2
17/4, 507
2
+ (2, 385 3, 066)
2
19/2, 385
2
= 3, 3

(2)
n
= (4, 507 3, 066)
2
17/3, 066
2
+ (2, 385 3, 066)
2
19/3, 066
2
= 4, 7.
Le quantile `a 95% du
2
`a 1 degre de liberte est u = 3, 84. Donc
(2)
n
est dans
la region critique mais pas
(1)
n
. La dierence est due `a lapproximation de
I(
A
,
B
) par

I
n
(

A
n
,

B
n
) ou par

I
n
(

n
,

n
). On ne peut pas rejeter H
0
au niveau
de conance de 95%. Les pre-traitements A et B ne sont pas signicativement
dierents.
9. Pour j A, B, on deduit de la partie precedente que lintervalle de conance
asymptotique 1
j
pour
j
est J
j
n
j
=
_
_

j
n
j

z

j
n
j
_
N
j
n
j
_
_
, avec z

le quantile
dordre 1(/2) de la loi gaussienne ^(0, 1). Les variables aleatoires (

A
n
A
, N
n
A)
et (

B
n
B
, N
n
B) sont independantes. On en deduit donc que
P
(
A
,
B
)
(
A
J
A
n
A
,
B
J
B
n
B
) = P

A(
A
J
A
n
A
)P

B(
B
J
B
n
B
) = (1
A
)(1
B
).
Pour tout couple (
A
,
B
) tel que (1
A
)(1
B
) = 95%, on obtient des
intervalles de conance J
A
n
A
pour
A
et J
B
n
B
pour
B
tels que la conance
asymptotique sur les deux intervalles soit de 95%. Si on choisit =
A
=

B
= 1

0, 95 2, 5%, on a z

2, 24 et
J
A
n
A
=
_
4, 507
2, 24. 4, 507

17
_
10
7
= [2. 10
7
; 7. 10
7
],
J
B
n
B
=
_
2, 385
2, 24. 2, 385

19
_
10
7
= [1, 2. 10
7
; 3, 6. 10
7
].
328
XIII.12 Controles de n de cours
Les deux intervalles J
A
n
A
et J
B
n
B
ne sont pas disjoints. On ne peut donc pas reje-
ter H
0
. On retrouve le resultat de la question precedente. Ce test est toutefois
moins puissant que les tests precedents.
IV Proprietes asymptotiques de lestimateur

n
1. On a p = P

(T S) =
_
1
ts
f

(t)g(s) dtds =
_
f

(t)

G(t) dt.
2. Il vient par independance
P

(R > r) = P

(T > r, S > r) = P

(T > r)P

(S > r) =

F

(r)

G(r).
Par derivation de P

(R r) = 1 P

(R > r), on en deduit la densite h de la


loi de R :
h(r) = f

(r)

G(r) +g(r)

F

(r).
3. On a
E

[(R w)
k
+
] =
_
(r w)
k
+
h(r) dr
=
_
(r w)
k
+
f

(r)

G(r) dr +
_
(r w)
k
+
g(r)

F

(r) dr.
`
A laide dune integration sur partie, il vient
_
(r w)
k
+
g(r)

F

(r) dr =
_

G(r)(r w)
k
+
F

(r)
_
+

+
_
k(r w)
k1
+

F

(r)

G(r) dr

_
(r w)
k
+
f

(r)

G(r) dr
=
1
_
f

(r)

G(r) dr
_
(r w)
k
+
f

(r)

G(r) dr,
o` u lon a utilise la relation f

(r) = k(r w)
k1
+

F

(r). On en deduit donc que


E

[(R w)
k
+
] =
1
_
f

(r)

G(r) dr =
1
p.
4. Les variables aleatoires (R
1
w)
k
+
, . . . , (R
n
w)
k
+
sont independantes integrables
et de meme loi. Par la loi forte des grands nombres, on en deduit que la suite
(Z
n
=
1
n
n

i=1
(R
i
w)
k
+
, n 1) converge presque s urement vers E

[(Rw)
k
+
] =
p/. De plus la suite (N
n
/n, n 1) converge presque s urement vers p. Comme
la fonction h(x, z) x/z est continue sur ]0, +[
2
, on en deduit que la suite
(

n
= h(N
n
/n, Z
n
), n 1) converge presque s urement vers h(p, p/) = .
Lestimateur

n
est donc un estimateur convergent.
329
XIII Corrections
5. En procedant comme pour le calcul de E

[(R w)
k
+
], on a
E

[(R w)
2k
+
] =
_
(r w)
2k
+
f

(r)

G(r) dr +
_
(r w)
2k
+
g(r)

F

(r) dr.
`
A laide dune integration sur partie, il vient
_
(r w)
2k
+
g(r)

F

(r) dr =
_

G(r)(r w)
2k
+
F

(r)
_
+

+
_
2k(r w)
2k1
+

F

(r)

G(r) dr

_
(r w)
2k
+
f

(r)

G(r) dr
= 2
1
_
(r w)
k
+
f

(r)

G(r) dr
_
(r w)
2k
+
f

(r)

G(r) dr.
Comme
= E

[1
X=1
(Rw)
k
+
] =
_
1
ts
(tw)
k
+
f

(t)g(s) dsdt =
_
(tw)
k
+
f

(t)

G(t) dt,
on deduit donc que
E

[(R w)
2k
+
] = 2
1
_
(r w)
k
+
f

(r)

G(r) dr = 2/.
6. La matrice de covariance du couple est
=
_
p(1 p)
p
2


p
2


p
2

2
_
.
7. Les variables ((R
1
w)
k
+
, X
1
), . . . , ((R
n
w)
k
+
, X
n
) sont independantes de meme
loi et de carre integrable. On en deduit donc que la suite (

n(Z
n
p/, N
n
/n
p), n 1) converge en loi vers une variable aleatoire gaussienne ^(0, ). La
fonction h(x, z) x/z est de classe C
1
sur ]0, +[
2
. On en deduit que la suite
(

n(

n
) =

n(h(N
n
/n, Z
n
) h(p, p/
2
)), n 1) converge en loi vers une
variable aleatoire ^(0,
2
), o` u

2
= (
h
x
(p, p/),
h
z
(p, p/))(
h
x
(p, p/),
h
z
(p, p/))

= (/p,
2
/p)
_
p(1 p)
p
2


p
2


p
2

2
_
(/p,
2
/p)

=
2
/p.
Lestimateur

n
est donc un estimateur asymptotiquement normal de de
variance asymptotique
2
=
2
/p. On remarque que la variance de lestimateur
des donnees censurees est superieure `a la variance de lestimateur des donnees
non censurees.
330
XIII.12 Controles de n de cours
8. Comme I()
1
=
2
, on en deduit que lestimateur

n
est asymptotiquement
ecace.

Exercice XII.6.
I Mod`ele gaussien `a variance connue
1. Dans un mod`ele gaussien avec variance connue, lestimateur du maximum de
vraisemblance de la moyenne est la moyenne empirique :

n
=
1
n
n

j=1
Y
j
.
La moyenne empirique est un estimateur sans biais de la moyenne.
2. Le vecteur (Y
1
, . . . , Y
n
) est un vecteur gaussien car les variables aleatoires
Y
1
, . . . , Y
n
sont gaussiennes et independantes. Comme
n
est une transfor-
mation lineaire du vecteur (Y
1
, . . . , Y
n
), sa loi est une loi gaussienne. On a
E[
n
] = et Var(
n
) =

2
0
n
. La loi de
n
est donc la loi ^(,

2
0
n
). En particulier
la loi de

n

n

0
est la loi ^(0, 1). On en deduit que
P(

n

n

0
[z

, z

]) = 1 ,
o` u z

est le quantile dordre 1



2
de la loi gaussienne centree reduite. Donc
I

= [
n
z

n
,
n
+z

n
]
est un intervalle de conance exact de de niveau 1 .
Application numerique. On trouve
n
6.42, z

1.96 et I

[4.38, 8.46].
3. Les variables aleatoires (Y
j
, j 1) sont independantes, de meme loi et inte-
grable. On deduit de la loi forte des grands nombres que p.s. la suite (
n
, n 1)
converge vers . On en deduit que
n
est un estimateur convergent de .
4. Comme les variables aleatoires sont independantes, la vraisemblance et la log-
vraisemblance du mod`ele complet secrivent :
p(x
1
, . . . , x
m
, y
1
, . . . , y
n
; , ) =
m

i=1
1
_
2
2
0
e
(x
i
)
2
/2
2
0
n

j=1
1
_
2
2
0
e
(y
j
)
2
/2
2
0
L(x
1
, . . . , x
m
, y
1
, . . . , y
n
; , ) =
m+n
2
log(2
2
0
)
1
2
2
0
m

i=1
(x
i
)
2

1
2
2
0
n

j=1
(y
j
)
2
.
331
XIII Corrections
5. La log-vraisemblance est somme dune fonction de et dune fonction de
. Elle atteint son maximum quand chacune des deux fonctions atteint son
maximum. Ces deux fonctions sont quadratiques negatives. Leur maximum
est atteint pour les valeurs de et qui annulent leur derivee, `a savoir

m
(x
1
, . . . , x
m
) =
1
m
m

i=1
x
i
et
n
(y
1
, . . . , y
n
) =
1
n
n

j=1
y
j
. On en deduit les esti-
mateurs du maximum de vraisemblance de (, ) :

m
=
1
m
m

i=1
X
i
et
n
=
1
n
n

j=1
Y
j
.
On retrouve bien le meme estimateur pour .
6. Comme les variables aleatoires X
1
, . . . , X
m
, Y
1
, . . . , Y
n
sont independantes, on
en deduit que
m
et
n
sont independants. Les memes arguments que ceux de
la question 2, assurent que la loi de
m
est la loi ^(,

2
0
m
). Le vecteur (
m
,
n
)
est donc un vecteur gaussien de moyenne (, ) et de matrice de covariance

2
0
_
1/m 0
0 1/n
_
.
7. La variable aleatoire T
(1)
m,n
est une transformation lineaire du vecteur gaussien
(
m
,
n
). Il sagit donc dune variable aleatoire gaussienne. On calcule
E[T
(1)
m,n
] =
_
mn
m+n

0
,
Var(T
(1)
m,n
) =
mn
m+n
Var(
m
) + Var(
n
)

2
0
= 1.
On a utilise lindependance de
m
et
n
pour ecrire Var(
m

n
) = Var(
m
) +
Var(
n
). En particulier, sous H
0
, la loi de T
(1)
m,n
est la loi gaussienne centree
reduite ^(0, 1).
8. De meme qu`a la question 3, lestimateur
m
est un estimateur convergent de
. Remarquons enn que
mn
m+n
= min(m, n)
1
1 +
min(m,n)
max(m,n)

min(m, n)
2
.
En particulier
lim
min(m,n)
mn
m+n
= +.
332
XIII.12 Controles de n de cours
On en deduit donc que la suite de vecteurs ((
m
,
n
,
_
mn
m+n
), m 1, n 1)
converge presque s urement vers (, , +) quand min(m, n) . Si > ,
alors presque s urement, on a
lim
min(m,n)
T
(1)
m,n
= +.
9. On denit la fonction sur R
m+n
(cf la question 5) :
t
(1)
m,n
(x
1
, . . . , x
m
, y
1
, . . . , y
n
) =
_
mn
m+n
1
m

m
i=1
x
i

1
n

n
j=1
y
j

0
=
_
mn
m+n

m
(x
1
, . . . , x
m
)
n
(y
1
, . . . , y
n
)

0
.
En particulier, on a t
(1)
m,n
(X
1
, . . . , X
m
, Y
1
, . . . , Y
n
) = T
(1)
m,n
. On consid`ere le test
pur de region critique
W
m,n
= (x
1
, . . . , x
m
, y
1
, . . . , y
n
) R
m+n
; t
(1)
m,n
(x
1
, . . . , x
m
, y
1
, . . . , y
n
) > z

,
avec z

R. Determinons z

pour que le test soit de niveau exact . Comme


la loi de T
(1)
m,n
est la loi ^(0, 1) sous H
0
, lerreur de premi`ere esp`ece est donc :
P(W
m,n
) = P((X
1
, . . . , X
m
, Y
1
, . . . , Y
n
) W
m,n
) = P(T
(1)
m,n
> z

) =
_

z
e
u
2
/2

2
du.
Pour que le test soit de niveau exact , il faut que
_

z
e
u
2
/2

2
du = et donc
on choisit pour z

le quantile dordre 1 de la loi ^(0, 1).


Verions que le test est convergent. Dapr`es la question precedente, on a sous
H
1
lim
min(m,n)
1
T
(1)
m,n
>z
= 1.
Par convergence dominee, on en deduit que sous H
1
,
lim
min(m,n)
P(W
m,n
) = lim
min(m,n)
P(T
(1)
m,n
> z

) = lim
min(m,n)
E[1
T
(1)
m,n
>z
] = 1.
Le test est donc convergent.
10. Application numerique. On trouve
m
6.71,
n
6.42, t
(1)
m,n
0.187 et z


1.64. Comme t
(1)
m,n
z

, on accepte H
0
. On rejette H
0
en d`es que z

< t
(1)
m,n
.
Comme =
_

z
e
u
2
/2

2
du, on en deduit que le maximum des valeurs de qui
permette daccepter H
0
est
p
1
=
_

t
(1)
m,n
e
u
2
/2

2
du.
On trouve p
1
0.426.
333
XIII Corrections
II Mod`ele non parametrique de decalage
Remarquons que sous H
0
, on a p =
_
1
yx
f(x)f(y) dxdy = 1/2. Verions
que sous H
0
la loi de U
m,n
ne depend pas de F. Soit a
r
le quantile dordre r de
F. Comme F est continue, on a F(a
r
) = r. Soit X de fonction de repartition F.
Comme a
r
est un point de croissance `a gauche de F, on a X < a
r
= F(X) < r.
On en deduit que pour r ]0, 1[
r = P(X a
r
) = P(X < a
r
) = P(F(X) < F(a
r
)) = P(F(X) < r),
o` u lon a utilise la denition du quantile pour la premi`ere egalite et la continuite
de F pour la deuxi`eme. On en deduit que F(X) suit la loi uniforme sur [0, 1]. Soit
Y de fonction de repartition F et independant de X. On a par croissance de F
que Y X F(Y ) F(X) et F(Y ) < F(X) Y < X Y X.
Dautre part comme (F(Y ), F(X)) a meme loi quun couple de variables aleatoires
de loi uniforme sur [0, 1] et independantes, on en deduit que p.s. 1
F(Y )=F(X)
= 0.
Ainsi p.s. on a 1
Y X
= 1
F(Y )F(X)
. On en deduit donc que U
m,n
a meme loi
que

m
i=1

n
j=1
1
V
j
W
i

o` u (V
j
, W
i
, i 1, j 1) sont des variables aleatoires
independantes de loi uniforme sur [0, 1]. En particulier, sous H
0
, la loi de U
m,n
ne
depend pas de F.
Verions que sous H
1
, on a p > 1/2. Soit > 0. Comme la densite f est
non nulle, il existe /2 > > 0 et x
0
R tel que
_
[x
0
,x
0
]
f(x) dx > 0 et
_
[x
0
,x
0
+]
f(x) dx > 0. On en deduit alors que pour tout x [x
0
, x
0
],
F(x +) = F(x) +
_
[x,x+]
f(x

) dx

F(x) +
_
[x
0
,x
0
+]
f(x

) dx

> F(x).
Comme
_
[x
0
,x
0
]
f(x) dx > 0, on en deduit que
_
[x
0
,x
0
]
F(x +)f(x) dx >
_
[x
0
,x
0
]
F(x)f(x) dx.
Comme de plus F(x + ) F(x) pour tout x R, on en deduit que
_
F(x +
)f(x) dx >
_
F(x)f(x) dx. Donc sous H
1
, on a
p =
_
1
yx
f(x)g(y) dxdy
=
_
1
yx
f(x)f(y +) dxdy
=
_
F(x +)f(x) dx
>
_
F(x)f(x) dx
=
1
2
.
334
XIII.12 Controles de n de cours
On en deduit donc que les valeurs possibles de p sous H
1
sont ]
1
2
, 1].
Enn, nous renvoyons `a la correction du probl`eme concernant letude de la
statistique de Mann et Withney, pour verier que

et

sont positifs, et si
p , 0, 1, alors parmi

et

, au moins un des deux termes est strictement


positif.
1. On a
T
(2)
m,n
> a =
_
U
m,n

mn
2
_
mn(m+n+1)
12
> a
_
=
_
U
m,n
mnp
_
Var(U
m,n
)
>

mn(m+n + 1)
12 Var(U
m,n
)
a
mn(p
1
2
)
_
Var(U
m,n
)
_
.
On pose
b
m,n
=

mn(m+n + 1)
12 Var(U
m,n
)
a
mn(p
1
2
)
_
Var(U
m,n
)
.
Comme p > 1/2, on en deduit que lim
min(m,n)
mn(p
1
2
)
_
Var(U
m,n
)
= +. De plus
comme au moins lun des deux terme

ou

est strictement positif, cela


implique la convergence de la suite (
mn(m+n + 1)
12 Var(U
m,n
)
, m 1, n 1) vers une
limite nie, quand min(m, n) tend vers linni. On a donc
lim
min(m,n)
b
m,n
= .
2. De la question precedente, on en deduit que pour tout reel M > 0, il existe
k
0
1 tel que pour tout m k
0
, n k
0
, b
m,n
< M. Cela implique que pour
tout m k
0
, n k
0
P(T
(2)
m,n
> a) P(
U
m,n
mnp
_
Var(U
m,n
)
> M).
Gr ace `a la convergence en loi de (
U
m,n
mnp
_
Var(U
m,n
)
, m 1, n 1) vers la loi
continue ^(0, 1), on en deduit que
lim
min(m,n)
P(
U
m,n
mnp
_
Var(U
m,n
)
> M) =
_

M
e
u
2
/2

2
du.
335
XIII Corrections
En particulier on a pour tout M, liminf
min(m,n)
P(T
(2)
m,n
> a)
_

M
e
u
2
/2

2
du. Le
choix de M etant arbitraire, cela implique donc que lim
min(m,n)
P(T
(2)
m,n
>
a) = 1.
3. On denit les fonctions
u
m,n
(x
1
, . . . , x
m
, y
1
, . . . , y
n
) =
m

i=1
n

j=1
1
y
j
x
i

,
t
(3)
m,n
(x
1
, . . . , x
m
, y
1
, . . . , y
n
) =
u
m,n
(x
1
, . . . , x
m
, y
1
, . . . , y
n
)
mn
2
_
mn(m+n+1)
12
.
En particulier, on a t
(2)
m,n
(X
1
, . . . , X
m
, Y
1
, . . . , Y
n
) = T
(2)
m,n
. On consid`ere le test
pur de region critique
W
m,n
= (x
1
, . . . , x
m
, y
1
, . . . , y
n
) R
m+n
; t
(2)
m,n
(x
1
, . . . , x
m
, y
1
, . . . , y
n
) > z

,
avec z

R. Determinons z

pour que le test soit de niveau asymptotique .


Lerreur de premi`ere esp`ece est :
P(W
m,n
) = P((X
1
, . . . , X
m
, Y
1
, . . . , Y
n
) W
m,n
) = P(T
(2)
m,n
> z

).
Comme la loi de T
(2)
m,n
sous H
0
est independante de F, on en deduit que
P(T
(2)
m,n
> z

) est constant sous H


0
. Comme la loi asymptotique de la sta-
tistique T
(2)
m,n
est la loi ^(0, 1) sous H
0
, lerreur de premi`ere esp`ece converge
vers
_

z
e
u
2
/2

2
du. Pour que le test soit de niveau asymptotique (i.e.
limsup
min(m,n)
sup
H
0
P(T
(2)
m,n
> z

) = ), on choisit pour z

le quantile dordre 1
de la loi ^(0, 1). Le test est convergent dapr`es la question precedente.
4. Application numerique. On a u
m,n
= 70 et t
(2)
m,n
0.25. et z

1.64. Comme
t
(2)
m,n
z

, on accepte H
0
. On rejette H
0
d`es que z

< t
(2)
m,n
. Comme =
_

z
e
u
2
/2

2
du, on en deduit que le maximum des valeurs de qui permette
daccepter H
0
est
p
2
=
_

t
(2)
m,n
e
u
2
/2

2
du.
On trouve p
2
0.403.
Remarquons que les resultats sont identiques si lon consid`ere la meme hypo-
th`ese nulle H
0
contre lhypoth`ese alternative H
1
= P(Y X) > 1/2, car les
reponses aux questions 1 et 2, et par consequent les reponses aux questions 3 et 4,
de cette partie sont identiques.
336
XIII.12 Controles de n de cours
IV Mod`ele non parametrique general
1. Il sagit du test de Kolmogorov SmirnovCe `a deux echantillons. Cest un test
pur de region critique
W
m,n
= (x
1
, . . . , x
m
, y
1
, . . . , y
n
) R
m+n
; t
(3)
m,n
(x
1
, . . . , x
m
, y
1
, . . . , y
n
) > z

,
avec
t
(3)
m,n
(x
1
, . . . , x
m
, y
1
, . . . , y
n
) =
_
mn
m+n
sup
xR

1
m
m

i=1
1
x
i
x

1
n
n

j=1
1
y
j
x

et z

0.
2. Comme le test est de niveau asymptotique , on en deduit que z

est tel que


K(z

) = 1 , o` u la fonction K est denie par


K(z) =
+

k=
(1)
k
e
2k
2
z
2
.
On trouve t
(3)
m,n
0.508 et z

1.358. Comme t
(3)
m,n
z

, on accepte H
0
. On
rejette H
0
d`es que z

< t
(3)
m,n
. Comme = 1 K(z

), on en deduit que le
maximum des valeurs de qui permette daccepter H
0
est
p
3
= 1 K(t
(3)
m,n
).
On trouve p
3
0.958. On ne peut vraiment pas rejeter H
0
.
Conclusion
On a p
1
p
2
< p
3
. On remarque que pour le mod`ele le plus general (mod`ele
3) la p-valeur est tr`es elevees. En revanche, plus on fait dhypoth`ese et plus la
p-valeur est faible. Dans tous les cas on ne peut pas rejeter H
0
sans commettre
une erreur de premi`ere esp`ece superieure `a 40%. Cela signie que les donnees de
lexperience pratiquee en Floride reproduitent partiellement ici ne permettent pas
de conclure `a lecacite de lensemencement des nuages par iodure dargent.
Exercice XII.7.
337
XIII Corrections
I Le mod`ele
1. Lhypoth`ese nulle est H
0
= La densite osseuse chez les femmes du groupe
1 nest pas signicativement superieure ` a celle des femmes du groupe 2 et
lhypoth`ese alternative H
1
= La densite osseuse chez les femmes du groupe
1 est signicativement superieure ` a celle des femmes du groupe 2. On esp`ere
rejetter H
0
, en contr olant lerreur de premi`ere esp`ece.
2. Les variables aleatoires X
1
, . . . , X
n
, Y
1
, . . . , Y
m
sont independantes de loi gaus-
sienne. On en deduit que (X
1
, . . . , X
n
, Y
1
, . . . , Y
m
) est un vecteur gaussien.
3. La loi de

X
n
est la loi gaussienne ^(
1
,
2
1
/n), la loi de
n 1

2
1
V
n
est la loi
2
(n
1), enn ces deux variables sont independantes. Cela determine compl`etement
la loi du couple
_

X
n
,
n 1

2
1
V
n
_
.
4. Comme les variables X
1
, . . . , X
n
et Y
1
, . . . , Y
m
sont independantes, on en de-
duit que les variables
n 1

2
1
V
n
et
m1

2
2
W
m
sont independantes et suivent les
lois du
2
de degres de liberte n 1 et m 1. En considerant les fonctions
caracteristiques, on obtient en utilisant lindependance,
n1

2
1
Vn+
m1

2
2
Wm
(u) = n1

2
1
Vn
(u) m1

2
2
Wm
(u)
=
1
(1 2iu)
(n1)/2
1
(1 2iu)
(m1)/2
=
1
(1 2iu)
(n+m2)/2
.
On en deduit donc que la loi de
n 1

2
1
V
n
+
m1

2
2
W
m
est la loi du
2
`a n+m2
degres de liberte.
5. Comme E

[

X
n
] =
1
(resp. E

Y
m
] =
2
), on en deduit que

X
n
(resp.

Y
m
) est
un estimateur sans biais de
1
(resp.
2
). Par la loi forte des grands nombres,
les estimateurs (

X
n
, n 1) et (

Y
m
, m 1) sont convergents.
6. Comme E

[V
n
] =
2
1
(resp. E

[W
m
] =
2
2
), on en deduit que V
n
(resp. W
m
) est
un estimateur sans biais de
2
1
(resp.
2
2
). Par la loi forte des grands nombres,
les suites (n
1

n
i=1
X
2
i
, n 1) et (

X
n
, n 1) converge P

-p.s. vers E

[X
2
1
] et
E

[X
1
]. On en deduit donc que la suite (V
n
=
n
n1
(n
1

n
i=1
X
2
i


X
2
n
), n 2)
converge P

-p.s. vers E

[X
2
1
]E

[X
1
]
2
= Var

(X
1
) =
2
1
. La suite destimateurs
(V
n
, n 2) est donc convergente. De meme, on verie que la suite destimateurs
(W
m
, m 2) est convergente.
338
XIII.12 Controles de n de cours
II Simplication du mod`ele
1. On a sous H
0
,
Z
n,m
=
(n 1)V
n
/
2
1
n 1
m1
(m1)W
m
/
2
2
.
On deduit donc de I.4, que la loi de Z
n,m
sous H
0
est la loi de Fisher-Snedecor
de param`etre (n 1, m1).
2. Comme (V
n
, n 2) et (W
m
, m 2) sont des estimateurs convergents de

2
1
et
2
2
, la suite (Z
n,m
, n 1, m 1) converge P

-p.s. vers
2
1
/
2
2
quand
min(n, m) . Sous H
0
cette limite vaut 1. Sous H
1
cette limite est die-
rente de 1.
3. Sous H
1
, on a P

-p.s. lim
min(n,m)
Z
n,m
,= 1. En particulier, on en deduit que
sous H
1
, P

-p.s.
lim
min(n,m)
1
a
n1,m1,
1
<Zn,m<b
n1,m1,
2

= 0.
On note la region critique

W
n,m
= Z
n,m
,]a
n1,m1,
1
, b
n1,m1,
2
[.
Par convergence dominee, on en deduit que sous H
1
, lim
min(n,m)
P

(

W
n,m
) =
1. Le test est donc convergent. Lerreur de premi`ere esp`ece associee `a la region
critique

W
n,m
est pour H
0
,
P

(

W
n,m
) = P

(Z
n,m
a
n1,m1,
1
) +P

(Z
n,m
b
n1,m1,
2
)
= P(F
n1,m1
a
n1,m1,
1
) +P(F
n1,m1
b
n1,m1,
2
)
=
1
+
2
,
o` u lon a utilise le fait que a
n1,m1,
1
b
n1,m1,
2
pour la premi`ere egalite, le
fait que sous H
0
, Z
n,m
a meme loi que F
n1,m1
pour la deuxi`eme egalite, et la
denition de a
n1,m1,
1
et b
n1,m1,
2
pour la troisi`eme egalite. En particulier
le niveau du test est donc =
1
+
2
. Il est independant de n, m et de H
0
.
4. On a donc
1
=
2
= 2.5%. On en deduit donc, avec n = 25 et m = 31, que
a
n1,m1,
1
= 0.453 et b
n1,m1,
2
= 2.136. La region critique est donc
[0, 0.453] [2.136, +[.
La valeur observee de Z
n,m
est 0.809 (`a 10
3
pr`es), elle nappartient pas `a la
region critique. On accepte donc H
0
.
339
XIII Corrections
5. La p-valeur du test est la plus grande valeur de pour laquelle on accepte H
0
.
On accepte H
0
si a
n1,m1,
1
< 0.809, donc si
1
< 0.3 et donc si = 2
1
<
0.6. La p-valeur est donc de 0.6. Il est tout `a fait raisonnable daccepter H
0
.
La p-valeur est tr`es superieure aux valeurs critiques classiques (telles que 0.1,
0.05 ou 0.01).
6. Soit ]0, 1[. Comme F
n,m
a meme loi que Z
n+1,m+1
sous H
0
, on a
P(F
n,m
1 ) = P(Z
n+1,m+1
1 ).
On a vu que sous H
0
, lim
min(n,m)
Z
n,m
= 1. Par convergence dominee, on
en deduit que
lim
min(n,m)
P(Z
n,m
1 ) = 0.
On a donc lim
min(n,m)
P(F
n,m
1 ) = 0. En particulier, pour min(n, m)
assez grand on a P(F
n,m
1 ) <
1
, ce qui implique que a
n,m,
1
> 1 .
Un raisonnement similaire assure que lim
min(n,m)
P(F
n,m
1 + ) = 0, et
donc b
n,m,
2
< 1+ pour min(n, m) assez grand. Comme a
n,m,
1
< b
n,m,
2
, on
en deduit que
1 < liminf
min(n,m)
a
n,m,
1
limsup
min(n,m)
b
n,m,
2
< 1 +.
Comme ]0, 1[ est arbitraire, on en deduit que
lim
min(n,m)
a
n,m,
1
= lim
min(n,m)
b
n,m,
2
= 1.
III Comparaison de moyenne
1. La loi de
n +m2

2
S
n,m
est dapr`es I.4 la loi du
2
`a n + m 2 degr`es de
liberte. On a P

-p.s.
lim
min(n,m)
V
n
= lim
min(n,m)
W
m
=
2
.
On en deduit donc que
lim
min(n,m)
S
n,m
=
2
.
2. On deduit de I.2 et de I.3 que les variables

X
n
et

Y
m
sont independantes de
loi gaussienne respective ^(
1
,
2
/n) et ^(
2
,
2
/m). En particulier (

X
n
,

Y
m
)
forme un vecteur gaussien. Ainsi
1

_
nm
n +m
(

X
n

Y
m
), transformation lineaire
du vecteur gaussien (

X
n
,

Y
m
), suit une loi gaussienne de moyenne
340
XIII.12 Controles de n de cours
E

_
1

_
nm
n +m
(

X
n


Y
m
)
_
=
1

_
nm
n +m
(
1

2
),
et de variance, en utilisant lindependance entre

X
n
et

Y
m
,
Var

_
1

_
nm
n +m
(

X
n


Y
m
)
_
=
1

2
nm
n +m
(

2
n
+

2
m
) = 1.
3. Dapr`es I.3, les variables aleatoires S
n,m
et
1

_
nm
n +m
(

X
n


Y
m
) sont inde-
pendantes. La loi de (n + m 2)S
n,m
/
2
est la loi du
2
`a n + m 2 degr`es
de liberte. De plus, sous H
0
,
1

_
nm
n +m
(

X
n


Y
m
) est une gaussienne ^(0, 1).
On en deduit que sous H
0
,
T
n,m
=
1

_
nm
n +m
(

X
n


Y
m
)

n +m2
(n +m2)S
n,m
/
2
suit une loi de Student de param`etre n +m2.
4. Sous H
1
, la limite de la suite (

X
n


Y
m
, n 1, m 1) quand min(n, m)
est
1

2
P

-p.s. dapr`es I.5.


5. On deduit de ce qui prec`ede, que sous H
1
, la suite ((

X
n


Y
m
)/
_
S
n,m
, n
2, m 2) converge quand min(n, m) vers (
1

2
)/ P

-p.s. De plus, on
a
lim
min(n,m)
_
nm
n +m
= lim
min(n,m)
1
_
1
n
+
1
m
= +.
On en deduit que sous H
1
, P

-p.s., la suite (T
n,m
, n 2, m 2) converge quand
min(n, m) vers + car
1
>
2
.
6. On consid`ere la region critique
W
n,m
= T
n,m
> c
n+m2,
,
o` u c
k,
est le quantile dordre 1 de la loi de Student de param`etre k. Comme
la suite (S
n,m
, n 2, m 2) converge p.s. vers
2
quand min(n, m) , on
deduit du theor`eme de Slutsky que la suite (T
n,m
, n 2, m 2) converge en
loi, sous H
0
, vers G de loi gaussienne centree reduite quand min(n, m) .
Comme G est une variable continue, on en deduit que pour tout c R,
lim
min(n,m)
P(T
n,m
> c) = P(G > c).
En particulier, cela implique que la suite (c
n+m2,
, n 2, m 2) converge
vers c

le quantile dordre 1 de G. Cette suite est donc majoree par une


341
XIII Corrections
constant, disons c. Par convergence dominee, on deduit de la reponse `a la
question precedente que sous H
1
,
liminf
min(n,m)
P

(T
n,m
> c
n+m2,
) liminf
min(n,m)
P

(T
n,m
> c) = 1.
Donc on a
lim
min(n,m)
P

(W
n,m
) = 1,
et le test est convergent. De plus lerreur de premi`ere esp`ece associee est, pour
H
0
,
P

(W
n,m
) = P

(T
n,m
> c
n+m2,
) = .
Le niveau de ce test est donc .
7. On obtient pour = 5%, c
n+m2,
= 1.674. La region critique est donc
[1.674, [. La valeur observee de T
n,m
est 3.648 (`a 10
3
pr`es), elle appartient
`a la region critique. On rejette donc H
0
.
8. La p-valeur du test est la plus grande valeur de pour laquelle on accepte
H
0
. On accepte H
0
si c
n+m2,
> 3.648, ce qui correspond `a compris entre
2.5/10 000 et 5/10 000 (en fait la p-valeur est egale `a 0.0003). Il est tout `a fait
raisonnable de rejeter H
0
. La p-valeur est tr`es inferieure aux valeurs critiques
classiques (telles que 0.1, 0.05 ou 0.01).
IV Variante sur les hypoth`eses du test
1. On deduit de III.5 que sous H

1
, P

-p.s., la suite (T
n,m
, n 2, m 2) converge
quand min(n, m) vers + si
1
>
2
, et vers si
1
<
2
.
2. On consid`ere la region critique
W

n,m
= [T
n,m
[ > c
n+m2,/2
,
o` u c
k,/2
est le quantile dordre 1 /2 de la loi de Student de param`etre k.
Par convergence dominee, on deduit de la reponse `a la question precedente que
sous H

1
,
lim
min(n,m)
P

(W

n,m
) = 1.
Le test est donc convergent. De plus lerreur de premi`ere esp`ece associee est
pour H
0
P

(W

n,m
) = P

([T
n,m
[ > c
n+m2,/2
) = .
Le niveau de ce test est donc . Pour = 5%, on obtient c
n+m2,/2
= 2.005.
La p-valeur du test est la plus grande valeur de pour laquelle on accepte
H
0
. On accepte H
0
si c
n+m2,/2
> 3.648, ce qui correspond `a compris entre
342
XIII.12 Controles de n de cours
5/10 000 et 10/10 000 (en fait la p-valeur est egale `a 0.0006). Il est tout `a fait
raisonnable de rejeter H
0
. La p-valeur est tr`es inferieure aux valeurs critiques
classiques (telles que 0.1, 0.05 ou 0.01).
3. Sous P
(
1
,,
2
,)
,

X
n


Y
m
a meme loi que

X
n


Y
m
+
1

2
sous P
(0,,0,)
.
On en deduit donc que sous H

0
,
P
(
1
,,
2
,)
(T
n,m
> c) = P
(0,,0,)
_
T
n,m
+
_
nm
n +m

2
_
S
n,m
> c
_
= P
(0,,0,)
_
T
n,m
> c
_
nm
n +m

1

2
_
S
n,m
_
P
(0,,0,)
(T
n,m
> c)
car
1

2
pour la derni`ere egalite. En particulier, pour c = c
n+m2,
, lerreur
de premi`ere esp`ece du test pur de region critique W
n,m
= T
n,m
> c est donc
majoree par P
(0,,0,)
(T
n,m
> c
n+m2,
). Or cette derni`ere quantite est egale `a
dapr`es III.6. De plus ce test est convergent dapr`es III.6. En conclusion, le
test pur de III.6 est un test convergent de niveau pour tester H

0
contre H
1
.
En particulier, on rejette H

0
, avec une p-valeur egale `a 3/10 000.

Exercice XII.8.
I Estimations et intervalles de conance du param`etre de la loi de
Pareto
1. Si 1 alors X
1
nest pas integrable et E[X
1
] = , si > 1 on a E

[X
1
] =

1
. Si 2 alors X
1
nest pas de carre integrable, si > 2 on a E

[X
2
1
] =

2
.
2. La methode des moments sugg`ere de regarder lestimateur
n
= g
1
(

X
n
), o` u
g() = E

[X
1
] =

1
et

X
n
=
1
n
n

k=1
X
k
. Comme g
1
= g, on en deduit que

n
=

X
n

X
n
1
. Si > 1, alors (

X
n
, n 1) converge p.s. vers E

[X
1
] = g() > 1.
Comme g
1
est continue sur ]1, +[, on en deduit que (
n
, n 1) est un
estimateur convergent de .
Remarquons que si 1, alors (

X
n
, n 1) converge p.s. vers E

[X
1
] = +,
car les variables aleatoires X
i
sont positives. On en deduit que la suite (
n
, n 1)
converge vers 1. Donc lestimateur nest pas convergent si < 1, et il est convergent
si 1.
343
XIII Corrections
3. La vraisemblance du mod`ele est, par independance des variables aleatoires,
p
n
(x
1
, . . . , x
n
; ) =
n
e
(+1)
P
n
i=1
log(x
i
)
n

i=1
1
x
i
>1
.
Par le theor`eme de factorisation, on reconnat que S
n
=

n
i=1
log(X
i
) est une
statistique exhaustive. On peut egalement remarquer quil sagit dun mod`ele
exponentiel. Lestimateur
n
nest pas une fonction de la statistique exhaustive.
Il peut donc etre ameliore.
4. On calcule la log-vraisemblance :
L
n
(x
1
, . . . , x
n
; ) = nlog() ( + 1)
n

i=1
log(x
i
) + log(
n

i=1
1
x
i
>1
).
La derivee de la log-vraisemblance est
L
n

(x
1
, . . . , x
n
; ) =
n

i=1
log(x
i
).
On en deduit que
L
n

= 0 pour =
n

n
i=1
log(x
i
)
. De plus la derivee est
negative (resp. positive) strictement pour les valeurs plus petites (resp. grandes)
du param`etre. On en deduit donc que la log-vraisemblance est maximale en
=
n

n
i=1
log(x
i
)
. Lestimateur du maximum de vraisemblance de est donc

n
=
n

n
i=1
log(X
i
)
.
5. Soit g une fonction mesurable bornee. Avec le changement de variable y =
log(x) de ]1, +[ dans ]0, [, on a
E[g(log(X
1
))] =
_
g(log(x))f

(x) dx =
_
g(y)e
y
1
y>0
dy.
On en deduit que la loi de log(X
1
) est la loi exponentielle de param`etre . En
particulier, on a E

[log(X
1
)] = 1/ et E

[log(X
1
)
2
] = 2/
2
.
6. Comme log(X
1
) est integrable, on deduit de la loi forte des grands nombres
que p.s.
_
1
n
n

i=1
log(X
i
), n 1
_
converge vers E

[log(X
1
)] =
1
. Comme la
fonction g(x) = 1/x est continue en 1/ ]0, [, et que
n
= g(
1
n
n

i=1
log(X
i
)),
on en deduit que la suite (
n
, n 1) converge p.s. vers . Lestimateur du
maximum de vraisemblance est donc convergent.
344
XIII.12 Controles de n de cours
7. Comme log(X
1
) est de carre integrable, on deduit du theor`eme central limite
que
_

n(
1
n
n

i=1
log(X
i
)
1
), n 1
_
converge en loi vers la loi gaussienne
^(0,
2
), o` u
2
= Var

(log(X
1
)) =
2
. Comme la fonction g(x) = 1/x est de
classe C
1
en 1/ ]0, [, on en deduit que la suite (

n(
n
), n 1) converge
en loi vers la loi gaussienne centree de variance
2
g

(
1
)
2
=
2
(
2
)
2
=
2
.
Lestimateur du maximum de vraisemblance est asymptotiquement normal de
variance asymptotique
2
.
8. On calcule la derivee seconde de la log-vraisemblance :

2
L
n

2
(x
1
, . . . , x
n
; ) =
n

2
.
On en deduit donc que
I
n
= E

2
L
n

2
(X
1
, . . . , X
n
; )] =
n

2
.
Donc on a I = I
1
=
2
. La variance asymptotique de
n
est egale `a 1/I. Les-
timateur du maximum de vraisemblance est donc asymptotiquement ecace.
9. On deduit du theor`eme de Slutsky que la suite
_
(

n(
n
),
n
), n 1
_
converge en loi vers la loi de (G, ), o` u G est une variable gaussienne de
loi ^(0, 1). Comme la fonction f(x, y) = x/y est continue sur R R

, on en
deduit que la suite
_
n(
n
)
1
n
, n 1
_
converge en loi vers la loi de G.
Donc, si z est le quantile dordre 1 /2 de la loi ^(0, 1), on en deduit que
lim
n
P

_
n(
n
)
1
n
[z, z]
_
= P(G [z, z]) = 1 .
De lequivalence

n(
n
)
1
n
[z, z] [
n

z
n

n
],
on deduit que IC = [
n

z
n

n
] est un intervalle de conance asymptotique de
de niveau 1 .
10. On a par independance, et en utilisant le fait que la loi de log(X
i
) est la loi
exponentielle de param`etre , que


1
n
(u) =
n

i=1

n
1
log(X
i
)
(u) =
log(X
1
)
(u/n)
n
=
_

iu/n
_
n
=
_
n
n iu
_
n
.
345
XIII Corrections
On en deduit que
1
n
suit la loi gamma de param`etre (n, n). Si z

(resp. z
+
)
est le quantile dordre /2 (resp. 1 /2) de la loi gamma (n, n), on en deduit
que
P

( [
n
z

,
n
z
+
]) = P

(
1
n
[z

, z
+
]) = 1 .
Ainsi IC

= [
n
z

,
n
z
+
] est un intervalle de conance exact pour de niveau
1 .
II Comparaison dechantillons
1. Les suites sont independantes a priori.
2. Lestimateur du maximum de vraisemblance secrit comme une fonction de
la somme des logarithmes des observations. La somme reste inchangee si on
classe par ordre decroissant les termes. En particulier, on peut donc calculer
lestimateur `a partir des donnees classees.
Soit K un compact de R. Si on reprend la demonstration du TCL du cours, on
remarque que pour u K, on peut majorer uniformement les restes qui inter-
viennent dans le developpement `a lordre de 2 des fonctions caracterisitiques. Cela
permet de verier que la convergence des fonctions caracteristiques est uniforme
sur les compacts.
3. On note la valeur commune de
UE
et
USA
. On utilise les fonctions carac-
teristiques. Par independance, on a

m
n+m
Z
UE
n

n
n+m
Z
USA
m
(u) =

m
n+m
Z
UE
n
(u)

n
n+m
Z
USA
m
(u)
=
UE
n
(
_
m
n +m
u)
USA
m
(
_
n
n +m
u)
=
_
e

m
n+m
u
2

2
/2
+g
n,m
(u)
_ _
e

n
n+m
u
2

2
/2
+h
n,m
(u)
_
= e
u
2

2
/2
+
n,m
(u),
o` u les fonctions g
n,m
, h
n,m
et
n,m
sont telles ques les egalites soient vraies.
Comme
m
n +m
,
n
n +m
[0, 1], on deduit de la convergence uniforme de
EU
n
et
USA
m
vers la fonction caracteristique de la loi ^(0,
2
), que
lim
min(n,m)
g
n,m
(u) = lim
min(n,m)
h
n,m
(u) = lim
min(n,m)

n,m
(u) = 0.
On en deduit donc que
lim
min(n,m)

m
n+m
Z
UE
n

n
n+m
Z
USA
m
(u) = e
u
2

2
/2
.
346
XIII.12 Controles de n de cours
Quand min(n, m) , la suite
__
m
n +m
Z
UE
n

_
n
n +m
Z
USA
m
, n N

, m N

_
converge en loi vers une loi gaussienne ^(0,
2
).
4. Si
UE
=
USA
, on a

n,m
=
_
m
n+m
Z
UE
n

_
n
n+m
Z
USA
m

n,m
.
De la convergence des estimateurs, on deduit que (
2
n,m
, n N

, m N

)
est, quand min(n, m) , un estimateur convergent de
2
. On deduit de la
question precedente et du theor`eme de Slutsky que si
UE
=
USA
, la suite
(
n,m
, n N

, m N

) converge en loi, quand min(n, m) , vers la loi


^(0, 1).
5. Si
UE
<
USA
, on a p.s.
lim
min(n,m)

UE
n

USA
m
< 0, lim
min(n,m)
_
mn
m+n
= +,
et par la loi forte des grands nombres p.s.
min(
UE
,
USA
) liminf
min(n,m)

n,m
limsup
min(n,m)

n,m
max(
UE
,
USA
).
De sorte que p.s. on a lim
min(n,m)

n,m
= .
6. Par un raisonnement symetrique, on a lim
min(n,m)

n,m
= +, si
UE
>
USA
.
7. Vu les comportements sous H
0
et sous H
1
de la statistique de test, il est naturel
de considerer le test de region critique W =
n,m
c.
8. On note T
r
=
r
n
r /
r
. Sa loi ne depend que de n
r
. On a
n,m
= h

UE(
USA
), o` u
h
a
(x) =

nm
aT
UE
xT
USA
_
na
2
T
2
UE
+mx
2
T
2
USA
.
En calculant la derivee de h
a
et en utilisant que p.s. T
EU
> 0 et T
USA
> 0, on
verie que la fonction h
a
est decroissante. On a pour
UE

USA
,
P

UE
,
USA(
n,m
c) = P(h

UE(
USA
) c)
P(h

UE(
UE
) c)
= P(h
1
(1) c),
o` u pour la premi`ere egalite, on a utilise que la loi de h
a
(x) ne depend pas de

UE
ni de
USA
, la decroissance de h
a
pour linegalite, et le fait que h
a
(a) est
347
XIII Corrections
independant de a pour la derni`ere egalite. On en deduit donc que le niveau du
test est donne par
sup
0<
UE

USA
P

UE
,
USA(
n,m
c) = P
1,1
(
n,m
c).
9. On deduit de la question precedente et de la question II.4, que
lim
min(n,m)
sup
0<
UE

USA
P

UE
,
USA(
n,m
c) = lim
min(n,m)
P
1,1
(
n,m
c) = P(G c),
o` u G est de loi ^(0, 1). Le test est de niveau asymptotique pour c egal au
quantile dordre 1 de la loi ^(0, 1).
10. Par convergence dominee, on a pour
UE
>
USA
lim
min(n,m)
E

UE
,
USA[1
n,mc
] = 1.
Le test est donc convergent.
11. La p-valeur asymptotique du test est P(G >
obs
n,m
), o` u G est de loi ^(0, 1) et

obs
n,m
est la statistique de test evaluee en les observations.
III Application numerique
1. On obtient

UE
n
1.590, IC
UE
[1.399, 1.782],
USA
n
1.348, et IC
USA
[1.161, 1.536].
Les intervalles de conance asymptotique sont tr`es proches des intervalles exacts
(cf. la derni`ere question de la partie I) qui sont : IC
UE

= [1.404, 1.787] et IC
USA

=
[1.168, 1.542].
2. On obtient
n,m
1.728 et une p-valeur asymptotique de 4.2% environ.
3. On rejette donc au niveau de 5% le fait quil existe relativement plus de tr`es
grandes villes dans lUE quaux USA.
IV Reduction des lois de Pareto
1. La fonction de repartition de la loi de Pareto est nulle pour x et pour
x > on a
F
,
(x) = P(

X
1
x) = 1

.
348
XIII.12 Controles de n de cours
2. Il vient pour y > et x > 1,
P
_

X
1
y
> x

X
1
> y
_
=
1 F
,
(yx)
1 F
,
(y)
=
1
x

= 1 F
,1
(x).
La fonction de repartion de

X
1
y
sachant

X
1
> y est 1 P
_

X
1
y
> x

X
1
> y
_
=
F
,1
(x) pour x > 1. Elle est nulle si x 1. On en deduit donc que la loi de

X
1
y
sachant

X
1
> y est la loi de Pareto de param`etre (, 1).
Nous demontrons les resultats admis de lenonce. On pose m = n +k. Le vecteur
(

X
1
, . . . ,

X
m
) poss`ede une densite. En particulier p.s.

X
i
,=

X
j
pour 1 i < j m.
On en deduit donc que p.s. le reordonnement decroissant est bien deni et quil est
unique. De plus les ev`enements

X
(1)
> >

X
(m)
o` u parcourt lensemble
o
m
des permutations de 1, . . . , m sont disjoints deux `a deux, et dapr`es ce qui
prec`ede leur union est de probabilite 1. Si h est une fonction mesurable bornee, on
a donc par la formule de decomposition
E[h(

X
(1)
, . . . ,

X
(m)
)] =

Sm
E[h(

X
(1)
, . . . ,

X
(m)
)1


X
(1)
>>

X
(m)

]
=

Sm
E[h(

X
(1)
, . . . ,

X
(m)
)1


X
(1)
>>

X
(m)

]
=

Sm
_
h(x
(1)
, . . . , x
(m)
)1
x
(1)
>>x
(m)

i=1
f
,
(x
i
) dx
1
. . . dx
m
= m!
_
h(x
1
, . . . , x
m
)1
x
1
>>xm
m

i=1
f
,
(x
i
) dx
1
. . . dx
m
,
o` u lon a utilise pour la troisi`eme egalite le fait que les variables

X
1
, . . . ,

X
m
sont
independantes et de densite f
,
et la symetrie pour la quatri`eme egalite. On en
deduit donc le reordonnement decroissant est un vecteur de loi continue et de
densite
g
m
(x
1
, . . . , x
m
) = m! 1
x
1
>>xm
m

i=1
f
,
(x
i
).
3. Par la formule des lois marginales, la densite de (

X
(1)
, . . . ,

X
(n+1)
) est donnee
par
f(x
1
, . . . , x
n+1
) =
_
g
m
(x
1
, . . . , x
m
) dx
n+2
. . . dx
m
= 1
x
1
>>x
n+1

n+1

i=1
f
,
(x
i
) h(x
n+1
),
349
XIII Corrections
o` u h(x
n+1
) =
_
1
x
n+1
>x
n+2
>>xm
m

j=n+2
f
,
(x
j
) dx
n+2
. . . dx
m
. En integrant
dabord sur x
m
, il vient que h(x
n+1
) est egal `a
_
1
x
n+1
>x
n+2
>>x
m1

F
,
(x
m1
)f
,
(x
m1
)
m2

j=n+2
f
,
(x
j
) dx
n+2
. . . dx
m1
.
Une primitive de F
,
(x)f
,
(x) est F
,
(x)
2
/2. En integrant sur x
m1
, il vient
que h(x
n+1
) est egal `a
1
2
_
1
x
n+1
>x
n+2
>>x
m2

F
,
(x
m2
)
2
f
,
(x
m2
)
m3

j=n+2
f
,
(x
j
) dx
n+2
. . . dx
m2
.
Par une recurrence immediate, on obtient
h(x
n+1
) =
1
(k 1)!
F
,
(x
n+1
)
k1
f
,
(x
n+1
).
La densite de la loi de (

X
(1)
, . . . ,

X
(n+1)
) est donc
m!
(k 1)!
1
x
1
>>x
n+1

F
,
(x
n+1
)
k1
f
,
(x
n+1
)
n

i=1
f
,
(x
i
),
4. Soit h une fonction bornee mesurable. On a
350
XIII.12 Controles de n de cours
E[h(Y
1
, . . . , Y
n
)]
= E
_
h
_

X
(1)

X
(n+1)
, . . . ,

X
(n)

X
(n+1)
__
=
_
h
_
x
1
x
n+1
, . . . ,
x
n
x
n+1
_
m!
(k 1)!
1
x
1
>>x
n+1

F
,
(x
n+1
)
k1
f
,
(x
n+1
)
n

i=1
f
,
(x
i
) dx
1
. . . dx
n+1
=
_
h
_
x
1
x
n+1
, . . . ,
x
n
x
n+1
_
m!
(k 1)!
1
x
1
>>x
n+1

F
,
(x
n+1
)
k1
f
,
(x
n+1
)
n

i=1

+1
x
+1
i
dx
1
. . . dx
n+1
=
_
h(y
1
, . . . , y
n
)
m!
(k 1)!
1
y
1
>>yn>1
F
,
(x
n+1
)
k1
f
,
(x
n+1
)
n

i=1

y
+1
i
x
+1
n+1
x
n
n+1
dy
1
. . . dy
n
dx
n+1
= c
_
h(y
1
, . . . , y
n
) 1
y
1
>>yn>1
n

i=1
1
y
+1
i
dy
1
. . . dy
n
,
o` u lon a utilise pour la troisi`eme egalite que x
i
> x
n+1
> impliquait x
i
>
pour supprimer les indicatrices 1
x
i
>
, le changement de variable y
i
= x
i
/x
n+1
dans la quatri`eme egalite pour 1 i n, et o` u c ne depend pas de y
1
, . . . , y
n
.
La densite du vecteur (Y
1
, . . . , Y
n
) est donc
f(y
1
, . . . , y
n
) = c1
y
1
>>yn>1
n

i=1
1
y
+1
i
.
On reconnat que f est proportionnel, et donc egal, `a la densite du reordon-
nement decroissant de n variables aleatoires independantes de loi de Pareto de
param`etre (, 1). En particulier, on en deduit que c = n! et que (Y
1
, . . . , Y
n
) a
meme loi que le reordonnement decroissant de n variables aleatoires indepen-
dantes de loi de Pareto de param`etre (, 1). La loi de (Y
1
, . . . , Y
n
) ne depend
donc ni de ni de k.

Exercice XII.9.
351
XIII Corrections
I

Etude sommaire de la loi de Weibull
1. Comme c > 0, on a pour tout x R, P(cX x) = P(X x/c) = F
(,)
(x/c) =
F
(,c)
(x). La loi de cX est donc la loi de Weibull de param`etre (, c).
2. Par changement de variable y = (x/)

, on obtient
E[X

] =
_
x

f
,
(x) dx = (2)

,
E[X
2
] =
_
x
2
f
,
(x) dx = (3)
2
= 2
2
.
3. On utilise la methode de la fonction muette. Soit g mesurable bornee. On a
E[g(X

)] =
_
R
g(x

) f
,
(x) dx
=
_
]0,[
g(x

_
x

_
1
exp
_

_
x

_
dx
=
_
g(y)

y
1
]0,[
(y) dy,
o` u lon a eectue le changement de variable y = x

sur ]0, [. On en deduit que


Y = X

est une variable aleatoire de densite h(y) =

y
1
]0,[
(y). On
reconnat la loi exponentielle de param`etre

. Comme le moment dordre 1


(resp. 2) de la loi exponentielle de param`etre est 1/ (resp. 2/
2
), on retrouve
bien les resultats de la question precedente.
II Pourquoi la loi de Weibull ?
1. On a 1 F
n
(x) = P(min
1in
X
i
> x) et
P( min
1in
X
i
> x) = P(
n

i=1
X
i
> x) =
n

i=1
P(X
i
> x) = (1 F(x))
n
,
o` u lon a utilise lindependance des variables (X
i
, i 1) pour la deuxi`eme
egalite et le fait quelles ont meme loi pour la derni`ere egalite.
2. La reponse precedente assure que min
1kn
X
k
suit la loi de Weibull de para-
m`etre (, n
1/
). On deduit de la reponse `a la question I.1, que n
1/
X
1
suit
egalement la loi de Weibull de param`etre (, n
1/
).
3. Dapr`es la question precedente, le membre de droite de (XII.7) suit la loi de
Weibull de param`etre (, c
L/n
n
1/
). Le membre de gauche suit la loi de
Weibull de param`etre (, c
L
). On en deduit que legalite (XII.7) est satisfaite
en loi pour tout L d`es que c

= c
1

1/
pour tout > 0. La loi de X
(L)
est
alors la loi de Weibull de param`etre (, c
1
L
1/
).
352
XIII.12 Controles de n de cours
4. Si on note G
n
la fonction de repartition de X
(L/n)
1
, on a
G
n
(x) = P(X
(L/n)
1
x) = P((L/n)
1/
X x) = H((L/n)
1/
x).
En particulier, il vient : pour x < 0, lim
n
(1 G
n
(x))
n
= 0 ; et, pour x > 0,
lim
n
(1G
n
(x))
n
= lim
n
_
1 b(L/n)
a/
x
a
+o(n
a/
)
_
n
=
_

_
1 si a > ,
e
bLx
a
si a = ,
0 si a < .
Soit G la fonction de repartition de X
(L)
. Legalite (XII.7) implique que G(x) =
1 (1 G
n
(x))
n
= 1 lim
n
(1 G
n
(x))
n
.
Si a > , on obtient G(x) = 0 pour tout x R. G nest pas une fonction de
repartition dune variable aleatoire reelle.
Si a < , on obtient G(x) = 1
]0,[
(x). G nest pas une fonction de repartition
dune variable aleatoire strictement positive.
Pour a = , G = F
(,(bL)
1/
)
.
G correspond `a une focntion de repartition si et seulement si a = . Il sagit
de la loi de Weibull de param`etre (, (bL)
1/
). La loi de X est alors la loi de
Weibull de param`etre (, b
1/
).
III Estimation du param`etre dechelle
1. Par independance, la densite de lechantillon est le produit des densites. Il
vient :
p
n
(x; ) =
n

i=1
f
(
0
,)
(x
i
) =

n
0

n
0
e

0
P
n
i=1
x

0
i
n

j=1
x

0
1
j
n

l=1
1
x
l
>0
.
2. Le theor`eme de factorisation assure que S =

n
i=1
X

0
i
est une statistique
exhaustive.
3. On consid`ere la log-vraisemblance : L
n
(x; ) = log(p
n
(x; )) :
L
n
(x; ) = nlog(
0
)n
0
log()

0
n

i=1
x

0
i
+(
0
1)
n

j=1
log(x
j
)+
n

l=1
log(1
x
l
>0
).
On a
L
n
(x; )

=
n
0

+
0

0
1
n

i=1
x

0
i
.
353
XIII Corrections
Ainsi la derivee de la log-vraisemblance est nulle en

n
=
_
1
n
n

i=1
x

0
i
_
1/
0
.
De plus, elle est positive pour <

n
et negative pour >

n
. Ceci assure
que la log-vraisemblance atteint son unique maximum en
_
1
n
n

i=1
x

0
i
_
1/
0
.
Lestimateur du maximum de vraisemblance est donc :

n
=
_
1
n
n

i=1
X

0
i
_
1/
0
.
4. Les variables X

0
i
sont independantes de loi exponentielles de param`etres

0
.
En utilisant les fonctions caracteristiques, on en deduit que la loi de
1
n
n

i=1
X

0
i
est la loi de param`etre (n

0
, n).
Si Z suit la loi (, a), on a
E[Z
b
] =
_
]0,[
x
b
1
(a)

a
x
a1
e
x
dx
=
(a +b)

b
(a)
_
]0,[
1
(a +b)

a+b
x
a+b1
e
x
dx =
(a +b)

b
(a)
,
o` u lon a utilise pour la derni`ere egalite le fait que lintegrale de la densite de
la loi (, a +b) vaut 1.
On en deduit donc avec Z =
1
n
n

i=1
X

0
i
, = n

0
, a = n, et b = 1/
0
que
E[

n
] =
(n +
1

0
)
n
1/
0
(n)
.
Le biais est donc egal `a E[

n
] =
_
(n +
1

0
)
n
1/
0
(n)
1
_
. Lestimateur est sans
biais si
0
= 1. On peut obtenir `a laide de la formule de Stirling `a lordre 1,
soit
(z) = e
z
z
z
1
2
(2)
1/2
_
1 +
1
12z
+O
_
1
z
2
__
,
que le biais, quand n tend vers linni, est asymptotiquement equivalent `a
1
n
1
0
2
2
0
.
354
XIII.12 Controles de n de cours
5. On deduit de la loi forte des grands nombres que
_

0
n
, n 1
_
converge p.s.
vers E[X

0
] =

0
. Lestimateur

0
n
de

0
est donc convergent.
On a Var(X

0
) =
2
0
. Le theor`eme central limite assure que
_

n(

0
n

0
), n 1
_
converge en loi vers la loi gaussienne centree de variance
2
0
. Lestimateur

0
n
de

0
est donc asymptotiquement normal de variance asymptotique
2
0
.
6. La fonction g : x x
1/
0
est continue et de classe (
1
sur ]0, [. On deduit de
la question precedente que lestimateur

n
= g(

0
n
) de = g(

0
) est donc
convergent et quil est asymptotiquement normal de variance asymptotique
g

0
)
2

2
0
=
_

0
_
2
.
IV Estimation du param`etre de forme
1. La vraisemblance est :
p
n
(x; (, )) =

n

n
e

P
n
i=1
x

i
+(1)
P
n
j=1
log(x
j
)
n

l=1
1
x
l
>0
.
La log-vraisemblance est :
L
n
(x; (, )) = nlog()nlog()

i=1
x

i
+(1)
n

j=1
log(x
j
)+
n

l=1
log(1
x
l
>0
).
2. Le theor`eme de factorisation ne permet pas de trouver dautre statistique ex-
haustive que lechantillon entier. Dans ce mod`ele, on ne peut pas resumer les
donnees !
3. Pour tout extremum local, le gradient de la log-vraisemblance sannule :
L
n
(x; (, ))

=
n

nlog()+log()

i=1
x

j=1
log(x
j
)x

j
+
n

l=1
log(x
l
),
et
L
n
(x; (, ))

= n

+
1
n

i=1
x

i
.
On recherche (
n
,

n
) tel que
L
n
(x; (
n
,

n
))

=
L
n
(x; (
n
,

n
))

= 0.
355
XIII Corrections
4. On obtient que

n
= u
n
(
n
), avec u
n
denie par
u
n
(a) =
_
1
n
n

i=1
x
a
i
_
1/a
.
Dapr`es la partie III, `a xe, u
n
() maximise la log-vraisemblance. On en
deduit que lestimation de est calculee de mani`ere similaire que soit connu
ou non : soit par u
n
(
0
) si est connu egal `a
0
, soit, si nest pas connu,
par u(
n
), avec
n
lestimateur du maximum de vraisemblance de (quand il
existe).
Verions que la fonction h
n
est strictement croissante. On a
h

n
(a) =
n
(

n
i=1
x
a
i
)
2
_
_
n

k=1
x
a
k
n

j=1
x
a
j
log(x
j
)
2

_
n

l=1
x
a
l
log(x
l
)
_
2
_
_
.
En utilisant Cauchy-Schwarz, il vient
n

k=1
x
a
k
n

j=1
x
a
j
log(x
j
)
2

_
n

l=1
x
a
l
log(x
l
)
_
2
.
En particulier h

n
est strictement positive pour a > 0 car n 2 et il existe i, j
1, . . . , n tels que x
i
,= x
j
. Comme h
n
(0) = 0, ceci assure que h
n
est strictement
positive sur ]0, +[.
5. Comme

n
= u
n
(
n
), on obtient
L
n
(x; (
n
,

n
))

=
n

n
nh
n
(
n
).
Comme
L
n
(x; (
n
,

n
))

= 0, on en deduit que
n
est solution de h
n
(a) = 1/a.
La fonction a h
n
(a)
1
a
est croissante et on a lim
a0
+ h
n
(a)
1
a
= ainsi
que lim
a
h
n
(a)
1
a
= lim
a
h
n
(a) > 0, car h
n
est strictement croissante et
h
n
(0) = 0. On en deduit quil existe une seule valeur
n
solution de h
n
(a) =
1
a
.
De plus on a
n
> 0.
6. On a
g

(a) =
dL
n
(x; (a, u
n
(a)))
da
=
L
n
(x; (a, u
n
(a)))

+
L
n
(a, u
n
(a)))

n
(a).
Par denition de u
n
(a), on a
L
n
(a, u
n
(a)))

= 0. Par denition de h
n
, il vient
g

(a) = n(
1
a
h
n
(a)), qui est une fonction strictement decroissante. La fonction
356
XIII.12 Controles de n de cours
g est donc strictement concave. Elle est donc maximale en
n
unique solution
de h
n
(a) = 1/a.
Dapr`es la question III.3, on sait que la fonction L
n
(x; (, )) est maximale
pour = u
n
(). Ce qui prec`ede assure que la fonction L
n
(x; (, u
n
()))
atteint son maximum en
n
. On en deduit donc que la log-vraisemblance atteint
son unique maximum en (
n
,

n
= u
n
(
n
)).
7. Les variables log(X
1
), X
a
1
log(X
1
) et X
a
1
sont integrables pour tout a > 0. On
deduit de la loi forte des grands nombres que h
n
(a) converge vers
h(a) = E[log(X
1
)] +
E[log(X
1
)X
a
1
]
E[X
a
1
]
.
Un integration par partie assure que
E[log(X
1
)X

1
] =
_

0
log(x)x

f
,
(x)dx
= [log(x)x

(F
,
(x) 1)]

0

_

0
(1 +log(x))x
1
(F
,
(x) 1) dx
=
_

0
(1 +log(x))x
1

x
1
f
,
(x)dx
=

_
1

+E[log(X
1
)]
_
.
Comme E[X

1
] =

, on en deduit que
h() =
E[log(X
1
)X

1
]
E[X

1
]
E[log(X
1
)] =
1

.
Par convergence dominee, on obtient que h est continue et meme derivable de
derivee
h

(a) =
1
E[X
a
1
]
2
_
E[X
a
1
]E[X
a
1
log(X
1
)
2
] E[X
a
1
log(X
1
)]
2
_
.
En utilisant Cauchy-Schwarz, il vient E[X
a
1
]E[X
a
1
log(X
1
)
2
] > E[X
a
1
log(X
1
)]
2
(avec
inegalite stricte car pour tout R, P(log(X
1
)X
a/2
1
= X
a/2
1
) < 1). En particulier
h

est strictement positive pour a > 0. Comme h(0) = 0, ceci assure que h est
strictement positive sur ]0, +[. Donc est lunique racine de h(a) = 1/a. Le
theor`eme de Dini assure que p.s. h
n
converge uniformement vers h sur tout compact
de [0, [. Ceci implique que p.s.
n
, unique racine de h
n
(a) = 1/a converge vers
.

Exercice XII.10.
357
XIII Corrections
1. Sous lhypoth`ese que les variables (w
k
, 1 k 2K + 1) sont independantes,
on obtient que les variables ((w
2k1
, w
2k
), 1 k K) sont independantes. En
revanche, les variables ((w
k
, w
k+1
), 1 k 2K) ne sont pas independantes, et
on ne peut pas appliquer le test dadequation de loi du
2
.
Il sagit deectuer un test dindependance du
2
`a (2 1)(2 1) = 1 degre de
liberte. La statistique du
2
est

(1)
n
= n
( p
C,L
p
C,
p
,L
)
2
p
C,L
+n
( p
L,L
p
L,
p
,L
)
2
p
L,L
+n
( p
C,C
p
C,
p
,C
)
2
p
C,C
+n
( p
L,C
p
L,
p
,C
)
2
p
L,C
,
o` u les frequences empiriques p
i,j
=
N
i,j
n
, p
i,
=
N
i,C
+N
i,L
n
et p
,j
=
N
C,j
+N
L,j
n
sont les estimateurs du maximum de vraisemblance des frequences P(X
k
=
i, Y
k
= j), P(X
k
= i) et P(Y
k
= j). On obtient
(1)
n
130. On lit dans les
tables que P(Z > 11) 0, 1%, o` u Z suit la loi
2
(1). On rejette donc lhypo-
th`ese dindependance au niveau de 99,9%. (On aurait egalement pu utiliser la
statistique
(2)
n
denie par

(2)
n
= n
( p
C,L
p
C,
p
,L
)
2
p
C,
p
,L
+n
( p
L,L
p
L,
p
,L
)
2
p
L,
p
,L
+n
( p
C,C
p
C,
p
,C
)
2
p
C,
p
,C
+n
( p
L,C
p
L,
p
,C
)
2
p
L,
p
,C
.
Dans notre cas particulier
(2)
n
68.)
2. Sous lhypoth`ese nulle (X
k
, Y
k
) independant de meme loi, la loi de (X
k
, Y
k
)
ne depend que du param`etre = P(X
k
= C). La vraisemblance du mod`ele
sous lhypoth`ese nulle secrit
N
(1 )
2KN
avec N = 2N
C,C
+N
C,L
+N
L,C
.
Lestimateur du maximum de vraisemblance de est = N/2K.
Le nombre de valeurs possible pour la variable (X
k
, Y
k
) est m = 4, on estime
un seul param`etre. On eectuer un test dadequation de loi `a une famille `a
un param`etre. Il sagit dun test du
2
a m 1 1 = 2 degres de liberte. La
statistique du
2
est

(1)
n
= n
( p
C,L
(1 ))
2
p
C,L
+n
( p
L,L
(1 )
2
)
2
p
L,L
+n
( p
C,C

2
)
2
p
C,C
+n
( p
L,C
(1 ))
2
p
L,C
.
358
XIII.12 Controles de n de cours
On obtient
(2)
n
135. On lit dans les tables que P(Z > 14) 0, 1%, o` u Z suit
la loi
2
(2). On rejette donc lhypoth`ese nulle au niveau de 99,9%.
Lhypoth`ese nulle est plus contrainte que dans la question precedente. Il nest
pas etonnant que la statistique prenne une valeur plus elevee. (On aurait ega-
lement pu utiliser la statistique
(2)
n
, avec dans notre cas particulier
(2)
n
72.)

Exercice XII.11.
I Mod`ele de reference
1. Comme E
p
[

Z
n
] = p, on a en utilisant lindependance des variables aleatoires
R(

Z
n
, p) = E
p
[(

Z
n
p)
2
] = Var
p
(

Z
n
) =
1
n
Var
p
(Z
1
) =
p(1 p)
n
.
2. En utilisant lindependance des variables aleatoires (Z
1
, . . . , Z
n
), il vient
p
n
(z; p) = P
p
(Z
1
= z
1
, . . . , Z
n
= z
n
) =
n

i=1
P
p
(Z
i
= z
i
) = p
n zn
(1 p)
nn zn
.
La derivee de la log-vraisemblance est
log p
n
(z; p)
p
=
n z
n
p

n n z
n
1 p
= n
z
n
p
p(1 p)
.
Elle sannule en p = z
n
, est strictement positive (resp. negative) pour p < z
n
(resp. p > z
n
). On en deduit donc que la log-vraisemblance atteint son unique
maximum pour p = z
n
. Lestimateur du maximum de vraisemblance est donc

Z
n
.
3. Linformation de Fisher du mod`ele est
I
n
(p) = E
p
_
_
log p
n
(z; p)
p
_
2
_
=
n
2
p
2
(1 p)
2
Var
p
(

Z
n
) =
n
p(1 p)
.
Comme

Z
n
est un estimateur sans biais de p et que R(

Z
n
, p) =
1
I
n
(p)
, on en
deduit que

Z
n
est un estimateur de p ecace (dans la classe des estimateurs
sans biais).
359
XIII Corrections
II Methode de stratication
II.1

Etude `a horizon ni
1. Soit X
1
la reponse dune personne interrogee au hasard. On a E
p
[X
1
] = p.
Cette personne appartient `a la strate h avec probabilite N
h
/N. En decomposant
suivant la strate, S
1
, `a la quelle elle appartient, on a
E
p
[X
1
] = P
p
(X
1
= 1) =
H

h=1
P
p
(X
1
= 1[S
1
= h)P
p
(S
1
= h) =
H

h=1
p
h
N
h
N
.
On en deduit que p =

H
h=1
N
h
N
p
h
.
2. On a E
p
[Y
h
] = p
h
et par linearite, on a E
p
[Y ] =
H

h=1
N
h
N
p
h
= p.
3. Comme les variables aleatoires (Y
h
, 1 h H) sont independantes de variance

2
h
/n
h
, on a
R(Y, p) = Var
p
(Y ) =
H

h=1
Var(
N
h
N
Y
h
) =
H

h=1
N
2
h
N
2
1
n
h

2
h
.
4. La methode de stratication est bonne si son risque quadratique, Var
p
(Y ), est
inferieur au risque quadratique de

Z
n
, `a savoir p(1 p)/n. Cela revient `a dire
que Y est preferable `a

Z
n
. (Remarquer que le nombre de personnes interrogees
est le meme.)
5. On choisit p = 1/2, H = 2, p
1
= 1/4, p
2
= 3/4, N
1
= N
2
= N/2, n
2
= n
2
1
,
n = n
1
+ n
2
. Pour n
1
5, on a Var
p
(Y ) =
1
4
3
16
(
1
n
1
+
1
n
2
1
)
1
4
1
n
1
+n
2
1
=
Var
p
(

Z
n
). Lestimateur

Z
n
est donc strictement preferable `a Y (dans la me-
thode de stratication, lestimation de p
1
nest pas assez precise).
6. On a nVar
p
(Y ) = n
H

h=1
_
N
h
N
_
2
N
nN
h

2
h
=
H

h=1
N
h
N
p
h
(1 p
h
). Linegalite de
Cauchy-Schwarz avec a
h
=
_
N
h
/N et b
h
= p
h
_
N
h
/N assure que
H

h=1
N
h
N
p
h
(1 p
h
) = p
H

h=1
N
h
N
p
2
h
p
_
H

h=1
N
h
N
_
2
_
H

h=1
N
h
N
p
h
_
2
= p(1 p).
Legalite a lieu si et seulement si p
h
= p pour tout 1 h H.
360
XIII.12 Controles de n de cours
7. On desire minimiser
H

h=1
_
N
h
N
_
2

2
h
n
h
en (n
1
, . . . , n
H
), sous la contrainte

H
h=1
n
h
=
n. Cela revient `a minimiser
(n
1
, . . . , n
H1
) =
H1

h=1
_
N
h
N
_
2

2
h
n
h
+
_
N
H
N
_
2

2
H
n

H1
h=1
n
h
sur le compact = (n
1
, . . . , n
H1
) R
H1
, n
h
0 pour tout 1 h H 1
et

H1
h=1
n
h
n. Comme
2
h
> 0, on en deduit que prend la valeur + sur
la fronti`ere de . La fonction atteint donc son minimum dans linterieur de
. Comme la fonction est de classe C
1
dans linterieur de , on recherche
les zeros de son gradient. Comme
2
h
> 0 pour tout 1 h H, on verie
que la nullite du gradient de implique que les termes
_
N
h
N
_
2

2
h
n
2
h
pour 1
h H sont tous egaux, cest-` a-dire pour n
h
proportionnel `a N
h

h
. Comme

H
h=1
n
h
= n, on en deduit quil existe un seul zero du gradient de et que
atteint son unique minimum en ce point. On obtient donc que Var
p
(Y ) est
minimal pour n
h
= N
h

h
/(

H
j=1
N
j

j
) pour tout 1 h H. Ce minimum
vaut
A =
H

h=1
_
N
h
N
_
2

2
h
N
h

h
/(

H
j=1
N
j

j
)
=
_
H

h=1
N
h
N

h
_
2
.
Par ailleurs pour lallocation proportionnelle Var
p
(Y ) est donne par B =
H

h=1
N
h
N

2
h
. Linegalite de Cauchy-Schwarz avec a
h
=
_
N
h
/N et b
h
=
h
_
N
h
/N
assure que A B avec egalite si et seulement si
h
est constant cest-` a-dire si
et seulement si p
h
est egal `a p ou 1 p pour tout 1 h H.
8. Le mod`ele utilise pour construire lestimateur Y est plus riche que celui utilise
pour construire

Z
n
. Il nest donc pas contradictoire de trouver dans ce mod`ele
plus riche des estimateurs sans biais strictement preferables `a

Z
n
.
II.2

Etude asymptotique
1. Il decoule de la loi forte des grands nombres que (Y
h
, n
h
1) converge p.s.
vers p
h
, et du TCL que (

n
h
(Y
h
p
h
), n
h
1) converge en loi vers une loi
gaussienne ^(0,
2
h
).
2. Comme il y a un nombre ni (xe) de strates, le resultat decoule de la question
precedente.
361
XIII Corrections
3. En utilisant lindependance des variables Y
h
, il vient
Y p

Varp(Y )
(u) =
H

h=1
N
h
N
Y
h
p
h

Varp(Y )
(u) =
H

h=1

n
h
(Y
h
p
h
)
(c
h
u),
o` u c
h
=
N
h
N
1
_
n
h
Var
p
(Y )
=
_
_
n
h
N
2
h
H

j=1
N
2
j
n
j

2
j
_
_
1/2
. Remarquons que 0 c
h

1/
h
. En utilisant la convergence uniforme locale des fonctions caracteristiques,
il vient pour tout [u[ K min
1hH

h
,
Y p

Varp(Y )
(u) =
H

h=1
_
e

2
h
c
2
h
u
2
/2
+R
h
(c
h
u)
_
=
H

h=1
e

2
h
c
2
h
u
2
/2
+R(u) = e
u
2
/2
+R(u),
o` u la fonction R est denie par la deuxi`eme egalite. On deduit de lim
n
h

sup
[u[K
[R
h
(u)[ =
0, que lim
min
1hH
n
h

sup
[u[K
[R(u)[ = 0. Donc (Y p)/
_
Var
p
(Y ) converge en loi
vers une loi gaussienne centree reduite ^(0, 1) quand min
1hH
n
h
tend vers
linni.
4. Pour tout 1 h H, on a que p.s.
_
N
h
N
_
2
Y
h
(1 Y
h
) converge vers
_
N
h
N
_
2

2
h
quand min
1hH
n
h
tend vers linni. En particulier, pour > 0 et pour
min
1hH
n
h
susamment grand, on a

Y
h
(1 Y
h
)
2
h


2
h
et donc

H
h=1
_
N
h
N
_
2
Y
h
(1Y
h
)
n
h
Var
p
(Y )
1

H
h=1
_
N
h
N
_
2
[Y
h
(1Y
h
)
2
h
[
n
h
Var
p
(Y )
.
Ceci assure que
1
Var
p
(Y )
H

h=1
_
N
h
N
_
2
Y
h
(1 Y
h
)
n
h
converge p.s. vers 1, quand
min
1hH
n
h
tend vers linni.
5. On pose S
2
=
H

h=1
_
N
h
N
_
2
Y
h
(1 Y
h
)
n
h
. On deduit du theor`eme de Slutsky et
de la question precedente que quand min
1hH
n
h
tend vers linni, alors
Y p
S
converge en loi vers une loi gaussienne centree reduite ^(0, 1). Comme la loi
gaussienne est continue, on en deduit que
P
p
(p [Y a

S]) = P
p
_
Y p
S
[a

]
_

min
1hH
n
h

P(G [a

]) = 1,
362
XIII.12 Controles de n de cours
o` u G est de loi ^(0, 1).

Exercice XII.12.
1. On a P
1
(Y = k) =
1
k(k+1)
pour k N

. Le nombre theorique attendu dartiste


ayant eu k disques dor est n/k(k + 1). Les donnees theoriques sont reportees
dans le tableau XIII.4 .
Nombre de Nombre Nombre de Nombre
disques dor dartistes disques dor dartistes
1 668 (688.5) 10 14 (12.5)
2 244 (229.5) 11 16 (10.4)
3 119 (114.7) 12 13 (8.8)
4 78 (68.8) 13 11 (7.6)
5 55 (45.9) 14 5 (6.6)
6 40 (32.8) 15 4 (5.7)
7 24 (24.6) 16 4 (5.1)
8 32 (19.1) 17 et + 26 (81.0)
9 24 (15.3)
Tab. XIII.4. Nombres dartistes observes (et theoriques entre parenth`eses, si le nombre de disque
dor suit une loi de Yule de param`etre 1) par nombre de disques dor.
2. On utilise le test du
2
dadequation ` a une loi. Soit Y de loi de Yule de para-
m`etre = 1.
a) Mod`ele : (X
i
, i N

) variables aleatoires independantes de meme loi `a


valeurs dans 1, . . . , m.
b) Hypoth`eses : H
0
= X
1
en loi
= min(Y, m). et H
1
= X
1
en loi
,= min(Y, m)
c) Statistique de test :

(1)
= n
m

k=1
(p
obs
(k) p
theo
(k))
2
p
theo
(k)
ou
(2)
= n
m

k=1
(p
obs
(k) p
theo
(k))
2
p
obs
(k)
,
avec p
obs
(k) = n
k
/n o` u n
k
est le nombre dartistes ayant eu k disques dor
si 1 k m1 et n
m
est le nombre dartistes ayant eu au moins m disques
dor, et p
theo
(k) = P
1
(min(Y, m) = k).
d) La region critique au niveau asymptotique est [a, +[ o` u a est le quantile
dordre 1 de la loi du
2
`a m1 degres de liberte.
e) La p-valeur du test est P(Z
(i),obs
) o` u Z suit la loi du
2
`a m1 degres
de liberte et
(i),obs
est la valeur de la statistique de test evaluee sur les
donnees.
363
XIII Corrections
3. On regroupe les cases k pour lesquelles on np
k
(1 p
k
) 5. Comme p
k
k
2
pour k grand, on regroupe les cases telles que k
_
n/5 soit k 17 environ.
4. On remarque que P(Y = ) = ()

k=1
1
+k
et donc
log(P(Y = )) = log(()) + log()

k=1
log( +k).
Soit y = (y
1
, . . . , y
n
) (N

)
n
. On en deduit que la log-vraisemblance est
L
n
(y; ) =
n

i=1
log((y
i
)) + log()
y
i

k=1
log( +k)
= N
1
log()

k=1
N
k
log( +k) +
n

i=1
log((y
i
)).
5. La condition x
2
(x +c)(x +c 1) est equivalente `a c c
2
(2c 1)x. Cette
condition a lieu pour tout x > 1 si et seulement si 2c 1 0 et c c
2
0 soit
c 1/2. On a

k=1
1
( +k)
2

k=1
1
( +k +
1
2
)( +k
1
2
)
=

k=1
1
+k
1
2

1
+k +
1
2
=
1
+
1
2
.
On a

2
L
n
(y; )

=
N
1

2
+

k=1
N
k
( +k)
2
N
1
_

2
+
1
+
1
2
_
=
N
1

2
(2 + 1)
_
2
2
2 1
_
.
La quantite 2
2
2 1 est negative sur ]0, (1 +

3)/2], on en deduit que


la fonction L
n
(y; ) est convexe sur cette ensemble. Comme lim
0
L
n
(y; ) =
, on obtient que la log-vraisemblance poss`ede un seul maximum local sur
]0, (1 +

3)/2].
Remarquons que
L
n
(y; ) N
1
log(1 + 1/) N
2
log( + 2) +
n

i=1
log((y
i
)).
En particulier, si N
2
1, on en deduit que lim

L
n
(y; ) = . Donc la
log-vraisemblance poss`ede au moins un maximum sur ]0, [.
364
XIII.12 Controles de n de cours
6. On utilise le test du
2
dadequation `a une famille de loi.
a) Mod`ele : (X
i
, i N

) variables aleatoires independantes de meme loi `a


valeurs dans 1, . . . , m.
b) Hypoth`eses : H
0
= X
1
en loi
= min(Y, m) o` u Y est de loi de Yule de param`etre
> 0 et H
1
= X
1
en loi
,= min(Y, m) pour tout Y de loi de Yule de param`etre
> 0.
c) Statistique de test :

(1)
= n
m

k=1
(p
obs
(k) p
theo
(k))
2
p
theo
(k)
ou
(2)
= n
m

k=1
(p
obs
(k) p
theo
(k))
2
p
obs
(k)
,
avec p
obs
(k) = n
k
/n o` u n
k
est le nombre dartistes ayant eu k disques dor
si 1 k m 1 et n
m
est le nombre dartistes ayant eu au moins m
disques dor, et p
theo
(k) = P
1
(min(Y, m) = k), o` u Y est de loi de Yule de
param`etre , lestimateur du maximum de vraisemblance de .
d) La region critique au niveau asymptotique est [a, +[ o` u a est le quantile
dordre 1 de la loi du
2
`a m2 degres de liberte.
e) La p-valeur du test est P(Z
(i),obs
) o` u Z suit la loi du
2
`a m2 degres
de liberte et
(i),obs
est la valeur de la statistique de test evaluee sur les
donnees.
7. On refute H
0
(au niveau 10
5
). La notoriete (que lon a modelise par la loi de
Yule) ne sut pas `a expliquer le nombre dor. Autrement dit, le talent existe.
8. La distribution du nombre dartistes ayant moins de 18 disques dor peut etre
modelisee par la loi de Yule (conditionnee `a prendre des valeurs inferieure `a
18), car la p-valeur est elevee. Une conclusion est que le talent existe pour les
artistes ayant au moins 18 disques dor.

Exercice XII.13.
I Preliminaires
1. On a E

[P
v
(1 P)
w
] =
1
B(a, b)
_
]0,1[
x
a+v1
(1 x)
b+w1
=
B(a +v, b +w)
B(a, v)
et
en particulier E

[P] = a/(a +b).


2. Un enfant pris au hasard dans une famille donnee `a une probabilite P detre
un gar con, la famille etant choisie au hasard, lenfant a une probabilite E

[P]
detre un gar con.
365
XIII Corrections
3. La loi conditionnelle de X
n
sachant P est la loi binomiale de param`etre (n, P).
Autrement dit E[g(X
n
)[P] = (P) o` u (p) = E[g(Z
p
)] o` u Z
p
est une variable
aleatoire de loi binomiale de param`etre (n, p).
4. On a
E

[X
n
] = E

[E[X
n
[P]] = E

[nP] = nE

[P].
ainsi que
Var

(X
n
) = E

[X
2
n
] E

[X
n
]
2
= E

_
E[X
2
n
[P] E[X
n
[P]
2

+E

[nP
2
] E

[nP]
2
= E

[nP(1 P)] +n
2
Var

(P),
o` u lon a utilise pour la derni`ere egalite que la variance dune loi binomiale de
param`etre (n, p) est np(1 p).
5. Il sut dutiliser les resultats suivants qui se deduisent de la question I.1 :
E

[P] =
a
a +b
, E

[P
2
] =
a(a + 1)
(a +b)(a +b + 1)
et E

[P(1P)] =
ab
(a +b)(a +b + 1)
.
II Estimation des param`etres
1. Si n = 1, la loi de X
n
est la loi de Bernoulli de param`etre p
0
= a/(a + b). Le
param`etre p
0
est identiable, mais pas (il existe plusieurs valeurs possible de
pour une meme valeur de p
0
).
2. On utilise la methode des moments : on resout les equations
m = E

[P] = n
a
a +b
et v = Var

(P) =
m(n m)
n
_
1 +
n 1
a +b + 1
_
pour obtenir
a = m
m(n m) v
nv m(n m)
et b = (n m)
m(n m) v
nv m(n m)
.
Lestimateur des moments de = (a, b) est donc

K
= ( a
K
,

b
K
) avec
a
K
= M
K
M
K
(n M
K
) V
k
nV
k
M
k
(n M
K
)
et

b
K
= (n M
K
)
M
K
(n M
K
) V
k
nV
k
M
k
(n M
K
)
.
3. La convergence p.s. de lestimateur des moments,

K
, vers se deduit de la
convergence p.s. de la moyenne empirique et de la variance empirique et de la
continuite de la fonction (m, v) (a, b) en (E

[P], Var

(P)).
4. La normalite asymptotique de lestimateur des moments,

K
, de se deduit de
la normalite asymptotique du couple forme de la moyenne empirique et de la
variance empirique ainsi que de la propriete (
1
de la fonction (m, v) (a, b)
en (E

[P], Var

(P)).
5. Les verications sont evidentes. On trouve KM
K
= 839 et K
2
V
K
= 146959,
soit a 13.4, b 12.1 et p
0
0.524.
366
XIII.12 Controles de n de cours
III Estimation de la probabilite davoir un gar con
1. On a
E

[h(P)[X
n
= k] =
_
]0,1[
h(p)p
a+k1
(1 p)
b+nk1
dp
_
]0,1[
p
a+k1
(1 p)
b+nk1
dp
= E
(a+k,b+nk)
[h(P)].
2. On deduit de la question precedente que la loi conditionnelle de P sachant
X
n
est la loi de param`etre (a + X
n
, b + n X
n
). Comme lesperance dune
variable aleatoire de loi de param`etre (a

, b

) est a

/(a

+b

), on en deduit que
P
n
= E[P[X
n
] = (a +X
n
)/(a +b +n).
3. On note Z
i
= 1 si le i-`eme enfant de la famille est un gar con et Z
i
= 0 sinon. On
a
X
n
n
=

Z
n
o` u

Z
n
=
1
n
n

i=1
Z
i
. Conditionnellement `a P, les variables aleatoires
(Z
i
, i N

) sont independantes et de meme loi de Bernoulli de param`etre P.


La loi forte des grands nombres assure alors que, conditionnellement `a P, la
suite (

Z
n
, n N

) converge p.s. vers P : E[1


limn

Zn=P
[P] = 1. En prenant
lesperance dans cette derni`ere egalite, on obtient P

(lim
n

Z
n
= P) = 1.
Ceci assure que la suite (X
n
/n, n N) converge p.s. vers P.
4. Comme P
n
=
Xn
n
+
a
n
1 +
a+b
n
, on en deduit que p.s. lim
n
P
n
= P.
5. On a
E

[(P h(X
n
))
2
] = E

[((P P
n
) + (P
n
h(X
n
)))
2
]
= E

[(P P
n
)
2
] +E

[(P
n
h(X
n
))
2
] + 2E

[(P P
n
)(P
n
h(X
n
))]
= E

[(P P
n
)
2
] +E

[(P
n
h(X
n
))
2
]
E

[(P P
n
)
2
],
o` u lon a utilise pour la troisi`eme egalite, gr ace aux proprietes de lesperance
conditionnelle, que
E

[(P P
n
)(P
n
h(X
n
))] = E

_
E

[(P P
n
)(P
n
h(X
n
))[X
n
]
_
= E

_
E

[(P P
n
)[X
n
](P
n
h(X
n
))
_
= 0.
6. Comme la loi conditionnelle de P sachant X
n
est la loi de param`etre (a +
X
n
, b + n X
n
), il faut choisir pour c le quantile dordre 10% de la loi de
param`etre (a +X
n
, b +n X
n
).

Exercice XII.14. On note F la fonction de repartition de X. On note


]a [=]a , a +[.
367
XIII Corrections
I Preliminaires
1. Comme (X, X

) a meme loi que (X

, X), il vient :
P(V x) = P(X

X x) = P(X X

x) = P(V x).
Les fonctions de repartition de V et V sont identiques, donc V et V ont
meme loi. On a
1 P(V < x) = P(V x) = P(V x) = P(V x).
2. On a
2P(V 0) = 1 +P(V 0) P(V < 0) = 1 +P(V = 0)
et
2P(V ) = 1 +P(V ) P(V < ) = 1 P(V ] , [).
3. La premi`ere inegalite decoule de X ]a/2[

]a/2[ XX


] , [. Comme X et X

sont independants et de meme loi, on en deduit que


pour tout a R, > 0,
P(V ] , [) P(X ]a /2[)
2
(F(a +/4) F(a /2))
2
.
Comme lim
x
F(x) = 0 et lim
x
F(x) = 1, on en deduit quil existe a R
tel que F(a +/4) > F(a /2). Ceci assure la seconde inegalite.
4. On deduit de la question I.2 que P(V 0) 1/2, ce qui assure que la mediane
est inferieure ou egale `a 0. On deduit des questions I.2 et I.3 que pour tout
> 0, P(V ) < 1/2, ce qui assure que la mediane est superieure `a . En
conclusion, la mediane est nulle.
5. Soit v R. On a
P(V = v) = E[1
XX

=v
] = E[(X)],
o` u (x) = E[1
xX

=v
] = P(X

= xv) = 0. On en deduit que P(V = v) = 0.


6. Comme P(V = 0), il vient
P(V > 0) = P(V 0) = P(V 0) = P(V < 0) = P(V 0) = 1/2,
o` u lon a utilise que V et V ont meme loi pour la deuxi`eme egalite et (XII.9)
pour la derni`ere. Comme sgn(V ) = 1 = V > 0 et sgn(V ) = 1 = V <
0, on en deduit que sgn(V ) est uniforme sur 1, 1.
368
XIII.12 Controles de n de cours
7. On a, en utilisant que V et V ont meme loi,
E[g(sgn(V ))f([V [)] = g(1)E[f(V )1
V >0
] +g(1)E[f(V )1
V <0
]
= (g(1) +g(1))E[f(V )1
V >0
]
= E[g(sgn(V ))]2E[f(V )1
V >0
].
En prenant g = 1 dans legalite precedente, on obtient E[f([V [)] = 2E[f(V )1
V >0
]
et donc
E[g(sgn(V ))f([V [)] = E[g(sgn(V ))]E[f([V [)].
Ceci assure que sgn(V ) et [V [ sont independants.
II Test des signes
1. Sous H
0
, les variables aleatoires (S
n
, n N

) sont independantes de loi uni-


forme sur 1, 1. En particulier, elles sont de carre integrable et on a E[S
k
] = 0
et Var(S
k
) = 1. On deduit du theor`eme central limite que sous H
0
, la suite
(
n
, n N

) converge en loi vers une variable aleatoire gaussienne de loi ^(0, 1).
2. Avec les notations de la partie I, il vient
E[S
k
] = P(X
k
> Y
k
) P(X
k
< Y
k
) = P(X > X

) P(X < X

)
= P(V > ) P(V < )
= P(V < ) P(V )
= P(V ] , [).
Linegalite (XII.10) assure alors que, sous H
1
, E[S
k
] > 0. La loi forte des grands
nombres assure que p.s. lim
n
1

n

n
= E[S
1
] > 0. On en deduit donc que la
suite (
n
, n N

) converge p.s. vers +.


3. La region critique est W
n
=
n
a. Pour a le quantile dordre 1 de la
loi gaussienne ^(0, 1), la question II.1 assure que le test de region critique W
n
est de niveau asymptotique .
4. La question II.2 assure que sous H
1
, p.s. lim
n
1
na
= 1. On deduit du
theor`eme de convergence dominee assure que, sous H
1
,
lim
n
P(
n
a) = 1.
Le test est donc convergent.
5. La p-valeur asymptotique est donnee par P(G
obs
n
) o` u G est de loi gaus-
sienne ^(0, 1) et
obs
n
est la statistique de test evaluee sur les donnees. On a

obs
n
2.53, la p-valeur asymptotique correspondante est environ 5.7%. Il est
raisonnable daccepter H
0
car la p-valeur est petite.
369
XIII Corrections
6. Sous H
0
,

n
k=1
S
k
est de loi binomiale de param`etre (n, 1/2). On en deduit
que n

n
k=1
S
k
=

n
k=1
(1 S
k
) est egalement de loi binomiale de param`etre
(n, 1/2). On a (avec n = 10)
P(
n

obs
n
) = P(
n

k=1
S
k
9) = P(
n

k=1
(1S
k
) 1) = 2
10
+
_
10
1
_
2
10
0.1%
On accepte donc H
0
. On voit que lapproche asymptotique est de mauvaise
qualite pour des petits echantillons.
III Test de Wilcoxon
1. On deduit de la question I.5 avec X = [V
k
[ et X

= [V

[ et v = 0 que P([V
k
[ =
[V

[) = 0. Il vient
P(k ,= [V
k
[ = [V

[)

k,=
P([V
k
[ = [V

[) = 0.
Ceci assure lunicite de la permutation
n
.
2. Les variables aleatoires ([V
1
[, . . . , [V
n
[) et (S
1
, . . . , S
n
) sont independantes.
Comme
n
est une fonction de ([V
1
[, . . . , [V
n
[), on en deduit que
n
est in-
dependant de (S
1
, . . . , S
n
).
3. Soit s
1
, . . . , s
n
1, 1. On a, en utilisant lindependance de
n
et (S
1
, . . . , S
n
) :
P(S
n(1)
= s
1
, . . . , S
n(n)
= s
n
) =

Sn
P(
n
= , S
(1)
= s
1
, . . . , S
(n)
= s
n
)
=

Sn
P(
n
= )P(S
(1)
= s
1
, . . . , S
(n)
= s
n
)
=

Sn
P(
n
= )2
n
= 2
n
= P(S
1
= s
1
, . . . , S
n
= s
n
).
On en deduit que (S
n(1)
, . . . , S
n(n)
) a meme loi que (S
1
, . . . , S
n
).
4. On a
T
n
=
n

k=1
R
n
(k)1
S
k
>0
=
n

k=1
k1
S
n(k)
>0
.
On remarque que si U est uniforme sur 1, 1, alors 1
U>0
est de loi
de Bernoulli de param`etre 1/2. On deduit des questions III.3 puis I.6 que
(1
S
n(1)
>0
, . . . , 1
S
n(n)
>0
) a meme loi que (1
S
1
>0
, . . . , 1
Sn>0
) et donc que
(Z
1
, . . . , Z
n
).
370
XIII.12 Controles de n de cours
5. Par linearite, il vient E[T

n
] =

n
k=1
k/2 = n(n + 1)/4. En utilisant lindepen-
dance, il vient
Var(T

n
) =
n

k=1
Var(kZ
k
) =
n

k=1
k
2
/4 = n(n + 1)(2n + 1)/24 =
2
n
.
6. On a

n
(u) = E
_
e
iun
_
= E
_
e
iu(T

n(n+1)
4
)/n
_
= E
_
n

k=1
e
iuk(Z
k

1
2
)/n
_
=
n

k=1
E
_
e
iuk(Z
k

1
2
)/n
_
=
n

k=1
1
2
_
e
iuk/(2n)
+e
iuk/(2n)
_
= exp
_
n

k=1
log(cos(
uk
2
n
))
_
,
o` u lon a utilise que T
n
a meme loi que T

n
pour la deuxi`eme egalite, et linde-
pendance pour la quatri`eme egalite.
7. Pour n susamment grand, on a [u[k/2
n
1/2 pour tout k 1, . . . , n. En
utilisant un developpement limite des fonctions cosinus (au voisinage de 0) et
logarithme (au voisinage de 1), on obtient
n

k=1
log(cos(
uk
2
n
)) =
n

k=1
log(1
u
2
k
2
8
2
n
+
1
n
2
g(n, k))
=
n

k=1

u
2
k
2
8
2
n
+
1
n
2
h(n, k)
=
u
2
2
+O(n
1
),
o` u les fonctions g et h sont bornees sur 1 k n. On en deduit que
lim
n

n
(u) = e
u
2
/2
. Ceci assure la convergence en loi de (
n
, n N

) vers une
variable aleatoire gaussienne ^(0, 1).
8. La region critique est W

n
=
n
a. Pour a le quantile dordre 1 de la loi
gaussienne ^(0, 1), la question precedente assure que le test de region critique
W

n
est de niveau asymptotique . Le test est convergent car sous H
1
,
371
XIII Corrections
lim
n
P(
n
a) = 1.
9. La p-valeur asymptotique est donnee par P(G
obs
n
) o` u G est de loi gaus-
sienne ^(0, 1) et
obs
n
est la statistique de test evaluee sur les donnees. On a

obs
n
2.40, la p-valeur asymptotique correspondante est environ 7.2%. Il est
raisonnable de rejeter H
0
car la p-valeur est relativement faible. (La p-valeur
exacte, utilisant la loi de
n
et non son approximation asymptotique, est de
0.7%.) Loperation est donc ecace, mais la p-valeur est plus elevee. Si on re-
jette H
0
, cest avec un risque plus eleve que celui donne par le test de la partie
II.

Exercice XII.15.
I Preliminaires
1. Il vient avec le changement de variable y =

1 v x :
E
_
exp
_
v
2
G
2
__
=
_
R
e

1
2
(1v)x
2 dx

2
=
1

1 v
_
R
e

1
2
(1v)y
2 dy
_
2/(1 v)
=
1

1 v
,
o` u lon a reconnu que e

1
2
(1v)y
2
/
_
2/(1 v) est la densite de (1 v)G.
2. On remarque que les variables aleatoires (
2k2

2k1
, k 2) sont indepen-
dantes, de meme loi integrables et desperance nulle. On deduit de la loi forte
des grands nombres que p.s. lim
n+
1
n/2

n/2
k=1

2k2

2k1
= 0. De mani`ere
similaire, on obtient que p.s. lim
n+
1
n/2

n/2
k=1

2k1

2k
= 0. On en deduit
donc que la suite (T
n
/n, n N

) converge p.s. vers 0.


3. Il decoule de la question 1 est de lindependance des variables aleatoires (
k
, k
N

) que :
E[N
n
(u)] =
_
1
u
2

2
n
_
n/2
.
En remarquant que N
n
(u)
2
= N
n
(

2u), on en deduit que


Var(N
n
(u)) =
_
1
2u
2

2
n
_
n/2

_
1
u
2

2
n
_
n
= e
u
2

2
+o(1)
e
u
2

2
+o(1)
.
On a donc lim
n+
Var(N
n
(u)) = 0.
372
XIII.12 Controles de n de cours
4. Comme N
n
(u) est une fonction de
1
, . . . ,
n1
, il vient :
E[M
n
(u)[
1
, . . . ,
n1
] = N
n
(u) e
iu
T
n1

n
E
_
e
iu
n1
n/

n
[
n1
_
= N
n
(u) e
iu
T
n1

n
e
u
2

2
n1

2
/2n
= exp
_
u
2

2
2
V
n2
n
_
exp
_
iu
T
n1

n
_
.
5. On a :
E[M
n
(u)] = E[E[M
n
(u)[
1
, . . . ,
n1
]] = E
_
exp
_
u
2

2
2
V
n2
n
_
exp
_
iu
T
n1

n
__
.
En iterant n 1 fois, on obtient E[M
n
(u)] = 1.
6. En utiliant linegalite de Jensen deux fois, il vient :

n
(u)E[N
n
(u)] E[M
n
(u)]

E
_

e
iuTn/n
(E[N
n
(u)] N
n
(u))

_
= E
_

E[N
n
(u)] N
n
(u)

E
_

E[N
n
(u)] N
n
(u)

2
_
=
_
Var(N
n
(u)).
On deduit des questions 5 et 3 que
lim
n+

n
(u)E[N
n
(u)] 1

= 0.
Comme lim
n+
E[N
n
(u)] = e
u
2

4
/2
, on en deduit que lim
n+

n
(u) =
e
u
2

4
/2
. Cette limite est valide pour tout u R. Comme e
u
2

4
/2
est la
fonction caracteristique de
2
G, on en deduit que la suite (T
n
/

n, n N

)
converge en loi vers
2
G.
II Estimation des param`etres
1. Il sut de remarquer que, gr ace `a (XII.13), la densite de
k
est donnee par
1

2
2
e
z
2
/2
2
=
1

2
2
e
(x
k
x
k1
)
2
/2
2
.
2. La log-vraisemblace est donnee par :
L
n
(
1
, . . . ,
n
; , , ) =
n
2
log(2
2
)
1
2
2
n

k=1
(x
k
x
k1
)
2
.
373
XIII Corrections
Il sagit, `a la constante
n
2
log(2
2
) dune forme quadratique negative en et .
Pour trouver les valeurs de (, ) en lequelle la log-vraisemblance est maximale,
il sut dannuler ses derivees en et en . On obtient alors le resultat.
3. La formule se demontre trivialement en sommant (XII.13) sur n de 1 `a n 1.
4. La loi forte des grands nombres assure que p.s. lim
n+

n
= 0. On en deduit
que p.s. lim
n+

X
n
(1 ) = .
5. On deduit de (XII.13) que
X
2
k+1
=
2
+
2
X
2
k
+
2
k+1
+ 2X
k
+ 2
k+1
+ 2X
k

k+1
.
En sommant cette relation pour k 0, . . . , n 1, on obtient le resultat.
6. La loi forte des grands nombres assure que p.s. lim
n+
V
n
/n = E[
2
1
] =
2
.
On deduit de la question 4 que : p.s.
lim
n+
X
2
n
(1
2
) =
2
+
2
+ 2

1
et donc b = lim
n+
X
2
n
=

2
(1 )
2
+

2
1
2
.
7. On deduit de (XII.13) que :
X
k+1
X
k
= X
2
k
+X
k
+X
k

k+1
.
En sommant cette relation pour k 0, . . . , n 1, on obtient :

n
= X
2
n1
+

X
n1
+I
n
.
On deduit de ce qui prec`ede que : p.s.
lim
n+

n
= b +a.
8. On deduit de ce qui prec`ede que (
n
, n N

) converge p.s. vers :


b +a a
2
b a
2
=
b a
2
b a
2
= ,
car a a
2
= a
2
.
9. On verie facilement que lestimateur du maximum de vraisemblance de
2
est

2
n
=
1
n
n

k=1

2
k
o` u
k
= X
k

n
X
k1

n
.
374
XIII.12 Controles de n de cours
10. On a :

2
n
= X
2
n1
+
1
n
(X
2
n
X
2
0
)+
2
n
X
2
n1
+

2
n
2
n

n
2

n
(

X
n1
+
n
)+2
n

n

X
n1
.
On en deduit que : p.s.
lim
n+

2
n
= b +
2
b +
2
2(b +a) 2a + 2a =
2
.
Lestimateur du maximum de vraisemblance de
2
est donc convergent.
III Test dutilite du coecient dauto-regression
1. Un calcul elementaire donne pour = 0 :

n
_

n
(

X
n1
+
n
)

X
n1
_
=
T
n

n
+

n

n
n 1
n

n

n1
+
X
0

n
(
1

n
).
Comme

n
n
converge en loi vers G et que
n1
converge p.s. vers 0, on
deduit du theor`eme de Slutsky que

n
n

n1
converge en loi vers 0. On en
deduit que

n
_

n
(

X
n1
+
n
)

X
n1
_
=
Tn

n
+R

n
o` u R

n
converge en loi vers
0.
Par ailleurs, on a :
X
2
n1


X
2
n1
=
V
n1
n

(n 1)
2
n
2

2
n1
+
X
0

n
_
(X
0
)(1
1
n
) 2
n 1
n

n1
_
.
On en deduit que X
2
n1


X
2
n1
=
V
n1
n
+R
n
o` u R
n
converge en loi vers 0.
2. La loi forte des grands nombres assure que la suite (V
n1
/n, n N

) converge
p.s. vers
2
. On deduit de la question I.8 et du theor`eme de Slutsky que sous
H
0
la suite (
n
, n N

) converge en loi vers


2
G/
2
= G.
3. Sous H
1
,
n
converge p.s. vers ,= 0. On en deduit que p.s. lim
n+

n

, +. La region critique du test est donc de la forme W
n
= [
n
[ a.
Ce test est de niveau asymptotique pour a le quantile dordre 1 /2 de la
loi gaussienne ^(0, 1). Le test est convergent.
4. La p-valeur asymptotique de ce test est p-val = P([G[
obs
n
).
5. On a :

n
0.9317722,

n
0.7845925,
2
n
3.7443066,
obs
n
17.801483.
La p-valeur est tr`es faible (inferieure `a 10
23
). On rejette donc tr`es clairement
H
0
.

375
Index
aiguille de Buon, 30
allumettes de Banach, 18
anniversaire, 9, 10, 95
Bertrand (paradoxe de), 13
Black-Sholes, 97
bombes sur Londres, 43
Bonferroni (inegalites de), 10
cavalerie, 70
censure, 55
circuit (serie/parall`ele), 28
clefs, 16
code, 102
collectionneur, 76, 79, 95
compression, 22
contamination au mercure, 45
convergence du maximum, 40, 45
Cox-Ross-Rubinstein, 97
dilution, 60
donnees censurees, 110
duplication pour la fonction , 92
de, 16, 17
des de Weldon, 71
detection de contamination, 60
entropie, 22
estimateur
Bailey, 314
Petersen, 314
famille
2 enfants, 12
5 enfants, 68
nance, 97
fonction
generatrice, 1517
repartition, 51, 95
formule du crible, 11
Galton-Watson, 86
geyser, 131
GPS, 30
grandes deviations, 38
grandes deviations (majoration), 39
gateau avec
cerise, 26
f`eve, 25
genetique, 13
jeu de cartes, 9, 13
jeu de de, 9
jeu de la porte dor, 14
Laplace, 39
Legendre, 39
loi

2
, 27
Bernoulli, 18, 20, 39
beta, 55, 138, 177, 179
biaisee par la taille, 90
binomiale, 38, 43, 45, 226
binomiale negative, 18, 19
Bose-Einstein, 89
Cauchy, 27, 33, 38
conditionnelle, 27
defaut de forme, 35
exponentielle, 26, 33, 37, 54, 55, 61, 173
exponentielle symetrique, 26, 33
Index
Frechet, 45
gamma, 26, 31, 33, 92
gaussienne, 27, 30, 34, 35, 57, 62, 63, 65, 66,
75, 87, 190
Gumbel, 267
geometrique, 1921, 23, 56, 75
hypergeometrique, 38, 226
invariante par rotation, 34
log-normale, 274
Maxwell, 31
Pareto, 122
Poisson, 12, 15, 19, 21, 28, 41, 43, 51, 54, 62,
70, 77, 202
Rayleigh, 30, 58
sans memoire, 21
symetrique, 34
uniforme, 2628, 37, 41, 79
Weibull, 109, 113, 128
Yule, 95, 97, 136
Mann et Whitney, 84
merle, 69
mond`ele non-parametrique, 116
de Montmort (probl`eme de), 12
moyenne, 53
methode MPN, 60
nombres normaux, 44
nombre inconnu, 31
optimisation de co uts, 21
paradoxe
Bertrand (de), 29
bus (du), 81, 91
Saint-Petersbourg (de), 42
param`etre de decalage, 116, 141
population, 86
predominance oeil/main, 69
rapport de vraisemblance, 62
renouvellement, 23
sensibilite, 12
sensibilite dun test, 13
Shannon, 102
somme aleatoire, 34
sondage, 42, 58, 94, 132
specicite, 12
specicite dun test, 13
statisque
dordre, 77, 127
statistique bayesienne, 138
Stirling, 11
stratication, 133
suites typiques, 22
suite consecutive, 10
selection de jure, 68
taux de transmission, 100
test

2
, 6671, 107, 353
degalite des marginales, 67
generateur, 66
Kolmogorov et Smirnov, 332
Mann et Whitney, 117
Mc Nemar, 67
non-parametrique, 141
signes, 141
UPPS, 64, 65
Wilcoxon, 141
test medical, 13
theorie de linformation, 101
theor`eme
Cochran, 87
theor`eme de Weierstrass, 45
tirage
avec remise, 10, 17, 94, 157
sans remise, 10, 38, 94, 157, 226, 287
transformee de Laplace, 39, 101
transformee de Legendre, 39, 101
triangle, 26
urne, 10, 17
vaccin, 62, 68
vecteur
gaussien, 75
vitesse dun gaz, 31
Weierstrass (theor`eme de), 44
Weldon (des de), 70
378

You might also like