You are on page 1of 19

Universite Claude Bernard Lyon 1

Annee universitaire 2011-2012


Preparation au CAPES de Mathematiques
Probabilites (UE 2)
F. Bienven ue-Duheille
Chapitre 1
Probabilite, probabilite conditionnelle
1 Probabilite
1.1 Denitions
On se place sur un ensemble appele espace de probabilite ou univers.
Dans le vocabulaire probabiliste,
Un element de est appele une experience
Un sous-ensemble A de est un evenement.
Un evenement elementaire est un singleton de .
Levenement certain est .
Levenement impossible est lensemble vide.
Deux evenements disjoints sont dits incompatibles.
Denition 1.1. Une mesure de probabilite P est une fonction denie sur P() et `a valeurs dans R
+
veriant les proprietes suivantes :
1. P() = 1.
2. Si A et B sont deux sous-ensembles disjoints de , on a P(A B) = P(A) +P(B).
3. Si (A
n
)
n1
est une famille denombrables de sous-ensembles de deux `a deux disjoints, on a
P
_
_
n1
A
n
_
=

n
P(A
n
).
On deduit la proposition suivante de la denition dune mesure de probabilite :
Proposition 1.2. 1. P() = 0,
2. Si A est un evenement, P(\A) = 1 P(A),
3. Si A B sont deux evenements, P(A) P(B),
4. Si A et B sont deux evenements, P(A B) = P(A) +P(B) P(A B).
Remarque : Le troisi`eme point de la denition signie quune probabilite est une fonction croissante : cest
une facon de calculer la taille des evenements.
On montre facilement par recurrence le resultat suivant appele formule de Poincare ou formule du
crible :
1
Proposition 1.3. Soit (A
k
)
1in
n evenements quelconques de . On a
P
_
n
_
i=1
A
k
_
=
n

i=1
P(A
i
)

1i<jn
P(A
i
A
j
) +
+

1i<j<kn
P(A
i
A
j
A
k
)
+ + (1)
n+1
P
_
n

i=1
A
i
_
.
Remarque : Si vous avez suivi un cours de probabilite en L3, celui se basait certainement sur la theorie de
la mesure, et vous avez d u y croiser des tribus. La notion de tribu est inutile dans le cadre des probabilites
dont vous avez besoin pour le CAPES : la plupart du temps, vous aurez aaire ` a des univers nis ou
denombrables, et la tribu utilisee sera P(). La notion de tribu est utile pour les probabilites dites ` a
densite par rapport ` a la mesure de Lebesgue, mais on peut sen passer en ne considerant que la probabilite
dun intervalle.
Pour la suite de ce cours, on se placera sur un espace muni dune mesure de probabilite P.
1.2 Probabilites discr`etes
La mesure de probabilite P est dite discr`ete d`es que lespace est ni ou denombrable ou plus
generalement, d`es quil existe un sous-ensemble
0
de ni ou denombrable et tel que P(
0
) = 1. Une
probabilite sur un ensemble denombrable sera toujours discr`ete.
On se placera dans la suite de ce paragraphe dans le cas o` u est ni ou denombrable.
Proposition 1.4. Une probabilite sur un ensemble denombrable est compl`etement determinee par les
P({}) pour tout . En eet, pour A , on a
P(A) =

A
P().
NB : le cadre le plus frequent des lecons de CAPES (hormis les lecons de stat) est le cas o` u lensemble
est ni.
Remarques :
Les poids dune probabilite discr`ete P verient

P() = 1.
Une mesure de probabilite ne permet devaluer a priori que la taille de sous-ensembles de .
Des exemples
Lancer dune pi`ece equilibree : on souhaite modeliser le resultat du lancer dune pi`ece sans tricherie.
Pour cela, on choisit
1
= {pile, face}, et donc card
1
= 2. Lensemble des parties de
1
comporte
quatre elements et on denit la mesure de probabilite P par P{pile} = P{face} = 1/2 puisque les deux
evenements sont equiprobables (cest-` a-dire de meme probabilite)..
Remarque : On aurait tr`es bien pu choisir
1
= {pile, face, rouge, vert}, et comme mesure de probabilite
P{pile} = P{face} = 1/2 et P{rouge} = P{vert} = 0, mais tant qu` a faire, on choisit le plus simple...
Lancer de k pi`eces, k 2 : on prend cette fois-ci
k
= (
1
)
k
, cest-`a-dire lensemble des k-uplets de
pile ou face. On a card
k
= 2
k
et cardP(
k
) = 2
2
k
. Les dierents k-uplets sont tous equiprobables donc
P() = 2
k
, pour tout
k
.
2
Probabilite uniforme discr`ete : sur un ensemble ni = {
1
, . . . ,
n
}, on denit la probabilite
uniforme par P(
i
) = 1/n pour tout i entre 1 et n. Dans ce cas, tous les
i
ont la meme probabilite de se
produire (i.e. sont equiprobables), et pour une partie A de , on a
P(A) =
cardA
n
=
nb cas favorables
nb cas possibles
.
Par exemple, lors du lancer dun de regulier ` a six faces, chaque face est obtenue avec la meme probabilite
1/6.
Remarque : Il ne peut bien s ur pas y avoir de loi uniforme sur N.
Exemple de mesure de probabilite sur N

. On lance un de de facon repetee jusqu`a obtenir un 6, et


on note le numero du tirage du premier 6. On a evidemment P(1) = 1/6.
On a egalement
P(2) = P(au premier tirage, on na pas eu de 6 ; au deuxi`eme tirage, on a eu un 6)
=
5
36
car sur les 36 tirages possibles equiprobables, seuls 5 permettent dobtenir le premier 6 au deuxi`eme tirage.
De meme, pour tout k 2,
P(k) = P(k 1 echecs puis une reussite) =
5
k1
6
k
=
_
5
6
_
k1
1
6
.
Cela constitue bien une mesure de probabilite discr`ete sur N

puisque

k1
P(k) = 1.
Attention : Ne pas confondre cette probabilite avec la probabilite de tirer un 6 exactement parmi les k
premiers lancers.
1.3 Probabilite `a densite
On se place sur R et on note dx lelement dintegration de la mesure de Lebesgue. Soit f : R R
une fonction positive et dintegrale sur R egale ` a 1. On supposera que f est continue par morceaux. Il est
facile de verier que lon denit une mesure en posant, pour tout I R :
(I) =
_
R
1
I
(x)f(x) dx.
Une telle mesure est dite ` a densite (par rapport ` a la mesure de Lebesgue sur R). On dit egalement que
cest une probabilite continue.
Remarque : Pour faire le lien avec la theorie de la mesure, la denition ci-dessus est un cas particulier des
mesures ` a densite par rapport ` a la mesure de Lebesgue sur R. Dans le cas general, il sut que la fonction
f soit borelienne, et on peut considerer la probabilite de tout borelien de R.
Des exemples
La mesure uniforme sur lintervalle [a, b], o` u a < b : On denit
(A) =
_
R
1
A[a,b]
(x)
dx
b a
.
La mesure de Gauss sur R. On utilise ici la fonction
f(x) =
1

2
exp
_

(x m)
2
2
2
_
,
o` u m R et R
+
sont deux param`etres xes.
3
2 Probabilite conditionnelle, independance
Denition 1.5. On se donne deux evenements A et B de , avec P(B) > 0. On denit la probabilite
conditionnelle de A sachant B, notee P(A|B) ou P
B
(A) par
P
B
(A) = P(A|B) = P(A B)/P(B).
La notation P
B
(A) est celle ` a privilegier pour le CAPES, notamment pour les lecons doral. Cette
notation evite en eet toute confusion sur le role des deux evenements A et B, et met en evidence le
fait que P
B
(.) est une probabilite sur (cf ci-dessous). Par contre, elle est plus lourde `a lusage d`es que
levenement B est un tant soit peu complique `a decrire.
Par exemple, si lon dispose dun echantillon de mas comportant des grains lisses (L) ou frippes (F)
et de couleur jaune (J) ou bleue (B), on peut calculer la proportion de jaunes parmi les frippes dans
lechantillon considere cest-` a-dire P(J et F)/P(F). On a donc l`a la probabilite de tirer au hasard un grain
jaune et fripe, sachant quon a tire un grain fripe.
La probabilite conditionnelle verie les memes proprietes quune probabilite : on a ainsi P
B
() = 1,
P
B
() = 0, si A
1
et A
2
sont disjoints, P
B
(A
1
A
2
) = P
B
(A
1
) +P
B
(A
2
), P
B
(\A) = 1 P
B
(A)...
On peut donc enoncer la proposition suivante :
Proposition 1.6. Soit B un evenement de probabilite strictement positive. On note P
B
la probabilite
conditionnelle sachant levenement B. Alors P
B
est une probabilite sur , cest-`a-dire que
Pour tout A , P
B
(A) 0.
P
B
() = 1
Si A
1
et A
2
sont incompatibles, P
B
(A
1
A
2
) = P
B
(A
1
) +P
B
(A
2
).
Les probabilites conditionnelles permettent de decomposer un evenement suivant des sous-ensembles
de sur lesquels on matrise mieux ce qui se passe. Pour cela, introduisons la notion de syst`eme complet
devenements :
Denition 1.7. Un syst`eme complet devenements est une famille denombrable ou nie (B
n
) deve-
nements deux `a deux disjoints et veriant
n
B
n
= .
Remarque : Plusieurs denitions dun syst`eme complet devenements cohabitent : suivant lune delle par
exemple, un syst`eme complet devenements est une partition de , dautres denitions imposent que les
B
n
soient tous de probabilite strictement positive ; on peut aussi ne pas imposer que la reunion des B
n
soit egale ` a , mais plut ot quelle soit de probabilite 1... Le point commun `a ces denitions est que les B
n
sont en nombre denombrables, deux ` a deux disjoints et que leur reunion est presque . La denition
indiquee ici nimplique en particulier pas que les B
n
soient non vides.
Remarque : Si lensemble est ni, tout syst`eme complet ne comporte quun nombre ni devenements
non vides.
Proposition 1.8 (Formule des probabilites totales). Soit B
n
un syst`eme complet devenements tel que,
pour tout n 1, P(B
n
) > 0, et A un evenement quelconque. On a
P(A) =

n
P(A B
n
) =

n
P(B
n
)(A)P(B
n
).
Remarque : Si par exemple P(B
1
) = 0, on pourait poser P
B
1
(A) = 0, ou 1, ou 1/2 pour tout A, cela
ninterviendrait pas dans la formule ci-dessus. Neanmoins il est plus pedagogique dimposer que les B
n
soient tous de probabilite strictement positive, pour que la formule ci-dessus soit rigoureuse.
4
Demonstration. Par denition, P
B
n
(A)P(B
n
) = P(A B
n
) et les evenements A B
n
sont deux ` a deux
disjoints car les B
n
le sont. On en deduit donc que

n
P
B
n
(A)P(B
n
) = P((A B
n
))
= P(A (
n
B
n
)) = P(A).
Un probl`eme courant est de determiner P
B
(A) `a partir de P
A
(B). La seule donnee de P
A
(B) ny sut
pas. Il faut par exemple connatre aussi P(A) et P(B) : on a alors
P
B
(A) = P
A
(B)P(A)/P(B).
Une autre possibilite est de connatre P(A) et P
A
(B) o` u

A est le complementaire de A :
Formule de Bayes :
Soient A et B deux evenements de probabilite strictement positive. On verie que
P
B
(A) =
P
A
(B)P(A)
P
A
(B)P(A) +P
A
(B)P(A)
.
Soient (A
n
) un syst`eme complet devenements tel que, pour tout n, P(A
n
) > 0 et B un evenement
tel que P(B) > 0. On a pour tout i :
P
B
(A
i
) =
P
A
i
(B)P(A
i
)

n
P
A
n
(B)P(A
n
)
.
Demonstration. Le denominateur du membre de droite vaut en fait P(B), alors que le numerateur vaut
P(A B), do` u le resultat.
Denition 1.9. Deux evenements A et B sont dits independants si P(AB) = P(A)P(B). On a alors
P(A|B) = P(A) et P(B|A) = P(B) si P(A) > 0 et P(B) > 0.
Exercice :
1. Montrer quun evenement de probabilite nulle est independant de tout evenement.
2. Montrer que si A et B sont independants, alors \A et B le sont.
3. Montrer quun evenement de probabilite 1 est independant de tout evenement.
Exemples :
Lors dun lancer de pile ou face, les evenements tomber sur pile au premier tirage et tomber sur
pile au deuxi`eme tirage sont generalement independants (sauf en cas de tricherie...)
Tirage avec remise. On dispose dune urne contenant N boutons noirs et J boutons jaunes.
`
A chaque ti-
rage, on prend un bouton au hasard, on note la couleur du bouton obtenu et on le remet dans lurne. Les eve-
nements A = {tirer un bouton noir au premier tirage} et B = {tirer un bouton jaune au deuxi`eme tirage}
sont-ils independants ?
Urne de Polya. On dispose toujours dune urne contenant N boutons noirs et J boutons jaunes.
`
A
chaque tirage, on note la couleur du bouton obtenu et on le remet dans lurne accompagne dun bouton
de la meme couleur. Meme question que precedemment.
5
Denition 1.10. Soit n un entier superieur ou egal `a 2. n evenements A
1
, . . . , A
n
sont (mutuellement
ou n `a n) independants si pour tout choix dindices i
1
, . . . , i
k
deux `a deux distincts, on a
P(A
i
1
. . . A
i
k
) = P(A
i
1
) P(A
i
k
).
Des evenements n ` a n independants le sont bien evidemment 2 `a 2 mais la reciproque est fausse.
Exercice :
On choisit = {1, 2, 3, 4} et on le munit de la probabilite uniforme. Trouver trois evenements deux
` a deux independants mais pas trois ` a trois.
Sur = {1, . . . , 8} muni de la probabilite uniforme, trouver trois evenements A, B et C tels que
P(A B C) = P(A)P(B)P(C) mais tels que A, B et C ne sont pas independants.
6
Chapitre 2
Variables aleatoires reelles
1 La loi
1.1 Denition
Une variable aleatoire X sur est une fonction X : R.
Notons la fonction denie de P(R) (ou de P(X())) et ` a valeurs reelles denie par : pour tout
sous-ensemble B de R (ou de X()),
(B) = P(X
1
(B)).

Enoncons la propriete fondamentale de :


Proposition 2.1. La fonction ainsi denie est une probabilite sur R (ou sur lensemble X()).
Denition 2.2. La probabilite est appelee la mesure image de P par X, ou la loi de X.
Sa loi est ainsi compl`etement determinee par la donnee de lensemble X() ainsi que par les quantites
(B) = P(X
1
(B)) pour tout sous-ensemble B de R. On note parfois = X(P) ou = P
X
(attention
dans ce dernier cas ` a ne pas faire de confusion avec la probabilite conditionnelle).
Notation : Pour tout intervalle I, on note
{X I} = { , X() I} = X
1
(I),
et pour tout x R,
{X = x} = { , X() = x} = X
1
({x}).
Les ensembles {X I} et {X = x} sont des sous-ensembles de . On pourra donc etudier par exemple
P{X I} pour tout intervalle I de R, mais pas P(I).
Remarque : En lien avec la theorie de la mesure : normalement, notamment lorsque nest pas denom-
brable, on denit la probabilite P sur une tribu , qui est incluse dans P(). Une variable aleatoire
X : (, ) (R, B(R)) est alors une fonction mesurable, cest-`a-dire que, pour tout borelien B B(R),
X
1
(B) .
La loi est la principale information dont on disposera sur une variable aleatoire : souvent lensemble
sera inconnu ou implicite, on naura donc pas dinformation sur X().
Denition 2.3. La variable aleatoire X sera discr`ete si elle prend ses valeurs dans un ensemble
discret (et sa mesure-image est alors une mesure discr`ete). Sa loi sera caracterisee par lensemble
X() (ou par un ensemble denombrable contenant X()) et par les probabilites P(X = x) pour tout
x X().
7
X sera `a densite (on dit aussi que X est continue) si sa mesure image admet une densite, cest-
`a-dire sil existe une fonction f : R R
+
, continue par morceaux, telle que pour tous reels a et b
veriant a b,
P(X [a, b]) =
_
b
a
f(x) dx.
En particulier en prenant a = b dans legalite ci-dessus, on remarque P(X = a) = 0 pour tout a R.
Remarque : Si est un ensemble ni ou denombrable, toute variable aleatoire denie sur sera discr`ete.
Attention : Deux variables aleatoires peuvent suivre la meme loi sans etre egales : par exemple deux
tirages successifs de pile ou face.
Nous allons maintenant etudier quelques exemples de variables aleatoires discr`etes ou ` a densite, mais
il faut garder `a lesprit que cela ne recouvre pas tous les types de variables aleatoires.
1.2 Exemples de variables aleatoires discr`etes
Denition 2.4. La loi dune variable aleatoire discr`ete est donnee par
lensemble (denombrable) X(),
pour tout x X(), la quantite
P({ tels que X() = x}) = P(X
1
{x}) = P(X = x)
Remarque : On doit avoir

x
P(X = x) = 1, o` u la somme est prise sur x X().
Pour construire une variable aleatoire discr`ete ` a valeurs dans N, on peut aussi commencer par denir une
mesure de probabilite sur N en se donnant le poids p
n
de chaque entier n (avec

p
n
= 1) puis considerer
une variable aleatoire X dun certain espace dans N dont la loi est donnee par P(X = n) = p
n
.
Exercice : On se donne une variable aleatoire X : N. Montrer que la famille A
n
= {, X() = n}
pour tout n 0 forme un syst`eme complet devenements.
Des exemples
Pour un evenement A , on note 1
A
la fonction suivante : 1
A
() = 1 si A et 1
A
() = 0 sinon.
Cette fonction, appelee lindicatrice de levenement A, est une variable aleatoire discr`ete tr`es utile.
Le nombre de piles obtenus lors des 8 premiers tirages dun jeu de pile ou face est aussi une variable
aleatoire discr`ete.
Loi de Dirac en a R. On xe un nombre reel a. La loi de Dirac en a, generalement notee
a
, est la loi
de la variable aleatoire suivante : X() = {a} et P(X = a) = 1. On dit que X vaut presque-s urement
a.
Exercice : Montrer que, pour A R, P(X A) = 1
A
(a) si X suit la loi de Dirac en a.
Loi de Bernoulli. La loi de Bernoulli B(p) de param`etre p [0, 1] est donnee par X() = {0, 1}
et P(X = 1) = p = 1 P(X = 0). Lors dun tirage de pile ou face dune pi`ece equilibree, si on note
X = 1 si la pi`ece tombe sur pile et 0 sinon, on obtient une variable aleatoire de loi de Bernoulli B(
1
2
).
Plus generalement, pour un evenement A quelconque, la variable aleatoire 1
A
suit une loi de Bernoulli de
param`etre P(A).
Loi binomiale. La loi binomiale Bin(n, p), pour n N

et p [0, 1] est donnee par X() = {0, . . . , n}


et P(X = k) =
_
n
k
_
p
k
(1 p)
nk
, pour tout k {0, . . . , n}. On retrouve ici la probabilite dobtenir k fois
exactement au cours de n tentatives (independantes) la realisation dun evenement dont la probabilite est
p. Par exemple, la probabilite de tirer exactement k 6 lors des n premiers lancers dun de est
_
n
k
_
5
nk
6
n
.
Loi uniforme sur {1, . . . , n}. On a ici X() = {1, . . . , n} et cette loi aecte le meme poids ` a chacun
des elements. On a donc P(X = k) = 1/n, pour tout k {1, . . . , n}.
8
Loi geometrique G(p), p ]0, 1[ : Cette loi est donnee par X() = N

et P(X = k) = p(1 p)
k1
pour tout k N

. On a vu plus haut que cest la loi du numero du tirage o` u un evenement se realise pour
la premi`ere fois.
Loi de Poisson P(), > 0. Cest la loi de la variable aleatoire X veriant X() = N et P(X =
k) = e

k
/k!. Elle est generalement utilisee pour modeliser le nombre dappels recus par un serveur au
cours dun laps de temps donne.
1.3 Exemples de loi `a densite
Loi uniforme sur [a, b] : cest la loi de la variable aleatoire X de densite 1
[a,b]
/(b a). La probabilite
quune variable aleatoire de loi uniforme sur [a, b] appartienne ` a un sous-intervalle de [a, b] est proportion-
nelle ` a la longueur de ce sous-intervalle. On a en particulier P(X [a, b]) = 1.
Loi exponentielle de param`etre . Il sagit de la loi de densite f

(x) = exp(x)1
x>0
. Si X suit cette
loi, on a P(X 0) = 1. La loi exponentielle est dite sans memoire au sens o` u pour tous reels positifs s
et t, on a P(X > t + s|X > s) = P(X > t). Cest pour cette raison quelle est utilisee generalement pour
modeliser des temps dattente entre deux evenements : par exemple entre deux pannes successives dune
machine, ou entre deux requetes recues par un serveur informatique.
Loi normale, ou loi de Gauss centree reduite. Il sagit de la loi de la variable aleatoire X de densite
f(x) = e
x
2
/2
/

2. Cest une loi tr`es utilisee en statistique et en modelisation. Nous allons commencer
par verier que cest bien la densite dune probabilite : f est une fonction continue positive, il reste `a voir
que I =
_
R
f(t) dt = 1. On ne connat pas de primitive explicite de la fonction f, mais nous allons calculer
I
2
. On a
I
2
=
__
+

f(t) dt
_
2
=
__
+

f(t) dt
_

__
+

f(s) ds
_
=
_
+

__
+

f(s) ds
_
f(t) dt
=
_
+

_
+

f(s)f(t) ds dt
=
_
R
2
e
(s
2
+t
2
)/2
ds dt
2
.
Procedons ` a un changement de variables en coordonnees polaires en posant s = r cos et t = r sin . Il
vient
I
2
=
_

0
_

e
r
2
/2
r dr d
2
=
_

0
re
r
2
/2
dr
= 1.
La loi normale N(m,
2
) est de densite
f(x) =
1

2
exp
_
(x m)
2
2
2
_
9
2 Esperance, variance, fonctions generatrice et caracteristique
2.1 Esperance et variance
Donnons tout dabord la denition generale de lesperance, avant de lappliquer aux variables aleatoires
discr`etes ou `a densite.
Soit X : R une variable aleatoire de loi .
Denition 2.5. Une variable aleatoire X est dite integrable si la quantite
_

|X| dP =
_
R
|x| d
est nie. On denit alors son esperance par
E(X) =
_

X dP =
_
R
x d.
Plus generalement, pour toute fonction continue par morceaux h : R R, on a
E(h(X)) =
_

h(X) dP =
_
R
h(x) d,
lorsque la quantite
_

|h(X)| dP =
_
R
|h(x)| d < .
Dans le langage courant (et aussi probabiliste), lesperance est appelee moyenne. Cest un param`etre de
position, qui indiaue autour de quelle valeur la variable aleatoire est repartie.
Cette denition generale induit deux ecritures dierentes suivant que la variable aleatoire X est discr`ete
ou `a densite :
Si X est une variable aleatoire discr`ete, lintegrabilite se traduit par

xX()
|x|P(X = x) <
et on a alors :
E(X) =

xX()
xP(X = x).
Plus generalement, pour toute fonction h : X() R, on a
E(h(X)) =

xX()
h(x)P(X = x)
si h(X) est integrable, cest-` a-dire, si
E|h(X)| =

xX()
|h(x)|P(X = x) < .
Si X est une variable aleatoire `a valeurs reelle et de densite f : R R
+
, elle est integrable si
_
R
|x|f(x) dx <
et on a dans ce cas
E(X) =
_
R
xf(x) dx.
10
Plus generalement, pour toute fonction continue par morceaux h : R R, la variable aleatoire h(X)
est integrable, si
E|h(X)| =
_
R
|h(x)|f(x) dx <
et on a alors
E(h(X)) =
_
R
h(x)f(x) dx.
Remarque importante pour le cas discret : Supposons que lespace soit ni : = {
1
, . . . ,
k
}.
Dans ce cas, toute variable aleatoire X : R est discr`ete. Notons n = card(X()) et X() =
{x
1
, . . . , x
n
}. On a
E(X) =
n

i=1
x
i
P(X = x
i
)
=
n

i=1
_
_
x
i

;X()=x
i
P({})
_
_
=
n

i=1
_
_

;X()=x
i
x
i
P({})
_
_
=
n

i=1
_
_

;X()=x
i
X()P({})
_
_
=

X()P({})
Cette expression est tr`es utile pour les lecons de probabilite : elle permet de justier tr`es simplement que,
pour toute variable aleatoire X : R, partant dun espace ni , et pour toute fonction h : R R,
on a
E(h(X)) =

xX()
h(x)P(X = x).
Cette expression de lesperance de h(X) est appelee th`eor`eme du transfert . Sa preuve peut donc
se faire simplement dans le cas discret (avec ni ou denombrable) ; on peut la faire egalement pour
certaines fonctions simples dans le cas des variables aleatoires `a densite, mais le cas general necessite des
connaissances en theorie de la mesure.
Pourquoi lintegrabilite ? Les series (et les integrales) qui ne convergent pas absolument ne sont pas facile-
ment manipulables. Par exemple, la serie

nZ

1
n
est mal denie. En eet, les sommes partielles de N ` a +N sont nulles, et donc on a plutot envie de dire
que la serie converge vers 0. Mais consid`erons la somme S
N
de N ` a +N
2
, on a
S
N
=
n=N
2

n=N+1
1
n

_
N
2
+1
N+1
1
x
dx
ln(N
2
+ 1) ln(N + 1)
et donc S
N
tend vers linni...
11
En pratique, on verie donc toujours quune variable aleatoire est integrable avant de lintegrer, sauf
si X est une variable aleatoire positive, cest-` a-dire si P(X R
+
) = 1.
Remarque :
Si X() R
+
, on pourra ecrire E(X) meme lorsque la serie ne converge pas, mais on ne pourra
evidemment pas dire que X est integrable avant davoir verie si E(X) < .
Si X() est borne, alors X sera une variable aleatoire integrable.
Exemple : Calcul de lesperance de la loi geometrique de param`etre p. On se donne une variable aleatoire
X de loi G(p). On a vu que X() = N

: il est inutile de verier lintegrabilite de X puisque X() R


+
.
Puisque X est une variable aleatoire discr`ete, on a
E(X) =

n1
nP(X = n)
=

n1
np(1 p)
n1
= p

n0
n(1 p)
n1
Or n(1p)
n1
est la derivee de (1p)
n
et

n0
(1p)
n
= 1/p . On obtient (en inversant une derivation
et une serie, ce qui est licite car il sagit dune serie enti`ere) :

n0
n(1 p)
n1
=
d
dp
1
p
=
1
p
2
.
Finalement, E(X) = 1/p.
Exemple : Calcul de lesperance dune variable aleatoire Y de loi exponentielle, cest-`a-dire de densite
f(y) = exp(y)1
R
+(y) o` u > 0 est une constante. On constate que Y est une variable aleatoire
positive (lintegrale de sa densite sur R

est nulle). On peut donc sabstenir de verier lintegrabilite, et


passer directement au calcul de lesperance.
On a par denition
E(Y ) =
_
R
yf(y) dy =
_
R
+
ye
y
dy.
Cette integrale sint`egre par parties :
E(Y ) =
_
y (exp(y))
_
+
0

_
+
0
(exp(y)) dy =
1

.
Exercice : Calculer lesperance des lois des paragraphes 1.2 et 1.3.
Proposition 2.6. Soient a une constante et X une variable aleatoire integrable. Les variables aleatoires
X + a et aX sont integrables et on a E(X + a) = a +E(X) et E(aX) = aE(X).
Si X est une variable aleatoire positive et integrable, alors E(X) 0.
Si X et Y sont deux variables aleatoires integrables veriant X Y alors E(X) E(Y ). On deduit
de cette propriete que toute variable aleatoire bornee par une constante (ou plus generalement par une
variable aleatoire integrable) est integrable.
Lesperance est une operation lineaire : si X et Y sont deux variables aleatoires integrables et a et b
deux nombres reels, E(aX + bY ) = aE(X) + bE(Y )
Exercice :
On se donne un evenement A. Montrer que E(1
A
) = P(A).
On consid`ere une variable aleatoire X et un reel x. Calculer E(1
Xx
).
12
Denition 2.7. La variance dune variable aleatoire de carre integrable X est egale `a
var X = E((X E(X))
2
.
On appelle ecart-type la quantite =
_
var (X). La variance et lecart-type sont des param`etres de
dispersion : plus ils sont grands, plus la variable aleatoire est dispersee au tour de sa moyenne (cest-`a-
dir : prend des valeurs eloignees de la moyenne).
Proposition 2.8. Formule de Koenig. Pour toute variable aleatoire de carre integrable X, on a
var X = E(X
2
) (E(X))
2
.
Si X est une variable aleatoire integrable et si a est une constante, on a var (X + a) = var (X) et
var (aX) = a
2
var (X).
La variance dune variable aleatoire de carre integrable est toujours une quantite positive. Elle nest
nulle que si la variable aleatoire suit une loi de Dirac.
Preuve :
1) Notons m = E(X). On a (X m)
2
= X
2
2mX + m
2
. Donc
E(X m)
2
= E(X
2
) E(2mX) +E(m
2
)
= E(X
2
) 2mE(X) + m
2
= E(X
2
) m
2
.
2) On pose Y = X + a. On a E(Y ) = a +E(X) et var (Y ) = E((Y E(Y ))
2
).
Do` u var (Y ) = E((X E(X))
2
) = var (X).
Posons aussi Z = aX. On a E(Z) = aE(X) et var (Z) = E((aX E(Z))
2
).
Do` u var (Y ) = a
2
E((X E(X))
2
) = a
2
var (X).
3) La variance est lesperance dune variable aleatoire positive : elle est donc positive. Elle ne peut etre
nulle que si X = E(X) p.s.
Remarque : Rappelons les expressions usuelles de E(X
2
) :
Si X est une variable aleatoire discr`ete,
E(X
2
) =

xX()
x
2
P(X = x)
Si X est une variable aleatoire de densite f,
E(X
2
) =
_
+

x
2
f(x) dx.
Exemple : Calcul de la variance dune variable aleatoire X de loi G(p). On a dej`a vu que E(X) = 1/p.
Calculons maintenant E(X
2
). On a :
E(X
2
) =

n1
n
2
P(X = n)
=

n1
n
2
p(1 p)
n1
13
On va essayer de faire apparatre une derivee seconde en ecrivant n
2
= n(n 1) + n :
E(X
2
) = p(1 p)

n1
n(n 1)(1 p)
n2
+ p

n1
n(1 p)
n1
= p(1 p)
d
2
dp
2
_

n0
(1 p)
n
_
+
1
p
= p(1 p)
d
2
dp
2
1
p
+
1
p
=
2p(1 p)
p
3
+
1
p
=
2 p
p
2
On en deduit maintenant la variance de X : var (X) = E(X
2
) (E(X))
2
= (1 p)/p
2
.
Exemple : Calcul de la variance dune variable aleatoire Y de loi exponentielle de param`etre . On a vu
(cf p.12) que lesperance de Y est egale ` a 1/. Calculons maintenant E(Y
2
) :
E(Y
2
) =
_
R
x
2
e
x
1
x0
dx
=
_
+
0
x
2
e
x
dx
=
_
x
2
e
x

+
0
+ 2
_
+
0
xe
x
dx
= 2/
2
On a donc var (Y ) = 1/
2
.
Exercice : Calculer les variances des lois des paragraphes 1.2 et 1.3.
2.2 Fonction de repartition de la loi dune variable aleatoire
Denition 2.9. On consid`ere une variable aleatoire X : R. La fonction de repartition de la loi de
X est la fonction F
X
: R [0, 1] denie pour tout x R par
F
X
(x) = P(X x).
La fonction de repartition caracterise la loi dune variable aleatoire.
Si X suit une loi discr`ete, on a
F
X
(x) =

tx
P(X = t),
o` u la somme est prise sur tous les t X() inferieurs ou egaux `a x. On obtient une fonction constante
par morceaux.
Si X suit la loi de densite f,
F
X
(x) =
_
x

f(t) dt.
Cest alors une fonction continue.
Proposition 2.10. La fonction de repartition dune variable aleatoire discr`ete est toujours croissante et
continue `a droite. On a lim
x
F
X
(x) = 0 et lim
x+
F
X
(x) = 1.
14
Exemple : Fonction de repartition de la loi bin omiale B(3, 1/2). On a P(0) = 1/8, P(1) = 3/8, P(2) = 3/8,
P(3) = 1/8, et P(k) = 0 pour tout k 4.
Exemple : Fonction de repartition de la loi uniforme sur lintervalle [0, 1]. Si X est de loi uniforme sur [0,1],
X admet pour densite la fonction 1
[0,1]
. Notons F sa fonction de repartition. Pour tout x R, on a donc
F(x) =
_
x

1
[0,1]
(t) dt.
Si x < 0 : on a F(x) = 0, car 1
[0,1]
(t) = 0 pour tout t ] , x].
Si x [0, 1], on a
F(x) =
_
0

1
[0,1]
(t) dt +
_
x
0
1
[0,1]
(t) dt
= 0 +
_
x
0
1 dt
= x
Si x > 1,
F(x) =
_
0

1
[0,1]
(t) dt +
_
1
0
1
[0,1]
(t) dt +
_
1
x1
[0,1]
(t) dt
= 0 +
_
1
0
1 dt + 0
= 1
La fonction de repartition F de la loi uniforme sur [0, 1] est donc nulle sur R

, egale `a la fonction identite


sur [0, 1] et constante egale ` a 1 sur [1, +[. On peut remarquer que cette fonction F est continue, derivable
sur R\{0, 1}, et que sa derivee concide avec la densite de X l` a o` u elle existe.
2.3 Fonctions generatrice, caracteristique et transformee de Laplace
Denition 2.11. La fonction generatrice de la loi de la variable aleatoire X : R
+
est la fonction
G
X
denie pour tout s [0, 1] par
G
X
(s) = E(s
X
) =

xX()
s
x
P(X = x).
15
Cette fonction est denie (et nie) pour s [0, 1] puisque pour tout s [0, 1], la variable aleatoire s
X
est positive et majoree par 1 : cest donc une variable aleatoire integrable.
La fonction generatrice est surtout utilisee pour les variables aleatoires ` a valeurs dans N. Dans ce cas,
on peut egalement la denir pour s [1, 0] et on a
G
X
(s) = E(s
X
) =

nN
s
n
P(X = n).
Remarque : La fonction G
X
est polynomiale si et seulement si X() {0, . . . , n}. Plus generalement, si
X() N, G
X
est une serie enti`ere.
Proposition 2.12.
Soit X une variable aleatoire discr`ete positive et integrable. On a E(X) = G

X
(1

).
Plus generalement, si X : R
+
est une variable aleatoire veriant E(X
n
) < , la derivee n
i`eme
de G
X
en 1

est egale `a E(X(X 1) . . . (X n + 1)).


Si deux variables aleatoires positives ont la meme fonction generatrice, alors elles suivent la meme
loi. On dit que la fonction generatrice caracterise la loi des variables aleatoires positives.
On utilise egalement la transformee de Laplace L
X
() = E(exp(X)) = G
X
(exp()). Si X est
une variable aleatoire positive, sa transformee de Laplace est denie sur R
+
(au moins) et caracterise sa loi.
Si X est integrable, on a E(X) = L

X
(0+), et si X est susamment integrable, E(X
k
) = (1)
k
L
(k)
X
(0+).
Pour des variables aleatoires X : R dont le signe nest pas constant, on utilisera plutot la
transformee de Fourier ou fonction carateristique de X :
X
() = E(exp(iX)). Cette fonction
est denie pour tout dans R et caracterise la loi de la variable aleatoire de la meme facon que la
fonction generatrice ou la transformee de Laplace. Tout comme pour la fonction generatrice ou pour la
transformee de Laplace, il existe un lien entre les derivees de et lesperance de X : si X est integrable,
on a E(X) = i

X
(0) et si X est susamment integrable, E(X
k
) = (i)
k

(k)
X
(0).
Remarque : En pratique, il est parfois rentable de calculer la fonction generatrice dune variable aleatoire
(ou transformee de Laplace ou transformee de Fourier), et de la deriver pour en deduire lesperance et la
variance.
Aide-memoire : La derivee de s s
X
est egale ` a Xs
X1
. En prenant lesperance pour s = 1, on obtient
donc G

X
(1) = E(X).
De meme, la derivee seconde de s s
X
est egale ` a X(X 1)s
X1
, et apr`es la meme operation que
precedemment, G

X
(1) = E(X(X 1)).
En faisant le meme genre doperation ` a partir des fonctions exp(X) ou exp(iX), on
retrouve les liens entre esperance et derivees des transformees de Laplace et de Fourier.
Exemple : Calcul de lesperance et de la variance dune loi de Poisson ` a partir de la fonction generatrice.
Soit X une variable aleatoire de loi de Poisson de param`etre m > 0. Calculons sa fonction generatrice G
X
.
Comme X est ` a valeurs dans N, on a
G
X
(s) = E(s
X
)
=

n0
s
n
P(X = n)
=

n0
s
n
e
m
m
n
n!
= e
m
e
ms
En derivant, on obtient, E(X) = G

X
(1) = e
m
me
m1
= m.
En derivant ` a nouveau : E(X(X 1)) = G

X
(1) = e
m
m
2
e
m1
= m
2
.
On en deduit alors la variance de X : par denition, var X = E(X
2
) (E(X))
2
et en ecrivant E(X
2
) =
E(X(X 1)) +E(X), on obtient var (X) = m.
16
2.4 Comment calculer la loi
Le probl`eme se pose frequemment de calculer la loi dune variable aleatoire Y denie par exemple
comme fonction dune autre variable aleatoire X : Y = g(X), la fonction g etant continue par morceaux.
Si Y est une variable discr`ete, il sut de determiner lensemble des valeurs prises par Y , puis pour tout
y Y (), on aura P(Y = y) = P(X g
1
({y})), ce qui se calcule donc `a laide de la loi de X.
Si on pense que Y va avoir une densite, on peut imaginer calculer sa fonction de repartition :
P(Y y) = P(g(X) y).
Si la fonction g est monotone, on imagine facilement la suite... mais sinon ? La methode habituellement
utilisee consiste `a utiliser une fonction test h : R R continue et bornee. Si on reussit alors ` a ecrire
E(h(Y )) sous la forme
E(h(Y )) =
_
R
h(y) d(y),
on aura gagne : la mesure de probabilite obtenue sera la mesure image de Y (de la forme d = f
Y
(y) dy
si Y est ` a densite). En eet, en xant x R et en prenant h de la forme h(y) = 1
yx
, on retrouve ainsi la
fonction de repartition de la loi de Y . Lavantage est que le changement de variable auquel il faut proceder
apparat clairement.
Exemple : Soit X une variable aleatoire de densite f
X
Determinons les lois de Y = aX + b et de Z =
(1 + X)/(1 X). Prenons donc une fonction test h continue par morceaux et bornee. On a
E(h(Y )) = E(h(aX + b)) =
_
R
h(ax + b)f
X
(x) dx.
Petite remarque prealable : la suite de la demonstration presentee ici est basee sur des notions de calcul
integral (programme L3) : ne vous avisez pas `a utiliser de telles justications devant une classe de terminale !
Il est tout ` a fait possible de traiter separement les cas a > 0 et a < 0 pour rentrer dans le cadre des
programmes de lycee.
On eectue alors le changement de variable y = ax + b. Ce changement de variable est bien un
dieomorphisme de R et son jacobien vaut dx = dy/|a|. Il vient :
E(h(Y )) =
_
R
h(y)f
X
_
y b
a
_
dy
|a|
.
On en deduit donc que Y admet pour densite la fonction f
Y
denie sur R par
f
Y
(Y ) = f
X
_
y b
a
_
1
|a|
.
Procedons de meme pour Z :
E(h(Z)) =
_
R
h
_
1 + x
1 x
_
f
X
(x) dx
=
_
R
h(z)f
X
_
z 1
z + 1
_
2
(z + 1)
2
dz
On a en eet pose z = (1 + x)/(1 x), soit x = (z 1)/(z + 1) = 1 2/(z + 1). Ce changement de
variable est un dieomorphisme de R\{1} vers R\{1}. Remarquons quil est souvent plus pratique de
raisonner en terme de jacobien plutot quen terme de derivee : il ny a pas `a soccuper du sens des bornes
des integrales, mais il sut de verier quun domaine senvoie bien sur un autre domaine de R (et de
ne pas oublier de mettre la valeur absolue de la derivee et non la derivee elle-meme). On traite alors ce
changement de variable comme un changement de variable dans une integrale multiple.
17

You might also like