You are on page 1of 30

Incertitudes et mesure des incertitudes

par Thierry ALHALEL


31400 Toulouse
thierry.alhalel@laposte.net
RSUM
Toute exprience de physique se doit de conclure sur la valeur numrique de tel ou tel
paramtre dans le cadre de telle ou telle thorie, mais doit aussi conclure sur la pertinence
du rsultat et la valeur de lincertitude qui laffecte. Il convient donc de mesurer une erreur
tant statistique que systmatique. On propose dans cet article quelques-unes des
mthodes statistiques couramment employes pour valuer lerreur statistique.
INTRODUCTION
Les mthodes statistiques appliques la physique sont souvent parentes pauvres
dans la formation scientifique, nul, pourtant, contestera limportance de lvaluation des
erreurs tant statistiques que systmatiques pour une mesure physique.
Prenons par exemple les mesures du LEP1 sur le nombre de familles de neutrinos
1
:
N 2,984 0,008 t . Ce rsultat est donn avec son cart-type, ce qui correspond un
intervalle de confiance de 68 %. On peut traduire ce rsultat de la faon suivante : si lon
rpte cette mesure, soixante-huit mesures sur cent en moyenne seront dans lintervalle
t 0,008 autour
2
de N. Ce rsultat montre quon peut conclure bon droit quil nexiste que
trois familles de fermions, ce qui fonde actuellement le Modle standard de la physique
des particules. Quaurait-on pu conclure si lcart-type avait t de 0,8 (cent fois plus
grand que celui des donnes) ?
On trouvera dans cet article quelques mthodes utilises pour estimer les incertitudes,
en faisant une large part lusage de linformatique (en particulier le logiciel Matlab

). On
trouvera compltement trait un certain nombre dexemples :
Exemple n 1 : formule de propagation des erreurs et focale dune lentille convergente.
Exemple n 2 : cart type sur un sondage et loi binomiale.
Exemple n 3 : signification ou non-signification dun taux de cancer : loi de Poisson.
Exemple n 4 : relation entre loi normale et loi binomiale.
Exemple n 5 : loi normale et mesure dnergie avant/aprs une dsintgration nuclaire.

1
partir des donnes concernant la forme de la rsonance
0
Z (boson de jauge) selon les diffrents
canaux de dsintgrations (dix-sept millions de donnes enregistres fin 1995), on a pu tablir la valeur
de N qui donne le nombre de famille de fermions. Rappelons quune famille est constitue dun lepton
type lectron (ou muon ou tau) et du neutrino correspondant, doublet auquel on ajoute un doublet de
quarks. Dans le modle standard, il existe six quarks (u ,d, s ,c ,b et t) ainsi que les leptons e, et avec
leurs neutrinos associs.
2
Remarquons que si on prend une fourchette de deux cart-types autour de N, alors quatre-vingt-quinze
mesures sur cent seront dans lintervalle t 0,016 autour de N.
Exemple n 6 : mesure dune porte et test dhypothse par le khi2.
Exemple n 7 : analyse de variance par le test de Fisher.
Exemple n 8 : mthode des moindres carrs et ajustement polynomial de la dcli-
naison lunaire.
Exemple n 9 : maximum de vraisemblance et mesure de la radioactivit dune source
de csium 137.
Exemple n 10 : ajustement de la dclinaison lunaire : mthode du
2
.
Exemple n 11 : comptage et bruit de fond constant.
On trouvera dans la bibliographie un certain nombre douvrages traitant de ces
mthodes. Citons tout particulirement [1] : Probabilits et statistiques lusage des
physiciens de B. ESCOUBES (ellipses) qui contient de trs nombreux exemples trs
parlants, ouvrage qui ma guid tout au long de cet article.
1. ESPRANCE, VARIANCE, COVARIANCE ET PROPAGATION DES ERREURS
On considre une variable alatoire X, qui pour le moment est discrte, mais que lon
pourrait envisager comme continue, et qui prend, au cours de n mesures les valeurs
3
1 n
x x ! . On note
i
p la probabilit de la valeur
i
x pour la variable alatoire X. La fonction
de distribution de probabilit la plus simple serait ici la distribution uniforme, pour laquelle
chaque valeur peut sortir avec la mme probabilit (songeons un d non pip six
faces, soit
i
p 1/ 6 ). Il faut aussi se souvenir de la condition de normalisation de la
fonction de distribution de probabilit :
i
p 1
1.1. Esprance ou moyenne
Lesprance de la variable alatoire X scrit par dfinition :
i i i
E(X) p x
il sagit de la moyenne pondre par
les coefficients
i
p
Lesprance est linaire :
1 2 1 2
E (a X b X ) a E(X ) b E(X ) + +
Dans le cas continu, on considre une fonction densit de probabilit f(X) telle que :
f(x)dx 1

normalisation
E(X) xf(x)dx

dfinition continue de la moyenne



3
Il convient de distinguer X qui est une variable alatoire de x qui en est une valeur. Cependant pour des
raisons de simplicit dcriture, on assimilera souvent x et X dans la suite du texte.
1.2. Variance V
La variance V de la variable X est dfinie comme une quantit toujours positive ou
nulle telle que :
[ ]
( )
( )
2 2
2 2 2 2
i i i
V(X) E X p x E(X ) E(X ) E (X)
il convient donc de calcu-
ler lesprance de X avant
den dduire sa variance
On a donc aussi :
2 2 2 2 2 2 2
V(a X) E(a X ) E (a X) a E(X ) a E (X) .
Soit :
2
V(a X) a V(X)
Remarque : Dmontrons rapidement lgalit qui dfinit la variance comme diffrence
de lesprance du carr de X et du carr de lesprance de X. On part de :
2 2 2 2 2 2 2 2 2
i i i i i i i i
V(X) E(X 2 X) p x ( p ) 2 p x E(X ) 2 E(X ) E (X) + + +
La variance est par dfinition le carr de lcart-type, soit
2
V V, lcart-type permet
donc de mesurer la dispersion des mesures autour de la moyenne . Dans le cas dune
variable continue de fonction densit de probabilit f on peut dfinir la variance :
( )
2
2 2 2 2
V(X) (x ) f(x)dx x f(x)dx xf(x)dx E(X ) E (X)
+ + +



1.3. Covariance
i j
cov( X ,X )
On va considrer dans ce paragraphe une suite
i
X de variables alatoires (i variant de
1 p) et on forme une nouvelle variable alatoire :
i i i
Z a X
o les
i
a sont des nombres rels.
On en dduit :
i i i i i i
E(Z) E( a X ) a o
i
est lesprance de la variable
i
X (du fait
de la linarit de E). On admet de plus la formule suivante concernant la variance :
2
i i i i 1 p j i 1 p i j i j
V(Z) a V(X ) 2 a a cov(X, X )
+
+
avec
[ ] ( )
i j 1 1 2 2
cov (X, X ) E (X )(X ) .
Remarque : On peut dmontrer le rsultat deux variables X et Y, le cas p variables
se dduisant par rcurrence :
( ) ( ) ( )
2 2 2 2
X Y X Y
2 2
V(aX bY) E a (X ) E b (Y ) 2 ab E (X )(Y )
a V(X) b V(Y) 2ab cov(X, Y)
+ + +
+
Remarque importante : Dans le cas de deux variables alatoires
1
X et
2
X on obtient le
rsultat :
1 2 1 2 1 2 1 2 2 1 1 2 1 2
cov(X , X ) E(X X ) E(X ) E(X ) E(X X ) E(X )E(X ) +
on peut alors dfinir le coefficient de corrlation :
1 2 X1 X2
cov(X , X ) / le module de
tant toujours
4
1.
Ds lors, on dira que deux variables sont indpendantes si et seulement si leur densit
de probabilit conjointe est factorisable (la covariance des deux variables est alors nulle et
dans ce cas 0 ) :
1 2 1 1 2 1 2 1 2 1 2
f(X , X ) f (X ) f(X ) E(X X ) E(X ) E(X ) cov (X , X ) 0
en effet, en prenant par exemple deux variables continues :
1 2 1 2 1 2 1 2 1 1 1 2 2 2 1 2
E(X X ) x x f(x , x )dx dx x f(x )dx x f(x )dx E(X ) E(X )

La rciproque est fausse, ce nest pas parce que 0 que les deux variables sont
forcment indpendantes ! On dira dans ce cas que
1
X et
2
X sont non corrles.
Ce que lon vient dobtenir pour deux variables alatoires se gnralise sans peine p
variables. En conclusion, on peut dire que lindpendance de deux variables est une
condition plus forte que la non-corrlation, et que lindpendance entrane la non-
corrlation. Ainsi donc, si les p variables alatoires sont indpendantes on obtient :
2
i 1 p i i
V(Z) a V(X )


1.4. Propagation des erreurs
On note en gras dans toute la suite des vecteurs p coordonnes. On considre une
fonction vectorielle de p variables alatoires
1 p
X (x , , x ) de moyenne
1 P
( , ; ) .
On suppose que toutes les quantits
i i
(x ) sont petites de faon ce que lon puisse en
faire un dveloppement de Taylor.
On part de la fonction
2
i 1 p i xi i i i i i
f( ) f( ) ( f / x ) (x ) O(x )

+ + X (Taylor au
premier ordre). On pose dsormais :
i xi i i
( f / x ) ( f / )


soit :
i 1 p i i i
f( ) f( ) f / (x )

+ X
On peut chercher exprimer lesprance et la variance dune telle fonction :
( ) ( ) ( )
i 1 p i i i
E f( ) E f( ) f / E(x ) E(O) E f( )

+ + X
E(f ) f( )
car par dfinition de lesprance
i i i i
E(x ) E(x ) 0 , du fait de la normalisation des
probabilits.

4
Pour le dmontrer on part de la variance pour aX bY + :
2 2
V(aX bY) a V(X) b V(Y) 2ab cov(X, Y) 0 + + +
quel que soit a et b. On peut rduire ce polynme en choisissant b 1 b (par simplification), et on obtient :
aV(X) V(Y) 2a cov(X, Y) 0 + + . Le discriminant
2
4 cov (X, Y) 4V(X)V(Y) est donc ngatif quel que soit
a, du fait dabsence de racines, et on obtient donc :
X Y
cov(X, Y) .
( ) [ ]
( )
2
V f(X) E f E(f ) ce que lon peut dvelopper comme :
( )
2
p p p
i i i i j j
i 1 i 1 j 1
i i j
f f f
V(f ) E (x ) E (x )(x )

_
1



1

]
,

p p
i j
i 1 j 1
i j
f f
V(f ) cov(x , x )


formule de propagation des erreurs
! Cas particulier important : si les
i
x sont indpendants deux deux :
Daprs le paragraphe sur la covariance, on trouve :
2
p
i
i 1
i
f
V(f ) V(x )

2
p
f i
i 1
i
f
V(x )

Ces formules de propagations des incer-


titudes sont dun usage courant (dans le
cas prsent
i j i
cov (X, X ) V(X ) si i j
et 0 si i diffrent de j.
! !! ! Exemple n1 : focale dune lentille mince convergente
On mesure sur un banc doptique la distance objet/lentille
1
p et la distance lentille/
image
2
p , avec une incertitude sur les mesures
p1
et
p2
. Les mesures de
1
p et
2
p sont
supposes indpendantes. On assimile erreur et cart-type. Insistons sur le fait que lon
fait lhypothse que le dveloppement de Taylor est licite ( petites erreurs !).
On mesure les longueurs suivantes :
1
p 10,0 0,5 cm t et
2
p 30,0 1,5 cm + t avec
1 2 1 2
f p p /(p p ) 7,5 cm + (formule de Descartes) et
1
0,5 cm et
2
1,5 cm .
Un calcul simple montre que lincertitude sur f scrit, partir de la propagation des
incertitudes :
4 2 4 2
1 2 2 1
f 4
1 2
p p
0,29 cm
(p p )
+

Soit finalement f 7,5 cm 0,29 cm + t (4 %)


! !! ! criture matricielle dans le cas des variables dpendantes
On introduit la matrice des covariances, que lon notera
1
G

(G est alors la matrice dite


des poids) :
( )
2
1 12 1p
ij i i j j
2
p1 p2 p
V E (x )(x ) .. .. ..
_





,
La trace de cette matrice est alors la somme des carrs des variances
2
. Si les variables
alatoires sont indpendantes, la matrice est diagonale. On note D le vecteur colonne des
drives (p lignes, 1 colonne) :
1
p
f /
..
D
..
f /
_





,
La propagation des erreurs scrit alors sous
une forme matricielle propice lusage de lin-
formatique :
T 1
V D G D

T note la transpose dune matrice donne.


1.5. Notion destimateur biais
partir dun nombre fini dobservations exprimentales, on cherche mesurer le plus
prcisment possible un paramtre fixe et inconnu. On procde laide dune fonction des
mesures qui est lestimateur. Cet estimateur, la limite infinie, doit converger vers le para-
mtre, le plus rapidement possible et sans biais. Ainsi, on prendra comme estimateur de la
moyenne, la moyenne arithmtique des mesures :
n
i
i 1
1
x x
n


Le cas de la variance est plus difficile. On peut penser prendre comme estimateur :
n
2
i
i 1
1
V (X x)
n

On va introduire m, la vraie moyenne des observations :


n
2 2 2
i i i
i 1 i i
1 1 2 n
V (X m x m) (X m) (X m)(x m) (x m)
n n n n

+ +

2 2
i
i
1
V (X m) (m x)
n

soit :
2 2
i
i
1
E(V) E (X m) ] E[(m x)
n
1

1
]

Lesprance de lestimateur V scrit donc


5
:
2 2 2
vrai vrai vrai
E(V) (n* / n) ( / n) (n 1) * .
On constate donc que lestimateur V est biais, car son esprance nest pas gale la
variance vraie. Le bon estimateur de la variance sera donc :
n
2
i
i 1
n 1
V V (X x)
n 1 n 1





5
Pour ce rsultat on a utilis la dfinition de la variance :
2
vrai i
V E(X m) et la propagation des erreurs
pour le fait que le deuxime terme de droite soit gal la variance vraie
2
vraie
divise par n.
2. QUELQUES DISTRIBUTIONS DE PROBABILITS DUSAGE COURANT
On trouvera dans la suite un certain nombre de distributions de probabilits (il en
existe des dizaines !), avec leurs principales proprits (moyenne, variance) ainsi que des
exemples demplois.
2.1. La distribution discrte binomiale
On considre, dans une urne, r boules dont m noires et r-m blanches. On note p la
proportion de noires, soit p m/ r et q 1 p la proportion de blanches - soit (r m) / r -.
On assimile donc p la probabilit de tirer une noire et q la probabilit de tirer une
blanche. La boule tire est remise dans lurne avant un nouveau tirage. La probabilit
dobserver, aprs n tirages conscutifs k tirages de probabilit p - cest--dire k boules
noires - est donne par la loi binomiale (probabilit que la variable alatoire X prenne la
valeur k) :
k k n k
n
k
n
P(X k) B(k : n, p) C p (1 p)
n!
C
k!(n k)!

De faon gnrale on peut dire que p est la probabilit dun succs (noir) et q 1 p celle
de lchec (blanc). Le coefficient de Newton C est l pour tenir compte de toutes les
combinaisons possibles des k succs pour les n-k checs sur n tirages.
! Esprance : il suffit dutiliser la formule de dfinition donne dans la partie 1, en prenant
toutes les valeurs possibles de k :
n
k
k k 0
E(k) k p k B(n, p) np



Dmonstration : Le plus simple est de dfinir une variable alatoire
i
X qui est nulle si
chec, et qui vaut 1 en cas de succs. Il y a n tirages, chacun indpendant des autres,
donc i varie de 1 n. Clairement, quel que soit i :
i
E(X ) 1 p 0 q p + . Pour les n tirages
envisags on dfinit donc la variable alatoire
1 n
X X X + + dont lesprance scrit :
1 n
E(X) E(X ) E(X ) np + +
! Variance : On procde de mme en considrant les tirages comme indpendants,
avec des covariances nulles.
[ ]
( )
n n n
2
2 2
i i
i 1 i 1 i 1
V(k) V(X ) E X p (0 p) q (1 p) p npq
npq

+


! !! ! Exemple n2 : cart-type sur un sondage et loi binomiale
On se pose le problme suivant : soit un sondage sur deux candidats 1 et 2 trs
proches lun de lautre : de lordre de 50/50. Combien faut-il de sonds au minimum pour
que lcart-type (la fourchette) du sondage soit infrieur 1 % du total des lecteurs ?
On se place du point de vue de la loi binomiale, ou chaque tirage (indpendant des
autres) est le futur vote dun lecteur. On considre p et q gaux 0,5 (on introduit
lobservable
0
p k / n o k est le nombre dlecteurs de 1 et n le nombre total dlecteurs
1 2 + ).
Daprs ce qui prcde sur la loi binomiale, en introduisant le pourcentage observ p
0
:
0
E(p ) E(k / n) np/ n p
2 2
0
V(p ) V(k / n) V(k) / n npq/ n pq/ n
On obtient donc lestimation sur la probabilit :
2
3
k k
p
n n
t
On a k n/ 2 et on veut
2 3 2
k / n 0,01 < n> 2500. Il faut donc un panel statistique (repr-
sentatif) dau moins deux mille cinq cents personnes pour avoir une fourchette de lordre
de 1 % dans une lection deux candidats trs proches lun de lautre. Rappelons quen
gnral lchantillon utilis est de lordre de mille personnes.
Remarque : Si p et q sont diffrents, on a :
3
k k(n k)
p
n n

t
On peut reposer le problme des lections de la manire suivante : le sondage donne
52 % contre 48 %, quel est lcart type pour n 1000 sonds puis 2500, 5000 et enfin
10000 sonds ?
Sonds 1000 2500 5000 10000
Rsultat 52 % t 1,6 % 52 % t 1 % 52 % t 0,7 % 52 % t 0,5 %
cart-type 1,6 % 1 % 0,7 % 0,5 %
Valeur du sondage Non significatif ! Significatif Trs significatif Trs significatif
Tableau 1
Le petit calcul prcdent montre la ncessit de lindication dune fourchette qui donne
un sens au sondage. Il convient aussi de distinguer un sondage la sortie des urnes le
jour du vote (le vote est accompli), dun sondage concernant les intentions de votes qui a
lieu bien avant le vote (llecteur peut toujours changer davis). Il convient aussi
dintroduire la notion dintervalle de confiance (voir plus loin). On associe un cart type
(assimil lincertitude) 68 chances sur 100 en moyenne dencadrer la vraie valeur, et
deux carts-type 95 chances sur 100 dencadrer la vraie valeur. Autrement dit dans
le cas 52 % / 48 %, un sondage (sortie des urnes) de 2500 personnes na que cinq
chances sur cent de se tromper quant au vainqueur de llection.
2.2. La distribution discrte de Poisson
On montre dans lannexe 1 quelle drive de la loi binomiale lorsque p 0 et n
conjointement. Autrement dit, cette loi sutilise ds que lon a une grande population
(n ) et une faible probabilit constante (p 0) quun vnement se produise (avec
indpendance des vnements successifs) : dsintgration radioactive dans une assem-
ble de noyaux, occurrence de cancers dans une population donne, taux de comptage
dans un compteur de Geiger
Elle se dfinit comme :
k m
m e
P(X k, m)
k!
E(k) m
V(k) m m


m est un rel strictement positif et k
un entier positif ou nul
Dmonstration :
Moyenne de la distribution de Poisson
k k 1
m m
k 0 k 1
k m m
E(k) e m e m
k! (k 1)!



Variance de la distribution de Poisson
On part de la normalisation de la distribution :
i m
i 0
2 i 2
m 2 2
2
i 0
S m e / i! 1
d S m
0 e (m i 2mi i)
dm i!

en multipliant la dernire galit par


2
m , cela permet dcrire :
2 2 2 2 2
E(i ) 2m E(i) E(i) m 2m m m m m + + +
par dfinition la variance est
2 2
V(i) E(i ) E (i) donc au final : V(k) m comme annon-
c.
! !! ! Exemple n3 : loi de Poisson : signification ou non-signification
! !! ! dun taux de cancer
On se pose le problme suivant : on sait quen moyenne on a deux cas de cancer dun
type donn pour dix mille habitants et par an. Une population de deux mille personnes,
dans un quartier donn, prsente cinq cas de cancer de ce type en huit ans, comparati-
vement aux 3,2 attendus. Ce quartier prsente-t-il un risque cancrigne ?
On part de lide quil sagit dun processus de Poisson, puisquon a une probabilit
faible de dvelopper un cancer dans une population suffisamment importante (deux mille
personnes).
la moyenne attendue est de : m = 2000*8*2/10000 = 3,2 cas ;
la mesure m donne cinq cas de cancer ;
lcart-type sur m est la racine carre de 3,2 soit 1,8 cas.
On peut alors calculer la probabilit de mesurer n cas de cancers :
n
3,2
3,2
P(n) e
n!


On peut dresser le tableau suivant :
n 0 1 2 3 4 5 6 7
P(n) 0,0408 0,130 0,209 0,223 0,178 0,114 0,0608 0,0278
Tableau 2
La probabilit dobserver cinq cas de cancers ou plus est donc :
P 1 P(0) P(1) P(2) P(3) P(4) 1 0,780
Soit : P 0,219 22 %
ce qui montre quil ne sagit probablement pas dun quartier particulirement expos, la
probabilit P tant trs loin dtre ngligeable.
Par contre, la probabilit dobserver huit cas ou plus est P 1 0,983 1,7 % valeur
trs faible. On peut alors dire que si lon observe huit cas ou plus, le quartier a de bonnes
chances dtre risque. On verra plus loin (cf. 2.4.) la notion de test dhypothse et son
application ce type de question.
2.3. La distribution (continue) normale ou de Gauss
On considre une variable alatoire X valeurs relles avec m un rel et un rel
strictement positif. Par dfinition la probabilit que X x selon la loi normale de moyenne
m et dcart type est :
2
2
( x m)
2
2
1
P(X x) e N(m, )
2

Il sagit bien sr de la clbre courbe en cloche. Vu la nature continue de la distribution, on


prfre souvent donner la probabilit que X soit <= une valeur donne x :
2
2
2 2
(u m) x
2
(u m) / 2
2
1
P(X x) e du
2
avec : e du 2 normalisation
E(X) m
V(X)

! La moyenne E(x) se calcule en utilisant lidentit :


2
x
I e dx
+

2
2
2
( x m)
2 u
2
1 1
E(x) xe dx ( 2 m I 2 u e du) m
2 2
+
+

+


avec :
x m
u
2

(changement de variable)
! La variance se calcule de faon similaire, en utilisant le mme changement de variable
et en intgrant par parties :
( )
2 2
2 2 ( x m) / 2 2
1
V(X) E [x m] (x m) e dx
2
+


La loi gaussienne de distribution est fondamentale, car de nombreux phnomnes ont un


comportement gaussien. On montre aussi en mathmatique que de nombreuses distri-
butions, par passage la limite, tendent vers la distribution gaussienne. On trouvera dans
lannexe 1 un schma de ces relations.
! !! ! Exemple n4 : distribution binomiale et distribution normale
On se demande quelle est la probabilit de tirer, en lanant une pice, quarante-huit
fois pile sur quatre-vingts lancers. Il sagit dun problme li la loi binomiale avec p 0,5 ,
o on cherche - indpendamment de lordre - quarante-huit russites sur quatre-vingts
essais, soit la probabilit P :
48 48 32
80
P(X 48 : 80) C (0,5) (0,5) 0,018123
Remarquons quon ne peut calculer 80 ! la calculatrice (trop grand), mais quil faut
utiliser un logiciel adquat ou prendre lapproximation de Stirling. Cependant, le nombre
de lancers est suffisant pour approcher la loi binomiale par la loi gaussienne de mme
moyenne np 0,5 * 80 et variance npq 0,5 * 0,5 * 80 .
Soit avec la distribution gaussienne continue :
2
48,5
( x 80.0,5) /(2.80.0,25)
47,5
1
P(47,5 x 48,5) e dx 0,018092
2 .80.0,25

_


soit une diffrence de 0,17 % entre les deux calculs.


! Distribution normale rduite : cela revient centrer la distribution sur 0 et normaliser 1
lcart type, on pose z (x m) / dans la dfinition de la densit de probabilit. On
dmontre alors que :
2 1
z / 2
1
1
P( 1 z 1) e dz 68,3 %
2
P( 2 z 2) 95,4 %
P( 3 z 3) 99,7 %
+

+
+

Ce rsultat trs important permet de dfinir lintervalle de confiance dune mesure qui
obit la loi normale.Imaginons que nous fassions une mesure a a t (connue) avec une
valeur attendue m (inconnue). Les rsultats prcdents montre que a est telle quelle a
68,3 % de chance dtre moins de 1 a de m, 95,4 % de chance dtre moins de
2 de m et 99,7 % de chance moins de 3 de m. Remarquons au passage quon
assimile lcart-type lincertitude a.
Par ailleurs, on a vu que souvent une distribution de probabilit est souvent approche
par la loi gaussienne, ce qui fait que le raisonnement prcdent peut tre gnralis,
entranant alors des erreurs non symtriques de part et dautre de la valeur moyenne.
! !! ! Exemple n5 : loi normale et mesure dnergie
On mesure lnergie totale avant et aprs une dsintgration nuclaire. On obtient
deux sries de mesures :
1.
i f
E 80 5 MeV et E 70 3 MeV t t
2.
i f
E 85 5 MeV et E 70 5 MeV t t
On veut vrifier la compatibilit de ces mesures avec le principe de la conservation de
lnergie. Pour cela, on considre que les mesures se rpartissent normalement (selon la
loi de Gauss) autour de la valeur centrale
f i
E E E 0 .
1. Dans le premier cas lcart-type des mesures vaut :
2 2 1/ 2
(5 3 ) 5,83 MeV + . La
valeur observe diffre de la valeur attendue de 80 70 10 1,72 . On se ramne
la distribution normalise et on calcule :
2
1,72
x / 2
1,72
1
P( 1,72 x 1,72) e dx 0,914
2
+


Ce calcul montre que la probabilit de trouver x en dehors de lintervalle 1,72 t est
simplement 1 0,914 soit 8,6 %. La valeur mesure E est dans lintervalle 2 t , en
termes dintervalle de confiance on peut dire quil y a quatre-vingt-quinze chances sur
cent pour que lhypothse de la conservation de lnergie soit assure.
2. De faon similaire on trouve cette fois une valeur observe E 85 70 15 2,12
avec 7,07 MeV , cette fois P( 2,12 x 2,12) 0,966 on est donc lextrieur de
lintervalle de confiance des 95 %. Plutt que de rejeter la conservation de lnergie on
doit bien sr sinterroger sur le dispositif exprimental, ou bien prendre un intervalle de
confiance 3 (99,7 %).
Remarque : Dans les calculs prcdents, on a utilis lcart-type dbiais :
N
2 2 2
N 1 i 1 2
i 1
1
N 1


Puisquon dispose de deux mesures.
2.4. Le test dhypothse
partir de rsultats exprimentaux on cherche souvent dcider si telle ou telle
hypothse parat fonde, avec une marge derreur que lon appelle seuil de confiance.
On dispose souvent dune moyenne exprimentale x provenant de mesures, dune
esprance thorique
0
et on approche lesprance par x. On peut alors faire lhypo-
thse
0
H :
0
(que lon nomme hypothse simple) ou bien encore
0
(hypothse
compose).
On veut en gnral confronter lhypothse simple
0
H :
0
contre lhypothse
compose
0
. On choisit donc un type de test et un risque derreur (souvent 5 %, voire
1 %) et on cherche valuer un certain paramtre (not
obs
t ) partir des donnes
exprimentales qui permettra ensuite, par comparaison avec des tables se rapportant au
test choisi (paramtre
table
t ), de prendre la dcision : conserver ou rejeter
0
H (avec un
seuil de confiance donn).
La dcision prise est donc empreinte dun certain risque :
Dcision Ralit
0
H vraie
0
H fausse
0
H conserve
Correct
Erreur
(risque de seconde espce)
0
H rejete
Erreur
(risque de premire espce)
Correct
Tableau 3
En pratique on cherche calculer
obs
t partir des donnes exprimentales, puis on va
chercher
table
t partir de tables statistiques :
si
obs table
t t < on ne rejette pas
0
H ;
si
obs table
t t on peut rejeter
0
H avec un certain seuil (par exemple 5 % ou 1 %) ;
si
obs table
t t > on rejette
0
H .
On prsentera dans la suite un exemple de test dhypothse : le test du khi2.
2.5. La loi du khi2
On considre k variables indpendantes distribues selon la loi de Gauss rduite
(centre sur 0 et avec 1 ). On dfinit alors la variable dite khi2 :
k
2 2
i
i 1
(k) x

Cette variable alatoire est distribue selon la loi dite du khi2 k degrs de libert.
On peut montrer que la probabilit que
2
(k) soit infrieur une valeur x 0 > scrit
(cf. [1] et [4] par exemple) : est la fonction Gamma.
x
2 k / 2 1 t / 2
k / 2
0
1
P( x) t e dt
2 (k / 2)


k est appel le nombre de degrs de libert.
On admettra que lesprance et la variance de la loi du
2
sont :
E(x) k et V(x) 2k
On dmontre aussi que la somme de deux distributions indpendantes
2
(n) et
2
(m)
de m et n variables gaussiennes portes au carr est aussi une variable obissant la loi
du
2
n m + degrs de libert.
Lun des intrts de la loi de
2
est de se prter la construction de divers tests
statistiques et lestimation par intervalle de paramtres. En particulier, on peut utiliser le
test du
2
pour vrifier que la distribution observe dune variable alatoire correspond
bien la distribution attendue. On peut ainsi tester si un d est pip ou non en comparant
les tirages ce que donnerait la loi binomiale. Dans lexemple suivant, on va faire
lhypothse quune distribution de donnes (mesures de porte) suit la distribution gaus-
sienne et on va la tester.
! !! ! Exemple n6 : mesure de porte et test dhypothse
On lance un projectile avec une certaine inclinaison par rapport lhorizontale et avec
une certaine vitesse initiale et on mesure la porte en fin de parcours. On procde
k 100 mesures successives dont la moyenne est
m
x 75,0 cm et lcart-type
k 1
4,5 cm

. On veut tester lhypothse que la rpartition des mesures obit la loi


gaussienne normalise avec les deux paramtres
m
x et
k 1
(le seuil de confiance choisi
est de 5 %). On forme alors n 5 intervalles qui permettent de classer les cent mesures :
Intervalle Nombre doccurrences
Intervalle 1
m
x < x - 20
Intervalle 2
m m
x - < x < x 29
Intervalle 3
m m
x < x < x + 30
Intervalle 4
m m
x + < x < x +2 16
Intervalle 5
m
x > x +2 5
Tableau 4
On calcule ensuite le nombre d de degrs de libert du problme : on dispose de cinq
intervalles et de trois contraintes (les deux paramtres de la loi gaussienne
m
x et et le
fait que le nombre de mesures est gal 100). Ainsi a-t-on : d 5 3 2 degrs de
libert.
On calcule ensuite les valeurs attendues en utilisant la rpartition gaussienne, ainsi
pour le premier intervalle :
2
1
z / 2
m
1
P(x x ) e dz 0,16
2


Intervalle
Probabilit gaussienne
rduite
Valeur attendue
pour cent mesures
Intervalle 1
m
x < x - 0,16 16
Intervalle 2
m m
x - < x < x 0,34 34
Intervalle 3
m m
x < x < x + 0,34 34
Intervalle 4
m m
x + < x < x +2 0,137 13,7
Intervalle 5
m
x > x +2 0,023 2,3
Total 1,00 100
Tableau 5
On calcule la valeur du
2
en formant :
2
5
2
i 1
Observe(i) attendue(i)
cart type

On considre que lcart-type correspondant chaque intervalle est de la forme :


valeur attendue
Ce qui fait que les valeurs observes dans chaque intervalle sont considres comme
valant en moyenne leur valeur attendue avec une fluctuation de lordre de . On obtient
avec deux degrs de libert :
2
(d 2) 1 0,73 0,47 0,38 3,16 5,74 + + + +
On cherche alors dans une table
6
(ou en faisant le calcul de lintgrale) la probabilit P
que le
2
atteigne ou dpasse cette valeur de 5,74 :
( )
2
P (d 2) 5,74 5,7 %
soit avec d 2 :
d/ 2 1 x / 2 d/ 2 1 x / 2
5,74
d/ 2 d/ 2
5,74 0
x e .dx x e dx
P 1 5,7 %
2 (d/ 2) 2 (d/ 2)





On peut utiliser ce rsultat pour conclure quant lhypothse de la distribution gaus-
sienne des donnes : en prenant un seuil de signification de 5 %, on voit que lhypothse
peut tre conserve.
Remarque : On choisit souvent ce seuil de 5 % de telle faon que si
2
d
P( > valeur)< 5% alors la distribution attendue est rejete, car le dsaccord est
significatif.
2.5. Loi F (Fisher) du rapport dispersionnel
Cette loi est souvent utilise en statistique pour comparer des variances exprimen-
tales. Avant de donner lexpression de la loi F, on va traiter un exemple complet qui
permettra de mieux expliquer le droulement de la mthode. Partons de lexemple
suivant :
! !! ! Exemple n7 : analyse de variance par le test de Fisher (expriences 1 facteur)
On considre a = huit groupes qui mesurent b = cinq fois par la mme mthode la
focale f de huit lentilles que lon suppose de mme caractristiques et fabrication.

6
Une table de
2
succincte se trouve ci-aprs (cf. tableau 4.1.).
Les mesures sont les suivantes : (
m
x est la moyenne des moyennes de lignes).
Mesure (cm)
Groupes i
1
j 1
2
j 2
3
j 3
4
j 4
5
j 5
Moyenne
i=1 100 102 101 100 98
m 1
x =100,2
i= 2 98 100 98 101 102
m 2
x = 99,8
i= 3 94 102 103 100 99
m 3
x = 99,6
i= 4 101 101 104 100 99
m 4
x =101
i= 5 107 104 100 102 101
m 5
x =102,8
i= 6 101 99 97 100 102
m 6
x = 99,8
i=7 102 105 103 105 100
m 7
x =103
i= 8 98 97 101 99 100
m 8
x = 99
m
x =100,65
Tableau 6
La question que lon se pose est la suivante : la diffrence entre les moyennes obte-
nues est-elle significative (lentilles diffrentes) ou la dispersion observe est-elle ala-
toire ?
Pour rsoudre ce problme on va introduire le calcul dun certain nombre de gran-
deurs, o on va considrer le tableau prcdent comme une matrice
ij
x : ainsi
32
x 102 et
41
x 101 .
On dfinit lcart total (par rapport la moyenne) comme :
8 5
2
ij m
i 1 j 1
V (x x ) 237,1

On introduit ensuite lcart interne (pour chaque ligne) :


8 5
2
int ij mi
i 1 j 1
V (x x ) 158,4

On calcule enfin lcart entre ligne :


8 5 8
2 2
l mi m mi m
i 1 j 1 i 1
V (x x ) 5 (x x ) 78,7



On peut noter que seuls deux calculs sont ncessaires, car on peut montrer que
int l
V = V + V . On calcule ensuite deux estimateurs non biaiss :
2 l
l
V
S 11,24
a 1

2 int
int
V
S 4,95
a(b 1)

On forme la variable
2 2
1 int
F S / S . On admettra alors (on pourra consulter [3]) que la
quantit
2 2
1 int
F S / S a une distribution F m a 1 7 et n a (b 1) 32 degrs de
libert.
On peut ds lors tester lhypothse nulle (lentilles identiques et donc dispersion
alatoire) un niveau de signification donn (par exemple 1 %) en testant la valeur de F.
Dans notre exemple on a F 2,27 .
En utilisant les tables de la distribution F [3] ou la petite table rsume cette page,
pour un seuil de signification de 1 %, on trouve A 3,3 .
On conclut alors que puisque F A < on peut conserver lhypothse simple des
moyennes gales, les lentilles peuvent donc tre considres comme identiques, au
niveau de 1 %.
Table de la distribution
m n
F pour un seuil de signification de 1 %
n / m 6 7 8 9 10
20 3,87 3,70 3,56 3,46 3,37
24 3,67 3,50 3,36 3,26 3,17
30 3,47 3,30 3,17 3,07 2,98
40 3,29 3,12 2,99 2,89 2,80
60 3,12 2,95 2,82 2,72 2,63
Tableau 7
Donnons en guise de conclusion lexpression de la densit de probabilit de la distri-
bution F m et n degrs de libert :
m/ 2 n / 2
m/ 2 1
m n (m n) / 2
m n
m n
F 2
f (F)
(n/ 2) (m/ 2) (n mF)

+
+ _


,

+
(loi F m et n degrs de libert o est la fonction Gamma dont on trouve les valeurs
tabules dans les ouvrages de statistiques).
On donne ci-aprs lesprance et la variance de la distribution :
2 2
E(F) n/ n 2 (avec n 2)
V(F) 2n (m 2 2) / m (n 2) (n 4) (avec n 4)
>
1 + >
]
3. MTHODES DESTIMATION
3.2. La mthode des moindres carrs dans le cas linaire
Le problme pos est le suivant : on dispose de n mesures
i
Y indpendantes de
variances
2 2
i
connues et supposes constantes pour des valeurs
i
X de la variable X
suppose de variance nulle. On suppose que les
i
Y sont indpendants entre eux (sans
corrlation). On cherche relier les Y des paramtres
k
(au nombre de p), au travers
dune fonction
1 p
Y f (X, ) que lon suppose connue et linaire en
k
. Pour cela on
cherche minimiser lestimateur des moindres carrs Q construit comme :
( )
2
n
i i
i 1
Q Y f(X, )

Dans le cas linaire, la fonction f peut scrire :


p
i i
i 1
f(X, ) g(X)

o les p g
i
(x) sont des fonctions linairement indpendantes, par exemple des polynmes
de degrs croissants.
La condition de minimisation scrit de faon compacte, en drivant par rapport tous
les paramtres
i
:
2
Q
0

#$
Soit p drivations diffrentes par rapport chaque
i
, on a donc un systme de p
quations, les quations normales :
n n
i
i 1 i 1
j j
f f
y f

_ _




, ,

avec j variant de 1 p, dans le cas linaire dfini plus haut, on peut crire matriciel-
lement :
2 T
Q ( ) ( ) Y G Y G
Y est un vecteur colonne (p, 1) constitu des
i
y ;
est un vecteur colonne (p, 1) constitu des
i
;
G est une matrice (p lignes, n colonnes) constitue des valeurs
i j
g (x ) o i varie de 1 p
et j de 1 n ;
T est le symbole de la matrice transpose.
avec :
1 1 p 1
1 n p n
g (x ) .. g (x )
.. .. ..
.. .. .. G
.. .. ..
g (x ) .. .. g (x )
_





,
ds lors, le systme dquations normales peut scrire matriciellement :

T T
G Y G G
ainsi, la fonction f peut se reprsenter comme un vecteur colonne :
f= G
Finalement, on obtient une formulation matricielle facile mettre en uvre via linfor-
matique dans le cas linaire, puisquon peut crire :
( )
T T
MC
G G G Y
-1
o les
MC
sont les valeurs optimises par les moindres carrs.
! !! ! Exemple de deux paramtres : ajustement par une droite : y = ax + b
On suppose donc que les donnes exprimentales peuvent tre ajustes par une
droite, dont il faut dfinir les deux coefficients a et b, la fonction dsire tant de la forme f
(x) ax b + . On dispose de n valeurs
i
Y relies n valeurs de
i
X . Dans la suite on note
x
S ,
y
S ,
xy
S et
xx
S respectivement les sommes sur les
i
x , les
i
y , les
i i
x * y et les
i i
x * x .
On a donc :
n
y i x
i 1
n
xy i i x xx
i 1
S (ax b) nb aS
S (ax b)x bS aS

+ +
+ +

On drive la premire quation par rapport a et la seconde par rapport b.


Cela donne, aprs un calcul simple, les valeurs au sens des moindres carrs :
y xx x xy
MC 2
xx x
xy x y
MC 2
xx x
S S S S
b
nS S
nS S S
a
nS S

on obtient, en utilisant la formule de propagation des erreurs, lcart-type sur a et b :


aMC y
xx
bMC y
2
xx x
n
S
nS S


On va par exemple dmontrer la relation de lcart-type du paramtre b. Pour cela on
va utiliser la propagation des erreurs :
i
2
2
n n
2 2 2 xx x i xx
b y y y
i 1 i 1
i
S S * x S b
V
x

_ _



,
,

(aprs un dveloppement simple, lcart-type sur a sobtient de faon similaire.
! !! ! Trois paramtres : rgression parabolique
2
y = ax + bx+ c
On peut gnraliser les calculs prcdents, cependant il est plus adapt dutiliser un
formalisme matriciel qui permet une utilisation rapide de linformatique. Il suffit de former
une matrice 3*3, avec des notations videntes, qui amne aux systmes dquations :
y
x xx
x xx xxx xy
xx xxx xxxx
xxy
S
n S S c
S S S b S
S S S a
S
_
_ _





, ,
,
On peut remarquer que si on restreint la matrice 2*2 on
retrouve le cas linaire prcdent, deux quations. Le
systme reprsent ici forme trois quations trois
inconnues.
Ce que lon peut rcrire symboliquement : D X Y .
Il suffit de rsoudre ensuite ce systme par voie matricielle laide dun calculateur
informatique, par exemple Matlab

, qui est utilis dans tout cet article. On peut utiliser les
formules de Cramer en supposant que le dterminant de X est diffrent de 0. On a de
faon gnrale :
c det(C) / det(D) o det( ) est le dterminant dune matrice, et C la matrice obtenue en
remplaant la premire colonne de D par le vecteur colonne Y.
b det(B) / det(D) o B est la matrice obtenue en remplaant la deuxime colonne de D
par Y.
a det(A) / det(D) o A est la matrice obtenue en remplaant la troisime colonne de D
par Y.
Lintrt de cette mthode est quelle permet de gnraliser un ajustement polyno-
mial de degr m 1 quelconque, sous rserve de travailler avec des matrices carres
m* m.
! !! ! Exemple n8 : la dclinaison lunaire du 1
er
janvier au 12 janvier 2000
Les tables donnent la position (ascension droite et dclinaison ) de la lune dans le
ciel jour par jour, 0 h Temps Universel (voir par exemple [6]). On peut cependant vouloir
disposer dune formule permettant davoir par interpolation la dclinaison de la lune dans
cette fentre temporelle, mais toute heure.
On donne dans le tableau ci-dessous les valeurs de la dclinaison en degr et minute
darc que nous allons utiliser et qui viennent directement des tables de la SAF (Socit
astronomique de France) :
Jour
1 -90
2 -1241
3 -1550
4 -1820
5 -2002
6 -2053
7 -2047
Jour
8 -1945
9 -1748
10 -1502
11 -1134
12 -731
Tableau 8
Dans la suite, on va essayer dajuster ces donnes avec des polynmes dordre n
croissant, en commenant par n 2 jusqu n 7 . Pour comparer utilement les rsultats
de lajustement aux douze donnes initiales, il est souhaitable destimer la prcision
obtenue laide dun estimateur que lon va appeler Z :
2
12
ajust
i 1
1
Z ( )
12

Cette quantit Z permet de comparer les


diffrentes courbes polynomiales obtenues
aux donnes relles .
Comme indiqu dans le paragraphe prcdent, on va former des matrices carres
croissantes de m 3 jusqu m 8 (par exemple) et chercher les coefficients du
polynme de degr m 1 . Une fois celui-ci obtenu, on va recalculer les valeurs de la dcli-
naison lunaire
adjust
0 h TU et on va les comparer aux valeurs du tableau en calculant Z
pour chaque valeur de m.
Remarquons que pour m 8 par exemple, il convient de travailler avec une matrice
carre D comportant 8*8 = 64 lments.
On obtient les rsultats suivants :
m 3 m 4 m 5 m 6 m 7 m 8
0
X
-3,8435 -4,0094 -5,0556 -5,0121 -4,8742 -4,9560
1
X
-5,3326 -5,2044 -4,0150 -4,0796 -4,3282 -4,1577
2
X
0,41977 0,39608 0,021235 0,050834 0,20072 7,3936.10
-2
3
X
0 1,2151.10
-3
4,4807.10
-2
3,9129.10
-2
-1,9299.10
-3
4,3528.10
-2
4
X
0 0 -1,6766.10
-3
-1,1963.10
-3
4,4096.10
-3
-4,3364.10
-3
5
X
0 0 0 -1,4768.10
-5
5,3663.10
-4
5,3663.10
-4
6
X
0 0 0 0 9,5315.10
-6
-4,0778.10
-5
7
X
0 0 0 0 0 1,1057.10
-6
Z (en degr) 0,044289 0,042927 0,002270 0,002020 0,001024 0,000897
Tableau 9
La premire matrice 3*3 donne donc un ajustement en polynme de degr 2 (la
variable tant note X), on trouve donc trois coefficients dans le tableau, et ainsi de suite
selon la valeur de m.
Le coefficient Z donne une indication sur la prcision de lajustement par rapport aux
donnes initiales, il apparat clairement que plus le degr du polynme est grand plus la
prcision augmente. Remarquons que Z est en degr, et que sa valeur la plus basse est
0,044, soit un dixime environ de la taille apparente de la lune qui est de lordre de 0,5,
ce qui nest pas une erreur particulirement petite !
Les courbes de la figure 1 montrent sur les douze valeurs de la dclinaison lunaire
(cercles) lallure de lajustement polynomial : courbes continues de degr 7 en haut et de
degr 2 en bas. La diffrence nest pas visible sur les courbes, mais numriquement le
tableau prcdent permet de comparer.
Figure 1 : Deux exemples dajustement polynomiaux.
3.2. Utilisation du maximum de vraisemblance
Dun point de vue thorique, une mthode destimation importante est celle dite du
maximum de vraisemblance. Elle ncessite cependant de connatre a priori la loi de
probabilit utiliser [4], et on devra souvent utiliser des chantillons de grandes tailles. On
peut faire driver de cette mthode, par exemple, la mthode des moindres carrs, do
son importance.
On considre n observations indpendantes
i
X distribues selon une loi de densit de
probabilit f(X, ) . Le caractre gras indique la possibilit de plusieurs variables
(vecteur). La vraisemblance se dfinit comme :
n
i
i 1
L(X, ) f(X, )
L(X, )dX 1

$ $
$
varie continment dans un domaine donn, une condition ncessaire de lexistence dun
maximum de vraisemblance ( lexclusion des frontires du domaine de ) scrit :
i MV
i
logL
0

avec i 1 k
On cherche trouver les valeurs des paramtres qui optimisent la densit de
probabilit L pour lensemble des donnes exprimentales.
! !! ! Cas de la loi normale ( , )
2
N : soit f = N
On suppose que les
i
n X mesures sont de mme variance
i
, et sont distribues
selon la loi normale :
2
i
2
( x )
2
1
N e
2

En utilisant la dfinition de la vraisemblance et la condition sur le maximum, on obtient :


n
2 i
2
i 1
(x ) n
logL nlog 2 log
2 2

et :
n
i MV i
i 1
logL 1
0 (x ) 0 x
n


n n
2 4 2 2
i MV MV i MV 2 2
i 1 i 1
logL n 1
0 (x ) / 2 (x )
2 n




Conclusion
Par la mthode du maximum de vraisemblance, la valeur de est en fait la moyenne
arithmtique et la variance obtenue tient compte du nombre de mesure :
MV i
2
2
MV i MV
1
x
n
1
(x )
n n

au sens du maximum de vraisemblance


pour la loi normale avec n mesures
indpendantes
! !! ! Intervalles de confiance dans le cas de la loi normale ( , )
2
N :
On a obtenu prcdemment dans le cas de la loi normale :
n
2 i
2
i 1
(x ) n
logL nlog 2 log
2 2

On a vu quau sens du maximum de vraisemblance, la moyenne scrit :


MV i
1
x
n


et pour cette valeur, on pose par commodit
M V
Log( L )= A pour
M V
= .exprimenta-
lement on mesure la valeur , et on cherche comparer cette mesure la valeur du
maximum de vraisemblance
MV
.
On peut alors crire :
n n n
2 i MV MV MV
2 2 2
i 1 i 1 i 1
(x ) ( ) ( ) n
logL nlog 2 log A
2 2 2 2





car
MV
log(L ) A et :
2
2 2 2
i i MV MV i MV MV i MV MV
(x ) (x ) (x ) ( ) 2 (x )( ) + + +

le terme de la deuxime ligne est identiquement nul vu la dfinition de
MV
, do la formule
annonce :
Si la mesure de est telle que :
MV MV MV MV
+

on trouve donc :
n
2 2
MV MV 2 2
i 1
1 1 1
logL A A n A
2 2 2

Si la mesure de est telle que :


MV MV MV MV
s * s * + on trouve donc, avec s
la dviation standard :
2 n
2 2
MV 2
i 1
1 s
logL A s A
2 2


Conclusion
On peut estimer lintervalle de confiance dune mesure de pour une valeur donne
de s, la dviation standard, en utilisant les proprits de la distribution normale
(
1/ 2
MV
/ n ) :
2
max
/ n
logL logL
2

pour une mesure


MV
1 t (probabilit de 68,3 %) ;
2
max
logL logL 2 / n pour une mesure
MV
2 t (probabilit de 95,5 %).
ainsi par exemple, il y a 4,5 % des cas o la mesure de ne sera pas dans lintervalle
MV MV
2 t , mais bien en dehors de cet intervalle.
! !! ! Exemple n9 : mesure de la radioactivit dune source et
! !! ! maximum de vraisemblance
laide dun compteur Geiger Muller, on compte les dsintgrations dune source de
Csium 137, par intervalle de cinq secondes. On place la source 6,5 cm de la source en
intercalant un cran de plomb de 1,5 cm dpaisseur. On obtient cinquante mesures
successives :
i
n
11 16 7 10 9 17 9 12 8 6
14 7 12 11 15 13 17 9 11 13
10 14 13 10 10 5 9 10 9 20
3 7 9 11 9 5 12 8 17 7
12 15 7 11 12 10 7 7 5 14
Tableau 10
On sait que la densit de probabilit lie aux dsintgrations radioactives est la loi de
Poisson :
n
e
P(n/ )
n!


o n est le comptage et la valeur obtenir par lanalyse des donnes.
On note par i la i
eme
mesure et
i
n la valeur de la i
eme
mesure. Le maximum de vraisem-
blance peut scrire :
i
n 50 50
i 1 i 1
i
L( ) P(n/ ) e
n !



50 50
i i
i 1 i 1
logL( ) 50 n log log(n !)

_
+

,

Le maximum de vraisemblance est atteint quand la drive de lquation prcdente par
rapport sannule :
50
i
i 1
( logL)
50 n / 0


Soit :
50
i
i 1
n
50

Pour cela on va tracer -log(L) en fonction de (cf. figure 2), le minimum de la courbe
donnant la valeur de au sens du maximum de vraisemblance. Ensuite, il suffit de tracer
une horizontale demi au-dessus du minimum pour avoir lcart-type 1 .
On obtient les rsultats suivants :
MV
erreur + erreur -
min
L
1 dviation standard 10,50 + 0,46 - 0,45 134,38
2 dviations standard 10,50 + 0,94 - 0,89 134,38
Tableau 11
Il faut noter, que lcart-type est dissymtrique, que lon se place une ou deux
dviations standard, du fait de lasymtrie du maximum de vraisemblance.
Figure 2 : Maximum de vraisemblance dans le cas dune source radioactive .
4. AJUSTEMENT DUNE COURBE UN HISTOGRAMME
On se limite dans ce paragraphe au problme de lajustement dune courbe un
histogramme exprimental. On formule donc lhypothse que la loi propose sajuste aux
donnes exprimentales, et que moyennant un certain seuil de signification la ralit est
bien dcrite par la thorie. On est donc dans le cas dun test o on veut faire le choix : une
hypothse contre toutes les autres possibles.
On va reprendre lexemple pris pour la mthode des moindres carrs, o on cherchait
une loi polynomiale aux valeurs de la dclinaison lunaire.
La prcision sur les donnes utilises est de lordre de 1 darc soit 1/60 de degr.
On dispose de k = 12 donnes
exp
et on va comparer la formule thorique
tho ( )
. Pour
cela on forme la quantit suivante :
i i 2
k
exp tho 2
( ) 2
i 1
( )

Chaque variable
i
est suppose tre une variable alatoire indpendante distribue
selon la loi normale (de Gauss) normalise N(0,1). On peut alors montrer que la somme
des
2
i
est distribue comme une variable alatoire obissant la loi du
2
k degrs de
libert.
! !! ! Exemple n10 : ajustement par un polynme de la dclinaison lunaire
! !! ! par la mthode du
2
On va dans la suite rutiliser les rsultats obtenus selon le degr du polynme choisi,
de faon calculer chaque fois le
2
.Puis il convient de calculer le nombre de degrs de
libert, soit ddl= k-n-1,o n est le degr du polynme (donc n 1 + coefficients) de
lajustement et k le nombre de points exprimentaux.
Il faut ensuite choisir un seuil de signification et laide du tableau 12 on compare la
valeur obtenue pour le
2
celle indique :
2
(ddl, ) . En gnral le seuil choisi est
souvent 5 % .
Si
2 2
(ddl, ) on accepte lhypothse choisie ;
Si
2 2
(ddl, ) > on rejette lhypothse choisie.
Il convient de remarquer quil est inutile de choisir un polynme de trop grand degr
pour un nombre donn de points exprimentaux, ddl en effet doit tre suprieur ou gal
1 !
0,90 0,50 0,30 0,20 0,10 0,05 0,02 0,01 0,001
ddl = 1 0,0158 0,455 1,074 1,642 2,706 3,841 5,412 6,635 10,827
ddl = 2 0,211 1,386 2,408 3,219 4,605 5,991 7,824 9,210 13,815
ddl = 3 0,584 2,366 3,665 4,642 6,251 7,815 9,837 11,345 16,266
ddl = 4 1,064 3,357 4,878 5,989 7,779 9,488 11,668 13,277 18,467
ddl = 5 1,610 4,351 6,064 7,289 9,236 11,070 13,388 15,086 20,515
ddl = 6 2,204 5,348 7,231 8,558 10,645 12,592 15,033 16,812 22,457
ddl = 7 2,833 6,346 8,383 9,803 12,017 14,067 16,622 18,475 24,322
ddl = 8 3,490 7,344 9,524 11,030 13,362 15,507 18,168 20,090 26,125
ddl = 9 4,168 8,343 10,656 12,242 14,684 16,919 19,679 21,666 27,877
Tableau 12 : Probabilit pour que
2
dpasse une valeur donne
2
(ddl, )
en fonction du nombre de degrs de libert ddl.
2
2
/ 2 2 d/ 2 2
d/ 2
(ddl, )
1
e ( ) d( )
2 (d/ 2)

On choisit pour cette tude un seuil de signification 0,05 , ce qui signifie que lon
travaille avec 95 % de sret.
On porte dans le tableau suivant les rsultats :
Degr du polynme 2 3 4 5 6 7
Degr de libert 9 8 7 6 5 4
2
1016,8 955,29 2,6717 2,1164 0,54422 0,41795
2
( 0,05) 16,919 15,507 14,067 12,592 11,070 9,488
Tableau 13
Il apparat clairement de cette tude que lon peut rejeter pour lajustement les
polynmes de degrs 2 et 3, et que par contre on peut utiliser un polynme de degr 4, 5,
6 ou 7 pour ajuster correctement les donnes concernant la dclinaison lunaire.
Cela montre que pour les polynmes de trop petits degrs la courbe passe trop loin en
moyenne des points exprimentaux et de leurs barres derreur !
Graphiquement on reprsente les rsultats du tableau prcdent sur la figure 3, il
apparat ainsi clairement quil faut exclure les cas 8 ou 9 degrs de libert (soit les
polynmes dordre 2 et 3).
Figure 3 : khi2 et degrs de libert.
Conclusion
En guise de conclusion, voyons le dlicat problme du bruit de fond dans un cas de
comptage simple.
! !! ! Exemple n11 : comptage et bruit de fond constant
On se propose deffectuer un comptage de dsintgrations radioactives pendant le
temps
1
T et on compte
1
N 3500 coups en
1
T 20 minutes. Si on carte la source, le
dtecteur compte
2
N 425 coups en
2
T 15 minutes, ces coups provenant par exemple
de sources radioactives proches ou de particules cosmiques.
Comme on la vu prcdemment, le processus de dsintgration est considr comme
poissonien et on peut estimer les incertitudes :
1
N 3500 3500 3500 60 t t
2
N 425 425 425 21 t t
On peut alors calculer lactivit mesure en dsintgrations / minute :
1 1 1
A N / T 175 3 t
2 2 2
A N / T 29 2 t
On dduit finalement lactivit de la source seule par la soustraction des deux activits
prcdentes, lincertitude se calculant cette fois par la propagation des erreurs (quadrati-
quement donc :
SOURCE
A (175 3) (29 2) 146 4 t t t ). Remarquons quon a considr
un bruit de fond blanc constant ( ou suppos tel) dans le temps et sur une chelle
dnergie. Les cas pratiques sont souvent bien moins aiss traiter.
BIBLIOGRAPHIE
[1] ESCOUBES B. Probabilits et statistiques lusage des physiciens. Paris : Ellipses,
1998.
[2] TAYLOR J. Incertitudes et analyse des erreurs dans les mesures physiques. Paris :
Dunod, 2000.
[3] SPIEGEL M.R. Probabilits et statistique. Paris : Mac Graw Hill, 1981.
[4] AVAZIAN S., ENUKOV I. et MECHALKINE L. lments de modlisation et traitement
primaire des donnes. Moscou : Mir, 1986.
[5] BOROVKOV A. Statistique mathmatique. Moscou : Mir, 1987.
[6] Socit Astronomique de France. phmrides astronomiques 2000. Numro hors
srie, 2000.
[7] Particles and Fields. Physical Review D, 3
e
srie, june 1992, vol. 45, n 11.
ANNEXE
RELATIONS ENTRE DIVERSES DISTRIBUTIONS DE PROBABILIT
On dmontre (voir [1] ou [4]) que les diffrentes distributions de probabilit utilises
dans cet article sont relies les une aux autres par des relations asymptotiques. Les
diffrents passages la limite sont explicits sur la figure.
La loi gaussienne (ou normale) joue un rle central, comme on peut le voir sur la figure
suivante.
On peut symboliser les relations entre les diffrentes distributions de probabilit par le
diagramme suivant :
Binomiale
C
n
k
.p
k
.(1-p)
n-k
Poisson
k
e .
k!


Densit (loi normale)
N(,)
2 2
2 / ) (
2
1

n
e
Loi du
2
Densit de probabilit :
k
1
2
x / 2
1 x
.e / 2
(k / 2) 2

,
n

n
p 0
et n.p=
k

You might also like