Professional Documents
Culture Documents
). On
trouvera compltement trait un certain nombre dexemples :
Exemple n 1 : formule de propagation des erreurs et focale dune lentille convergente.
Exemple n 2 : cart type sur un sondage et loi binomiale.
Exemple n 3 : signification ou non-signification dun taux de cancer : loi de Poisson.
Exemple n 4 : relation entre loi normale et loi binomiale.
Exemple n 5 : loi normale et mesure dnergie avant/aprs une dsintgration nuclaire.
1
partir des donnes concernant la forme de la rsonance
0
Z (boson de jauge) selon les diffrents
canaux de dsintgrations (dix-sept millions de donnes enregistres fin 1995), on a pu tablir la valeur
de N qui donne le nombre de famille de fermions. Rappelons quune famille est constitue dun lepton
type lectron (ou muon ou tau) et du neutrino correspondant, doublet auquel on ajoute un doublet de
quarks. Dans le modle standard, il existe six quarks (u ,d, s ,c ,b et t) ainsi que les leptons e, et avec
leurs neutrinos associs.
2
Remarquons que si on prend une fourchette de deux cart-types autour de N, alors quatre-vingt-quinze
mesures sur cent seront dans lintervalle t 0,016 autour de N.
Exemple n 6 : mesure dune porte et test dhypothse par le khi2.
Exemple n 7 : analyse de variance par le test de Fisher.
Exemple n 8 : mthode des moindres carrs et ajustement polynomial de la dcli-
naison lunaire.
Exemple n 9 : maximum de vraisemblance et mesure de la radioactivit dune source
de csium 137.
Exemple n 10 : ajustement de la dclinaison lunaire : mthode du
2
.
Exemple n 11 : comptage et bruit de fond constant.
On trouvera dans la bibliographie un certain nombre douvrages traitant de ces
mthodes. Citons tout particulirement [1] : Probabilits et statistiques lusage des
physiciens de B. ESCOUBES (ellipses) qui contient de trs nombreux exemples trs
parlants, ouvrage qui ma guid tout au long de cet article.
1. ESPRANCE, VARIANCE, COVARIANCE ET PROPAGATION DES ERREURS
On considre une variable alatoire X, qui pour le moment est discrte, mais que lon
pourrait envisager comme continue, et qui prend, au cours de n mesures les valeurs
3
1 n
x x ! . On note
i
p la probabilit de la valeur
i
x pour la variable alatoire X. La fonction
de distribution de probabilit la plus simple serait ici la distribution uniforme, pour laquelle
chaque valeur peut sortir avec la mme probabilit (songeons un d non pip six
faces, soit
i
p 1/ 6 ). Il faut aussi se souvenir de la condition de normalisation de la
fonction de distribution de probabilit :
i
p 1
1.1. Esprance ou moyenne
Lesprance de la variable alatoire X scrit par dfinition :
i i i
E(X) p x
il sagit de la moyenne pondre par
les coefficients
i
p
Lesprance est linaire :
1 2 1 2
E (a X b X ) a E(X ) b E(X ) + +
Dans le cas continu, on considre une fonction densit de probabilit f(X) telle que :
f(x)dx 1
normalisation
E(X) xf(x)dx
formule de propagation des erreurs
! Cas particulier important : si les
i
x sont indpendants deux deux :
Daprs le paragraphe sur la covariance, on trouve :
2
p
i
i 1
i
f
V(f ) V(x )
2
p
f i
i 1
i
f
V(x )
,
La propagation des erreurs scrit alors sous
une forme matricielle propice lusage de lin-
formatique :
T 1
V D G D
Le cas de la variance est plus difficile. On peut penser prendre comme estimateur :
n
2
i
i 1
1
V (X x)
n
+ +
2 2
i
i
1
V (X m) (m x)
n
soit :
2 2
i
i
1
E(V) E (X m) ] E[(m x)
n
1
1
]
De faon gnrale on peut dire que p est la probabilit dun succs (noir) et q 1 p celle
de lchec (blanc). Le coefficient de Newton C est l pour tenir compte de toutes les
combinaisons possibles des k succs pour les n-k checs sur n tirages.
! Esprance : il suffit dutiliser la formule de dfinition donne dans la partie 1, en prenant
toutes les valeurs possibles de k :
n
k
k k 0
E(k) k p k B(n, p) np
Dmonstration : Le plus simple est de dfinir une variable alatoire
i
X qui est nulle si
chec, et qui vaut 1 en cas de succs. Il y a n tirages, chacun indpendant des autres,
donc i varie de 1 n. Clairement, quel que soit i :
i
E(X ) 1 p 0 q p + . Pour les n tirages
envisags on dfinit donc la variable alatoire
1 n
X X X + + dont lesprance scrit :
1 n
E(X) E(X ) E(X ) np + +
! Variance : On procde de mme en considrant les tirages comme indpendants,
avec des covariances nulles.
[ ]
( )
n n n
2
2 2
i i
i 1 i 1 i 1
V(k) V(X ) E X p (0 p) q (1 p) p npq
npq
+
! !! ! Exemple n2 : cart-type sur un sondage et loi binomiale
On se pose le problme suivant : soit un sondage sur deux candidats 1 et 2 trs
proches lun de lautre : de lordre de 50/50. Combien faut-il de sonds au minimum pour
que lcart-type (la fourchette) du sondage soit infrieur 1 % du total des lecteurs ?
On se place du point de vue de la loi binomiale, ou chaque tirage (indpendant des
autres) est le futur vote dun lecteur. On considre p et q gaux 0,5 (on introduit
lobservable
0
p k / n o k est le nombre dlecteurs de 1 et n le nombre total dlecteurs
1 2 + ).
Daprs ce qui prcde sur la loi binomiale, en introduisant le pourcentage observ p
0
:
0
E(p ) E(k / n) np/ n p
2 2
0
V(p ) V(k / n) V(k) / n npq/ n pq/ n
On obtient donc lestimation sur la probabilit :
2
3
k k
p
n n
t
On a k n/ 2 et on veut
2 3 2
k / n 0,01 < n> 2500. Il faut donc un panel statistique (repr-
sentatif) dau moins deux mille cinq cents personnes pour avoir une fourchette de lordre
de 1 % dans une lection deux candidats trs proches lun de lautre. Rappelons quen
gnral lchantillon utilis est de lordre de mille personnes.
Remarque : Si p et q sont diffrents, on a :
3
k k(n k)
p
n n
t
On peut reposer le problme des lections de la manire suivante : le sondage donne
52 % contre 48 %, quel est lcart type pour n 1000 sonds puis 2500, 5000 et enfin
10000 sonds ?
Sonds 1000 2500 5000 10000
Rsultat 52 % t 1,6 % 52 % t 1 % 52 % t 0,7 % 52 % t 0,5 %
cart-type 1,6 % 1 % 0,7 % 0,5 %
Valeur du sondage Non significatif ! Significatif Trs significatif Trs significatif
Tableau 1
Le petit calcul prcdent montre la ncessit de lindication dune fourchette qui donne
un sens au sondage. Il convient aussi de distinguer un sondage la sortie des urnes le
jour du vote (le vote est accompli), dun sondage concernant les intentions de votes qui a
lieu bien avant le vote (llecteur peut toujours changer davis). Il convient aussi
dintroduire la notion dintervalle de confiance (voir plus loin). On associe un cart type
(assimil lincertitude) 68 chances sur 100 en moyenne dencadrer la vraie valeur, et
deux carts-type 95 chances sur 100 dencadrer la vraie valeur. Autrement dit dans
le cas 52 % / 48 %, un sondage (sortie des urnes) de 2500 personnes na que cinq
chances sur cent de se tromper quant au vainqueur de llection.
2.2. La distribution discrte de Poisson
On montre dans lannexe 1 quelle drive de la loi binomiale lorsque p 0 et n
conjointement. Autrement dit, cette loi sutilise ds que lon a une grande population
(n ) et une faible probabilit constante (p 0) quun vnement se produise (avec
indpendance des vnements successifs) : dsintgration radioactive dans une assem-
ble de noyaux, occurrence de cancers dans une population donne, taux de comptage
dans un compteur de Geiger
Elle se dfinit comme :
k m
m e
P(X k, m)
k!
E(k) m
V(k) m m
m est un rel strictement positif et k
un entier positif ou nul
Dmonstration :
Moyenne de la distribution de Poisson
k k 1
m m
k 0 k 1
k m m
E(k) e m e m
k! (k 1)!
Variance de la distribution de Poisson
On part de la normalisation de la distribution :
i m
i 0
2 i 2
m 2 2
2
i 0
S m e / i! 1
d S m
0 e (m i 2mi i)
dm i!
2
2
2
( x m)
2 u
2
1 1
E(x) xe dx ( 2 m I 2 u e du) m
2 2
+
+
+
avec :
x m
u
2
(changement de variable)
! La variance se calcule de faon similaire, en utilisant le mme changement de variable
et en intgrant par parties :
( )
2 2
2 2 ( x m) / 2 2
1
V(X) E [x m] (x m) e dx
2
+
+
+
Ce rsultat trs important permet de dfinir lintervalle de confiance dune mesure qui
obit la loi normale.Imaginons que nous fassions une mesure a a t (connue) avec une
valeur attendue m (inconnue). Les rsultats prcdents montre que a est telle quelle a
68,3 % de chance dtre moins de 1 a de m, 95,4 % de chance dtre moins de
2 de m et 99,7 % de chance moins de 3 de m. Remarquons au passage quon
assimile lcart-type lincertitude a.
Par ailleurs, on a vu que souvent une distribution de probabilit est souvent approche
par la loi gaussienne, ce qui fait que le raisonnement prcdent peut tre gnralis,
entranant alors des erreurs non symtriques de part et dautre de la valeur moyenne.
! !! ! Exemple n5 : loi normale et mesure dnergie
On mesure lnergie totale avant et aprs une dsintgration nuclaire. On obtient
deux sries de mesures :
1.
i f
E 80 5 MeV et E 70 3 MeV t t
2.
i f
E 85 5 MeV et E 70 5 MeV t t
On veut vrifier la compatibilit de ces mesures avec le principe de la conservation de
lnergie. Pour cela, on considre que les mesures se rpartissent normalement (selon la
loi de Gauss) autour de la valeur centrale
f i
E E E 0 .
1. Dans le premier cas lcart-type des mesures vaut :
2 2 1/ 2
(5 3 ) 5,83 MeV + . La
valeur observe diffre de la valeur attendue de 80 70 10 1,72 . On se ramne
la distribution normalise et on calcule :
2
1,72
x / 2
1,72
1
P( 1,72 x 1,72) e dx 0,914
2
+
Ce calcul montre que la probabilit de trouver x en dehors de lintervalle 1,72 t est
simplement 1 0,914 soit 8,6 %. La valeur mesure E est dans lintervalle 2 t , en
termes dintervalle de confiance on peut dire quil y a quatre-vingt-quinze chances sur
cent pour que lhypothse de la conservation de lnergie soit assure.
2. De faon similaire on trouve cette fois une valeur observe E 85 70 15 2,12
avec 7,07 MeV , cette fois P( 2,12 x 2,12) 0,966 on est donc lextrieur de
lintervalle de confiance des 95 %. Plutt que de rejeter la conservation de lnergie on
doit bien sr sinterroger sur le dispositif exprimental, ou bien prendre un intervalle de
confiance 3 (99,7 %).
Remarque : Dans les calculs prcdents, on a utilis lcart-type dbiais :
N
2 2 2
N 1 i 1 2
i 1
1
N 1
Puisquon dispose de deux mesures.
2.4. Le test dhypothse
partir de rsultats exprimentaux on cherche souvent dcider si telle ou telle
hypothse parat fonde, avec une marge derreur que lon appelle seuil de confiance.
On dispose souvent dune moyenne exprimentale x provenant de mesures, dune
esprance thorique
0
et on approche lesprance par x. On peut alors faire lhypo-
thse
0
H :
0
(que lon nomme hypothse simple) ou bien encore
0
(hypothse
compose).
On veut en gnral confronter lhypothse simple
0
H :
0
contre lhypothse
compose
0
. On choisit donc un type de test et un risque derreur (souvent 5 %, voire
1 %) et on cherche valuer un certain paramtre (not
obs
t ) partir des donnes
exprimentales qui permettra ensuite, par comparaison avec des tables se rapportant au
test choisi (paramtre
table
t ), de prendre la dcision : conserver ou rejeter
0
H (avec un
seuil de confiance donn).
La dcision prise est donc empreinte dun certain risque :
Dcision Ralit
0
H vraie
0
H fausse
0
H conserve
Correct
Erreur
(risque de seconde espce)
0
H rejete
Erreur
(risque de premire espce)
Correct
Tableau 3
En pratique on cherche calculer
obs
t partir des donnes exprimentales, puis on va
chercher
table
t partir de tables statistiques :
si
obs table
t t < on ne rejette pas
0
H ;
si
obs table
t t on peut rejeter
0
H avec un certain seuil (par exemple 5 % ou 1 %) ;
si
obs table
t t > on rejette
0
H .
On prsentera dans la suite un exemple de test dhypothse : le test du khi2.
2.5. La loi du khi2
On considre k variables indpendantes distribues selon la loi de Gauss rduite
(centre sur 0 et avec 1 ). On dfinit alors la variable dite khi2 :
k
2 2
i
i 1
(k) x
Cette variable alatoire est distribue selon la loi dite du khi2 k degrs de libert.
On peut montrer que la probabilit que
2
(k) soit infrieur une valeur x 0 > scrit
(cf. [1] et [4] par exemple) : est la fonction Gamma.
x
2 k / 2 1 t / 2
k / 2
0
1
P( x) t e dt
2 (k / 2)
k est appel le nombre de degrs de libert.
On admettra que lesprance et la variance de la loi du
2
sont :
E(x) k et V(x) 2k
On dmontre aussi que la somme de deux distributions indpendantes
2
(n) et
2
(m)
de m et n variables gaussiennes portes au carr est aussi une variable obissant la loi
du
2
n m + degrs de libert.
Lun des intrts de la loi de
2
est de se prter la construction de divers tests
statistiques et lestimation par intervalle de paramtres. En particulier, on peut utiliser le
test du
2
pour vrifier que la distribution observe dune variable alatoire correspond
bien la distribution attendue. On peut ainsi tester si un d est pip ou non en comparant
les tirages ce que donnerait la loi binomiale. Dans lexemple suivant, on va faire
lhypothse quune distribution de donnes (mesures de porte) suit la distribution gaus-
sienne et on va la tester.
! !! ! Exemple n6 : mesure de porte et test dhypothse
On lance un projectile avec une certaine inclinaison par rapport lhorizontale et avec
une certaine vitesse initiale et on mesure la porte en fin de parcours. On procde
k 100 mesures successives dont la moyenne est
m
x 75,0 cm et lcart-type
k 1
4,5 cm
Intervalle
Probabilit gaussienne
rduite
Valeur attendue
pour cent mesures
Intervalle 1
m
x < x - 0,16 16
Intervalle 2
m m
x - < x < x 0,34 34
Intervalle 3
m m
x < x < x + 0,34 34
Intervalle 4
m m
x + < x < x +2 0,137 13,7
Intervalle 5
m
x > x +2 0,023 2,3
Total 1,00 100
Tableau 5
On calcule la valeur du
2
en formant :
2
5
2
i 1
Observe(i) attendue(i)
cart type
On peut utiliser ce rsultat pour conclure quant lhypothse de la distribution gaus-
sienne des donnes : en prenant un seuil de signification de 5 %, on voit que lhypothse
peut tre conserve.
Remarque : On choisit souvent ce seuil de 5 % de telle faon que si
2
d
P( > valeur)< 5% alors la distribution attendue est rejete, car le dsaccord est
significatif.
2.5. Loi F (Fisher) du rapport dispersionnel
Cette loi est souvent utilise en statistique pour comparer des variances exprimen-
tales. Avant de donner lexpression de la loi F, on va traiter un exemple complet qui
permettra de mieux expliquer le droulement de la mthode. Partons de lexemple
suivant :
! !! ! Exemple n7 : analyse de variance par le test de Fisher (expriences 1 facteur)
On considre a = huit groupes qui mesurent b = cinq fois par la mme mthode la
focale f de huit lentilles que lon suppose de mme caractristiques et fabrication.
6
Une table de
2
succincte se trouve ci-aprs (cf. tableau 4.1.).
Les mesures sont les suivantes : (
m
x est la moyenne des moyennes de lignes).
Mesure (cm)
Groupes i
1
j 1
2
j 2
3
j 3
4
j 4
5
j 5
Moyenne
i=1 100 102 101 100 98
m 1
x =100,2
i= 2 98 100 98 101 102
m 2
x = 99,8
i= 3 94 102 103 100 99
m 3
x = 99,6
i= 4 101 101 104 100 99
m 4
x =101
i= 5 107 104 100 102 101
m 5
x =102,8
i= 6 101 99 97 100 102
m 6
x = 99,8
i=7 102 105 103 105 100
m 7
x =103
i= 8 98 97 101 99 100
m 8
x = 99
m
x =100,65
Tableau 6
La question que lon se pose est la suivante : la diffrence entre les moyennes obte-
nues est-elle significative (lentilles diffrentes) ou la dispersion observe est-elle ala-
toire ?
Pour rsoudre ce problme on va introduire le calcul dun certain nombre de gran-
deurs, o on va considrer le tableau prcdent comme une matrice
ij
x : ainsi
32
x 102 et
41
x 101 .
On dfinit lcart total (par rapport la moyenne) comme :
8 5
2
ij m
i 1 j 1
V (x x ) 237,1
2 int
int
V
S 4,95
a(b 1)
On forme la variable
2 2
1 int
F S / S . On admettra alors (on pourra consulter [3]) que la
quantit
2 2
1 int
F S / S a une distribution F m a 1 7 et n a (b 1) 32 degrs de
libert.
On peut ds lors tester lhypothse nulle (lentilles identiques et donc dispersion
alatoire) un niveau de signification donn (par exemple 1 %) en testant la valeur de F.
Dans notre exemple on a F 2,27 .
En utilisant les tables de la distribution F [3] ou la petite table rsume cette page,
pour un seuil de signification de 1 %, on trouve A 3,3 .
On conclut alors que puisque F A < on peut conserver lhypothse simple des
moyennes gales, les lentilles peuvent donc tre considres comme identiques, au
niveau de 1 %.
Table de la distribution
m n
F pour un seuil de signification de 1 %
n / m 6 7 8 9 10
20 3,87 3,70 3,56 3,46 3,37
24 3,67 3,50 3,36 3,26 3,17
30 3,47 3,30 3,17 3,07 2,98
40 3,29 3,12 2,99 2,89 2,80
60 3,12 2,95 2,82 2,72 2,63
Tableau 7
Donnons en guise de conclusion lexpression de la densit de probabilit de la distri-
bution F m et n degrs de libert :
m/ 2 n / 2
m/ 2 1
m n (m n) / 2
m n
m n
F 2
f (F)
(n/ 2) (m/ 2) (n mF)
+
+ _
,
+
(loi F m et n degrs de libert o est la fonction Gamma dont on trouve les valeurs
tabules dans les ouvrages de statistiques).
On donne ci-aprs lesprance et la variance de la distribution :
2 2
E(F) n/ n 2 (avec n 2)
V(F) 2n (m 2 2) / m (n 2) (n 4) (avec n 4)
>
1 + >
]
3. MTHODES DESTIMATION
3.2. La mthode des moindres carrs dans le cas linaire
Le problme pos est le suivant : on dispose de n mesures
i
Y indpendantes de
variances
2 2
i
connues et supposes constantes pour des valeurs
i
X de la variable X
suppose de variance nulle. On suppose que les
i
Y sont indpendants entre eux (sans
corrlation). On cherche relier les Y des paramtres
k
(au nombre de p), au travers
dune fonction
1 p
Y f (X, ) que lon suppose connue et linaire en
k
. Pour cela on
cherche minimiser lestimateur des moindres carrs Q construit comme :
( )
2
n
i i
i 1
Q Y f(X, )
o les p g
i
(x) sont des fonctions linairement indpendantes, par exemple des polynmes
de degrs croissants.
La condition de minimisation scrit de faon compacte, en drivant par rapport tous
les paramtres
i
:
2
Q
0
#$
Soit p drivations diffrentes par rapport chaque
i
, on a donc un systme de p
quations, les quations normales :
n n
i
i 1 i 1
j j
f f
y f
_ _
, ,
avec j variant de 1 p, dans le cas linaire dfini plus haut, on peut crire matriciel-
lement :
2 T
Q ( ) ( ) Y G Y G
Y est un vecteur colonne (p, 1) constitu des
i
y ;
est un vecteur colonne (p, 1) constitu des
i
;
G est une matrice (p lignes, n colonnes) constitue des valeurs
i j
g (x ) o i varie de 1 p
et j de 1 n ;
T est le symbole de la matrice transpose.
avec :
1 1 p 1
1 n p n
g (x ) .. g (x )
.. .. ..
.. .. .. G
.. .. ..
g (x ) .. .. g (x )
_
,
ds lors, le systme dquations normales peut scrire matriciellement :
T T
G Y G G
ainsi, la fonction f peut se reprsenter comme un vecteur colonne :
f= G
Finalement, on obtient une formulation matricielle facile mettre en uvre via linfor-
matique dans le cas linaire, puisquon peut crire :
( )
T T
MC
G G G Y
-1
o les
MC
sont les valeurs optimises par les moindres carrs.
! !! ! Exemple de deux paramtres : ajustement par une droite : y = ax + b
On suppose donc que les donnes exprimentales peuvent tre ajustes par une
droite, dont il faut dfinir les deux coefficients a et b, la fonction dsire tant de la forme f
(x) ax b + . On dispose de n valeurs
i
Y relies n valeurs de
i
X . Dans la suite on note
x
S ,
y
S ,
xy
S et
xx
S respectivement les sommes sur les
i
x , les
i
y , les
i i
x * y et les
i i
x * x .
On a donc :
n
y i x
i 1
n
xy i i x xx
i 1
S (ax b) nb aS
S (ax b)x bS aS
+ +
+ +
On va par exemple dmontrer la relation de lcart-type du paramtre b. Pour cela on
va utiliser la propagation des erreurs :
i
2
2
n n
2 2 2 xx x i xx
b y y y
i 1 i 1
i
S S * x S b
V
x
_ _
,
,
(aprs un dveloppement simple, lcart-type sur a sobtient de faon similaire.
! !! ! Trois paramtres : rgression parabolique
2
y = ax + bx+ c
On peut gnraliser les calculs prcdents, cependant il est plus adapt dutiliser un
formalisme matriciel qui permet une utilisation rapide de linformatique. Il suffit de former
une matrice 3*3, avec des notations videntes, qui amne aux systmes dquations :
y
x xx
x xx xxx xy
xx xxx xxxx
xxy
S
n S S c
S S S b S
S S S a
S
_
_ _
, ,
,
On peut remarquer que si on restreint la matrice 2*2 on
retrouve le cas linaire prcdent, deux quations. Le
systme reprsent ici forme trois quations trois
inconnues.
Ce que lon peut rcrire symboliquement : D X Y .
Il suffit de rsoudre ensuite ce systme par voie matricielle laide dun calculateur
informatique, par exemple Matlab
, qui est utilis dans tout cet article. On peut utiliser les
formules de Cramer en supposant que le dterminant de X est diffrent de 0. On a de
faon gnrale :
c det(C) / det(D) o det( ) est le dterminant dune matrice, et C la matrice obtenue en
remplaant la premire colonne de D par le vecteur colonne Y.
b det(B) / det(D) o B est la matrice obtenue en remplaant la deuxime colonne de D
par Y.
a det(A) / det(D) o A est la matrice obtenue en remplaant la troisime colonne de D
par Y.
Lintrt de cette mthode est quelle permet de gnraliser un ajustement polyno-
mial de degr m 1 quelconque, sous rserve de travailler avec des matrices carres
m* m.
! !! ! Exemple n8 : la dclinaison lunaire du 1
er
janvier au 12 janvier 2000
Les tables donnent la position (ascension droite et dclinaison ) de la lune dans le
ciel jour par jour, 0 h Temps Universel (voir par exemple [6]). On peut cependant vouloir
disposer dune formule permettant davoir par interpolation la dclinaison de la lune dans
cette fentre temporelle, mais toute heure.
On donne dans le tableau ci-dessous les valeurs de la dclinaison en degr et minute
darc que nous allons utiliser et qui viennent directement des tables de la SAF (Socit
astronomique de France) :
Jour
1 -90
2 -1241
3 -1550
4 -1820
5 -2002
6 -2053
7 -2047
Jour
8 -1945
9 -1748
10 -1502
11 -1134
12 -731
Tableau 8
Dans la suite, on va essayer dajuster ces donnes avec des polynmes dordre n
croissant, en commenant par n 2 jusqu n 7 . Pour comparer utilement les rsultats
de lajustement aux douze donnes initiales, il est souhaitable destimer la prcision
obtenue laide dun estimateur que lon va appeler Z :
2
12
ajust
i 1
1
Z ( )
12
$ $
$
varie continment dans un domaine donn, une condition ncessaire de lexistence dun
maximum de vraisemblance ( lexclusion des frontires du domaine de ) scrit :
i MV
i
logL
0
avec i 1 k
On cherche trouver les valeurs des paramtres qui optimisent la densit de
probabilit L pour lensemble des donnes exprimentales.
! !! ! Cas de la loi normale ( , )
2
N : soit f = N
On suppose que les
i
n X mesures sont de mme variance
i
, et sont distribues
selon la loi normale :
2
i
2
( x )
2
1
N e
2
et :
n
i MV i
i 1
logL 1
0 (x ) 0 x
n
n n
2 4 2 2
i MV MV i MV 2 2
i 1 i 1
logL n 1
0 (x ) / 2 (x )
2 n
Conclusion
Par la mthode du maximum de vraisemblance, la valeur de est en fait la moyenne
arithmtique et la variance obtenue tient compte du nombre de mesure :
MV i
2
2
MV i MV
1
x
n
1
(x )
n n
Conclusion
On peut estimer lintervalle de confiance dune mesure de pour une valeur donne
de s, la dviation standard, en utilisant les proprits de la distribution normale
(
1/ 2
MV
/ n ) :
2
max
/ n
logL logL
2
o n est le comptage et la valeur obtenir par lanalyse des donnes.
On note par i la i
eme
mesure et
i
n la valeur de la i
eme
mesure. Le maximum de vraisem-
blance peut scrire :
i
n 50 50
i 1 i 1
i
L( ) P(n/ ) e
n !
50 50
i i
i 1 i 1
logL( ) 50 n log log(n !)
_
+
,
Le maximum de vraisemblance est atteint quand la drive de lquation prcdente par
rapport sannule :
50
i
i 1
( logL)
50 n / 0
Soit :
50
i
i 1
n
50
Pour cela on va tracer -log(L) en fonction de (cf. figure 2), le minimum de la courbe
donnant la valeur de au sens du maximum de vraisemblance. Ensuite, il suffit de tracer
une horizontale demi au-dessus du minimum pour avoir lcart-type 1 .
On obtient les rsultats suivants :
MV
erreur + erreur -
min
L
1 dviation standard 10,50 + 0,46 - 0,45 134,38
2 dviations standard 10,50 + 0,94 - 0,89 134,38
Tableau 11
Il faut noter, que lcart-type est dissymtrique, que lon se place une ou deux
dviations standard, du fait de lasymtrie du maximum de vraisemblance.
Figure 2 : Maximum de vraisemblance dans le cas dune source radioactive .
4. AJUSTEMENT DUNE COURBE UN HISTOGRAMME
On se limite dans ce paragraphe au problme de lajustement dune courbe un
histogramme exprimental. On formule donc lhypothse que la loi propose sajuste aux
donnes exprimentales, et que moyennant un certain seuil de signification la ralit est
bien dcrite par la thorie. On est donc dans le cas dun test o on veut faire le choix : une
hypothse contre toutes les autres possibles.
On va reprendre lexemple pris pour la mthode des moindres carrs, o on cherchait
une loi polynomiale aux valeurs de la dclinaison lunaire.
La prcision sur les donnes utilises est de lordre de 1 darc soit 1/60 de degr.
On dispose de k = 12 donnes
exp
et on va comparer la formule thorique
tho ( )
. Pour
cela on forme la quantit suivante :
i i 2
k
exp tho 2
( ) 2
i 1
( )
Chaque variable
i
est suppose tre une variable alatoire indpendante distribue
selon la loi normale (de Gauss) normalise N(0,1). On peut alors montrer que la somme
des
2
i
est distribue comme une variable alatoire obissant la loi du
2
k degrs de
libert.
! !! ! Exemple n10 : ajustement par un polynme de la dclinaison lunaire
! !! ! par la mthode du
2
On va dans la suite rutiliser les rsultats obtenus selon le degr du polynme choisi,
de faon calculer chaque fois le
2
.Puis il convient de calculer le nombre de degrs de
libert, soit ddl= k-n-1,o n est le degr du polynme (donc n 1 + coefficients) de
lajustement et k le nombre de points exprimentaux.
Il faut ensuite choisir un seuil de signification et laide du tableau 12 on compare la
valeur obtenue pour le
2
celle indique :
2
(ddl, ) . En gnral le seuil choisi est
souvent 5 % .
Si
2 2
(ddl, ) on accepte lhypothse choisie ;
Si
2 2
(ddl, ) > on rejette lhypothse choisie.
Il convient de remarquer quil est inutile de choisir un polynme de trop grand degr
pour un nombre donn de points exprimentaux, ddl en effet doit tre suprieur ou gal
1 !
0,90 0,50 0,30 0,20 0,10 0,05 0,02 0,01 0,001
ddl = 1 0,0158 0,455 1,074 1,642 2,706 3,841 5,412 6,635 10,827
ddl = 2 0,211 1,386 2,408 3,219 4,605 5,991 7,824 9,210 13,815
ddl = 3 0,584 2,366 3,665 4,642 6,251 7,815 9,837 11,345 16,266
ddl = 4 1,064 3,357 4,878 5,989 7,779 9,488 11,668 13,277 18,467
ddl = 5 1,610 4,351 6,064 7,289 9,236 11,070 13,388 15,086 20,515
ddl = 6 2,204 5,348 7,231 8,558 10,645 12,592 15,033 16,812 22,457
ddl = 7 2,833 6,346 8,383 9,803 12,017 14,067 16,622 18,475 24,322
ddl = 8 3,490 7,344 9,524 11,030 13,362 15,507 18,168 20,090 26,125
ddl = 9 4,168 8,343 10,656 12,242 14,684 16,919 19,679 21,666 27,877
Tableau 12 : Probabilit pour que
2
dpasse une valeur donne
2
(ddl, )
en fonction du nombre de degrs de libert ddl.
2
2
/ 2 2 d/ 2 2
d/ 2
(ddl, )
1
e ( ) d( )
2 (d/ 2)
On choisit pour cette tude un seuil de signification 0,05 , ce qui signifie que lon
travaille avec 95 % de sret.
On porte dans le tableau suivant les rsultats :
Degr du polynme 2 3 4 5 6 7
Degr de libert 9 8 7 6 5 4
2
1016,8 955,29 2,6717 2,1164 0,54422 0,41795
2
( 0,05) 16,919 15,507 14,067 12,592 11,070 9,488
Tableau 13
Il apparat clairement de cette tude que lon peut rejeter pour lajustement les
polynmes de degrs 2 et 3, et que par contre on peut utiliser un polynme de degr 4, 5,
6 ou 7 pour ajuster correctement les donnes concernant la dclinaison lunaire.
Cela montre que pour les polynmes de trop petits degrs la courbe passe trop loin en
moyenne des points exprimentaux et de leurs barres derreur !
Graphiquement on reprsente les rsultats du tableau prcdent sur la figure 3, il
apparat ainsi clairement quil faut exclure les cas 8 ou 9 degrs de libert (soit les
polynmes dordre 2 et 3).
Figure 3 : khi2 et degrs de libert.
Conclusion
En guise de conclusion, voyons le dlicat problme du bruit de fond dans un cas de
comptage simple.
! !! ! Exemple n11 : comptage et bruit de fond constant
On se propose deffectuer un comptage de dsintgrations radioactives pendant le
temps
1
T et on compte
1
N 3500 coups en
1
T 20 minutes. Si on carte la source, le
dtecteur compte
2
N 425 coups en
2
T 15 minutes, ces coups provenant par exemple
de sources radioactives proches ou de particules cosmiques.
Comme on la vu prcdemment, le processus de dsintgration est considr comme
poissonien et on peut estimer les incertitudes :
1
N 3500 3500 3500 60 t t
2
N 425 425 425 21 t t
On peut alors calculer lactivit mesure en dsintgrations / minute :
1 1 1
A N / T 175 3 t
2 2 2
A N / T 29 2 t
On dduit finalement lactivit de la source seule par la soustraction des deux activits
prcdentes, lincertitude se calculant cette fois par la propagation des erreurs (quadrati-
quement donc :
SOURCE
A (175 3) (29 2) 146 4 t t t ). Remarquons quon a considr
un bruit de fond blanc constant ( ou suppos tel) dans le temps et sur une chelle
dnergie. Les cas pratiques sont souvent bien moins aiss traiter.
BIBLIOGRAPHIE
[1] ESCOUBES B. Probabilits et statistiques lusage des physiciens. Paris : Ellipses,
1998.
[2] TAYLOR J. Incertitudes et analyse des erreurs dans les mesures physiques. Paris :
Dunod, 2000.
[3] SPIEGEL M.R. Probabilits et statistique. Paris : Mac Graw Hill, 1981.
[4] AVAZIAN S., ENUKOV I. et MECHALKINE L. lments de modlisation et traitement
primaire des donnes. Moscou : Mir, 1986.
[5] BOROVKOV A. Statistique mathmatique. Moscou : Mir, 1987.
[6] Socit Astronomique de France. phmrides astronomiques 2000. Numro hors
srie, 2000.
[7] Particles and Fields. Physical Review D, 3
e
srie, june 1992, vol. 45, n 11.
ANNEXE
RELATIONS ENTRE DIVERSES DISTRIBUTIONS DE PROBABILIT
On dmontre (voir [1] ou [4]) que les diffrentes distributions de probabilit utilises
dans cet article sont relies les une aux autres par des relations asymptotiques. Les
diffrents passages la limite sont explicits sur la figure.
La loi gaussienne (ou normale) joue un rle central, comme on peut le voir sur la figure
suivante.
On peut symboliser les relations entre les diffrentes distributions de probabilit par le
diagramme suivant :
Binomiale
C
n
k
.p
k
.(1-p)
n-k
Poisson
k
e .
k!
Densit (loi normale)
N(,)
2 2
2 / ) (
2
1
n
e
Loi du
2
Densit de probabilit :
k
1
2
x / 2
1 x
.e / 2
(k / 2) 2
,
n
n
p 0
et n.p=
k