You are on page 1of 14

Distribuciones Probabilsticas

Curso de Estadstica TAE,2005 J.J. Gmez Cadenas

Distribucin Binomial
Considerar N observaciones independientes tales que: El resultado de cada experimento es acierto o fallo La probabilidad de acierto de un experimento dado es p El conjunto de observaciones N puede considerarse como una nica medida que puede caracterizarse por la variable aleatoria n : n = nmero de aciertos (0n N) El espacio de muestras S se define como el conjunto de posibles valores de n para N observaciones. Si repetimos el experimento muchas veces con N observaciones cada vez, los valores resultantes de n ocurren con frecuencias relativas determinadas por la distribucin binomial.

Derivacin de la forma de la distribucin binomial


Probabilidad de acierto para una observacin dada p Probabilidad de fallo 1-p Las observaciones son independientes Probabilidad de acierto y/o fallo de una secuencia de observaciones (en un orden dado) es el producto de las observaciones individuales. Ejemplo: aafaf P=pp(1-p)p(1-p)=p (1-p)
3 2 n N-n

En general P, para una secuencia de n aciertos y (N-n) fallos p (1-p)

Puesto que el orden de acierto/fallo es irrelevante (estamos interesados slo en el nmero total de aciertos n) calculamos el nmero de secuencias (permutaciones) con n xitos en N observaciones:

N! n!(N n)!

La distribucin binomial, es, entonces:

f (n; N, p)

N! n!(N n)!

p (1 p)

N n

Donde, la notacin f(n; N,p) indica que n es una variable aleatoria, mientras que N y p son parmetros. Valor esperado y varianza (clculo no trivial): E[n] n
n 0

N!

n!(N n)! 2 2 V[n] E[n ] (E[n]) Np(1 p)

p (1 p)

Nn

Np

NB: E[n] y V[n] no son variables aleatorias sino constantes que dependen de los valores verdaderos (y posiblemente desconocidos) de p y N .

Ejemplo: Observamos N desintegraciones del . El nmero n de estas observaciones correspondientes a un determinado canal (e.g, ) sigue la distribucin binomial, con p igual a la relacin de semidesintegracin del canal

Distribucin Multinomial
Similar a la binomial, pero en lugar de 2 posibles resultados (acierto o fallo) hay m posibles resultados.
p (p1 ,..., pm ) tal que pi 1
i=1 m

Para N observaciones queremos calcular la probabilidad de observar: n1 con resultado 1 n2 con resultado 2
nm con resultado m

Ejemplo de multinomial: n = (n1,,nm) representa un histograma con m bins y N entradas en total

Esta probabilidad sigue la distribucin multinomial


f (n; N, p)

N! n1!n2 !...nm !

n n n p1 1 p2 2 ...pmm

Los ni individuales se distribuyen binomialmente con parmetros N,pi

Distribucin de Poisson
Considerar la distribucin binomial en el lmite:
f (n;)

n e
n!

(0 n )

N p0 E[n]=Np

Puede demostrarse que en este caso n sigue la distribucin de Poisson

E[n]= n n!
n=0

n
2

V[n]= (n-)
n=0

n e n!

Para grande Poisson tiende a Gauss Ejemplos de Poisson: Nmero de desintegraciones de una cierta cantidad de material radioactivo en un tiempo fijo t, en el lmite: Nmero de desintegraciones posibles (e.g, nmero total de tomos) es muy grande
Probabilidad de una desintegracin individual en t es muy pequea.

Distribucin uniforme
Considerar una variable continua aleatoria definida en todo R. La distribucin uniforme es:
1
f (x; ,)

en otro caso

Es decir, podemos encontrar x con igual probabilidad entre y :

x 1 [x

1
2

E[x] 0

dx 2 ( )
1 1
2

V [x ]

2 ( )] dx 12 ( )

Una propiedad importante de la distribucin uniforme es la de que cualquier variable aleatoria continua x con pdf f(x) y distribucin acumulativa F(x) puede transformarse en una nueva variable y distribuida uniforme entre 0 y 1 mediante el cambio de variable:

y F(x)
dy d
x

dx dx

f (x ')dx ' f (x)

La pdf de y es: dx dy dx 1 0y1 g(y) f (x) dy dx dy

Usaremos esta propiedad de la distribucin uniforme en el tema relacionado con tcnicas de Monte Carlo.

Distribucin exponencial
f (x;) 1 e , 0 x
x

E[x] 0 xe dx
2 (x )2e dx V[ x ] 0

1 1

Ejemplo: El tiempo de desintegracin de una partcula inestable (medido en su sistema de referencia) sigue una distribucin exponencial

Distribucin de Gauss
f (x ; , )

1 2 1
2

) ) exp((x 2
2

E[x] x

(x ) 2 2 2 2 exp( 2 )dx (x )
2

V[ x ]

1
2

(x exp(

2)

)dx

2
2

NB: A menudo y se utlizan para denotar la media y la varianza de cualquier pdf, no slo la pdf gausiana.
0, 1 (x)

1 exp( 2

x2
2

Distribucin de Gauss estndar:


2

(x) (x')dx'

Si y es Gausiana con y entonces x=(y- )/ sigue (x).

Teorema del lmite central


Dadas n variables aleatorias independientes xi, con: medias i , varianzas i pdf arbitraria distribuida gausianamente
yi xi ,
i 1 n n

Su suma, en el lmite de n grande es una variable aleatoria

n : yi est distribuida gausianamente


n

E[yi ]=i , V[yi ]=


i 1

i 1

El teorema del lmite central supone la justificacin formal para tratar los errores como variables aleatorias distribuidas gausianamente. Es aplicable siempre que el error total sea la suma de muchas contribuciones pequeas.

Distribucin de Gauss Multivariada


1 (2 )
N /2

f (x; ,V )

1/2

exp

1 2

(x ) V

(x )

E[xi ] i cov[xi , xj ] Vij n 2 f (x1, x2;1,2 , 1


exp

1 2(1 ) cov[x1, x2 ] (1 2 )
2

,) 21 2 x 2 x2
11

2 2

) 2(

x
11

)(

x2

coeficiente de correlacin

Distribucin

2
f (z;n)

2n /2

1 n /21 z /2 z e , n 1,2.,,, (n / 2)

n nmero de grados de libertad


(x)=e-tt x1dt funcin Gamma
0

E[z]=

0 z 2n /2 (n / 2) z

n /21

z /2

dz n

V[z]=(z-n)2
0

1
n /2

zn /21e z /2dz 2n

(n / 2)

Dadas

variables
2

aleatorias

independientes
2 2

xi,

distribuidas

gausianamente, con media i y varianza i , la variable:


z
N

(x )
i

i1

Sigue la distribucin para N grados de libertad. Como veremos, estas variables son las que utilizamos para estimar la calidad de un ajuste, particularmente con el mtodo de mnimos cuadrados

You might also like