Professional Documents
Culture Documents
Muestras aleatorias
Estadsticos
Concepto de distribuci
on muestral
Media muestral
Distribuci
on muestral en el caso normal
Distribuci
on muestral para muestras grandes: TCL
Cuasi-varianza muestral
Estadstica I
Distribuci
on muestral en el caso normal: 2 y Lema de Fisher
A. Arribas Gil
Muestras aleatorias
Definici
on 1.
Se llama poblaci
on al conjunto de individuos de interes.
Por ejemplo:
Definici
on 2.
Se llama muestra a un subconjunto de la poblaci
on, elegido para estudiar las
propiedades de la poblaci
on original.
Estadstica I
A. Arribas Gil
Muestras aleatorias
Por qu
e utilizamos muestras?
Estadstica I
A. Arribas Gil
Muestras aleatorias
Definici
on
3.
i).
Estadstica I
A. Arribas Gil
Muestras aleatorias
NOTACION:
X F
X tiene distribuci
on F .
i. i. d. = independientes e id
enticamente distribudas
Observaci
on: F representa la distribuci
on de X y puede denotar
indistintamente:
La funci
on de probabilidad de X (para v. a. discretas); p. ej. :
Bernoulli(p), Binomial(n, p), Poisson(), . . .
La funci
on de densidad de X (para v. a. continuas); p. ej. :
N(, ), Exp(), U(a, b), . . .
La funci
on de distribuci
on de X (para v. a. discretas o continuas):
F (x) = P(X x)
Estadstica I
A. Arribas Gil
Estadsticos
Definici
on 4.
Un parametro (poblacional) es un n
umero (FIJO, NO ALEATORIO,
A. Arribas Gil
Distribucion Muestral
La distribuci
on de probabilidad de todos los posibles valores del estadstico
muestral se llama distribuci
on muestral.
Ejemplo
2.
A. Arribas Gil
Distribucion Muestral
Ejemplo
3.
Distribuci
on muestral del estadstico proporci
on de chicas en una m.a.s. de
tama
no 5 para la poblaci
on alumnos en clase.
] chicas
total de alumnos
(En este caso podramos calcular directamente p y no necesitaramos
estimarlo a partir de una muestra. Es un ejemplo poco realista)
El estadstico es:
P5
T (X1 , . . . , X5 ) =
i=1
Xi
Estadstica I
A. Arribas Gil
Cu
al es la distribuci
on muestral de la media muestral?
Empecemos calculando su esperanza: X1 , . . . , Xn m.a.s. Xi F i.i.d.
E [X ]
= E [ n1
=
=
=
=
Estadstica I
Pn
i=1
Xi ]
definicion
E [ n1 (X1 + X2 + + Xn )]
1
n (E [X1 ] + E [X2 ] + + E [Xn ])
1
n ( + +
1
n (n ) =
+ )
desplegamos la suma
linearidad de E
E [Xi ] =
A. Arribas Gil
10
E [X ] =
Observaciones:
La distribuci
on del estadstico media muestral esta centrada en la media
poblacional
Estadstica I
A. Arribas Gil
11
= Var [ n1
Pn
i=1
Xi ]
definicion
= Var [ n1 (X1 + X2 + + Xn )]
=
1
n2 Var [(X1 + X2 + + Xn )]
1
n2 (Var [X1 ] + Var [X2 ] + +
1
2
n2 (
1
n2 (n
Estadstica I
+ + + )
2 ) =
desplegamos la suma
propiedad de Var
Var [Xn ])
INDEPENDENCIA
Var [Xi ] = 2
2
n
A. Arribas Gil
12
Var [X ] =
2
n
DT [X ] =
n
Observaciones:
La distribuci
on de la media muestral tiene
menor dispersion que la
variable original (en una proporci
on de n a 1).
Estadstica I
A. Arribas Gil
13
X N(, )
n
Esto se cumple porque la combinaci
on lineal de variables aleatorias con
distribuci
on normal tiene tambien distribuci
on normal.
En la practica:
Tipificamos X para obtener una v.a. con distribuci
on N(0, 1):
Z=
X
N(0, 1)
/ n
A. Arribas Gil
14
4.
A. Arribas Gil
15
Ejemplo
5.
Estadstica I
A. Arribas Gil
16
2.
A
X N(, / n)
Teorema Central del Lmite (TCL)
Observaciones:
Si la distribuci
on de origen es muy diferente de la normal, se suele exigir
un tama
no de muestra mayor para aplicar el TCL
Estadstica I
A. Arribas Gil
17
Ejemplo
6.
Supongamos que el aumento anual del salario de los altos cargos en Espa
na se
distribuye normalmente con media 12.2 % y desviaci
on tpica 3.6 %. Se toma
una muestra aleatoria simple de nueve observaciones.
on exacta o aproximada?
Cual es la distribuci
on de X ? Es una distribuci
Estadstica I
A. Arribas Gil
18
8.
p(1 p)
Entonces, al igual que para X tenemos que: E (
p ) = p V (
p) =
n
q
A
Si n es grande podemos aplicar el TCL:
p N p, p(1p)
n
Estadstica I
A. Arribas Gil
19
7.
1
0
si el individuo ve el partido
;
si no
X B(0.7)
1 X
Xi :
Sea p = X =
200
r
E (
p ) = 0.7 y DT (
p) =
i=1
0.7 0.3
= 0.0324.
200
p N (0.7, 0.0324)
Estadstica I
A. Arribas Gil
20
S2 =
1 X
(Xi X )2 .
n1
i=1
Cu
al es la distribuci
on muestral de la cuasi-varianza muestral?
Por qu
e utilizamos la cuasi-varianza y no la varianza?
Empecemos con la esperanza: X1 , . . . , Xn m.a.s. Xi F i.i.d.
Se puede demostrar que:
E [S 2 ] = 2
Pn
2
Si utilizasemos la varianza muestral V 2 = n1 i=1 (Xi X )2 = n1
n S , su
n1 2
2
esperanza sera E [V ] = n , y no sera un estadstico centrado.
Estadstica I
A. Arribas Gil
21
E [S 2 ] = 2
Observaci
on:
La distribuci
on del estadstico cuasi-varianza muestral esta centrada en la
varianza poblacional 2
A. Arribas Gil
22
10.
Var [W ] = 2k
8.
P(3.25 < W < 18.31) = P(W > 3.25) P(W > 18.31) =
0.975 0.05 = 0.925
Estadstica I
A. Arribas Gil
23
1.
2
n1
2 S
Pn
i=1 (
Xi X 2
)
Lema de Fisher
2n1
X y S 2 son independientes.
2
2
Como corolario podemos calcular Var [S 2 ] en el caso normal ( n1
2 S n1 ):
Var [S 2 ]
Estadstica I
n1 2
= Var [ n1
2 S ]
n1 2
4
(n1)2 Var [ 2 S ]
4
(n1)2 2(n
2 4
(n1)
1)
propiedad de Var
2
Var [ n1
2 S ] = 2(n 1)
A. Arribas Gil
24
9.
Un economista opina que el incremento anual (en porcentaje) del salario de los
trabajadores de un banco sigue una distribuci
on normal con desviacion tpica
3.37. Se toma una muestra aleatoria simple de 16 trabajadores del banco. Si la
hipotesis del economista es cierta, calcula la probabilidad de que la
cuasi-desviaci
on tpica sea mayor que 2.89.
X = incremento salarial anual (en porcentaje); X N(, 3.37)
X1 , X2 , . . . , X16 es una m.a.s. de X Xi N(, 3.37) i.i.d.
Lema de Fisher:
n1 2
2 S
2n1
=
W 215
Estadstica I
15
2
3.372 S
215
15
2
>
P(S 2 > 2.892 ) = P( 3.37
2S
15
2
3.372 2.89 )
(o 0.75)
A. Arribas Gil
25
NO %
NO %
X1 , . . . , Xn
son i.i.d.?
n grande?
SI &
SI &
NO %
E [X ] =
Var [X ] =
2
n
TCL:
A
X N(, n )
X N?
SI &
X N(, n )
Caso particular:
Pn
X1 , . . . , Xn B(p) i.i.d. p =
Estadstica I
i=1
Xi
= X;
= p, 2 = p(1 p).
A. Arribas Gil
26
N
SI &
NO %
E [S 2 ] = 2
X N?
SI &
Lema de Fisher:
n1 2
2
2 S n1
2 4
2
Var [S ] = (n1)
Estadstica I
A. Arribas Gil