You are on page 1of 7

Resumen de pruebas de hipotesis e intervalos de

conanza para medias y varianzas

Intervalos de conanza y pruebas de hipotesis


para la media

1.1

Intervalo de conanza (bilateral) y puebas de hipotesis


para la media de una distribucion Gaussiana en caso
varianza conocida

* Supuestos probabilisticos:
1) Muestra: observaciones independientes x1 ,...,xn de una variable aleatoria
X con distribucion Normal o Gaussiana N ; 2 .
2) La varianza 2 de la distribucion de la variable observada X es conocida.
Aclaracion: No confundir media poblacional P
o valor esperado de la distribun
cion
= E (X) con media muestral x = n1
i=1 xi , ni confundir varianza
poblacional o de la distribucion 2 = V (X) con la varianza muestral
s2 =

1
n

n
X

(xi

x) :

(1)

i=1

* Dado un valor de conanza 1


especicado por el investigador (por
ejemplo, 1
= 0:95), un intervalo con conanza 1
para la media
es el siguiente:
p Z1 =2 ; x + p Z1 =2 ;
n
n
donde: para cualquier probabilidad 0 < < 1, se denota por Z al percentil de
la distribucion normal standard N (0; 1) correspondiente a la probabilidad ; o
sea, (Z ) = , donde es la distribucion N (0; 1). El valor Z se puede hallar
usando la Tabla de la distribucion Normal standard N (0; 1) :
* Pruebas de hipotesis
Dada una constante de referencia de interes 0 2 R y un nivel de signicacion
0 <
< 1 (por ejemplo,
= 0:05 o
= 0:01) especicados ambos por el
investigador:
x

H0 :
H0 :
H0 :

Problema
0 versus H1 :
0 versus H1 :
0 versus H1 :

6
=
>
<

0
0
0

Region de rechazo de hipotesis nula H0


Z < Z1 =2 o Z > Z1 =2
;
Z > Z1
Z < Z1 ;
1

donde Z es el llamado estadigrafo de prueba Z para la media en caso


varianza conocida:
x
0p
Z=
n:
* Fundamento teorico: si x1 ,...,xn son observaciones independientes de
una variable aleatoria X con distribucion Normal o Gaussiana N ; 2 , entonces
p
x
n v N (0; 1) ;
donde el simbolo "v" indica que una variable aleatoria "se distribuye como".

1.2

Intervalo de conanza (bilateral) y puebas de hipotesis


para la media en caso tamao de muestra grande

* Supuestos probabilisticos:
1) Muestra: x1 ,...,xn son observaciones independientes de una variable aleatoria X con distribucion arbitraria.de media = E (X).
2) El tamao de muestra n es grande (en practica, se suele considerar grande
cuando n > 30)
* Dado un valor de conanza 1
especicado por el investigador, un
intervalo con conanza 1
para la media es el siguiente:
x

s
p Z1
n

=2 ; x

s
+ p Z1
n

=2

donde
- para cualquier probabilidad 0 < < 1, se denota por Z al percentil de
la distribucion normal standard N (0; 1) correspondiente a la probabilidad , o
sea, (Z ) = donde es la distribucion Normal
p standard;
- y s es la desviacion standard muestral s = s2 con s2 denida por (1).
* Pruebas de hipotesis
Dada una constante de referencia de interes 0 2 R y un nivel de signicacion
0 < < 1 especicados ambos por el investigador:
H0 :
H0 :
H0 :

Problema
0 versus H1 :
0 versus H1 :
0 versus H1 :

6
=
>
<

0
0
0

Region de rechazo de hipotesis nula H0


Z < Z1 =2 o Z > Z1 =2
;
Z > Z1
Z < Z1 :

donde Z es el llamado estadigrafo de prueba Z para la media en caso


tamao de muestra grande:
x
0p
Z=
n:
s
* Fundamento teorico: si x1 ,...,xn son observaciones independientes de
una variable aleatoria X con distribucion arbitraria y el tamao de muestra n
es grande, entonces aproximadamente se cumple que
p
x
n v N (0; 1) :
s
2

1.3

Intervalo de conanza (bilateral) y puebas de hipotesis


para la media de una distribucion Gaussiana en caso
varianza desconocida y muestra arbitrario

* Supuestos probabilisticos:
1) Muestra: x1 ,...,xn son observaciones independientes de una variable aleatoria X con distribucion Normal o Gaussiana N ; 2 .
2) La varianza 2 de la distribucion de la variable observada X es desconocida.
3) El tamao de muestra n no es grande (en practica, se considera no grande
cuando n < 30).
* Dado un valor de conanza 1
especicado por el investigador, un
intervalo con conanza 1
para la media es el siguiente:
x

s
p t1
n

=2

s
1) ; x + p t1
n

(n

=2

(n

1) ;

donde:
p
-se dene s como la desviacion standard muestral s = s2 con s2 denida
por (1);
y, para cualquier probabilidad 0 < < 1 y cualquier entero k 2 N, t (k)
denota el percentil de la distribucion t de Student con k grados de libertad
correspondiente a la probabilidad , o sea, F (t (k)) = , donde F aqui denota
la funcion de distribucion de una variable aleatoria t-Student con k grados de
libertad. El percentil t (k) puede hallarse usando la Tabla de la distribucion
t-Student.
* Pruebas de hipotesis
Dada una constante de referencia de interes 0 2 R y un nivel de signicacion
0 < < 1 especicados por el investigador,
H0 :
H0 :
H0 :

Problema
versus H1 :
0 versus H1 :
0 versus H1 :

6
=
>
<

0
0
0

Region de rechazo de hipotesis nula H0


T < t1 =2 (n 1) o T > t1 =2 (n 1)
;
T > t1 (n 1)
T < t1 (n 1) :

donde T es el llamado estadigrafo de prueba T para la media:


T =

x
s

0p

n:

* Fundamento teorico: si x1 ,...,xn son observaciones independientes de


una variable aleatoria X con distribucion Normal o Gaussiana N ; 2 , entonces
p
x
n v t-Student con n 1 grados de libertad.
s

Intervalo de conanza (bilateral) y puebas de


hipotesis para la varianza de una distribucion
Gaussiana

* Supuestos probabilisticos:
Muestra: x1 ,...,xn son observaciones independientes de una variable aleatoria
X con distribucion Normal o Gaussiana N ; 2 .
Dado un valor de conanza 1
especicado por el investigador (por ejemplo, 1
= 0:95), un intervalo con conanza 1
para la varianza 2
es el siguiente:
#
"
(n 1) s2
(n 1) s2
;
;
X12 =2 (n 1) X 2=2 (n 1)
donde
el estimador insesgado s2 de la varianza 2 denido por (1).
y ,para cualquier probabilidad 0 < < 1 y cualquier entero k 2 N, el valor
X 2 (k) denota el percentil de la distribucion ji-cuadrado k grados de libertad
correspondiente a la probabilidad ; o sea, F X 2 (k) = , donde aqui F es
la funcion de distribucion de una variable aleatoria ji-cuadrado k grados de
libertad. El valor X 2 (k) se puede hallar usando la Tabla de la distribucion
ji-cuadrado.
* Pruebas de hipotesis
Dada una constante de referencia de interes 0 > 0 y un nivel de signicacion
0 < < 1 especicados por el investigador,

H0 :
H0 :
H0 :

2
2
2

Problema
versus H1 :
versus H1 :
versus H1 :

2
0
2
0
2
0

2
2
2

6=
>
<

2
0
2
0
2
0

Region de rechazo de hipotesis nula H0


X 2 < X 2=2 (n 1) o X 2 > X12 =2 (n 1)
;
X 2 > X12 (n 1)
2
2
X < X (n 1) ;

donde X 2 es el llamado estadigrafo de prueba ji-cuadrado para la


varianza:
(n 1) s2
:
X2 =
2
0

Aclaracion: No confundir el estadigrafo X 2 con los percentiles X 2=2 (n 1),


X12 =2 (n 1), X12 (n 1) y X 2 (n 1).
Fundamento teorico: si x1 ,...,xn son observaciones independientes de una
variable aleatoria X con distribucion Normal o Gaussiana N ; 2 , entonces
(n

1) s2
2

v ji-cuadrado con n

1 grados de libertad.

Intervalos de conanza (bilaterales) y pruebas de hipotesis para diferencia de medias de


distribuciones Gaussianas

*Supuestos probabilisticos:
1) Muestras: x1 ,...,xn son observaciones independientes de una variable
aleatoria X con distribucion Normal o Gaussiana N 1 ; 2 , y y1 ,...,ym son observaciones independientes de una variable aleatoria Y con distribucion Normal
o Gaussiana N 2 ; 2 . Ambas muestras se suponen ademas independientes
entre si.
2) Notar que se supone que las varianzas de ambas variables muestreadas es
la misma: 2 = V (X) = V (Y ).
3) Los tamaos de muestra n y m no son grandes (en practica, se suelen
considerar no grandes cuando n < 30 o m < 30).
* Dado un valor de conanza 1
especicado por el investigador, un
intervalo con conanza 1
para la diferencia de medias 1 2 es el
siguiente:
x

sC
t1
n+m

=2

y+ p

2) ; x

(n + m

sC
t1
n+m

=2

(n + m

2) ;

donde
-para cualquier probabilidad 0 <
< 1 y cualquier entero k 2 N, t (k)
denota el percentil de la distribucion t de Student con k grados de libertad
correspondiente a la probabilidad , o sea, F (t (k)) = , donde F aqui denota
la funcion de distribucion de una variable aleatoria t-Student con k grados de
libertad. El percentil t (k) puede hallarse usando la Tabla de la distribucion
t-Student; p
- y sC = s2C , donde s2C es el estimador insesgado de 2 usando muestras
conjuntas de xi y yj :
s2C =

1
n+m

1) s2x + (m

(n

1) s2y ;

donde s2x y s2y estan denidos son los estimadores insesgados de varianzas denidos
por:
s2x
s2y

=
=

1
n

1
1

n
X

(xi

i=1
m
X

(yi

(2)

(3)

y) :

i=1

* Pruebas de hipotesis
Dada una constante de referencia de interes
0 < < 1 especicados por el investigador,
5

x) ;

2 R y un nivel de signicacion

H0 :
H0 :
H0 :

Problema
versus H1 :
2 versus H1 :
2 versus H1 :

1
1

1
1
1

6=
>
<

T <

2
2

Region de rechazo de hipotesis nula H0


t1 =2 (n + m 2) o T > t1 =2 (n + m
T > t1 (n + m 2)
T < t1 (n + m 2) :

donde T es el llamado estadigrafo de prueba T para diferencia de


medias:
x y
T =q 2 :
sC
n+m

* Fundamento teorico de dichos intervalo de conanza y regiones de rechazo: si x1 ,...,xn son observaciones independientes de una variable aleatoria X
con distribucion Normal o Gaussiana N 1 ; 2 , y y1 ,...,ym son observaciones
independientes de una variable aleatoria Y con distribucion Normal o Gaussiana
N 2 ; 2 entonces se cumple que:
x

s2C
n+m

2)

v t-Student con n + m

2 grados de libertad.

En caso tamaos de muestra n y m grandes, en la propiedad anterior se puede


sustituir la distribucion t-Student con n + m 2 grados de libertad por la
distribucion N (0; 1).

Intervalo de conanza (bilateral) y pruebas de


hipotesis para cociente de varianzas de distribuciones Gaussianas

* Supuestos probabilisticos:
Muestras: x1 ,...,xn son observaciones independientes de una variable aleatoria X con distribucion Normal o Gaussiana N 1 ; 21 , y y1 ,...,ym son observaciones independientes de una variable aleatoria Y con distribucion Normal
o Gaussiana N 2 ; 22 . Ambas muestras se suponen ademas independientes
entre si.
* Dado un valor de conanza 1
especicado por el investigador, un
intervalo con conanza 1
para el cociente de varianzas 21 = 22 es el
siguiente:
s2x
s2y F1

1
=2 (n

1; m

s2x
1) s2y F
;

=2 (n

1
1; m

1)

donde
los valores s2x y s2y estan denidos por (2) y (3);
y, para cualquier probabilidad 0 < < 1 y cualesquiera enteros k1 ; k2 2
N, el valor F (k1 ; k2 ) denota el percentil de la distribucion F de Fisher con
6

2)

k1 grados de libertad en numerador y k2 grados de libertad en denominador,


correspondiente a la probabilidad ; o sea, G (F (n 1; m 1)) = , donde
aqui G denota a la funcion de distribucion F de Fisher con k1 grados de libertad
en numerador y k2 grados de libertad en denominador. El valor F (k1 ; k2 ) se
puede hallar usando la Tabla de la distribucion F de Fisher.
* Pruebas de hipotesis
Dado un nivel de signicacion 0 < < 1 especicado por el investigador,
Problema
H0 :
H0 :
H0 :

2
1 =
2
1
2
1

2
2 versus H1 :
2
2 versus H1 :
2
2 versus H1 :

2
1 6=
2
1 >
2
1 <

2
2
2
2
2
2

F <F

Region de rechazo de hipotesis nula H0


1; m 1) o F > F1 =2 (n 1; m
=2 (n
F > F1 (n 1; m 1)
F < F (n 1; m 1) :

donde F es el llamado estadigrafo de Fisher para cociente de varianzas:


s2
F = x2 ;
sy
donde s2x y s2y estan denidos por (2) y (3).
* Fundamento teorico: si x1 ,...,xn son observaciones independientes de
una variable aleatoria X con distribucion Normal o Gaussiana N 1 ; 21 , y
y1 ,...,ym son observaciones independientes de una variable aleatoria Y con distribucion Normal o Gaussiana N 2 ; 22 , entonces:
s2x

F =

2
1
2
sy
2
2

v F de Fisher con n 1 grados numerador y m 1 grados denominador.

1)

You might also like