Professional Documents
Culture Documents
6
2011
Objetivos:
establecer la necesidad de los mtodos estadsticos para la toma de decisiones basadas en resultados de experimentos
desarrollar procedimientos para estimar valores desconocidos de parmetros tales como media y varianza
establecer las bases para la estimacin de parmetros de procesos aleatorios;
6 INTRODUCCION
En los captulos precedentes, se ha considerado que las funciones de distribucin de
probabilidad asociados a cada problema eran conocidas. As, las probabilidades, funciones de
autocorrelacin y las densidades espectrales de potencia eran, o bien datos, o bien quedaban
establecidas a partir de un conjunto de consideraciones acerca del proceso aleatorio subyacente. En muchas aplicaciones prcticas, sin embargo, no se dispone de tal informacin y las propiedades de los procesos aleatorios deben ser establecidas a partir del anlisis de conjuntos de
datos colectados mediante la realizacin de experimentos. El estudio de los mtodos empleados para tomar decisiones a partir de mediciones (u observaciones) resultantes de experimentos es el mbito propio de la estadstica y de all la necesidad de incluir este captulo.
Los dos tipos de decisiones tratados en este curso tienen que ver, bsicamente, con
decidir qu valor adoptar para estimar un parmetro desconocido y con la decisin de aceptar
o no como vlida cierta hiptesis.
Decisiones tpicas del primer caso son las que tienen que ver con la estimacin de media y varianza de una variable aleatoria especfica, o la estimacin de la funcin de autocorrelacin y densidad espectral de potencia de un proceso aleatorio. En tales problemas de estimacin de parmetros desconocidos, se debe responder a preguntas tales como: Qu mtodo es
el ms adecuado para estimar cierto parmetro desconocido a partir de los datos disponibles?
o Cul es la bondad de la estimacin realizada?
En cuanto al segundo caso (aceptar o no como vlida cierta hiptesis), las decisiones
tpicas se relacionan con la aceptacin de hiptesis tales como: esta presente una seal; o el
ruido es blanco; o la variable aleatoria es normal. Para este tipo de problemas, es necesario
contar con un buen mtodo de prueba de hiptesis; es decir, un mtodo que haga ms verosmil la aceptacin de la hiptesis verdadera y el rechazo de la hiptesis falsa. Adems, el
mtodo debe proveer la forma de establecer la probabilidad de cometer un error al tomar una
decisin. Estos mtodos de prueba de hiptesis son similares a los mtodos de toma de decisin tratados en el Captulo 4; no obstante el enfoque aqu es clsico, en el sentido que no se
utilizan las probabilidades a priori y no se hace uso explcito de funciones de prdida. Adems, en este captulo se analizar, adems del caso de hiptesis alternativa simple del Captulo 4, el caso de mltiples hiptesis alternativas.
Los contenidos del presente captulo son desarrollados poniendo el acento en estimadores de aquellos parmetros de procesos estocsticos que son ms frecuentemente utilizados
en aplicaciones de ingeniera electrnica y en telecomunicaciones.
6.1 MEDICIONES
Si se desea establecer el valor de cierto parmetro desconocido, o probar cierta hiptesis a partir de mediciones, debe enfrentarse el problema de estimar el valor desconocido del
parmetro en cuestin a partir de un conjunto de valores diferentes, fruto de mediciones repetidas del parmetro en cuestin. El problema central a abordar es, entonces, encontrar algn
modo ptimo de utilizacin de las mediciones disponibles para estimar el valor del parmetro
desconocido.
A fin de utilizar las observaciones disponibles en forma organizada, la prctica usual
es asumir la existencia de un modelo subyacente que involucra a las variables aleatorias y al
parmetro desconocido que debe ser estimado. Por ejemplo, si denominamos al parmetro
desconocido m, al error en la medicin N y a la medicin X, podramos considerar un modelo
del tipo:
X=m+N
(6.1)
Ntese, que en el modelo adoptado, m es una constante desconocida mientras que tanto
N como X son variables aleatorias.
1
n
(6.2)
i =1
1
n
i =1
1
n
es un estadstico, pero
n
2 =
i =1
i =1
( X i )2
n
estimador muestral de . Cierta muestra especfica con valores Xi = xi, para i = 1, , n, dar
lugar a un valor de que recibe el nombre de estimacin muestral de ; es decir: el estimador
es una variable aleatoria que tomar diferentes valores de acuerdo al valor que asuman las
mediciones, mientras que la estimacin es un nmero.
Antes de continuar con la discusin general de estimacin, se brindarn algunos ejemplos especficos.
Estimadores de la media.
La media X de una variable aleatoria X es, usualmente, estimada mediante el promedio X de la muestra; es decir:
X = X =
1
n
(6.3)
i =1
que recibe el nombre de media muestral. En la (6.3), las Xi son n mediciones iid u observaciones, pertenecientes a la poblacin considerada y que poseen cierta distribucin FX.
El estimador definido mediante la (6.3) es el ms usual para la media, sin embargo no
es el nico; en efecto, a veces (no muy frecuentemente) se estima X mediante:
1
( X max + X min )
2
X =
1
2
1
n
(X
X)
(6.4a)
i =1
1 n
(X i X )2
n 1 i =1
(6.4b)
Estimadores de la covarianza.
Usualmente, la covarianza XY es estimada mediante:
n
X )(Yi Y )
(6.5a)
1 n
(X i X )(Yi Y )
n 1 i =1
(6.5b)
XY =
1
n
(X
i =1
o mediante:
XY =
Un estimador de probabilidad.
Sea p la probabilidad de cierto evento A. Luego, un estadstico que puede ser utilizado
para estimar p es:
p =
NA
n
en el que NA es la variable aleatoria que representa el nmero de veces que el evento A ocurre
en n ensayos independientes.
Ntese que la definicin de p es similar a la dada en Probabilidad para la frecuencia
relativa; sin embargo, existe una diferencia importante: en la frecuencia relativa se toma lmite para n que tiende a infinito, lo que determina que NA/n sea un nmero. En este caso, en que
n toma un valor finito, NA/n es una variable aleatoria con varianza no nula y una funcin de
distribucin bien definida.
Notacin para estimadores.
El inters en estimar el parmetro desconocido se refleja escribiendo la funcin de
distribucin de la variable X de la forma:
F X (x; )
o, simplemente F(x;), si se sobreentiende que X es una variable aleatoria. A modo de ejemplo, consideremos una variable aleatoria normal con varianza unitaria y media desconocida ;
la notacin es:
(x )2
1
f ( x; ) = f X ( x; ) =
exp
2
2
nicamente dichos valores con una probabilidad igual a la frecuencia relativa observada
(evidentemente se trata slo de una aproximacin que ser mejor o peor en funcin del
tamao de la muestra y de las caractersticas de X).
- Para estimar un momento de X se calcula el momento terico correspondiente a la variable aleatoria definida en el paso anterior.
Los estimadores de momentos que resultan de aplicar estas premisas, reciben la denominacin de momentos muestrales. As, los momentos muestrales correspondientes a los momentos no centrados se definen de acuerdo a la expresin general:
m k =
1
n
k
i
i =1
Para el caso de la media (momento no centrado de orden 1), el estimador es precisamente la media muestral definida mediante la (6.3).
En la misma lnea de razonamiento, los momentos muestrales correspondientes a los
momentos centrados se calculan mediante la expresin:
m k =
1
n
(x
x)
i =1
En el caso concreto de la varianza (momento centrado de orden 2), el momento muestral se denomina varianza muestral tal como se la defini mediante la (6.4a).
Retornando al problema de definir estimadores, considrese que habitualmente los
parmetros de una variable aleatoria estn relacionados con sus momentos; por ejemplo, en un
proceso aleatorio de distribucin normal con media y varianza , el parmetro coincide
con m1 y el parmetro es m2. En este caso, si disponemos del estimador de un momento (por
ejemplo un momento muestral), podramos estimar el parmetro basndonos, como ya se ha
dicho, en la relacin que existe con su equivalente terico.
A continuacin, se ilustrar el procedimiento mediante un ejemplo concreto;
Ejemplo 6.1:
Supngase que X es una variable aleatoria con distribucin dada por exp(), con desconocido.
Estimar el parmetro desconocido mediante el mtodo de los momentos.
Solucin:
En primer trmino, debemos relacionar el parmetro que se quiere estimar con un momento de
X. Este paso plantea, en general, diversas opciones, puesto que es habitual que el parmetro de
inters aparezca en varios momentos de X. En nuestro caso (distribucin exponencial), se sabe
que:
m1 = E{X}= 1/
m2 = Var{X}=1/2
En este ejemplo, se utilizar para la estimacin la relacin que existe entre y la media de X
(momento no centrado de orden 1). As, se estimar la esperanza (momento terico) mediante la
media muestral (momento muestral correspondiente), haciendo:
m 1 =
1
n
i =1
Por otra parte, la relacin existente entre el parmetro terico y el momento terico, se mantiene
al para relacionar sus estimadores; es decir que se cumple que:
m 1 = 1
y, por tanto:
1
=
m 1
n
n
i =1
f ( x ; )
i
i =1
Ahora bien, si se consideran los valores de X1, X2, , Xn fijos y que es un parmetro desconocido, se denomina a la f(x1, x2, , xn; ) funcin de verosimilitud y se la denota:
L( ) = f (x1 , x2 ,L, xn ; ) =
f ( x ; )
(6.6)
i =1
(6.7)
() (
x0
>0
x<0
a.- Si la muestra consta de cinco mediciones iid de X, con valores 10, 11, 8, 12 y 9; hallar la funcin de verosimilitud de .
b.- Hallar la estimacin de mxima verisimilitud de .
Solucin:
a.- Por aplicacin de la ecuacin (6.6), es:
L( ) =
f ( xi ; ) =
i =1
exp( x
i =1
) = 5 exp( 50 )
>0
dL( )
50
50
5 50
= 5 6 exp
+ 2 exp
>0
Solucin:
L( ) = f ( x1 ,L, xn , ) =
i =1
( x )2
exp i 2
2
2 2
Hallar el valor que maximiza ln[L()] es equivalente a hallar el valor de que maximiza L();
entonces:
n
1
1
(xi )2
g ( ) = ln[L( )] = n ln
2
2
i =1
2
n
dg
1
[ 2(xi )] = = 0
= 2
d
2 i =1
n =
i =1
Sesgo (Bias).
Se dice que un estimador de cierto parmetro es insesgado (unbiased en ingles), si
se cumple que:
E =
{}
X = = g ( X 1 ,L, X n ) =
E{X 1 + X 2 + L + X n } n
=
=
n
n
Por otra parte, que X sea un estimador insesgado para no implica que sea nico. Por
ejemplo, la primer muestra, X1 es insesgada y tambien lo ser un estimador basado nicamente
en ella; as, vemos que son necesarias otras medidas de estimadores para poder separar los
buenos estimadores de aquellos que no lo son. En principio, se puede ver que las varianzas de
los estimadores X y X1 son diferentes, pues:
Var[X 1 ] = 2
(6.8a)
n Xi 2
Var X = Var
=
i =1 n n
[ ]
(6.8b)
{}
[]
{}
b = E
(6.9)
{(
)}
2
muestras. La ms utilizada es, sin embargo, el ECM que, como se sabe, se define como:
{(
ECM = E
)}
2
{}
E {( ) }= E {[( m ) + (m )] }
= E {( m ) }+ 2 E{ m}E {m }+ E {(m ) }
2
= ( m ) + 2 + 2(m )(m m )
2
es decir:
{(
o, en otras palabras:
) }=
2
+ ( m )
(6.10)
() [
()
( )]
Resulta claro, a partir de la figura, que al aplicar el criterio de mnimo ECM se prefiere
a 1 y 2 frente a 3 pues son insesgados y, por otra parte, como Var[ 1 ] < Var[ 2 ] se prefiere
a .
1
Otras definiciones:
Suele llamarse a la raz cuadrada positiva de la varianza de , error estndar de . Por otra
parte, a la raz cuadrada positiva del ECM se la denomina error RMS.
Si 0 , el sesgo normalizado, la desviacin estndar normalizada (tambin denominado
coeficiente de variacin), y el error RMS normalizado se definen como sigue:
Sesgo Normalizado = b =
()
(6.11)
ECM Normalizado = =
2
{(
{(
)}
(6.12)
)}
2
(6.13a)
(6.13b)
Estimadores Consistentes.
Cualquier estadstico o estimador que converge en probabilidad al parmetro a ser estimado es denominado estimador consistente de ese parmetro. Por ejemplo:
Xn =
1
n
i =1
tiene media y varianza 2/n; luego, a medida que n , X n tiende a su media, y su varianza tiende a cero. As, decimos que X n tiende en probabilidad a y, en consecuencia, X n
es un estimador consistente de .
Cabe consignar que, de acuerdo a lo establecido hasta aqu, es relativamente fcil establecer si un estimador es insesgado o no; tambin lo es comparar varianzas entre estimadores insesgados. Sin embargo, verificar la convergencia establecida en la definicin anterior
puede no resultar sencillo.
Eficiencia de Estimadores.
Sean 1 y 2 estimadores insesgados de ; se define como eficiencia relativa de 2 respecto a 1 a:
( )
( )
Var 2
Var
1
En ciertos casos, es posible hallar, entre estimadores insesgados, uno que posea la mnima varianza V; en tal caso, la eficiencia absoluta de un estimador insesgado 1 es:
V
( )
Var 1
2
2n
2n
2
= 64%
cierto rango (con alta probabilidad). En esos casos, lo que se busca es un intervalo de confianza; tal estimacin de intervalo suele denominarse lmites de confianza.
Concluiremos esta breve introduccin con un ejemplo ilustrativo en el cual la distribucin del estadstico es particularmente simple. Se enfatizar sobre intervalos de confianza en
la parte prctica de la asignatura.
En la prxima seccin se estudiar la distribucin de algunos estadsticos comunes, los
que pueden ser utilizados para la construccin de intervalos de confianza de parmetros desconocidos.
Ejemplo 6.4:
X es una variable aleatoria normal con varianza 2 = 1. La media de X se estima a partir de
una muestra que consta de 10 mediciones. Hallar el intervalo aleatorio I = (X a ), (X + a ) tal
Solucin:
Sabemos que:
X=
1
10
10
i =1
X
P 1,96
1,96 = 0,95
0,1
Es decir, que el intervalo X 0,62 X + 0,62 define el intervalo de confianza del 95% para .
1
n
X
i =1
tambin es normal con media y varianza 2/n. Ntese que el teorema central del lmite implica que, a medida que n , X tender a ser normal, sin tener en cuenta la distribucin de
X. Ntese, adems, que a partir de X se puede definir (X ) / n , variable aleatoria normal standard ( = 0; 2 = 1).
Ejemplo 6.5:
Xi es una variable aleatoria normal con media 1000 y varianza 100. Hallar la distribucin de X n
cuando n = 10, 50, 100.
Solucin:
A partir de los resultados previos, se establece que X n es normal, con media 1000 y con varianzas:
Var X 10 = 10
[ ]
Var[X ] = 2
Var[X ] = 1
50
100
Ntese que, con un tamao muestral de 100, X 100 tiene una probabilidad de 0,997 de estar comprendida en 1000 3.
Distribuciones ms utilizadas.
En los apndices 6.A y 6.B se presenta una sntesis de algunas distribuciones de probabilidad de uso frecuente, incluyendo la notacin, los parmetros, pdf y momentos de bajo
orden. En ellas, la variable aleatoria (o vector aleatorio) se indica con . En lo que resta de
este apartado, se presenta una breve descripcin de las distribuciones consideradas.
Distribuciones continuas
Distribucin Uniforme: La distribucin uniforme es utilizada para representar una variable de la que se conoce que est restringida a cierto intervalo y que puede ser hallada con la misma probabilidad en culaquier punto de ese intervalo. Eso da por resultado
una pdf constante entre los lmites del intervalo considerado. La distribucin uniforme
standard (entre 0 y 1) es un caso especial de distribucin beta que se obtiene haciendo
unitarios sus dos parmetros. Si se hace tender los lmites del intervalo de la distribucin uniforme a infinito, se obtiene una distribucin no informativa.
Distribucin Normal: La distribucin normal aparece habitualmente en el trabajo relacionado con la estadstica. Las medias muestrales suelen aparecer como normalmente distribudas por consideraciones relacionadas con el teorema central del lmite. En
general, la varianza 2 es positiva; en particular, 2 = 0 corresponde a una distribucin
de masa unitaria en el punto (valor correspondiente a la media) y, si 2 la distribucin es no informativa. No hay restricciones en cuanto al valor de la media. La integral es finita en tanto la varianza lo sea. Mencionemos que la suma de dos variables
aleatorias normales es una variable aleatoria normalmente distribuda; otra propiedad
importante es la que establece que, si (1|2)N(2,12) y (2)N(2,22), significa que
los.
Distribucin Normal Multivariada: La funcin de densidad de probabilidad normal
multivariada es siempre finita. La integral es finita siempre y cuando 1 > 0. Se obtiene una distribucin no informativa si el det[-1] 0; en este caso, el lmite no est unvocamente definido. Las propiedades de la distribucin normal multivariada han sido
mencionadas en el captulo 3.
Distribucin Gama: La distribucin gama es una familia de curvas basada en dos parmetros. Tanto la distribucin chi cuadrado como la distribucin exponencial se derivan de la distribucin gama fijando uno de sus parmetros. La integral es finita
siempre que > 0. Se obtiene un distribucin no informativa cuando se tiende al lmite
de , 0. El logartmo de una variable aleatoria gama es aproximadamente normal
(la aproximacin es mucho mejor si a la variable aleatoria se la eleva al exponente 1/3).
Distribucin Gama Inversa: Si --1 posee distribucin gama con parmetros y ,
entonces posee distribucin gama inversa. La funcin de densidad de probabilidad
gama inversa es siempre finita. La integral es finita siempre que > 0. Se obtiene un
distribucin no informativa cuando se tiende al lmite de , 0.
Distribucin Chi - Cuadrado: La distribucin 2 es un caso especial de distribucin
gama, con = /2 y = . La propiedad aditiva se mantiene, toda vez que el parmetro de escala inversa est fijo; as: si 1 21 y 2 22 , entonces 1 + 2 21 + 22
Distribucin Chi Cuadrado Inversa: La distribucin 2 inversa es un caso especial
de distribucin gama inversa, con = /2 y = .
Distribucin Exponencial: La distribucin exponencial es la distribucin de tiempos
de espera hasta el prximo evento en un proceso de Poisson y es, como la distribucin
2, un caso especial de la distribucin gama, en este caso con = 1.
Distribucin t de Estudiantes: La distribucin t puede ser interpretada como una
mezcla de normales que poseen en comn medias y varianzas que siguen una distribucin gama inversa. La familia de curvas de la distribucin t depende de un nico parmetro: (grados de libertad). Esta distribucin fue establecida en 1908 por W. S.
Gossett en su trabajo en la cervecera Guinnes; como no se permita publicar a los empleados de la firma, Gosset utiliz el seudnimo Student.
Distribuciones discretas
Distribucin de Poisson: La distribucin de Poisson es apropiada para aplicaciones
que incluyen el conteo del nmero de eventos que ocurren en cierto perodo. Esta distribucin discreta posee un nico parmetro () que es, a la vez, media y varianza de la
distribucin. Tal como fue establecido por el mismo Poisson, esta distribucin es el
caso lmite de una distribucin binomial en la que n ; p 0 y np = . La suma de
variables aleatorias Poisson de parmetros i es otra variable aleatoria Poisson con el
parmetro = i Tambin existe relacin entre la distribucin de Poisson y la exponencial; en efecto, si ciero conteo posee distribucin de Poisson, el intervalo entre
eventos posee distribucin exponencial.
Distribucin Binomial: La distribucin Binomial es utilizada para representar el nmero de exitos en una secuencia de intentos iid a partir de una poblacin infinita y
con probabilidad constante p de xito en cada intento. Solo hay dos resultados posibles
en cada intento. Una variable aleatoria binomial con n grande, es aproximadamente
normal. La suma de variables aleatorias binomiales de parmetros ni y p es otra variable aleatoria binomial con el mismo parmetro p y con parmetro n = ni . La distribucin binomial con n = 1 recibe el nombre de distribucin Bernoulli.
Distribucin Multinomial: Esta distribucin es una generalizacin multivariable de la
distribucin binomial. La distribucin marginal de un nico i es binomial. La distribucin condicional de un sub-vector de es multinomial con el parmetro correspondiente al tamao de la muestra reducido a la cantidad de componentes de y parmetros de probabilidad escalados a fin de que la suma sea igual a uno.
Distribucin Binomial Negativa: La distribucin binomial negativa es la distribucin
marginal para una variable aleatoria Poisson cuando el parmetro de tasa posee distribucin Gama(, ). Esta distribucin puede se utilizada como alternativa robusta a
la distribucin de Poisson, pues comparten el mismo espacio muestral, pero con un parmetro adicional. En efecto, al tender al lmite de manteniendo cte , la
distribucin binomial negativa aproxima una Poisson con parmetro = .
f Y | H 0 ( | H 0 ) =
2
exp
2
2
1
(6.18)
y
f Y | H1 ( | H 1 ) =
( 1) 2
exp
2
2
(6.19)
Por razones que se harn evidentes ms adelante, cuando se consideren varias alternativas, llamaremos a la primera hiptesis, hiptesis nula, H0, mientras que la otra hiptesis posible, es decir que la seal que se ha transmitido es la correspondiente a un 1, ser llamada
hiptesis alternativa, H1.
El objetivo es decidir cual alternativa aceptar y cual rechazar. Consideraremos que se
acepta H0 si la seal recibida Y est por debajo de cierto valor y que se acepta H1 si la seal
recibida est por encima de . Resulta intuitivamente claro, tal como se vio en el captulo 4,
que valores pequeos de Y corresponden a H0, mientras que valores grandes de Y corresponden a H1.
El conjunto de valores para los cuales se rechaza H0, es decir cuando Y > , recibe la
denominacin de regin crtica de la prueba (ver figura 6.2). Pueden definirse dos tipo de
errores:
Error Tipo I: rechazar H0 cuando en realidad se ha transmitido un 0
Error Tipo II: aceptar H0 cuando en realidad se ha transmitido un 1
La probabilidad de un error de Tipo I, denominada frecuentemente como nivel de significancia de la prueba es (en este ejemplo):
2
1
P (error Tipo I) = P(Y | H 0 ) =
(6.20)
exp d
2
2
( 1) 2
exp
2
2
(6.21)
0,05 =
2
exp
2
2
1
d = Q( )
(6.22)
en la que Q() es uno menos la funcin de distribucin de una variable aleatoria normal Gaussiana. Luego, utilizando la Tabla 4.1 resulta:
1,65
Con fijo en 1,65 se calcula la probabilidad de un error de Tipo II mediante la (6.21):
1, 65
( 1) 2
exp
2
2
d = 1 Q (0,65) 0,7422
Vemos que, as planteado el ejemplo, la probabilidad de un error de Tipo II es demasiado alta; esto significa que cuando la seal transmitida sea la correspondiente al 1, es muy
probable que se la reconozca como correspondiente a 0. Intuitivamente, podemos suponer que
si tomamos ms muestras de la seal recibida, y esas muestras son independientes, podramos
disminuir la probabilidad de error Tipo II. En este caso, repetiremos la prueba pero con:
Y =
Yi
n
i =1
de forma que, con la misma probabilidad de error Tipo I, la probabilidad de error Tipo II pueda reducirse a un nivel aceptable. Si, por ejemplo, consideramos que n = 10, la varianza de Y
resulta 1/10 y la ecuacin (6.22) resulta:
0,05 =
2
d
exp
0,2
0,2
1
(6.23)
y, con z = 10 , es:
0,05 =
10
luego:
z2
exp dz
2
2
1
Q 10 = 0,05
1.65
10
0,52
( 1) 2
exp
0,2
0,2
0 , 48 10
z2
1
d =
dz 0,065
exp
Ntese, que no solo el error de Tipo II se reduce a un nivel aceptable, sino que el umbral de
decisin se ubica ahora prcticamente equidistante de 0 y 1, lo que resulta intuitivamente
correcto.
El ejemplo desarrollado podra haber sido formulado desde el punto de vista de la teora de decisin, tal como se hizo en el captulo 4; sin embargo, aqu nos hemos ceido a la
formulacin clsica de prueba de hiptesis. Con este enfoque, no se utilizan ni las probabilidades a priori ni las funciones de prdida y se da ms nfasis a la proteccin contra el error
Tipo I que contra el error Tipo II. Ambos enfoques dan lugar a desarrollos tiles. En la
prxima seccin, se presentar un caso en que la formulacin de prueba de hiptesis es claramente ventajosa.
Antes de ello, se indican algunas pautas tiles de tipo general para enunciar un problema como de prueba de hiptesis:
- Cuando se prueba una hiptesis relativa a cierto parmetro , la afirmacin de igualdad debe incluirse en H0; de esta forma, H0 seala un valor numrico especfico que
puede corresponder al valor real del parmetro . Este valor recibe el nombre de valor
nulo y se denota por 0.
- Todo lo que debe ser detectado o confirmado constiyuye la hiptesis alternativa.
- Ya que la hiptesis de investigacin es H1, se pretende que la evidencia permita rechazar H0 y, en consecuencia, aceptar H1.
( ) 2
exp
0,2
2
d = 1 Q ( )
(6.25)
Considrese que se han tomado 10 mediciones iid y que se acepta H0 si X < . La varianza de X es:
X2 =
X2
n
10
=1
10
P (X > | = 0 ) =
(6.26)
2
P (X < | = 0) =
2
P X = 1
(6.27)
(6.28)
Si = 0,01, sabiendo que la varianza es 1, de la Tabla 4.1 del Apndice 4.A se obtiene
que 2,58 y, en consecuencia, la regin crtica R es:
R {X < 2,58} {X > 2,58}
(6.29)
X 0
que, como se sabe, posee distribucin normal con media nula y varianza unitaria.
Varianza desconocida
Se consideran ahora las mismas hiptesis nula y alternativa del caso anterior, con la
diferencia que en este caso la varianza de X es desconocida. En este caso, para establecer la
prueba utilizamos el estadstico:
T=
X 0
S
el cual, segn puede demostrarse, posee distribucin t-student. As, para un nivel de significancia , con n - 1 grados de libertad y recordando que 0 = 0, se establece:
X
P
> t n 1, / 2 =
S n
2
S n
S n
10
Prueba Chi-Cuadrado.
Puede demostrarse que la suma de los cuadrados de variables aleatorias normales iid
de media nula, as como la suma de los cuadrados de ciertas variables aleatorias normales
dependientes, poseen distribucin chi-cuadrado. Agreguemos que la suma de los cuadrados de
variables aleatorias binomiales posee, en el lmite, distribucin chi-cuadrado cuando n .
En efcto, si X1 es binomial de parmetros n, p1; es decir:
P( X 1 = i) =
n!
p1i p 2n i
i! (n i )!
i = 0, 1, , n
X 1 np1
np1 p 2
Y = lim Yn
(6.30)
en la que Y posee, en virtud del teorema central del lmite, distribucin normal standard.
Si ahora se define:
Z 1, n = Yn2
Z =Y2
(6.31)
1
1 p + p2
= 1
np1 p 2 n p1 p 2
1 1
1
=
+
n
p
p
1
2
y definiendo: X 2 = n X 1 ;
luego:
X1 np1 = n X2 n(1 p2) = np2 X2
( X 1 np1 )2 ( X 2 np 2 )2
np1
(6.32)
np 2
n!
p1i1 L p mim
i!L i m !
(6.33)
en la que:
m
p j =1
j =1
=n
(6.34)
j =1
( X i npi )2
i =1
npi
(6.35)
p 2 = p 2, 0
H0 :
M
p = p
m,0
m
H0 : M
p p
m,0
m
P Z m 1, n m2 1; =
d = m1 k
(6.36)
Notacin
U ( a, b)
f ( ) = U ( | a, b)
f ( ) =
N ( , )
2
Normal
Normal
Multivariada
dpf
f ( ) = N ( | , )
2
U ( , )
f ( ) = U ( | , )
f ( ) =
Parmetros
1
ba
[a, b]
(
exp
)2
2
2
2 2
1
f ( ) = (2 )
E ( ) =
de ubicacin:
de escala: > 0
E ( ) =
f ( ) =
1
exp( )
( )
>0
de forma: > 0
de escala inverso: > 0
Gama Inversa
Gamainversa( , )
f ( ) = Gamainversa( | , )
f ( ) =
( +1)
exp( / )
( )
>0
de forma: > 0
de escala: > 0
Chi-Cuadrado
Inversa
Exponencial
f ( ) =
f ( ) = )
(b a )2
12
var( ) =
Gama( , )
f ( ) = Gama( | , )
2
v (
var( ) =
var( ) = 2
T
exp ( ) 1 ( ) de ubicacin: =(1;; ) E ( ) =
2
Matrz de covarianza
v2
a+b
2
Lmites: a y b
con b > a
Gama
Chi-Cuadrado
Media y Varianza
2 2 v 21
exp
2
( v 2)
>0
E ( ) =
E ( ) =
E ( ) =
var( ) =
; var( ) =
2
( 1)2 ( 2)
var( ) = 2
Inversa v2
f ( ) = Inversa )
2
v (
Expon( )
f ( ) = Expon( | )
t v ( , 2 )
t de estudiantes f ( ) = t v ( | , )
2
f ( ) =
2 2 v 2+1
exp 1
2
(v 2)
>0
f ( ) = exp( )
>0
v
(v 2 ) v 2
(v +1) 2
E ( ) =
2
1
; var( ) =
2
( 2)2 ( 4)
E ( ) =
var( ) =
E ( ) = ;
var( ) =
v
2;
v2
con v > 1
con v > 2
Multinomial
Notacin
Poisson( )
f ( ) = Poisson( | )
Bin(n, p )
f ( ) = Bin( | n, p)
dpf
f ( ) =
1
exp(- )
!
Parmetros
= 0,1,2, L
+ 1
f ( ) =
1 + 1
= 0,1,2, L
var( ) =
E ( ) = np
var( ) = np(1 p )
probabilidades:
E ( ) = np
var( j ) = np j 1 p j
de forma: > 0
de escala inverso: > 0
E ( ) =
(entero positivo)
probabilidad:
n 1
Multinomial (n, p1 , L , p k )
p1 L p k k
f ( ) =
L
f ( ) = Multinomial ( | n, p1 , L , p k )
k
1
E ( ) =
de tasa: > 0
tamao muestral: n
n
n
f ( ) = p (1 p )
Media y Varianza
p [0,1]
tamao muestral: n
= 0,1,2, L
1
+ 1
(entero positivo)
p1 L p k [0,1]
alternativamente:
p = +1
var( ) =
( + 1)
2