You are on page 1of 24

Estadstica

6
2011

Objetivos:
establecer la necesidad de los mtodos estadsticos para la toma de decisiones basadas en resultados de experimentos
desarrollar procedimientos para estimar valores desconocidos de parmetros tales como media y varianza
establecer las bases para la estimacin de parmetros de procesos aleatorios;

6 INTRODUCCION
En los captulos precedentes, se ha considerado que las funciones de distribucin de
probabilidad asociados a cada problema eran conocidas. As, las probabilidades, funciones de
autocorrelacin y las densidades espectrales de potencia eran, o bien datos, o bien quedaban
establecidas a partir de un conjunto de consideraciones acerca del proceso aleatorio subyacente. En muchas aplicaciones prcticas, sin embargo, no se dispone de tal informacin y las propiedades de los procesos aleatorios deben ser establecidas a partir del anlisis de conjuntos de
datos colectados mediante la realizacin de experimentos. El estudio de los mtodos empleados para tomar decisiones a partir de mediciones (u observaciones) resultantes de experimentos es el mbito propio de la estadstica y de all la necesidad de incluir este captulo.
Los dos tipos de decisiones tratados en este curso tienen que ver, bsicamente, con
decidir qu valor adoptar para estimar un parmetro desconocido y con la decisin de aceptar
o no como vlida cierta hiptesis.
Decisiones tpicas del primer caso son las que tienen que ver con la estimacin de media y varianza de una variable aleatoria especfica, o la estimacin de la funcin de autocorrelacin y densidad espectral de potencia de un proceso aleatorio. En tales problemas de estimacin de parmetros desconocidos, se debe responder a preguntas tales como: Qu mtodo es
el ms adecuado para estimar cierto parmetro desconocido a partir de los datos disponibles?
o Cul es la bondad de la estimacin realizada?
En cuanto al segundo caso (aceptar o no como vlida cierta hiptesis), las decisiones
tpicas se relacionan con la aceptacin de hiptesis tales como: esta presente una seal; o el
ruido es blanco; o la variable aleatoria es normal. Para este tipo de problemas, es necesario
contar con un buen mtodo de prueba de hiptesis; es decir, un mtodo que haga ms verosmil la aceptacin de la hiptesis verdadera y el rechazo de la hiptesis falsa. Adems, el
mtodo debe proveer la forma de establecer la probabilidad de cometer un error al tomar una
decisin. Estos mtodos de prueba de hiptesis son similares a los mtodos de toma de decisin tratados en el Captulo 4; no obstante el enfoque aqu es clsico, en el sentido que no se
utilizan las probabilidades a priori y no se hace uso explcito de funciones de prdida. Adems, en este captulo se analizar, adems del caso de hiptesis alternativa simple del Captulo 4, el caso de mltiples hiptesis alternativas.
Los contenidos del presente captulo son desarrollados poniendo el acento en estimadores de aquellos parmetros de procesos estocsticos que son ms frecuentemente utilizados
en aplicaciones de ingeniera electrnica y en telecomunicaciones.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 2 de 24

6.1 MEDICIONES
Si se desea establecer el valor de cierto parmetro desconocido, o probar cierta hiptesis a partir de mediciones, debe enfrentarse el problema de estimar el valor desconocido del
parmetro en cuestin a partir de un conjunto de valores diferentes, fruto de mediciones repetidas del parmetro en cuestin. El problema central a abordar es, entonces, encontrar algn
modo ptimo de utilizacin de las mediciones disponibles para estimar el valor del parmetro
desconocido.
A fin de utilizar las observaciones disponibles en forma organizada, la prctica usual
es asumir la existencia de un modelo subyacente que involucra a las variables aleatorias y al
parmetro desconocido que debe ser estimado. Por ejemplo, si denominamos al parmetro
desconocido m, al error en la medicin N y a la medicin X, podramos considerar un modelo
del tipo:
X=m+N
(6.1)
Ntese, que en el modelo adoptado, m es una constante desconocida mientras que tanto
N como X son variables aleatorias.

Una situacin particular muy importante se da cuanto el valor esperado de N es cero;


en este caso, se dice que la medicin es insesgada (unbiased).
Consideremos, por caso, una situacin en la que se toman, sucesivamente, muestras de
cierta seal; si consideramos que el modelo subyacente es el establecido mediante (6.1), la
primera muestra ser X1 = m + N1; la segunda X2 = m + N2 y, en general Xn = m + Nn. La consideracin importante en modelos que involucran mediciones repetitivas, es que las variables aleatorias N1,..., Nn sean independientes e idnticamente distribuidas (iid); consecuentemente, en
ausencia de errores sistemticos de medicin, X1,..., Xn tambin sern iid.
Si se considera, en particular, el caso de procesamiento de seales e imgenes, la especificacin de muestras iid implica el cumplimiento de dos requisitos; por un lado idnticamente distribuidas, se refiere a que las muestras deben estar balanceadas respecto al eje del
tiempo. Por otro lado, independiente se refiere al hecho que el espectro de la seal debe ser
filtrado, de modo que todas las frecuencias de la banda considerada sean equiprobables.
Contando con un modelo subyacente, tal como el establecido mediante (6.1) y con la
consideracin de muestras iid, las mediciones pueden ser combinadas de diversas maneras;
estas combinaciones de X1, X2,..., Xn reciben el nombre genrico de estadsticos. Dejamos para
el prximo apartado una definicin formal de estadstico, pero mencionaremos un estadstico
de uso muy frecuente. Si expresamos:
X=

1
n

(6.2)

i =1

la barra indica un promedio de mediciones y recibe la denominacin de media muestral. Dado


que X es utilizado para obtener una estimacin de m, tambin suele aparecer indicado como:
m = X =

1
n

i =1

en la que el sombrero indica un estimador de .


Luego, las mediciones son utilizadas para formar estadsticos a partir de los cuales de
pueden estimar parmetros desconocidos o validar hiptesis. A tal fin, siempre es muy importante que las muestras sean representativas del ensamble a partir del cual se realiza la estimacin. Por otra parte, dado que se consideran procesos aleatorios, resultan crticas las consideraciones acerca de estacionariedad y ergodicidad para la seleccin de muestras (o mediciones)
que permitan obtener buenos estimadores.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 3 de 24

La premisa bsica de la estimacin es determinar el valor de cierta cantidad desconocida


usando un estadstico; es decir, usando una funcin de mediciones u observaciones.
El estimador g(X1, X2, ..., Xn) es una variable aleatoria. Un conjunto especfico de mediciones Xi = xi que da por resultado g(x1, x2, ..., xn) recibe el nombre de estimacin o valor estimado.
Definicin de estadstico.
Sea X1, X2,..., Xn un conjunto de variables aleatorias iid provenientes de una funcin de
distribucin dada FX; entonces, se denomina a Y = g( X1, X2,..., Xn) un estadstico si la funcin g
no depende de ningn parmetro desconocido. Por ejemplo,
X=

1
n

es un estadstico, pero
n

2 =
i =1

i =1

( X i )2
n

no es un estadstico pues depende del parmetro desconocido .


Estimadores paramtricos y no paramtricos.
Se utilizan dos clases de tcnicas de estimacin: las paramtricas y las no paramtricas. Considrese el caso de la estimacin de cierta funcin de densidad de probabilidad fX(x);
si se utiliza la tcnica paramtrica, se considera que la fX(x) responde a cierta funcin de densidad de probabilidad conocida (por ejemplo, Gaussiana) y que se desconocen los parmetros
caractersticos de esa distribucin (en el ejemplo, X y X2 ), los que son estimados a partir de
datos. Luego, al introducir estos parmetros en la funcin de densidad de probabilidad, se
pueden estimar los valores de fX(x) para todos los valores de x.
Si el enfoque fuera el no paramtrico, no se asumira ninguna forma funcional para
fX(x) y se intentara establecer directamente los valores de la funcin de densidad de probabilidad para todos los valores de x a partir de los datos disponibles. Los procedimientos ms ampliamente utilizados para la estimacin no paramtrica de funciones de densidad de probabilidad y funciones de distribucin de variables aleatorias estn basados en: la funcin de distribucin emprica (que utiliza la funcin de frecuencias acumuladas) y en histogramas.
En la seccin siguiente, se presentan estimadores paramtricos para funciones de densidad de probabilidad y funciones de distribucin de variables aleatorias. Se deja para el captulo siguiente el estudio de estimadores para funciones de densidad espectral y funciones de
autocorrelacin de procesos estocsticos.

6.2 ESTIMADORES MUESTRALES DE PARAMETROS


El propsito fundamental de un estimador muestral es estimar un parmetro desconocido mediante un estadstico; es decir, mediante cierta funcin de mediciones iid. Si se considera que el parmetro desconocido es y que se dispone de una muestra que consta de n mediciones iid X1, , Xn, podemos formar un estadstico g(X1, , Xn) el cual esperamos sea prximo a . As, se denomina a:
= g ( X 1 , L , X n )

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 4 de 24

estimador muestral de . Cierta muestra especfica con valores Xi = xi, para i = 1, , n, dar
lugar a un valor de que recibe el nombre de estimacin muestral de ; es decir: el estimador
es una variable aleatoria que tomar diferentes valores de acuerdo al valor que asuman las
mediciones, mientras que la estimacin es un nmero.
Antes de continuar con la discusin general de estimacin, se brindarn algunos ejemplos especficos.
Estimadores de la media.
La media X de una variable aleatoria X es, usualmente, estimada mediante el promedio X de la muestra; es decir:
X = X =

1
n

(6.3)

i =1

que recibe el nombre de media muestral. En la (6.3), las Xi son n mediciones iid u observaciones, pertenecientes a la poblacin considerada y que poseen cierta distribucin FX.
El estimador definido mediante la (6.3) es el ms usual para la media, sin embargo no
es el nico; en efecto, a veces (no muy frecuentemente) se estima X mediante:
1
( X max + X min )
2

X =

o, tambin mediante la llamada mediana muestral o mediana emprica definida como:


X = x tal que F X | X1 ,LX n (x | x1 ,L x n ) =

1
2

Posteriormente, se introducirn mtodos que permiten comparar la calidad de diferentes estimadores.


Estimadores de la varianza.
La varianza X2 de una variable aleatoria X es estimada, generalmente, mediante:
X2 =

1
n

(X

X)

(6.4a)

i =1

o mediante el estimador S2, de forma:


S2 =

1 n
(X i X )2
n 1 i =1

(6.4b)

Estimadores de la covarianza.
Usualmente, la covarianza XY es estimada mediante:
n

X )(Yi Y )

(6.5a)

1 n
(X i X )(Yi Y )
n 1 i =1

(6.5b)

XY =

1
n

(X

i =1

o mediante:
XY =

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 5 de 24

Un estimador de probabilidad.
Sea p la probabilidad de cierto evento A. Luego, un estadstico que puede ser utilizado
para estimar p es:
p =

NA
n

en el que NA es la variable aleatoria que representa el nmero de veces que el evento A ocurre
en n ensayos independientes.
Ntese que la definicin de p es similar a la dada en Probabilidad para la frecuencia
relativa; sin embargo, existe una diferencia importante: en la frecuencia relativa se toma lmite para n que tiende a infinito, lo que determina que NA/n sea un nmero. En este caso, en que
n toma un valor finito, NA/n es una variable aleatoria con varianza no nula y una funcin de
distribucin bien definida.
Notacin para estimadores.
El inters en estimar el parmetro desconocido se refleja escribiendo la funcin de
distribucin de la variable X de la forma:
F X (x; )
o, simplemente F(x;), si se sobreentiende que X es una variable aleatoria. A modo de ejemplo, consideremos una variable aleatoria normal con varianza unitaria y media desconocida ;
la notacin es:
(x )2
1
f ( x; ) = f X ( x; ) =
exp

2
2

El cambio en la notacin implica que, al existir un parmetro desconocido, el modelo


se ampla e incluye una familia de distribuciones. Cada valor que asuma (, en el ejemplo)
se corresponde con una funcin miembro de la familia. El propsito del experimento, las correspondientes mediciones y el estimador resultante, es seleccionar una funcin miembro de la
familia que sea la mejor.
En lo prximos apartados, veremos una forma general para determinar estimadores y,
luego, una discusin acerca de los criterios para su evaluacin.
Establecimiento de estimadores
Consideraremos, en este apartado, dos mtodos para definir estimadores muestrales de
parmetros de amplia difusin: el mtodo de los momentos y el mtodo de mxima verosimilitud.
Mtodo de los momentos.
Este mtodo simple para definir estimadores fue propuesto por Karl Pearson en 1894.
Est basado en la idea de poder estimar un parmetro a partir de la relacin que existe entre
un momento muestral y su homlogo terico.
Recordemos, en primer trmino, que define el momento no centrado de orden k de
cierta variable aleatoria X como mk = E{Xk}, y que el momento centrado de orden k de dicha
variable aleatoria se define como k = E{[X-E(X)]k}. Para definir estimadores para estos parmetros se asume que:
- Dado que la informacin que tenemos acerca de la variable aleatoria procede de un conjunto de n mediciones iid X1, , Xn, se supone que X es una variable aleatoria que toma

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 6 de 24

nicamente dichos valores con una probabilidad igual a la frecuencia relativa observada
(evidentemente se trata slo de una aproximacin que ser mejor o peor en funcin del
tamao de la muestra y de las caractersticas de X).
- Para estimar un momento de X se calcula el momento terico correspondiente a la variable aleatoria definida en el paso anterior.
Los estimadores de momentos que resultan de aplicar estas premisas, reciben la denominacin de momentos muestrales. As, los momentos muestrales correspondientes a los momentos no centrados se definen de acuerdo a la expresin general:
m k =

1
n

k
i

i =1

Para el caso de la media (momento no centrado de orden 1), el estimador es precisamente la media muestral definida mediante la (6.3).
En la misma lnea de razonamiento, los momentos muestrales correspondientes a los
momentos centrados se calculan mediante la expresin:
m k =

1
n

(x

x)

i =1

En el caso concreto de la varianza (momento centrado de orden 2), el momento muestral se denomina varianza muestral tal como se la defini mediante la (6.4a).
Retornando al problema de definir estimadores, considrese que habitualmente los
parmetros de una variable aleatoria estn relacionados con sus momentos; por ejemplo, en un
proceso aleatorio de distribucin normal con media y varianza , el parmetro coincide
con m1 y el parmetro es m2. En este caso, si disponemos del estimador de un momento (por
ejemplo un momento muestral), podramos estimar el parmetro basndonos, como ya se ha
dicho, en la relacin que existe con su equivalente terico.
A continuacin, se ilustrar el procedimiento mediante un ejemplo concreto;
Ejemplo 6.1:
Supngase que X es una variable aleatoria con distribucin dada por exp(), con desconocido.
Estimar el parmetro desconocido mediante el mtodo de los momentos.

Solucin:
En primer trmino, debemos relacionar el parmetro que se quiere estimar con un momento de
X. Este paso plantea, en general, diversas opciones, puesto que es habitual que el parmetro de
inters aparezca en varios momentos de X. En nuestro caso (distribucin exponencial), se sabe
que:
m1 = E{X}= 1/
m2 = Var{X}=1/2
En este ejemplo, se utilizar para la estimacin la relacin que existe entre y la media de X
(momento no centrado de orden 1). As, se estimar la esperanza (momento terico) mediante la
media muestral (momento muestral correspondiente), haciendo:
m 1 =

1
n

i =1

Por otra parte, la relacin existente entre el parmetro terico y el momento terico, se mantiene
al para relacionar sus estimadores; es decir que se cumple que:
m 1 = 1

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 7 de 24

y, por tanto:

1
=
m 1

n
n

i =1

Si se hubiese utilizado, por ejemplo, la relacin entre y la varianza, y un proceso de clculo


similar, se hubiera obtenido otro estimador de distinto

Estimadores de mxima verosimilitud.


Consideraremos, a continuacin, el ms comn de los mtodos para desarrollar estimadores. Como ya se dijo, para indicar la distribucin de la variable aleatoria X dado el parmetro , se utiliza la notacin F(x;). As, si X1, X2, , Xn son mediciones iid de X, resulta que
f(x1, x2, , xn; ) es la de X1, X2, , Xn dado ; adems, dado que son independientes, esta funcin de distribucin de probabilidad conjunta puede ser escrita de la forma:
f (x1 , x2 ,L, xn ; ) =

f ( x ; )
i

i =1

Ahora bien, si se consideran los valores de X1, X2, , Xn fijos y que es un parmetro desconocido, se denomina a la f(x1, x2, , xn; ) funcin de verosimilitud y se la denota:
L( ) = f (x1 , x2 ,L, xn ; ) =

f ( x ; )

(6.6)

i =1

El estimador que maximiza la funcin de verosimilitud; es decir, el valor de que


verifica:
L = f x1 , x 2 ,L, x n ; f (x1 , x2 ,L, xn ; ) = L( )

(6.7)

() (

recibe el nombre de estimador de mxima verosimilitud. Tal estimacin se justifica a partir


del hecho que es el valor que maximiza la densidad de probabilidad conjunta (verosimilitud), dado un conjunto de mediciones u observaciones.
Ejemplo 6.2:
Se conoce que cierta variable aleatoria X posee una distribucin exponencial, es decir:
1
exp( x ),
f ( x; ) =
0

x0

>0

x<0

a.- Si la muestra consta de cinco mediciones iid de X, con valores 10, 11, 8, 12 y 9; hallar la funcin de verosimilitud de .
b.- Hallar la estimacin de mxima verisimilitud de .

Solucin:
a.- Por aplicacin de la ecuacin (6.6), es:
L( ) =

f ( xi ; ) =

i =1

b.- Para hallar el mximo, hacemos:

exp( x
i =1

) = 5 exp( 50 )

>0

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 8 de 24

dL( )
50
50
5 50
= 5 6 exp
+ 2 exp

>0

Igualando a cero la derivada y resolviendo, obtenemos ; es decir, el valor de que anula


la derivada conduce al estimador:
50
=
= 10
5

Dado que muchas de las funciones de densidad de probabilidad ms comunes asumen


la forma exponencial, suele ser conveniente trabajar con el logaritmo natural de la funcin de
verosimilitud. Como el logaritmo natural es una funcin estrictamente creciente, el valor de
que maximiza la funcin de verosimilitud es el mismo valor que maximiza el logaritmo natural de la funcin de verosimilitud.
Ejemplo 6.3:
Sea una muestra que consta de n mediciones iid de un proceso con distribucin normal y con
varianza conocida 2. Hallar el estimador de mxima verosimilitud para la media.

Solucin:
L( ) = f ( x1 ,L, xn , ) =

i =1

( x )2
exp i 2
2
2 2

Hallar el valor que maximiza ln[L()] es equivalente a hallar el valor de que maximiza L();
entonces:
n
1
1
(xi )2
g ( ) = ln[L( )] = n ln
2

2
i =1
2
n
dg
1
[ 2(xi )] = = 0
= 2
d
2 i =1

n =

i =1

Luego, el estimador de mxima verosimilitud es:


1 n
=
Xi
n i =1
Ntese que en este caso, el estimador de mxima verosimilitud es simplemente X
Suele denominarse a g() funcin soporte.

6.3 MEDIDA DE LA CALIDAD DE ESTIMADORES


Tal como se ha mostrado en la seccin anterior, puede definirse ms de un estimador
muestral para cierto parmetro desconocido. En esta seccin estamos interesados en encontrar
medidas que permitan determinar la bondad de los estimadores que podamos definir.
Qu propiedades deseamos que posea un estimador ? Naturalmente, desearamos
que = pero, puesto que es una funcin de variables aleatorias, el estimador tambin es
una variable aleatoria; luego, debemos adoptar algn criterio probabilstico para medir que tan
cerca de est .

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 9 de 24

Sesgo (Bias).
Se dice que un estimador de cierto parmetro es insesgado (unbiased en ingles), si
se cumple que:
E =

{}

Por ejemplo, si X1, , Xn son mediciones iid con media , entonces:


X1 + X 2 + L + X n
n

X = = g ( X 1 ,L, X n ) =

es un estimador insesgado de la media pues:


E {X } = E{ } =

E{X 1 + X 2 + L + X n } n
=
=
n
n

Por otra parte, que X sea un estimador insesgado para no implica que sea nico. Por
ejemplo, la primer muestra, X1 es insesgada y tambien lo ser un estimador basado nicamente
en ella; as, vemos que son necesarias otras medidas de estimadores para poder separar los
buenos estimadores de aquellos que no lo son. En principio, se puede ver que las varianzas de
los estimadores X y X1 son diferentes, pues:
Var[X 1 ] = 2

(6.8a)

n Xi 2
Var X = Var
=
i =1 n n

[ ]

(6.8b)

{}

Se retomar esto en el prximo apartado. Volviendo al tema del sesgo, si E = a ,


se dice que es un estimador sesgado con un sesgo b (bias en ingles) dado por:

[]

{}

b = E

(6.9)

A continuacin, se definirn medidas que permiten medir la calidad de los estimadores.


Varianza Mnima, Error Cuadrtico Medio, Error RMS y Errores Normalizados.
Si la media del estimador es , sera deseable que, adems, la variacin de valores
entre muestras sea pequea. Esta variacin puede medirse de varias maneras; por ejemplo,

{(

tanto E como mximo mnimo o E

)}
2

son medidas de la variacin entre

muestras. La ms utilizada es, sin embargo, el ECM que, como se sabe, se define como:

{(

ECM = E

)}
2

Como se mostrar, si es insesgado, el ECM es, simplemente, la varianza de y, en


el caso general, en que E = m , es:

{}
E {( ) }= E {[( m ) + (m )] }
= E {( m ) }+ 2 E{ m}E {m }+ E {(m ) }
2

= ( m ) + 2 + 2(m )(m m )
2

es decir:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 10 de 24

{(

o, en otras palabras:

) }=
2

+ ( m )

(6.10)

() [

()

( )]

ECM = Varianza + sesgo

Volviendo al caso en que se estimaba la media de cierta variable aleatoria X cuando se


dispona de una muestra compuesta una nica medicin y cuando se dispona de n mediciones X1, , Xn iid, se ve que la media X dada por la (6.8b) posee menor varianza que la estimacin dada por X1 de la (6.8a) y, por el criterio de mnima varianza (o mnimo ECM), X es un
mejor estimador que una nica medicin.
Para un tamao muestral n dado, se denomina a cierto n = g ( X 1 , L , X n ) estimador insesgado de varianza mnima del parmetro si n es insesgado y si la varianza de n es menor
o igual a la varianza de cualquier otro estimador de que utiliza un tamao muestral n. Existen tcnicas, que no se considerarn aqu, para hallar estimadores de este tipo.
A modo de ejemplo de uso de este concepto, supngase que se dispone de tres estima
dores 1 , 2 y 3 , cuyas distribuciones son las indicadas en la figura 6.1.

Figura 6.1: Caso de tres estimadores diferentes para cierto parmetro

Resulta claro, a partir de la figura, que al aplicar el criterio de mnimo ECM se prefiere
a 1 y 2 frente a 3 pues son insesgados y, por otra parte, como Var[ 1 ] < Var[ 2 ] se prefiere
a .
1

Otras definiciones:
Suele llamarse a la raz cuadrada positiva de la varianza de , error estndar de . Por otra
parte, a la raz cuadrada positiva del ECM se la denomina error RMS.
Si 0 , el sesgo normalizado, la desviacin estndar normalizada (tambin denominado
coeficiente de variacin), y el error RMS normalizado se definen como sigue:
Sesgo Normalizado = b =

()

(6.11)

Error Estandard Normalizado = r =


Error RMS Normalizado = =

ECM Normalizado = =
2

{(

{(

)}

(6.12)

)}
2

(6.13a)

(6.13b)

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 11 de 24

Estimadores Consistentes.
Cualquier estadstico o estimador que converge en probabilidad al parmetro a ser estimado es denominado estimador consistente de ese parmetro. Por ejemplo:
Xn =

1
n

i =1

tiene media y varianza 2/n; luego, a medida que n , X n tiende a su media, y su varianza tiende a cero. As, decimos que X n tiende en probabilidad a y, en consecuencia, X n
es un estimador consistente de .
Cabe consignar que, de acuerdo a lo establecido hasta aqu, es relativamente fcil establecer si un estimador es insesgado o no; tambin lo es comparar varianzas entre estimadores insesgados. Sin embargo, verificar la convergencia establecida en la definicin anterior
puede no resultar sencillo.
Eficiencia de Estimadores.
Sean 1 y 2 estimadores insesgados de ; se define como eficiencia relativa de 2 respecto a 1 a:

( )
( )

Var 2
Var
1

En ciertos casos, es posible hallar, entre estimadores insesgados, uno que posea la mnima varianza V; en tal caso, la eficiencia absoluta de un estimador insesgado 1 es:
V

( )

Var 1

Por ejemplo, X es un estimador insesgado de de y tiene una varianza de 2/n. Por su


parte, la media de una distribucin normal puede, ser estimada mediante la mediana de la funcin de distribucin emprica, m . Puede demostrarse que, para n grande es:
Var[m ]

2
2n

Luego, la eficiencia de m respecto a X es, aproximadamente:


2

2n

2
= 64%

6.4 INTRODUCCION A LOS INTERVALOS DE CONFIANZA


En la mayora de los problemas de ingeniera, en el proceso de establecimiento de
ecuaciones de diseo, es necesario conocer la mejor estimacin posible para los parmetros
desconocidos. Adems, es importante conocer cual es la variacin de esa estimacin respecto
del valor verdadero, aunque desconocido, del parmetro en cuestin. Ya hemos establecido la
importancia del ECM como medida de la variacin esperada del parmetro; sin embargo, en
ciertos problemas, nos interesa conocer si el parmetro desconocido se encuentra dentro de

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 12 de 24

cierto rango (con alta probabilidad). En esos casos, lo que se busca es un intervalo de confianza; tal estimacin de intervalo suele denominarse lmites de confianza.
Concluiremos esta breve introduccin con un ejemplo ilustrativo en el cual la distribucin del estadstico es particularmente simple. Se enfatizar sobre intervalos de confianza en
la parte prctica de la asignatura.
En la prxima seccin se estudiar la distribucin de algunos estadsticos comunes, los
que pueden ser utilizados para la construccin de intervalos de confianza de parmetros desconocidos.
Ejemplo 6.4:
X es una variable aleatoria normal con varianza 2 = 1. La media de X se estima a partir de
una muestra que consta de 10 mediciones. Hallar el intervalo aleatorio I = (X a ), (X + a ) tal

que P[ I ] = P X a X + a = 0,95 (se denomina a I intervalo de confianza del 95%


para X).

Solucin:
Sabemos que:

X=

1
10

10

i =1

es normal, con media y varianza 2/n = 1/10. Luego, normalizamos y Z = (X ) 0,1 es


una variable aleatoria normal estndar. De la tabla de probabilidades gaussianas (Apndice 4.A)
se concluye que:

X
P 1,96
1,96 = 0,95

0,1

Estas desigualdades pueden ser ordenadas, de modo que resulta:

X 1,96 0,1 X + 1,96 0,1 X + 0,62

Es decir, que el intervalo X 0,62 X + 0,62 define el intervalo de confianza del 95% para .

6.5 DISTRIBUCION DE ESTIMADORES


En la seccin 6.2 hemos visto media y varianza de estimadores; sin embargo, en ciertos casos, por ejemplo en el establecimiento de intervalos de confianza, podemos estar interesados en una descripcin ms completa de la distribucin de estimadores; esta descripcin es
particularmente necesaria para el caso de prueba de hiptesis, que se tratar en la prxima
seccin. A continuacin, veremos algunas de las distribuciones de estimadores ms usadas.
Distribucin de X con Varianza Conocida.
Si X1, X2, , Xn son observaciones iid de una distribucin normal X con media y varianza 2, es fcil mostrar que:
X=

1
n

X
i =1

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 13 de 24

tambin es normal con media y varianza 2/n. Ntese que el teorema central del lmite implica que, a medida que n , X tender a ser normal, sin tener en cuenta la distribucin de
X. Ntese, adems, que a partir de X se puede definir (X ) / n , variable aleatoria normal standard ( = 0; 2 = 1).

Ejemplo 6.5:
Xi es una variable aleatoria normal con media 1000 y varianza 100. Hallar la distribucin de X n
cuando n = 10, 50, 100.

Solucin:
A partir de los resultados previos, se establece que X n es normal, con media 1000 y con varianzas:
Var X 10 = 10

[ ]
Var[X ] = 2
Var[X ] = 1
50

100

Ntese que, con un tamao muestral de 100, X 100 tiene una probabilidad de 0,997 de estar comprendida en 1000 3.

Distribuciones ms utilizadas.
En los apndices 6.A y 6.B se presenta una sntesis de algunas distribuciones de probabilidad de uso frecuente, incluyendo la notacin, los parmetros, pdf y momentos de bajo
orden. En ellas, la variable aleatoria (o vector aleatorio) se indica con . En lo que resta de
este apartado, se presenta una breve descripcin de las distribuciones consideradas.
Distribuciones continuas
Distribucin Uniforme: La distribucin uniforme es utilizada para representar una variable de la que se conoce que est restringida a cierto intervalo y que puede ser hallada con la misma probabilidad en culaquier punto de ese intervalo. Eso da por resultado
una pdf constante entre los lmites del intervalo considerado. La distribucin uniforme
standard (entre 0 y 1) es un caso especial de distribucin beta que se obtiene haciendo
unitarios sus dos parmetros. Si se hace tender los lmites del intervalo de la distribucin uniforme a infinito, se obtiene una distribucin no informativa.
Distribucin Normal: La distribucin normal aparece habitualmente en el trabajo relacionado con la estadstica. Las medias muestrales suelen aparecer como normalmente distribudas por consideraciones relacionadas con el teorema central del lmite. En
general, la varianza 2 es positiva; en particular, 2 = 0 corresponde a una distribucin
de masa unitaria en el punto (valor correspondiente a la media) y, si 2 la distribucin es no informativa. No hay restricciones en cuanto al valor de la media. La integral es finita en tanto la varianza lo sea. Mencionemos que la suma de dos variables
aleatorias normales es una variable aleatoria normalmente distribuda; otra propiedad
importante es la que establece que, si (1|2)N(2,12) y (2)N(2,22), significa que

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 14 de 24

(1)N(2,12 + 22); estas propiedades son importantes en el establecimiento de mode-

los.
Distribucin Normal Multivariada: La funcin de densidad de probabilidad normal
multivariada es siempre finita. La integral es finita siempre y cuando 1 > 0. Se obtiene una distribucin no informativa si el det[-1] 0; en este caso, el lmite no est unvocamente definido. Las propiedades de la distribucin normal multivariada han sido
mencionadas en el captulo 3.
Distribucin Gama: La distribucin gama es una familia de curvas basada en dos parmetros. Tanto la distribucin chi cuadrado como la distribucin exponencial se derivan de la distribucin gama fijando uno de sus parmetros. La integral es finita
siempre que > 0. Se obtiene un distribucin no informativa cuando se tiende al lmite
de , 0. El logartmo de una variable aleatoria gama es aproximadamente normal
(la aproximacin es mucho mejor si a la variable aleatoria se la eleva al exponente 1/3).
Distribucin Gama Inversa: Si --1 posee distribucin gama con parmetros y ,
entonces posee distribucin gama inversa. La funcin de densidad de probabilidad
gama inversa es siempre finita. La integral es finita siempre que > 0. Se obtiene un
distribucin no informativa cuando se tiende al lmite de , 0.
Distribucin Chi - Cuadrado: La distribucin 2 es un caso especial de distribucin
gama, con = /2 y = . La propiedad aditiva se mantiene, toda vez que el parmetro de escala inversa est fijo; as: si 1 21 y 2 22 , entonces 1 + 2 21 + 22
Distribucin Chi Cuadrado Inversa: La distribucin 2 inversa es un caso especial
de distribucin gama inversa, con = /2 y = .
Distribucin Exponencial: La distribucin exponencial es la distribucin de tiempos
de espera hasta el prximo evento en un proceso de Poisson y es, como la distribucin
2, un caso especial de la distribucin gama, en este caso con = 1.
Distribucin t de Estudiantes: La distribucin t puede ser interpretada como una
mezcla de normales que poseen en comn medias y varianzas que siguen una distribucin gama inversa. La familia de curvas de la distribucin t depende de un nico parmetro: (grados de libertad). Esta distribucin fue establecida en 1908 por W. S.
Gossett en su trabajo en la cervecera Guinnes; como no se permita publicar a los empleados de la firma, Gosset utiliz el seudnimo Student.
Distribuciones discretas
Distribucin de Poisson: La distribucin de Poisson es apropiada para aplicaciones
que incluyen el conteo del nmero de eventos que ocurren en cierto perodo. Esta distribucin discreta posee un nico parmetro () que es, a la vez, media y varianza de la
distribucin. Tal como fue establecido por el mismo Poisson, esta distribucin es el
caso lmite de una distribucin binomial en la que n ; p 0 y np = . La suma de
variables aleatorias Poisson de parmetros i es otra variable aleatoria Poisson con el
parmetro = i Tambin existe relacin entre la distribucin de Poisson y la exponencial; en efecto, si ciero conteo posee distribucin de Poisson, el intervalo entre
eventos posee distribucin exponencial.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 15 de 24

Distribucin Binomial: La distribucin Binomial es utilizada para representar el nmero de exitos en una secuencia de intentos iid a partir de una poblacin infinita y
con probabilidad constante p de xito en cada intento. Solo hay dos resultados posibles
en cada intento. Una variable aleatoria binomial con n grande, es aproximadamente
normal. La suma de variables aleatorias binomiales de parmetros ni y p es otra variable aleatoria binomial con el mismo parmetro p y con parmetro n = ni . La distribucin binomial con n = 1 recibe el nombre de distribucin Bernoulli.
Distribucin Multinomial: Esta distribucin es una generalizacin multivariable de la
distribucin binomial. La distribucin marginal de un nico i es binomial. La distribucin condicional de un sub-vector de es multinomial con el parmetro correspondiente al tamao de la muestra reducido a la cantidad de componentes de y parmetros de probabilidad escalados a fin de que la suma sea igual a uno.
Distribucin Binomial Negativa: La distribucin binomial negativa es la distribucin
marginal para una variable aleatoria Poisson cuando el parmetro de tasa posee distribucin Gama(, ). Esta distribucin puede se utilizada como alternativa robusta a
la distribucin de Poisson, pues comparten el mismo espacio muestral, pero con un parmetro adicional. En efecto, al tender al lmite de manteniendo cte , la
distribucin binomial negativa aproxima una Poisson con parmetro = .

6.6 PRUEBA DE HIPOTESIS


Adems de la estimacin de parmetros, el rea ms utilizada de la estadstica es la
prueba estadstica o prueba de hiptesis. Ejemplos de hiptesis que deben ser probadas son:
- Durante cierto intervalo no est presente una seal.
- El proceso aleatorio es estacionario.
- La variable aleatoria tiene distribucin normal.
- etc.
El tema ha sido mencionado ya en el captulo 4, en el que se esbozaron algunas particularidades del tema. A partir de lo visto entonces, y mediante un ejemplo, se establecern las
caractersticas generales de la prueba de hiptesis para luego introducir el concepto de hiptesis alternativas compuestas.
Deteccin Binaria.
Un sistema de comunicaciones binario transmite una de dos seales posibles: 0 1;
por su parte, el canal de comunicacin aade ruido a la seal transmitida. La seal resultante
es procesada por el receptor (por ejemplo, en un filtro adaptado), lo que da por resultado una
tensin. Si no hubiera ruido, esta tensin sera la correspondiente al 0 lgico si se hubiera
transmitido un 0 o la correspondiente al 1 lgico si se hubiera transmitido un 1; sin embargo,
la existencia del ruido puede provocar que la tensin resultante sea de cualquier valor entre
los lmites de la salida del filtro; en consecuencia, la tensin de salida del receptor, Y, corresponde a la seal transmitida ms el ruido, el que se considera Gaussiano de media nula y varianza 1.
A continuacin, probaremos la hiptesis que la seal que se ha transmitido es la correspondiente a un cero y, tal como lo hiciramos en el captulo 4, llamaremos a esta hiptesis, H0. La otra hiptesis posible, es decir que la seal que se ha transmitido es la correspondiente a un 1, ser llamada H1. A partir de lo expresado, podemos escribir:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 16 de 24

f Y | H 0 ( | H 0 ) =

2
exp
2
2
1

(6.18)

y
f Y | H1 ( | H 1 ) =

( 1) 2
exp
2
2

(6.19)

Por razones que se harn evidentes ms adelante, cuando se consideren varias alternativas, llamaremos a la primera hiptesis, hiptesis nula, H0, mientras que la otra hiptesis posible, es decir que la seal que se ha transmitido es la correspondiente a un 1, ser llamada
hiptesis alternativa, H1.
El objetivo es decidir cual alternativa aceptar y cual rechazar. Consideraremos que se
acepta H0 si la seal recibida Y est por debajo de cierto valor y que se acepta H1 si la seal
recibida est por encima de . Resulta intuitivamente claro, tal como se vio en el captulo 4,
que valores pequeos de Y corresponden a H0, mientras que valores grandes de Y corresponden a H1.
El conjunto de valores para los cuales se rechaza H0, es decir cuando Y > , recibe la
denominacin de regin crtica de la prueba (ver figura 6.2). Pueden definirse dos tipo de
errores:
Error Tipo I: rechazar H0 cuando en realidad se ha transmitido un 0
Error Tipo II: aceptar H0 cuando en realidad se ha transmitido un 1
La probabilidad de un error de Tipo I, denominada frecuentemente como nivel de significancia de la prueba es (en este ejemplo):

2
1
P (error Tipo I) = P(Y | H 0 ) =
(6.20)
exp d
2
2

Figura 6.2: Prueba de hiptesis

Por su parte, la probabilidad de un error Tipo II es:

P (error Tipo II) = P (Y < | H 1 ) =

( 1) 2
exp
2
2

(6.21)

Seleccionando de forma tal que P(Y | H0) = , puede controlarse la probabilidad de


ocurrencia de un error Tipo I. En la prctica, es usual establecer valores para tales como
0,05; 0,01 0,001 segn se desee controlar el error de Tipo I, o nivel de significancia de la
prueba. En este ejemplo, utilizaremos un = 0,05; en este caso, se dice que el nivel de significancia es del 5%. As, usando la (6.20) es:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 17 de 24

0,05 =

2
exp
2
2
1

d = Q( )

(6.22)

en la que Q() es uno menos la funcin de distribucin de una variable aleatoria normal Gaussiana. Luego, utilizando la Tabla 4.1 resulta:
1,65
Con fijo en 1,65 se calcula la probabilidad de un error de Tipo II mediante la (6.21):
1, 65

P (error Tipo II) =

( 1) 2
exp
2
2

d = 1 Q (0,65) 0,7422

Vemos que, as planteado el ejemplo, la probabilidad de un error de Tipo II es demasiado alta; esto significa que cuando la seal transmitida sea la correspondiente al 1, es muy
probable que se la reconozca como correspondiente a 0. Intuitivamente, podemos suponer que
si tomamos ms muestras de la seal recibida, y esas muestras son independientes, podramos
disminuir la probabilidad de error Tipo II. En este caso, repetiremos la prueba pero con:
Y =

Yi

n
i =1

de forma que, con la misma probabilidad de error Tipo I, la probabilidad de error Tipo II pueda reducirse a un nivel aceptable. Si, por ejemplo, consideramos que n = 10, la varianza de Y
resulta 1/10 y la ecuacin (6.22) resulta:

0,05 =

2
d
exp

0,2
0,2
1

(6.23)

y, con z = 10 , es:

0,05 =

10

luego:

z2
exp dz
2
2
1

Q 10 = 0,05

1.65
10

0,52

y el error de Tipo II se reduce a:


0 , 52

P (error Tipo II)

( 1) 2
exp
0,2
0,2

0 , 48 10

z2
1
d =
dz 0,065
exp

Ntese, que no solo el error de Tipo II se reduce a un nivel aceptable, sino que el umbral de
decisin se ubica ahora prcticamente equidistante de 0 y 1, lo que resulta intuitivamente
correcto.
El ejemplo desarrollado podra haber sido formulado desde el punto de vista de la teora de decisin, tal como se hizo en el captulo 4; sin embargo, aqu nos hemos ceido a la
formulacin clsica de prueba de hiptesis. Con este enfoque, no se utilizan ni las probabilidades a priori ni las funciones de prdida y se da ms nfasis a la proteccin contra el error
Tipo I que contra el error Tipo II. Ambos enfoques dan lugar a desarrollos tiles. En la
prxima seccin, se presentar un caso en que la formulacin de prueba de hiptesis es claramente ventajosa.
Antes de ello, se indican algunas pautas tiles de tipo general para enunciar un problema como de prueba de hiptesis:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 18 de 24

- Cuando se prueba una hiptesis relativa a cierto parmetro , la afirmacin de igualdad debe incluirse en H0; de esta forma, H0 seala un valor numrico especfico que
puede corresponder al valor real del parmetro . Este valor recibe el nombre de valor
nulo y se denota por 0.
- Todo lo que debe ser detectado o confirmado constiyuye la hiptesis alternativa.
- Ya que la hiptesis de investigacin es H1, se pretende que la evidencia permita rechazar H0 y, en consecuencia, aceptar H1.

Hiptesis Alternativas Compuestas.


En el ejemplo de la seccin anterior, la alternativa a la hiptesis nula asuma una forma tan simple como la hiptesis nula; es decir, = 0 contra = 1. Sin embargo, frecuentemente interesa probar cierta hiptesis nula contra una hiptesis alternativa menos definida, o bien
contra hiptesis alternativas mltiples. Por ejemplo, si planteamos la hiptesis: la media no es
nula, en este caso, de hiptesis alternativas compuestas, la probabilidad de error Tipo II es
una funcin en vez de simplemente un nmero.
Para ilustrar el efecto de las hiptesis alternativas compuestas, volveremos al ejemplo
de la seccin previa, aunque con un cambio importante. La hiptesis nula sigue siendo la
misma:
H 0 : Y = 0
Sin embargo, bajo la hiptesis alternativa compuesta, el nivel exacto de la seal recibida es desconocido, salvo el hecho que conocemos que la seal recibida Y posee una media
mayor que cero, es decir:
H1 : y = > 0
(6.24)
A partir de lo enunciado, el error Tipo I y la regin crtica permanecen igual al caso
simple, en cambio, la probabilidad de error Tipo II pasa a ser:
P(error Tipo II) = P[Y < | H 1 ] =

( ) 2
exp
0,2
2

d = 1 Q ( )

(6.25)

Figura 6.3: Probabilidad de error Tipo II

Si el nivel de significancia de la prueba es establecido en 0,05, tal como en la seccin


anterior, resulta que 1,65 (igual que antes). As, la probabilidad de error Tipo II queda en

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 19 de 24

funcin de en la forma indicada en la figura 6.3. En estos casos, de hiptesis alternativas


compuestas, la probabilidad de error Tipo II en funcin de un parmetro (que, en general es
H1), recibe el nombre de potencia de la prueba o funcin de potencia.
Prueba de la media de una Variable Aleatoria Normal.
Varianza conocida
Considrese que la varianza de cierta variable aleatoria normal es 10 y que su media es
desconocida. Deseamos probar la hiptesis que la media es nula, contra la hiptesis alternativa que no sea cero. Esto es lo que se denomina hiptesis alternativa bilateral y, en este caso,
el problema se formula de la siguiente forma:
H0 : = 0
H1 : = 0

Considrese que se han tomado 10 mediciones iid y que se acepta H0 si X < . La varianza de X es:
X2 =

X2
n

10
=1
10

La probabilidad de cometer un error de Tipo I, es decir de rechazar H0 cuando es


verdadero, es la probabilidad de que X est muy corrido respecto al cero. Esto, en si, no define
la regin crtica, pues X puede ser muy pequeo o muy grande; sin embargo, es razonable
asignar la mitad de la probabilidad de error a X muy grande y la otra mitad a X muy pequeo.
As:

P (X > | = 0 ) =
(6.26)
2

P (X < | = 0) =

2
P X = 1

(6.27)
(6.28)

Si = 0,01, sabiendo que la varianza es 1, de la Tabla 4.1 del Apndice 4.A se obtiene
que 2,58 y, en consecuencia, la regin crtica R es:
R {X < 2,58} {X > 2,58}

(6.29)

En general, cuando se prueba una hiptesis relativa a un parmetro poblacional , debe


hallarse un estadstico cuya distribucin de probabilidad sea conocida, al menos aproximadamente, bajo la suposicin que = 0; este estadstico servir como estadstico de prueba. Si la
poblacin a la que pertencen las muestras es normal, o si la muestra es grande (n 30), en
nuestro caso de varianza conocida, es til el estadstico:
Z=

X 0

que, como se sabe, posee distribucin normal con media nula y varianza unitaria.
Varianza desconocida
Se consideran ahora las mismas hiptesis nula y alternativa del caso anterior, con la
diferencia que en este caso la varianza de X es desconocida. En este caso, para establecer la
prueba utilizamos el estadstico:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 20 de 24

T=

X 0
S

el cual, segn puede demostrarse, posee distribucin t-student. As, para un nivel de significancia , con n - 1 grados de libertad y recordando que 0 = 0, se establece:
X

P
> t n 1, / 2 =
S n
2

Por ejemplo, si n = 10 y = 0,01 resulta, de la tabla correspondiente, t9;0,005 3,25 y la


regin crtica R es:
X

X
R=
< 3,25 3,25 <

S n

S n

As, se puede calcular X y S a partir de las mediciones disponibles y luego, si la razn:


X
S

10

cae dentro de la regin crtica, la hiptesis nula 0 = 0 puede ser rechazada.


Prueba de la igualdad de dos medias.
Como ejemplo del uso de una prueba de hiptesis, se considera el caso de tener que
probar que dos medias son iguales cuando las varianzas, aunque desconocidas, se asumen
iguales. Una aplicacin tpica puede se la del siguiente caso:

Prueba Chi-Cuadrado.
Puede demostrarse que la suma de los cuadrados de variables aleatorias normales iid
de media nula, as como la suma de los cuadrados de ciertas variables aleatorias normales
dependientes, poseen distribucin chi-cuadrado. Agreguemos que la suma de los cuadrados de
variables aleatorias binomiales posee, en el lmite, distribucin chi-cuadrado cuando n .
En efcto, si X1 es binomial de parmetros n, p1; es decir:
P( X 1 = i) =

n!
p1i p 2n i
i! (n i )!

i = 0, 1, , n

en la que p1 + p2 = 1, se define, entonces:


Yn =

X 1 np1
np1 p 2

Y = lim Yn

(6.30)

en la que Y posee, en virtud del teorema central del lmite, distribucin normal standard.
Si ahora se define:
Z 1, n = Yn2

Z =Y2

(6.31)

entonces, en el lmite, cuando n , la variable Z 1,n = Y 2 posee distribucin chi-cuadrado con


un grado de libertad.
A fin de considerar el caso multinomial, se reescribir la expresin de Z1,n considerando que:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 21 de 24

1
1 p + p2
= 1
np1 p 2 n p1 p 2

1 1
1

=
+
n
p
p
1
2

y definiendo: X 2 = n X 1 ;
luego:
X1 np1 = n X2 n(1 p2) = np2 X2

As, la (6.31), usando la (6.30) puede ser escrita como:


Z 1, n =

( X 1 np1 )2 ( X 2 np 2 )2
np1

(6.32)

np 2

Ahora, considrese X1, , Xm las que poseen distribucin multinomial de la forma:


PX 1L X m (i1 L i m ) =

n!
p1i1 L p mim
i!L i m !

(6.33)

en la que:
m

p j =1

j =1

=n

(6.34)

j =1

Puede demostrarse que, para n grande,


Z m1,n =

( X i npi )2

i =1

npi

(6.35)

tiene una distribucin que se aproxima a m2 1 cuando n .


La variable Zm 1, n puede ser utilizada para probar la hiptesis que las X1, , Xn observaciones iid provienen de una distribucin dada. Una hiptesis nula tpica sera del tipo:
p1 = p1, 0

p 2 = p 2, 0
H0 :
M
p = p
m,0
m

y la hiptesis alternativa sera:


p1 p1,0

H0 : M
p p
m,0
m

Si la hiptesis nula resulta verdadera, entonces Zm 1, n poseer una distribucin que se


aproxima a una chi-cuadrado con m 1 grados de libertad. Si p1,0, p2,0, , pm,0 son los valores
verdaderos, se espera que Zm 1, n sea pequeo. Bajo la hiptesis alternativa, Zm 1, n ser ms
grande. Luego, usando una tabla de la distribucin chi-cuadrado, dado un nivel de significancia , se puede hallar un nmero m2 1; tal que:

P Z m 1, n m2 1; =

as, valores de Zm 1, n mayores que m2 1; constituyen la regin crtica.


La prueba de bondad de ajuste chi-cuadrado suele usarse para probar se ciertas observaciones son consistentes con cierta funcin de densidad de probabilidad asumida. El procedimiento consiste en dividir las observaciones en m intervalos. El nmero de observaciones
del intervalo i se corresponde con Xi en la ecuacin (6.35) y el nmero esperado en el intervalo i se corresponde con npi. En este caso, el nmero de grados de libertad d es:

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 22 de 24

d = m1 k

(6.36)

en la que m 1 es el nmero de grados de libertad asociado a los m intervalos y k es el nmero


de parmetros de la funcin de densidad de probabilidad a la que se supone que ajustan las
observaciones.

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 23 de 24

Apndice 6.A: ALGUNAS DISTRIBUCIONES CONTINUAS


Distribucin
Uniforme

Notacin

U ( a, b)
f ( ) = U ( | a, b)

f ( ) =

N ( , )
2

Normal

Normal
Multivariada

dpf

f ( ) = N ( | , )
2

U ( , )
f ( ) = U ( | , )

f ( ) =

Parmetros

1
ba

[a, b]

(
exp
)2
2
2

2 2
1

f ( ) = (2 )

E ( ) =

de ubicacin:
de escala: > 0

E ( ) =

f ( ) =

1
exp( )
( )

>0

de forma: > 0
de escala inverso: > 0

Gama Inversa

Gamainversa( , )
f ( ) = Gamainversa( | , )

f ( ) =

( +1)

exp( / )
( )

>0

de forma: > 0
de escala: > 0

Chi-Cuadrado
Inversa
Exponencial

f ( ) =

f ( ) = )

(b a )2
12

var( ) =

(simtrica, positiva, de dxd)

Gama( , )
f ( ) = Gama( | , )

2
v (

var( ) =

var( ) = 2

T
exp ( ) 1 ( ) de ubicacin: =(1;; ) E ( ) =
2
Matrz de covarianza

queda implcita la dimensin d en

v2

a+b
2

Lmites: a y b
con b > a

Gama

Chi-Cuadrado

Media y Varianza

2 2 v 21

exp
2
( v 2)

>0

grados de libertad: > 0

E ( ) =
E ( ) =

E ( ) =

var( ) =
; var( ) =

2
( 1)2 ( 2)

var( ) = 2

igual a la Gama si = v/2 y = 1/2


v

Inversa v2
f ( ) = Inversa )
2
v (

Expon( )
f ( ) = Expon( | )
t v ( , 2 )

t de estudiantes f ( ) = t v ( | , )
2

t v se lee como t v (0,1)

f ( ) =

2 2 v 2+1

exp 1
2
(v 2)

>0

grados de libertad: > 0

igual a la Gama Inversa si = v/2 y = 1/2

f ( ) = exp( )

>0

de escala inverso: > 0

igual a la Gama con = 1


2
((v + 1) 2 ) 1
1+
f ( ) =

v
(v 2 ) v 2

(v +1) 2

grados de libertad: > 0


de ubicacin
de escala: > 0

E ( ) =

2
1
; var( ) =
2
( 2)2 ( 4)

E ( ) =

var( ) =

E ( ) = ;
var( ) =

v
2;
v2

con v > 1
con v > 2

Ctedra de Seales Aleatorias Fac. de Ingeniera U.N.R.C. / Captulo 6 Pg. 24 de 24

Apndice 6.B: ALGUNAS DISTRIBUCIONES DISCRETAS


Distribucin
Poisson
Binomial

Multinomial

Notacin
Poisson( )
f ( ) = Poisson( | )
Bin(n, p )
f ( ) = Bin( | n, p)

dpf
f ( ) =

1
exp(- )
!

Parmetros
= 0,1,2, L

+ 1

f ( ) =
1 + 1
= 0,1,2, L

var( ) =

E ( ) = np

var( ) = np(1 p )

probabilidades:

E ( ) = np

var( j ) = np j 1 p j

de forma: > 0
de escala inverso: > 0

E ( ) =

(entero positivo)

probabilidad:

n 1
Multinomial (n, p1 , L , p k )
p1 L p k k
f ( ) =

L
f ( ) = Multinomial ( | n, p1 , L , p k )
k
1

Binomial Ne- Bin Neg ( , )


gativa
f ( ) = Bin Neg ( | , )

E ( ) =

de tasa: > 0
tamao muestral: n

n
n
f ( ) = p (1 p )

Media y Varianza

p [0,1]

tamao muestral: n

= 0,1,2, L
1

+ 1

(entero positivo)

p1 L p k [0,1]

alternativamente:

p = +1

var( ) =

( + 1)
2

You might also like