Professional Documents
Culture Documents
Introduccion
El concepto de probabilidad
La Aproximacion Bayesiana a la Estadstica
Comparacion de modelos
Propiedades clasicas de la aproximacion Bayesiana
Discusion
Teora de la decision robusta
Teora de la Decision
Enero 30 de 2012
1 Introduccion
2 El concepto de probabilidad
3 La Aproximacion Bayesiana a la Estadstica
Teora de la decision
Riesgo frecuentista
Riesgo Bayesiano
Familias Conjugadas
Estimadores
Prueba de hipotesis
Predicciones
4 Comparacion de modelos
5 Propiedades clasicas de la aproximacion Bayesiana
6 Discusion
7 Teora de la decision robusta
Metodos Bayesianos - Banco de Guatemala Alvaro Riascos
Contenido
Introduccion
El concepto de probabilidad
La Aproximacion Bayesiana a la Estadstica
Comparacion de modelos
Propiedades clasicas de la aproximacion Bayesiana
Discusion
Teora de la decision robusta
Introduccion
La teora clasica utiliza la informacion muestral para hacer
inferencias sobre los parametros de interes.
La importancia de la informacion muestral se pone de
manifiesto en este ejemplo de Savage (1961).
Example (Savage (1961))
Uso de la informacion muestral.
1 Una mujer adiciona te a una tasa de leche y afirma poder diferencia
que ingrediente se utilizo primero. En 10 experimentos acierta en
todos.
2 Un musico afirma poder diferenciar entre un partitura de Mozart y
una de Hayden. En 10 experimentos siempre acierta.
3 Un amigo borracho afirma poder Alvaro
Metodos Bayesianos - Banco de Guatemala
predecir el lado que cae una
Riascos
Introduccion
Razones tecnicas:
1 Permite hacer inferenecia estadstca en modelos no regulares.
2 Permite introducir incertidumbre en los parametros para hacer
prediciciones.
3 Permite hacer pruebas de modelos no anidados.
4 Se pueden analizar modelos jerarquicos de forma
conceptualmente muy coherente.
Contenido
Introduccion
El concepto de probabilidad
La Aproximacion Bayesiana a la Estadstica
Comparacion de modelos
Propiedades clasicas de la aproximacion Bayesiana
Discusion
Teora de la decision robusta
El concepto de probabilidad
f (y |)f ()
f( |y ) = f (y )
Teora de la decision
bB (y ) = argminaA (a |y )
Teora de la decision
n 1 X
p(y |) = (2) 2 n exp( (yi )2 ) (3)
2 2
i
E [ |y ] = (8)
Riesgo frecuentista
Definition (Funcion de Riesgo Clasica)
Dada una regla de decision y una funcion de perdida definimos la
funcion de riesgo (clasica) como:
Z
R(, ) = EY [L(, )] = L(, (y ))dF (y |) (9)
Riesgo Bayesiano
Definition (Riesgo Bayesiano)
Dada una regla de decision , una funcion de peridida L y una
distribucion inicial de los parametros p definimos la funcion de
riesgo Bayesiana como:
Z
r (, p) = Ep [R(, )] = R(, )dp() (11)
(, CB (y )) = infaA (, a) (13)
Familias Conjugadas
Estimadores
Prueba de hipotesis
1 P(C |y ) (14)
P( : f ( |y ) k |y ) 1 (15)
CHPD = { : f ( |y ) k } (16)
Prueba de hipotesis
Predicciones
Supongams que queremos pronosticar una variable z basado
en la variable bservable y . En estadstica Bayesiana el objeivo
es determinar p(z |y ) .
Esto se puede escribir:
Z
p(z |y ) = p (z, |y ) d (17)
Z
Comparacion de modelos
Un modelo se define formalmente como una distribucion
inicial y una distribucion muestral.
Supongamos que tenemos m modelos que buscan explicar los
datos observado y .
Usando la distribucion inicial y muestral de cada modelo
calculamos la distribucion expost de los datos.
P(y |, M) P( |M)
P( |y , M) = (19)
p(y |M)
donde p(y |M) es la distribucion marginal de los datos
condicional al modelo. Esta tambien se denomina la
verosimilitud marginal y se puede obtener mediante la
integracion obvia.
Metodos Bayesianos - Banco de Guatemala Alvaro Riascos
Comparacion de modelos
P(M i |y )
POij = (21)
P(M j |y )
Theorem (Consistencia)
Supongamos que es espacio de estados es compacto y sea 0
una vecindad del verdadero parametro 0 con probabilidad inicial
difeerente de cero. Entonces,
p( 0 |y ) 1
Discusion
Observese que la principal diferencia entre el analisis clasico y
el Bayesiano se deriva de la forma radicalmente de intepretar
los parametros, modelos y pronosticos de un modelo. Estos
tres se intepretan como variable aleatorias y en ese sentido se
les da un tratamiento simetrico con los datos observados.
La diferencia fundamental entre ambas aproximaciones es el
uso de informacion inicial en el proceso de inferencia. La
teora clasica responde
1 Antes de observar los datos, que podemos esperar.
2 Antes de observar los datos, que tan precisos son los
estimadores.
3 Dado que la hipotesis a estudiar es verdadera, que probabilidad
existe de que los datos indiquen que es verdadera.
La aproximacion
Metodos Bayesiana
Bayesianos - Banco de Guatemala considera que las preguntas
Alvaro Riascos
Discusion
Example (Laboratorios)
Una sustancia debe ser analizada y existen dos laboratorios
igualmente buenos para hacerlo. Para tomar una decision se lanza
una moneda al aire. Al recibir los resultados del laboratorio
escogido el agente se pregunta: Deberamos de llevar en
consideracion que estos resultados dependen de que se lanzo al aire
una moneda que hubiera podido indicar que fuera el otro
laboratorio el que hiciera el examen? De acuerdo a la vision clasica
deberamos de promediar sobre todos los posibles resultados
incluyendo los del laboratorio que no hizo la prueba.
Discusion
Example (Diferentes distribuciones muestrales)
Suponga que se lanza de forma independiente 12 monedas al aire y
se obervan 9 caras y 3 sellos. Esta informacion no especifica
completamente el experimento puesto que pudo ser el resultado de
dos procedimientos: (1) Se fijo en 12 el nuemro de lanzamientos y
se lanzo la moneda y (2). La moneda se lanzo hasta que aparecio
la tercer sello. En ambos casos la distribucion muestral es
completamente distinta. En el primer caso es Binomial y el el
segundo es Negativa Binomial. Ahora suponga que queremos
probar la hipotesis de que la probabilidad de que salga cara es 12
contra la hipotesis de que sea mayor que 21 . Se disena una prueba
que es de la siguinete forma, si el nuemro de caras observadas es
superior a algun umbral c, entonces se se rechaza la hipotesis de
que estados (probabilidad de que salga) sea 12 . Por definicion el
p-valor de esta hipotesis es la probabilidad de observar 9 o mas
caras en el experimento. Si calculamos el p-valor bajo para los dos
procedimientos en el primero aceptamos la hipotesis nula y en el
Discusion