You are on page 1of 11

64.

INTRODUCCIN

En el clculo de probabilidades de algunos sucesos, el valor de dicha probabilidad vara en funcin del conocimiento de determinadas informaciones relativas a estos sucesos. En este sentido la probabilidad condicionada nos da las herramientas necesarias para calcular una determinada probabilidad teniendo en cuenta dichas informaciones adicionales. Pero conocer cierta informacin adicional, por ejemplo saber que ha ocurrido un suceso, no siempre modica la probabilidad de otro suceso. Los sucesos en los que sabiendo que uno se ha vericado, no se modica la probabilidad del otro, decimos que son independientes, en cambio, si se modica la probabilidad del otro, decimos que son dependientes entre s. El concepto de dependencia e independencia de sucesos fue presentado y aplicado al Clculo de Probabilidades por De Moivre en 1711, y posteriormente extendido por Thomas Bayes (1702-1761), quien adems expres la probabilidad condicionada en funcin
ww w.

at e

at ic

a1

.c o

de la probabilidad de la interseccin. Dos aos despus de la muerte de Bayes se public un trabajo en el que, por vez primera, se calculaba la probabilidad de las causas a partir de los efectos que se han observado. A pesar de que fue Laplace quien mejor y desarroll la mayor parte de dichas probabilidades, el clculo de stas recibe el nombre de teorema de Bayes. En los problemas relacionados con la probabilidad, y es especial con la probabilidad condicionada, as como con la probabilidad total y el teorema de Bayes, resulta interesante y recomendable organizar la informacin y los datos del problema en tablas de contingencia o en diagramas de rbol. Adems, es muy til desde el punto de vista metodolgico.

64.2

PROBABILIDAD CONDICIONADA
om

Mediante un espacio probabilstico damos una formulacin matemtica al fenmeno aleatorio que estemos observando. Parece por tanto razonable que si observamos algo que aporte informacin a nuestro fenmeno aleatorio, sta deba alterar el espacio probabilstico de partida. Por ejemplo, la extraccin de una bola de una urna con tres bolas blancas y dos negras, puede formalizarse con un espacio probabilstico en el que los sucesos elementales sean las cinco bolas y donde la probabilidad sea uniforme sobre estos cinco sucesos elementales, es decir, igual a 1 . 5 Si extraemos una bola de la urna, es decir, si observamos el suceso A bola negra, y no la devolvemos a la urna, es razonable que el espacio probabilstico cambie en el sentido no slo de que ahora ya habr nicamente cuatro sucesos elementales, sino que adems la funcin de probabilidad deber cambiar en orden a recoger la informacin que la observacin del suceso A nos proporcion. Es decir, en el nuevo espacio probabilstico deber hablarse de probabilidad condicionada al suceso A, de forma que se recojan hechos tan evidentes como que ahora la probabilidad (condicionada) de obtener negra se habr reducido y habr aumentado la de blanca. Denicin 64.2.1 Sea (E; A; P ) un espacio de probabilidad y A E un suceso con P (A) > 0: Para cualquier otro suceso B se dene la probabilidad de B condicionada a A como: P (A \ B) P (BA) = P (A) Ejemplos 64.2.2 Consideramos una urna que contiene 3 bolas rojas (R), 2 bolas verdes (V ) y 1 bola negra (N). Se extraen dos bolas, sin reemplazamiento. Cul es la probabilidad de que la segunda sea roja si la primera era verde? Como es usual llamaremos R al suceso salir roja, V al suceso salir verde y N al

ww w.

at

em

at

ic

a1

.c

suceso salir negra. La probabilidad que nos piden es: 6 P (R \ V ) 3 = 30 P (RV ) = = 2 5 P (V ) 6 ya que hay 30 casos posibles (6 favorables a RR; 6 a V R; 6 a RV , 2 a V V , 3 a RN; 3 a NR, 2 a NV y 2 a V N). Hay que observar que al calcular P (BA) realmente estamos calculando la P (B) con respecto al espacio muestral re6ducido A en vez del espacio muestral E: Construyamos la lgebra cuyo conjunto fundamental es A, esto es, teniendo en cuenta que A es el conjunto de resultados posibles. Proposicin 64.2.3 AA = fA \ B : B 2 Ag A es una lgebra Demostracin: (i) ; 2 AA , A 2 AA (ii) Veamos que si C 2 AA entonces C 2 AA Como C 2 AA entonces C = A \ B y por tanto C = A \ B, luego C 2 AA 1 S (iii) Sea fCk g1 AA . Tenemos que demostrar que Ck 2 AA k=1

m at
1 S

ic a

1.c

Como cada Ck 2 AA se tiene que Ck = A \ Bk y por tanto 1 ! 1 1 [ [ [ Ck = (A \ Bk ) = A \ Bk


k=1

ww

w.

at e

k=1

luego como Bk 2 A )

k=1

1 S

om
k=1

k=1

Bk 2 A ) A \

Bk

k=1

k=1

1 S

Ck 2 AA :

C.Q.D.

Veamos ahora que la probabilidad condicionada es una autntica probabilidad. Proposicin 64.2.4 La funcin de conjunto PA : AA ! [0; 1] C = A \ B ! PA (C) = es una medida de probabilidad. Demostracin: (1) 8C 2 AA P (C) P (A \ B) = P (A) P (A)

PA (C) 0 ?

Como A \ B A tenemos que 0 P (A \ B) P (A), luego dividiendo esta desigualdad por P (A) resulta: 0 es decir, 0 PA (C) 1 (2) PA (A) = 1 ? PA (A) = (3) PA 1 S Ck =
1 P

P (A \ B) P (A) =1 P (A) P (A)

P (A \ A) =1 P (A)

Tomamos

k=1

k=1 1 S

PA (Ck ) 8Ck \ Cj = ; con k 6= j ? 1 S Ck = A \ Bk . Entonces:


k=1 k=1

PA

k=1

k=1

Corolario 64.2.5 (A; AA ; PA ) es un espacio de probabilidad. Propiedades de la probabilidad condicionada:

Proposicin 64.2.6 La probabilidad condicionada cumple las siguientes propiedades: (1) Si B C, entonces P (BA) P (CA) P (B) (2) Si B A, entonces P (BA) = P (A) (3) Si A B, entonces P (BA) = 1 (4) Si A \ B = ;, entonces P (BA) = 0 Demostracin: (1) Si B C, entonces C = B [ C \ B , y por tanto P (CA) = P (BA) + P C \ BA de donde se deduce que P (BA) P (CA)

ww

w.

1 1 1 P P P P (A \ Bk ) = PA (A \ Bk ) = PA (Ck ) P (A) k=1 k=1 k=1

at

em

k=1

at

1 S

(A \ Bk )

P (A)

ic

a1

1 S

Ck

=P

1 S

P Ck A =
k=1 1 P

.c om

A\

P (A)

1 S

Bk

k=1

P (A \ Bk ) P (A)

C:Q:D:

ya que P C \ BA 0: (2) P (BA) = (3) P (BA) =

P (A \ B) P (B) = P (A) P (A)

P (A \ B) P (A) = =1 P (A) P (A)

(4) Si A \ B = ;, entonces P (BA) = 0, y por tanto P (BA) = P (A \ B) P (;) 0 = = =0 P (A) P (A) P (A) C.Q.D.

64.3

INDEPENDENCIA ALEATORIA
.c o m

Denicin 64.3.1 Sean A; B 2 A dos sucesos de probabilidades no nulas. Se dice que el suceso B es independiente del suceso A (independiente estocsticamente) sii P (BA) = P (B)

donde Ci es el suceso obtener cara en el lanzamiento i (i = 1; 2) y por tanto ambos sucesos son independientes. A continuacin caracterizamos la independencia aleatoria de sucesos: Teorema 64.3.3 Una condicin necesaria y suciente para que B sea independiente de A es que P (A \ B) = P (A) P (B). Demostracin: )) Como B es independiente de A se tiene que P (BA) = P (B) y por tanto: P (BA) = P (A \ B) = P (B) ) P (A \ B) = P (A) P (B) P (A)

() Como P (A \ B) = P (A) P (B) resulta: P (BA) = P (A \ B) P (A) P (B) = = P (B) P (A) P (A) C:Q:D:

ww w.

1 P (C1 \ C2 ) 1 P (C2 C1) = = 4 = = P (C2 ) 1 P (C1 ) 2 2

at

em

Ejemplos 64.3.2 Una moneda se lanza dos veces consecutivas. Si se ha obtenido cara la primera vez, cul es la proabilidad de obtener cara la segunda vez?

at

ic

a1

Proposicin 64.3.4 La independencia estocstica es una propiedad recproca. Demostracin: Sean A y B dos sucesos de probabilidades no nulas y supongamos que B es independiente de A. Entonces P (BA) = P (B) Vamos a demostrar que A es independiente de B: Se tiene que: P (AB) = P (A \ B) P (A) P (B) = = P (A) P (B) P (B) C.Q.D.

es decir, A es independiente de B:

Como consecuencia de esta propiedad, si A es independiente de B se dir que A y B son (estocsticamente) independientes. La idea de independencia es que ninguno de los dos sucesos interviene en la vericacin del otro. Corolario 64.3.5 Si los sucesos A y B tienen probabilidades no nulas, se tiene que: A y B son independientes si, y slo si, P (AB) = P (A) y P (BA) = P (B) : Demostracin: ))

P (A \ B) P (A) P (B) = = P (A) P (B) P (B) Anlogamente se demuestra la otra igualdad. () Si P (AB) = P (A)

P (A \ B) = P (A) P (B) de donde se deduce que A y B son independientes. C.Q.D. P (AB) = Se da frecuentemente el caso de que se confunden sucesos incompatibles con sucesos independientes. Observemos para evitar dicha confusin que los sucesos incompatibles son los ms dependientes (dos sucesos son dependientes si el resultado de uno inuye en el otro) que existen, puesto que la ocurrencia de uno de ellos proporciona la mxima informacin: el otro suceso no va a ocurrir. Denicin 64.3.6 Dos sucesos A y B con probabilidades no nulas son dependientes si el resultado de uno inuye en el otro, es decir, si P (AB) 6= P (A) y P (BA) 6= P (B)

se tiene que

ww

w.

P (AB) =

at

em

at

ic

a1

.c

om

Corolario 64.3.7 Si A y B son sucesos incompatibles con probabilidades no nulas, entonces son dependientes. Demostracin: Como A y B son incompatibles, entonces A \ B = ;, por tanto 0 = P (;) = P (A \ B) 6= P (A) P (B) > 0

C.Q.D.

Enunciamos a continuacin algunas propiedades relativas a la independencia estocstica de sucesos, pero antes necesitamos un resultado previo: Lema 64.3.8 Sean A y B dos sucesos con probabilidades no nulas. Entonces: P BA = 1 P (BA) = PA (B) + PA B = P (BA) + P BA

de donde

Demostracin:

Proposicin 64.3.10 Sean A y B dos sucesos con probabilidades no nulas. Entonces: P (BA) = P BA , A y B son independientes P (A \ B) P A \ B , P (BA) = P BA , = P (A) P A , P A P (A \ B) = P A \ B P (A) , P A \ B P (A) = 0 ,
()

ww

w.

Para demostrar la armacin hecha en la nota anterior, vamos a demostrar el siguiente resultado.

, (1 P (A)) P (A \ B) = P A \ B P (A) , P (A \ B) P (A) P (A \ B)

, P (A \ B) P (A) P (A \ B) P (B) P (A) P (A \ B) P (A) = 0 , , P (A \ B) = P (A) P (B) , A y B son independientes

M at

P (BA) 6= P BA

em

Nota 64.3.9

at

como queramos demostrar.

P BA = 1 P (BA)

ic a1

.c o

Demostracin: 1 = P (AA) = P B [ BA = PA B [ B = PA (B) + PA B PA B \ B =

donde en () hemos tenido en cuenta que A \ B = B (A \ B) y que P A \ B = P (B (A \ B)) = P (B) P (A \ B) C.Q.D.

ya que A \ B B:

Proposicin 64.3.11 Si A; B 2 A son independientes, entonces tambin lo son: (1) A y B (2) A y B (3) A y B Demostracin: (1) Sabemos que P (A \ B) = P(A) P (B) ya que A y B son independientes, y tenemos que demostrar que P A \ B = P (A) P B . Se tiene que:

es decir, A y B son independientes. (3) Se tiene que:

P A \ B = P A P BA = P A 1 P BA = es decir, A y B son independientes. = P A [1 P (B)] = P A P B C.Q.D.

Denicin 64.3.12 Se dice que los sucesos A1 ; ::; An 2 A son totalmente independientes mtuamente independientes sii verican: () P (Ai \ Aj ) = P (Ai ) P (Aj ) 8i 6= j () P (Ai \ Aj \ Ak ) = P (Ai ) P (Aj ) P (Ak ) 8i 6= j 6= k ... n n T Q () P Ai = P (Ai )
i=1 i=1

ww w.

= P (B) [1 P (A)] = P (B) P A = P A P (B)

M at

P A \ B = P (B) P AB = P (B) [1 P (AB)] =

em at

es decir, A y B son independientes. (2) Se tiene que:

ic

a1

P A \ B = P (A) P BA = P (A) [1 P (BA)] = = P (A) [1 P (B)] = P (A) P B

.c o

64.4

PROBABILIDAD COMPUESTA

Sea (E1 ; A1 ; P1 ) el espacio de probabilidad que dene un experimento aleatorio, y consideremos un segundo espacio de probabilidad (E2 ; A2; P2) que dene un segundo experimento aleatorio. Denotamos los sucesos de primer experimento por Ai y los del segundo por Bj : Llamaremos experimento aleatorio compuesto de los dos dados al que tiene por espacio de probabilidad (E1 E2 ; A1 A2 ; P ), donde la probabilidad se dene como sigue: P1 (Ai ) P2 (Bj ) si Ai y Bj son independientes P (Ai ; Bj ) = P1 (Ai ) P2 (Bj Ai ) si son dependientes De forma anloga se puede extender a un nmero nito de experimentos aleatorios. Teorema 64.4.1 (Frmula de la probabilidad compuesta): Sea (E; A; P ) un espacio de probabilidad, y consideremos n-sucesos ordenados A1; :::; An . Entonces: n ! \ Ak = P (A1) P (A2 A1 ) P (A3 A1 \ A2) :::P (An A1 \ ::: \ An1 ) P
k=1

n=3:

at

em

Demostracin: Lo demostraremos por induccin sobre n : n=2: P (A1 \ A2 ) PA1 (A2 ) = = P (A2 A1) ) P (A1 \ A2) = P (A1 ) P (A2 A1 ) P (A1 )

at

ic a1
An

.c o
j=1

= P (A1 )

P (A1 \ A2) P (A3A1 \ A2 ) = P (A1 ) P (A2 A1 ) P (A3 A1 \ A2 ) P (A1 )

Hiptesis de induccin: lo suponemos cierto para n 1, es decir: n1 ! \ P Ak = P (A1 ) P (A2 A1 ) P (A3 A1 \ A2 ) :::P (An1A1 \ ::: \ An2)
k=1

Vamos a demostrarlo para n :

P (A1 \ ::: \ An1 \ An ) = P ((A1 \ ::: \ An1 ) \ An ) = = P (A1 \ ::: \ An1) P


n1 T

ww w.

P (A1 \ A2 \ A3 ) = P (A1) P (A2 \ A3 A1 ) = P (A1 )

P (A1 \ A2 \ A3) = P (A1 )

Aj

H.I.

como queramos demostrar.

= P (A1 ) P (A2 A1) P (A3 A1 \ A2 ) :::P (An A1 \ ::: \ An1 )

C:Q:D:

Ejemplos 64.4.2 Consideramos una urna que contiene 3 bolas rojas (R), 2 bolas verdes (V ) y 1 bola negra (N). Se extraen tres bolas, sin reemplazamiento, y nos preguntamos por la probabilidad de que la primera sea roja, la segunda sea verde y la tercera sea negra (utilizaremos los sucesos nombrados en el ejemplo anterior). Esta probabilidad viene dada por: 3 2 1 1 P (R \ V \ N) = P (R) P (V R) P (N R \ V ) = = 6 5 4 20

64.5

TEOREMAS DE LA PROBABILIDAD TOTAL Y DE BAYES

Denimos ahora el concepto de particin del espacio muestral, necesario para poder enunciar el teorema de la probabilidad total y como consecuencia el teorema de BAYES. Denicin 64.5.1 Sea (E; A; P ) un espacio de probabilidad. Se llama particin de E a cualquier familia fAn g1 A que verique: n=1 (i) An \ Am = ; 8n 6= m 1 S (ii) An = E
n=1

P (B) =

at

Demostracin: Sea B = B \ E = B \ P (B) = P


1 [

ww

w.

n=1

1 S

An

n=1

(An \ B)

em
1 X n=1

Teorema 64.5.2 (Teorema de la probabilidad total): Sea fAn gn2N A una particin de E y supongamos que P (An ) > 0 8n 2 N. Entonces, 8B 2 A se tiene: P (An ) P (BAn )

n=1 1 X n=1

1 S

at ic a1

(An \ B). Entonces: P (An \ B) =


1 X n=1

.c om
()

P (An ) P (BAn ) C.Q.D.

donde en () hemos usado la frmula de la probabilidad compuesta.

Corolario 64.5.3 (Teorema de BAYES o de la probabilidad inversa, 1764): Sea fAn gn2N A una particin de E con P (An ) > 0 8n 2 N. Entonces, 8B 2 A se tiene: P (An ) P (BAn ) P (An B) = P 1 P (An ) P (BAn )
n=1

Demostracin: P (An B) = P (An ) P (BAn ) P (An \ B) = P 1 () P (B) P (An ) P (BAn )


n=1

donde en () hemos usado el teorema de la probabilidad total.


om

C.Q.D.

Acerca de la interpretacin del teorema de BAYES, si los An son considerados como hiptesis sobre alguna cuestin en estudio y tenemos una cierta informacin, subjetiva o no, acerca de dichas hiptesis An , reejada sta por las P (An ) > 0, supongamos se produce un suceso B asociado a un experimento aleatorio (usualmente provocado por el experimentador para obtener ms informacin), el teorema de BAYES nos proporciona el medio para obtener la alteracin, provocada por B, en nuestras hiptesis An , dndonos las probabilidades a posteriori P (An B). Usualmente se continuar el proceso provocando otro suceso C (es decir, obteniendo otro nuevo resultado de nuestro experimento aleatorio considerado) y utilizando ahora las P (An B) antes calculadas, como probabilidades a priori.
ww w.

at e

As, el teorema de BAYES consiste en calcular las probabilidades a posteriori, conocidas las probabilidades a priori.

at ic

Las probabilidades P (An ) que aparecen el teorema de BAYES se llaman probabilidades a priori, las probabilidades P (BAn ) se llaman verosimilitudes y las probabilidades P (An B) se llaman probabilidades a posteriori.

a1

.c

You might also like