You are on page 1of 316

Probabilidad

Miguel Angel Mendez Antonio


ITAM
13 de agosto de 2013

Indice
1 Fundamentos
Espacios de probabilidad
2 Tecnicas de conteo
3 Probabilidad condicional e
independencia de eventos
Probabilidad condicional
Independencia entre
eventos
4 Probabilidad total y regla de
Bayes
Ejercicios1
5 Variables Aleatorias
6 Funcion de distribucion
7 Distribuciones continuas
Concepto de probabilidad
Denicion.
Decimos que un fenomeno es aleatorio cuando es
impredecible, i.e., es producido por el azar
Un espacio de probabilidad, asociado a un fenomeno aleatorio,
es una terna (, F, P) donde es el espacio muestral, F es
una sigma algebra( -algebra) de subconjuntos de y P es
una medida de probabilidad (m.p.).
Observacion A cada fenomeno aleatorio asociamos un
espacio de probabilidad (, F, P).
Es posible asociar mas de un espacio de probabilidad a un
fenomeno aleatorio
A continuacion denimos los componentes de la terna y sus
propiedades que deben satisfacer
Concepto de probabilidad
Denicion.
Decimos que un fenomeno es aleatorio cuando es
impredecible, i.e., es producido por el azar
Un espacio de probabilidad, asociado a un fenomeno aleatorio,
es una terna (, F, P) donde es el espacio muestral, F es
una sigma algebra( -algebra) de subconjuntos de y P es
una medida de probabilidad (m.p.).
Observacion A cada fenomeno aleatorio asociamos un
espacio de probabilidad (, F, P).
Es posible asociar mas de un espacio de probabilidad a un
fenomeno aleatorio
A continuacion denimos los componentes de la terna y sus
propiedades que deben satisfacer
Concepto de probabilidad
Denicion.
Decimos que un fenomeno es aleatorio cuando es
impredecible, i.e., es producido por el azar
Un espacio de probabilidad, asociado a un fenomeno aleatorio,
es una terna (, F, P) donde es el espacio muestral, F es
una sigma algebra( -algebra) de subconjuntos de y P es
una medida de probabilidad (m.p.).
Observacion A cada fenomeno aleatorio asociamos un
espacio de probabilidad (, F, P).
Es posible asociar mas de un espacio de probabilidad a un
fenomeno aleatorio
A continuacion denimos los componentes de la terna y sus
propiedades que deben satisfacer
Concepto de probabilidad
Denicion.
Decimos que un fenomeno es aleatorio cuando es
impredecible, i.e., es producido por el azar
Un espacio de probabilidad, asociado a un fenomeno aleatorio,
es una terna (, F, P) donde es el espacio muestral, F es
una sigma algebra( -algebra) de subconjuntos de y P es
una medida de probabilidad (m.p.).
Observacion A cada fenomeno aleatorio asociamos un
espacio de probabilidad (, F, P).
Es posible asociar mas de un espacio de probabilidad a un
fenomeno aleatorio
A continuacion denimos los componentes de la terna y sus
propiedades que deben satisfacer
Espacio muestral
Denicion.
Espacio muestral : Es un conjunto que contiene los resultados
posibles de interes de un fenomeno aleatorio.
Ejemplo.
Sea lanzar un dado honesto
= {1, 2, 3, 4, 5, 6}
Ejemplo.
Sea lanzar dos veces un dado
= {(i , j ); i , j N, i , j 6}
Espacio muestral
Denicion.
Espacio muestral : Es un conjunto que contiene los resultados
posibles de interes de un fenomeno aleatorio.
Ejemplo.
Sea lanzar un dado honesto
= {1, 2, 3, 4, 5, 6}
Ejemplo.
Sea lanzar dos veces un dado
= {(i , j ); i , j N, i , j 6}
Espacio muestral
Denicion.
Espacio muestral : Es un conjunto que contiene los resultados
posibles de interes de un fenomeno aleatorio.
Ejemplo.
Sea lanzar un dado honesto
= {1, 2, 3, 4, 5, 6}
Ejemplo.
Sea lanzar dos veces un dado
= {(i , j ); i , j N, i , j 6}
Espacio muestral
Ejemplo.
: Examinar una caja con 50 fusibles de la produccion de una
fabrica y contar el n umero de defectuosos
= {0, 1, . . . , 50}
Ejemplo.
: lanzamos una moneda
= { aguila , sol}
Observacion: Los elementos de un espacio muestral pueden
ser n umeros, vectores, palabras, etc. y los llamaremos en
forma generica resultados elementales.
Espacio muestral
Ejemplo.
: Examinar una caja con 50 fusibles de la produccion de una
fabrica y contar el n umero de defectuosos
= {0, 1, . . . , 50}
Ejemplo.
: lanzamos una moneda
= { aguila , sol}
Observacion: Los elementos de un espacio muestral pueden
ser n umeros, vectores, palabras, etc. y los llamaremos en
forma generica resultados elementales.
Espacio muestral
Ejemplo.
: Examinar una caja con 50 fusibles de la produccion de una
fabrica y contar el n umero de defectuosos
= {0, 1, . . . , 50}
Ejemplo.
: lanzamos una moneda
= { aguila , sol}
Observacion: Los elementos de un espacio muestral pueden
ser n umeros, vectores, palabras, etc. y los llamaremos en
forma generica resultados elementales.
Espacio muestral
Diremos que un espacio muestral es discreto cuando tiene un
n umero nito o numerable de resultados elementales. Un
espacio muestral es no discreto cuando tiene un n umero
innito no numerable de resultados elementales.
-algebra F: En principio, uno deseara poderle asignar una
probabilidad positiva a cada resultado de . Sin embargo,
como veremos mas adelante, esto no es posible en general. La
limitacion se produce con los espacios muestrales no discretos
y es por ellos que se introdujo la -algebra. El razonamiento
fue: Si no podemos asignarle una probabilidad positiva a cada
resultado elemental, sera posible denir una coleccion de
subconjuntos de a los que si podamos asignarle
probabilidades positivas y resulte util en la practica?. pero por
otra parte, la coleccion de subconjuntos buscada no debera
imponer restricciones a los espacios muestrales discretos. la
respuesta es s y esta fue la -algebra siguiente.
Espacio muestral
Diremos que un espacio muestral es discreto cuando tiene un
n umero nito o numerable de resultados elementales. Un
espacio muestral es no discreto cuando tiene un n umero
innito no numerable de resultados elementales.
-algebra F: En principio, uno deseara poderle asignar una
probabilidad positiva a cada resultado de . Sin embargo,
como veremos mas adelante, esto no es posible en general. La
limitacion se produce con los espacios muestrales no discretos
y es por ellos que se introdujo la -algebra. El razonamiento
fue: Si no podemos asignarle una probabilidad positiva a cada
resultado elemental, sera posible denir una coleccion de
subconjuntos de a los que si podamos asignarle
probabilidades positivas y resulte util en la practica?. pero por
otra parte, la coleccion de subconjuntos buscada no debera
imponer restricciones a los espacios muestrales discretos. la
respuesta es s y esta fue la -algebra siguiente.
-algebra
Denicion.
Sea un espacio de probabilidad. Sea F una coleccion de
subconjuntos de . Decimos que F es una -algebra si satisface
las siguientes propiedades:
1 F
2 Si A F entonces A
c
F
3 Si A
i
F para i N entonces,

i =1
A
i
F.
Los elementos de F son llamados eventos y solo a ellos les
podremos calcular una probabilidad.
Diremos que un evento C ocurre cuando el resultado del
experimento bajo estudio es el resulado elemental y
pertenece a C.
-algebra
Denicion.
Sea un espacio de probabilidad. Sea F una coleccion de
subconjuntos de . Decimos que F es una -algebra si satisface
las siguientes propiedades:
1 F
2 Si A F entonces A
c
F
3 Si A
i
F para i N entonces,

i =1
A
i
F.
Los elementos de F son llamados eventos y solo a ellos les
podremos calcular una probabilidad.
Diremos que un evento C ocurre cuando el resultado del
experimento bajo estudio es el resulado elemental y
pertenece a C.
-algebra
Denicion.
Sea un espacio de probabilidad. Sea F una coleccion de
subconjuntos de . Decimos que F es una -algebra si satisface
las siguientes propiedades:
1 F
2 Si A F entonces A
c
F
3 Si A
i
F para i N entonces,

i =1
A
i
F.
Los elementos de F son llamados eventos y solo a ellos les
podremos calcular una probabilidad.
Diremos que un evento C ocurre cuando el resultado del
experimento bajo estudio es el resulado elemental y
pertenece a C.
Ejemplos de -algebra
Ejemplo.
F = {, }.
Ejemplo.
F = {, A, A
c
, }
Ejemplo.
F = 2

Ejemplo.
Sean A y B subconjuntos de tal que A B.
F = {, A, A
c
, B, B
c
, B A, (B A)
c
, }.
Ejemplos de -algebra
Ejemplo.
F = {, }.
Ejemplo.
F = {, A, A
c
, }
Ejemplo.
F = 2

Ejemplo.
Sean A y B subconjuntos de tal que A B.
F = {, A, A
c
, B, B
c
, B A, (B A)
c
, }.
Ejemplos de -algebra
Ejemplo.
F = {, }.
Ejemplo.
F = {, A, A
c
, }
Ejemplo.
F = 2

Ejemplo.
Sean A y B subconjuntos de tal que A B.
F = {, A, A
c
, B, B
c
, B A, (B A)
c
, }.
Ejemplos de -algebra
Ejemplo.
F = {, }.
Ejemplo.
F = {, A, A
c
, }
Ejemplo.
F = 2

Ejemplo.
Sean A y B subconjuntos de tal que A B.
F = {, A, A
c
, B, B
c
, B A, (B A)
c
, }.
Ejemplo.
La interseccion nita, innita numerable o bien arbitraria de
-algebras es nuevamente una -algebra.
Si {F
i
, i I } es una familia de -algebras de , entonces la
interseccion F
i
tambien es una -algebra.
Ejemplo.
Sea A una familia arbitraria de subconjuntos de , y sea {A} la
interseccion de todas las -algebras de que contienen A.
Entonces, por el ejemplo anterior, {A} es una -algebra y de
hecho, es la mnima de -algebra que contiene a A; es decir, si F
es cualquier -algebra de que contiene a A, entonces
{A} F. A {A} se le llama la -algebra generada por A.Por
ejemplo, supongase que A consiste de un unico conjunto B ,
es decir, A = {B}. Entonces {A} = {B, B
c
, , }.
Ejemplo.
La interseccion nita, innita numerable o bien arbitraria de
-algebras es nuevamente una -algebra.
Si {F
i
, i I } es una familia de -algebras de , entonces la
interseccion F
i
tambien es una -algebra.
Ejemplo.
Sea A una familia arbitraria de subconjuntos de , y sea {A} la
interseccion de todas las -algebras de que contienen A.
Entonces, por el ejemplo anterior, {A} es una -algebra y de
hecho, es la mnima de -algebra que contiene a A; es decir, si F
es cualquier -algebra de que contiene a A, entonces
{A} F. A {A} se le llama la -algebra generada por A.
Por
ejemplo, supongase que A consiste de un unico conjunto B ,
es decir, A = {B}. Entonces {A} = {B, B
c
, , }.
Ejemplo.
La interseccion nita, innita numerable o bien arbitraria de
-algebras es nuevamente una -algebra.
Si {F
i
, i I } es una familia de -algebras de , entonces la
interseccion F
i
tambien es una -algebra.
Ejemplo.
Sea A una familia arbitraria de subconjuntos de , y sea {A} la
interseccion de todas las -algebras de que contienen A.
Entonces, por el ejemplo anterior, {A} es una -algebra y de
hecho, es la mnima de -algebra que contiene a A; es decir, si F
es cualquier -algebra de que contiene a A, entonces
{A} F. A {A} se le llama la -algebra generada por A.Por
ejemplo, supongase que A consiste de un unico conjunto B ,
es decir, A = {B}. Entonces {A} = {B, B
c
, , }.
Conjuntos de Borel
Denicion.
Considere la coleccion de todos los intervalos abiertos (a, b) de R,
en donde a b. A la mnima -algebra generada por esta coleccion
se le llama -algebra de Borel de R, y se le nota por B(R)
B(R) = {(a, b) R : a b}.
A los elementos de B(R) se le llama conjuntos de Borel, Borelianos
o conjuntos de Borel medibles.
Al par (, F) se le llama espacio medible y si = R y F = B(R)
tenemos el espacio Borel medible (R, B(R)).
Conjuntos de Borel
Denicion.
Considere la coleccion de todos los intervalos abiertos (a, b) de R,
en donde a b. A la mnima -algebra generada por esta coleccion
se le llama -algebra de Borel de R, y se le nota por B(R)
B(R) = {(a, b) R : a b}.
A los elementos de B(R) se le llama conjuntos de Borel, Borelianos
o conjuntos de Borel medibles.
Al par (, F) se le llama espacio medible y si = R y F = B(R)
tenemos el espacio Borel medible (R, B(R)).
Medidas de Probabilidad [Kolmogorov 1933]
Denicion.
Sea (, F) un espacio medible. Una medida de probabilidad es una
funcion P : F [0, 1] que satisface
1 P() = 1
2 P(A) 0, para cualquier A F
3 Si A
1
, A
2
, . . . F son ajenos, esto es, A
i
A
j
= , i = j ,
entonces
P(

_
n=1
A
n
) =

n=1
P(A
n
) aditividad
La terna (, F, P) se llama espacio de probabilidad
Probabilidad Clasica
Sea un experimento aleatorio con espacio muestral nito . Sea
F = 2

y para todo A de dena


P(A) =
#A
#
donde # signica cardinalidad, n umero de elementos. Entonces P
es una probabilidad, y es llamada probabilidad clasica. Se ha
acostumbrado a decir P(A) es casos favorables entre casos totales.
Probabilidad Geometrica
Sea R
2
una region tal que su area es positiva y nita. Sea F
una -algebra de subconjuntos de para los cuales el concepto de
area este bien denido. Para cada A en F dena
P(A) =

Area (A)/

Area ().
La funcion de probabilidad P es una medida de probabilidad y es
llamada probabilidad geometrica. Este caso se puede extender a
R
n
.
Otro tipo de probabilidad: discreto
Considere un experimento aleatorio con espacio muestral = N y
F = 2
N
. Para cualquier subconjunto A de N dena
P(A) =

nA
1
2
n
Es decir, el n umero natural n tiene asociada la probabilidad 1/2
n
.
P es efectivamente una medida de probabilidad concentrada en N.
Otro tipo de probabilidad: continuo
Considere (R, B(R)). Sea f : R [0, ) una funcion no negativa
y continua, tal que
_
R
f (x)dx = 1. La funcion denida para todo
A B(R) por la integral
P(A) =
_
A
f (x)dx
es una medida de probabilidad.
Propiedades elementales
Proposicion.
Sea (, F, P) un espacio de probabilidad. Entonces:
1 P() = 0
2 Si A
1
, . . . , A
n
F son ajenos por parejas, entonces
P(
n
_
k=1
A
k
) =
n

k=1
P(A
k
)
3 P(A
c
) = 1 P(A)
4 Si A B, entonces P(B A) = P(B) P(A)
5 Si A B, entonces P(A) P(B)
6 0 P(A) 1
7 P(A B) = P(A) + P(B) P(A B)
8 P(A B) P(A) + P(B).
Tecnicas de conteo
Cuando un espacio muestral es muy grande y enumerar
manualmente cada punto se torna tedioso o imposible, contar el
n umero de puntos en y en un evento de interes puede ser el
unico camino ecaz para calcular la probabilidad de un evento. De
hecho, si contiene N puntos con la misma probabilidad y un
evento A contiene exactamente n puntos, la probabilidad clasica
nos dice que P(A) = n/N.
Denicion. (Regla de la multiplicacion)
Si una operacion se puede llevar a cabo de m formas, y si para
cada una de estas se puede realizar una segunda operacion en n
formas, entonces las dos operaciones se pueden ejecutar juntas en
mn formas.
Tecnicas de conteo
Cuando un espacio muestral es muy grande y enumerar
manualmente cada punto se torna tedioso o imposible, contar el
n umero de puntos en y en un evento de interes puede ser el
unico camino ecaz para calcular la probabilidad de un evento. De
hecho, si contiene N puntos con la misma probabilidad y un
evento A contiene exactamente n puntos, la probabilidad clasica
nos dice que P(A) = n/N.
Denicion. (Regla de la multiplicacion)
Si una operacion se puede llevar a cabo de m formas, y si para
cada una de estas se puede realizar una segunda operacion en n
formas, entonces las dos operaciones se pueden ejecutar juntas en
mn formas.
Ejemplo.
Un experimento consiste en lanzar un par de dados y observar los
n umeros de la cara superior. Encuentre el n umero de puntos
muestrales en , el espacio muestral del experimento.
Solucion El primer dado puede caer de m = 6 maneras diferentes,
El segundo dado puede caer de n = 6 maneras diferentes.
As el total de puntos muestrales de es mn = (6)(6) = 36
Ejemplo.
Un experimento consiste en lanzar un par de dados y observar los
n umeros de la cara superior. Encuentre el n umero de puntos
muestrales en , el espacio muestral del experimento.
Solucion El primer dado puede caer de m = 6 maneras diferentes,
El segundo dado puede caer de n = 6 maneras diferentes.
As el total de puntos muestrales de es mn = (6)(6) = 36
Regla de multiplicaci on generalizada
Denicion.
Si una operacion se puede ejecutar de n
1
formas, y si para cada
una de estas se puede llevar a cabo una segunda operacion en n
2
formas, y para cada una de las primeras dos se puede realizar una
tercera en n
3
formas, y as sucesivamente, entonces la serie de k
operaciones se puede realizar en n
1
n
2
n
k
formas.
Ejemplo.
Cuantos comidas que consisten en una sopa, emparedado, postre
y una bebida son posibles si podemos seleccionar de 4 sopas, 3
tipos de emparedados, 5 postres y 4 bebidas?
Solucion
Como n
1
= 4, n
2
= 3, n
3
= 5 y n
4
= 4, hay
n
1
n
2
n
3
n
4
= (4)(3)(5)(4) = 240
diferentes maneras de elegir una comida.
Regla de multiplicaci on generalizada
Denicion.
Si una operacion se puede ejecutar de n
1
formas, y si para cada
una de estas se puede llevar a cabo una segunda operacion en n
2
formas, y para cada una de las primeras dos se puede realizar una
tercera en n
3
formas, y as sucesivamente, entonces la serie de k
operaciones se puede realizar en n
1
n
2
n
k
formas.
Ejemplo.
Cuantos comidas que consisten en una sopa, emparedado, postre
y una bebida son posibles si podemos seleccionar de 4 sopas, 3
tipos de emparedados, 5 postres y 4 bebidas?
Solucion
Como n
1
= 4, n
2
= 3, n
3
= 5 y n
4
= 4, hay
n
1
n
2
n
3
n
4
= (4)(3)(5)(4) = 240
diferentes maneras de elegir una comida.
Regla de multiplicaci on generalizada
Denicion.
Si una operacion se puede ejecutar de n
1
formas, y si para cada
una de estas se puede llevar a cabo una segunda operacion en n
2
formas, y para cada una de las primeras dos se puede realizar una
tercera en n
3
formas, y as sucesivamente, entonces la serie de k
operaciones se puede realizar en n
1
n
2
n
k
formas.
Ejemplo.
Cuantos comidas que consisten en una sopa, emparedado, postre
y una bebida son posibles si podemos seleccionar de 4 sopas, 3
tipos de emparedados, 5 postres y 4 bebidas?
Solucion
Como n
1
= 4, n
2
= 3, n
3
= 5 y n
4
= 4, hay
n
1
n
2
n
3
n
4
= (4)(3)(5)(4) = 240
diferentes maneras de elegir una comida.
Ejemplo.
Cuantas placas diferentes se pueden formar si los tres primeros
lugares seran ocupados por las letras (26) y los restantes cuatro
por n umeros?.
Solucion Por la regla de la multiplicacion generalizada
26 26 26 10 10 10 10 = 175, 760, 000
Ejemplo.
Del anterior ejemplo, cuantas placas son posibles si la repeticion
entre n umeros o letras esta prohibida.?
Solucion
En este caso
26 25 24 10 9 8 7 = 78, 624, 000
Ejemplo.
Cuantas placas diferentes se pueden formar si los tres primeros
lugares seran ocupados por las letras (26) y los restantes cuatro
por n umeros?.
Solucion Por la regla de la multiplicacion generalizada
26 26 26 10 10 10 10 = 175, 760, 000
Ejemplo.
Del anterior ejemplo, cuantas placas son posibles si la repeticion
entre n umeros o letras esta prohibida.?
Solucion
En este caso
26 25 24 10 9 8 7 = 78, 624, 000
Ejemplo.
Cuantas placas diferentes se pueden formar si los tres primeros
lugares seran ocupados por las letras (26) y los restantes cuatro
por n umeros?.
Solucion Por la regla de la multiplicacion generalizada
26 26 26 10 10 10 10 = 175, 760, 000
Ejemplo.
Del anterior ejemplo, cuantas placas son posibles si la repeticion
entre n umeros o letras esta prohibida.?
Solucion
En este caso
26 25 24 10 9 8 7 = 78, 624, 000
Ejemplo.
Cuantas placas diferentes se pueden formar si los tres primeros
lugares seran ocupados por las letras (26) y los restantes cuatro
por n umeros?.
Solucion Por la regla de la multiplicacion generalizada
26 26 26 10 10 10 10 = 175, 760, 000
Ejemplo.
Del anterior ejemplo, cuantas placas son posibles si la repeticion
entre n umeros o letras esta prohibida.?
Solucion
En este caso
26 25 24 10 9 8 7 = 78, 624, 000
Ejemplo.
Cuantas funciones denidas sobre n puntos son posibles si cada
valor de la funcion es 0 o 1?
Solucion
Sean los puntos 1, 2, . . . , n. Dado que f (i ) debera ser 0 o 1 para
cada i = 1, 2, . . . , n, se sigue que existen 2
n
posibles funciones.
Ejemplo.
Cuantas funciones denidas sobre n puntos son posibles si cada
valor de la funcion es 0 o 1?
Solucion
Sean los puntos 1, 2, . . . , n. Dado que f (i ) debera ser 0 o 1 para
cada i = 1, 2, . . . , n, se sigue que existen 2
n
posibles funciones.
PERMUTACIONES
Cuantos arreglos ordenados diferentes son posibles de las letras
a, b y c?
Por enumeracion directa podemos ver que son 6, a saber
abc, acb, bac, bca, cab y cba
cada arreglo es conocido como una permutacion. As existen 6
posibles permutaciones de 3 objetos.
Este resultado puede ser obtenido de la regla de multiplicacion:
El primer objeto de la permutacion puede ser cualquiera de los 3,
el segundo objeto en la permutacion puede seleccionarse de los
cualquiera dos restantes, y el tercero objeto en la permutacion es
entonces el restante 1.
As son
3 2 1 = 6 posibles permutaciones
PERMUTACIONES
Cuantos arreglos ordenados diferentes son posibles de las letras
a, b y c?
Por enumeracion directa podemos ver que son 6, a saber
abc, acb, bac, bca, cab y cba
cada arreglo es conocido como una permutacion. As existen 6
posibles permutaciones de 3 objetos.
Este resultado puede ser obtenido de la regla de multiplicacion:
El primer objeto de la permutacion puede ser cualquiera de los 3,
el segundo objeto en la permutacion puede seleccionarse de los
cualquiera dos restantes, y el tercero objeto en la permutacion es
entonces el restante 1.
As son
3 2 1 = 6 posibles permutaciones
PERMUTACIONES
Cuantos arreglos ordenados diferentes son posibles de las letras
a, b y c?
Por enumeracion directa podemos ver que son 6, a saber
abc, acb, bac, bca, cab y cba
cada arreglo es conocido como una permutacion. As existen 6
posibles permutaciones de 3 objetos.
Este resultado puede ser obtenido de la regla de multiplicacion:
El primer objeto de la permutacion puede ser cualquiera de los 3,
el segundo objeto en la permutacion puede seleccionarse de los
cualquiera dos restantes, y el tercero objeto en la permutacion es
entonces el restante 1.
As son
3 2 1 = 6 posibles permutaciones
Permutaciones
Denicion.
Un arreglo ordenado de r objetos diferentes recibe el nombre de
permutacion. La cantidad de maneras de ordenar n objetos
diferentes tomando r a la vez se representa mediante el smbolo
P
n
r
.
Teorema.
P
n
r
= n(n 1)(n 2) (n r + 1) =
n!
(n r )!
donde n! = n(n 1)(n 2) 3 2 1 y 0! := 1! := 1
Permutaciones
Denicion.
Un arreglo ordenado de r objetos diferentes recibe el nombre de
permutacion. La cantidad de maneras de ordenar n objetos
diferentes tomando r a la vez se representa mediante el smbolo
P
n
r
.
Teorema.
P
n
r
= n(n 1)(n 2) (n r + 1) =
n!
(n r )!
donde n! = n(n 1)(n 2) 3 2 1 y 0! := 1! := 1
Permutaciones
Ejemplo.
De una urna que contiene los nombres de 30 empleados de una
peque na empresa se van a elegir aleatoriamente, sin reemplazo, los
nombres de 3. El individuo cuyo nombre sale primero recibe 100
dolares, el siguiente en salir recibe 50 y el tercero recibe 25.
Cuantos puntos muestrales se asocian con este experimento?.
Solucion
Como los montos de las recompensas son diferentes, el n umero de
puntos muestrales es el n umero de arreglos de r = 3 de los n = 30
nombres posibles. As
P
30
3
=
30!
3!
= (30)(29)(28) = 24, 360
Permutaciones
Ejemplo.
De una urna que contiene los nombres de 30 empleados de una
peque na empresa se van a elegir aleatoriamente, sin reemplazo, los
nombres de 3. El individuo cuyo nombre sale primero recibe 100
dolares, el siguiente en salir recibe 50 y el tercero recibe 25.
Cuantos puntos muestrales se asocian con este experimento?.
Solucion
Como los montos de las recompensas son diferentes, el n umero de
puntos muestrales es el n umero de arreglos de r = 3 de los n = 30
nombres posibles. As
P
30
3
=
30!
3!
= (30)(29)(28) = 24, 360
Permutaciones
El siguiente resultado calcula el n umero de subconjuntos de
tama nos diversos que pueden formarse partiendo de un conjunto de
n objetos en k grupos que no se superponen.
Teorema.
La cantidad de formas de dividir n objetos distintos en k grupos
que contengan n
1
, n
2
, . . . , n
k
objetos, en forma respectiva, donde
cada objeto gura en un grupo exactamente y

k
i =1
n
i
= n, es
N =
_
n
n
1
n
2
. . . n
k
_
=
n!
n
1
!n
2
! n
k
!
El teorema anterior tambien lo podemos usar para encontrar las
diferentes permutaciones de n objetos, de los cuales los n
1
son
iguales,los n
2
son iguales,..., los n
k
son iguales.
Permutaciones
El siguiente resultado calcula el n umero de subconjuntos de
tama nos diversos que pueden formarse partiendo de un conjunto de
n objetos en k grupos que no se superponen.
Teorema.
La cantidad de formas de dividir n objetos distintos en k grupos
que contengan n
1
, n
2
, . . . , n
k
objetos, en forma respectiva, donde
cada objeto gura en un grupo exactamente y

k
i =1
n
i
= n, es
N =
_
n
n
1
n
2
. . . n
k
_
=
n!
n
1
!n
2
! n
k
!
El teorema anterior tambien lo podemos usar para encontrar las
diferentes permutaciones de n objetos, de los cuales los n
1
son
iguales,los n
2
son iguales,..., los n
k
son iguales.
Permutaciones
Ejemplo.
Un torneo de ajedrez tiene 10 competidores, de los cuales 4 son de
Rusia, 3 de los Estados Unidos, 2 de Alemania, y 1 de Brasil. Si el
resultado del torneo lista justo las nacionalidades de los jugadores
en el orden en los cuales ellos aparecen, cuantos resultados son
posibles?.
Solucion
Existen
10!
4!3!2!1!
= 12, 600 posibles resultados
Permutaciones
Ejemplo.
Un torneo de ajedrez tiene 10 competidores, de los cuales 4 son de
Rusia, 3 de los Estados Unidos, 2 de Alemania, y 1 de Brasil. Si el
resultado del torneo lista justo las nacionalidades de los jugadores
en el orden en los cuales ellos aparecen, cuantos resultados son
posibles?.
Solucion
Existen
10!
4!3!2!1!
= 12, 600 posibles resultados
Permutaciones
Ejemplo.
De cuantas maneras se pueden asignar siete cientcos a una
habitacion de hotel triple y a dos dobles?
Solucion
_
7
3, 2, 2
_
=
7!
3!2!2!
= 210
Permutaciones
Ejemplo.
De cuantas maneras se pueden asignar siete cientcos a una
habitacion de hotel triple y a dos dobles?
Solucion
_
7
3, 2, 2
_
=
7!
3!2!2!
= 210
Combinaciones
En muchos casos los puntos muestrales se identican mediante una
seleccion de smbolos en las que el orden es irrelevante.
Por ejemplo, las permutaciones de las letras a, b y c son 6:
abc, acb, bac, bca, cab y cba
pero si el orden es irrelevante solo nos interesa una de ellas, que
sera la combinacion.
Denicion.
El n umero de combinaciones de n objetos tomados r a la vez es el
n umero de subconjuntos de tama no r , que se pueden formar con
los n objetos. El n umero se denota por C
n
r
o
_
n
r
_
.
Combinaciones
En muchos casos los puntos muestrales se identican mediante una
seleccion de smbolos en las que el orden es irrelevante.
Por ejemplo, las permutaciones de las letras a, b y c son 6:
abc, acb, bac, bca, cab y cba
pero si el orden es irrelevante solo nos interesa una de ellas, que
sera la combinacion.
Denicion.
El n umero de combinaciones de n objetos tomados r a la vez es el
n umero de subconjuntos de tama no r , que se pueden formar con
los n objetos. El n umero se denota por C
n
r
o
_
n
r
_
.
Combinaciones
Teorema.
El n umero de subconjuntos no ordenados, de tama no r elegidos
(sin reemplazo) de entre los n objetos disponibles es
_
n
r
_
= C
n
r
=
n!
r !(n r )!
r n
Por convencion, 0! = 1! = 1. As
_
n
0
_
=
_
n
n
_
= 1. Tambien
_
n
r
_
= 0
si r < 0 o r > n.
Ejemplo.
Un comite de 3 sera formado de un grupo de 20 personas.
Cuantas comites diferentes son posibles?.
Solucion
_
20
3
_
=
20!
3!(20 3)!
=
20 19 18
3 2 1
= 1, 140 posibles comites
Combinaciones
Teorema.
El n umero de subconjuntos no ordenados, de tama no r elegidos
(sin reemplazo) de entre los n objetos disponibles es
_
n
r
_
= C
n
r
=
n!
r !(n r )!
r n
Por convencion, 0! = 1! = 1. As
_
n
0
_
=
_
n
n
_
= 1. Tambien
_
n
r
_
= 0
si r < 0 o r > n.
Ejemplo.
Un comite de 3 sera formado de un grupo de 20 personas.
Cuantas comites diferentes son posibles?.
Solucion
_
20
3
_
=
20!
3!(20 3)!
=
20 19 18
3 2 1
= 1, 140 posibles comites
Combinaciones
Teorema.
El n umero de subconjuntos no ordenados, de tama no r elegidos
(sin reemplazo) de entre los n objetos disponibles es
_
n
r
_
= C
n
r
=
n!
r !(n r )!
r n
Por convencion, 0! = 1! = 1. As
_
n
0
_
=
_
n
n
_
= 1. Tambien
_
n
r
_
= 0
si r < 0 o r > n.
Ejemplo.
Un comite de 3 sera formado de un grupo de 20 personas.
Cuantas comites diferentes son posibles?.
Solucion
_
20
3
_
=
20!
3!(20 3)!
=
20 19 18
3 2 1
= 1, 140 posibles comites
Ejemplo.
Cuantas comites consistentes de dos mujeres y tres hombres se
pueden formar si en total existen 5 mujeres y 7 hombres?.
Solucion
Existen
_
5
2
_
posibles grupos de 2 mujeres y
_
7
3
_
posibles grupos de 3
hombres, por la regla de la multiplicacion existen
_
5
2
__
7
3
_
= 350
posibles comites formados por 2 mujeres y 3 hombres.
Ejemplo.
Cuantas comites consistentes de dos mujeres y tres hombres se
pueden formar si en total existen 5 mujeres y 7 hombres?.
Solucion
Existen
_
5
2
_
posibles grupos de 2 mujeres y
_
7
3
_
posibles grupos de 3
hombres, por la regla de la multiplicacion existen
_
5
2
__
7
3
_
= 350
posibles comites formados por 2 mujeres y 3 hombres.
El binomio de Newton
Los valores
_
n
r
_
en ocasiones son referidos como coecientes
binomiales debido a su presencia en el teorema binomial.
Teorema. (Teorema binomial)
(x + y)
n
=
n

k=0
_
n
k
_
x
k
y
nk
Ejemplo.
Desarrollar (x + y)
3
(x + y)
3
=
3

k=0
_
3
k
_
x
k
y
3k
=
_
3
0
_
x
0
y
3
+
_
3
1
_
x
1
y
2
+
_
3
2
_
x
2
y +
_
3
3
_
x
3
y
0
= y
3
+ 3xy
2
+ 3x
2
y + x
3
El binomio de Newton
Los valores
_
n
r
_
en ocasiones son referidos como coecientes
binomiales debido a su presencia en el teorema binomial.
Teorema. (Teorema binomial)
(x + y)
n
=
n

k=0
_
n
k
_
x
k
y
nk
Ejemplo.
Desarrollar (x + y)
3
(x + y)
3
=
3

k=0
_
3
k
_
x
k
y
3k
=
_
3
0
_
x
0
y
3
+
_
3
1
_
x
1
y
2
+
_
3
2
_
x
2
y +
_
3
3
_
x
3
y
0
= y
3
+ 3xy
2
+ 3x
2
y + x
3
El binomio de Newton
Los valores
_
n
r
_
en ocasiones son referidos como coecientes
binomiales debido a su presencia en el teorema binomial.
Teorema. (Teorema binomial)
(x + y)
n
=
n

k=0
_
n
k
_
x
k
y
nk
Ejemplo.
Desarrollar (x + y)
3
(x + y)
3
=
3

k=0
_
3
k
_
x
k
y
3k
=
_
3
0
_
x
0
y
3
+
_
3
1
_
x
1
y
2
+
_
3
2
_
x
2
y +
_
3
3
_
x
3
y
0
= y
3
+ 3xy
2
+ 3x
2
y + x
3
Teorema binomial
Ejemplo.
Cuantos subconjuntos existen de un conjunto consistente de n
elementos?
Solucion
_
n
k
_
= n umero de subconjuntos de tama no k
Entonces
n

k=0
_
n
k
_
=
n

k=0
_
n
k
_
1
k
1
nk
= (1 + 1)
n
= 2
n
.
Teorema binomial
Ejemplo.
Cuantos subconjuntos existen de un conjunto consistente de n
elementos?
Solucion
_
n
k
_
= n umero de subconjuntos de tama no k
Entonces
n

k=0
_
n
k
_
=
n

k=0
_
n
k
_
1
k
1
nk
= (1 + 1)
n
= 2
n
.
Probabildad condicional
La probabilidad de un evento dependera en ocasiones de nuestro
conocimiento de que han ocurrido otros eventos.
Denicion.
La probabilidad condicional del evento A dado que el evento B ya
ocurrio, denotada P(A|B), esta denida por
P(A|B) =
P(A B)
P(B)
siempre y cuando P(B) > 0.
Probabildad condicional
La probabilidad de un evento dependera en ocasiones de nuestro
conocimiento de que han ocurrido otros eventos.
Denicion.
La probabilidad condicional del evento A dado que el evento B ya
ocurrio, denotada P(A|B), esta denida por
P(A|B) =
P(A B)
P(B)
siempre y cuando P(B) > 0.
Probabilidad condicional
Observacion.
En el momento que B ya ocurrio la -algebra original F es
modicada a B F = {B E|E F}. El espacio muestral es
ahora B = B y la medida de probabilidad es P(|B), esto es, el
nuevo espacio de probabilidad es (B, B F, P(|B)). Formalmente,
debemos mostrar que B F es una -algebra y que P(|B) es una
medida de probabilidad. Dejamos de tarea demostrar que B F es
una -algebra y
Teorema.
P(|B) es una medida de probabilidad denida en B F.
Demostracion:
Debemos vericar que se satisfacen los tres axiomas de medida de
probabilidad.
Probabilidad condicional
Observacion.
En el momento que B ya ocurrio la -algebra original F es
modicada a B F = {B E|E F}. El espacio muestral es
ahora B = B y la medida de probabilidad es P(|B), esto es, el
nuevo espacio de probabilidad es (B, B F, P(|B)). Formalmente,
debemos mostrar que B F es una -algebra y que P(|B) es una
medida de probabilidad. Dejamos de tarea demostrar que B F es
una -algebra y
Teorema.
P(|B) es una medida de probabilidad denida en B F.
Demostracion:
Debemos vericar que se satisfacen los tres axiomas de medida de
probabilidad.
Probabilidad condicional
Observacion.
En el momento que B ya ocurrio la -algebra original F es
modicada a B F = {B E|E F}. El espacio muestral es
ahora B = B y la medida de probabilidad es P(|B), esto es, el
nuevo espacio de probabilidad es (B, B F, P(|B)). Formalmente,
debemos mostrar que B F es una -algebra y que P(|B) es una
medida de probabilidad. Dejamos de tarea demostrar que B F es
una -algebra y
Teorema.
P(|B) es una medida de probabilidad denida en B F.
Demostracion:
Debemos vericar que se satisfacen los tres axiomas de medida de
probabilidad.
Probabilidad condicional
Observacion.
Como P(|B) es una medida de probabilidad podemos utilizar los
resultados obtenidos
1 P(A
c
|B) = 1 P(A|B)
2 P(E F|B) = P(E|B) + P(F|B) P(E F|B)
3 P(C|B) P(D|B) si C B D B.
Ejemplo.
Suponga que un dado equilibrado se lanza una vez. Encuentre la
probabilidad de que salga un 1, si ya se obtuvo un n umero impar.
Solucion: sean los siguientes eventos: A: se observa un 1 y B: se
observa un n umero impar.
P(A|B) =
P(A B)
P(B)
=
P({1})
P({1, 3, 5})
=
1/6
3/6
= 1/3
Probabilidad condicional
Observacion.
Como P(|B) es una medida de probabilidad podemos utilizar los
resultados obtenidos
1 P(A
c
|B) = 1 P(A|B)
2 P(E F|B) = P(E|B) + P(F|B) P(E F|B)
3 P(C|B) P(D|B) si C B D B.
Ejemplo.
Suponga que un dado equilibrado se lanza una vez. Encuentre la
probabilidad de que salga un 1, si ya se obtuvo un n umero impar.
Solucion: sean los siguientes eventos: A: se observa un 1 y B: se
observa un n umero impar.
P(A|B) =
P(A B)
P(B)
=
P({1})
P({1, 3, 5})
=
1/6
3/6
= 1/3
Probabilidad condicional
Observacion.
Como P(|B) es una medida de probabilidad podemos utilizar los
resultados obtenidos
1 P(A
c
|B) = 1 P(A|B)
2 P(E F|B) = P(E|B) + P(F|B) P(E F|B)
3 P(C|B) P(D|B) si C B D B.
Ejemplo.
Suponga que un dado equilibrado se lanza una vez. Encuentre la
probabilidad de que salga un 1, si ya se obtuvo un n umero impar.
Solucion: sean los siguientes eventos: A: se observa un 1 y B: se
observa un n umero impar.
P(A|B) =
P(A B)
P(B)
=
P({1})
P({1, 3, 5})
=
1/6
3/6
= 1/3
Independencia entre eventos
Denicion.
Sea (, F, P) un espacio de probabilidad. Sean A
1
, A
2
, . . . , A
n
con
n 2, eventos. Decimos que A
1
, A
2
, . . . , A
n
son mutuamente
independientes si y solo si para todo subconjunto de tama no k,
2 k n, {i
1
, i
2
, . . . , i
k
} de {1, 2, . . . , n} se cumple la igualdad
P(
k

j =1
A
i
j
) =
k
j =1
P(A
i
j
).
Para el caso n = 2, la denicion establece que los eventos A
1
y A
2
son independientes ssi
P(A
1
A
2
) = P(A
1
)P(A
2
).
Independencia entre eventos
Denicion.
Sea (, F, P) un espacio de probabilidad. Sean A
1
, A
2
, . . . , A
n
con
n 2, eventos. Decimos que A
1
, A
2
, . . . , A
n
son mutuamente
independientes si y solo si para todo subconjunto de tama no k,
2 k n, {i
1
, i
2
, . . . , i
k
} de {1, 2, . . . , n} se cumple la igualdad
P(
k

j =1
A
i
j
) =
k
j =1
P(A
i
j
).
Para el caso n = 2, la denicion establece que los eventos A
1
y A
2
son independientes ssi
P(A
1
A
2
) = P(A
1
)P(A
2
).
Independencia entre eventos
Cuando n = 3, la denicion de independencia nos dice que
A
1
, A
2
, A
3
son mutuamente independientes ssi
P(A
1
A
2
) = P(A
1
)P(A
2
)
P(A
1
A
3
) = P(A
1
)P(A
3
)
P(A
2
A
3
) = P(A
2
)P(A
3
)
P(A
1
A
2
A
3
) = P(A
1
)P(A
2
)P(A
3
)
No es suciente que sean independientes a pares.
Ejemplo.
Sea el experimento que consiste en lanzar dos veces una moneda
honesta, entonces
= {AA, AS, SA, SS} = {
1
,
2
,
3
,
4
}
Denamos los eventos: A = {
1
,
2
}, B = {
1
,
3
}, C = {
1
,
3
}
Son los eventos A, B y C independientes?.
Independencia entre eventos
Cuando n = 3, la denicion de independencia nos dice que
A
1
, A
2
, A
3
son mutuamente independientes ssi
P(A
1
A
2
) = P(A
1
)P(A
2
)
P(A
1
A
3
) = P(A
1
)P(A
3
)
P(A
2
A
3
) = P(A
2
)P(A
3
)
P(A
1
A
2
A
3
) = P(A
1
)P(A
2
)P(A
3
)
No es suciente que sean independientes a pares.
Ejemplo.
Sea el experimento que consiste en lanzar dos veces una moneda
honesta, entonces
= {AA, AS, SA, SS} = {
1
,
2
,
3
,
4
}
Denamos los eventos: A = {
1
,
2
}, B = {
1
,
3
}, C = {
1
,
3
}
Son los eventos A, B y C independientes?.
Independencia entre eventos
Soluci on: Con la moneda honesta podemos proponer
P({
i
}) = 1/4, i = 1, . . . , 4. Entonces
P(A) = P(B) = P(C) = 1/2
P(A B) = P({
1
}) = 1/4 = P(A)P(B)
P(A C) = P({
1
}) = 1/4 = P(A)P(C)
P(B C) = P({
1
}) = 1/4 = P(B)P(C)
pero
P(A B C) = P({
1
}) = 1/4 = P(A)P(B)P(C) = 1/8
Concluimos que los eventos no son mutuamente independientes.
Independencia entre eventos
Observacion.
Para vericar la independencia mutua de n eventos tenemos que
comprobar la independencia a pares, tercias, etc.; en total,
2
n
n 1, porque?
Solucion: 2
n

_
n
0
_

_
n
1
_
= 2
n
1 n
Observacion.
De manera informal se acostumbra decir que n eventos son
independientes cuando la ocurrencia de uno de ellos no altera la
ocurrencia o no ocurrencia de los demas.
Observacion.
A B = no signica que A y B son independientes. De hecho si
P(A) > 0 y P(B) > 0 y A B = , entonces
P(A B) = P() = 0 = P(A)P(B) > 0.
Independencia entre eventos
Observacion.
Para vericar la independencia mutua de n eventos tenemos que
comprobar la independencia a pares, tercias, etc.; en total,
2
n
n 1, porque?
Solucion: 2
n

_
n
0
_

_
n
1
_
= 2
n
1 n
Observacion.
De manera informal se acostumbra decir que n eventos son
independientes cuando la ocurrencia de uno de ellos no altera la
ocurrencia o no ocurrencia de los demas.
Observacion.
A B = no signica que A y B son independientes. De hecho si
P(A) > 0 y P(B) > 0 y A B = , entonces
P(A B) = P() = 0 = P(A)P(B) > 0.
Independencia entre eventos
Observacion.
Para vericar la independencia mutua de n eventos tenemos que
comprobar la independencia a pares, tercias, etc.; en total,
2
n
n 1, porque?
Solucion: 2
n

_
n
0
_

_
n
1
_
= 2
n
1 n
Observacion.
De manera informal se acostumbra decir que n eventos son
independientes cuando la ocurrencia de uno de ellos no altera la
ocurrencia o no ocurrencia de los demas.
Observacion.
A B = no signica que A y B son independientes. De hecho si
P(A) > 0 y P(B) > 0 y A B = , entonces
P(A B) = P() = 0 = P(A)P(B) > 0.
Independencia entre eventos
Observacion.
Para vericar la independencia mutua de n eventos tenemos que
comprobar la independencia a pares, tercias, etc.; en total,
2
n
n 1, porque?
Solucion: 2
n

_
n
0
_

_
n
1
_
= 2
n
1 n
Observacion.
De manera informal se acostumbra decir que n eventos son
independientes cuando la ocurrencia de uno de ellos no altera la
ocurrencia o no ocurrencia de los demas.
Observacion.
A B = no signica que A y B son independientes. De hecho si
P(A) > 0 y P(B) > 0 y A B = , entonces
P(A B) = P() = 0 = P(A)P(B) > 0.
Independencia entre eventos
Consecuencias de la independencia entre eventos
Proposicion.
Sean A y B dos eventos independientes, entonces
1 A y B
c
son independientes (y por simetra A
C
y B son
tambien independientes )
2 A
c
y B
c
son independientes.
Demostracion: (1) A B = A B
c
A = (A B
c
) (A B) union disjunta
P(A) = P(A B
c
) + P(A)P(B) por independencia
Entonces
P(A B
c
) = P(A) P(A)P(B)
= P(A)[1 P(B)] = P(A)P(B
c
)
(2) Tarea.
Independencia entre eventos
Consecuencias de la independencia entre eventos
Proposicion.
Sean A y B dos eventos independientes, entonces
1 A y B
c
son independientes (y por simetra A
C
y B son
tambien independientes )
2 A
c
y B
c
son independientes.
Demostracion: (1) A B = A B
c
A = (A B
c
) (A B) union disjunta
P(A) = P(A B
c
) + P(A)P(B) por independencia
Entonces
P(A B
c
) = P(A) P(A)P(B)
= P(A)[1 P(B)] = P(A)P(B
c
)
(2) Tarea.
Independencia entre eventos
Observacion.
La proposicion anterior es generalizable a mas de dos eventos. Por
ejemplo, para 3 eventos A, B y C mutuamente independientes
tendremos que los siguientes eventos son mutuamente
independientes
A
c
, B, C; A, B
c
, C; A, B, C
c
; A
c
, B
c
, C; A
c
, B, C
c
; A, B
c
, C
c
y A
c
B
c
C
c
Tarea.
Lema.
Sean A y B dos eventos en un espacio (, F, P). Si P(B) > 0
entonces A y B son independientes si y solo si P(A|B) = P(A)
Independencia entre eventos
Observacion.
La proposicion anterior es generalizable a mas de dos eventos. Por
ejemplo, para 3 eventos A, B y C mutuamente independientes
tendremos que los siguientes eventos son mutuamente
independientes
A
c
, B, C; A, B
c
, C; A, B, C
c
; A
c
, B
c
, C; A
c
, B, C
c
; A, B
c
, C
c
y A
c
B
c
C
c
Tarea.
Lema.
Sean A y B dos eventos en un espacio (, F, P). Si P(B) > 0
entonces A y B son independientes si y solo si P(A|B) = P(A)
Demostracion:) Suponga que A y B son independientes
(P(A B) = P(A)P(B)) y
P(A|B) =
P(A B)
P(B)
=
P(A)P(B)
P(B)
= P(A)
) Suponga que P(A|B) = P(A)
P(A B) = P(A|B)P(B) = P(A)P(B)
El lema pudo ser establecido con P(B|A) = P(B) y el supuesto
P(A) > 0.
Demostracion:) Suponga que A y B son independientes
(P(A B) = P(A)P(B)) y
P(A|B) =
P(A B)
P(B)
=
P(A)P(B)
P(B)
= P(A)
) Suponga que P(A|B) = P(A)
P(A B) = P(A|B)P(B) = P(A)P(B)
El lema pudo ser establecido con P(B|A) = P(B) y el supuesto
P(A) > 0.
Demostracion:) Suponga que A y B son independientes
(P(A B) = P(A)P(B)) y
P(A|B) =
P(A B)
P(B)
=
P(A)P(B)
P(B)
= P(A)
) Suponga que P(A|B) = P(A)
P(A B) = P(A|B)P(B) = P(A)P(B)
El lema pudo ser establecido con P(B|A) = P(B) y el supuesto
P(A) > 0.
La formula de probabilidad total y la regla de Bayes
Sea (, F, P) un espacio de probabilidad
Denicion.
Sea k Z
+
y los eventos B
1
, B
2
, . . . , B
k
que satisfacen
1 = B
1
B
2
. . . B
k
2 B
i
B
j
= si i = j .
Entonces {B
1
, B
2
, . . . , B
k
} es una particion de .
Teorema. (Ley de probabilidad total)
Si {B
1
, B
2
, . . . , B
k
} es una particion de tal que P(B
i
) > 0, para
i = 1, 2, . . . , k, entonces para todo A F
P(A) =
k

i =1
P(A|B
i
)P(B
i
)
La formula de probabilidad total y la regla de Bayes
Sea (, F, P) un espacio de probabilidad
Denicion.
Sea k Z
+
y los eventos B
1
, B
2
, . . . , B
k
que satisfacen
1 = B
1
B
2
. . . B
k
2 B
i
B
j
= si i = j .
Entonces {B
1
, B
2
, . . . , B
k
} es una particion de .
Teorema. (Ley de probabilidad total)
Si {B
1
, B
2
, . . . , B
k
} es una particion de tal que P(B
i
) > 0, para
i = 1, 2, . . . , k, entonces para todo A F
P(A) =
k

i =1
P(A|B
i
)P(B
i
)
Demostracion:
A = A = A (B
1
B
2
. . . B
k
)
= (A B
1
) (A B
2
) . . . (A B
k
)
Ademas (A B
i
) (A B
j
) = A (B
i
B
j
) = A = y as
P(A) = P(A B
1
) + P(A B
2
) +. . . + P(A B
K
)
= P(A|B
1
)P(B
1
) + P(A|B
2
)P(B
2
) +. . . + P(A|B
k
)P(B
k
)
=
k

i =1
P(A|B
i
)P(B
i
)
Demostracion:
A = A = A (B
1
B
2
. . . B
k
)
= (A B
1
) (A B
2
) . . . (A B
k
)
Ademas (A B
i
) (A B
j
) = A (B
i
B
j
) = A = y as
P(A) = P(A B
1
) + P(A B
2
) +. . . + P(A B
K
)
= P(A|B
1
)P(B
1
) + P(A|B
2
)P(B
2
) +. . . + P(A|B
k
)P(B
k
)
=
k

i =1
P(A|B
i
)P(B
i
)
Regla de Bayes
Teorema. ( Regla de Bayes)
Sea {B
1
, . . . , B
k
} una particion de tal que P(B
i
) > 0, para
i = 1, 2, . . . , k. Entonces
P(B
j
|A) =
P(A|B
j
)P(B
j
)

k
i =1
P(A|B
i
)P(B
i
)
Demostracion:
P(B
j
|A) =
P(B
j
A)
P(A)
=
P(A|B
j
)P(B
j
)

k
i =1
P(A|B
i
)P(B
i
)
Regla de Bayes
Teorema. ( Regla de Bayes)
Sea {B
1
, . . . , B
k
} una particion de tal que P(B
i
) > 0, para
i = 1, 2, . . . , k. Entonces
P(B
j
|A) =
P(A|B
j
)P(B
j
)

k
i =1
P(A|B
i
)P(B
i
)
Demostracion:
P(B
j
|A) =
P(B
j
A)
P(A)
=
P(A|B
j
)P(B
j
)

k
i =1
P(A|B
i
)P(B
i
)
Ejemplo.
Si dos eventos, A y B, tienen las siguientes probabilidades:
P(A) = 0,5, P(B) = 0,3 y P(A B) = 0,1, encuentre las
siguientes probabilidades:
1 P(A|B) y P(B|A)
2 P(A|A B)
3 P(A|A B)
4 P(A B|A B)
Ejemplo.
Dos eventos A y B son tales que P(A) = 0,2, P(B) = 0,3 y
P(A B) = 0,4. Encuentre las siguientes probabilidades
1 P(A
c
B)
2 P(A
c
B)
3 P(A
c
B
c
)
4 P(A
c
|B)
Variables aleatorias
Con frecuencia cuando se lleva a cabo un experimento, estamos
interesados principalmente en alguna funcion de los resultados
que en los resultados mismos. Por ejemplo, cuando lanzamos un
par de dados, podemos estar interesados por la suma de los dados
y no estar preocupados por los valores reales independientes de
cada vector. Es decir, podemos estar interesados en saber que la
suma es 7 y no puede interesarnos acerca si el resultado real fue
(1, 6), (2, 5), (3, 4), (4, 3), (5, 2) o (6, 1).
Denicion.
Una variable aleatoria (v.a.) es una funcion X : R tal que
para cualquier conjunto Boreliano B, se cumple que el conjunto
X
1
(B) F.
Donde X
1
(B) = { : X() B}
Variables aleatorias
Con frecuencia cuando se lleva a cabo un experimento, estamos
interesados principalmente en alguna funcion de los resultados
que en los resultados mismos. Por ejemplo, cuando lanzamos un
par de dados, podemos estar interesados por la suma de los dados
y no estar preocupados por los valores reales independientes de
cada vector. Es decir, podemos estar interesados en saber que la
suma es 7 y no puede interesarnos acerca si el resultado real fue
(1, 6), (2, 5), (3, 4), (4, 3), (5, 2) o (6, 1).
Denicion.
Una variable aleatoria (v.a.) es una funcion X : R tal que
para cualquier conjunto Boreliano B, se cumple que el conjunto
X
1
(B) F.
Donde X
1
(B) = { : X() B}
Variable aleatoria
Ejemplo.
Sea : Lanzamos una moneda tres veces y observamos
= {AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS}
Sea X la v.a.: El n umero de aguilas obtenidas.
X(AAA) 3
X(AAS) 2
X(ASA) 2
X(SAA) 2
X(ASS) 1
.
.
.
.
.
.
X(SSS) 0
X : {0, 1, 2, 3} R.
Variable aleatoria
Observacion.
No toda funcion X : R es una v.a. sino solo aquellas que
satisfacen X
1
(B) F para todo B B(R) y se dice entonces
que X es medible. Si X es continua entonces X es v.a. y tambien
si es discreto y F = 2

entonces tambien X es v.a.. El concepto


es un poco tecnico y a continuacion damos algunos resultados sin
demostracion.
Proposicion.
La funcion constante X() = c para todo es una v.a.
Proposicion.
Si X y Y son variables aleatorias y c es una constante entonces
cX, X + Y, XY, X/Y con Y = 0 y |X|
son tambien variables aleatorias.
Variable aleatoria
Observacion.
No toda funcion X : R es una v.a. sino solo aquellas que
satisfacen X
1
(B) F para todo B B(R) y se dice entonces
que X es medible. Si X es continua entonces X es v.a. y tambien
si es discreto y F = 2

entonces tambien X es v.a.. El concepto


es un poco tecnico y a continuacion damos algunos resultados sin
demostracion.
Proposicion.
La funcion constante X() = c para todo es una v.a.
Proposicion.
Si X y Y son variables aleatorias y c es una constante entonces
cX, X + Y, XY, X/Y con Y = 0 y |X|
son tambien variables aleatorias.
Variable aleatoria
Observacion.
No toda funcion X : R es una v.a. sino solo aquellas que
satisfacen X
1
(B) F para todo B B(R) y se dice entonces
que X es medible. Si X es continua entonces X es v.a. y tambien
si es discreto y F = 2

entonces tambien X es v.a.. El concepto


es un poco tecnico y a continuacion damos algunos resultados sin
demostracion.
Proposicion.
La funcion constante X() = c para todo es una v.a.
Proposicion.
Si X y Y son variables aleatorias y c es una constante entonces
cX, X + Y, XY, X/Y con Y = 0 y |X|
son tambien variables aleatorias.
Variable aleatoria
Observacion.
Recordemos que P es una medida de probabilidad denida sobre el
espacio medible (, F). Si X es una v.a. entonces podemos
trasladar la medida de probabilidad P al espacio medible (R, B(R))
del siguiente modo: Si B B(R) denimos P
X
(B) = P(X
1
(B)),
lo cual es posible pues X
1
(B) F. La funcion P
X
: B(R) [0, 1]
resulta ser una medida de probabilidad, y se le llama medida de
probabilidad inducida por la v.a. X. Se le conoce tambien con el
nombre de distribucion o ley de probabilidad de X. De este modo
se construye el espacio de probabilidad (R, B(R), P
x
).
Variable aleatoria
Ejemplo.
Sea : Lanzamos una moneda tres veces y observamos
= {AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS}
Sea X la v.a.: El n umero de aguilas obtenidas.
p(0) = P
X
(X = 0) = P(X
1
(0)) = P({SSS}) = 1/8
p(1) = P
X
(X = 1) = P(X
1
(1)) = P({ASS, SAS, SSA}) = 3/8
p(2) = P
X
(X = 2) = P(X
1
(2)) = P({AAS, ASA, SAA}) = 3/8
p(3) = P
X
(X = 3) = P(X
1
(3)) = P({AAA}) = 1/8
v.a.s discretas y sus distribuciones de probabilidad
Denicion.
Una v.a. X es discreta si puede tomar solo una cantidad de valores
nito o innito numerable.
Ejemplo.
La probabilidad que X tome el valor x, P(X = x), se dene como
la suma de las probabilidades de los puntos muestrales de que
tienen asignado el valor x. Se representa a P(X = x) como p(x).
p(x) es una funcion, llamada funcion de probabilidad de X o
funcion de masa de probabilidad.
Observacion.
La distribucion de probabilidad para una v.a. X puede
representarse mediante una formula, una tabla o una graca, que
proporciona p(x) = P(X = x) para toda x.
v.a.s discretas y sus distribuciones de probabilidad
Denicion.
Una v.a. X es discreta si puede tomar solo una cantidad de valores
nito o innito numerable.
Ejemplo.
La probabilidad que X tome el valor x, P(X = x), se dene como
la suma de las probabilidades de los puntos muestrales de que
tienen asignado el valor x. Se representa a P(X = x) como p(x).
p(x) es una funcion, llamada funcion de probabilidad de X o
funcion de masa de probabilidad.
Observacion.
La distribucion de probabilidad para una v.a. X puede
representarse mediante una formula, una tabla o una graca, que
proporciona p(x) = P(X = x) para toda x.
v.a.s discretas y sus distribuciones de probabilidad
Denicion.
Una v.a. X es discreta si puede tomar solo una cantidad de valores
nito o innito numerable.
Ejemplo.
La probabilidad que X tome el valor x, P(X = x), se dene como
la suma de las probabilidades de los puntos muestrales de que
tienen asignado el valor x. Se representa a P(X = x) como p(x).
p(x) es una funcion, llamada funcion de probabilidad de X o
funcion de masa de probabilidad.
Observacion.
La distribucion de probabilidad para una v.a. X puede
representarse mediante una formula, una tabla o una graca, que
proporciona p(x) = P(X = x) para toda x.
Distribuci on de probabilidad
Ejemplo.
Sea : Lanzamos una moneda tres veces y observamos
= {AAA, AAS, ASA, SAA, ASS, SAS, SSA, SSS}
X : El n umero de aguilas observadas
Tabla: Distribucion de probabilidad
x p(x)
0 1/8
1 3/8
2 3/8
3 1/8
1
Ejemplo.
El supervisor de una planta de manufactura tiene a tres hombres y
tres mujeres a su cargo. Debe elegir dos trabajadores para una
tarea especial. Como no desea actuar con prejuicio en la seleccion
del personal, decide elegir dos trabajadores al azar. Si Y es el
n umero de mujeres en el grupo elegido, encuentre la distribucion
de probabilidad para Y.
Solucion Y puede tomar los valores 0, 1 y 2.
p(0) = P(Y = 0) =
_
3
0
__
3
2
_
_
6
2
_ = 1/5
p(1) = P(Y = 1) =
_
3
1
__
3
1
_
_
6
2
_ = 3/5
p(2) = P(Y = 2) =
_
3
2
__
3
0
_
_
6
2
_ = 1/5
Tabla: Distribucion de Probabilidad
y p(y)
0 1/5
1 3/5
2 1/5
Por medio de una formula:
p(y) =
_
3
y
__
3
2y
_
_
6
2
_ , y = 0, 1, 2
Distribuci on de probabilidad
Teorema.
Cualquier distribucion de probabilidades debe satisfacer lo
siguiente:
1 0 p(y) 1 y
2

y
p(y) = 1. y
Denicion.
Si X es una v.a., entonces la funcion F(x) denida por
F(x) = P[X x] = (

yx
p(x)) para el caso discreto
es llamada la funcion de distribucion (acumulada) de X.
Denicion.
Si X es una v.a. discreta con funcion de probabilidad p(x).
Entonces, el valor esperado de X, E(X), se dene como
E(X) =

x
xp(x)
siempre que

x
|x|p(x) <
Denicion.
La varianza de una v.a. X se dene como el valor esperado de
(X E[X])
2
. Es decir:
V(X) = E[(X E[X])
2
].
La varianza es una medida de la diferencia de los valores de X
respecto a su esperanza. La cantidad
_
V(X) es llamada la
desviacion estandar de X.
Denicion.
Si X es una v.a. discreta con funcion de probabilidad p(x).
Entonces, el valor esperado de X, E(X), se dene como
E(X) =

x
xp(x)
siempre que

x
|x|p(x) <
Denicion.
La varianza de una v.a. X se dene como el valor esperado de
(X E[X])
2
. Es decir:
V(X) = E[(X E[X])
2
].
La varianza es una medida de la diferencia de los valores de X
respecto a su esperanza. La cantidad
_
V(X) es llamada la
desviacion estandar de X.
Funci on de distribuci on
Denicion.
Sea X una v.a.. La funcion de distribucion de X (fd) es la
funcion F
X
: R [0, 1] dada por
F
X
(x) := P{X x} x R
Proposicion.
La F
X
de una v.a. satisface
(a) Si x < y entonces F(x) F(y)
(b) F
X
(+) := lm
x
(x) = 1 y F
X
() := lm
x
(x) = 0
(c) F
X
es continua por la derecha, i.e. si
F
X
(x+) := lm
yx
+ F
X
(y), entonces,
F
X
(x+) = F
X
(x)
Funci on de distribuci on
Denicion.
Sea X una v.a.. La funcion de distribucion de X (fd) es la
funcion F
X
: R [0, 1] dada por
F
X
(x) := P{X x} x R
Proposicion.
La F
X
de una v.a. satisface
(a) Si x < y entonces F(x) F(y)
(b) F
X
(+) := lm
x
(x) = 1 y F
X
() := lm
x
(x) = 0
(c) F
X
es continua por la derecha, i.e. si
F
X
(x+) := lm
yx
+ F
X
(y), entonces,
F
X
(x+) = F
X
(x)
Funci on de distribuci on
Denicion.
Sea X una v.a.. La funcion de distribucion de X (fd) es la
funcion F
X
: R [0, 1] dada por
F
X
(x) := P{X x} x R
Proposicion.
La F
X
de una v.a. satisface
(a) Si x < y entonces F(x) F(y)
(b) F
X
(+) := lm
x
(x) = 1 y F
X
() := lm
x
(x) = 0
(c) F
X
es continua por la derecha, i.e. si
F
X
(x+) := lm
yx
+ F
X
(y), entonces,
F
X
(x+) = F
X
(x)
Funci on de distribuci on
Denicion.
Sea X una v.a.. La funcion de distribucion de X (fd) es la
funcion F
X
: R [0, 1] dada por
F
X
(x) := P{X x} x R
Proposicion.
La F
X
de una v.a. satisface
(a) Si x < y entonces F(x) F(y)
(b) F
X
(+) := lm
x
(x) = 1 y F
X
() := lm
x
(x) = 0
(c) F
X
es continua por la derecha, i.e. si
F
X
(x+) := lm
yx
+ F
X
(y), entonces,
F
X
(x+) = F
X
(x)
Denicion.
Cualquier funcion F : R [0, 1] que satisface (a) (c) de arriba
se dice que es una funcion de distribucion de probabilidad (fdp)
Tipos de v.a.s
Denicion.
Se dice que una v.a. X es discreta si el n umero de valores de X es
nito o innito numerable.
Si X es discreta su F(x) es una funcion constante por pedazos
(escalonada) y viceversa.
Denicion.
La v.a. X se llama continua si su F(x) es una funcion continua.
Denicion.
Se dice que una v.a. X es absolutamente continua si existe una
funcion de Borel f : R R, no-negativa, y tal que
F
X
(x) =
_
x

f (y)dy x R
En este caso se dice que f es la densidad de probabilidad de X.
Tipos de v.a.s
Denicion.
Se dice que una v.a. X es discreta si el n umero de valores de X es
nito o innito numerable.
Si X es discreta su F(x) es una funcion constante por pedazos
(escalonada) y viceversa.
Denicion.
La v.a. X se llama continua si su F(x) es una funcion continua.
Denicion.
Se dice que una v.a. X es absolutamente continua si existe una
funcion de Borel f : R R, no-negativa, y tal que
F
X
(x) =
_
x

f (y)dy x R
En este caso se dice que f es la densidad de probabilidad de X.
Tipos de v.a.s
Denicion.
Se dice que una v.a. X es discreta si el n umero de valores de X es
nito o innito numerable.
Si X es discreta su F(x) es una funcion constante por pedazos
(escalonada) y viceversa.
Denicion.
La v.a. X se llama continua si su F(x) es una funcion continua.
Denicion.
Se dice que una v.a. X es absolutamente continua si existe una
funcion de Borel f : R R, no-negativa, y tal que
F
X
(x) =
_
x

f (y)dy x R
En este caso se dice que f es la densidad de probabilidad de X.
Proposicion.
Sea F
X
la f.d. de una v.a. X y sea F
X
(x) := lm
yx
F
X
(y)
(a) P{X > x} = 1 F
X
(x)
(b) P{X < x} = F
X
(x)
(c) P{y < X x} = F
X
(x) F
X
(y)
(d) P{y X x} = F
X
(x) F
X
(y)
(e) P{y < X < x} = F
X
(x) F
X
(y)
(f) P{y X < x} = F
X
(x) F
X
(y)
(g) P{X = x} = F
X
(x) F
X
(x); por lo tanto, F
X
es continua
en x ssi P{X = 0} = 0.
Proposicion.
Sea F
X
la f.d. de una v.a. X y sea F
X
(x) := lm
yx
F
X
(y)
(a) P{X > x} = 1 F
X
(x)
(b) P{X < x} = F
X
(x)
(c) P{y < X x} = F
X
(x) F
X
(y)
(d) P{y X x} = F
X
(x) F
X
(y)
(e) P{y < X < x} = F
X
(x) F
X
(y)
(f) P{y X < x} = F
X
(x) F
X
(y)
(g) P{X = x} = F
X
(x) F
X
(x); por lo tanto, F
X
es continua
en x ssi P{X = 0} = 0.
Proposicion.
Sea F
X
la f.d. de una v.a. X y sea F
X
(x) := lm
yx
F
X
(y)
(a) P{X > x} = 1 F
X
(x)
(b) P{X < x} = F
X
(x)
(c) P{y < X x} = F
X
(x) F
X
(y)
(d) P{y X x} = F
X
(x) F
X
(y)
(e) P{y < X < x} = F
X
(x) F
X
(y)
(f) P{y X < x} = F
X
(x) F
X
(y)
(g) P{X = x} = F
X
(x) F
X
(x); por lo tanto, F
X
es continua
en x ssi P{X = 0} = 0.
Proposicion.
Sea F
X
la f.d. de una v.a. X y sea F
X
(x) := lm
yx
F
X
(y)
(a) P{X > x} = 1 F
X
(x)
(b) P{X < x} = F
X
(x)
(c) P{y < X x} = F
X
(x) F
X
(y)
(d) P{y X x} = F
X
(x) F
X
(y)
(e) P{y < X < x} = F
X
(x) F
X
(y)
(f) P{y X < x} = F
X
(x) F
X
(y)
(g) P{X = x} = F
X
(x) F
X
(x); por lo tanto, F
X
es continua
en x ssi P{X = 0} = 0.
Proposicion.
Sea F
X
la f.d. de una v.a. X y sea F
X
(x) := lm
yx
F
X
(y)
(a) P{X > x} = 1 F
X
(x)
(b) P{X < x} = F
X
(x)
(c) P{y < X x} = F
X
(x) F
X
(y)
(d) P{y X x} = F
X
(x) F
X
(y)
(e) P{y < X < x} = F
X
(x) F
X
(y)
(f) P{y X < x} = F
X
(x) F
X
(y)
(g) P{X = x} = F
X
(x) F
X
(x); por lo tanto, F
X
es continua
en x ssi P{X = 0} = 0.
Proposicion.
Sea F
X
la f.d. de una v.a. X y sea F
X
(x) := lm
yx
F
X
(y)
(a) P{X > x} = 1 F
X
(x)
(b) P{X < x} = F
X
(x)
(c) P{y < X x} = F
X
(x) F
X
(y)
(d) P{y X x} = F
X
(x) F
X
(y)
(e) P{y < X < x} = F
X
(x) F
X
(y)
(f) P{y X < x} = F
X
(x) F
X
(y)
(g) P{X = x} = F
X
(x) F
X
(x); por lo tanto, F
X
es continua
en x ssi P{X = 0} = 0.
Proposicion.
Sea F
X
la f.d. de una v.a. X y sea F
X
(x) := lm
yx
F
X
(y)
(a) P{X > x} = 1 F
X
(x)
(b) P{X < x} = F
X
(x)
(c) P{y < X x} = F
X
(x) F
X
(y)
(d) P{y X x} = F
X
(x) F
X
(y)
(e) P{y < X < x} = F
X
(x) F
X
(y)
(f) P{y X < x} = F
X
(x) F
X
(y)
(g) P{X = x} = F
X
(x) F
X
(x); por lo tanto, F
X
es continua
en x ssi P{X = 0} = 0.
Proposicion.
Sea F
X
la f.d. de una v.a. X y sea F
X
(x) := lm
yx
F
X
(y)
(a) P{X > x} = 1 F
X
(x)
(b) P{X < x} = F
X
(x)
(c) P{y < X x} = F
X
(x) F
X
(y)
(d) P{y X x} = F
X
(x) F
X
(y)
(e) P{y < X < x} = F
X
(x) F
X
(y)
(f) P{y X < x} = F
X
(x) F
X
(y)
(g) P{X = x} = F
X
(x) F
X
(x); por lo tanto, F
X
es continua
en x ssi P{X = 0} = 0.
Nota:
Si F
X
es continua en x, entonces F
X
(x) = F
X
(x+) = F
X
,
As si F
X
es continua en x, (b) P{X < x} = F
X
(x)
Si F
X
es continua en x e y, entonces (d) (f ) son iguales a
(c)
Ejercicios
Ejemplo.
Una caja tiene 12 pelotas numeradas de 1 a 12. Dos pelotas son
seleccionadas aleatoriamente de la caja. Sea X el n umero mas
grande de las dos pelotas. Encuentre la densidad de Xsi las bolas
son seleccionadas:
a)con reemplazo. Graque esta densidad.
b)sin reemplazo. Graque esta densidad.
Ejemplo.
Sea X una variable aleatoria tal que P(|X 1| = 2) = 0. Exprese
P(|X 1| 2) en terminos de la funcion de distribucion
acumulada F
X
(x).
Ejercicios
Ejemplo.
Una caja tiene 12 pelotas numeradas de 1 a 12. Dos pelotas son
seleccionadas aleatoriamente de la caja. Sea X el n umero mas
grande de las dos pelotas. Encuentre la densidad de Xsi las bolas
son seleccionadas:
a)con reemplazo. Graque esta densidad.
b)sin reemplazo. Graque esta densidad.
Ejemplo.
Sea X una variable aleatoria tal que P(|X 1| = 2) = 0. Exprese
P(|X 1| 2) en terminos de la funcion de distribucion
acumulada F
X
(x).
Ejercicios
Ejemplo.
Sea X una variable aleatoria cuya funcion de distribucion
acumulada esta dada por:
F(x) =
_

_
0, x 0
x/3, 0 x < 1
x/2, 1 x < 2
1, x 2
Encuentre f (x) y graque esta funcion.
Ejemplo.
Sea X una variable aleatoria continua cuya funcion de densidad
esta dada por
f (x) =
1
2
e
|x|
< x <
(a) Encuentre P(1 |x| 2)
(b) Encuentre F
X
(x)
Ejercicio 22
El individuo A tiene dos monedas y el individuo B tiene una. Ellos
juegan volados hasta que uno de los dos tiene las 3 monedas. Sea
X el n umero de volados requeridos para que el juego se acabe.
a)Cual es la funcion de densidad de X?.
b)Cual es la probabilidad de que B gane el juego?.
Esperanza de v.a.s discretas y continuas
Sea X una v.a. discreta con valores {x
1
, x
2
, . . .} y funcion de
densidad f (x) := P(X = x
i
).
Si se cumple

i
|x
i
|f (x
i
) < (1)
denimos la Esperanza de X como
EX :=

i
x
i
f (x
i
) (2)
Esperanza de v.a.s discretas y continuas
Sea X una v.a. discreta con valores {x
1
, x
2
, . . .} y funcion de
densidad f (x) := P(X = x
i
).
Si se cumple

i
|x
i
|f (x
i
) < (1)
denimos la Esperanza de X como
EX :=

i
x
i
f (x
i
) (2)
Esperanza de v.a.s discretas y continuas
Sea X una v.a. discreta con valores {x
1
, x
2
, . . .} y funcion de
densidad f (x) := P(X = x
i
).
Si se cumple

i
|x
i
|f (x
i
) < (1)
denimos la Esperanza de X como
EX :=

i
x
i
f (x
i
) (2)
Sea X una v.a. absolutamente continua con densidad f : R R.
Si
_

|x|f (x)dx < , (3)


entonces la esperanza de X se dene como
EX :=
_

xf (x)dx (4)
Sea X una v.a. absolutamente continua con densidad f : R R.
Si
_

|x|f (x)dx < , (3)


entonces la esperanza de X se dene como
EX :=
_

xf (x)dx (4)
Sea X una v.a. absolutamente continua con densidad f : R R.
Si
_

|x|f (x)dx < , (3)


entonces la esperanza de X se dene como
EX :=
_

xf (x)dx (4)
Denicion.
L
1
L
1
(, F, P) = familia de v.a.s sobre (, F, P) que satisfacen
(1) 0 (3) (i.e. con esperanza nita)
Ejemplo.
Sea X una v.a. continua con densidad de Cauchy
f (X) =
1
(1 + x
2
)
x R
De (3):
_

|x|
1
(1 + x
2
)
dx =
1

_

0
2x
1 + x
2
dx =
1

ln u
_

1
=
Como (3) no se cumple, X / L
1
Denicion.
L
1
L
1
(, F, P) = familia de v.a.s sobre (, F, P) que satisfacen
(1) 0 (3) (i.e. con esperanza nita)
Ejemplo.
Sea X una v.a. continua con densidad de Cauchy
f (X) =
1
(1 + x
2
)
x R
De (3):
_

|x|
1
(1 + x
2
)
dx =
1

_

0
2x
1 + x
2
dx =
1

ln u
_

1
=
Como (3) no se cumple, X / L
1
Denicion.
L
1
L
1
(, F, P) = familia de v.a.s sobre (, F, P) que satisfacen
(1) 0 (3) (i.e. con esperanza nita)
Ejemplo.
Sea X una v.a. continua con densidad de Cauchy
f (X) =
1
(1 + x
2
)
x R
De (3):
_

|x|
1
(1 + x
2
)
dx =
1

_

0
2x
1 + x
2
dx =
1

ln u
_

1
=
Como (3) no se cumple, X / L
1
Denicion.
L
1
L
1
(, F, P) = familia de v.a.s sobre (, F, P) que satisfacen
(1) 0 (3) (i.e. con esperanza nita)
Ejemplo.
Sea X una v.a. continua con densidad de Cauchy
f (X) =
1
(1 + x
2
)
x R
De (3):
_

|x|
1
(1 + x
2
)
dx =
1

_

0
2x
1 + x
2
dx =
1

ln u
_

1
=
Como (3) no se cumple, X / L
1
Ejemplo.
Sea X con valores en el conjunto {1, 2, . . .}, y con funcion de
densidad
f (x) = P(X = x) = 1/2
x
x 1
. Encuentre EX
EX =

x=1
xf (x) =

x=1
x/2
x
= 2
Ejemplo.
Sea X continua con funcion de densidad f (x) = 2x, para
0 < x < 1. Encuentre EX.
EX =
_

xf (x)dx =
_
1
0
x2xdx =
2x
2
3
_
1
0
= 2/3
Ejemplo.
Sea X con valores en el conjunto {1, 2, . . .}, y con funcion de
densidad
f (x) = P(X = x) = 1/2
x
x 1
. Encuentre EX
EX =

x=1
xf (x) =

x=1
x/2
x
= 2
Ejemplo.
Sea X continua con funcion de densidad f (x) = 2x, para
0 < x < 1. Encuentre EX.
EX =
_

xf (x)dx =
_
1
0
x2xdx =
2x
2
3
_
1
0
= 2/3
Ejemplo.
Sea X con valores en el conjunto {1, 2, . . .}, y con funcion de
densidad
f (x) = P(X = x) = 1/2
x
x 1
. Encuentre EX
EX =

x=1
xf (x) =

x=1
x/2
x
= 2
Ejemplo.
Sea X continua con funcion de densidad f (x) = 2x, para
0 < x < 1. Encuentre EX.
EX =
_

xf (x)dx =
_
1
0
x2xdx =
2x
2
3
_
1
0
= 2/3
Ejemplo.
Sea X con valores en el conjunto {1, 2, . . .}, y con funcion de
densidad
f (x) = P(X = x) = 1/2
x
x 1
. Encuentre EX
EX =

x=1
xf (x) =

x=1
x/2
x
= 2
Ejemplo.
Sea X continua con funcion de densidad f (x) = 2x, para
0 < x < 1. Encuentre EX.
EX =
_

xf (x)dx =
_
1
0
x2xdx =
2x
2
3
_
1
0
= 2/3
Ejemplo.
Sea X con valores en el conjunto {1, 2, . . .}, y con funcion de
densidad
f (x) = P(X = x) = 1/2
x
x 1
. Encuentre EX
EX =

x=1
xf (x) =

x=1
x/2
x
= 2
Ejemplo.
Sea X continua con funcion de densidad f (x) = 2x, para
0 < x < 1. Encuentre EX.
EX =
_

xf (x)dx =
_
1
0
x2xdx =
2x
2
3
_
1
0
= 2/3
Propiedades de la Esperanza
Proposicion.
Sean X y Y v.a.s en L
1
, y sea c una constante. Entonces
1 E(c) = c
2 E(cX) = cEX
3 Si X 0, entonces EX 0
4 Si X Y, entonces EX EY.
5 E(X + Y) = EX + EY.
La esperanza de una funci on de la v.a. X
Sea X una v.a. y h : R R una funcion de Borel tal que h(X)
esta en L
1
; es decir

i
|h(x
i
)|f (x
i
) < o
_

|h(x)|f (x)dx < (5)


si X es discreta o continua, respectivamente.En tal caso la
esperanza de h(X) se dene como:
Eh(X) :=

i
h(x
i
)f (x
i
) si X es discreta
Eh(X) :=
_

h(x)f (x)dx si X es continua


La esperanza de una funci on de la v.a. X
Sea X una v.a. y h : R R una funcion de Borel tal que h(X)
esta en L
1
; es decir

i
|h(x
i
)|f (x
i
) < o
_

|h(x)|f (x)dx < (5)


si X es discreta o continua, respectivamente.
En tal caso la
esperanza de h(X) se dene como:
Eh(X) :=

i
h(x
i
)f (x
i
) si X es discreta
Eh(X) :=
_

h(x)f (x)dx si X es continua


La esperanza de una funci on de la v.a. X
Sea X una v.a. y h : R R una funcion de Borel tal que h(X)
esta en L
1
; es decir

i
|h(x
i
)|f (x
i
) < o
_

|h(x)|f (x)dx < (5)


si X es discreta o continua, respectivamente.En tal caso la
esperanza de h(X) se dene como:
Eh(X) :=

i
h(x
i
)f (x
i
) si X es discreta
Eh(X) :=
_

h(x)f (x)dx si X es continua


La esperanza de una funci on de la v.a. X
Sea X una v.a. y h : R R una funcion de Borel tal que h(X)
esta en L
1
; es decir

i
|h(x
i
)|f (x
i
) < o
_

|h(x)|f (x)dx < (5)


si X es discreta o continua, respectivamente.En tal caso la
esperanza de h(X) se dene como:
Eh(X) :=

i
h(x
i
)f (x
i
) si X es discreta
Eh(X) :=
_

h(x)f (x)dx si X es continua


La esperanza de una funci on de la v.a. X
Sea X una v.a. y h : R R una funcion de Borel tal que h(X)
esta en L
1
; es decir

i
|h(x
i
)|f (x
i
) < o
_

|h(x)|f (x)dx < (5)


si X es discreta o continua, respectivamente.En tal caso la
esperanza de h(X) se dene como:
Eh(X) :=

i
h(x
i
)f (x
i
) si X es discreta
Eh(X) :=
_

h(x)f (x)dx si X es continua


Casos especiales
(a) Si h(x) = x
k
para alg un k > 0, a la esperanza
Eh(X) = E(X
k
) se le llama momento de orden k de
X.Ademas, en lugar de decir que X
k
esta en L
1
diremos que
X esta en L
k
L
K
(, F, P). Para k = 1, el momento de
orden 1 de X coincide con la esperanza de X.
(b) Sea m
X
:= EX y sea h(x) := (x m
X
)
k
. Entonces,
suponiendo que (5) se cumple,
Eh(X) := E(X m
X
)
k
se llama momento central de orden k de la v.a. X.En
particular, para k = 2 se llama la varianza de X y se denota
por Var (X) o
2
X
, es decir
Var (X)
2
X
= E(X m
X
)
2
. (6)
Casos especiales
(a) Si h(x) = x
k
para alg un k > 0, a la esperanza
Eh(X) = E(X
k
) se le llama momento de orden k de
X.
Ademas, en lugar de decir que X
k
esta en L
1
diremos que
X esta en L
k
L
K
(, F, P). Para k = 1, el momento de
orden 1 de X coincide con la esperanza de X.
(b) Sea m
X
:= EX y sea h(x) := (x m
X
)
k
. Entonces,
suponiendo que (5) se cumple,
Eh(X) := E(X m
X
)
k
se llama momento central de orden k de la v.a. X.En
particular, para k = 2 se llama la varianza de X y se denota
por Var (X) o
2
X
, es decir
Var (X)
2
X
= E(X m
X
)
2
. (6)
Casos especiales
(a) Si h(x) = x
k
para alg un k > 0, a la esperanza
Eh(X) = E(X
k
) se le llama momento de orden k de
X.Ademas, en lugar de decir que X
k
esta en L
1
diremos que
X esta en L
k
L
K
(, F, P).
Para k = 1, el momento de
orden 1 de X coincide con la esperanza de X.
(b) Sea m
X
:= EX y sea h(x) := (x m
X
)
k
. Entonces,
suponiendo que (5) se cumple,
Eh(X) := E(X m
X
)
k
se llama momento central de orden k de la v.a. X.En
particular, para k = 2 se llama la varianza de X y se denota
por Var (X) o
2
X
, es decir
Var (X)
2
X
= E(X m
X
)
2
. (6)
Casos especiales
(a) Si h(x) = x
k
para alg un k > 0, a la esperanza
Eh(X) = E(X
k
) se le llama momento de orden k de
X.Ademas, en lugar de decir que X
k
esta en L
1
diremos que
X esta en L
k
L
K
(, F, P). Para k = 1, el momento de
orden 1 de X coincide con la esperanza de X.
(b) Sea m
X
:= EX y sea h(x) := (x m
X
)
k
. Entonces,
suponiendo que (5) se cumple,
Eh(X) := E(X m
X
)
k
se llama momento central de orden k de la v.a. X.En
particular, para k = 2 se llama la varianza de X y se denota
por Var (X) o
2
X
, es decir
Var (X)
2
X
= E(X m
X
)
2
. (6)
Casos especiales
(a) Si h(x) = x
k
para alg un k > 0, a la esperanza
Eh(X) = E(X
k
) se le llama momento de orden k de
X.Ademas, en lugar de decir que X
k
esta en L
1
diremos que
X esta en L
k
L
K
(, F, P). Para k = 1, el momento de
orden 1 de X coincide con la esperanza de X.
(b) Sea m
X
:= EX y sea h(x) := (x m
X
)
k
. Entonces,
suponiendo que (5) se cumple,
Eh(X) := E(X m
X
)
k
se llama momento central de orden k de la v.a. X.
En
particular, para k = 2 se llama la varianza de X y se denota
por Var (X) o
2
X
, es decir
Var (X)
2
X
= E(X m
X
)
2
. (6)
Casos especiales
(a) Si h(x) = x
k
para alg un k > 0, a la esperanza
Eh(X) = E(X
k
) se le llama momento de orden k de
X.Ademas, en lugar de decir que X
k
esta en L
1
diremos que
X esta en L
k
L
K
(, F, P). Para k = 1, el momento de
orden 1 de X coincide con la esperanza de X.
(b) Sea m
X
:= EX y sea h(x) := (x m
X
)
k
. Entonces,
suponiendo que (5) se cumple,
Eh(X) := E(X m
X
)
k
se llama momento central de orden k de la v.a. X.En
particular, para k = 2 se llama la varianza de X y se denota
por Var (X) o
2
X
, es decir
Var (X)
2
X
= E(X m
X
)
2
. (6)
La varianza
La varianza de una v.a. es una medida del grado de dispersion de
los diferentes valores tomados por la variable.
Denicion. (Varianza)
La varianza de una v.a. X, denotada por Var (X), se dene como
Var (X) := E[X EX]
2
= E(X )
2
donde = EX
En el caso discreto
Var (X) =

x
(x )
2
f (x)
En el caso continuo
Var (X) =
_

(x )
2
f (x)dx
La varianza
La varianza de una v.a. es una medida del grado de dispersion de
los diferentes valores tomados por la variable.
Denicion. (Varianza)
La varianza de una v.a. X, denotada por Var (X), se dene como
Var (X) := E[X EX]
2
= E(X )
2
donde = EX
En el caso discreto
Var (X) =

x
(x )
2
f (x)
En el caso continuo
Var (X) =
_

(x )
2
f (x)dx
La varianza
La varianza de una v.a. es una medida del grado de dispersion de
los diferentes valores tomados por la variable.
Denicion. (Varianza)
La varianza de una v.a. X, denotada por Var (X), se dene como
Var (X) := E[X EX]
2
= E(X )
2
donde = EX
En el caso discreto
Var (X) =

x
(x )
2
f (x)
En el caso continuo
Var (X) =
_

(x )
2
f (x)dx
La varianza
La varianza de una v.a. es una medida del grado de dispersion de
los diferentes valores tomados por la variable.
Denicion. (Varianza)
La varianza de una v.a. X, denotada por Var (X), se dene como
Var (X) := E[X EX]
2
= E(X )
2
donde = EX
En el caso discreto
Var (X) =

x
(x )
2
f (x)
En el caso continuo
Var (X) =
_

(x )
2
f (x)dx
Notaci on
La varianza se denota regularmente por el smbolo
2
.
A la raz cuadrada positiva de Var (X) se le llama desviacion
estandar, y se le denota por
Teorema.
Si X es una v.a., entonces
Var (X) =
2
= E(X )
2
= E(X
2
)
2
Notaci on
La varianza se denota regularmente por el smbolo
2
.
A la raz cuadrada positiva de Var (X) se le llama desviacion
estandar, y se le denota por
Teorema.
Si X es una v.a., entonces
Var (X) =
2
= E(X )
2
= E(X
2
)
2
Distribucion Poisson
Para encontrar la distribucion de probabilidad del n umero de
sucesos en un intervalo de tiempo o en alguna region, usando
Poisson, necesitamos que se cumplan las siguientes condiciones:
1 El intervalo de tiempo (o la region) se pueden dividir en
subintervalos (subregiones) muy peque nos, de manera que la
probabilidad de que ocurra mas de un resultado en tal
intervalo corto o region peque na es insignicante
2 El n umero de resultados que ocurren en un intervalo o region
es independiente del n umero que ocurre en cualquier otro
intervalo o region.
3 La probabilidad de que ocurra un solo resultado durante un
intervalo muy corto o una region muy peque na es proporcional
a la longitud del intervalo o region.
Distribucion Poisson
Para encontrar la distribucion de probabilidad del n umero de
sucesos en un intervalo de tiempo o en alguna region, usando
Poisson, necesitamos que se cumplan las siguientes condiciones:
1 El intervalo de tiempo (o la region) se pueden dividir en
subintervalos (subregiones) muy peque nos, de manera que la
probabilidad de que ocurra mas de un resultado en tal
intervalo corto o region peque na es insignicante
2 El n umero de resultados que ocurren en un intervalo o region
es independiente del n umero que ocurre en cualquier otro
intervalo o region.
3 La probabilidad de que ocurra un solo resultado durante un
intervalo muy corto o una region muy peque na es proporcional
a la longitud del intervalo o region.
Distribucion Poisson
Para encontrar la distribucion de probabilidad del n umero de
sucesos en un intervalo de tiempo o en alguna region, usando
Poisson, necesitamos que se cumplan las siguientes condiciones:
1 El intervalo de tiempo (o la region) se pueden dividir en
subintervalos (subregiones) muy peque nos, de manera que la
probabilidad de que ocurra mas de un resultado en tal
intervalo corto o region peque na es insignicante
2 El n umero de resultados que ocurren en un intervalo o region
es independiente del n umero que ocurre en cualquier otro
intervalo o region.
3 La probabilidad de que ocurra un solo resultado durante un
intervalo muy corto o una region muy peque na es proporcional
a la longitud del intervalo o region.
Distribucion Poisson
Para encontrar la distribucion de probabilidad del n umero de
sucesos en un intervalo de tiempo o en alguna region, usando
Poisson, necesitamos que se cumplan las siguientes condiciones:
1 El intervalo de tiempo (o la region) se pueden dividir en
subintervalos (subregiones) muy peque nos, de manera que la
probabilidad de que ocurra mas de un resultado en tal
intervalo corto o region peque na es insignicante
2 El n umero de resultados que ocurren en un intervalo o region
es independiente del n umero que ocurre en cualquier otro
intervalo o region.
3 La probabilidad de que ocurra un solo resultado durante un
intervalo muy corto o una region muy peque na es proporcional
a la longitud del intervalo o region.
Distribuci on Poisson
Observacion.
Si es el valor promedio de Y, entonces dividimos un intervalo
(o region) en n subintervalos de modo que en cada uno de ellos
solo pueda suceder a lo mas un resultado, entonces cada
subintervalo tendra una probabilidad de p = /n y asi la
distribucion de probabilidad del n umero de sucesos en el intervalo
de tiempo sigue una distribucion binomial, pero en donde n (el
n umero de subintervalos o subregiones) es muy grande, de donde
p(y) = lm
n
_
n
y
_
p
y
(1 p)
ny
=

y
e

y!
donde p es la probabilidad de que el evento suceda y = np
Distribuci on Poisson
Denicion.
La variable aleatoria Y se dice que tiene una distribucion de
probabilidad Poisson si y solo si
p(y) =

y
e

y!
y = 0, 1, 2, . . . , > 0
Ejemplo.
Sea Y Poisson(2). Encuentre
1 P(Y = 4)
2 P(Y 4)
3 P(Y < 4)
4 P(Y 4|Y 2)
Sol. 1)0,090, 2)0,143, 3)0,857, 4)0,241
Distribuci on Poisson
Denicion.
La variable aleatoria Y se dice que tiene una distribucion de
probabilidad Poisson si y solo si
p(y) =

y
e

y!
y = 0, 1, 2, . . . , > 0
Ejemplo.
Sea Y Poisson(2). Encuentre
1 P(Y = 4)
2 P(Y 4)
3 P(Y < 4)
4 P(Y 4|Y 2)
Sol. 1)0,090, 2)0,143, 3)0,857, 4)0,241
Distribuci on Poisson
Denicion.
La variable aleatoria Y se dice que tiene una distribucion de
probabilidad Poisson si y solo si
p(y) =

y
e

y!
y = 0, 1, 2, . . . , > 0
Ejemplo.
Sea Y Poisson(2). Encuentre
1 P(Y = 4)
2 P(Y 4)
3 P(Y < 4)
4 P(Y 4|Y 2)
Sol. 1)0,090, 2)0,143, 3)0,857, 4)0,241
Distribuci on Poisson
Ejemplo.
Los clientes llegan al mostrador de una tienda departamental de
acuerdo con la distribucion de Poisson con una frecuencia
promedio de siete por hora. En una hora determinada, calcule las
probabilidades de que:
1 no lleguen mas de tres clientes
2 por lo menos lleguen dos compradores
3 lleguen exactamente cinco clientes.
Sol. 1)0,082, 2)0,930, 3)0,128
Ejemplo.
Suponga que Y posee una distribucion binomial con n = 20 y
p = 0,1. Determine P(Y 3). Aproxime esta probabilidad
mediante una Poisson. Sol. Bin. 0,867; Poisson 0,857 Dif. 0,01
Distribuci on Poisson
Ejemplo.
Los clientes llegan al mostrador de una tienda departamental de
acuerdo con la distribucion de Poisson con una frecuencia
promedio de siete por hora. En una hora determinada, calcule las
probabilidades de que:
1 no lleguen mas de tres clientes
2 por lo menos lleguen dos compradores
3 lleguen exactamente cinco clientes.
Sol. 1)0,082, 2)0,930, 3)0,128
Ejemplo.
Suponga que Y posee una distribucion binomial con n = 20 y
p = 0,1. Determine P(Y 3). Aproxime esta probabilidad
mediante una Poisson. Sol. Bin. 0,867; Poisson 0,857 Dif. 0,01
Distribuci on Poisson
Ejemplo.
Los clientes llegan al mostrador de una tienda departamental de
acuerdo con la distribucion de Poisson con una frecuencia
promedio de siete por hora. En una hora determinada, calcule las
probabilidades de que:
1 no lleguen mas de tres clientes
2 por lo menos lleguen dos compradores
3 lleguen exactamente cinco clientes.
Sol. 1)0,082, 2)0,930, 3)0,128
Ejemplo.
Suponga que Y posee una distribucion binomial con n = 20 y
p = 0,1. Determine P(Y 3). Aproxime esta probabilidad
mediante una Poisson.
Sol. Bin. 0,867; Poisson 0,857 Dif. 0,01
Distribuci on Poisson
Ejemplo.
Los clientes llegan al mostrador de una tienda departamental de
acuerdo con la distribucion de Poisson con una frecuencia
promedio de siete por hora. En una hora determinada, calcule las
probabilidades de que:
1 no lleguen mas de tres clientes
2 por lo menos lleguen dos compradores
3 lleguen exactamente cinco clientes.
Sol. 1)0,082, 2)0,930, 3)0,128
Ejemplo.
Suponga que Y posee una distribucion binomial con n = 20 y
p = 0,1. Determine P(Y 3). Aproxime esta probabilidad
mediante una Poisson. Sol. Bin. 0,867; Poisson 0,857 Dif. 0,01
Distribuci on Poisson
Teorema.
Si Y es una v.a. Poisson con parametro , entonces
= E(Y) = y
2
= Var (Y) =
Tarea:Distribucion Poisson
1 Si X se distribuye Poisson, obtenga las siguientes probabilidades:
a)P(X 4); b)P(X 6); c)P(2 < X 6); d)P(X 6|X 3).
Con 1) = 0,6 y con 2) = 15.
2 La cantidad de veces que se equivoca una mecanografa tiene una distribucion de Poisson con un promedio
de cuatro errores por cuartilla; si excede este n umero, debe volver a mecanograar la pagina completa.
Que probabilidad hay de que no necesite repetirla?.
3 El n umero de defectos Y por pie en la producci on de cierto tipo de cuerda tiene una distribucion de
Poisson con media = 2. La utilidad por pie que se obtienen al venderla esta representada por X, donde
X = 50 2Y Y
2
. Calcule la utilidad esperada por pie.
4 Suponga que el n umero de pasajeros que documenta su equipaje en cierta lnea aerea se puede modelar
como una variable aleatoria Poisson y que en promedio 12 pasajeros por hora documenta su equipaje en
esta lnea.
1) Obtenga la probabilidad de que entre las 8 a.m. y las 9 a.m. mas de 6 pasajeros documenten su equipaje
en esta lnea, si ya han documentado su equipaje al menos 4.
2) Si el costo por hora de documentar equipaje por la lnea aerea esta dado por C = 800 X
2
Obtenga el
costo esperado y la varianza del costo.
3) PREGUNTA DE OPCI

ON M

ULTIPLE
Cual es la probabilidad de que entre las 10 a.m. y las 10 : 30 a.m. mas de 3 pasajeros documente su
equipaje en esta lnea?
a)0,849 b)0,735 c)0,151 d)Ninguna de las anteriores
5 Suponga que el n umero de accidentes fatales de automovil, en cierta zona de la ciudad, obedece una
distribucion de Poisson con un promedio de un accidente por da. Cual es la probabilidad de que haya mas
de 10 accidentes en una semana?.
Sol. 2)0,6288, 3)40, 5)0,0985
Tarea Poisson adicional
1 Use la aproximacion Poisson para calcular:
a) La probabilidad de que a lo mas 2 de 50 tengan licencia vencida, si usualmente 5 % de las personas
tienen vencida su licencia.
b) La probabilidad de que una caja de 100 fusibles tengan a lo mas 2 fusibles defectuosos si se sabe que el
3 % de los fusibles fabricados sean defectuosos.
2 Si X es una v.a. con distribuci on Poisson para la cual P(X = 0) = P(X = 1), cual es el valor de ?.
3 Un vendedor ha encontrado que el n umero de artculos de la marca ABC que puede vender en un da es
una v.a. Poisson(4).
a) Construya una graca de la fdp correspondiente,
b) Cuantos artculos de la marca ABC debe tener el vendedor para estar 95 % seguro de que tiene los
sucientes artculos para que le duren 5 das?.
4 Una compa na de seguros encontro que el 0,005 % de las personas en un pas, mueren por cierto tipo de
accidente cada a no. Cual es la probabilidad de que la compa na tenga que pagar a mas de tres de un total
de 10000 asegurados debido a este accidente en un a no?. Calcule la probabilidad exacta y tambien en
forma aproximada.
5 La deciencia de celulas rojas en la sangre se puede determinar examinando una muestra de sangre en el
microscopio. Suponga que en las personas normales una muestra de volumen especco de sangre contiene
en promedio 20 celulas rojas. Cual es la probabilidad de que para una persona normal, una muestra de
sangre pueda contener menos de 15 celulas rojas?
Sol. 1)a) : X Poisson(2,5); P(X 2) = 0,543813; b) : X Poisson(3); P(X 2) = 0,4231
2) : = 1
3) : X Poisson(20), P(X x) = 0,95.
4) : X Bin(10000, 0,00005); P(X > 3) = 0,00175083; aprox.X Poisson(1/2); P(X > 3) = 0,00175162
5) : X Poisson(20); P(X < 15) = 0,104864
Tarea: de todo un poco
1 Se formo un jurado de seis personas de un grupo de 20 posibles miembros, de los cuales 8 eran mujeres y
12 eran hombres. El jurado se selecciono aleatoriamente, pero solo contena a una mujer. Tiene usted
alg un motivo para dudar de la aleatoriedad en la selecci on?.
2 El Centro de Computo de una Universidad muy reconocida tiene 300 pcs para el uso diario de los
estudiantes. La probabilidad de que alguna pc requiera servicio un determinado da es 0,015. Cual es la
probabilidad de que en un da
a) a lo mas dos terminales requieran servicio? b) por lo menos cinco terminales requieran servicio? c) tres
requieran servicio?
Para cada uno de los incisos anteriores obtenga la probalidad en forma exacta y tambien en forma
aproximada
Sol.1) : P(Unamujer ) =

8
1

12
5

20
6

= 0,1634
Distribuci on Geometrica
Denicion.
Un experimento es geometrico si tiene
1 Ensayos identicos e independientes
2 Cada ensayo tiene uno de dos posibles resultados:exito (E) o
frcaso (F).
3 P(E) = p; P(F) = 1 p = q
4 La v.a. geometrica es el n umero del ensayo en que ocurre el
primer exito. Y : 1, 2, 3, . . .
p(y) = P(Y = y) = P(FF . . . FE) = q q . . . qp = q
y1
p
Denicion.
Una v.a. Y tiene una distribucion de probabilidad geometrica ssi
p(y) = q
y1
p, y = 1, 2, 3, . . . , 0 p 1
En algunos textos utilizan p(y) = pq
y
, y = 0, 1, 2, . . .
Distribuci on Geometrica
Denicion.
Un experimento es geometrico si tiene
1 Ensayos identicos e independientes
2 Cada ensayo tiene uno de dos posibles resultados:exito (E) o
frcaso (F).
3 P(E) = p; P(F) = 1 p = q
4 La v.a. geometrica es el n umero del ensayo en que ocurre el
primer exito. Y : 1, 2, 3, . . .
p(y) = P(Y = y) = P(FF . . . FE) = q q . . . qp = q
y1
p
Denicion.
Una v.a. Y tiene una distribucion de probabilidad geometrica ssi
p(y) = q
y1
p, y = 1, 2, 3, . . . , 0 p 1
En algunos textos utilizan p(y) = pq
y
, y = 0, 1, 2, . . .
Distribuci on Geometrica
Denicion.
Un experimento es geometrico si tiene
1 Ensayos identicos e independientes
2 Cada ensayo tiene uno de dos posibles resultados:exito (E) o
frcaso (F).
3 P(E) = p; P(F) = 1 p = q
4 La v.a. geometrica es el n umero del ensayo en que ocurre el
primer exito. Y : 1, 2, 3, . . .
p(y) = P(Y = y) = P(FF . . . FE) = q q . . . qp = q
y1
p
Denicion.
Una v.a. Y tiene una distribucion de probabilidad geometrica ssi
p(y) = q
y1
p, y = 1, 2, 3, . . . , 0 p 1
En algunos textos utilizan p(y) = pq
y
, y = 0, 1, 2, . . .
Distribuci on Geometrica
Denicion.
Un experimento es geometrico si tiene
1 Ensayos identicos e independientes
2 Cada ensayo tiene uno de dos posibles resultados:exito (E) o
frcaso (F).
3 P(E) = p; P(F) = 1 p = q
4 La v.a. geometrica es el n umero del ensayo en que ocurre el
primer exito. Y : 1, 2, 3, . . .
p(y) = P(Y = y) = P(FF . . . FE) = q q . . . qp = q
y1
p
Denicion.
Una v.a. Y tiene una distribucion de probabilidad geometrica ssi
p(y) = q
y1
p, y = 1, 2, 3, . . . , 0 p 1
En algunos textos utilizan p(y) = pq
y
, y = 0, 1, 2, . . .
Distribuci on Geometrica
Denicion.
Un experimento es geometrico si tiene
1 Ensayos identicos e independientes
2 Cada ensayo tiene uno de dos posibles resultados:exito (E) o
frcaso (F).
3 P(E) = p; P(F) = 1 p = q
4 La v.a. geometrica es el n umero del ensayo en que ocurre el
primer exito. Y : 1, 2, 3, . . .
p(y) = P(Y = y) = P(FF . . . FE) = q q . . . qp = q
y1
p
Denicion.
Una v.a. Y tiene una distribucion de probabilidad geometrica ssi
p(y) = q
y1
p, y = 1, 2, 3, . . . , 0 p 1
En algunos textos utilizan p(y) = pq
y
, y = 0, 1, 2, . . .
Distribuci on Geometrica
Denicion.
Un experimento es geometrico si tiene
1 Ensayos identicos e independientes
2 Cada ensayo tiene uno de dos posibles resultados:exito (E) o
frcaso (F).
3 P(E) = p; P(F) = 1 p = q
4 La v.a. geometrica es el n umero del ensayo en que ocurre el
primer exito. Y : 1, 2, 3, . . .
p(y) = P(Y = y) = P(FF . . . FE) = q q . . . qp = q
y1
p
Denicion.
Una v.a. Y tiene una distribucion de probabilidad geometrica ssi
p(y) = q
y1
p, y = 1, 2, 3, . . . , 0 p 1
En algunos textos utilizan p(y) = pq
y
, y = 0, 1, 2, . . .
distribuci on Geometrica
p(y) es una distribucion de probabilidad. En efecto:
1 p(y) 0
2

y
p(y) =

y=1
q
y1
p = p

y=1
q
y1
= p

y=0
q
y
= p
1
1 q
= 1
Ejemplo.
Suponga que la probabilidad de que falle un motor durante
cualquier periodo de una hora es p = 0,02. Encuentre la
probabilidad de que un motor funcione bien durante dos horas (i.e.
falle a partir de la tercer hora)
Sol. P(Y 3) = 0,9604
Distribuci on Geometrica
Teorema.
Si Y es una v.a. con distribucion geometrica,
E(Y) =
1
p
y V(Y) =
1 p
p
2
Ejemplo.
Si la probabilidad de que un motor falle en el intervalo de una hora
es de p = 0,02, y si Y denota el n umero de intervalos que
transcurren hasta la primera falla, encuentre la media, la varianza y
desviacion estandar de Y.
E(Y) = 50, V(Y) = 2450, = 49,497
Distribuci on Geometrica
Teorema.
Si Y es una v.a. con distribucion geometrica,
E(Y) =
1
p
y V(Y) =
1 p
p
2
Ejemplo.
Si la probabilidad de que un motor falle en el intervalo de una hora
es de p = 0,02, y si Y denota el n umero de intervalos que
transcurren hasta la primera falla, encuentre la media, la varianza y
desviacion estandar de Y.
E(Y) = 50, V(Y) = 2450, = 49,497
Distribuci on Geometrica
Teorema.
Si Y es una v.a. con distribucion geometrica,
E(Y) =
1
p
y V(Y) =
1 p
p
2
Ejemplo.
Si la probabilidad de que un motor falle en el intervalo de una hora
es de p = 0,02, y si Y denota el n umero de intervalos que
transcurren hasta la primera falla, encuentre la media, la varianza y
desviacion estandar de Y.
E(Y) = 50, V(Y) = 2450, = 49,497
Tarea: Distribuci on geometrica
1 Suponga que x Geo(p). Encuentre la probabilidad de cada uno de los siguientes eventos.
a) {X > 3}; b){4 < X 7} {X > 9}; c){3 X 5} {4 X 10};d) {X > 7} si se sabe
que {X > 4}.
1. si p = 0,8 y 2. si P = 0,3
Sol. 1a)0,0016, 1b)0,0003971, 1c)0,00953, 1d)0,008; 2a)0,2401, 2b)0,13866, 2c)0,44567, 2d)0,343
2 Sea Y una v.a. geometrica con una probabilidad de exito p. a) Demuestre que para un entero positivo a,
P(Y > a) = q
a
. b) Demuestre que para los enteros positivos a y b,
P(Y > a + b|Y > a) = q
b
= P(Y > b). A este resultado se le conoce como perdida de memoria de la
distribucion geometrica
La Binomial Negativa
La distribucion binomial negativa surge de un contexto semejante
al que conduce a la distribucion geometrica.
1 Se tienen ensayos identicos e independientes,
2 Cada ensayo tiene uno de dos posibles resultados:

Exito o
Fracaso,
3 P(E) = p y P(F) = 1 p := q en cada ensayo,
4 La variable aleatoria de interes Y, es el n umero del ensayo en
que ocurre el r -esimo exito.
Sean
A = {los primeros (y 1) ensayos contienen (r 1) exitos} y
B = {el ensayo y da como resultado un exito}
P(Y = y) = P(A B) = P(A) P(B)
=
_
y 1
r 1
_
p
r 1
q
yr
p
=
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . .
Nota: P(A) = 0 si (y 1) < (r 1) o si y < r .
Sean
A = {los primeros (y 1) ensayos contienen (r 1) exitos} y
B = {el ensayo y da como resultado un exito}
P(Y = y) = P(A B) = P(A) P(B)
=
_
y 1
r 1
_
p
r 1
q
yr
p
=
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . .
Nota: P(A) = 0 si (y 1) < (r 1) o si y < r .
Sean
A = {los primeros (y 1) ensayos contienen (r 1) exitos} y
B = {el ensayo y da como resultado un exito}
P(Y = y) = P(A B) = P(A) P(B)
=
_
y 1
r 1
_
p
r 1
q
yr
p
=
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . .
Nota: P(A) = 0 si (y 1) < (r 1) o si y < r .
Denicion.
Se dice que una v.a. Y tiene una distribucion de probabilidad
binomial negativa si y solo si
p(y) =
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . , 0 p 1.
Ejemplo.
Un estudio geologico indica que una perforacion de prueba para
localizar petroleo en una determinada region encuentra este con
una probabilidad de 0,2. Encuentre la probabilidad que lo
encuentre por tercera vez al perforar el quinto pozo.
Sol. P(Y = 5) =

4
2

(0,2)
3
(0,8)
2
= 0,0307
Denicion.
Se dice que una v.a. Y tiene una distribucion de probabilidad
binomial negativa si y solo si
p(y) =
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . , 0 p 1.
Ejemplo.
Un estudio geologico indica que una perforacion de prueba para
localizar petroleo en una determinada region encuentra este con
una probabilidad de 0,2. Encuentre la probabilidad que lo
encuentre por tercera vez al perforar el quinto pozo.
Sol. P(Y = 5) =

4
2

(0,2)
3
(0,8)
2
= 0,0307
Denicion.
Se dice que una v.a. Y tiene una distribucion de probabilidad
binomial negativa si y solo si
p(y) =
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . , 0 p 1.
Ejemplo.
Un estudio geologico indica que una perforacion de prueba para
localizar petroleo en una determinada region encuentra este con
una probabilidad de 0,2. Encuentre la probabilidad que lo
encuentre por tercera vez al perforar el quinto pozo.
Sol. P(Y = 5) =

4
2

(0,2)
3
(0,8)
2
= 0,0307
Teorema.
Si Y es una v.a. con distribucion binomial negativa.
E(Y) =
r
p
y V(Y) =
r (1 p)
p
2
Ejemplo.
Un gran almacen de bombas usadas resguarda 20 % de maquinas
descompuestas. Se enva al deposito a una tecnica en
mantenimiento con tres juegos de refacciones. Ella elige
aleatoriamente las bombas, las prueba de una en una, y va
separando las que funcionan. Cuando encuentra alguna que no
funciona, las repara con uno de sus juegos de refacciones. Suponga
que tarda 10 minutos en probar que funciona y 30 minutos en
probar y reparar una bomba averiada. Encuentre la media y la
varianza del tiempo que le toma a la tecnica utilizar sus tres juegos
de refacciones.
Soluci on: Si Y es el n umero de ensayo en que se detecta la
tercera bomba descompuesta, entonces Y BN(0,2). Por lo tanto
E(Y) = 3/0,2 = 15 y V(Y) = 3(0,8)/(0,2)
2
= 60.
Como para
reparar cada bomba se requieren otros 20 min. , el tiempo total
necesario para emplear los tres juegos de refacciones es
T = 10Y + 3(20)
y E(T) = 210 y V(Y) = 6000.
Soluci on: Si Y es el n umero de ensayo en que se detecta la
tercera bomba descompuesta, entonces Y BN(0,2). Por lo tanto
E(Y) = 3/0,2 = 15 y V(Y) = 3(0,8)/(0,2)
2
= 60. Como para
reparar cada bomba se requieren otros 20 min. , el tiempo total
necesario para emplear los tres juegos de refacciones es
T = 10Y + 3(20)
y E(T) = 210 y V(Y) = 6000.
Tarea: Binomial Negativa
1 Suponga que el 10 % de los motores armados en una lnea de montaje estan defectuosos. Si se selecciona
en forma aleatoria uno por uno y se prueba, que probabilidad hay de localizar el primer motor que no
contiene defecto en el segundo ensayo?.
2 Remtase al ejercicio 1. Encuentre la probabilidad de localizar el tercer motor sin defecto: a) en el quinto
ensayo; c) en el quinto ensayo o antes.
3 Remtase al ejecicio 1. Encuentre la media y la varianza del n umero del ensayo en el que se localiza: a) el
primer motor sin defecto; b) el tercer motor que no tiene defecto.
Sol. 1. p(2) =

1
0

(0,9)(0,1) = 0,09; 2a)P(5) =

4
2

(0,9)
3
(0,1)
2
= 0,04374; 2b)p(3) + p(4) + p(5) = 0,99144
3a)E(Y) = 1,11, V(Y) = 0,1234; 3b)E(Y) = 3,33, V(Y) = 0,37
Momentos y funciones generadoras de momentos
Denicion.
El k-esimo momento de una v.a. Y respecto al origen se dene
como E(Y
k
) y se denota mediante

k
.
Observacion.
En particular E(Y) =

1
= y E(Y
2
) =

2
.
Denicion.
El k-esimo momento de una v.a. Y respecto a la media, o el
k-esimo momento central de Y, se dene como E[(Y )
k
] y se
denota
k
.
Momentos y funciones generadoras de momentos
Denicion.
El k-esimo momento de una v.a. Y respecto al origen se dene
como E(Y
k
) y se denota mediante

k
.
Observacion.
En particular E(Y) =

1
= y E(Y
2
) =

2
.
Denicion.
El k-esimo momento de una v.a. Y respecto a la media, o el
k-esimo momento central de Y, se dene como E[(Y )
k
] y se
denota
k
.
Momentos y funciones generadoras de momentos
Denicion.
El k-esimo momento de una v.a. Y respecto al origen se dene
como E(Y
k
) y se denota mediante

k
.
Observacion.
En particular E(Y) =

1
= y E(Y
2
) =

2
.
Denicion.
El k-esimo momento de una v.a. Y respecto a la media, o el
k-esimo momento central de Y, se dene como E[(Y )
k
] y se
denota
k
.
fgm
Denicion.
La funcion generadora de momentos m(t) para una v.a. Y se
dene como m(t) = E(e
tY
). Decimos que existe una funcion
generadora de momentos para Y si hay una constante positiva b
tal que m(t) es nita para |t| b.
Por que E(e
tY
) se llama funcion generadora de momentos (fgm)?
E(e
ty
) =

y
e
ty
p(y) =

y
[1 + ty +
(ty)
2
2!
+. . .]p(y)
=

y
yp(y) + t

y
yp(y) +
t
2
2!

y
y
2
p(y) . . .
= 1 + t

1
+
t
2
2!

2
+. . .
fgm
Denicion.
La funcion generadora de momentos m(t) para una v.a. Y se
dene como m(t) = E(e
tY
). Decimos que existe una funcion
generadora de momentos para Y si hay una constante positiva b
tal que m(t) es nita para |t| b.
Por que E(e
tY
) se llama funcion generadora de momentos (fgm)?
E(e
ty
) =

y
e
ty
p(y) =

y
[1 + ty +
(ty)
2
2!
+. . .]p(y)
=

y
yp(y) + t

y
yp(y) +
t
2
2!

y
y
2
p(y) . . .
= 1 + t

1
+
t
2
2!

2
+. . .
fgm
Teorema.
Si existe m(t), entonces, para cualquier entero positivo k,
d
k
m(t)
dt
_
t=0
= m
(k)
(0) =

k
.
Ejemplo.
Encuentre la funcion generadora de momentos para una v.a. con
distribucion Poisson y media
m(t) = e
(e
t
1)
Ejemplo.
Emplee la funcion generadora de momentos para encontrar la
media y la varianza de la v.a. Poisson.
fgm
Teorema.
Si existe m(t), entonces, para cualquier entero positivo k,
d
k
m(t)
dt
_
t=0
= m
(k)
(0) =

k
.
Ejemplo.
Encuentre la funcion generadora de momentos para una v.a. con
distribucion Poisson y media
m(t) = e
(e
t
1)
Ejemplo.
Emplee la funcion generadora de momentos para encontrar la
media y la varianza de la v.a. Poisson.
fgm
Teorema.
Si existe m(t), entonces, para cualquier entero positivo k,
d
k
m(t)
dt
_
t=0
= m
(k)
(0) =

k
.
Ejemplo.
Encuentre la funcion generadora de momentos para una v.a. con
distribucion Poisson y media
m(t) = e
(e
t
1)
Ejemplo.
Emplee la funcion generadora de momentos para encontrar la
media y la varianza de la v.a. Poisson.
fgm
Teorema.
Si existe m(t), entonces, para cualquier entero positivo k,
d
k
m(t)
dt
_
t=0
= m
(k)
(0) =

k
.
Ejemplo.
Encuentre la funcion generadora de momentos para una v.a. con
distribucion Poisson y media
m(t) = e
(e
t
1)
Ejemplo.
Emplee la funcion generadora de momentos para encontrar la
media y la varianza de la v.a. Poisson.
fgm
Observacion.
La principal aplicacion de una fgm consiste en demostrar que una
v.a. posee una distribucion de probabilidad particular p(y). Si m(t)
existe para una distribucion de probabilidad p(y), entonces es
unica. Asimismo, si las funciones generadoras de momentos de dos
v.a.s Y y Zson iguales (para |t| b, b > 0), entonces Y y Z
deben tener la misma distribucion de probabilidades.
Ejemplo.
Supongamos que Y es una v.a. con fgm m
Y
(t) = e
3,2(e
t1
)
. Cual
es la distribucion de Y?.
Sol. Y Poisson(3,2)
fgm
Observacion.
La principal aplicacion de una fgm consiste en demostrar que una
v.a. posee una distribucion de probabilidad particular p(y). Si m(t)
existe para una distribucion de probabilidad p(y), entonces es
unica. Asimismo, si las funciones generadoras de momentos de dos
v.a.s Y y Zson iguales (para |t| b, b > 0), entonces Y y Z
deben tener la misma distribucion de probabilidades.
Ejemplo.
Supongamos que Y es una v.a. con fgm m
Y
(t) = e
3,2(e
t1
)
. Cual
es la distribucion de Y?. Sol. Y Poisson(3,2)
Tarea: fgm
1 Si Y tiene una distribucion binomial con n ensayos y una probabilidad de exito p, demuestre que la funci on
generadora de momentos para Y es m(t) = (pe
t
+ q)
n
, q = 1 p
2 Utilice la fgm del ejercicio 1 para encontrar E(Y), E(Y
2
) y V(Y).
3 Si Y posee una distribucion geometrica con probabilidad de exito p, demuestre que la funci on generadora
de momentos para Y es m(t) =
pe
t
1qe
t
q = 1 p
4 Utilice la fgm del ejercicio 3 para encontrar E(Y), E(Y
2
) y V(Y).
5 Aplique la unicidad de las funciones generadoras de momentos para obtener la distribucion de una variable
aleatoria con funci on generadora de momentos m(t) = (0,6e
t
+ 0,4)
3
6 Aplique la unicidad de las funciones generadoras de momentos para obtener la distribucion de una variable
aleatoria con funci on generadora de momentos m(t) =
0,3e
t
10,7e
t
7 Encuentre las dsitribuciones de las variables que poseen cada una de las siguientes funciones generadoras
de momentos: a)m(t) = [(1/3)e
t
+ (2/3)]
5
; b)m(t) =
e
t
2e
t
; c)m(t) = e
2(e
t
1)
.
8 Remtase al ejercicio 7. Deduzca por simple observaci on la media y la varianza de las v.as relacionadas con
las fgm de los incisos a), b) y c).
9 Sea m(t) = (1/6)e
t
+ (2/6)e
2t
+ (3/6)e
3t
. Encuentre lo siguiente: a)E(Y); b)V(Y); c) la distribucion
de Y.
10 Si Y es una v.a. con fgm m(t), y si W esta determinada por W = aY + b, demuestre que la fgm de W es
e
tb
m(at).
11 Utilice el resultado del ejercicio 10 para probar que si W = aY + b, entonces E(W) = aE(Y) + b y
V(W) = a
2
V(Y).
Teorema de Chebyshev
El siguiente resultado se utiliza para determinar una cota o lmite
inferior para la probabilidad de que una v.a. Y caiga en un
intervalo k = ( k, + k)
Teorema. (Teorema de Chebyshev)
Si Y es una v.a. con media nita y varianza
2
, entonces, para
cualquier constante positiva k > 0,
P(|Y | < k) 1
1
k
2
o P(|Y | k)
1
k
2
.
Observacion.
Los resultados del teorema anterior son muy conservadores en el
sentido de que la probabilidad real por lo com un rebasa la cota
inferior en una cantidad considerable.
Teorema de Chebyshev
El siguiente resultado se utiliza para determinar una cota o lmite
inferior para la probabilidad de que una v.a. Y caiga en un
intervalo k = ( k, + k)
Teorema. (Teorema de Chebyshev)
Si Y es una v.a. con media nita y varianza
2
, entonces, para
cualquier constante positiva k > 0,
P(|Y | < k) 1
1
k
2
o P(|Y | k)
1
k
2
.
Observacion.
Los resultados del teorema anterior son muy conservadores en el
sentido de que la probabilidad real por lo com un rebasa la cota
inferior en una cantidad considerable.
Teorema de Chebyshev
Ejemplo.
La cantidad de clientes que llega cada da a un mostrador, Y,
observada por un periodo prolongado tiene una media de 20 y una
desviascion estandar de 2. Se desconoce la distribucion de
probabilidad. Que se puede decir de la probabilidad de que
ma nana, Y este entre 16 y 24?.
sol. 15/16
Teorema de Chebyshev
Ejemplo.
La cantidad de clientes que llega cada da a un mostrador, Y,
observada por un periodo prolongado tiene una media de 20 y una
desviascion estandar de 2. Se desconoce la distribucion de
probabilidad. Que se puede decir de la probabilidad de que
ma nana, Y este entre 16 y 24?. sol. 15/16
Tarea:Chebyshev
1 Si Y es una v.a. con una media de 11 y una varianza de 9, mediante el teorema de Chebyshev encuentre:
a) un lmite inferior para P(6 < Y < 16); b) el valor de C, tal que P(|Y 11| > C) 0,09
2 La casa de moneda de Estados Unidos produce monedas de diez centavos con un promedio de 0,5 pulgadas
y una desviacion estandar de 0,01. Con el Teorema de Chebyshev, encuentre una cota inferior para el
n umero de monedas en un lote de 400, que se espera que tengan un diametro entre 0,48 y 0,52 pulgadas.
Distribuciones continuas
Denicion.
Sea Y una v.a. con funcion de distribucion F(y). Se dice que Y es
continua si la funcion de distribucion F(y) es continua para
< y < .
Observacion.
En el caso de una v.a. continua Y, debemos tener, para cualquier
numero real y,
P(Y = y) = 0.
Si esto no fuera cierto, y P(Y = y
0
) = p
0
> 0, entonces F(y)
tendra una discontinuidad (salto) de tama no p
0
en el punto y
0
Distribuciones continuas
Denicion.
Sea Y una v.a. con funcion de distribucion F(y). Se dice que Y es
continua si la funcion de distribucion F(y) es continua para
< y < .
Observacion.
En el caso de una v.a. continua Y, debemos tener, para cualquier
numero real y,
P(Y = y) = 0.
Si esto no fuera cierto, y P(Y = y
0
) = p
0
> 0, entonces F(y)
tendra una discontinuidad (salto) de tama no p
0
en el punto y
0
Distribuci on continua
Denicion.
Si F(y) es la funcion de distribucion de una v.a. continua Y,
entonces f (y), dada por
f (y) =
dF(y)
dy
= F

(y)
siempre y cuando exista la derivada, se conoce como funcion de
densidad de probabilidad para la v.a. Y.
De las deniciones anteriores se deduce que F(y) puede expresarse
como
F(y) =
_
y

f (t)dt
donde f () es la funcion de densidad de probabilidad, y t es la
variable de integracion
Distribuci on continua
Denicion.
Si F(y) es la funcion de distribucion de una v.a. continua Y,
entonces f (y), dada por
f (y) =
dF(y)
dy
= F

(y)
siempre y cuando exista la derivada, se conoce como funcion de
densidad de probabilidad para la v.a. Y.
De las deniciones anteriores se deduce que F(y) puede expresarse
como
F(y) =
_
y

f (t)dt
donde f () es la funcion de densidad de probabilidad, y t es la
variable de integracion
funci on de densidad
Teorema. (Propiedades de una funcion de densidad)
Si f (y) es una funcion de densidad para una variable aleatoria
continua, entonces
1 f (y) 0 para cualquier valor de y.
2
_

f (y)dy = 1
Ejemplo.
Suponga que
F(y) =
_
_
_
0, y < 0
y, 0 y 1,
1, y > 1.
Encuentre la funcion de densidad de probabilidad para Y y
grafquela.
Sol.
f (y) =
dF(y)
dy
=

0, y < 0
1, 0 < y < 1,
0, y > 1.
Funci on de densidad
Teorema.
Si la v.a. Y tiene funcion de densidad f (y) y a < b, entonces
P(a Y b) =
_
b
a
f (y)dy
Ejemplo.
Dada f (y) = cy
2
, 0 y 2 y f (y) = 0 en cualquier otra parte, a)
encuentre el valor de c para el cual f (y) es una funcion de densidad
valida, b) Encuentre P(1 Y 2).
Sol. a) c = 3/8; b) P(1 Y 2) = 7/8
Funci on de densidad
Teorema.
Si la v.a. Y tiene funcion de densidad f (y) y a < b, entonces
P(a Y b) =
_
b
a
f (y)dy
Ejemplo.
Dada f (y) = cy
2
, 0 y 2 y f (y) = 0 en cualquier otra parte, a)
encuentre el valor de c para el cual f (y) es una funcion de densidad
valida, b) Encuentre P(1 Y 2). Sol. a) c = 3/8; b) P(1 Y 2) = 7/8
Cuantiles,cuartiles y porcentiles
Denicion.
Un cuantil de orden p, 0 < p < 1, de una v.a. Y es cualquier
n umero, denotado
p
, que satisfaga simultaneamente las
condiciones
a) P[Y
p
] p
b) P[Y
p
] 1 p
Observacion.
Si Y es continua a) signica que F
Y
(
p
) p y b) que
F
Y
(
p
) p, por lo que F
Y
(
p
) = p; que tiene solucion unica
si F
Y
() es creciente en el soporte de Y (i.e. donde Y = 0).

p
no es necesariamente unico. Cuando
p
no es unico existe
un intervalo en el que cada punto satisface a) y b). En este
caso se suguiere utilizar el menor valor del intervalo o el punto
medio.
Cuantiles,cuartiles y porcentiles
Denicion.
Un cuantil de orden p, 0 < p < 1, de una v.a. Y es cualquier
n umero, denotado
p
, que satisfaga simultaneamente las
condiciones
a) P[Y
p
] p
b) P[Y
p
] 1 p
Observacion.
Si Y es continua a) signica que F
Y
(
p
) p y b) que
F
Y
(
p
) p, por lo que F
Y
(
p
) = p; que tiene solucion unica
si F
Y
() es creciente en el soporte de Y (i.e. donde Y = 0).

p
no es necesariamente unico. Cuando
p
no es unico existe
un intervalo en el que cada punto satisface a) y b). En este
caso se suguiere utilizar el menor valor del intervalo o el punto
medio.
Cuantiles, cuartiles y porcentiles
Observacion.
Los cuantiles de mayor uso en la practica son

0,5
, la mediana

0,25
, el cuartil inferior

0,75
, el cuartil superior
A la diferencia
0,75

0,25
se le conoce como el recorrrido
intercuartlico y se le utiliza como una medida de dispersion.
Notemos que 50 % de la probabilidad total esta comprendida
entre
0,25
y
0,75

p
es llamado quintil cunado p es de la forma j /5, j = 1, 4

p
es llamado decl cuando p es de la forma k/10 con
k = 1, 9.
Tarea:Del Wackerly, 7 ed., pag. 166,
Ejercicios:4.1,4.3,4.8,4.10,4.11,4.12,4.15
Esperanza de una v.a. continua
Denicion.
El valor esperado de una v.a. continua Y es
E(Y) =
_

yf (y)dy
siempre que
_

|y|f (y)dy < (i.e. la integral exista)


El valor esperado de una funcion de una v.a.
Teorema.
Sea g(Y) una funcion de Y; entonces
E[g(Y)] =
_

g(y)f (y)dy,
siempre que la integral exista.
Esperanza de una v.a. continua
Denicion.
El valor esperado de una v.a. continua Y es
E(Y) =
_

yf (y)dy
siempre que
_

|y|f (y)dy < (i.e. la integral exista)


El valor esperado de una funcion de una v.a.
Teorema.
Sea g(Y) una funcion de Y; entonces
E[g(Y)] =
_

g(y)f (y)dy,
siempre que la integral exista.
Teorema. (Propiedades de la Esperanza)
Sea c una constante y sean g(Y), g
1
(Y), g
2
(Y), . . . , g
k
(Y)
funciones de una v.a. continua Y. Entonces se cumple:
1 E(c) = c.
2 E[cg(Y)] = cE[g(Y)].
3 E[g
1
(Y) +. . . + g
k
(Y)] = E[g
1
(Y)] +. . . + E[g
k
(Y)].
Igual que en el caso discreto:
V(Y) = E(Y )
2
= E(Y
2
)
2
Teorema. (Propiedades de la Esperanza)
Sea c una constante y sean g(Y), g
1
(Y), g
2
(Y), . . . , g
k
(Y)
funciones de una v.a. continua Y. Entonces se cumple:
1 E(c) = c.
2 E[cg(Y)] = cE[g(Y)].
3 E[g
1
(Y) +. . . + g
k
(Y)] = E[g
1
(Y)] +. . . + E[g
k
(Y)].
Igual que en el caso discreto:
V(Y) = E(Y )
2
= E(Y
2
)
2
Ejemplo.
Sea f (y) = (3/8)y
2
para 0 y 2, f (y) = 0 en cualquier otro
caso. Si la v.a.Y tiene esta funcion de densidad, encuentre
= E(Y) y
=
V(Y).
E(Y) = 1,5, E(Y
2
) = 2,4, V(Y) = 0,15
Tarea:Wackerly 7ed. pag. 172: 4.21,4.25,4.26,4.27,4.34,4.35.
Ejemplo.
Sea f (y) = (3/8)y
2
para 0 y 2, f (y) = 0 en cualquier otro
caso. Si la v.a.Y tiene esta funcion de densidad, encuentre
= E(Y) y
=
V(Y). E(Y) = 1,5, E(Y
2
) = 2,4, V(Y) = 0,15
Tarea:Wackerly 7ed. pag. 172: 4.21,4.25,4.26,4.27,4.34,4.35.
Ejemplo.
Sea f (y) = (3/8)y
2
para 0 y 2, f (y) = 0 en cualquier otro
caso. Si la v.a.Y tiene esta funcion de densidad, encuentre
= E(Y) y
=
V(Y). E(Y) = 1,5, E(Y
2
) = 2,4, V(Y) = 0,15
Tarea:Wackerly 7ed. pag. 172: 4.21,4.25,4.26,4.27,4.34,4.35.
Distribuci on de probabilidad uniforme
Denicion.
Si
1
<
2
, se dice que una v.a. Y tiene distribuci on de
probabilidad uniforme en el intervalo (
1
,
2
) si y solo si la funcion
de densidad de Y es
f (y) =
_
1

1
,
1
y
2
,
0, o.c.

1
y
2
se denominan parametros de la funcion de densidad.
Teorema.
Si
1
<
2
y Y es una v.a. uniformemente distribuida en el
intervalo (
1
,
2
), entonces
= E(Y) =

1
+
2
2
y
2
= V(Y) =
(
2

1
)
2
12
Distribuci on de probabilidad uniforme
Denicion.
Si
1
<
2
, se dice que una v.a. Y tiene distribuci on de
probabilidad uniforme en el intervalo (
1
,
2
) si y solo si la funcion
de densidad de Y es
f (y) =
_
1

1
,
1
y
2
,
0, o.c.

1
y
2
se denominan parametros de la funcion de densidad.
Teorema.
Si
1
<
2
y Y es una v.a. uniformemente distribuida en el
intervalo (
1
,
2
), entonces
= E(Y) =

1
+
2
2
y
2
= V(Y) =
(
2

1
)
2
12
suponga que el n umero de eventos, que se presentan en el intervalo
(0, t) tienen una distribucion de Poisson. Si se sabe que
exactamente uno de estos eventos ha ocurrido en el intervalo
(0, t), entonces el tiempo real del suceso esta distribuido de
manera uniforme en este intervalo.
Ejemplo.
La llegada de clientes a una caja en un establecimiento sigue una
distribucion de Poisson.Se sabe que durante un periodo
determinado de 30 minutos, un cliente llega a la caja. Encuentre la
probabilidad de que el cliente llegue durante los ultimos 5 minutos
del periodo de 30 minutos.
Sol. P(25 Y 30) = 1/6
suponga que el n umero de eventos, que se presentan en el intervalo
(0, t) tienen una distribucion de Poisson. Si se sabe que
exactamente uno de estos eventos ha ocurrido en el intervalo
(0, t), entonces el tiempo real del suceso esta distribuido de
manera uniforme en este intervalo.
Ejemplo.
La llegada de clientes a una caja en un establecimiento sigue una
distribucion de Poisson.Se sabe que durante un periodo
determinado de 30 minutos, un cliente llega a la caja. Encuentre la
probabilidad de que el cliente llegue durante los ultimos 5 minutos
del periodo de 30 minutos.
Sol. P(25 Y 30) = 1/6
suponga que el n umero de eventos, que se presentan en el intervalo
(0, t) tienen una distribucion de Poisson. Si se sabe que
exactamente uno de estos eventos ha ocurrido en el intervalo
(0, t), entonces el tiempo real del suceso esta distribuido de
manera uniforme en este intervalo.
Ejemplo.
La llegada de clientes a una caja en un establecimiento sigue una
distribucion de Poisson.Se sabe que durante un periodo
determinado de 30 minutos, un cliente llega a la caja. Encuentre la
probabilidad de que el cliente llegue durante los ultimos 5 minutos
del periodo de 30 minutos.
Sol. P(25 Y 30) = 1/6
Distribuci on de probabilidad Normal
Denicion.
Una v.a. Y tiene distribucion de probabilidad normal ssi, para
> 0 y < < , la funcion de densidad de Y es
f (y) =
1

2
e

(y)
2
2
2
< y <
Notacion Y N(, )
Teorema.
Si Y es una v.a. normal:
E(Y) = , V(Y) =
2
Si = 0 y = 1 decimos que Y tiene distribucion normal
estandar.
Existen tablas para calcular probabilidades de normal estandar y si
Y no se distribuye normal estandar hay que normalizar usando
Y

Z = N(0, 1)
Ejemplo.
Si Z es una v.a. normal estandar. Calcule
1 P(Z > 2)
2 P(2 Z 2)
3 P(0 Z 1,73)
Ejemplo.
Los resultados de un examen de admision para ingresar a la
universidad poseen una distribucion normal con media de 75 y
desviacion estandar de 10. Que fraccion de los resultados
esta entre 80 y 90?
Ejemplo.
Utilice tablas para calcular
1 P(0 Z 1,2)
2 P(0,9 Z 0)
3 P(0,3 Z 1,56)
4 P(0,2 Z 0,2)
5 P(1,56 Z 0,2)
Ejemplo.
Encuentre los valores de Z
0
para el cual
1 P(Z > Z
0
) = 0,5
2 P(Z < Z
0
) = 0,8643
3 P(Z
0
< Z < Z
0
) = 0,9
4 P(Z
0
< Z < Z
0
) = 0,99
Ejemplo.
Los promedios de calicaciones de una poblacion de estudiantes
tiene aproximadamente una distribucion normal con media 2,4 y
desviacion estandar de 0,8.
(a) Que fraccion de alumnos obtendra un promedio superior a
3,0?
(b) Si los estudiantes que obtienen un promedio inferior a 1,9 son
expulsados de la universidad, que porcentaje de ellos
sera expulsado?
(c) Supongamos que se eligen tres estudiantes al azar de la
poblacion. Cual es la probabilidad que todos ellos tengan un
promedio menor a 3,0?
a) 1 P(Z 0,75), b) P(Z < 0,625) = 0,2655 c) Elevar al
cubo (a)
Ejemplo.
Los promedios de calicaciones de una poblacion de estudiantes
tiene aproximadamente una distribucion normal con media 2,4 y
desviacion estandar de 0,8.
(a) Que fraccion de alumnos obtendra un promedio superior a
3,0?
(b) Si los estudiantes que obtienen un promedio inferior a 1,9 son
expulsados de la universidad, que porcentaje de ellos
sera expulsado?
(c) Supongamos que se eligen tres estudiantes al azar de la
poblacion. Cual es la probabilidad que todos ellos tengan un
promedio menor a 3,0?
a) 1 P(Z 0,75), b) P(Z < 0,625) = 0,2655 c) Elevar al
cubo (a)
Distribuci on de probabilidad Gamma
Denicion.
Una v.a. Y tiene distribucion gamma con parametros > 0 y
> 0 ssi la funcion de distribucion de Y es
f (y) =
_
y
1
e
y/

()
, 0 y <
0, o.c
donde () =
_

0
y
1
e
y
dy = funcion gamma
Integrando obtenemos:
(1) = 1
() = ( 1)( 1),
(n) = (n 1)! si n Z.
Distribuci on de probabilidad Gamma
Denicion.
Una v.a. Y tiene distribucion gamma con parametros > 0 y
> 0 ssi la funcion de distribucion de Y es
f (y) =
_
y
1
e
y/

()
, 0 y <
0, o.c
donde () =
_

0
y
1
e
y
dy = funcion gamma
Integrando obtenemos:
(1) = 1
() = ( 1)( 1),
(n) = (n 1)! si n Z.
Gracas de una dist. Gamma
Figura: Gracas Distribucion gamma con K = , = , sesgada
(asmetricas) a la derecha, i.e. la mayor parte del area bajo la curva
esta cerca del origen.
Teorema.
Si Y tiene una distribucion gamma con parametros y , entonces
E(Y) = , V(Y) =
2
Demostracion Primero: Como
_

0
y
1
e
y/

()
dy = 1, entonces
_

0
y
1
e
y/
dy =

().
E(Y) =
_

0
y
_
y
1
e
y/

()
_
dy =
1

()
_

0
y

e
y/
dy
=
1

()

+1
( + 1) =
()
()
=
La varianza les queda de tarea.
Teorema.
Si Y tiene una distribucion gamma con parametros y , entonces
E(Y) = , V(Y) =
2
Demostracion Primero: Como
_

0
y
1
e
y/

()
dy = 1, entonces
_

0
y
1
e
y/
dy =

().
E(Y) =
_

0
y
_
y
1
e
y/

()
_
dy =
1

()
_

0
y

e
y/
dy
=
1

()

+1
( + 1) =
()
()
=
La varianza les queda de tarea.
Teorema.
Si Y tiene una distribucion gamma con parametros y , entonces
E(Y) = , V(Y) =
2
Demostracion Primero: Como
_

0
y
1
e
y/

()
dy = 1, entonces
_

0
y
1
e
y/
dy =

().
E(Y) =
_

0
y
_
y
1
e
y/

()
_
dy =
1

()
_

0
y

e
y/
dy
=
1

()

+1
( + 1) =
()
()
=
La varianza les queda de tarea.
Teorema.
Si Y tiene una distribucion gamma con parametros y , entonces
E(Y) = , V(Y) =
2
Demostracion Primero: Como
_

0
y
1
e
y/

()
dy = 1, entonces
_

0
y
1
e
y/
dy =

().
E(Y) =
_

0
y
_
y
1
e
y/

()
_
dy =
1

()
_

0
y

e
y/
dy
=
1

()

+1
( + 1) =
()
()
=
La varianza les queda de tarea.
Aplicaciones de la dist. Gamma
Variables aleatorias asociadas con tiempos entre eventos.
Tiempos entre fallas de funcionamiento de motores
Tiempos que pasan los clientes formados para llegar a una caja
Tiempo que toma revisar un motor, etc.
Dos casos particulares de la dist. Gamma
Denicion.
Sea N. Una v.a. Y tiene distribucion ji-cuadrada,
2
, con
grados de libertad si y solo si Y es una v.a. con distribucion
gamma y parametros = /2 y = 2, es decir
f (y) =
_
y
/21
e
y/

/2
(/2)
, 0 y <
0, o.c.
Teorema.
Si Y es una v.a.
2
con grados de libertad, entonces
E(Y) = =

2
2 =
V(Y) =
2
=

2
4 = 2
Dos casos particulares de la dist. Gamma
Denicion.
Sea N. Una v.a. Y tiene distribucion ji-cuadrada,
2
, con
grados de libertad si y solo si Y es una v.a. con distribucion
gamma y parametros = /2 y = 2, es decir
f (y) =
_
y
/21
e
y/

/2
(/2)
, 0 y <
0, o.c.
Teorema.
Si Y es una v.a.
2
con grados de libertad, entonces
E(Y) = =

2
2 =
V(Y) =
2
=

2
4 = 2
La distribucion exponencial
La funcion de densidad gamma en la que = 1 se llama funcion
de densidad exponencial.
Denicion.
Una v.a. Y tiene una distribucion exponencial con parametro
> 0 ssi la funcion de distribucion de densidad Y es
f (y) =
_
1

e
y/
, 0 < y <
0, o.c.
Teorema.
Si Y es una v.a. exponencial con parametros , entonces
E(Y) = V(Y) =
2
La distribucion exponencial
La funcion de densidad gamma en la que = 1 se llama funcion
de densidad exponencial.
Denicion.
Una v.a. Y tiene una distribucion exponencial con parametro
> 0 ssi la funcion de distribucion de densidad Y es
f (y) =
_
1

e
y/
, 0 < y <
0, o.c.
Teorema.
Si Y es una v.a. exponencial con parametros , entonces
E(Y) = V(Y) =
2
La distribucion exponencial
La funcion de densidad gamma en la que = 1 se llama funcion
de densidad exponencial.
Denicion.
Una v.a. Y tiene una distribucion exponencial con parametro
> 0 ssi la funcion de distribucion de densidad Y es
f (y) =
_
1

e
y/
, 0 < y <
0, o.c.
Teorema.
Si Y es una v.a. exponencial con parametros , entonces
E(Y) = V(Y) =
2
La propiedad de falta de memoria
Ejemplo.
Suponga que Y exp(). Demuestre que, si a > 0 y b > 0,
P(Y > a + b|Y > a) = P(Y > b)
Solucion
P(Y > a + b|Y > a) =
P(Y > a + b)
P(Y > a)
=
_

a+b
1

e
y/
_

a
1

e
y/
dy
=
e
y/
|

a+b
e
y/
|

a
=
e
(a+b)/
e
a/
= e
b/
= P(Y > b)
La propiedad de falta de memoria
Ejemplo.
Suponga que Y exp(). Demuestre que, si a > 0 y b > 0,
P(Y > a + b|Y > a) = P(Y > b)
Solucion
P(Y > a + b|Y > a) =
P(Y > a + b)
P(Y > a)
=
_

a+b
1

e
y/
_

a
1

e
y/
dy
=
e
y/
|

a+b
e
y/
|

a
=
e
(a+b)/
e
a/
= e
b/
= P(Y > b)
Ejemplo.
La magnitud de los terremotos en una region en EU se puede
representar mediante una distribucion exponencial con media 2,4,
de acuerdo a la escala de Ricter. Calcule la probabilidad de que un
terremoto que azota esta la region:
a) rebase los 3,0 grados,
b) este entre 2,0 y 3,0
Solucion
a) P(Y > 3,0) =
_
3
0
1
2,4
e
y/2,4
dy = e
y/2,4
|

0
= e
3/2,4
= 0,285
b) P(2,0 < Y < 3,0) =
_
3
2
1
2,4
e
y/2,4
dy = e
y/2,4
|
3
2
= 0,1485
Ejemplo.
La magnitud de los terremotos en una region en EU se puede
representar mediante una distribucion exponencial con media 2,4,
de acuerdo a la escala de Ricter. Calcule la probabilidad de que un
terremoto que azota esta la region:
a) rebase los 3,0 grados,
b) este entre 2,0 y 3,0
Solucion
a) P(Y > 3,0) =
_
3
0
1
2,4
e
y/2,4
dy = e
y/2,4
|

0
= e
3/2,4
= 0,285
b) P(2,0 < Y < 3,0) =
_
3
2
1
2,4
e
y/2,4
dy = e
y/2,4
|
3
2
= 0,1485
Ejemplo.
La magnitud de los terremotos en una region en EU se puede
representar mediante una distribucion exponencial con media 2,4,
de acuerdo a la escala de Ricter. Calcule la probabilidad de que un
terremoto que azota esta la region:
a) rebase los 3,0 grados,
b) este entre 2,0 y 3,0
Solucion
a) P(Y > 3,0) =
_
3
0
1
2,4
e
y/2,4
dy = e
y/2,4
|

0
= e
3/2,4
= 0,285
b) P(2,0 < Y < 3,0) =
_
3
2
1
2,4
e
y/2,4
dy = e
y/2,4
|
3
2
= 0,1485
Ejemplo.
Sea X una v.a. exponencial con parametro
1 Obtenga la funcion de densidad de Y(X) = X
1/2
2 Como es E[Y(X)] con respecto a Y(E[X])?
3 Cual es el valor esperado y la varianza de Y?.
Solucion
1) P(Y y) = P(X
1/2
y) = P(X y
2
) =
_
y
2
0
1

e
x/
dx =
e
x/
|
y
2
0
= 1 e
y
2
/
As f (y) = F

(y) =
_
2y

e
y
2
/
, 0 y <
0, o.c.
2) E[Y(X)] Y[E(X)]
Ejemplo.
Sea X una v.a. exponencial con parametro
1 Obtenga la funcion de densidad de Y(X) = X
1/2
2 Como es E[Y(X)] con respecto a Y(E[X])?
3 Cual es el valor esperado y la varianza de Y?.
Solucion
1) P(Y y) = P(X
1/2
y) = P(X y
2
) =
_
y
2
0
1

e
x/
dx =
e
x/
|
y
2
0
= 1 e
y
2
/
As f (y) = F

(y) =
_
2y

e
y
2
/
, 0 y <
0, o.c.
2) E[Y(X)] Y[E(X)]
Ejemplo.
Sea X una v.a. exponencial con parametro
1 Obtenga la funcion de densidad de Y(X) = X
1/2
2 Como es E[Y(X)] con respecto a Y(E[X])?
3 Cual es el valor esperado y la varianza de Y?.
Solucion
1) P(Y y) = P(X
1/2
y) = P(X y
2
) =
_
y
2
0
1

e
x/
dx =
e
x/
|
y
2
0
= 1 e
y
2
/
As f (y) = F

(y) =
_
2y

e
y
2
/
, 0 y <
0, o.c.
2) E[Y(X)] Y[E(X)]
Ejemplo.
Sea X una v.a. exponencial con parametro
1 Obtenga la funcion de densidad de Y(X) = X
1/2
2 Como es E[Y(X)] con respecto a Y(E[X])?
3 Cual es el valor esperado y la varianza de Y?.
Solucion
1) P(Y y) = P(X
1/2
y) = P(X y
2
) =
_
y
2
0
1

e
x/
dx =
e
x/
|
y
2
0
= 1 e
y
2
/
As f (y) = F

(y) =
_
2y

e
y
2
/
, 0 y <
0, o.c.
2) E[Y(X)] Y[E(X)]
3)
E(X
1/2
) =
_

0
x
1/2
e
x/

dx =
(1/2)

1/2
_

0
x
_
x
1/2
e
x/

1/2
(1/2)
_
dx
=
(1/2)

1/2
(1/2) =
_
(3/2)
La varianza les queda de tarea
3)
E(X
1/2
) =
_

0
x
1/2
e
x/

dx =
(1/2)

1/2
_

0
x
_
x
1/2
e
x/

1/2
(1/2)
_
dx
=
(1/2)

1/2
(1/2) =
_
(3/2)
La varianza les queda de tarea
Ejercicios de tarea
1 Si Y tiene una funcion de densidad de probabilidad dada por
f (y) =
_
4y
2
e
2y
, y > 0
0, o.c.
Deduzca E(Y) y V(Y) por simple observaci on.
2 Suponga que Y Gamma(, )
(a) Si a es cualquier n umero positivo o negativo tal que +a > 0,
demuestre que
E(Y

) =

a
( + a)
()
(b) Por que la respuesta del inciso (a) requiere que + a > 0?
(c) Demuestre que, si a = 1, el inciso (a) arroja E(Y) =
(d) Con el resultado en (a), deduzca una expresion para E(

Y).
Que suposicion debe hacerse respecto a .
(e) Con el resultado en (a), deduzca una expresion para
E(1/Y), E(1/

Y), y E(1/Y
2
) y supuestos para .
Distribuci on de probabilidad beta
La fdp beta es una funcion de densidad de dos parametros,
denida en el intervalo 0 y 1. Regularmente se utiliza como
modelo para representar proporciones, como el porcentaje de
impurezas presentes en un producto qumico o la cantidad de
tiempo que una maquina esta en reparacion.
Denicion.
Una v.a. Y tiene una distribucion de probabilidad beta con
parametros y ssi la funcion de densidad de Y esta dada por
f (y) =
_
y
1
(1y)
1
B(,)
, 0 y 1
0, o.c.
donde
B(, ) =
_
1
0
y
1
(1 y)
1
dy =
()()
( +)
Distribuci on de probabilidad beta
La fdp beta es una funcion de densidad de dos parametros,
denida en el intervalo 0 y 1. Regularmente se utiliza como
modelo para representar proporciones, como el porcentaje de
impurezas presentes en un producto qumico o la cantidad de
tiempo que una maquina esta en reparacion.
Denicion.
Una v.a. Y tiene una distribucion de probabilidad beta con
parametros y ssi la funcion de densidad de Y esta dada por
f (y) =
_
y
1
(1y)
1
B(,)
, 0 y 1
0, o.c.
donde
B(, ) =
_
1
0
y
1
(1 y)
1
dy =
()()
( +)
Gracas de una distribuci on beta
Figura: Gracas Distribucion beta
Observacion: La denicion de y en el intervalo [0, 1] no restringe
el uso de la distribucion beta. Si c y d, entonces
y

= (y c)/(d c) dene una nueva variable tal que


0 y

1. As, la funcion de densidad beta puede aplicarse a una


v.a. denida en el intervalo c y d por medio de una traslacion
y un cambio de escala.
La funcion de distribucion acumulada para la v.a. beta, recibe el
nombre de funcion beta incompleta y se denota mediante
F(y) =
_
y
0
t
1
(1 t)
1
B(, )
dt = I
y
(, ).
Cuando y son enteros positivos, I
y
(, ) se relaciona con la
funcion de probabilidad binomial. La integracion por partes permite
demostrar que para 0 y 1, y con y enteros,
F(y) =
_
y
0
t
1
(1 t)
1
B(, )
dt =
n

i =
_
n
i
_
y
i
(1 y)
ni
donde n = + 1
Observacion: La denicion de y en el intervalo [0, 1] no restringe
el uso de la distribucion beta. Si c y d, entonces
y

= (y c)/(d c) dene una nueva variable tal que


0 y

1. As, la funcion de densidad beta puede aplicarse a una


v.a. denida en el intervalo c y d por medio de una traslacion
y un cambio de escala.
La funcion de distribucion acumulada para la v.a. beta, recibe el
nombre de funcion beta incompleta y se denota mediante
F(y) =
_
y
0
t
1
(1 t)
1
B(, )
dt = I
y
(, ).
Cuando y son enteros positivos, I
y
(, ) se relaciona con la
funcion de probabilidad binomial. La integracion por partes permite
demostrar que para 0 y 1, y con y enteros,
F(y) =
_
y
0
t
1
(1 t)
1
B(, )
dt =
n

i =
_
n
i
_
y
i
(1 y)
ni
donde n = + 1
Observacion: La denicion de y en el intervalo [0, 1] no restringe
el uso de la distribucion beta. Si c y d, entonces
y

= (y c)/(d c) dene una nueva variable tal que


0 y

1. As, la funcion de densidad beta puede aplicarse a una


v.a. denida en el intervalo c y d por medio de una traslacion
y un cambio de escala.
La funcion de distribucion acumulada para la v.a. beta, recibe el
nombre de funcion beta incompleta y se denota mediante
F(y) =
_
y
0
t
1
(1 t)
1
B(, )
dt = I
y
(, ).
Cuando y son enteros positivos, I
y
(, ) se relaciona con la
funcion de probabilidad binomial. La integracion por partes permite
demostrar que para 0 y 1, y con y enteros,
F(y) =
_
y
0
t
1
(1 t)
1
B(, )
dt =
n

i =
_
n
i
_
y
i
(1 y)
ni
donde n = + 1
Teorema.
Si Y es una v.a. con distribucion beta con parametros > 0 y
> 0, entonces
E(Y) =

+
y V(Y) =

( +)
2
( + + 1)
.
Demostracion:
E(Y) =
_

yf (y)dy =
_
1
o
y
_
y
1
(1 y)
1
B(, )
_
dy
=
1
B(, )
_
1
o
y

(1 y)
1
dy =
B( + 1, )
B(, )
=
( +)
()()

( + 1)()
( + + 1)
=
( +)
()()

()()
( +)( +)
=

( +)
Teorema.
Si Y es una v.a. con distribucion beta con parametros > 0 y
> 0, entonces
E(Y) =

+
y V(Y) =

( +)
2
( + + 1)
.
Demostracion:
E(Y) =
_

yf (y)dy =
_
1
o
y
_
y
1
(1 y)
1
B(, )
_
dy
=
1
B(, )
_
1
o
y

(1 y)
1
dy =
B( + 1, )
B(, )
=
( +)
()()

( + 1)()
( + + 1)
=
( +)
()()

()()
( +)( +)
=

( +)
Denicion.
Sea p (0, 1). Se le llama cuantil de orden p de una v.a. X a
cualquier n umero x
p
que cumpla
P(X x
p
) p, y P(X x
p
) 1 p.
A los cuantiles de orden 1/4, 1/2 y 3/4 se les llama tambien
cuartiles. En particular al cuantil de orden 1/2 se le llama
mediana. Es decir, la mediana es el n umero m que cumple
P(X m) 1/2, y P(X m) 1/2.
Denicion.
La moda de una v.a. es aquel punto donde la funcion de densidad
tiene un maximo local
Denicion.
Sea p (0, 1). Se le llama cuantil de orden p de una v.a. X a
cualquier n umero x
p
que cumpla
P(X x
p
) p, y P(X x
p
) 1 p.
A los cuantiles de orden 1/4, 1/2 y 3/4 se les llama tambien
cuartiles. En particular al cuantil de orden 1/2 se le llama
mediana. Es decir, la mediana es el n umero m que cumple
P(X m) 1/2, y P(X m) 1/2.
Denicion.
La moda de una v.a. es aquel punto donde la funcion de densidad
tiene un maximo local
Ejemplo.
10.Demuestre que si > 1, la densidad gamma(, ) tiene un
maximo en ( 1)/ (aqu = 1/).
Ejemplo.
48.El Centro de Computo de una Universidad muy reconocida
tiene 300 pcs para el uso diario de los estudiantes. La probabilidad
de que alguna pc requiera servicio un determinado da es 0,015.
Cual es la probabilidad de que en un da
a)a lo mas dos terminales requieran servicio?
b)por lo menos cinco terminales requieran servicio?
c)tres requieran servicio?
Para cada uno de los incisos anteriores obtenga la probalidad en
forma exacta y tambien en forma aproximada
Ejemplo.
10.Demuestre que si > 1, la densidad gamma(, ) tiene un
maximo en ( 1)/ (aqu = 1/).
Ejemplo.
48.El Centro de Computo de una Universidad muy reconocida
tiene 300 pcs para el uso diario de los estudiantes. La probabilidad
de que alguna pc requiera servicio un determinado da es 0,015.
Cual es la probabilidad de que en un da
a)a lo mas dos terminales requieran servicio?
b)por lo menos cinco terminales requieran servicio?
c)tres requieran servicio?
Para cada uno de los incisos anteriores obtenga la probalidad en
forma exacta y tambien en forma aproximada
La Binomial Negativa
La distribucion binomial negativa surge de un contexto semejante
al que conduce a la distribucion geometrica.
1 Se tienen ensayos identicos e independientes,
2 Cada ensayo tiene uno de dos posibles resultados:

Exito o
Fracaso,
3 P(E) = p y P(F) = 1 p := q en cada ensayo,
4 La variable aleatoria de interes Y, es el n umero del ensayo en
que ocurre el r -esimo exito.
Sean
A = {los primeros (y 1) ensayos contienen (r 1) exitos} y
B = {el ensayo y da como resultado un exito}
P(Y = y) = P(A B) = P(A) P(B)
=
_
y 1
r 1
_
p
r 1
q
yr
p
=
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . .
Nota: P(A) = 0 si (y 1) < (r 1) o si y < r .
Sean
A = {los primeros (y 1) ensayos contienen (r 1) exitos} y
B = {el ensayo y da como resultado un exito}
P(Y = y) = P(A B) = P(A) P(B)
=
_
y 1
r 1
_
p
r 1
q
yr
p
=
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . .
Nota: P(A) = 0 si (y 1) < (r 1) o si y < r .
Sean
A = {los primeros (y 1) ensayos contienen (r 1) exitos} y
B = {el ensayo y da como resultado un exito}
P(Y = y) = P(A B) = P(A) P(B)
=
_
y 1
r 1
_
p
r 1
q
yr
p
=
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . .
Nota: P(A) = 0 si (y 1) < (r 1) o si y < r .
Denicion.
Se dice que una v.a. Y tiene una distribucion de probabilidad
binomial negativa si y solo si
p(y) =
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . , 0 p 1.
Teorema.
Si Y es una v.a. con distribucion binomial negativa.
E(Y) =
r
p
y V(Y) =
r (1 p)
p
2
Denicion.
Se dice que una v.a. Y tiene una distribucion de probabilidad
binomial negativa si y solo si
p(y) =
_
y 1
r 1
_
p
r
q
yr
, y = r , r + 1, r + 2, . . . , 0 p 1.
Teorema.
Si Y es una v.a. con distribucion binomial negativa.
E(Y) =
r
p
y V(Y) =
r (1 p)
p
2
Ejemplo.
Un gran almacen de bombas usadas resguarda 20 % de maquinas
descompuestas. Se enva al deposito a una tecnica en
mantenimiento con tres juegos de refacciones. Ella elige
aleatoriamente las bombas, las prueba de una en una, y va
separando las que funcionan. Cuando encuentra alguna que no
funciona, las repara con uno de sus juegos de refacciones. Suponga
que tarda 10 minutos en probar que funciona y 30 minutos en
probar y reparar una bomba averiada. Encuentre la media y la
varianza del tiempo que le toma a la tecnica utilizar sus tres juegos
de refacciones.
Soluci on: Si Y es el n umero de ensayo en que se detecta la
tercera bomba descompuesta, entonces Y BN(0,2). Por lo tanto
E(Y) = 3/0,2 = 15 y V(Y) = 3(0,8)/(0,2)
2
= 60.
Como para
reparar cada bomba se requieren otros 20 min. , el tiempo total
necesario para emplear los tres juegos de refacciones es
T = 10Y + 3(20)
y E(T) = 210 y V(Y) = 6000.
Soluci on: Si Y es el n umero de ensayo en que se detecta la
tercera bomba descompuesta, entonces Y BN(0,2). Por lo tanto
E(Y) = 3/0,2 = 15 y V(Y) = 3(0,8)/(0,2)
2
= 60. Como para
reparar cada bomba se requieren otros 20 min. , el tiempo total
necesario para emplear los tres juegos de refacciones es
T = 10Y + 3(20)
y E(T) = 210 y V(Y) = 6000.
Distribuci on de Cauchy
Denicion.
Si la v.a. Y tiene funcion de densidad
f (y) =
1
[1 + (
y

)
2
]
, R, R
+
, y R
decimos que Y tiene la distribucion de Cauchy y escribimos
Y Cauchy(, ). A se le llama el parametro de localizacion y
a el parametro de escala.
Cuando = 0 y = 1 obtenemos la Cauchy estandarizada que
tiene fdp
f (y) =
1
(1 + y
2
)
Distribuci on de Cauchy
Denicion.
Si la v.a. Y tiene funcion de densidad
f (y) =
1
[1 + (
y

)
2
]
, R, R
+
, y R
decimos que Y tiene la distribucion de Cauchy y escribimos
Y Cauchy(, ). A se le llama el parametro de localizacion y
a el parametro de escala.
Cuando = 0 y = 1 obtenemos la Cauchy estandarizada que
tiene fdp
f (y) =
1
(1 + y
2
)
Distribuci on Weibull
Denicion.
Si la v.a. Y tiene funcion de distribucion acumulada dada por
F(y) =
_
1 e
(
y

_
y >
decimos que Y se distribuye como Weibull de tres parametros
, y ,
Escribimos Y Weibull (, , ), donde R y , R
+
, es
el parametro de localizacion, es el parametro de escala y el
parametro de la forma.
Al derivar F con respecto a y obtenemos la funcion de densidad
f (y) =

(
y

)
1
e
(
y

, y > .
En diversas aplicaciones se acostumbra hacer = 0 y de esta
manera el n umero de parametros se reduce a dos.
Distribuci on Weibull
Denicion.
Si la v.a. Y tiene funcion de distribucion acumulada dada por
F(y) =
_
1 e
(
y

_
y >
decimos que Y se distribuye como Weibull de tres parametros
, y ,
Escribimos Y Weibull (, , ), donde R y , R
+
, es
el parametro de localizacion, es el parametro de escala y el
parametro de la forma.
Al derivar F con respecto a y obtenemos la funci on de densidad
f (y) =

(
y

)
1
e
(
y

, y > .
En diversas aplicaciones se acostumbra hacer = 0 y de esta
manera el n umero de parametros se reduce a dos.
Gracas de una distribuci on Weibull
Figura: Gracas Distribucion Weibull, = 0, = , k =
La funcion de riesgo
La funcion de riesgo es una manera distinta de modelar la Fda y la
fdp. la tecnica tiene su origen en el Calculo Actuarial en donde la
v.a. de interes es el instante de muerte de las personas. De esta
manera los actuarios quisieron encontrar la distribucion de
probabilidades de la longitud de vida de las personas. El proposito
nal era poder calcular las primas de seguros de vida.
Denicion.
Sea T una v.a. abs. cont. con valores en (0, ). Denimos la
funcion de riesgo de T como
h
T
(t) =
d
dt
ln[1 F
T
(t)], para t > 0 (7)
donde F
T
() es la Fda de T.
La funcion de riesgo
La funcion de riesgo es una manera distinta de modelar la Fda y la
fdp. la tecnica tiene su origen en el Calculo Actuarial en donde la
v.a. de interes es el instante de muerte de las personas. De esta
manera los actuarios quisieron encontrar la distribucion de
probabilidades de la longitud de vida de las personas. El proposito
nal era poder calcular las primas de seguros de vida.
Denicion.
Sea T una v.a. abs. cont. con valores en (0, ). Denimos la
funcion de riesgo de T como
h
T
(t) =
d
dt
ln[1 F
T
(t)], para t > 0 (7)
donde F
T
() es la Fda de T.
T mide la longitud de vida, medida en a nos, de una persona
(o artculo electronico, mecanico,...)
Sea t
0
> 0, entonces
P[t < T t + t
0
|T > t] =
F
t
(t + t
0
) F
T
(t)
1 F
T
(t)
(8)
es la probabilidad de que una persona que ya alcanzo la edad
t muera antes de o al cumplir t + t
0
.
al dividir (2) entre t
0
obtenemos la anterior probabilidad pero
por unidad de tiempo. Esto es obtenemos la tasa de
mortalidad en el intervalo (t, t + t
0
]. Por lo tanto,
lm
t
0
0
1
t
0
P[t < T t + t
0
|T > t] =
1
1 F
T
(t)
lm
t
0
0
F
T
(t + t
0
) F
T
(t)
t
0
=
1
1 F
T
(t)
f
T
(t).
Donde f
T
() es la version continua de la fdp de T.
Ahora bien,
f
T
(t)
1 F
T
(t)
=
d
dt
ln[1 F
T
(t)] = h
T
(t).
En consecuencia, h
T
(t) es la tasa instantanea de mortalidad. La
idea de modelar h
T
(t) es que la experiencia puede sugerir una
formula para h
T
(t) y a partir de (1) deducir la Fda y una fdp para
T. El siguiente teorema establece como obtener la Fda y una fdp
para T a partir de la funcion de riesgo.
Teorema.
Sea T una v.a. abs. cont. y sea h
T
(t) la funcion de riesgo de T.
Entonces,
F
T
(t) = 1 exp
_

_
t
0
h
T
(x)dx
_
(9)
y la version continua de la fdp es
f
T
(t) = h
T
(t) exp
_

_
t
0
h
T
(x)dx
_
(10)
Ejemplo.
Si h
T
(t) = I
(0,)
(t), con R
+
, entonces
F
T
(t) = 1 exp
_

_
t
0
dx
_
= 1 exp{t}.
Por lo que concluimos que T Gamma(1, ), esto es T tiene
distribucion exponencial de parametro .
Ejemplo.
Si hacemos h
T
(t) = t

I
(0,)
(t), con , > 0 tendremos
F
T
= 1 exp{
_
t
0
x

dx}
= 1 exp{

+ 1
t
+1
}
y concluimos que que T Weibull (0, , + 1) donde
=
_
+1

_
1/(+1)
. La distribucion Weibull puede resultar de
utilidad para modelar el tiempo de vida de maquinas, que tienen
un desgaste que puede ser expresado como proporcional a t

. Si
> 1, el desgaste es acelerado y si 0 < 1, es desgate mas
lento.

You might also like