You are on page 1of 58

Introduccin a la Teora de Probabilidades 1

_______________________________________________

CAPITULO 2

VARIABLE ALEATORIA

1. Variable aleatoria.

1.1. Definiciones.

Si se asocia cada evento Ai del espacio muestral S a un valor numrico real,


queda definida una aplicacin del espacio muestral S sobre el conjunto de
nmeros reales.

A la variable X asociada a ese experimento, cuando el espacio muestral de ste


es aplicado sobre el conjunto de los nmeros reales se le llama variable
aleatoria.

El experimento queda totalmente descrito mediante las probabilidades


asociadas a los valores que toma la variable X, P(X = xi).

Variable aleatoria discreta: Si la variable aleatoria X toma valores reales en un


nmero finito se la denomina variable aleatoria discreta. Entonces :

P(X = x i ) = P(x i ) (2.1)


Introduccin a la Teora de Probabilidades 2
_______________________________________________

P(xi) se denomina funcin de masa de probabilidad, pmf (Del ingls


probability mass function) o simplemente funcin de probabilidad. Otra funcin
de importancia es la llamada funcin de distribucin de probabilidad, Cdf (Del
ingls cumulative distribution function), o simplemente funcin de distribucin.
As:
i i
F X ( x i ) = P(X x i ) =
j=1
P(X = x j ) = P(x )
j =1
j (2.2)

Variable aleatoria continua: Si la variable aleatoria X toma valores reales en un


nmero infinito se la denomina variable aleatoria continua. Entonces la funcin
equivalente a la pmf para variable continua es la denominada funcin de
densidad de probabilidad pdf (Del ingls probability density function). As:

f X ( x) (2.3)

La funcin de distribucin de probabilidad Cdf para variable aleatoria continua


surge de considerar el intervalo entre dos valores que toma la variable aleatoria
discreta como diferencial, haciendo tender luego este diferencial a cero la
sumatoria de la Cdf discreta se convierte en integral. As:

x
F X ( x) = f
X (2.4)
( x ).dx

La relacin entre la Cdf y la pdf continuas es entonces del tipo:

FX ( x )
= f X (x ) (2.5)
x

Las funciones pmf y pdf son de caractersticas completamente distintas:

P(X = x) = lm [P(x < X < x + x)] = lim [F X ( x + x) - F X ( x )] = 0 (2.6)


x 0 x 0

Entonces la pmf es idnticamente nula para variable continua. Es decir la pdf es


realmente una funcin de densidad y como cualquier otra funcin de densidad
tiene slo valor numrico cuando se integra en un determinado intervalo. Dos
caractersticas importantes de las funciones dadas son:
Introduccin a la Teora de Probabilidades 3
_______________________________________________

P(X = x) 0
f X ( x) 0
F X ( x) es no decreciente

En la Fig.2.1 se observan ejemplos de funciones pmf y Cdf para variable


discreta, mientras que en la Fig.2.2 se muestran ejemplos de funciones pdf y
Cdf para variable continua. En la mayora de los casos se suelen obviar los
superndices que denotan la variable aleatoria.

P(X=x) P(Xx) 1

X X

Fig.2.1 Funciones pmf y Cdf para variable discreta

fX(x) FX(x)

X X

Fig.2.2 Funciones pdf y Cdf para variable continua


Introduccin a la Teora de Probabilidades 4
_______________________________________________

1.2. Parmetros caractersticos.

Las caractersticas de una pdf en particular son descriptas por los parmetros de la
misma. Se tratar slo el caso de variable continua y las diferencias entre los casos
discreto y continuo se pondrn en evidencia cuando corresponda.
Una variedad de parmetros sirven para posicionar la distribucin sobre el eje de
abscisas es decir sobre el eje X correspondiente a la variable aleatoria.
Estos reciben el nombre de parmetros de posicin o localizacin. El ms comn es
el denominado media estadstica. Otro muy utilizado es la mediana, que divide el
rea bajo la curva de la pdf en dos partes iguales.
La moda, que localiza el pico de la pdf es otro parmetro muy utilizado, es especial
cuando se trata de pdf unimodales, es decir con un solo pico.
Cuando la variable aleatoria tiene un rango limitado, el valor promedio entre el ms
alto y el ms bajo de la misma se denomina rango medio.
En la Fig.2.3 se muestra un ejemplo donde se indican los parmetros de
localizacin citados. La mediana se indica con x50.

fX(x)

x1 xm x50 xr x2

Fig.2.3 Parmetros de posicin

El 50 % de las veces las salidas del experimento sern menores que x50 y el otro 50
% de las veces mayores que x50.

Entonces:
Introduccin a la Teora de Probabilidades 5
_______________________________________________

FX(x50 ) = P(X x50) = 0,5 (2.7)

La mediana resulta un caso particular del as definido percentil x que es el valor


de la salida del experimento con una probabilidad de ocurrencia igual a , en
donde x es tal que P(X x) = .
As el percentil 90 % ser tal que P(X x90)=0,9 y el 90 % de las veces el valor de
la salida del experimento ser menor o igual que x90.
La moda se indica con xm y es el valor de salida del experimento con mayor
probabilidad de ocurrencia.

El rango medio se indica con xr y se evala como:

x1 + x 2
xr = (2.8)
2

La media estadstica se indica con X y se la denomina tambin simplemente media


o valor esperado y se trata de la esperanza matemtica de la variable aleatoria
asociada al experimento, como se ver ms adelante.
En el caso de distribuciones simtricas, media, mediana y moda coinciden, no as
cuando se trata de distribuciones asimtricas como la de la Fig.2.20.
Cuando se trata de asimetra positiva resulta x < x50 < xm, y si se trata de asimetra
negativa, resulta xm < x50 < x.

fX(x) fX(x)

xm
x x50
x50 x
xm

X X

Fig.2.4 Distribuciones asimtricas


Introduccin a la Teora de Probabilidades 6
_______________________________________________

En la Fig.2.5 se observan dos distribuciones con el mismo valor de media, mediana


y moda.
Existen, sin embargo, diferencias sustanciales entre ambas. Los valores que toma la
variable aleatoria se encuentran ms dispersos en la curva fX2(x) que en la fX1(x)
alrededor del valor medio X .
El ms familiar de estos parmetros de dispersin es la denominada varianza y su
raz cuadrada, el desvo estndar que se indica con la letra griega .
Otros parmetros tambin utilizados como medida de la dispersin son el valor
cuadrtico medio y el rango entre el lmite inferior y superior de la distribucin. La
varianza ser tratada en el apartado siguiente.
Existen otros parmetros que permiten completar la caracterizacin de
distribuciones, sin embargo los vistos son los mas conocidos y tiles.

fX(x)
fX1(x)

fX2(x)
X

Fig.2.5 Distribuciones de distinta dispersin

Conocida la distribucin es esencial familiarizarse con los mtodos generales de


evaluacin de estos parmetros. Uno de estos mtodos es el denominado mtodo de
los momentos de las distribuciones.
Los momentos pueden ser evaluados respecto de cualquier punto del eje real, de
todos modos para el presente anlisis slo se estudiarn los momentos respecto del
origen de coordenadas y respecto de la media.
Introduccin a la Teora de Probabilidades 7
_______________________________________________

1.3. Momentos de las distribuciones.

Momentos respecto del origen de coordenadas.

El momento respecto al origen de coordenadas tambin se denomina momento


de primer orden y de define como:

+
E (X) = 1 = x.f X ( x ).dx (2.9)

1 se llama esperanza matemtica de la variable aleatoria X o valor esperado.


El momento de segundo orden respecto del origen de coordenadas ser:

+
E(X 2 ) = 2 = x 2 .f X ( x ).dx (2.10)

En general el momento ensimo respecto del origen de coordenadas se define


como:

+
E (X n ) = n = x n .f X ( x ).dx (2.11)

El valor 1 se denomina generalmente, valor medio de la variable aleatoria X.


En forma equivalente, dada una variable aleatoria con una fX(x) y una funcin
continua Y= G(X), el valor esperado de G(X) ser:

+
E (Y) = E[G (X )] = G ( x ).f X ( x ).dx (2.15)

Momentos respecto de la media.

El momento de primer orden respecto de la media ser:

+
1= ( x ).f x ( x ).dx (2.16)

Introduccin a la Teora de Probabilidades 8
_______________________________________________

Como constantemente es igual a cero, no resulta de gran utilidad. El momento


de segundo orden es la llamada varianza y es la esperanza matemtica de (x-)2.

+
Var (X ) = 2 = 2 = ( x ) 2 .f x ( x ).dx (2.17)

En general el momento de orden ensimo respecto de la media est definido


por:

+
n = ( x ) n .f x ( x ).dx (2.18)

Existe una relacin entre la esperanza matemtica de una variable aleatoria y su


varianza que es muy utilizada, a saber:

+ +
Var (X) = 2 = 2 = 2 x 2 2 x
( x ) .f ( x ).dx = ( x 2.x. + ).f ( x ).dx =

+ + +
2 x x x 2 2 2 2
= x .f ( x ).dx 2.x..f ( x ).dx + .f ( x ).dx = 2 2. + = 2

Luego:

E[(x)2] = E(x2) [E(x)] 2 = Var(x) = 2 (2.19)

Momentos para distribuciones de variable aleatoria discreta.

En el caso de tratarse de variable discreta, el momento de primer orden respecto


del origen de coordenadas ser:


E(X) = 1 = = x .P(x )
-
j j (2.20)

Donde P(xj) es la probabilidad asociada al valor xj. Una expresin comnmente


utilizada para evaluar el valor medio es la siguiente:
Introduccin a la Teora de Probabilidades 9
_______________________________________________


1
=X= . xj (2.21)
n j =1

Esta expresin es un caso particular derivado de la expresin general y se puede


utilizar cuando existe equiprobabilidad entre los distintos valores de salidas del
experimento aleatorio, es decir, cuando cada uno de estos valores tiene el
mismo peso y P(xi) = 1/n.

Si la variable es discreta, el momento de segundo orden respecto de la media, es


decir la varianza, viene dado por:

n
Var(X) = 2 = 2 = (x
j =1
j ) 2 .P(x j ) (2.22)

En el caso particular de que exista equiprobabilidad de salidas del experimento


aleatorio se tendr P(xi) = 1/n. Luego:

1 n
Var (X) = 2 = 2 = . ( x i ) 2 .P( x i ) (2.23)
n i=1

1.4. Desigualdad de Chebyshev

Es importante notar que desvos pequeos implican que es poco probable grandes
apartamientos de la media de una distribucin de probabilidad. Esto queda patente
en la as denominada desigualdad de Chebyshev.

Si X es una variable aleatoria cualquiera con valor medio E(x) = y varianza


Var(x) = 2, entonces para cualquier valor de t se verifica:

2
P( X - t)
t2

Esto es que la probabilidad de encontrar valores de la variable aleatoria X por


encima de +t o debajo de -t que es el rea sombreada en la Fig.2.6. resulta
acotada sea cualquiera la distribucin de la variable aleatoria continua o discreta.
Introduccin a la Teora de Probabilidades 10
_______________________________________________

-t +t

Fig.2.6 Teorema de Chebyshev

Esto sucede pues, dado un valor de t cualquiera puede escribirse:


t +t
Var(X) = 2 = (x ) 2 .f(x).dx + (x ) 2 .f(x).dx + (x ) .f(x).dx
2

t +t

Y por lo tanto:
t
2 (x ) 2 .f(x).dx + (x ) .f(x).dx
2

+t

Como x t (x ) 2 t 2

t t

t .f(x).dx + t .f(x).dx = t . f(x).dx + t . f(x).dx


2 2 2 2 2

+t +t

t
2 t 2 . f(x).dx + f(x).dx = t 2 .[P(x t) + P(x + t)] = t 2 .P( x t )


+t

2
Luego: P( x t)
t2

2. Funciones de varias variables.


Introduccin a la Teora de Probabilidades 11
_______________________________________________

2.1. Funciones de densidad y de distribucin de probabilidad.

Se tratar slo aqu el caso de funciones de dos variables aleatorias continuas. El


tratamiento es extensivo a funciones de varias variables continuas o discretas.

Funcin de densidad conjunta.

Se denomina funcin de densidad conjunta jdf (Del ingls joint density


function) de dos variables aleatorias X e Y a aquella que cumple:

fXY (x,y).dx.dy = P (x < X < x+dx , y < Y <y+dy) (2.24)

Funcin de distribucin conjunta.

Se define como funcin de distribucin conjunta Cjf (Del ingls cumulative


joint function) de dos variables aleatorias X e Y, la siguiente:


F XY ( x, y) = f
XY
( x , y).dx.dy = P (- < X x, < Y y) (2.25)

fXY(x,y)

1/[(a-b).(c-d)]

d c
X
b

Fig.2.6 Funcin de densidad conjunta


Introduccin a la Teora de Probabilidades 12
_______________________________________________

En la figura 2.6 se da un ejemplo de funcin de densidad conjunta del tipo


prismtico. Por supuesto que el volumen encerrado por ese prisma debe ser
unitario.

2.2. Funciones de densidad marginales.

Como X e Y son dos variables aleatorias distintas, es posible definir una pdf para
cada una de ellas solamente. As:

fX(x).dx = P (x < X x+dx) (2.26)

fY(y).dy = P (y < Y y+dy ) (2.27)

Cada una de ellas est relacionada de alguna forma con la jdf. Esta relacin viene
dada por:

f X ( x ).dx = P( x < X x + dx, < Y < ) = f XY ( x , y).dy.dx (2.28)


f Y ( y).dy = P( y < Y y + dy, < X < ) = f XY ( x, y).dx .dy (2.29)

Para el ejemplo de la funcin prismtica de la Fig.2.6, se tienen las siguientes


funciones marginales:

1 a 1
f X (x ) = dy = c<Xd
(a b).(c d) b c d

1 c 1
f Y ( y) = dx = a<Yb
(a b).(c d) d a b

2.3. Funciones de densidad condicionales.

Se define como funcin de densidad condicional de la variable aleatoria Y dada X


la siguiente:

f XY (x, y)
f Y/X ( y/x) = (2.30)
f X (x )
Introduccin a la Teora de Probabilidades 13
_______________________________________________

En forma similar:

f XY (x, y)
f X/Y ( x/y) = (2.31)
f Y ( y)

Si las variables X e Y son independientes resulta:

fY/X (y/x) = fY(y) y fX/Y (x/y) = fX(x)

Con lo cual: fXY (x,y) = fX(x).fY(y) (2.32)

2.4. Momentos

Se define como momento conjunto de orden k para X y de orden r para Y respecto


del origen de coordenadas a:


k , r = E(X k .Y r ) = k r XY
x .y .f ( x, y).dx.dy (2.33)

El momento centrado conjunto del mismo orden que el anterior ser:

[ ]

k ,r = E (X x ) k .(Y y ) r = k r XY
( x x ) .( y y ) .f ( x, y).dx.dy (2.34)

Donde x y y son los momentos centrados de orden primero de las variables X e


Y. As:

E (X) = x y E (Y) = y

Uno de los momentos centrados conjunto ms utilizado es el denominado


covarianza:

Cov (X,Y) = E [ (X x ).(Y y )] (2.35)

La covarianza da nocin del grado en que se encuentran ligadas las dos variables X
e Y. Tambin puede expresarse como:
Introduccin a la Teora de Probabilidades 14
_______________________________________________

Cov (X,Y) = E (X .Y) E (X).E (Y) (2.36)

Dividiendo por x y y se normaliza la covarianza y se obtiene el denominado


coeficiente de correlacin . As:

= Cov (X,Y) / x.y (2.37)

Este coeficiente adopta valores entre +1 y 1 pasando por cero. Cuando adopta el
valor cero, las dos variables no estarn correlacionadas. Se puede demostrar que s:

Y = aX+b ; Entonces = +1 (2.38)

Y = aX+b ; Entonces = 1 (2.39)

y
Donde: a = . y b = y a. x
x

De la aplicacin de cuadrados mnimos sobre la correlacin entre X e Y resulta el


error cuadrtico medio:

ecm = 2y .(1 2 )

Se verifica adems que si dos variables aleatorias son independientes, entonces no


estarn correlacionadas, sin embargo la inversa no es cierta. La no correlacin no
implica independencia estadstica. Para dos variables aleatorias X e Y. Es posible
demostrar las siguientes relaciones importantes entre ellas:

E(X + Y) = E(X) + E(Y) sean X e Y independientes o no

Var(X + Y) = Var(X) + Var(Y) si X e Y son independientes

E(X Y) = E(X) E(Y) sean X e Y independientes o no

Var(X Y) = Var(X) + Var(Y) si X e Y son independientes


E(k.X) = k.E(X)

Var(k.X) = k 2 .Var(X)

E(k.X + b) = k.E(X) + b
Introduccin a la Teora de Probabilidades 15
_______________________________________________

Var(k.X + b) = k 2 .Var(X)

E(X.Y) = E(X).E(Y) sean X e Y independientes

Var(X + Y) = Var(X) + Var(Y) + 2.Cov(X, Y)


Cov(X, Y) = E(XY) E(X).E(Y)

3. Cambio de variable.

3.1. Funcin de una variable.

El problema de cambio de variable reside concretamente en evaluar fY(y)


conocida fX (x), conociendo la relacin que une Y con X, a saber Y = g(X). El
tratamiento es idntico para cualquier tipo de funcin Y = g(X) , sin embargo a
los fines de visualizar el problema se analizar primero el caso de funciones
definidas en forma biunvoca y luego el de las funciones definidas en forma no
biunvoca.

Si la funcin Y = g(X) es biunvoca creciente y montona como la de la Fig.


2.7, entonces:

FY(y) = P (Y y) = P (X x) = FX(x) (2.40)

Derivando respecto de la variable y se tiene:

FX ( x )
F ( y) F ( x ) x
Y X
f X (x )
f Y ( y) = = . = x = (2.41)
y x y y y
x x
x = g 1 ( y )

Si, en cambio la funcin Y = g(X) resulta montona decreciente como la de la


Fig. 2.8, se tiene:

FY(y) = P(Y y) = P (X x) = 1 P (X x) = 1FX(x) (2.42)

Derivando nuevamente respecto de la variable y resulta:


Introduccin a la Teora de Probabilidades 16
_______________________________________________

FY ( y) FX ( x ) x f X ( x )
f Y ( y) = = . = (2.43)
y x y y
x
x = g 1 ( y )

Y Y

Y=g(X)
y y
Y=g(X)

X X
x x

Fig.2.7 g(X) montona creciente Fig.2.8 g(X) montona decreciente

Combinando ambos resultados, se tiene para el caso general de funciones


biunvocas;

f X (x )
f Y ( y) = (2.43)
y
x x = g 1 ( y )

Para el caso de funciones no biunvocas como la del ejemplo de la Fig.2.9 ser :

FY(y) = P (Y y) = P (x X x) = FX x) FX(x) (2.45)

Derivando respecto de la variable y, considerando nuevamente el mdulo para


el caso ms general se tiene:
Introduccin a la Teora de Probabilidades 17
_______________________________________________

f X (x ) f X ( x)
f Y ( y) = + (2.46)
y y
x x = g 1 ( y ) x x= g 1 ( y )

Y=g(X)

X
x x

Fig.2.9 Funcin Y=g(X) no biunvoca

3.2. Funcin de varias variables

Se tratar aqu el caso de dos variables solamente, el tratamiento es extensivo a


ms variables. Sea entonces evaluar fXY (x,y) conocida la jdf fUV (u,v) y las
relaciones que ligan las variables X e Y con U y V. Sean stas:

U = u (X,Y) (2.47)
V = v (X,Y) (2.48)

Se puede demostrar que la relacin entre fXY (x,y) y FUV (u,v) es como sigue:
Introduccin a la Teora de Probabilidades 18
_______________________________________________

f XY ( x, y)
f UV (u, v) = (2.49)
J x = u 1 ( u , v )
y = v 1 ( u , v )

Donde J es el Jacoviano caracterstico del cambio de variables. As:

u u
x y
J= (2.50)
v v
x y

Si, por ejemplo resulta:

U=X+Y
V=X

El Jacoviano ser:

1 1
J= = 1 y J =1
1 0

Entonces:

fUV(u, v) = fXY(x, y)

Y si X e Y son independientes ser:

fUV(u,v) = fX(x).fY(y)

Con:
X = u -1 (U,V) = V
Y = v -1 (U, V) = U - V

4. Producto de convolucin

Si X e Y son dos variables aleatorias independientes con funciones de densidad de


probabilidad fX(x) y gX(x) respectivamente.
Introduccin a la Teora de Probabilidades 19
_______________________________________________

Entonces la densidad de probabilidad de la suma Z = X + Y vendr dada por la


convolucin de fX(x) y gX(x). Esta operacin entre las dos funciones de densidad de
probabilidad se denota fX(x)*gX(x). Por definicin, la funcin de densidad de
probabilidad de Z ser:

f X + Y (z) = P(z X + Y z + dz) = P [(z x Y z x + dz) (X = x)]


x
(2.51)

Si X e Y son variables aleatorias estadsticamente independientes:

f X + Y (x + y) = P(z x Y z x + dz).P(X = x) =
x
(2.52)
= x
f Y (z x) . dz . f X (x) . dx

Luego cancelando dz resulta y reemplazando las sumatorias por integrales resulta:


f X + Y (z) = f
X
(x).f Y (z x).dx (2.53)
x =

El mismo razonamiento es valido cambiando Y por X

f X + Y (z) = P(z X + Y z + dz) = P [(z y X z y + dz) (Y = y)]


x
(2.54)

De modo que se tiene:


f X + Y (z) = f
Y
(y).f X (z y).dy (2.55)
y =

Para analizar grficamente que significa la operacin de convolucin entre dos


funciones de densidad de probabilidad dadas, sea la convolucin entre las
siguientes funciones:

fX (x)=1 1x2
(2.56)
fY (y) = 1/2 3y5
Introduccin a la Teora de Probabilidades 20
_______________________________________________

1 f X (x)

X
1 2

Y
1/2 f (y)

Y
1 2 3 4 5

f Y (y) 1/2

-3 -2 -1 1 2 3 4 5 Y
-4

f Y (y + z) 1/2
z=4
X
3 4 5
f Z (z) = 0
1 2

f Y (y + z) 1/2
4< z <5 z
1 z4
1 2 3 4 5
X
f Z (z) = 1. dx =
4
2 2

f Y (y + z) 1/2
z =5 5
1 1
1 2 3 4 5
X
f Z (z) = 1. dx =
4
2 2

1/2
f Y (y + z) 5< z <6 6
1 1
1 2 3 4 5
X
f Z (z) = 1. dx =
5
2 2

1/2
f Y (y + z) z=6 6
1 1
1 2 3 4 5
X

f Z (z) = 1. dx =
5
2 2

1/2
f Y (y + z) 6< z<7 4
1 7-z
1 2 3 4 5
X

f Z (z) = 1. dx =
2
z- 3
2

f Y (y + z) 1/2
z =7
X
f Z (z) = 0
1 2 3 4 5

Fig.2.10 Ejemplo de producto de convolucin expresiones (2.56)

Si Z=X+Y resulta:
Introduccin a la Teora de Probabilidades 21
_______________________________________________


f X + Y (z) = f
X
(x).f Y (z x).dx
x =

La integral de convolucin de las dos funciones tendrn validez para:

1 x 2 y x+3 z x+5

Por lo cual la integral hasta z = 4 ser nula como as tambin la integral de z = 7 en


adelante. Para 4 < z < 5 la integral se comportar aumentando linealmente hasta
z = 5 donde permanecer en un valor igual hasta z = 6. All empezara a
comportarse linealmente pero disminuyendo su valor hasta z = 7 donde ser nula
nuevamente. En la Fig.2.10 se observa este proceso en forma grafica.
Para ejecutarlo grficamente habr que tomar una de las dos funciones, en este caso
la segunda fY(y), logar la imagen especular fY( y) y luego deslizar esta ltima por
todo el eje X de a +. Las reas empezarn a poseer interseccin a partir de
z = x + y = 4. De ah en adelante el rea en comn ira aumentando hasta para
luego a partir de z = x + y = 6 ir disminuyendo hasta cero en z = 7. La funcin de
densidad fZ (z) ser:

f Z (z) = 0 z4

z
1 z4

Z
f (z) = 1. dx = 4<z<5
2 2
4

6
1 1

f Z (z) = 1. dx =
5
2 2
5 z 6

4
1 7-z
1. 2 dx =
Z
f (z) = 6<z<7
2
z- 3

f Z (z) = 0 z7

Sea ahora, como un ejemplo ms, la convolucin entre las siguientes funciones de
densidad de probabilidad:
Introduccin a la Teora de Probabilidades 22
_______________________________________________

0 x<0 y x>2
fX (x) = x 0x<1
2-x 1x2
(2.57)
fY (y) 0y1

f X (x)
1

X
1 2

1 f Y (y)

Y
1 2 3 4 5

f Y (y) 1
z =0

Y
f Z (z) = 0
-1 1 2 3 4 5

f Y (y + z) 1
0 < z <1 z
z2
1 2 3 4 5
X
f Z (z) = 1.x.dx =
0
2

f Y (y + z) 1
z =1
1
X f Z (z) =
1 2 3 4 5 2

f Y (y + z) 1 1< z < 2
1 z
3
1 2 3 4 5
X

z -1

f Z (z) = 1.x.dx + 1.(2 - x).dx = z 2 + 3.z
1
2

1
f Y (y + z) z=2
1
X f Z (z) =
1 2 3 4 5 2

1
f Y (y + z) 2< z <3 2
z2 9
1 2 3 4 5
X f Z (z) = (2 - x).dx = 2 3.z + 2
z -1

f Y (y + z)
1 z =3

X f Z (z) = 0
1 2 3 4 5

Fig.2.11 Ejemplo de producto de convolucin expresiones (2.57)


Introduccin a la Teora de Probabilidades 23
_______________________________________________

Para ejecutarlo grficamente habr que tomar una de las dos funciones, en este caso
la segunda fY(y), logar la imagen especular fY( y) y luego deslizar esta ltima por
todo el eje X de a +. Analizando de igual manera que en el ejemplo anterior y
observando cuales son las reas de interseccin se tiene que:

f Z (z) = 0 z0

z
z2

f Z (z) = x.dx =
0
2
0 < z 1

1 z
3
x.dx + (2 x).dx = z
Z 2
f (z) = + 3.z 1< z 2
2
z -1 1

z
z2 9

Z
f (z) = (2 x).dx = 3.z + 2<z<3
2 2
z 1

f Z (z) = 0 z3

5. Estadstica de orden

Sea X la variable aleatoria asociada a una determinada salida de un experimento y


sean las funciones de densidad y de distribucin de probabilidad asociada a esa
variable aleatoria fX(x) y FX(x).
Sean x11, x12, x13,,x1n la primer serie de n salidas del experimento ordenadas de
menor a mayor, de modo que:

x11 < x12 < x13 < ..< x1n

Sean ahora m series tal que sus salidas estn ordenadas de menor a mayor, de modo
que:

x11 < x12 < x13 < ....< x1i < ...... < x1n
x21 < x22 < x23 < ....< x2i < ...... < x2n
x31 < x32 < x33 < ....< x3i < .. < x3n
Introduccin a la Teora de Probabilidades 24
_______________________________________________

xm1 < xm2 < xm3 < . < xmi < .. < xmn

Sea X(i) la variable aleatoria asociada a la posicin i dentro de la serie. Asi X(1) ser
la variable aleatoria asociada al menor de los valores y X(n) la variable aleatoria
asociada al mayor de los valores. Se cumple que:

X(1) < X(2) < X(3) < < X(i-1) < X(i) < X(i+1) < .. < X(n-1) < X(n)

Evaluemos la funcin de densidad de probabilidad de la variable aleatoria asociada


a la posicin i dentro del conjunto X(i)

X (i)
P(x X (i) x + dx) = f (x).dx

La probabilidad de que X(i) est entre x y dx es la probabilidad de que hayan (i-1)


valores de la variable aleatoria antes de esa posicin, (n-i) despus de esa posicin
y exactamente uno en esa posicin (i). La probabilidad de encontrar valores de la
variable aleatoria antes de la posicin (i) es: P(X x) = FX(x), mientras que la
probabilidad de encontrar valores de la variable aleatoria despus de esa posicin
(i) es: P(X x) = 1 FX(x). Asimismo, la probabilidad de encontrar un nico valor
de la variable aleatoria en la posicin (i) es: fX(x).dx.
Como se trata de tres posibles salidas con tres diferentes probabilidades y
observando que el orden de los valores de la variable aleatoria por debajo y por
encima del valor de la variable aleatoria en la posicin i puede permutarse con
repeticin, la consecuencia inmediata es relacionar esta situacin con la que se
presenta en una distribucin una multinomial. As:

n
FX (x)i 1.f X (x).dx.[1 FX (x)]n i
X (i)
f (x).dx =
(i 1)!.1.(n i)!

Eliminando dx en ambos miembros de la expresin, se tiene:

n
(x) = i. . FX (x)i 1.f X (x).[1 FX (x)]n i
X (i)
f
i

La funcin de densidad de probabilidad asociada al menor de los valores que toma


la variable aleatoria ser:
Introduccin a la Teora de Probabilidades 25
_______________________________________________

(x) = n.f X (x).[1 FX (x)]n 1


X (1)
f

La funcin de densidad de probabilidad asociada al mayor de los valores que toma


la variable aleatoria ser:

(x) = n. FX (x) n 1.f X (x)


X (n)
f

De otra forma podran evaluarse las funciones de distribucin de probabilidad


asociada al mayor y al menor de los valores que toma la variable aleatoria:

X (1)
F (x) = P[X (1) x] = 1 P[X (1) x] = 1 P[X (1) x, X (2) x,......X (n) x]
Luego:

X (1)
F (x) = 1 [1 F X (x)]n

Asimismo:

X (n)
F (x) = P[X (n) x] = P[X (1) x, X (2) x,......X (n) x]
Luego:

X (n)
F (x) = [F X (x)]n

6. Ejemplos de aplicacin.

6.1. Ejemplo 1.
Introduccin a la Teora de Probabilidades 26
_______________________________________________

La demanda diaria de energa elctrica de un sistema satelital es en promedio 1200


KWh con una varianza de 400 KWh. Evale cuantos KWh deberan suministrarse
para que la demanda alcance como mnimo el 90 % de las veces.

Definamos la variable aleatoria X y sus parmetros caractersticos:

X = Demanda diaria
E(X) = 1200 KWh
Var(X) = 400 KWh

La distribucin de la variable aleatoria X se desconoce y el problema conduce a


acotar una probabilidad, por lo que aparece la factibilidad de atacarlo utilizando la
desigualdad de Chebyshev. En la Fig.2.10 se observa una distribucin cualquiera
para X y las cotas solicitadas en el problema.


0,9 0,1

-t t

Fig.2.10 Distribucin de la demanda diaria de energa elctrica

2
Entonces: P ( X - t )
t2

P ( X - 1200 t )
400 400
= 1 0,9 = 0,1 t= = 4000 63,25
t2 0,1
400
t= = 4000 63,25
0,1

Luego:

P ( X - 1200 63,25) 0,1 1200 63,25 X 1200 + 63,25

De donde: 1163,75 X 1263,25


Introduccin a la Teora de Probabilidades 27
_______________________________________________

La demanda diaria de energa elctrica en KWh debe estar entre 1163,75 y


1263,25 KWh para que sea suficiente en el 90 % de las oportunidades.

6.2. Ejemplo 2.

A los efectos de observar que la desigualdad de Chebyshev es solo una


aproximacin veamos que sucede con la variable aleatoria asociada al puntaje
obtenido al arrojar un dado bueno. En la Fig.2.11 se muestra la funcin de masa de
probabilidad pmf emergente del experimento arrojar un dado bueno. Definamos X
como la variable aleatoria asociada al valor de cada una de las caras del dado y
tomemos un intervalo de t = 3.

0,18

0,16
P(X = x )
0,14

0,12

0,1

0,08
3,5
0,06
3,5 3 = 0,5 3,5 + 3 = 6,5
0,04

0,02

0
0 1 2 3 4 5 6

Fig.2.11 Funcin de masa de probabilidad al arrojar un dado bueno

De la Fig.2.11 se observa que no existen valores de probabilidad debajo de 0,5 o arriba de


6,5. Por lo tanto:

P( X - 3,5 3) = 0

La esperanza matemtica y la variancia de X viene dada por:

x .P(X = x ) = 1. 6 + 2. 6 + 3. 6 + 4. 6 + 5. 6 + 6. 6 = 3,5
1 1 1 1 1 1
= E(X) = j j
j =1
2
1 2 7
2 = Var(X) = E(X 2 ) E 2 (X) = .(1 + 2 2 + 32 + 4 2 + 52 + 6 2 ) 2,917
6 2
Introduccin a la Teora de Probabilidades 28
_______________________________________________

Segn la desigualdad de Chebyshev:

(
P X 3,5 3 ) 2,917
9
0,324

Como se observa Chebyshev es solo una aproximacin a la resolucin de un


problema e impone solamente una cota. Es evidente que la probabilidad de
encontrar valores de la variable aleatoria X menores a 3 o superiores a 6 es menor
que 0,324. En realidad es cero.

6.3. Ejemplo 3.

Una urna contiene 5 bolas blancas (B) y bolas 3 negras (N). Si se seleccionan 3
bolas sin reemplazo, Hallar la funcin de masas de probabilidad y la de
distribucin de probabilidad de la variable aleatoria asociada al nmero de bolillas
negras extradas. Evaluar su esperanza matemtica y su varianza.

Sea X = Variable aleatoria asociada al nmero de bolillas negras que surgen del
experimento que consiste en extraer tres bolillas de la urna sin reposicin. Por lo
tanto los valores de X pueden ser 0, 1, 2 y 3. La funcin de probabilidad estar
dada por las probabilidades de que la variable aleatoria X tome los valores 0, 1, 2,
3. As:

5 3 5 3
. .
3 0 2 1
P(X = 0) = = P(X = 1) = =
10 30
8 56 8 56

3 3
5 3 5 3
. .
1 2 0 3
P(X = 2) = = P(X = 3) = =
15 1
8 56 8 56

3 3

La funcin de distribucin de probabilidad estar dada por la probabilidad de que


la variable aleatoria X tome valores menores o iguales a 0, 1, 2, 3. As:

10 10 + 30 40
P(X 0) = P(X 1) = =
56 56 56
Introduccin a la Teora de Probabilidades 29
_______________________________________________

10 + 30 + 15 55 10 + 30 + 15 + 1 56
P(X 2) = = P(X 3) = = =1
56 56 56 56

La Esperanza matemtica y varianza de X sern:

x .P(X = x ) = 0. 56 + 1. 56 + 2. 56 + 3. 56 = 56 = 1,125
10 30 15 1 63
E(X) = j j
j= 0

2
10 2 30 15 1 63
2 = Var(X) = E(X 2 ) E 2 (X) = 0 2. + 1 . + 2 2. + 32. 0,502
56 56 56 56 56

6.4. Ejemplo 4.

Resolver el problema anterior pero con reposicin.

Sea X = Variable aleatoria asociada al nmero de bolillas negras que surgen del
experimento que consiste en extraer tres bolillas de la urna con reposicin. En este
caso la probabilidad de extraer una bolilla negra o blanca permanece constante,
debido a la reposicin. Entonces:

5 3
P(B) = y P(N) =
8 8

Los valores de X pueden ser, como en el caso del problema anterior, 0, 1, 2 y 3. La


funcin de probabilidad estar dada por las probabilidades de que la variable
aleatoria X tome los valores 0, 1, 2, 3. As:

3 0 2 1
5 3 125 5 3 3.75 225
P(X = 0) = 1. . = P(X = 1) = 3. . = =
8
8 512 8 8 512 512

1 2 0 3
5 3 3.45 135 5 3 27
P(X = 2) = 3. . = = P(X = 3) = 1. . =
8 8 512 512 8 8 512

La funcin de distribucin de probabilidad estar dada por la probabilidad de que


la variable aleatoria X tome valores menores o iguales a 0, 1, 2, 3. As:
Introduccin a la Teora de Probabilidades 30
_______________________________________________

125 125 + 225 350


P(X 0) = P(X 1) = =
512 512 512

125 + 225 + 135 485 125 + 225 + 135 + 27 512


P(X 2) = = P(X 3) = = =1
512 512 512 512

La Esperanza matemtica y varianza de X sern:

x .P(X = x ) = 0. 512 + 1. 512 + 2. 512 + 3. 512 = 512 = 1,125


125 225 135 27 576
E(X) = j j
j=0

2
125 2 225 135 27 576
2 = Var(X) = E(X 2 ) E 2 (X) = 0 2. +1 . + 2 2. + 32. 0,703
512 512 512 512 512

6.5. Ejemplo 5.

Sea X una variable aleatoria cuya funcin de distribucin de probabilidad F(x) es:

0 para x - 1
2
(x + 1)
para - 1 x 1
8
3
para 1 x 2
4
(x + 4)
para 2 x 4
8

1 para x 4

Encontrar la funcin de densidad de probabilidad y evaluar las siguientes


probabilidades:

a. P (X 0)
b. P (1 < X 3)
c. P (1 < X 2)

La Fig.2.12 muestra la funcin de distribucin de probabilidad F(x).


Introduccin a la Teora de Probabilidades 31
_______________________________________________

1
0,9
0,8
0,7
0,6
F(x)

0,5
0,4
0,3
0,2
0,1
0
-1 0 1 2 3 4 5
X

Fig.2.12 Funcin de distribucin de probabilidad ejemplo 5

La funcin de densidad de probabilidad f(x) es:

0 para x - 1
x +1
para - 1 x < 1
4
1
para 1 x < 2
4
1
para 2 x 4
8

0 para x > 4

En la Fig.2.13 se muestra la funcin de densidad e probabilidad correspondiente.


Obsrvese el salto de la funcin de densidad de probabilidad en x=1 debido a que
la funcin de distribucin de probabilidad entre 1 x 1, para x=1 es 1/2, pero la
funcin de distribucin entre 1 x 2 sube a 3/4. Obsrvese adems que el rea
debajo de la funcin de distribucin de probabilidad es unitaria.

Luego:

1
P(X 0) = P(X < 0) = F(0) =
8
Introduccin a la Teora de Probabilidades 32
_______________________________________________

0,5
0,45
0,4
0,35
0,3
f(x)

0,25
0,2
0,15
0,1
0,05
0
-1 0 1 2 3 4 5
X

Fig.2.13 Funcin de densidad de probabilidad ejemplo 5

7 3 1
P(1 < X 3) = F(3) - extremo superior del salto de F(1) = =
8 4 8
Veamos la diferencia con:
7 1 3
P(1 X 3) = F(3) - extremo inferior del salto de F(1) = =
8 2 8
Finalmente:

P(1 < X 2) = 0

6.6. Ejemplo 6.

Sea X una variable aleatoria cuya funcin de distribucin de probabilidad F(x) es:

0 para x - 1
x +1
para - 1 x 0
2
e x
1- para x 0
2

Hallar la funcin de densidad de probabilidad f(x) correspondiente, la esperanza


matemtica y la varianza de la variable X.
Introduccin a la Teora de Probabilidades 33
_______________________________________________

En la Fig.2.14 se observa la funcin de distribucin de probabilidad


correspondiente. Se trata de una funcin continua. La funcin de densidad de
probabilidad estar dada por las correspondientes derivadas de la funcin de
distribucin de acuerdo a los diferentes dominios, as:

0 para x - 1
1
para - 1 x 0
2
ex
para x 0
2

En la Fig. 2.15 se muestra la funcin de densidad de probabilidad

1
0,9
0,8
0,7
0,6
F(x)

0,5
0,4
0,3
0,2
0,1
0
-2 -1 0 1 2 3 4 5
X

Fig.2.14 Funcin de distribucin de probabilidad ejemplo 6

0 0
1 e- x x2 1 x +1 1 1 1

E(X) = x.f(x).dx =
-1

-1
2
.x.dx +
2 .x.dx =
0
4
1
. x = + =
2 e 0 4 2 4
0 0
1 2 e- x 2 x3 1 x 2 + 2.x + 2
.
2 2
E(X ) = x .f(x).dx = .x .dx + .x .dx = =
-1 -1
2 2
0
6
1
2 ex 0

1 7
= +1 =
6 6
Introduccin a la Teora de Probabilidades 34
_______________________________________________

2
7 1 53
2 = Var(X) = E(X 2 ) E 2 (X) = =
6 4 48

0,6

0,5

0,4
f(x)

0,3

0,2

0,1

0
-2 -1 0 1 2 3 4 5
X

Fig.2.15 Funcin de densidad de probabilidad ejemplo 6

6.7. Ejemplo 7.

Una partcula pesada es arrojada en presencia de un campo gravitatorio con un


ngulo respecto de un eje de referencia horizontal y con velocidad inicial v0. Cual
ser el alcance de esa partcula sobre el eje horizontal si esta distribuido
uniformemente ente 0 y /2.

v0
xm x

Fig.2.16 Trayectoria de una partcula pesada en campo gravitatorio


Introduccin a la Teora de Probabilidades 35
_______________________________________________

En la Fig.16 se observa la trayectoria de una partcula pesada que parte del eje de
coordenadas con velocidad inicial v0 formando un ngulo con el eje horizontal.
Las ecuaciones clsicas del movimiento en ambos ejes son:

x = v 0 .t.cos
y = v 0 .t.sen g.t

El alcance xm depender bsicamente del ngulo y de la velocidad inicial v0 de


acuerdo a la siguiente expresin:

v 02
xm = .sen2 = k.sen2
g

El problema consiste en encontrar la distribucin de la variable Xm asociada al


alcance xm en funcin de la variable aleatoria asociada al ngulo . Esto puede
encararse a partir de la funcin de densidad de probabilidad pdf (solucin #1) o a
partir de la funcin de distribucin Cdf (solucin #2).

Solucin #1

d1 d
f(x m ) = f(1 ). + f( 2 ). 2
dx m dx m

xm
sen2 = donde esta entre 0 y /2
k

Xm

k
xm

0 /2
1 2

Fig.2.17 Alcance en funcin del ngulo de partida de una partcula


Introduccin a la Teora de Probabilidades 36
_______________________________________________

De la Fig.2.17 surge:

1 x 1 x
1 = .arcsen m por simetra 2 = .arcsen m
2 k 2 2 k

d1 1 1 d 2 1 1
= . = .
dx m 2 2 dx m 2 2
x x
k 1 m k 1 m
k k

Pero f(1 ) = f( 2 ) = 2/

Luego:
2 1 1 2 1 1 2
f(x m ) = . . + . . =
2 2 2 2 2
x x x
k 1 m k 1 m .k 1 m
k k k

Con 0 xm k

Solucin #2

De la Fig.2.17 surge:

Para x m k F(x m ) = P(X m x m ) = 1

Para x m k

F(x m ) = P(X m x m ) = P[( 1 ) ( 2 )] = P( 1 ) + P( 2 ) =

= P( 1 ) + 1 P( 2 ) = F( = 1 ) + 1 F( = 2 )

2
Pero 1 + 2 = y F( ) = para 0
2 2
Luego:

F(x m ) = F( = 1 ) + 1 F( = 2 ) = F( = 1 ) + 1 F( = )=
1
2
2 2 2 4 2 x
= .1 + 1 F( = ) + F( = 1 ) = .1 + 1 1 + .1 = .1 = .arcsen m
2 k
Introduccin a la Teora de Probabilidades 37
_______________________________________________

De la solucin #1 surge directamente la pdf y de la solucin #2 la Cdf. Derivando


esta ltima se puede verificar la primera. Cuando se trata de funciones no
biunvocas es aconsejable trabajar con la Cdf como en la solucin #2.

6.8. Ejemplo 8.

Sea la funcin de densidad de probabilidad f(x) = e -x para x > 0 y sea Y = 2 X 3 .


Encontrar la funcin de densidad de probabilidad de Y.

3,5
Y
3
Y = 2 X3
2,5

1,5

0,5

0
-1,5 -1 -0,5 0 0,5 1 1,5 2 2,5
-0,5
X
-1

Fig.2.18 Funcin Y = 2 X3

En este caso es sencillo trabajar directamente con la pdf, as:

Para X > 0 Y < 2 Luego:

Para Y 2 resulta f(y) = 0

dx
Para Y 2 f(y) = f(x).
dy
Si Y 2 X 0 y f(x) = e -x

dx 1
x =3 2y =
dy 3.(2 y ) 2 / 3
Introduccin a la Teora de Probabilidades 38
_______________________________________________

Luego:
3 2- y
e
Para Y 2 resulta f(y) =
3.(2 - y)2/3

6.9. Ejemplo 9.

Si se toma un nmero al azar en el recinto de la figura 2.19 la funcin de densidad


de probabilidad resulta un prisma recto de altura y volumen unitario.

f(x, y)
Y

1 2
Recinto = =1
1 2

x + y =1 -1
1

0
X 0 X
1 1

x y =1 Volumen = 1
1
-1

Fig.2.19 Recinto de la funcin de densidad de probabilidad conjunta f(x,y)

Encontrar las funciones de densidad de probabilidad marginales f(x), f(y) y


dibujarlas.

Para hallar funcin de densidad de probabilidad marginal f(x) se debe integrar la


funcin de densidad de probabilidad conjunta f(x,y) en Y para lo cual conviene
trazar una recta que corte al eje X e integrar a lo largo del mismo fijando los lmites
de la variable Y en funcin de X. Asimismo para hallar la funcin de densidad de
probabilidad marginal f(y) se debe integrar la funcin de densidad de probabilidad
Introduccin a la Teora de Probabilidades 39
_______________________________________________

conjunta f(x,y) en X para lo cual conviene trazar una recta que corte al eje Y e
integrar a lo largo del mismo fijando los lmites de la variable X en funcin de Y.
En la Fig.2.20 se muestra la metodologa para hallar ambas funciones marginales
f(x) y f(y).

Y Y

1 y = 1 x 1 x = 1 y

x + y =1 x + y =1
0 0
X X
1 1
x y =1 x y =1


-1
y = x 1 -1
x = 1+ y

Fig.2.20 Metodologa para hallar las funciones de densidad de probabilidad marginales

1+ y 1+ y

f(y) =
x =
f(x, y)dx =
x =0
f(x, y)dx = dx =1 + y
x =0
Para 0 x 1

1 y 1 y

f(y) =
x =
f(x, y)dx =
x =0
f(x, y)dx = dx =1 y
x =0
Para 0 y 1

1+ y 1+ y

f(y) =
x =
f(x, y)dx =
x =0
f(x, y)dx = dx =1 + y
x =0
Para 1 y 0

Cuando se integra sobre el eje Y los lmites permanecen fijos a lo largo de las
rectas y = 1x e y = x1. Esto es que deslizndose sobre el eje X estos lmites no
varan. En cambio cuando se integra sobre el eje X, esto es deslizndose sobre el
Introduccin a la Teora de Probabilidades 40
_______________________________________________

eje Y los lmites cambian. Para 0 y 1 el lmite es la recta x = 1y, mientras que
para 1 y 0, el lmite es la recta x = 1+y.
Grficamente la funcin de densidad de probabilidad marginal f(x) surge de rebatir
la funcin cuya base es el prisma sobre el eje X ecualizndola para que la funcin
resultante sea siempre positiva y su integral unitaria.
Del mismo modo la funcin de densidad de probabilidad marginal f(y) surge de
rebatir la funcin cuya base es el prisma sobre el eje Y ecualizndola para que la
funcin de densidad resultante sea siempre positiva y su integral unitaria. En la Fig.
2.21 se muestra ambas funciones de densidad de probabilidad marginales.

f(x) f(y)
2
1

X 0
Y
0 1 1 1

Fig.2.21 Funciones de densidad de probabilidad marginales f(x) e f(y)

6.10. Ejemplo 10.

Si X e Y poseen una funcin de densidad de probabilidad conjunta:

f(x,y) = 2.x.y para 0 y 2x 2

Encontrar las funciones de densidad de probabilidad marginales f(x) y f(y) y las


funciones de densidad de probabilidad condicionales f(x/y) e f(y/x).
Evaluar para la funcin de densidad de probabilidad conjunta la probabilidad
P(Y 0,4 / X=x).

De acuerdo a la definicin de la funcin de densidad de probabilidad conjunta


f(x,y), el recinto que corresponde es el que se muestra en la Fig.2.22. Verifiquemos
que se trata de una funcin de densidad de probabilidad conjunta vlida en el
recinto definido haciendo la integral de la funcin en el mismo.
Introduccin a la Teora de Probabilidades 41
_______________________________________________

Y
y = 2x

R ecin to

0
X
1

Fig.2.22 Recinto de la funcin f(x,y) = 2.x.y

1 2x 1 2x 1 2x

f(x, y).dx.dy = 2xy.dx.dy = 2x.dx. y.dy =


0 0 0 0 0 0
2x 1
1 1
y 2 4x 4

3
= 2x.dx. = 4x .dx = =1
0
2 0 0
4 0

f(x, y) = 2xy Para 0 y 2x 2

Comencemos por hallar la funcin de densidad de probabilidad condicional f(x/y):

f(x, y)
f(x/y) =
f(y)
1 1
x2 y3
f(y) =

f(x, y).dx = 2xy.dx = 2y.
y 2 x = y
= y
4
; Para 0 y 2
x= 2
2
Luego:

f(x, y) 2xy 2x y
f(x/y) = = = ; Para 0 y 2 ; x 1
f(y) y3 y2 2
y 1
4 4
Introduccin a la Teora de Probabilidades 42
_______________________________________________

Obsrvese de la Fig.2.23 que el recinto de la funcin de densidad de probabilidad


marginal f(y) depende solo de la variable Y, mientras que el recinto de la funcin
de densidad de probabilidad condicional f(x/y) depende de la variable Y pero
tambin de X como funcin de Y. Hallemos ahora funcin de densidad de
probabilidad condicional f(y/x):

f(x, y)
f(y/x) =
f(x)
2x 2x
y2
f(x) =

f(x, y).dy = 2xy.dy = 2x.
y =0 y = 0
2
= 4.x 3 ; Para 0 x 1

Luego:

f(x, y) 2xy y
f(y/x) = = 3 = 2 ; Para 0 x 1 ; 0 y 2x
f(y) 4x 2x

Obsrvese nuevamente de la Fig.2.23 que el recinto de la funcin de densidad de


probabilidad marginal f(x) depende solo de la variable X, mientras que el recinto
de la funcin de densidad de probabilidad condicional f(y/x) depende de la variable
X pero tambin de Y como funcin de X.

Y Y
y
x=
2
x =1
2 2
Recin to y = 2x
y Recinto

0
X X
1 0 1
y=0 x

Fig.2.23 Recinto de las funciones de densidad de probabilidad condicionales f(x/y) , f(y/x)


Introduccin a la Teora de Probabilidades 43
_______________________________________________

En la Fig.2.24 se muestra la figura de anlisis para hallar la P(Y 0,4 / X=x). En


primer lugar el recinto o zona favorable para Y 0,4 empezar a tener sentido para
X 0,2 e ira creciendo desde Y = 0,4 hasta la recta Y = 2.X a medida que X se
desliza desde X = 0,2 hasta X = 1. Entonces:

Para 0 x 0,2 ; resulta P(Y 0,4/X = x) = 0

Para 0,2 x 1 ; resulta:

y = 2x y = 2x
y 0,04
P(Y 0,4/X = x) = f(y/x).dy =
y = 0,4 y = 0,4
2.x 2
.dy = 1 2
x

Zonas favorables

y = 0,4

0
X
1
x
x = 0,2

Fig.2.24 Recinto favorable de la funcin de densidad de probabilidad condicional f(y/x)

6.11. Ejemplo 11.

Si X e Y poseen una funcin de densidad de probabilidad conjunta:

f(x,y) = 24.(x+y)/5 para 0 2y x 1

Encontrar:
Introduccin a la Teora de Probabilidades 44
_______________________________________________

a. P (X 0,5 / Y=y)
b. P (0,1 X 0,2 / Y=y)
c. E (X / Y=y)

Comencemos por verificar que f(x,y) es una funcin de densidad conjunta valida en
el recinto definido.

x x x
1 2 1 2 1 2 1
24 24 24 5 2
f(x, y).dx.dy =
0 0 0 0
5
.(x + y).dx.dy =
5
0
dx. (x + y).dy =
0
5 8
0
.x .dx = 1

Para hallar la probabilidad P (X 0,5 / Y=y) es necesario contar con la funcin de


densidad de probabilidad condicional f(x/y). Como:

f(x, y)
f(x/y) =
f(y)

Tambin se necesita conocer la funcin de densidad de probabilidad marginal f(y).


Entonces:

1
24 24 1 1
f(y) = f(x, y).dx = 5 .(x + y).dx =
x =2 y
. 4.y 2 + y
5 2
; Para 0 y
2

Luego:

24
.(x + y)
f(x, y) 5 2.x + 2.y 1
f(x/y) = = = ; Para 0 y ; 2y x 1
f(y) 24 1 1 8.y 2 + 2.y 2
. 4.y 2 + y
5 2

En la Fig.2.25 se muestra el recinto de la funcin de densidad de probabilidad


condicional f(x/y). La figura de anlisis para hallar la probabilidad de X 0,5,
dado Y = y, esto es P (X 0,5 / Y=y) se muestra en la Fig.2.26.
All se observa en gris oscuro los distintos recintos o zonas favorables en donde la
variable aleatoria X es mayor que 0,5.
Introduccin a la Teora de Probabilidades 45
_______________________________________________

Estos recintos se mantienen constantes y acotados superiormente por X = 1, a


medida que la variable aleatoria Y se desliza desde Y = 0 hasta Y = 0,25. Aqu no
todo en el universo condicional es favorable.
A partir de ese punto, el inicio de los recintos o zonas favorables empiezan a
coartarse por la recta X = 2Y mientras su cota superior sigue siendo X = 1, as
hasta Y = 0,5. En este ltimo caso todo en el universo condicional es favorable.

x = 2.y

1
2
x =1
y
Recin to

0
X
1

Fig.2.25 Recinto de la funcin de densidad de probabilidad condicional f(x/y)

Entonces:

Para 0 y 0,25 resulta:

3
1 1 y+
2.x + 2.y
P(X 0,5/Y = y) =
x = 0 ,5

f(x/y).dx =
x = 0, 5
1 8.y 2
+ 2.y
.dx =
1 - 8.y 2
4
+ 2.y

Para 0,25 y 0,5 resulta:

1 1
2.x + 2.y
P(X 0,5/Y = y) =
x = 2y
f(x/y).dx =
x = 2y
1 8.y 2
+ 2.y
.dx = 1
Introduccin a la Teora de Probabilidades 46
_______________________________________________

x = 2y
1
2

1
Zonas Favorables
4
y

0 X
1 1
2

Fig.2.26 Recintos Favorables para P (X 0,5 / Y=y)

La figura de anlisis para hallar la probabilidad de que X este comprendido entre


0,1 y 0,2 dado Y = y, esto es P (0,1 X 0,2 / Y=y) se muestra en la Fig.2.27.

x = 2y
1
2

y 0,1
0,05 Zonas Favorables

0
0,1 0,2 1 X

Fig.2.27 Recintos Favorables para P (0,1 X 0,2 / Y=y)


Introduccin a la Teora de Probabilidades 47
_______________________________________________

All se observa en gris oscuro los distintos recintos o zonas favorables en donde la
variable aleatoria X esta comprendida entre 0,1 y 0,2.
Estos recintos se mantienen constantes y acotados inferiormente por X = 0,1 y
superiormente por X = 0,2, a medida que la variable aleatoria Y se desliza desde Y
= 0 hasta Y = 0,05. Aqu no todo en el universo condicional es favorable.
A partir de ese punto, el inicio de los recintos o zonas favorables empiezan a
coartarse por la recta X = 2Y mientras su cota superior sigue siendo X = 0,2, as
hasta Y = 0,1. En este caso tambin no todo en el universo condicional es
favorable.
A partir de Y = 0,1 y hasta Y = 0,5 el recinto o zona favorable se reduce a cero.
Esto no suceda al evaluar P (X 0,5 / Y=y) pues la cota superior de X era uno y
todo en el universo condicional era favorable.

Entonces:

Para 0 y 0,05 resulta:

0,2 0,2
2.x + 2.y 1 4y + 1
P(0,1 X 0,2/Y = y) = f(x/y).dx =
x = 0,1 x = 0,1
2
1 8.y + 2.y
.dx = ln
30 2y 1

Para 0,05 y 0,1 resulta:

0,2 0,2
2.x + 2.y 0,8 8 y 4y + 1
P(0,1 X 0,2/Y = y) =
x=2 y
f(x/y).dx =
x =2 y
1 8.y 2
+ 2.y
.dx =
12
. ln


2y 1

Para 0,1 y 0,5 resulta:

0,2 0,2
2.x + 2.y
P(0,1 X 0,2/Y = y) = f(x/y).dx =
x = 0, 2 x = 0, 2
1 8.y 2 + 2.y
.dx =0

La esperanza matemtica E (X / Y=y) resulta:


Introduccin a la Teora de Probabilidades 48
_______________________________________________

1 1
2.x + 2.y
E(X/Y, Y = y) =
x = 2y
x.f(x/y).dx = x. 1 8.y
x = 2y
2
+ 2.y
.dx =

1 1 1
2 2
= . x.(x
1 8.y 2 + 2.y x = 2y
+ y).dx = .
1 8.y 2 + 2.y x = 2y
x 2 .dx + x.y..dx =
x = 2y

3 28
31 2
1 + y .y 3
2 x y.x 1
= . + = 2 3 ; Para 0 y
1 8.y 2 + 2.y 3 x = 2y 2 1 8.y 2 + 2.y 2
x = 2y

6.12. Ejemplo 12.

Dada la funcin de densidad de probabilidad conjunta:

f (x, y) = k.e (x + y) , para x 0, y x

Evaluar las siguientes probabilidades: P(Y < 2X) y P[Mx (X, Y ) < 4] .

Recin to

y=x

0
X

Fig.2.28 Recinto para f(x,y) = k.e (x+y)


Introduccin a la Teora de Probabilidades 49
_______________________________________________

En la Fig.22.8 se muestra el recinto de la funcin de densidad de probabilidad


conjunta propuesta. En ese recinto el volumen debe ser unitario, para ello
verifiquemos para qu valor de k acontece, integrado dicha funcin en el mismo.

k.e
(x + y)
f(x, y).dx.dy = .dx.dy = 1
x =0 y= x x =0 y=x

[ e ] 1 1

(x + y)
k. . dx = k. e 2x .dx = k. .e 2x = k. = 1
x =0 x =0
2 x =0 2
y= x

Luego k = 2. En la Fig.2.29 se observa el recinto para hallar la P(Y < 2X). As:

y = 2x y = 2x

2.e 2.e e
(x + y) x y
P(Y < 2X) = .dx.dy = dx. .dy =
x =0 y = x x =0 y=x


= [
2.e x .dx. e y ] y = 2x
y=x = (2.e
2x
2.e 3x ).dx =
1
3
x =0 x =0

y = 2x
Y
Recinto

y=x

X
0

Fig.2.29 Recinto para evaluar la P(Y < 2X)


Introduccin a la Teora de Probabilidades 50
_______________________________________________

Y
y=x

Recin to

X
4
0

Fig.2.30 Recinto para evaluar la P[Mx(X,Y) < 4]

En la Fig.2.30 se observa el recinto para hallar la P[Mx(X,Y)<4]. As:

4 4 4 4

2.e 2.e e
(x + y) x y
P[Mx(X, Y) < 4] = .dx.dy = dx. .dy =
x =0 y=x x =0 y= x

4 4
= [
2.e x .dx. e y ] 4
y=x = [2.e
2x
]
2.e (4 + x) .dx =
x =0 x =0

4 4

2.e 2x .dx 2.e


(4 + x)
= .dx = 1 e 8 2.e 4 + 2.e 8 = 1 + e 8 2.e 4
x =0 x =0

6.13. Ejemplo 13.

Dada la funcin de densidad de probabilidad conjunta:

6
f(x, y) = x , para x 0, y 0, 1 x + y 2
7
Introduccin a la Teora de Probabilidades 51
_______________________________________________

Encontrar las funciones de densidad de probabilidad marginales f(x) y f(y).

Y
2

y = 2x

1
R ecin to

0 X
1 2
y = 1 x

6
Fig.2.31 Recinto para f(x,y) = .x
7

En la Fig.2.31 se nuestra el recinto de la funcin de densidad de probabilidad


conjunta dada. Comencemos por verificar que f(x,y) es una funcin de densidad
conjunta valida en el recinto definido.

1 2 x 1 2x 1
6 6

0 1 x

f(x, y).dx.dy = dx
0 1 x
7
.x.dy = dx. .x.(2 x 1 + x) =
7
0

1 1
6 6 x2 3
=
0
7
.x.dx = . =
7 2
0
7

2 2 x 2 2x 2 2
6 6 6

1 0

f(x, y).dx.dy = dx
1 0
7
7
1
7
.x.dy = dx. .x.(2 x) = dx. .(2x x 2 ) =
1

2
6 x3 4
= . x 2 =
7 3 7
1

3 4
+ = 1 , por lo tanto se trata de una funcin de densidad de probabilidad vlida.
7 7
Introduccin a la Teora de Probabilidades 52
_______________________________________________

x=0
Y Y
y=2x x =2y
2 2

1 y=2x x =2y
1

0 2
X 0 X
1 1 2

y =1 x y=0 x =1 y

Fig.2.32 Metodologa para hallar las funciones de densidad de probabilidad marginales

Para hallar funcin de densidad de probabilidad marginal f(x) se debe integrar la


funcin de densidad de probabilidad conjunta f(x,y) en Y para lo cual conviene
trazar una recta que corte al eje X e integrar a lo largo del mismo fijando los lmites
de la variable Y en funcin de X. Asimismo para hallar la funcin de densidad de
probabilidad marginal f(y) se debe integrar la funcin de densidad de probabilidad
conjunta f(x,y) en X para lo cual conviene trazar una recta que corte al eje Y e
integrar a lo largo del mismo fijando los lmites de la variable X en funcin de Y.
En la Fig.2.32 se muestra la metodologa para hallar ambas funciones marginales
f(x) y f(y). Entonces:

2 x
6 6
f(x) =
y =1 x
7
.x.dy = .x
7
, para 0 x 1

2x
6 6
f(x) =
y=0
7
.x.dy = .x.(2 x) , para 1 x 2
7

2 y
6 3
f(y) =
x =1 y
7
.x.dx = .(3 2.y) , para 0 y 1
7
Introduccin a la Teora de Probabilidades 53
_______________________________________________

2 y
6 3
f(y) =
x =0
7
.x.dy = .(2 y)2
7
, para 1 y 2

f(x) f(y)

9/7

6/7

3/7

X Y
0 1 2 0 1 2

Fig.2.33 Funciones de densidad de probabilidad marginales f(x) e f(y)

Cuando se integra sobre el eje Y los lmites permanecen fijos a lo largo de las
rectas y = 1x , y = 2x para 0 x 1. Esto es que deslizndose sobre el eje X
estos lmites no varan mientras 0 x 1. Sin embargo para 1 x 2 el lmite
inferior cambia al eje y = 0 y la recta y = 2x. En cambio cuando se integra sobre el
eje X, esto es deslizndose sobre el eje Y los lmites permanecen fijos a lo largo de
las rectas x = 1y , x = 2y mientras 0 y 1. Sin embargo para 1 y 2 el
lmite inferior cambia al eje x = 0 y la recta x = 2 y.
Grficamente la funcin de densidad de probabilidad marginal f(x) surge de rebatir
la funcin cuya base es el trapecio sobre el eje X ecualizndola para que la funcin
resultante sea siempre positiva y su integral unitaria.
Del mismo modo la funcin de densidad de probabilidad marginal f(y) surge de
rebatir la funcin cuya base es el trapecio sobre el eje Y ecualizndola para que la
funcin de densidad resultante sea siempre positiva y su integral unitaria. En la Fig.
2.33 se muestra ambas funciones de densidad de probabilidad marginales.

6.14. Ejemplo 14.

Una botonera de comando posee tres botones numerados de 1 a 3. El operador sabe


que tiene presionar dos pero no recuerda la secuencia. Si X es la variable aleatoria
asociada al primer numero de la secuencia e Y la asociada al segundo nmero de la
Introduccin a la Teora de Probabilidades 54
_______________________________________________

secuencia encontrar la covarianza entre X e Y. Suponer primero que en la


secuencia no puede haber repeticiones y luego que es posible que las haya sin
secuencia.

Sean entonces las siguientes variables aleatorias:

X: VA asociada al primer botn seleccionado


Y: VA asociada al segundo botn seleccionado

En la Fig.2.34 se muestra la botonera en cuestin y las funciones de probabilidad


de masa asociadas con la seleccin de un botn de la misma.

P(X = x) P(Y = y)

1 1
1 2 3 3 3

Botonera X Y
1 2 3 1 2 3

Fig.2.34 Funciones de probabilidad de masa asociadas a las variables aleatorias X e Y

La esperanza matemtica de las variables aleatorias asociadas a la seleccin de un


determinado botn es la misma:

1 1 1
E ( X ) = 1. + 2. + 3. = 2
3 3 3
1 1 1
E (Y ) = 1. + 2. + 3. = 2
3 3 3

Para el caso en que la secuencia no admite repeticiones se tiene el esquema de la


Fig.2.35, en cuyo caso la esperanza matemtica de la funcin de probabilidad
conjunta de masa de las dos variables aleatorias es:

E(XY) = 2.1.P(X = 1, Y = 2) + 3.1.P(X = 1, Y = 3) + 2,3.P(X = 2, Y = 3) +

+ 2.1.P(X = 2, Y = 1) + 3.1.P(X = 3, Y = 1) + 3.2.P(X = 3, Y = 2)


Introduccin a la Teora de Probabilidades 55
_______________________________________________

Entonces:

1 1 1 1 1 1 11
E(XY) = 2.2.1. . + 2.3.1. . + 2.2.3. . =
3 2 3 2 3 2 3

La covarianza ser:

11 1
Cov(XY) = E(XY) E(X).E(Y) = 2.2 =
3 3

3 3

2 2

Y Y

1 1

0 0
0 1 2 3 0 1 2 3

X X

Fig.2.35 Esquema sin repeticin Fig.2.36 Esquema con repeticin

Para el caso en que la secuencia no admite repeticiones se tiene el esquema de la


Fig.2.36, en cuyo caso la esperanza matemtica de la funcin de probabilidad
conjunta de masa de las dos variables aleatorias es:

E(XY) = 2.1.P(X = 1, Y = 2) + 3.1.P(X = 1, Y = 3) + 2,3.P(X = 2, Y = 3) +

+ 2.1.P(X = 2, Y = 1) + 3.1.P(X = 3, Y = 1) + 3.2.P(X = 3, Y = 2) +

+ 1.1.P(X = 1, Y = 1) + 2.2.P(X = 2, Y = 2) + 3.3.P(X = 3, Y = 3)

Entonces:

1 1 1 1 1 1 1 1 1 1 1 36
E(XY) = 2.2.1. . + 2.3.1. . + 2.2.3. . + 1.1. + 2.2. . + 3.3. . = =4
3 3 3 3 3 3 9 3 3 3 3 9

Por lo que la covarianza ser igual a cero.


Introduccin a la Teora de Probabilidades 56
_______________________________________________

6.15. Ejemplo 15.

Un dado se arroja tres veces y sea X la variable aleatoria asociada al nmero de


veces que sale 1 e Y la variable aleatoria asociada al nmero de veces que sale 2.
Encontrar la correlacin entre las dos variables aleatorias y la recta de regresin.

X: VA asociada al nmero de veces que sale 1


Y: VA asociada al nmero de veces que sale 2
1
El experimento arrojar un dado tres veces resulta una binomial con n = 3 y p =
6
La esperanza matemtica y varianza tanto para X como para Y resultan iguales:

1 1
E(X) = E(Y) = n.p = 3. =
6 2
1 5 5
Var(X) = Var(Y) = n.p.(1 p) = 3. . =
6 6 12

1 2 ?

1 2 2 2

Y
1 1 2 1

Casos de Inters
0
0 1 2 3

Fig.2.37 Esquema de combinaciones de X e Y

En la Fig.2.37 se muestran los casos de inters al arrojar un dado tres veces, a


saber:

 Que aparezca solo una vez tanto el 1 como el 2 al arrojar el dado las dos
primeras veces y cualquier otro valor diferente de 1 y 2 para la tercera vez que
se arroja el dado. Aqu X =1 e Y =1.
Introduccin a la Teora de Probabilidades 57
_______________________________________________

 Que aparezca solo una vez el 1 y dos veces el 2 al arrojar el dado tres veces.
Aqu X = 1 e Y =2.
 Que aparezca dos veces el 1 y solo una vez el 2 al arrojar el dado tres veces.
Aqu X = 2 e Y = 1

Los valores indicados con puntos mas oscuros en el esquema de la Fig.2.37


corresponden a valores de X = 0 para cualquier Y e Y = 0 para cualquier X y son
siempre nulos. Entonces la esperanza matemtica de la funcin de probabilidad de
masa conjunta es:

E(XY) = 1.1.P(X = 1, Y = 1) + 1.2.P(X = 1, Y = 2) + 2.1.P(X = 2, Y = 1) =


2 2
3! 1 1 4 3! 1 1 3! 1 1 1
= 1.1. . . . + 1.2. . . + 2.1. . . =
1!.1!.1! 6 6 6 2!.1! 6 6 1!.2! 6 6 6

Obsrvese que en el clculo de las probabilidades aparecen permutaciones con


repeticin en todos los casos. La covarianza ser:

1 1 1 1 1 1
Cov(XY) = E(XY) E(X).E(Y) = . = =
6 2 2 6 4 12

El coeficiente de correlacin resulta:


1

12 1
XY = =
5 5 5
.
12 12

Los coeficientes de la recta de regresin son:

5

Y 1 12 1
a = XY . = . =
X 5 5 5

12

1 1 1 3
b = E(Y) a.E(X) = . =
2 2 5 5
Introduccin a la Teora de Probabilidades 58
_______________________________________________

La recta de regresin es:

1 3
y= x+
5 5

El error cuadrtico medio es:

1 2 5 24 2
ecm = 2y .[1 2XY ] = Var(Y).1 = . =
5 12 25 5

You might also like