Professional Documents
Culture Documents
INTRODUCCION
PROCESOS ESTOCASTICOS
Luis Rincon
Departamento de Matematicas
Facultad de Ciencias UNAM
Circuito Exterior de CU
04510 Mexico CDMX
La mayor parte de este trabajo fue elaborado mientras realizaba una es-
tancia sabatica en la universidad de Nottingham durante el a no 2007, y
agradezco al Prof. Belavkin su amable hospitalidad para llevar a cabo este
proyecto, y a la DGAPA-UNAM por el apoyo economico recibido durante
dicha estancia. Adem as, la publicacion de este trabajo ha sido posible gra-
cias al apoyo otorgado a traves del proyecto PAPIME PE-103111. Agradezco
sinceramente todos estos apoyos recibidos y expreso tambien mi agradeci-
miento al grupo de personas del comite editorial de la Facultad de Ciencias
por su ayuda en la publicacion de este trabajo. Finalmente doy las gracias
por todos los comentarios que he recibido por parte de alumnos y profe-
sores para mejorar este material. Hasta donde humanamente me sea posible
mantendre una version digital actualizada de este libro en la pagina web
http://www.matematicas.unam.mx/lars .
Luis Rincon
Enero 2012
Ciudad Universitaria, UNAM
lars@fciencias.unam.mx
Contenido
1. Ideas preliminares 1
1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Caminatas aleatorias 7
2.1. Caminatas aleatorias . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. El problema del jugador . . . . . . . . . . . . . . . . . . . . . 16
2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3. Cadenas de Markov 27
3.1. Propiedad de Markov . . . . . . . . . . . . . . . . . . . . . . 27
3.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3. Ecuaci on de Chapman-Kolmogorov . . . . . . . . . . . . . . . 39
3.4. Comunicaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5. Periodo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.6. Primeras visitas . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.7. Recurrencia y transitoriedad . . . . . . . . . . . . . . . . . . . 50
3.8. Tiempo medio de recurrencia . . . . . . . . . . . . . . . . . . 56
3.9. Clases cerradas . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.10. N
umero de visitas . . . . . . . . . . . . . . . . . . . . . . . . 58
3.11. Recurrencia positiva y nula . . . . . . . . . . . . . . . . . . . 65
3.12. Evolucion de distribuciones . . . . . . . . . . . . . . . . . . . 69
3.13. Distribuciones estacionarias . . . . . . . . . . . . . . . . . . . 71
3.14. Distribuciones lmite . . . . . . . . . . . . . . . . . . . . . . . 80
3.15. Cadenas regulares . . . . . . . . . . . . . . . . . . . . . . . . 86
3.16. Cadenas reversibles . . . . . . . . . . . . . . . . . . . . . . . . 88
3.17. A. A. Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
iii
iv Contenido
3.18. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
7. Martingalas 199
7.1. Filtraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
7.2. Tiempos de paro . . . . . . . . . . . . . . . . . . . . . . . . . 202
7.3. Martingalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
7.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
7.5. Procesos detenidos . . . . . . . . . . . . . . . . . . . . . . . . 207
7.6. Una aplicacion: estrategias de juego . . . . . . . . . . . . . . 209
7.7. Teorema de paro opcional y aplicaciones . . . . . . . . . . . . 212
7.8. Algunas desigualdades . . . . . . . . . . . . . . . . . . . . . . 217
7.9. Convergencia de martingalas . . . . . . . . . . . . . . . . . . 218
7.10. Representaci
on de martingalas . . . . . . . . . . . . . . . . . 224
Contenido v
Ap
endice: conceptos y resultados varios 307
Bibliografa 315
Ideas preliminares
En los casos m
as sencillos se toma como espacio parametral el conjunto
discreto T 0, 1, 2, . . . y estos n
umeros se interpretan como tiempos. En
1
2 1. Ideas preliminares
este caso se dice que el proceso es a tiempo discreto, y en general este tipo
de procesos se denotara por Xn : n 0, 1, . . . , o explcitamente,
X0 , X1 , X2 , . . .
as, para cada n, Xn es el valor del proceso o estado del sistema al tiempo n.
Este modelo corresponde a un vector aleatorio de dimension infinita. Vease
la Figura 1.1.
Xn
X5
X3
X1
X4
X0
n
1 2 3 4 5
X2
Figura 1.1
Xt
Xt2
Xt1
Xt3
t
t1 t2 t3
Figura 1.2
X:T S
Procesos de Markov
Estos tipos de procesos son modelos en donde, suponiendo conocido el estado
presente del sistema, los estados anteriores no tienen influencia en los estados
futuros del sistema. Esta condicion se llama propiedad de Markov y puede
expresarse de la siguiente forma: para cualesquiera estados x0 , x1 , . . . , xn 1
(pasado), xn (presente), xn 1 (futuro), se cumple la igualdad
P Xn 1 xn 1 X0 x0 , . . . , Xn xn P Xn 1 xn 1 Xn xn .
Procesos estacionarios
Se dice que un proceso estocastico a tiempo continuo Xt : t 0 es
estacionario en el sentido estricto si para cualesquiera tiempos t1 , . . . , tn ,
la distribuci on del vector Xt1 , . . . , Xtn es la misma que la del vector
Xt1 h , . . . , Xtn h para cualquier valor de h 0. En particular, la dis-
on de Xt es la misma que la de Xt h para cualquier h 0.
tribuci
Martingalas
Una martingala a tiempo discreto es, en terminos generales, un proceso
Xn : n 0, 1, . . . que cumple la condicion
E Xn 1 X0 x0 , . . . , Xn xn xn . (1.1)
Procesos de L` evy
Se dice que un proceso estocastico a tiempo continuo Xt : t 0 es un
proceso de L`evy si sus incrementos son independientes y estacionarios. Mas
adelante veremos que tanto el proceso de Poisson como el movimiento Brow-
niano son ejemplos de este tipo de procesos.
Procesos Gausianos
Se dice que un proceso estocastico a tiempo continuo Xt : t 0 es un
proceso Gausiano si para cualesquiera coleccion finita de tiempos t1 , . . . , tn ,
el vector Xt1 , . . . , Xtn tiene distribucion normal o Gausiana multivaria-
da. Nuevamente, el movimiento Browniano es un ejemplo de este tipo de
procesos.
1.1. Ejercicios
1. Sean X0 , X1 , . . . los resultados de una sucesion de ensayos indepen-
dientes Bernoulli. Determine si el proceso Xn : n 0, 1, . . .
a) tiene incrementos independientes.
b) tiene incrementos estacionarios.
c) es una martingala.
d) cumple la propiedad de Markov.
2. Sea X una variable aleatoria con distribucion Ber p . Para cada t 0
defina la variable
cos t si X 0,
Xt
sin t si X 1.
a) Dibuje todas las trayectorias del proceso Xt : t 0 .
b) Calcule la distribucion de Xt .
c) Calcule E Xt .
3. Demuestre que todo proceso a tiempo discreto Xn : n 0, 1, . . . con
incrementos independientes cumple la propiedad de Markov.
Captulo 2
Caminatas aleatorias
7
8 2. Caminatas aleatorias
ra 2.1, v
alidas para cualquier n 0, y para cualesquiera enteros i y j. Estas
probabilidades se pueden escribir de la forma siguiente:
p si j i 1,
P Xn 1 j Xn i q si j i 1,
0 otro caso.
Como estas probabilidades no dependen de n, se dice que son homogeneas
en el tiempo, es decir, son las mismas para cualquier valor de n. A partir
de estas consideraciones, es intuiti-
vamente claro que este proceso
cumple la propiedad de Markov,
es decir, el estado futuro del pro- Xn
ceso depende u nicamente del esta-
do presente y no de los estados
previamente visitados. Una posible
n
trayectoria de este proceso se mues-
tra en la Figura 2.2. Una camina-
ta aleatoria puede tambien definirse
de la forma siguiente: sea 1 , 2 , . . . Figura 2.2
una sucesion de variables aleatorias
independientes e identicamente dis-
tribuidas. Por la identica distribucion denotaremos a cualquiera de ellas
mediante la letra sin subndice. Supondremos que P 1 p y
P 1 q, en donde, como antes, p q 1. Entonces para n 1 se
define
Xn : X0 1 n .
Sin perdida de generalidad supondremos que X0 0. Nos interesa encon-
trar algunas propiedades de la variable Xn , y de su comportamiento como
funci
on de n. Por ejemplo, a partir de la expresion anterior, es inmediato
encontrar su esperanza y varianza.
Proposici
on 2.1 Para cualquier entero n 0,
1. E Xn np q .
2. Var Xn 4npq.
2.1. Caminatas aleatorias 9
Demostraci
on. Para la esperanza tenemos que:
n
E Xn E i nE np q .
i 1
Probabilidades de transici on
Como hemos supuesto que la caminata inicia en cero, es intuitivamente
claro que despues de efectuar un n umero par de pasos el proceso solo puede
terminar en una posici on par, y si se efect
uan un numero impar de pasos la
posici
on final s
olo puede ser un n
umero impar. Ademas, es claro que despues
de efectuar n pasos, la caminata solo puede llegar a una distancia maxima
de n unidades, a la izquierda o a la derecha. Teniendo esto en mente, en el
siguiente resultado se presenta la distribucion de probabilidad de la variable
Xn .
10 2. Caminatas aleatorias
Proposici
on 2.2 Para cualesquiera n
umeros enteros x y n tales que n
x n, y para el caso cuando x y n son ambos pares o ambos impares,
n 1
n x 1
n x
P Xn x X0 0 1 p2 q2 . (2.1)
2 n x
Para valores de x y n que no cumplen las condiciones indicadas la probabi-
lidad en cuesti
on vale cero.
Esta f
ormula puede tambien justificarse mediante argumentos de analisis
combinatorio de la siguiente forma: en total hay 2n posibles trayectorias
que la caminata puede seguir al efectuar n pasos, todas ellas con la mis-
ma probabilidad de ocurrir debido a la simetra. Ahora, cuantas de estas
trayectorias terminan en x 0, por ejemplo? Como se ha argumentado
umero de pasos a la derecha debe ser 12 n x , y el n
antes, el n umero de
trayectorias que cumplen la condicion es el numero de formas en que los
1
2 n x pasos a la derecha pueden escogerse de los n pasos totales. La res-
puesta es entonces el cociente que aparece en (2.2). La formula (2.1) puede
extenderse facilmente al caso general de pasar de un estado cualquiera y a
otro estado x en n pasos, como se muestra a continuacion.
n 1
n x y 1
n x y
P Xn x X0 y 1 p2 q2 . (2.3)
2 n x y
P Xn x X0 y P Zn x y Zn 0.
u
ltimo caso demostraremos ademas que el n umero de pasos promedio para
regresar al origen es, sin embargo, infinito. La demostraci on es un tanto
tecnica y hace uso de las funciones generadoras de probabilidad. Como este
captulo es introductorio, tal vez sea mejor recomendar al lector, cuando se
trate de una primera lectura, omitir los detalles de esta demostracion.
1 si p q,
1 p q
1 si p q.
f k pn k tn
k 0 n k
f k tk pn k tn k
k 0 n k
Gt p n tn .
n 0
Por lo tanto,
p n tn 1 Gt p n tn . (2.5)
n 0 n 0
Para encontrar G t se necesita encontrar una expresion para la suma
que aparece en la u
ltima ecuacion, y que no es otra cosa sino la funcion
generadora de los numeros p0 , p1 , p2 , . . . Haremos esto a continuacion.
c) Para el an
alisis que sigue necesitamos recordar que para cualquier
n
umero real a y para cualquier entero n, se tiene el coeficiente binomial
a aa 1 a n 1
. (2.6)
n n!
14 2. Caminatas aleatorias
a a n
1 t t . (2.7)
n 0
n
2n 2n 2n 1 2n 2 3 2 1
n n! n!
2n n! 2n 1 2n 3 5 3 1
n! n!
2n 2n 2n 1 2n 3 5 3 1
n! 2 2 2 2 2
2n 2n n 1 3 5 3 1
1 n n
n! 2 2 2 2 2
1 2
4n . (2.8)
n
2n n n 2n
p n tn p q t
n 0 n 0
n
n 1 2 n n 2n
4 p q t
n 0
n
1 2
4pqt2 n
n 0
n
1 4pqt2 1 2
. (2.9)
1 4pqt2 1 2
1 Gt 1 4pqt2 1 2
.
2.1. Caminatas aleatorias 15
Gt 1 1 4pqt2 1 2
. (2.10)
1 2
fn lm G t 1 1 4pq 1 p q.
t 1
n 0
t
n fn lm G t lm .
n 0
t 1 t 1 1 t2
1
r
q p r p
1 0 1 1 1
q s
1
(a) (b)
Figura 2.3
pues una vez que la cadena llega a alguno de ellos, jamas lo abandona. Una
posible trayectoria cuando la caminata se absorbe en el estado 0 se muestra
en la Figura 2.4. Una de las preguntas que resolveremos para esta caminata
es la siguiente: cu
al es la probabilidad de que eventualmente el jugador A
se arruine? Es decir, cual es la probabilidad de que la caminata se absorba
en el estado 0 y no en el estado N , u oscile entre estos dos estados? Este
problema se conoce como el problema de la ruina del jugador, y encon-
traremos a continuaci on su solucion. Como veremos, usando probabilidad
condicional es posible transformar este problema en resolver una ecuacion
en diferencias.
Solucion al problema
Sea el primer momento en el que la caminata visita alguno de los dos
estados absorbentes, es decir, mn n 0 : Xn 0 o Xn N . Puede
demostrarse que es una variable aleatoria y que es finita casi seguramente.
La pregunta planteada se traduce en encontrar la probabilidad
uk P X 0 X0 k .
uk p uk 1 q uk 1, (2.11)
uk 1 uk q p uk uk 1 . (2.12)
forma siguiente:
u2 u1 q p u1 1
2
u3 u2 q p u1 1
..
.
k 1
uk uk 1 q p u1 1.
uk 1 Sk 1 u1 1. (2.13)
k 1 si p 1 2,
k
Sk 1 q p q p 1 q p k 1
si p 1 2.
1 q p
Por lo tanto,
N k N si p 1 2,
uk q p k q p N (2.14)
si p 1 2.
1 q pN
En la Figura 2.5 se muestra la grafica de la probabilidad uk como funcion
del parametro k para varios valores de p y con N 50. En el caso simetrico
la soluci
on es la lnea recta que une la probabilidad 1 con la probabilidad
0. Naturalmente la probabilidad de ruina decrece cuando el capital inicial
k aumenta. En la secci on de ejercicios se sugiere otra forma de resolver la
ecuacion en diferencias (2.11).
2.2. El problema del jugador 19
uk
1
p 0.01
p 0.2
p 0.35
p 0.65
p 0.5
p 0.8
p 0.99
k
10 20 30 40 50
Figura 2.5
An alisis de la solucion
Es interesante analizar la f
ormula (2.14) en sus varios aspectos. Por ejemplo,
para el caso simetrico p 1 2, es decir, cuando el juego es justo, la proba-
bilidad de ruina es muy cercana a 1 cuando k es muy peque no comparado
con N . Esto sugiere que no conviene jugar esta serie de apuestas contra
adversarios demasiado ricos, aun cuando el juego sea justo. Es tambien un
tanto inesperado observar que la probabilidad uk es muy sensible a los va-
lores de p cercanos a 1 2. Esto puede apreciarse en la Figura 2.6. Cuando p
es distante de 1 2 la probabilidad uk es casi constante, pero para valores de
p cercanos a 1 2 la probabilidad cambia rapidamente de un extremo a otro.
Estas graficas fueron elaboradas tomando N 50.
uk uk uk
1 1 1
k 5 p k 25 p k 45 p
1 2 1 1 2 1 1 2 1
Figura 2.6
Proposici
on 2.5 El n
umero esperado de apuestas antes de la ruina es
k N k si p q,
mk 1 1 q pk
k N si p q.
q p 1 q pN
mk 1 p mk 1 q mk 1,
v
alida para k 1, 2, . . . , N 1. Esta es una ecuacion en diferencias, de
segundo orden, lineal y no homogenea. Las condiciones de frontera son ahora
m0 0 y mN 0. Substituyendo p q mk por mk y agrupando terminos
convenientemente la ecuaci on anterior puede reescribirse del siguiente modo:
q 1
mk 1 mk mk mk 1 . (2.15)
p p
Recordando la notaci
on Sk 1 q p q p k , y substituyendo
2.2. El problema del jugador 21
Es decir,
k 2
1
mk m1 S k 1 Si . (2.16)
p i 0
En particular, sumando todas las ecuaciones de (2.15) se obtiene
N 2
1
mN m1 S N 1 Si .
p i 0
Substituyendo en (2.16),
N 2 k 2
Sk 1 1 1
mk Si Si . (2.17)
SN 1 p i 0
p i 0
2.3. Ejercicios
Caminatas aleatorias
4. Propiedad de Markov. Demuestre que una caminata aleatoria simple
Xn : n 0 sobre Z cumple la propiedad de Markov, es decir, de-
muestre que para cualquier valor natural de n y para cualesquiera
enteros x0 , x1 , . . . , xn 1 , la probabilidad
P Xn 1 xn 1 X0 x0 , . . . , Xn xn
coincide con P Xn 1 xn 1 Xn xn .
2.3. Ejercicios 23
M t E etXn pet qe t n
.
P Xn x X0 0 P Xn x X0 0.
p q n si p 1 2,
P n (2.18)
1 si p 1 2.
Lleve a cabo cada uno de los siguientes pasos para encontrar nueva-
mente la probabilidad de un eventual retorno a la posicion de origen
f00 .
a) Demuestre que f f 2 .
1,1 1,0 f01 f01
b) Condicionando sobre el primer paso de la caminada, demuestre
que f00 pf10 q f 1,0 pf10 q f01 .
c) Usando la misma tecnica que en el inciso anterior demuestre que
f01 p q f01 2 .
e) De manera an
aloga obtenga f10 1, q p.
f) Analice los casos p q y p q por separado para encontrar que
f00 2q y f00 2p, respectivamente. Concluya que
f00 2 mn p, q 1 p q.
uk p uk 1 q uk 1.
k N si q 1 2,
vN k q pk 1
si q 1 2.
q pN 1
mk 1 p mk 1 q mk 1.
Cadenas de Markov
27
28 3. Cadenas de Markov
p xn 1 x0 , . . . , xn p xn 1 xn . (3.1)
p x0 , x1 , . . . , xn p x0 p x1 x0 p xn xn 1 .
Probabilidades de transici on
Sean i y j dos estados de una cadena de Markov. A la probabilidad
P Xn 1 j Xn i
0 1 2
0 p00 p01 p02
1 p10 p11 p12
P p20 p21 p22
2
.. .. .. ..
. . . .
Figura 3.1
a) pij 0.
b) pij 1.
j
X1 j .
j
1 P X1 j X0 i P X1 j X0 i pij .
j j j
Esto ultimo significa que a partir de cualquier estado i con probabilidad uno
la cadena pasa necesariamente a alg un elemento del espacio de estados al
siguiente momento. En general toda matriz cuadrada que cumpla estas dos
propiedades se dice que es una matriz estocastica. Debido a la propiedad
de Markov, esta matriz captura la esencia del proceso y determina el com-
portamiento de la cadena en cualquier tiempo futuro. Si ademas la matriz
satisface la condicion i pij 1, es decir, cuando la suma por columnas
tambien es uno, entonces se dice que es doblemente estocastica.
Existencia
Hemos mencionado que la propiedad de Markov (3.1) es equivalente a la
igualdad p x0 , x1 , . . . , xn p x0 p x1 x0 p xn xn 1 . Esta identidad
establece que las distribuciones conjuntas p x0 , x1 , . . . , xn se encuentran
completamente especificadas por la matriz de probabilidades de transicion
y por una distribuci on inicial. En el texto de Chung [5] puede encontrarse
una demostraci on del hecho de que dada una matriz estocastica y una dis-
tribucion de probabilidad inicial, existe un espacio de probabilidad y una
cadena de Markov con matriz de probabilidades de transicion y distribucion
inicial las especificadas. Es por ello que a la matriz misma se le llama a veces
cadena de Markov.
3.2. Ejemplos 31
3.2. Ejemplos
Estudiaremos a continuaci on algunos ejemplos particulares de cadenas de
Markov. Retomaremos m as adelante varios de estos ejemplos para ilustrar
otros conceptos y resultados generales de la teora, de modo que nos referire-
mos a estos ejemplos por los nombres que indicaremos y, a menos que se diga
lo contrario, usaremos la misma notacion e hipotesis que aqu se presentan.
a
0 1
0 1 a a
P 1 a 0 1 1 b
1 b 1 b
b
Figura 3.2
p00 n p01 n
P n
p10 n p11 n
1 1 a b n
b a a a
.
a b b a a b b b
a0 a1 a2 a3
0 a0 a1 a2 a3
P 0 0 a0 a1 a2 a3 .
.. .. .. ..
. . . .
a 0 a1 a 2
0 a 0 a1
P 0 0 a0 .
.. .. ..
. . .
r exitos
F E E
1 2 n r n r 1 n
Figura 3.3
La colecci
on de variables aleatorias Xn : n 1, 2, . . . es una cadena de
Markov con espacio de estados 0, 1, . . . . Las probabilidades de transicion
y la matriz correspondiente se muestran en la Figura 3.4.
0 1 2 3
0 q p 0 0
p si j i 1,
1 q 0 p 0
pij q si j 0, P 2 q 0 0 p .
0 otro caso. .. .. .. ..
. . . .
Figura 3.4
p si j i 1,
pij q si j i 1,
0 otro caso,
p q q q q
1 2 3 r
p p p p
Figura 3.5
n
pij n 1 pn j i 2
q n j i 2
.
2 n j i
Cadena de Ehrenfest
Sean A y B dos urnas dentro de las cuales se encuentran distribuidas un
total de N bolas de acuerdo a cierta configuracion inicial, por ejemplo, en
36 3. Cadenas de Markov
0 1 0 0 0 0
1 N 0 N 1 N 0 0 0
0 2 N 0 N 2 N 0 0
P .. .. .. .. .. .. .
. . . . . .
0 0 0 0 0 1 N
0 0 0 0 1 0
Cadena de ramificaci on
Considere una partcula u objeto que es capaz de generar otras partculas
del mismo tipo al final de un periodo establecido de tiempo. El conjun-
to de partculas iniciales constituye la generacion 0. Cada una de estas
partculas simult
aneamente y de manera independiente genera un n umero
de descendientes dentro del conjunto 0, 1, . . . , y el total de estos descen-
dientes pertenece a la generacion 1, estos a su vez son los progenitores de la
3.2. Ejemplos 37
generaci
on 2, y as sucesivamente. Una posible sucesion de generaciones se
muestra en la Figura 3.7. El posible evento cuando una partcula no genera
ning
un descendiente se interpreta en el sentido de que la partcula se ha
muerto o extinguido.
Generaci
on Xn
0 1
1 2
2 3
3 3
4 2
Figura 3.7
n 1 si Xn 0,
Xn 1
Xn n 1 1 si Xn 1.
P j si i 0,
pij
P j i 1 si i 1.
Es decir,
a 0 a1 a2
a 0 a1 a2
P 0 a0 a1 .
0 0 a0
.. .. ..
. . .
Cadena de inventarios
Suponga que se almacena un cierto n umero de bienes en una bodega, y que
se requiere una demanda aleatoria n del bien en el periodo n. Suponga que
P n k ak , para k 0, 1, . . . con ak 0 y k ak 1, es decir, la
distribuci
on de n es la misma para cualquier n. El n umero de bienes en el
almacen es revisado al final de cada periodo y se aplica la siguiente poltica
de reabastecimiento: si al final del periodo la cantidad del bien es menor o
igual a un cierto nivel s, entonces se reabastece la bodega inmediatamente
hasta un nivel maximo S. Si al final del periodo el numero de bienes es mayor
a s, entonces no hay ning un reabastecimiento. Naturalmente s S. Sea Xn
el n
umero de bienes al final del periodo n y justo antes de aplicar la poltica
de reabastecimiento. Entonces Xn : n 0 es una cadena de Markov con
n de Chapman-Kolmogorov
3.3. Ecuacio 39
Xn n 1 si s Xn S,
Xn 1
S n 1 si Xn s.
P n 1 i j ai j si s i S,
pij P Xn 1 j Xn i
P n 1 S j aS j si i s.
3.3. Ecuaci
on de Chapman-Kolmogorov
Esta ecuaci on es una formula sen-
cilla y muy u til que permite des-
k
componer la probabilidad de pasar
del estado i al estado j en n pa- j
sos, en la suma de probabilidades
de las trayectorias que van de i a
j, y que atraviesan por un estado i
k cualquiera en un tiempo interme-
dio r. Gr aficamente, las trayecto- r n
rias que van del estado i al estado j
en n pasos se descomponen como se Figura 3.8
muestra en la Figura 3.8. Para fines
ilustrativos se dibujan las trayectorias de manera continua pero en realidad
no lo son. La ecuaci on de Chapman-Kolmogorov es importante para hacer
ciertos calculos y se usa con regularidad en el estudio de las cadenas de
Markov.
40 3. Cadenas de Markov
Demostraci
on. Por el teorema de probabilidad total y la propiedad de
Markov,
pij n P Xn j X0 i
P Xn j, Xr k, X0 i P X0 i
k
P Xn j Xr k P Xr k X0 i
k
pkj n r pik r .
k
pij n Pn ij .
misma n veces.
P Xn j pi pij n .
i
1 a a
P .
b 1 b
42 3. Cadenas de Markov
1 a 1 1 b a
Q , Q .
1 b a b 1 1
1 a a 1 a 1 0 1 b a
.
b 1 b 1 b 0 1 a b a b 1 1
Por lo tanto,
Pn Q Dn Q 1
1 a 1 0 b a 1
1 b 0 1 a b n 1 1 a b
1 1 a b n
b a a a
.
a b b a a b b b
Ejemplo 3.2 Toda matriz estoc astica P con renglones identicos es idem-
potente, es decir, para cualquier entero n 1, se cumple que P n P . Este
es el caso de la cadena de variables aleatorias independientes.
3.4. Comunicaci
on
Definiremos a continuaci
on el concepto de comunicacion entre dos estados
de una cadena de Markov como la posibilidad de pasar de un estado a otro
en alg
un n
umero finito de transiciones.
n
3.4. Comunicacio 43
b) Es simetrica: si i j, entonces j i.
c) Es transitiva: si i j y j k, entonces
i k.
C i C j
Figura 3.10
3 consigo mismo, sin embargo, por definicion p33 0 1, y ello hace que
esta clase de u
nicamente un estado sea de comunicaci
on. Observe que estas
clases de comunicaci
on conforman una particion del espacio de estados.
C 0 C 1
1 0 0 0 0 1
1 2 0 1 2 0
P
0 1 2 1 2 0
1 2 0 1 2 0
3 2
C 3
Figura 3.11
3.5. Periodo
El periodo es un n
umero entero no negativo que se calcula para cada estado
de una cadena. Una interpretacion de este n umero sera mencionada mas
adelante y aparecera tambien dentro de los enunciados generales sobre el
comportamiento lmite de cadenas de Markov.
Definici
on 3.4 El periodo de un estado i es un n
umero entero no negativo
denotado por d i , y definido como sigue:
di m.c.d. n 1 : pii n 0 ,
en donde m.c.d. significa maximo comun divisor. Cuando pii n 0 para
toda n 1, se define d i 0. En particular, se dice que un estado i es
aperi
odico si d i 1. Cuando d i k 2 se dice que i es peri
odico de
periodo k.
Demostraremos a continuacion
que el periodo es una propiedad
0 1 2 3
de clase, es decir, todos los es-
tados de una misma clase de co-
municacion tienen el mismo pe-
riodo. De este modo uno puede Figura 3.12
hablar de clases de comunicacion
peri
odicas o clases aperi
odicas.
46 3. Cadenas de Markov
An
alogamente,
Proposici
on 3.5 Para cada estado i, existe un entero N tal que para toda
n N , se cumple pii nd i 0.
fij n P Xn j, Xn 1 j, . . . , X1 j X0 i.
b) f10 n 1 b n 1 b, para n 1.
c) f00 n a1 b n 2 b, para n 2.
d) f11 n b1 a n 2 a, para n 2.
3.6. Primeras visitas 49
a) f01 n qn 1p para n 1.
b) f00 n pn 1q para n 1.
Proposici
on 3.7 Para cada n 1,
n
pij n fij k pjj n k . (3.2)
k 1
A1 Xn j, X1 j, X0 i
A2 Xn j, X2 j, X1 j, X0 i
A3 Xn j, X3 j, X2 j, X1 j, X0 i
..
.
An Xn j, Xn 1 j, . . . , X2 j, X1 j, X0 i.
No es difcil darse cuenta que estos eventos son disjuntos y la union de todos
ellos es el evento Xn j, X0 i . Ademas, por la propiedad de Markov,
la probabilidad de cada uno de ellos es, para k 1, 2, . . . , n,
P Ak P X0 i fij k Pjj n k .
Por lo tanto,
n
P Xn j, X0 i P X0 i fij k Pjj n k .
k 1
!
50 3. Cadenas de Markov
fij fij n .
n 1
Definici
on 3.7 (I) Se dice que un estado i es recurrente si la probabilidad
de eventualmente regresar a i, partiendo de i, es uno, es decir, si
P Xn i para alguna n 1 X0 i 1.
Adem as de la definici
on, tenemos el siguiente criterio u
til para determinar
si un estado es recurrente o transitorio.
Proposici
on 3.8 El estado i es:
a) recurrente si, y s
olo si pii n .
n 1
b) transitorio si, y s
olo si pii n .
n 1
Ni 1 Xn i ,
n 1
P Ni k X0 i
P Ni k, Xm i, Xm 1 i, . . . , X1 i X0 i
m 1
P Ni k Xm i, Xm 1 i, . . . , X1 i, X0 i
m 1
P Xm i, Xm 1 i, . . . , X1 i X0 i
P Ni k 1 X0 i fii m
m 1
P Ni k 1 X0 i fii
2
P Ni k 2 X0 i fii
..
.
k 1
P Ni 1 X0 i fii
fii k .
52 3. Cadenas de Markov
E Ni X0 i P Ni k X0 i
k 1
k
fii
k 1
fii
si 0 fii 1,
1 fii
si fii 1.
E Ni X0 i E 1 Xn i X0 i
n 1
P Xn i X0 i
n 1
pii n .
n 1
Proposici
on 3.9 La recurrencia es una propiedad de clase, es decir,
a) Si i es recurrente e i j, entonces j es recurrente.
n 2 ab
f00 f00 n 1 a ab 1 b 1 a 1.
n 1 n 2
b
q
f00 f00 n q 1 p p2 1.
n 1
1 p
Veremos a continuaci
on algunos ejemplos de aplicacion del criterio de la
Proposici
on 3.8.
Demostraci
on. Usando (3.2), y siendo todos los terminos no negativos,
n 1
pij n fij n k pjj k
n 1 n 1 k 0
fij n k pjj k
k 0 n k 1
fij m pjj k
k 0 m 1
fij pjj k
k 0
pjj k
k 0
.
Demostraci on. Por contradiccion, suponga que todos los estados son
transitorios. Entonces para cualesquiera estados i y j, se cumple que la
suma n 1 pij n es finita. Sumando sobre el conjunto finito de todos los
posibles estados j se obtiene
pij n .
j n 1
n 2
0 nf00 n 1 a ab n1 b
n 1 n 2
b 1
1 a ab
b2
a b
.
b
3.9. Clases cerradas 57
3.10. N
umero de visitas
En esta secci
on vamos a estudiar la variable aleatoria que registra el n
umero
de visitas que una cadena realiza sobre un estado j a partir del estado i, es
decir, para cualquier tiempo finito n se define la variable aleatoria
n
Nij n 1 Xk j , cuando X0 i.
k 1
Nij 1 Xk j , cuando X0 i.
k 1
Proposici
on 3.13 Para cualesquiera estados i y j,
1 si k 0,
a) P Nij k k 1
fij fjj si k 1.
1 fij si k 0,
b) P Nij k k 1
fij fjj 1 fjj si k 1.
mero de visitas
3.10. Nu 59
0 si fij 0,
fij
c) E Nij pij n si 0 fjj 1,
1 fjj
n 1
si fij 0 y fjj 1.
0 si j es transitorio,
d) P Nij
fij si j es recurrente.
1 si j es transitorio,
e) P Nij
1 fij si j es recurrente.
Demostraci
on.
E Nij E 1 Xn j X0 i
n 1
E 1 Xn j X0 i
n 1
pij n .
n 1
60 3. Cadenas de Markov
E Nij P Nij k
k 1
k 1
fij fjj
k 1
0 si fij 0,
fij
si 0 fjj 1,
1 fjj
si fij 0 y fjj 1.
d) Por la f
ormula del inciso (a),
P Nij lm P Nij k
k
k 1
lm fij fjj .
k
0 si j es transitorio,
fij si j es recurrente.
Proposici
on 3.14 (Propiedad fuerte de Markov) Sea Xn : n 0
una cadena de Markov y sea un tiempo de paro respecto de este proceso.
Condicionado al evento , el proceso X n : n 0 es una cadena
de Markov, es decir, la probabilidad
P X n 1 j X0 x0 , . . . , X n 1 xn 1 , X n i (3.3)
es igual a P X n 1 j X n i.
Ejemplo 3.13 (El problema del mono). Suponga que un mono escribe
caracteres al azar en una m
aquina de escribir. Cu
al es la probabilidad de
que eventualmente el mono escriba exactamente, y sin ning un error, las
obras completas de Shakespeare?
Usaremos la teora de cadenas de Markov
para demostrar que la probabilidad bus-
cada es uno. Imaginemos entonces que un
mono escribe caracteres al azar en una
m aquina de escribir, y que lo hace de
manera continua generando una sucesion
lineal de caracteres. Cada uno de los carac-
teres tiene la misma probabilidad de apare- Figura 3.14
cer y se genera un caracter independiente-
mente de otro. Sea m el total de caracteres disponibles que se pueden im-
primir, y sea N la longitud de caracteres de los cuales consta las obras com-
pletas de Shakespeare. Sea Xn el n umero de caracteres correctos obtenidos
inmediatamente antes e incluyendo el u ltimo momento observado n, es de-
cir, se trata de un modelo de racha de exitos. Es claro que las variables Xn
toman valores en el conjunto 0, 1, 2, . . . , N , y dado que los caracteres se
generan de manera independiente, el valor de Xn 1 depende u nicamente del
valor de Xn y no de los anteriores, es decir, se trata efectivamente de una
cadena de Markov. Considerando entonces un conjunto de smbolos de m
caracteres se tiene que
P Xn 1 x 1 Xn x 1 m
y P Xn 1 0 Xn x m 1 m.
Nij ij n 1 Njj n .
Nij n Nij ij n
lm lm
n n n ij n
1 Njj n
lm
n ij n
Njj n n
lm
n n ij n
Njj n
lm .
n n
3.11. Recurrencia positiva y nula 65
Interpretaci
on: para una cadena de Markov irreducible, el n
umero j 1 j
representa el tiempo promedio que la cadena permanece en el estado j a
largo plazo, suponiendo que tal cantidad es positiva.
Tomando esperanza en (3.4), por el teorema de convergencia dominada, y
para una cadena irreducible, se cumple que
n
1 1 1 1
E lm Nij n lm E Nij n lm pij k .
j n n n n n n k 1
ij E ij nfij n .
n 1
Definici
on 3.12 Se dice que un estado recurrente i es:
a) recurrente positivo si i .
b) recurrente nulo si i .
Proposici
on 3.15 Sea i un estado recurrente. Entonces,
a) si i es recurrente positivo e i j, entonces j es recurrente positivo.
Haciendo N se obtiene
1 1
pji m pij n 0.
j i
Por lo tanto el cociente 1 j es estrictamente positivo. Ello significa que j
es finito, es decir, j es recurrente positivo. !
Estados Estados
Estados
recurrentes recurrentes
transitorios positivos
nulos
4pq
0 n f00 n .
n 0
1 4pq
68 3. Cadenas de Markov
1
0 n f00 n n 1 p pn 1
1 p n pn 1
.
n 1 n 1 n 1
1 p
Se ha demostrado antes que toda cadena finita tiene por lo menos un estado
recurrente. Demostraremos ahora que para cadenas finitas s olo puede haber
dos tipos de estados: transitorios o recurrentes positivos.
pij k 1.
j C
Entonces
n n
1 1
pij k pij k 1.
nk 1 j C j C
nk 1
Para que esta suma sea uno debe existir por lo menos un valor de j en C
tal que j , pues de lo contrario cada sumando sera cero y la suma
total no podra ser uno. Por lo tanto existe un estado j que es recurrente
positivo. Dado que la recurrencia positiva es una propiedad de clase, todos
los elementos de C son recurrentes positivos. !
Observe que en particular, todos los estados de una cadena finita e irredu-
cible son recurrentes positivos.
3.12. Evoluci
on de distribuciones
Una matriz estoc astica establece una dinamica en el conjunto de las dis-
tribuciones de probabilidad definidas sobre el espacio de estados de la corres-
pondiente cadena de Markov. Para explicar la situacion de manera simple
consideraremos un espacio de estados finito 0, 1, . . . , n , y una distribu-
on de probabilidad inicial 0
ci 00 , 10 , . . . , n0 . Despues de transcurrida
la primera unidad de tiempo, la cadena se encuentre en cualquiera de sus
posibles estados de acuerdo a la distribucion 1 01 , 11 , . . . , n1 , en donde
la j-esima entrada de este vector es
j1 P X1 j
n
P X1 j X0 i P X0 i
i 0
n
i0 pij .
i 0
m m 1
P 0 P m . (3.5)
70 3. Cadenas de Markov
on inicial el vector 0
con distribuci 1 10, 0, 9 10 . Los subsecuentes vec-
tores de probabilidad 1 , 2 , . . . se calculan a continuaci on y las graficas de
estas distribuciones se muestran en la Figura 3.16. Existir a el lmite para
esta sucesi
on de vectores de probabilidad?
1 0 P 0.45, 0.55, 0
2 1
P 0, 0.45, 0.55
3 2
P 0.275, 0.275, 0.45
4 3 P 0.225, 0.5, 0.275
..
.
0 1 2 3 4
0 1 2 0 1 2 0 1 2 0 1 2 0 1 2
Figura 3.16
0 , 1
1
1 ,
2
, 1
3
1 ,
..
.
j i pij .
i
1 0 1 0
2 1 1 0
3 2 1 0
..
.
n n 1 1 0 .
n 0 n 1 0 .
3.13. Distribuciones estacionarias 73
Con base en los ejemplos anteriores haremos algunas observaciones sobre las
distribuciones estacionarias. Primeramente observe que para encontrar una
posible distribuci
on estacionaria de una cadena con matriz P , un primer
metodo consiste en resolver el sistema de ecuaciones P , sujeto a la
condici
on j j 1. M as adelante expondremos una forma alternativa de
buscar distribuciones estacionarias para cadenas reversibles. Por otro lado,
suponga que y son dos distribuciones estacionarias distintas para una
matriz P . Entonces la combinacion lineal convexa 1 , para
0, 1 , tambien es una distribucion estacionaria pues
1 P P 1 P 1 .
Por lo tanto, si existen dos distribuciones estacionarias distintas para una ca-
dena, entonces existe una infinidad de ellas. Esto demuestra que el conjunto
de distribuciones estacionarias es un conjunto convexo. Tomando en cuenta
74 3. Cadenas de Markov
j i pij
i
i pij k
i
n
1
i pij k
nk 1 i
n
1
i pij k
i
nk 1
!
3.13. Distribuciones estacionarias 75
1
j 0,
j
Demostraci
on. Sea j 1 j . Demostraremos que
(1) j i pij .
i
(2) j 1.
j
(3) j es u
nica.
n
1 1
lm pij m .
n nm 1
j
76 3. Cadenas de Markov
j i pij m , (3.7)
i
3.13. Distribuciones estacionarias 77
Haciendo n ,
N
j i j .
i 0
Ahora hacemos N para obtener
j j . (3.8)
Si esta desigualdad fuera estricta para alg un valor de j, entonces
sumando sobre todos los valores de j se obtiene 1 j j j j
1, lo cual es una contradiccion. Por lo tanto (3.8) es una igualdad para
cada valor de j, y ello demuestra la unicidad.
!
1 1 a b a b
0 , 1 , , .
0 1 b a
N 1
j , para j 0, 1, . . . , N. (3.9)
j 2N
0 , 1 , 2 1 4, 1 2, 1 4 .
1 2
1 4
0 1 2 Urna A Urna B
Figura 3.17
En vista del teorema ergodico, esto significa que, a largo plazo, la cadena de
Ehrenfest se encontrara en el estado 1 el 50 % del tiempo, y en los estados 0 y
2 el 25 % del tiempo en cada uno de ellos. Los tiempos medios de recurrencia
son
0 , 1 , 2 4, 2, 4 ,
es decir, si por ejemplo la cadena se encuentra en alg un momento en el
estado 0, entonces tardar
a en promedio 4 tiempos para regresar nuevamente
a ese estado. En este caso particular, estos tiempos medios de recurrencia
pueden corroborarse usando la definici
on basica de esperanza.
lm 0 P n lm i0 pij n .
n n
i
on 1 2, 1 2 es
Ejemplo 3.24 Es inmediato comprobar que la distribuci
estacionaria para la cadena con matriz
0 1
P .
1 0
0 1 1 0
P 2n 1
y P 2n .
1 0 0 1
1. j 1.
j
2. j i pij .
i
82 3. Cadenas de Markov
Demostraci on.
Caso 1. Espacio de estados finito. Suponga que el espacio de estados es el
conjunto finito 0, 1, . . . , N . Entonces la primera afirmacion se cumple con
igualdad pues
N N N
j lm pij n lm pij n 1.
n n
j 0 j 0 j 0
N N
i pij lm pki m pij
m
i 0 i 0
N
lm pki m pij
m
i 0
lm pkj m 1
m
j .
N N N
j lm pij n lm pij n lm 1 1.
n n n
j 0 j 0 j 0
estado j,
N N
i pij lm pki n pij
n
i 0 i 0
N
lm pki n pij
n
i 0
lm pkj n 1
n
j .
i pij j . (3.13)
i
j i pij i pij i .
j i,j i j i
b) aperi
odica, y
c) con distribuci
on estacionaria .
84 3. Cadenas de Markov
y puede f
acilmente comprobarse que tiene distribucion estacionaria
xn ,yn x n yn .
n
P Xn x, n P Xn x, Xr j, r
j r 1
n
P Xn x Xr j, r P Xr j, r
j r 1
n
P Yn x Yr j, r P Yr j, r
j r 1
n
P Yn x Yr j P Yr j, r
j r 1
P Yn x, n,
3.14. Distribuciones lmite 85
P Xn j P Xn j, n P Xn j, n
P Yn j, n P Xn j, n
P Yn j P n.
De manera an
aloga, P Yn j P Xn j P n . Por lo tanto,
P Xn j P Yn j P n 0, (3.14)
P Xn j P Xn j X0 i P X0 i pij n P X0 i pij n .
P Yn j P Yn j Y0 i i i pij n j .
i i
pij n j 0.
a) irreducible,
b) recurrente positiva, y
c) aperi
odica.
86 3. Cadenas de Markov
j i pij , (3.15)
i
Para este tipo particular de cadenas finitas se conocen los siguientes resul-
tados acerca de su comportamiento lmite.
Proposici
on 3.21 Toda cadena finita que adem
as es:
Demostraci
on.
lm P Sn es m
ultiplo de 7 .
n
88 3. Cadenas de Markov
0 1 6 1 6 1 6 1 6 1 6 1 6
1 6 0 1 6 1 6 1 6 1 6 1 6
1 6 1 6 0 1 6 1 6 1 6 1 6
P 1 6 1 6 1 6 0 1 6 1 6 1 6
1 6 1 6 1 6 1 6 0 1 6 1 6
1 6 1 6 1 6 1 6 1 6 0 1 6
1 6 1 6 1 6 1 6 1 6 1 6 0
lm P Xn 0 1 7.
n
P Xm 1 y1 , . . . , Xm r 1 yr 1,
Xm r 1 yr 1 , . . . , Xm n yn Xm r yr .
3.16. Cadenas reversibles 89
Definicion 3.16 Se dice que una cadena de Markov irreducible con proba-
bilidades de transici
on pij y con distribuci
on estacionaria es reversible en
el tiempo si para cualesquiera estados i y j,
i pij j pji . (3.17)
90 3. Cadenas de Markov
A la ecuaci
on (3.17) se llama ecuacion de balance detallado. La utilidad de
las cadenas reversibles est
a dada por el siguiente resultado, el cual ejempli-
ficaremos mas adelante con un par de aplicaciones.
Proposici on 3.22 Considere una cadena irreducible para la cual existe una
distribuci
on que cumple la identidad (3.17). Entonces es una distribu-
ci
on estacionaria y la cadena es reversible.
fij n Probabilidad de llegar por primera vez al estado j a partir del esta-
do i exactamente en el paso n, es decir, fij n P Xn j, Xn 1
n
j, . . . , X1 j X0 i . A veces se escribe tambien como fij . En par-
ticular se define fij 0 0 para cualesquiera estados i y j, incluyendo
el caso i j.
3.17. A. A. Markov
Andrey Andreyevich Markov (Rusia, 1856
1922) tuvo una salud muy precaria durante
sus primeros a nos de vida, teniendo que ca-
minar con muletas hasta la edad de 10 a nos.
En 1874 ingres o a la Facultad de Fsica y
Matem aticas de la universidad de San Pe-
tersburgo, y asistio a las clases de recono-
cidos matem aticos de la epoca, entre ellos
P. L. Chebyshev, quien tuvo una influencia
decisiva en el quehacer futuro de Markov. Se A. A. Markov
graduo brillantemente en 1878, y continuo con
sus estudios de maestra, los cuales concluyo en 1880. Trabajo como profe-
sor en la universidad de San Petersburgo al mismo tiempo que estudiaba
para su doctorado, el cual concluyo en 1884. Continuo trabajando en la
misma universidad por pr acticamente el resto de su vida. Despues de 1900,
y siguiendo los trabajos de P. L. Chebyshev, aplico el metodo de fracciones
continuas en la teora de la probabilidad. Markov fue el mejor exponente
y continuador de las ideas de Chebyshev y de sus temas de investigacion
en probabilidad. Especialmente sobresalientes son sus trabajos sobre la ley
94 3. Cadenas de Markov
de los grandes n umeros y el teorema central del lmite, as como otros re-
sultados fundamentales de la teora de la probabilidad, y sobre el metodo
de mnimos cuadrados. Markov fue un profesor muy estricto pero tambien
muy claro en sus exposiciones, y demandaba mucho rigor matematico en
los argumentos de sus estudiantes. Markov desarrollo su teora de cadenas
de Markov desde un punto de vista matematico, aunque tambien aplico su
modelo en el an alisis de estilos de escritura en poemas. Con sus trabajos so-
bre cadenas de Markov fundo una nueva rama de la probabilidad e inicio la
teora de los procesos estocasticos.
Fuente: Archivo MacTutor, Universidad de St. Andrews.
3.18. Ejercicios
Recordemos que para hacer la notacion mas corta, a la probabilidad P Xn
xn se le ha escrito como p xn , es decir, el subndice indica tambien la varia-
ble a la que se hace referencia. El significado de la probabilidad condicional
p xn 1 xn es an alogo.
Propiedad de Markov
20. Demuestre que la propiedad de Markov (3.1) es equivalente a cada
una de las siguientes condiciones.
a) Esta condicion establece que la distribucion conjunta queda es-
pecificada a traves de la distribucion inicial y las probabilidades
de transici
on en un paso: para cualesquiera estados x0 , . . . , xn ,
p x0 , x1 , . . . , xn p x0 p x1 x0 p xn xn 1 .
b) Esta condici
on establece que el futuro, sin importar lo distante
que se encuentre, depende solamente del ultimo momento obser-
vado: para cualesquiera enteros n, m 1,
p xn m x0 , . . . , xn p xn m xn .
d) Esta condici
on expresa la independencia entre el pasado y el
futuro cuando se conoce el presente: para cualesquiera enteros
0 k n,
p x0 , . . . , xk 1 , xk 1 , . . . , xn xk
p x0 , . . . , xk 1 xk p xk 1 , . . . , xn xk .
p xn m , . . . , xn 1 x0 , . . . , xn p xn m xn m 1
p xn 1 xn .
Matrices estoc
asticas
22. Demuestre que una matriz cuadrada P puede ser tal que la potencia
P n sea estoc un entero n 2, sin ser P misma estocasti-
astica para alg
ca.
Probabilidades de transici
on
Calcule:
a) P X2 0, X1 0 X0 1.
b) P X3 1, X2 1 X1 2.
4 10 6 10
P .
9 10 1 10
Calcule:
a) P X0 0, X1 1, X2 0.
b) P X0 0 X1 1.
c) P X1 0.
d) P X2 1.
e) P X0 0, X1 0, X2 1, X3 1.
1 2 1 2
P .
2 3 1 3
Encuentre:
a) la distribuci
on de X1 .
3.18. Ejercicios 97
b) la distribuci
on de X2 .
c) la distribuci
on conjunta de X1 y X2 .
d) la esperanza condicional E X2 X1 .
1 5 4 5
P .
1 2 1 2
Suponga que la cadena tiene una distribucion inicial dada por el vector
3 5, 2 5 . Encuentre P X1 0 , P X1 1 , P X2 0 y P X2 1 .
1 3 2 3
P .
3 4 1 4
Encuentre:
a) la distribuci
on de X1 .
b) P X5 1 X4 0.
c) P X3 0 X1 0.
d) P X100 0 X98 0.
e) P X1 0 X2 0.
f) P X1 1 X2 1, X3 1.
g) P X3 0, X2 0 X1 0.
Cadenas de Markov
a) P X0 0, X1 1, X2 0 ab p0 .
b) P X0 0, X2 1 ab 1 a a p0 .
c) P X2 0 1 a 2 ab p0 1 bb b1 a p1 .
1 2
4 3
Figura 3.18
a) Xn m :n 0 .
b) Xnm : n 0 .
a) P Xn j P Xn 1 i pij 1 .
i
b) P Xn j P X0 i pij n .
i
Nk max n 1 : Xn k .
a) Xn n n 1.
b) Xn Xn 1 n .
c) Xn Xn 1 n , (mod. 2).
X0 0,
Xn 1 Xn n 1 (mod. 5), para n 0.
48. Modificaci
on de la cadena de Ehrenfest. Considere el esquema de dos
urnas como en la cadena de Ehrenfest con un total de N bolas. Supon-
ga ahora que un ensayo consiste en que cada una de las bolas se cambia
de urna con una distribucion de probabilidad especificada p1 , . . . , pN ,
sin importar la posicion de las bolas. Sea Xn el n
umero de bolas en
una de las urnas despues del n-esimo ensayo. Es esta una cadena de
Markov? En caso afirmativo encuentre la matriz de probabilidades de
transici
on.
Comunicaci
on
0 0.2 0 0.8
0.3 0 0.7
0.4 0.6 0 0
a P 0.4 0.6 0 b P
0 0 1 0
0.5 0 0.5
0 0 0.3 0.7
52. Cual es el n
umero maximo y mnimo de clases de comunicacion que
puede existir para una cadena de Markov de n estados? Dibuje un
diagrama de transicion ilustrando cada una de estas dos situaciones.
a) finita e irreducible.
b) finita y reducible.
c) infinita e irreducible.
d) infinita y reducible.
Periodo
60. Demuestre que toda cadena de Markov finita tiene por lo menos un
estado de periodo positivo.
62. Use la identidad (3.2) para demostrar que para cada n 1, se cumple
la desigualdad pij n P ij n . Observe que la igualdad se cumple
en particular cuando j es un estado absorbente.
a) P ij 1 pij 1 .
b) P ij 2 pik 1 pkj 1 .
k j
c) P ij n 1 pik 1 P kj n, para n 1.
k j
64. Se efect
ua un sucesi
on de lanzamientos independientes de una moneda
equilibrada con resultados A y S. Encuentre el numero esperado de
lanzamientos para que aparezca la secuencia particular
a) S .
b) SA .
c) SAS .
3.18. Ejercicios 105
Recurrencia y transitoriedad
1 2 1 2 0 0
1 2 1 2 0
0 1 2 1 2 0
a P 0 1 2 1 2 b P
0 1 2 1 2 0
0 1 2 1 2
1 4 1 4 1 4 1 4
68. Dibuje un diagrama de transicion de una cadena de Markov tal que:
a) Todos sus estados sean recurrentes.
b) Todos sus estados sean transitorios.
c) Tenga igual n
umero de estados transitorios y recurrentes.
69. Demuestre que el estado 0 de la cadena de Markov dada por el dia-
grama de transici
on de la Figura 3.19(a) es transitorio.
70. Demuestre que el estado 0 de la cadena de Markov dada por el dia-
grama de transici
on de la Figura 3.19(b) es recurrente. Suponga que
0 1 y 0 1. Concluya que todos los estados de esta
cadena son recurrentes.
71. Demuestre que si i es un estado recurrente e i j, entonces j i.
72. Demuestre que toda cadena de Markov finita tiene por lo menos una
clase de comunicaci
on recurrente.
106 3. Cadenas de Markov
1 2
1
0 1 1 2 0 1
1 2 1 2 1 1
2 1 3 2
1
(a) (b)
Figura 3.19
Clases cerradas
a) La uni
on de dos clases cerradas es una clase cerrada.
b) Toda cadena de Markov tiene por lo menos una clase cerrada.
75. Demuestre que la coleccion de estados C es cerrada si, y solo si, alguna
de las siguientes condiciones se cumple. Para cualesquiera i C y
j C,
c) La uni
on de todas las clases de comunicacion recurrentes de una
cadena de Markov es una clase cerrada.
a) P X n 1 j X n i P X1 j X0 i . Esta propiedad
es la estacionariedad de las probabilidades de transicion en una
versi
on mas general.
b) Se cumple la propiedad fuerte de Markov: La probabilidad
P X n 1 j X0 x0 , . . . , X n 1 xn 1 , X n i
es igual a P X n 1 j X n i.
0 mn n 0 : Xn S1 ,
n mn n n 1 : Xn S1 , n 1.
108 3. Cadenas de Markov
0 0,
n 1 mn n n : Xn Xn , n 0.
p0,i ai para i 0, 1, 2, . . .
pi,i 1 1 para i 1, 2, 3, . . .
a) Irreducible.
b) Recurrente.
c) Recurrente positiva.
Distribuciones estacionarias
87. Demuestre que la cadena del jugador tiene una infinidad de distribu-
ciones estacionarias.
88. Demuestre que la cadena de variables aleatorias independientes tiene
una u
nica distribuci
on estacionaria dada por 0 , 1 , . . . a0 , a1 , . . . .
89. Demuestre que toda matriz doblemente estocastica, aperiodica, finita
e irreducible tiene una u
nica distribucion estacionaria dada por la
distribuci
on uniforme.
110 3. Cadenas de Markov
lm pij n j .
n
1 q p 1
0 1 i 1 i i 1 N 1 N
Figura 3.20
a b 1 1 d b
A A .
c d ad bc c a
b a
0 , 1 , .
a b a b
0 1
P .
1 0
Distribuciones lmite
0 0 1 0 0 1 0 0
1 0 0 0 0 0 0 1
a P b P
1 2 1 2 0 0 0 1 0 0
1 3 1 3 1 3 0 1 3 0 2 3 0
0 1 0 0
0 0 0 1
c P
0 1 0 0
1 2 0 1 2 0
Cadenas regulares
0 1 0 0 1 0
a P 0 0 1 b P 0 1 2 1 2
1 0 0 1 2 1 2 0
Cadenas reversibles
El proceso de Poisson
4.1. Definici
on
Suponga que un mismo evento ocurre
repetidas veces de manera aleatoria a
lo largo del tiempo, como se muestra 0
en la Figura 4.1. Tal evento puede ser,
Figura 4.1
por ejemplo, la llegada de una recla-
macion a una compa na aseguradora o
la recepci
on de una llamada a un conmutador, la llegada de un cliente
a una ventanilla para solicitar alg un servicio o los momentos en que una
cierta maquinaria requiere reparacion, etcetera. Suponga que las variables
aleatorias T1 , T2 . . . representan los tiempos que transcurren entre una ocu-
rrencia del evento y la siguiente ocurrencia. Suponga que estos tiempos son
independientes uno del otro y que cada uno tiene distribuci on exp . Se
115
116 4. El proceso de Poisson
Xt m
ax n 1 : T1 Tn t .
Se postula adem as que el proceso inicia en cero y para ello se define max
0. En palabras, la variable Xt es el entero n maximo tal que T1 Tn es
menor o igual a t, y ello equivale a contar el n umero de eventos ocurridos
hasta el tiempo t. A este proceso se le llama proceso de Poisson homogeneo,
tal adjetivo se refiere a que el parametro no cambia con el tiempo, es
decir, es homogeneo en
el tiempo. Una trayectoria Xt
tpica de este proceso puede 3
observarse en la Figura 4.2,
2
la cual es no decreciente,
constante por partes, con- 1
tinua por la derecha y con t
lmite por la izquierda. A 0 W1 W2 W3
los tiempos T1 , T2 , . . . se les
llama tiempos de estancia T1 T2 T3 T4
o tiempos de interarribo, Figura 4.2: El proceso de Poisson
y corresponden a los tiem- y los tiempos de ocurrencia de eventos.
pos que transcurren entre
un salto del proceso y el siguiente salto. Hemos supuesto que estos tiempos
son independientes y que todos tienen distribucion exp . En consecuencia,
la variable Wn T1 Tn tiene distribucion gama n, . Esta varia-
ble representa el tiempo real en el que se observa la ocurrencia del n-esimo
evento. Observe la igualdad de eventos Xt n Wn t , esto equivale
a decir que al tiempo t han ocurrido por lo menos n eventos si, y solo si, el
n-esimo evento ocurri o antes de t. Una de las caractersticas sobresalientes
n
4.1. Definicio 117
t t n
P Xt n e .
n!
Demostraci on. Como Wn tiene distribucion gama n, , su funcion de
distribuci
on es, para t 0,
n 1
t t k
P Wn t 1 e .
k 0
k!
P Xt n P Xt n P Xt n 1
P Wn t P Wn 1 t
t k
e t .
k!
!
Proposici
on 4.2 Para cualesquiera tiempos 0 s t, y para n 0, 1, . . .
t s n
t s
P Xt Xs n P Xt s n e . (4.1)
n!
Demostraci
on. Por el teorema de probabilidad total,
P Xt Xs n P Xt Xs n Xs k P Xs k .
k 0
P Xt Xs n P Xt s n P Xs k
k 0
P Xt s n P Xs k
k 0
P Xt s n.
!
n
4.1. Definicio 119
a) Es un proceso de Markov.
t t j i
P Xt s j Xs i e . (4.2)
j i!
Demostraci
on.
a) Considere las probabilidades condicionales
es igual a
pij t p0,j i t.
Ejemplo 4.1 (Paradoja del autob us) Suponga que la llegada de auto-
buses a una estacion se modela mediante un proceso de Poisson de par
ametro
, es decir, el tiempo que transcurre entre la llegada de un autob
us y el si-
guiente es una variable aleatoria con distribuci on exp . Suponga que el
tiempo es medido en minutos. La propiedad de perdida de memoria en este
contexto puede interpretarse de la siguiente forma: una persona ha llega-
do a la estacion y ha esperado s minutos sin que un autob us aparezca. La
probabilidad de que tenga que esperar m as de t minutos adicionales es la
misma que la probabilidad de espera de m as de t minutos para una persona
que acaba de llegar a la estaci
on!
XS t Xt tiene distribuci
on Poisson t . En efecto, para cualquier entero
k 0, y suponiendo que F s es la funci
on de distribuci
on de la variable S,
P XS t Xt k P XS t Xt k S s dF s
0
P Xs t Xs k dF s
0
P Xt k dF s
0
P Xt k .
Xt
Yt
Xt Yt
esto es,
X 0,t1 0 Y 0,t1 0
X T1 ,T1 t2 0 Y T1 ,T1 t2 0
X Tn 1 ,Tn 1 tn 0 Y Tn 1 ,Tn 1 tn 0.
Por la independencia de los procesos, la propiedad de incrementos indepen-
dientes de cada uno de ellos, y el resultado del Ejemplo 4.2, la probabilidad
de este evento es
P X 0,t1 0 P Y 0,t1 0
P X T1 ,T1 t2 0 P Y T1 ,T1 t2 0
P X Tn 1 ,Tn 1 tn 0 P Y Tn 1 ,Tn 1 tn 0.
Por lo tanto,
1 2 t1 1 2 t2 1 2 tn
P T1 t1 , T2 t2 , . . . , Tn tn e e e .
Esta identidad demuestra que las variables T1 , T2 , . . . , Tn son independientes
con identica distribuci
on exp 1 2 .
Demostraci
on. Por la definicion de probabilidad condicional,
P Xt n Xs k P Xs k
P Xs k Xt n .
P Xt n
n 1 k 1 n k
P X1 t k X1 t X2 t n 1 .
k 1 2 1 2
Demostraci
on. Por la hipotesis de independencia entre los procesos,
P X1 t k X1 t X2 t n
P X1 t k, X1 t X2 t n P X1 t X2 t n
P X1 t k, X2 t n k P X1 t X2 t n
P X1 t k P X2 t n k P X1 t X2 t n.
n!
si 0 w1 wn t,
fW1,...,Wn Xt w1 , . . . , wn n tn
0 otro caso.
124 4. El proceso de Poisson
fY 1 ,...,Y n y1 , . . . , yn n! f y1 f yn .
fW1 ,...,Wn Xt w1 , . . . , wn n
La f
ormula anterior nos provee de un mecanismo para obtener simulaciones
por computadora de las trayectorias del proceso Poisson. El procedimiento
es el siguiente: se fija un valor t y se asigna un valor para . Se genera un
valor al azar de la variable Xt con distribucion Poisson t . Suponga que
Xt n. A continuaci on se generan n valores u1 , . . . , un de la distribucion
unif 0, t , y se ordenan estos valores de menor a mayor: u 1 un.
Estos son los tiempos en donde la trayectoria tiene saltos. De esta forma
pueden obtenerse trayectorias como la que se muestra en la Figura 4.2.
Definici
on 4.2 (Segunda definici on) Un proceso de Poisson de par
a-
metro 0 es un proceso a tiempo continuo Xt : t 0 , con espacio de
estados 0, 1, . . . , y que cumple las siguientes propiedades:
a) X0 0.
b) Tiene incrementos independientes y estacionarios.
c) Para cualquier t 0, y cuando h 0,
i) P Xt h Xt 1 h oh.
ii) P Xt h Xt 2 oh.
Esta es posiblemente la definicion del proceso de Poisson que con mas fre-
cuencia se puede encontrar en las referencias. A partir de ella inmediata-
mente sabemos que la variable Xt tiene distribucion Poisson t . La inde-
pendencia de los incrementos es explcita, y la estacionariedad de los mis-
mos aparece de manera implcita en el tercer postulado. Para demostrar
la equivalencia con la definicion 4.1, el reto consiste en definir los tiempos
de interarribo y demostrar que estos son variables aleatorias independientes
on exponencial .
con distribuci
Proposici on 4.7 Las definiciones del proceso de Poisson 4.1, 4.2 y 4.3 son
equivalentes.
P Xt h Xt 1 1 P Xt h Xt 0
h
1 e
1 1 h oh
h oh.
An
alogamente
P Xt h Xt 2 1 P Xt h Xt 0 P Xt h Xt 1
h h
1 e e h
1 1 h oh h oh
oh.
128 4. El proceso de Poisson
Estos c alculos y lo desarrollado antes demuestran que Def. 4.2 Def. 4.3 .
Tambien antes hemos demostrado que Def. 4.1 Def. 4.3 . Para de-
mostrar Def. 4.3 Def. 4.1 es necesario comprobar que los tiempos
de interarribo T1 , T2 , . . . son independientes con distribucion exp . Dare-
mos una demostraci on no completamente rigurosa de este resultado. Sean
t1 , . . . , tn 0 tiempos cualesquiera y sean t1 , . . . , tn las longitudes que
se muestran en la Figura 4.5.
t1 t1 t2 t2 tn tn
0
Figura 4.5
fT1 ,...,Tn t1 , . . . , tn t1 tn
t1 t1 t2 t2 tn tn
e e t1 e e t2 e e tn
t1 t2 tn t1 tn
e e e t1 tn e
Al hacer t1 , . . . , tn 0 se obtiene
t1 t2 tn
fT1 ,...,Tn t1 , . . . , tn e e e .
Definici
on 4.1 Definicion 4.3 Definicion 4.2 .
es decir, para n 0, 1, . . .
t n
t
P Xt n e .
n!
p0 t h p0 t p0 t, t h
p0 t 1 th oh .
pn t h pn t p0 t, t h pn 1 t p1 t, t h oh
pn t 1 th oh pn 1 t th oh oh.
X 1 t1 , X 1 t2 X 1 t1 , . . . , X 1 tn X 1 tn 1
1 1
t s s t s s t.
Definicion 4.6 Sea una variable aleatoria positiva con funci on de dis-
tribuci
on F . Se dice que el proceso de conteo Xt : t 0 es un proceso
de Poisson mixto con variable mezclante si para cada entero n 1, y
cada sucesi
on de enteros no negativos k1 , . . . , kn , y cualesquiera tiempos
0 a 1 b1 a 2 b2 an bn se cumple la igualdad
3. E Xt tE .
4. Var Xt t2 Var tE .
5. Cov Xt , Xt s Xt st Var , s, t 0.
consultar para profundizar en el tema son: Basu [1], Jones y Smith [15], y
Taylor y Karlin [35]. El lector puede encontrar otros resultados generales
sobre el proceso de Poisson en el captulo sobre procesos de renovacion, en
el caso particular cuando los tiempos de interarribo son exponenciales.
4.6. Ejercicios
Proceso de Poisson
103. Los clientes de una tienda entran al establecimiento de acuerdo a un
proceso de Poisson Xt : t 0 de parametro 4. Calcule:
a) P X2 1. d) P X2 4 X1 2.
b) P X1 3, X2 6. e) P X2 3.
c) P X1 0 X3 4. f) P X1 4 X1 2.
a) E X5 . d) E W7 X2 3.
b) E X5 X2 1. e) E W7 W5 4.
c) E W2 . f) E W7 .
106. Simulaci
on de la distribucion exponencial. Demuestre que si X es
una variable aleatoria con distribucion unif 0, 1 , entonces la variable
136 4. El proceso de Poisson
0 si T1 1,
N
k si T1 Tk 1 T1 Tk 1.
t t k
P Wn t e .
k n
k!
d) fW1 t1 e t1 .
e) fW2 t2 2 t1 e t1 .
b) P Xs Xt e t s .
senh x ex e x
2,
x x
y cosh x e e 2.
2 e w2 si 0 w1 w2 ,
a) fW1 ,W2 w1 , w2
0 otro caso.
1 w2 si w1 0, w2 ,
b) fW1 W2 w1 w2
0 otro caso.
e w2 w1 si w2 w1 , ,
c) fW2 W1 w2 w1
0 otro caso.
a) X1 t 1 antes que X2 t 1.
b) X1 t 2 antes que X2 t 2.
a) Tiempo de vida u
til del equipo antes de ser reemplazado.
b) N
umero de reparaciones antes de realizar el reemplazo.
125. Suponga que los mensajes llegan a una cierta cuenta de correo elec-
tr
onico de acuerdo a un proceso de Poisson de parametro . Cada
mensaje recibido es de tipo basura con probabilidad y no ba-
sura con probabilidad 1 .
1
b) Demuestre que para cada t 0 las variables aleatorias Xt y
2
Xt son independientes.
130. Sea t0 un tiempo positivo fijo y suponga que hasta ese momento se ha
observado un solo evento de un proceso de Poisson, es decir, Xt0 1.
La pregunta es cu ando ocurrio tal evento? Demuestre que, condi-
cionado al evento Xt0 1 , la distribucion del momento en el que se
ha registrado el evento es uniforme en el intervalo 0, t0 .
131. Sea Xt : t 0 un proceso Poisson de tasa y sean dos tiempos
0 s t. Defina la variable X s,t como el n
umero de eventos del
proceso de Poisson que ocurren en el intervalo s, t . Demuestre que,
condicionada a la ocurrencia del evento Xt n , la variable X s,t
tiene distribuci
on binomial n, 1 s t .
132. Sea Xt : t 0 un proceso de Poisson de parametro . Suponga que
para un tiempo fijo t 0 se observa el evento Xt n , con n 1.
a) Demuestre que la funcion de densidad del momento en el que
ocurre el k-esimo evento 1 k n , condicionada al evento
Xt n , es la siguiente: para s 0, t ,
n k s k 1 s n k
fWk Xt s n 1 .
k t t t
b) Demuestre que la funcion de densidad condicional del cociente
Wk t, dado el evento Xt n , es la densidad beta k, n k 1 .
c) Encuentre nuevamente la funcion de densidad gama k, de la
variable Wk efectuando la siguiente suma
fWk Xt s n P Xt n.
n k
a) fT1 t e t t.
b) fT2 T1 t s e t s s t s.
t s
c) fT2 t e t s s ds.
0
t t n 1
d) fWn t e t.
n 1!
e) FTk Wk ts 1 e t s s .
1
t s s k 2
f) FTk t 1 e s ds, k 2.
0 k 2!
135. Demuestre las propiedades del proceso Poisson compuesto que apare-
cen en la Proposici
on 4.11.
t k
t
P Ct k e .
k!
140. Demuestre las propiedades del proceso de poisson mixto que aparecen
en la Proposici
on 4.12.
Cov Xs , Xt st E t Var .
144 4. El proceso de Poisson
Captulo 5
Cadenas de Markov
a tiempo continuo
145
146 5. Cadenas de Markov a tiempo continuo
i1 si 0 t W1 ,
i2 si W1 t W2 ,
Xt i3 si W2 t W3 ,
..
.
lm Wn c.s.
n
y por lo tanto, para cada t 0, el valor de Xt es finito, c.s. Por otro lado, sin
perdida de generalidad supondremos que el espacio de estados es el conjunto
S 0, 1, . . .
a) pij 0.
b) pii 0.
147
c) pij 1.
j
0 p01 p02
p10 0 p12
P p20 p21 0 .
.. .. ..
. . .
Supondremos adem as que los tiempos de estancia Ti1 , Ti2 , . . . son indepen-
dientes entre s, y tambien son independientes del mecanismo mediante el
cual se escoge el estado j al cual la cadena salta despues de estar en cual-
quier otro estado i. Mas a un, supondremos que cada variable Ti es finita
con probabilidad uno, o bien, es infinita con probabilidad uno. En el primer
caso se dice que el estado i es no absorbente, y en el segundo caso que es
absorbente. El hecho de que Ti se interpreta en el sentido de que el
proceso deja de saltar y permanece en el estado i el resto del tiempo, es
decir, el estado i es absorbente. Estamos entonces suponiendo que solo hay
dos tipos de estados: absorbentes o no absorbentes. En otras palabras, con
probabilidad uno el tiempo de estancia es finito o con probabilidad uno es
infinito. Por otra parte, un resultado no trivial establece que
Un proceso de las caractersticas arriba especificadas satisface la
propiedad de Markov si, y solo si, los tiempos de estancia en los
estados no absorbentes tienen distribucion exponencial.
pij t P Xt s j Xs i P Xt j X0 i.
1 si i j,
pij 0 ij
0 si i j.
p00 t p01 t
Pt pij t p10 t p11 t .
.. ..
. .
Xt
t
exp
Figura 5.2
Xt
exp exp
1
t
exp exp
Figura 5.3
En notaci
on matricial,
p00 t p01 t 1 1 t
e .
p10 t p11 t
Proposici
on 5.1 Sean i y j dos estados. Para cualquier t 0,
t
i t i t
pij t ij e i e ei s pik pkj s ds. (5.1)
0 k i
pij t P Xt j X0 i
P Xt j, Ti t X0 i P Xt j, Ti t X0 i
t
i t
ij e fXt ,Ti X0 j, u i du
0
t
i t
ij e fXt ,Xu ,Ti X0 j, k, u i du,
0 k i
Por lo tanto,
t
i t i u
pij t ij e i e pik pkj t u du.
0 k i
En notaci
on matricial, Pt s Pt Ps .
Demostraci
on. Por la propiedad de Markov,
pij t s P Xt s j X0 i
P Xt s j, Xt k X0 i
k
P Xt s j Xt k P Xt k X0 i
k
pik t pkj s .
k
Proposici
on 5.3 Para cualquier par de estados i y j, y para cualquier
t 0,
pij t i pij t i pik pkj t . (5.2)
k i
tiene que
pij 0 i ij i pik kj
k i
i ij i pij
i si i j,
i pij si i j.
Definici
on 5.2 A las cantidades pij 0 se les denota por gij , y se les conoce
con el nombre de par
ametros infinitesimales del proceso. Es decir, estos
par
ametros son
i si i j,
gij (5.3)
i pij si i j.
Haciendo variar los ndices i y j, estos nuevos par
ametros conforman una
matriz G llamada el generador infinitesimal del proceso de Markov, es decir,
0 0 p01 0 p02
1 p10 1 1 p12
G 2 p20 2 p21 2 . (5.4)
.. .. ..
. . .
c) gij 0.
j
i gii ,
0 si i j,
y pij (5.7)
gij gii si i j.
Proposici
on 5.5 Cuando t 0,
P t GP t . (5.9)
Explcitamente,
pii t pii t
pij t pij t pi 1,j t para i j.
5.3. Ecuaciones de Kolmogorov 157
t t j i
pij t e para i j.
j i!
q00 t e t
q10 t ,
t
q10 t e q00 t .
t
p00 t e .
Ecuaciones prospectivas
Al sistema de ecuaciones diferenciales dado por la igualdad P t P t G se
le llama sistema de ecuaciones prospectivas de Kolmogorov. La diferencia
entre este sistema y el sistema retrospectivo mencionado antes es que el
orden de los factores en el lado derecho es distinto. Mas explcitamente, el
sistema prospectivo es el siguiente
pii t pii t
pij t pij t pi,j 1 t para i j.
5.4. Procesos de nacimiento y muerte 159
t t j i
pij t e para i j.
j i!
Ejemplo 5.9 (Cadena de dos estados) El sistema de ecuaciones prospec-
tivas de Kolmogorov para la cadena de Markov de dos estados definida en
el Ejemplo 5.3 est
a dado por
p00 t p00 t p01 t ,
p01 t p01 t p00 t ,
p10 t p10 t p11 t ,
p11 t p11 t p10 t .
Puede comprobarse que su soluci
on es la que se muestra en el Ejemplo 5.3.
pij t P Xt s j Xs i.
Cuando h 0,
c) pi,i 1 h i h oh, para i 0.
d) pi,i 1 h i h oh, para i 1.
e) pi,i h 1 i i h oh, para i 0.
Como antes, las constantes 0 , 1 , . . . son parametros no negativos con 0 es-
trictamente positivo, y corresponden a las tasas de nacimiento, y 0 , 1 , 2 , . . .
son las tasas de muerte, con 0 0. No es una consecuencia que se pueda
obtener de manera inmediata pero con ayuda de estos postulados se puede
demostrar que el tiempo de estancia en cada estado i tiene distribucion ex-
ponencial de parametro i i , y que las probabilidades de saltos est an
dadas por la expresi
on (5.11).
5.4. Procesos de nacimiento y muerte 161
p0 t p0 t .
pn t pn 1 t pn t , para n 1,
GXt u E uX t pn t un ,
n 0
que
G t, u pn t un
n 0
pn 1 t pn t un
n 0
uG t, u G t, u
u 1 G t, u ,
de donde se obtiene la ecuaci
on diferencial G G u 1 . Integrando de
on G 0, u
0 a t y usando la condici 1 se llega a
t n n
G t, u G 0, u e u 1 t
e t tu
e e t
u .
n 0
n!
Esta es la funci
on generadora de probabilidad de la distribuci
on Poisson t .
Por la propiedad de unicidad se obtiene que la variable Xt tiene distribuci
on
Poisson t .
O bien,
1 oh
pij t h pij t i pi 1,j t i pi 1,j t i i pij t .
h h
Tomando el lmite cuando h 0 se obtiene el sistema de ecuaciones dife-
renciales que hemos llamado retrospectivo
0, t h 0, t t, t h.
a) P Xt h Xt 1 Xt k k h oh.
b) P Xt h Xt 0 Xt k 1 k h oh.
En general no es f
acil encontrar una formula para las probabilidades de
5.4. Procesos de nacimiento y muerte 165
transici
on pij t , sin embargo cuando el estado inicial es cero se conoce la
siguiente f
ormula recursiva.
p00 t 0 p00 t ,
p0n t n 1 p0,n 1 t n p0n t , n 1,
El proceso de Yule
Este es un tipo particular de proceso de nacimiento puro, y para el cual
es posible encontrar explcitamente las probabilidades de transicion. Este
proceso puede definirse a traves de los siguientes postulados:
a) El estado inicial es X0 k 1.
166 5. Cadenas de Markov a tiempo continuo
n n 1
P Xt h Xt 1 Xt n h o h 1 h oh
1
nh o h .
pkk t k pkk t ,
pkn t n 1 pk,n 1 t n pkn t , n k 1.
La f
ormula recursiva (5.12) es, para n k 1,
t
nt
pkn t n 1 e ens pk,n 1 s ds. (5.13)
0
Proposici
on 5.7 Las probabilidades de transici
on para el proceso de Yule
son
n 1
pkn t e kt 1 e t n k , para n k.
n k
t
nt n 2
pkn t n 1 e ens e ks
1 e s n 1 k
ds
0 n 1 k
t
n 2 nt
n 1 e es n k
1 e s n 1 k
ds
n 1 k 0
t
n 2 nt s 1
n 1 e 1 e es 1 n k
ds
n 1 k 0
t
n 2 nt
n 1 e es es 1 n 1 k
ds
n 1 k 0
t
n 2 nt 1 d s n k
n 1 e e 1 ds
n 1 k 0 n k ds
n 1 n 2 nt
e et 1 n k
n k n 1 k
n 1
e kt 1 e t n k
.
k 1
En la siguiente secci
on revisaremos muy brevemente algunos conceptos ge-
nerales que se pueden definir para cadenas de Markov a tiempo continuo y
que corresponden a los conceptos analogos para el caso de tiempo discreto.
Comunicaci on
Se dice que el estado j es accesible desde el estado i si pij t 0 para alg
un
t 0, y se escribe i j. Se dice que los estados i y j se comunican si i j
yj i, y en tal caso se escribe i j. Nuevamente puede demostrarse que
la comunicaci on es una relacion de equivalencia, y eso lleva a una particion
del espacio de estados en clases de comunicacion. Se dice nuevamente que la
cadena es irreducible cuando todos los estados pertenecen a la misma clase
de comunicaci on.
168 5. Cadenas de Markov a tiempo continuo
ij nf t 0 : Xt j , cuando X0 i.
Recurrencia y transitoriedad
Se dice que el estado i es transitorio si, partiendo de i, con probabilidad
uno el conjunto de tiempos t 0 : Xt i es acotado. En cambio, se
dice que es recurrente si, partiendo de i, con probabilidad uno el conjunto
t 0 : Xt i es no acotado. Cuando E i se dice que el estado i es
recurrente nulo, y cuando E i se dice que es recurrente positivo.
Distribuciones estacionarias
Sea P t la matriz de probabilidades de transicion de una cadena de Mar-
kov a tiempo continuo. Se dice que una distribucion de probabilidad
0 , 1 , . . . sobre el espacio de estados es estacionaria si para cualquier t 0,
P t .
G .
5.6. Ejercicios 169
0 , 1 , .
p00 t p01 t 0 1
lm .
t p10 t p11 t 0 1
5.6. Ejercicios
Ecuaciones de Kolmogorov
a) p00 t e t .
b) p01 t e t .
c) p10 t e t .
5.6. Ejercicios 171
d) p11 t e t .
a) E Xt k et .
b) Var Xt k e2t 1 e t .
Procesos de renovaci
on
y confiabilidad
173
174 n y confiabilidad
6. Procesos de renovacio
Nt m
ax n 0 : Wn t , para cada t 0.
0 0 si t 0,
F t
1 si t 0.
n
6.1. Procesos de renovacio 175
Una de las primeras preguntas que uno puede hacerse acerca de un proceso
de renovacion es la de conocer la distribucion de la variable Nt . La respuesta
no es f
acil de encontrar, pues la distribucion de esta variable depende de la
distribuci
on de los tiempos de vida como indica la siguiente formula general.
Proposici
on 6.1 Para cualquier n 0,
n n 1
P Nt n F t F t.
P Nt n P Wn t, Wn 1 t
P Wn t, Wn Tn 1 t
P t Tn 1 Wn t
FWn t FWn t Tn 1
n
F t FWn Tn 1
t u u dF u
0
n n
F t F t u dF u
0
n n 1
F t F t.
t
x n 1
x t t k
FWn t e dx e .
0 n k n
k!
176 n y confiabilidad
6. Procesos de renovacio
n n 1 t t n
P Nt n F t F t e .
n!
Del mismo modo que sucedio en el caso del proceso de Poisson, para un
proceso de renovaci on tambien es valida la igualdad de eventos Nt n
Wn t , para t 0 y para n 0 entero. Esta identidad nos sera de
utilidad m as adelante.
6.2. Funci
on y ecuaci
on de renovaci
on
Otra de las funciones que es natural desear conocer en un proceso de reno-
vaci
on es el n
umero promedio de renovaciones efectuadas hasta un tiempo t
cualquiera. A tal funcion se le llama funcion de renovaci
on, y se le denota
por t , es decir, t E Nt . En general tampoco es facil encontrar una
forma explcita para esta funcion. Sin embargo, se cuenta con la siguiente
ecuaci
on integral general.
Proposici
on 6.2 La funci on t satisface la ecuaci
on de renovaci on
t
t F t t s dF s . (6.1)
0
0 si s t,
E Nt T1 s
1 t s si s t.
Por lo tanto
t t
t 1 t s dF s F t t s dF s .
0 0
!
n y ecuacio
6.2. Funcio n de renovacio
n 177
Proposici
on 6.3 Para cualquier t 0,
n
t F t. (6.4)
n 1
178 n y confiabilidad
6. Procesos de renovacio
Demostraci
on.
t n P Nt n
n 0
P Nt 1 2 P Nt 2
1 2 2 3
F t F t 2 F t F t
n
F t.
n 1
t
n x n 1
x t t k
F t e dx e .
0 n k n
k!
Nt 1
t t
Nt
t
Nt 1
WNt t WNt 1
Figura 6.2
t W Nt 1 t.
Demostraci
on. Se condiciona sobre el valor de T1 de la siguiente forma:
g t P t x T1 s dF s .
0
Se consideran entonces los tres posibles casos para los valores de T1 como
se muestran en la Figura 6.3.
180 n y confiabilidad
6. Procesos de renovacio
T1 T1 T1
0 t t x
Figura 6.3
g t P t x T1 s dF s
0
t
dF s P t s x dF s
t x 0
t
1 F t x g t s dF s .
0
Ejemplo 6.4 Cuando los tiempos de vida son exponenciales de par ametro
, la unica solucion de la ecuacion (6.5) es la funcion constante en t,
g t P t x e x , que equivale a decir que la variable t tiene
on exp . Esta es nuevamente la propiedad de perdida de memo-
distribuci
ria de la distribuci
on exponencial.
t t W Nt .
6.3. Tiempos de vida 181
Vease nuevamente la Figura 6.2. Es claro que esta variable esta acotada
superiormente por el valor t, pues el elemento en uso al tiempo t no puede
tener hasta ese momento un tiempo de uso mayor a t. Sea nuevamente x 0
y defina la funci
on t g t P t x . Por las consideraciones anteriores,
tenemos que g t 0 para t 0, x . Usando un argumento de renovacion
demostraremos que la funcion g t satisface una ecuacion de renovacion.
T1 T1 T1
0 t x t
Figura 6.4
Por lo tanto,
1 si s t,
P t x T1 s 0 si 0 t x s t,
P t s x si 0 s t x.
Entonces,
g t P t x T1 s dF s
0
t x
dF s P t s x dF s
t 0
t x
1 F t g t s dF s .
0
182 n y confiabilidad
6. Procesos de renovacio
En resumen,
0 si 0 t x,
g t t x
1 F t g t s dF s si t x.
0
1 e x si 0 x t,
P t x 1 si x t,
0 otro caso.
t t t W Nt 1 W Nt TNt 1.
T1 T1 T1
0 t t x
Figura 6.5
g t P t x T1 s dF s
0
t
dF s P t s x dF s
t x 0
t
1 F t x g t s dF s .
0
proceso de renovaci
on crece a infinito con probabilidad uno cuando el tiempo
crece a infinito.
Proposici
on 6.7 Para todo proceso de renovaci
on, lm Nt c.s.
t
1 lm FWn t
t
lm P Wn t
t
lm P Nt n
t
P lm Nt n.
t
Para la u
ltima igualdad se ha utilizado el hecho de que la funcion t Nt es
monotona no decreciente. Como el resultado demostrado vale para cualquier
valor de n natural, se tiene que P lm Nt 1. !
t
Proposici
on 6.8 Para un proceso de renovaci
on Nt : t 0 en donde
E T , con 0 , se cumple
W Nt
lm c.s.
t Nt
Demostraci on. Para valores enteros de n, por la ley fuerte de los grandes
n
umeros, Wn n casi seguramente cuando n . Ahora observe la
contenci
on de eventos
Wn W Nt
Nt .
n Nt
n
6.4. Teoremas de renovacio 185
Los dos eventos del lado izquierdo tienen probabilidad uno, por lo tanto
la intersecci
on tambien, y ello implica que el lado derecho tambien tiene
probabilidad uno. !
h
lm t h t .
t
nd
lm t nd t .
t
h h
t h t t h t h .
1
t
At H t At s dF s ,
0
1
lm A t H t dt.
t 0
d
lm A t nd H t kd .
t k 0
6.5. Confiabilidad
Suponga que T 0 es una variable aleatoria continua que registra el tiempo
de falla de un cierto componente que se encuentra en operaci on al tiempo
cero. Nuevamente denotaremos por F t y f t a la funcion de distribucion
y de densidad de esta variable aleatoria. En la teora de la confiabilidad
interesa conocer la probabilidad de que el componente funcione correcta-
mente por lo menos hasta un tiempo t cualquiera o la probabilidad de que
deje de funcionar en el siguiente instante de tiempo, dado que ha funcionado
bien hasta un cierto momento. Es por ello que se definen las siguientes dos
funciones.
Definici
on 6.4 La funci
on de confiabilidad se define como
Rt P T t,
E T R t dt.
0
b) r t r1 t rn t .
Demostraci
on. Por la independencia de los componentes,
a) R t P T1 t, . . . , Tn t
P T1 t P Tn t R1 t Rn t .
n n
d d
b) r t ln R t ln Rk t rk t .
dt dt k 1 k 1
La distribuci
on del tiempo de falla T es exponencial de par
ametro n. El
tiempo medio de falla es E T 1 n , naturalmente decreciente conforme
mayor es el numero de componentes en el sistema, es decir, mientras mas
componentes haya en el sistema en serie, menor es el tiempo de vida ope-
racional del sistema en su conjunto, pues una falla de cualesquiera de los
componentes provoca que el sistema completo deje de funcionar.
Rt 1 1 R1 t 1 Rn t .
Demostraci
on. Primeramente se tiene que, por independencia,
F t P T t
P T1 t, . . . , Tn t
F1 t Fn t .
192 n y confiabilidad
6. Procesos de renovacio
Por lo tanto,
Rt 1 F t
1 F1 t Fn t
1 1 R1 t 1 Rn t .
!
C2 C1 C2
C1
C3 C1 C3
Figura 6.8
6.6. Ejercicios
Procesos de renovaci
on
150. Sea Nt : t 0 un proceso de renovacion. Indique si cada una de
las siguientes igualdades de eventos es falsa o verdadera. Explique en
cada caso.
a) Nt n Wn t
b) Nt n Wn t
c) Nt n Wn t
d) Nt n Wn t
e) Nt n Wn t
a) F n t F n t , para n 1.
b) F n t F m t , para n m.
E Ntk n 1 k
nk F n 1
t.
n 0
lm P Nt n 0.
t
Funci
on y ecuaci
on de renovaci
on
1
0 t .
1 F t
n
a) 2 t 2n 1F t.
n 1
t
b) 2 t t 2 t s d s .
0
as 2 t cuando Nt : t
Encuentre adem 0 es un proceso de Poisson.
Tiempos de vida
a) La funci
on de distribucion de t es
1 e x si 0 x t,
P t x 1 si x t,
0 otro caso.
b) La funci
on de densidad de t es
e x si 0 x t,
f x
0 otro caso.
1 t
c) E t 1 e .
Tome el lmite cuando t y compruebe que las expresiones ante-
riores corresponden a las de la distribucion exp .
a) La funci
on de distribucion de t es
1 1 t x e x si x 0,
P t x
0 otro caso.
b) La funci
on de densidad de t es
2 xe x si 0 x t,
f x 1 t e x si x t,
0 otro caso.
1 t
c) E t 2 e .
Tome el lmite cuando t 0 y compruebe que las expresiones ante-
riores corresponden a las de la distribucion exp .
t
1 E T2
lm s ds c.s.,
t t 0 2E T
Confiabilidad
a) F t 1 1 F1 t 1 Fn t .
n
b) f t fk t 1 F1 t 1 k 1 1 Fn t 1 k n .
k 1
a) F t F1 t Fn t .
n
b) f t fk t 1 1 F1 t 1 k 1 1 1 Fn t 1 k n .
k 1
198 n y confiabilidad
6. Procesos de renovacio
a) FT t 1 1 F t n.
b) fT t n1 F t n 1f t.
a) FT t Fn t .
b) fT t nFn 1 t f t.
C1 C2 C1 C3
C3 C2 C4
Figura 6.9
Captulo 7
Martingalas
E Xn 1 X0 x0 , . . . , Xn xn xn .
199
200 7. Martingalas
7.1. Filtraciones
Sea , F , P un espacio de probabilidad para modelar un cierto experi-
mento aleatorio. La -algebra F es la estructura que agrupa a los eventos
del experimento aleatorio a los cuales se les puede calcular su probabili-
dad. Suponga ahora que se consideran dos sub -algebras F1 y F2 tales
que F1 F2 . Entonces F2 contiene mas informacion que F1 en el sen-
tido de que, en general, un mayor n umero de conjuntos son considerados
como eventos. M as generalmente, puede considerarse una sucesion no de-
creciente de sub -
algebras F1 F2 Este tipo de estructuras surgen
de manera natural, por ejemplo, para un proceso estocastico a tiempo discre-
to Xn : n 1 , pues puede construirse la sucesion Fn n 1 de la siguiente
forma:
Fn X1 , . . . , Xn ,
en donde efectivamente se cumple que F1 F2 En este caso la
algebra Fn contiene los eventos para los cuales puede determinarse su
-
ocurrencia o no ocurrencia, solo con la informacion o historia del proceso
hasta el tiempo n.
Fn X1 , . . . , Xn , n 1.
Observe que en este caso la filtracion debe comenzar con el subndice cero.
Evidentemente todo proceso predecible es adaptado. La definicion de adap-
tabilidad es la misma en el caso de procesos a tiempo continuo, y se pueden
definir ademas las siguientes dos -algebras:
F Ft ,
t 0
y Ft Fs .
s t
mn n 1 : Xn A ,
n X1 A Xn 1 A Xn A Fn .
2 mn n 1 : Xn A .
t Ft .
7.3. Martingalas
Definicion 7.6 Se dice que un proceso a tiempo discreto Xn : n 1 es
on Fn n 1 si cumple las siguiente
una martingala respecto de una filtraci
tres condiciones:
a) Es integrable.
b) Es adaptado a la filtraci
on.
c) Para cualesquiera n m,
E Xm Fn Xn , c.s. (7.1)
Cuando en lugar de (7.1) se cumple la desigualdad E Xm Fn Xn , en-
tonces el proceso es una submartingala, y si E Xm Fn Xn , entonces es
una supermartingala.
204 7. Martingalas
E Xn 1 Fn Xn .
E Xn 1 X1 , . . . , Xn Xn .
E Xm E X1 , para cada m 1,
esto quiere decir que todas las variables aleatorias que conforman una mar-
tingala tienen la misma esperanza. Analogamente, tomando esperanza ahora
en la condici
on de submartingala se obtiene que para cualesquiera tiempos
1 n m,
E Xm E Xn , (7.2)
esto puede interpretarse en el sentido de que las submartingalas son procesos
cuyas trayectorias, en promedio, tienden a crecer. Mas adelante demostrare-
mos que cuando la submartingala es acotada superiormente, es convergente.
Este interesante resultado es el analogo estocastico al hecho de que toda
7.4. Ejemplos 205
sucesi
on de n
umeros reales creciente y acotada es convergente. Para procesos
a tiempo continuo, la condicion de martingala se escribe E Xt Fs Xs ,
para cualesquiera tiempos s y t tales que 0 s t, sin olvidar la condi-
ciones de adaptabilidad e integrabilidad para poder llamar a tal proceso una
martingala.
7.4. Ejemplos
Veremos a continuaci
on algunos ejemplos de martingalas.
E Xn 1 Fn E Xn n 1 Fn
Xn E n 1 Fn
Xn E n 1 .
E Xt t Fs E Xt Fs t
E Xt Xs Xs Fs t
E Xt Xs Fs Xs t
E Xt Xs Xs t
t s Xs t
Xs s.
Este ejemplo es un caso particular del siguiente resultado que el lector puede
f
acilmente verificar siguiendo el calculo anterior: si un proceso integrable
Xt : t 0 tiene incrementos independientes, entonces el proceso centrado
Xt E Xt : t 0 es una martingala.
E E X F2 F1 E X F1 .
E Xn 1 Fn E E X Fn 1 Fn E X Fn Xn .
k
P Xn 1 k 1 Xn k ,
n 2
n 2 k
y P Xn 1 k Xn k .
n 2
Observe que se puede escribir Xn 1 Xn Yn 1 , en donde Yn 1 es una
variable aleatoria que toma el valor 1 cuando se escoge una bola blanca
en la extracci
on n 1, y el valor 0 cuando la bola escogida es negra, por lo
tanto,
n 2 Xn Xn n 3
E Xn 1 Xn Xn 0 1 Xn .
n 2 n 2 n 2
Este c
alculo demuestra que el proceso Xn : n 0 no es una martingala.
Sin embargo, si se define Mn Xn n 2 , lo cual representa la fraccion de
bolas blancas en la urna despues de la n-esima extraccion, entonces se tiene
que
Xn 1 Xn
E Mn 1 Fn E Fn Mn .
n 3 n 2
Es decir, hemos comprobado que el proceso Mn : n 0 es una martingala.
Se modifica el resultado si la configuracion inicial de la urna es distinta a
la considerada? Se modifica el resultado si en lugar de agregar una bola
adicional se agregan r bolas del mismo color?
Xn si n k,
X n
Xk si n k.
208 7. Martingalas
Medibilidad y adaptabilidad de X n
Las variables del proceso detenido son efectivamente variables aleatorias y
el proceso mismo es adaptado a la misma filtracion, pues para cualquier
n
umero real x, y para cada numero natural n,
n
X n x k Xk x n Xn x .
k 1
Xn 1 n .
E An 1 Fn E An an 1 n 1 Fn
An an 1E n 1 Fn
An an 1E Xn 1 Xn Fn
An an 1 E Xn 1 Fn Xn
An .
Esto quiere decir que bajo cualquier estrategia de juego, el proceso de ganan-
cias An : n 1 es una martingala siempre y cuando el proceso original
Xn : n 1 lo sea. Es importante que los apostadores conozcan este resul-
tado pues quiere decir que no existe una estrategia de juego que convierta
un juego justo en un juego favorable o desfavorable al jugador. El mismo
analisis demuestra que si el proceso original Xn : n 1 es una submartin-
gala o supermartingala y la estrategia de juego consta de variables aleatorias
no negativas y acotadas, entonces el proceso An : n 1 sigue siendo una
submartingala o supermartingala.
Uno de los varios significados del temino martingala, y que parece ser el ori-
ginal, establece que una martingala es una estrategia de juego en la cual un
jugador apuesta sucesivamente en cada lanzamiento de una moneda honesta
del siguiente modo: inicialmente apuesta una unidad monetaria. En caso de
perder, dobla el monto de la apuesta para el siguiente lanzamiento. En caso
de ganar, vuelve a apostar una unidad monetaria en el siguiente lanzamien-
to. En la Figura 7.2 se muestra una tabla con algunos resultados siguiendo
esta estrategia de juego.
Monto de la apuesta 1 2 4 8 1 1 2 1
Resultado del lanzamiento x x x " " x " x
Ganancia -1 -3 -7 1 2 1 3 2
Figura 7.2
Bajo esta estrategia de juego resulta que cada vez que el jugador acierta se
recupera de las perdidas anteriores e incluso incrementa su fortuna en una
unidad monetaria. En efecto, si el jugador pierde las primeras n apuestas y
n: estrategias de juego
7.6. Una aplicacio 211
1 21 22 2n 1
1 2n ,
E X 1 E X 1 n P n
n 1
E Xn 1 P n
n 1
1
1 2n 1
n 1
2n
.
Demostraci
on. La observacion importante es que para cualquier n 1,
X X n X Xn 1 n .
E X E X n E X Xn 1 n
E X1 E X 1 n E Xn 1 n .
E X E Xk 1 k E Xk 1 k .
k 1 k 1
!
7.7. Teorema de paro opcional y aplicaciones 213
mn n 0 : Xn b o Xn a ,
lo es. Suponiendo nuevamente que las condiciones del teorema de paro op-
cional se cumplen, se tiene que E X p q E X1 p q 0.
De donde se obtiene E E X p q . El problema es nuevamente
encontrar E X . Tenemos que
E X b P X b a P X a.
uk p uk 1 q uk 1,
vk p vk 1 q vk 1,
E X b u0 a v0
p q b p q a b q p a q p a b
b a b
a
1 p q 1 q pa b
1 p q b
b a b .
1 p q a b
Entonces,
b a b 1 p q b
E .
p q p q 1 p q a b
Verificaremos a continuaci
on la validez de las tres condiciones del teorema
de paro opcional para esta aplicacion cuando la caminata y las barreras son
simetricas.
216 7. Martingalas
P lm P 2bk
k
lm P Ninguno de los primeros k bloques
k
contiene u
nicamente valores 1
2b k
lm 1 1 2
k
0.
E X2 b2 E
b2 kP k
k 0
2b
b2 2bk j P 2bk j
k 0 j 1
2b
b2 2b k 1 P 2bk
k 0 j 1
b2 2b 2
k 1 1 1 2 2b k
k 0
.
E Xn2 n1 n E Xn2 1 n E n1 n
2
N P n E 1 n .
7.8. Algunas desigualdades 217
La sucesi
on de eventos n es monotona decreciente y por lo tanto
convergente, su lmite es el evento que tiene probabilidad cero.
El primer sumando por lo tanto se hace peque no cuando n crece. Como
E , la sucesi
on de variables 1 n es tambien decreciente y
consta de variables aleatorias integrables cuyo lmite es cero c.s. El
segundo sumando por tanto tambien converge a cero.
Demostraci
on. Para cada n natural defina el tiempo de paro
n mn 1 k n : Xk .
Es decir, es el primer momento hasta n en el que el proceso alcanza o rebasa
el valor . Si tal evento nunca ocurre, entonces n. Como Xn : n 1
es una submartingala y 1 n, se tiene que E Xn E X . Observe
que si ocurre el evento Xn , entonces X , y si ocurre Xn ,
entonces n. Por lo tanto,
E Xn E X
E X 1 Xn E X 1 Xn
P Xn E Xn 1 Xn .
Es decir,
P Xn E Xn E Xn 1 Xn
E Xn 1 Xn .
!
218 7. Martingalas
E X2 2 xP X x dx.
0
Usando esta expresion, la desigualdad maximal de la Proposicion 7.2, el
teorema de Fubini y despues la desigualdad de Cauchy-Schwarz se tiene que
2
E Xn 2 x P Xn x dx
0
2 E Xn 1 Xn x dx.
0
2 Xn dP dx
0 Xn x
Xn
2 Xn dx dP
0
2 Xn Xn dP
2E Xn Xn
2 E Xn 2 E Xn 2 .
Por lo tanto,
E Xn 2
2 E Xn 2 .
E Xn 2
Elevando al cuadrado se obtiene el resultado. !
Demostraci
on. Sea k fijo tal que k n N . Entonces
E Xn 1 1 1 k 1 2 n E E Xn 1 1 1 k 1 2 n Fn
E E Xn 1 Fn 1 1 k 1 2 n
E Xn 1 1 k 1 2 n .
Por lo tanto,
E X2 n 1 1 k E X2 1 1 k 1 2 n E Xn 1 1 k 1 2 n
E X2 1 1 k 1 2 n E Xn 1 1 1 k 1 2 n
E X2 n 1 1 1 k .
Esto quiere decir que la funcion n E X2 n 1 1 k es monotona cre-
ciente. Evaluando esta funcion en n k y despues en n N se obtiene la
desigualdad
E Xk 1 1 k E X2 1 1 k .
Entonces,
N
E X1 E X1 1 1 k
k 0
N
E Xk 1 1 k
k 0
N
E X2 1 1 k
k 0
E X2 .
!
Numero de cruces
Sea Xk : k 0 un proceso adaptado a una filtracion Fk k 0 , y sean a b
dos n
umeros reales. Consideraremos que n es un n
umero natural cualquiera.
220 7. Martingalas
Defina la sucesi
on creciente de tiempos de paro
1 mn k 1 : Xk b ,
2 mn k 1 : Xk a ,
3 mn k 2 : Xk b ,
4 mn k 3 : Xk a ,
..
.
Si alguno de los conjuntos se
nalados es vaco o bien cuando k n, para
alguna k, se define k n. De esta forma se tiene la sucesion creciente de
tiempos de paro
1 2 n. (7.3)
Una de tales sucesiones se muestra en la Figura 7.4, en donde se pre-
senta una trayectoria del proceso con sus valores unidos por una lnea
continua para una mejor
visualizaci
on. Nos in-
teresa contar el n ume-
Xk
ro de cruces de arri-
ba hacia abajo, que b
las trayectorias del pro-
ceso realizan sobre el
a
intervalo a, b . En la
gr
afica se muestran tres
cruces de este tipo, k
1 2 3 4 5 6
los cuales se encuen-
tran remarcados en la
trayectoria. Observe que Figura 7.4
antes del valor n y para
valores impares en el subndice de , el proceso se encuentra arriba de b en
ese momento, mientras que para valores pares del subndice, el proceso se
encuentra por abajo del nivel a, es decir, entre los tiempos 2k 1 y 2k el
proceso realiza un cruce de arriba hacia abajo.
El numero de cruces completos, de arriba hacia abajo, que el proceso realiza
sobre el intervalo a, b antes del tiempo n es el maximo entero k tal que
2k n, y se denota por Dn a, b , es decir,
Dn a, b max k 1 : 2k n .
7.9. Convergencia de martingalas 221
Proposici
on 7.5 Sea Xn : n 0 una submartingala. Entonces
1 1
E Dn a, b E Xn b sup E Xn b .
b a b a n
X2k 1
dP X2k dP.
X2k 1
dP X2k 1
dP X2k dP X2k dP.
A2k 1 Ac2k 1 A2k 1 Ac2k 1
esta desigualdad. A
nadiendo la constante b, se llega al siguiente resultado:
0 X2k 1
b dP
A2k 1
X2k b dP.
A2k 1
Entonces,
0 X2k b dP
A2k 1
X2k b dP X2k b dP
A2k A2k 1 A2k
a b P A2k Xn b dP.
A2k 1 A2k
Por lo tanto,
1
P A2k Xn b dP
b a A2k 1 A2k
1
Xn b dP.
b a A2k 1 A2k
Como P A2k P 2k n P Dn a, b k ,
n
E Dn a, b P Dn a, b k
k 1
n
P A2k
k 1
n
1
Xn b dP
b ak 1 A2k 1 A2k
1
E Xn b .
b a
Para la u
ltima desigualdad se hace uso del hecho de que las diferencias
A2k 1 A2k son conjuntos ajenos. Esto concluye la demostracion de la primera
7.9. Convergencia de martingalas 223
lm Xn X c.s.
n
lm inf Xn a b lm sup Xn .
n n
lm inf Xn a1 b1 lm sup Xn .
n n
E D a, b lm E Dn a, b
n
1
sup E Xn b .
b a n
7.10. Representaci
on de martingalas
En esta secci
on demostraremos que toda martingala que cumple la condicion
de ser uniformemente integrable puede escribirse en terminos de una espe-
ranza condicional. Antes de enunciar el resultado explicaremos la condicion
de integrabilidad uniforme para un proceso.
n de martingalas
7.10. Representacio 225
Integrabilidad uniforme
Puede comprobarse que una variable aleatoria X es integrable si, y solo si,
para cada 0 puede encontrarse un numero M 0 tal que
X dP .
X M
Xn dP .
Xn Mn
Xn dP .
Xn M
1 si n M,
Xn dP
Xn M 0 si n M.
Ejemplo 7.5 Sea X una variable aleatoria integrable y sea Fn una fil-
traci
on. Demostraremos que la martingala Xn E X Fn es uniforme-
mente integrable. Como X es integrable, tenemos que para cada 0
existe 0 tal que si P A , entonces A X dP . Adem
as, como
226 7. Martingalas
Xn dP E X Fn dP
Xn M Xn M
X dP
Xn M
.
La siguiente proposicion establece que la convergencia en media es una
condici
on suficiente para que se cumpla la propiedad de integrabilidad uni-
forme en un proceso.
Proposici on 7.6 Toda sucesion X1 , X2 , . . . de variables aleatorias inte-
grables que es convergente en media es uniformemente integrable.
Demostraci on. Suponga que X1 , X2 , . . . es una sucesion de variables
aleatorias integrables convergente en media a la variable aleatoria integrable
X, es decir, E Xn X 0. Esto es, para cada 0 existe un natural
N tal que para cualquier n N , E Xn X 2. Dado que el lmite X
es integrable, para cada 0 existe 0 tal que si P A , entonces
A X dP 2. Tomando un valor de 0 mas peque no si es necesario se
tiene adem as que A Xn dP , para cada n 1, . . . , N , cuando P A .
Por otro lado, para cualquier n 1,
E Xn Xn dP
Xn M
M P Xn M .
1 1
Es decir, P Xn M M E Xn si se toma M supn E Xn .
Tal valor de M es finito pues como la sucesion converge en media, es aco-
tada en media. En particular y con el valor de M mencionado, lo anterior
n de martingalas
7.10. Representacio 227
Xn dP X dP Xn X dP
Xn M Xn M Xn M
X dP E Xn X
Xn M
.
2 2
P Xn X 3 ,
3M
228 7. Martingalas
E Xn X Xn X dP
Xn X M
Xn X dP
3 Xn X M
Xn X dP
Xn X 3
M P Xn X 3 P Xn X 3
3 3
.
Xm dP Xn dP.
A A
Entonces,
Xn X dP Xm X dP
A A
Xm X dP
A
Xm X dP.
7.11. J. L. Doob 229
Xn dP X dP.
A A
7.11. J. L. Doob
Joseph L. Doob (E.U.A., 19102004) empezo a
tener interes por la ciencia desde peque no,
cuando cursaba la escuela secundaria. Estu-
vo muy interesado en el funcionamiento de la
radio e incluso construy o el mismo su pro-
pio equipo. Este interes por la electronica,
y las comunicaciones se incremento durante
la preparatoria, obteniendo incluso una licen-
cia para llevar a cabo transmisiones por ra-
dio. Dado este interes en la electronica, Doob J. L. Doob
penso que la fsica era el
area que deba estu-
diar al ingresar a la universidad. As lo hizo cuando ingreso a la Universidad
de Harvard en 1926. Sin embargo, despues de un a no de estudios se con-
venci
o de que el curso que verdaderamente disfruto fue el de calculo y sus
aplicaciones. Para el segundo a no se registro en cursos de matematicas. En
1930 obtuvo el grado de licenciatura de la Universidad de Harvard, y en 1931
el de maestra bajo la supervision de J. L. Walsh en la misma universidad.
230 7. Martingalas
En junio de ese mismo a no se caso con Elsie Field, con quien tuvo tres hijos.
Al ano siguiente, en 1932, obtuvo el doctorado con un trabajo de tesis sobre
las funciones analticas y sus valores de frontera. Tiempo despues recibio una
beca para trabajar en la teora de la probabilidad con H. Hotelling en la Uni-
versidad de Columbia de 1934 a 1935. Al final de ese periodo fue contratado
como profesor asociado en la Universidad de Illinois en 1935, all fue donde
desarrollo su carrera como profesor hasta 1978, cuando se jubilo. Entre sus
estudiantes de doctorado figuran, entre otros, Paul Halmos (1938), David
Blackwell (1941), J. Laurie Snell (1951) y John Walsh (1966). El trabajo
de Doob se centra principalmente en la teora de la medida, la teora de la
probabilidad y las relaciones de esta u ltima con la teora del potencial. En
particular, y profundizando parte del trabajo de Paul L`evy, durante los a nos
cuarenta y cincuenta Doob desarrollo la teora basica de las martingalas y
algunas de sus aplicaciones. En 1953 publico su libro clasico Stochastic Pro-
cesses, el cual fue reeditado en 1990. En 1984 public o Classical Potential
Theory and its Probabilistic Counterparts, reimpreso en 2001. En 1994, a la
edad de 84 a nos, publico su ultimo texto titulado Measure Theory. Doob
fue miembro de las Academias de Ciencias de Estados Unidos y de Francia,
presidi
o el Instituto de Estadstica Matematica (IMS) en 1950, y la Sociedad
Matem atica Estadounidense (AMS) de 1963 a 1964. Recibio varios premios
prestigiosos de su pas por la trascendencia y profundidad de sus trabajos.
Durante muchos a nos de su vida Doob mantuvo la costumbre y el gusto por
organizar y realizar las famosas caminatas de los sabados por la tarde junto
a profesores universitarios, colegas y amigos de la Universidad de Illinois.
A peticion propia, las cenizas de sus restos mortales fueron esparcidas por
sus compa neros en uno de sus sitios favoritos donde acostumbraba caminar
junto con sus amigos. Para una informacion mas amplia sobre la vida y el
trabajo de Doob veanse las siguientes referencias.
c) Snell J. L., A Conversation with Joe Doob, Statistical Science, Vol. 12,
N
um. 4, 301311, 1997.
7.12. Ejercicios 231
7.12. Ejercicios
Filtraciones
169. Sea Xt : t 0 un proceso adaptado a la filtracion Ft t 0 , y sea
Gt t 0 la filtraci
on natural del proceso. Demuestre que para cada
t 0 se cumple Gt Ft . Esto significa que la filtracion natural es la
filtraci
on mas pequena respecto de la cual un proceso es adaptado.
Tiempos de paro
a) n.
b) n.
c) n.
232 7. Martingalas
a) 1 2 .
b) 1 2 .
c) 1 2 .
a) sup 1 , 2 , . . . .
b) nf 1 , 2 , . . . .
c) k , es decir, es la k-esima estadstica de orden.
Martingalas
a) E Xm Fn Xn , para cualquier m n
7.12. Ejercicios 233
es equivalente a la condicion
b) E Xn 1 Fn Xn , para cada n 1.
Xt E X Ft .
a) Xn m
ax Xn , 0 .
b) Xn mn Xn , 0 .
c) Xn . Suponga, en este caso, que Xn : n 0 es una martingala.
a) Yt Xt t 2 t.
b) Yt exp Xt t 1 e , en donde R.
1 q pa
P X b ,
1 q pa b
1 p q b
y P X a ,
1 p q a b
b) Demuestre que
ab si p q,
E b a b 1 p q b
si p q.
p q p q 1 p q a b
Integrabilidad uniforme
208. Demuestre que una variable aleatoria X es integrable si, y solo si, para
cada 0 existe M 0 tal que
X dP .
X M
238 7. Martingalas
Captulo 8
Movimiento Browniano
239
240 8. Movimiento Browniano
reimpresi
on de los primeros trabajos de Einstein sobre el movimiento Brow-
niano. En este captulo se presenta una introduccion al modelo matematico
para el movimiento Browniano. Se trata del ejemplo mas importante de un
proceso de Markov a tiempo continuo y con espacio de estados continuo.
8.1. Definici
on
Las observaciones reales del movimiento
de granos de polen a traves del microsco-
pio sugieren que las trayectorias son con-
tinuas y que los desplazamientos son inde-
pendientes en intervalos de tiempo disjun-
tos. Adem as, debido al gran n
umero de co-
lisiones del grano de polen con las molecu-
las circundantes en longitudes de tiempo
no peque nos, y teniendo en cuenta el teo- Figura 8.1:
rema central del lmite, los incrementos Movimiento Browniano
pueden modelarse como variables aleato-
rias Gausianas. La estructura matematica
de un proceso estoc astico a tiempo continuo, denotado en este caso por
Bt : t 0 , ha resultado adecuada para modelar este tipo de fenomenos.
En tal modelo, la variable Bt puede representar la posicion de la partcu-
la al tiempo t. La definicion matematica, en el caso unidimensional, es la
siguiente.
1. B0 0 c.s.
P Bt1 A1 , . . . , Btn An
es igual a
p t1 , 0, x1 p t2 t1 , x1 , x2 p tn tn 1 , xn 1 , xn dxn dx1 ,
A1 An
en donde
1 y x 2 22 t
p t, x, y e . (8.1)
2 2 t
Observe que la tercera propiedad de la u ltima definicion establece que la fun-
on de densidad del vector Bt1 , . . . , Btn evaluada en el punto x1 , . . . , xn
ci
es
p t1 , 0, x1 p t2 t1 , x1 , x2 p t n t n 1 , xn 1 , xn .
242 8. Movimiento Browniano
Demostraci on.
I II . Se hace uso de la independencia de los incrementos y de la
hip
otesis de que estos tienen distribucion normal.
fBt1 ,Bt2 ,...,Btn x1 , x2 , . . . , xn
fBt1 ,Bt2 Bt1 ,...,Btn Btn 1
x1 , x2 x1 , . . . , xn xn 1
fBt1 x1 fBt2 Bt1 x2 x1 fBtn Btn 1
xn xn 1
p t1 , 0, x1 p t2 t1 , 0, x2 x1 p tn tn 1 , 0, xn xn 1
p t1 , 0, x1 p t2 t 1 , x1 , x2 p tn tn 1 , xn 1 , xn .
II I . De acuerdo al tercer postulado, para 0 s t, la funcion
de densidad del vector Bs , Bt es fBs ,Bt x, y p s, 0, x p t s, x, y .
Aplicando la f
ormula general para la funcion de densidad de la diferencia
de dos variables aleatorias, fY X u fX,Y x, u x dx, se obtiene
fBt Bs u p s, 0, x p t s, x, u x dx
1 x2 2s 1 u2 22 t s
e e dx
2 2 s 2 2 t s
1 u2 22 t s
e
2 2 t s
p t s, 0, u ,
es decir, Bt Bs tiene distribucion N 0, 2 t s . Entonces
fBt1 ,Bt2 Bt1 ,...,Btn Btn 1
x1 , x2 , . . . , xn
fBt1 ,Bt2 ,...,Btn x1 , x2 x1 , . . . , xn xn 1 x1
p t1 , 0, x1 p t2 t 1 , x1 , x2 x1
. . . p tn tn 1 , x1 xn 1 , x1 xn
p t1 , 0, x1 p t2 t1 , 0, x2 p tn tn 1 , 0, xn
fBt1 x1 fBt2 Bt1 x2 fBtn Btn 1
xn .
n
8.1. Definicio 243
Esto demuestra que las variables Bt1 , Bt2 Bt1 , . . . , Btn Btn 1 son inde-
pendientes, cada una de ellas con distribucion normal con los parametros
mencionados. !
a) Wt Bt : t 0 .
1
b) Wt c Bc 2 t :t 0 , con c 0 constante.
c) Wt t B1 t : t 0 , con W0 0.
pt s, x, y p t, x, u p s, u, y du,
p 1 2p
.
t 2 x2
En uno de sus trabajos de 1905 y a traves de consideraciones teoricas fsicas,
Einstein encontro que la probabilidad de transicion p t, x, y satisface la
ecuaci
on de difusion y a partir de all dedujo la expresi
on Gausiana para
esta probabilidad.
8.2. Propiedades b
asicas
Tenemos entonces que para el movimiento Browniano estandar cada va-
riable aleatoria Bt tiene distribucion N 0, t y por lo tanto E Bt 0 y
Var Bt E Bt2 t. En particular E Bt Bs 2 t s, para 0 s t.
El movimiento Browniano fsico real se presenta en tres dimensiones y es
completamente err atico. En la Figura 8.2 se puede apreciar una posible
trayectoria Browniana cuando esta
se proyecta sobre una de sus coorde- Bt
nadas. Esta gr afica fue generada en
computadora y es s olo una aproxi-
macion del modelo matematico. En
la gr
afica pueden apreciarse algunas t
peque nas partes en donde aparente-
mente el comportamiento es lineal
y suave, ello no sucede en el mo-
Figura 8.2
delo teorico. Usando esta probabili-
dad de transici on demostraremos a
continuaci on que el movimiento Browniano cumple la propiedad de Markov
en el sentido debil.
Proposici
on 8.2 El movimiento Browniano es un proceso de Markov.
sicas
8.2. Propiedades ba 245
F A F :A t Ft para cada t 0 .
Proposici
on 8.3 El movimiento Browniano es una martingala continua.
E Bt Fs E Bt Bs Bs Fs
E Bt Bs Fs E Bs Fs
E Bt Bs Bs
Bs .
!
246 8. Movimiento Browniano
El movimiento Browniano
como lmite de una caminata aleatoria
Considere una caminata aleatoria simetrica simple sobre Z que inicia en
el origen, es decir, sea Xn 1 n , en donde 1 , 2 , . . . son varia-
bles aleatorias independientes e identicamente distribuidas tales que P
1 P 1 1 2. Sabemos que E 0 y Var E 2 1.
Suponga que la unidad en la variable tiempo es ahora de longitud t 1 N ,
con N entero. El objetivo es hacer t cada vez mas peque no. Para lograr
una version discreta del movimiento Browniano es necesario hacer tambien
un cambio en la escala en el tama no de los saltos, ahora no seran unita-
rios sino de longitud t, mas adelante explicaremos las razones de esta
elecci
on. Defina ahora la caminata aleatoria
Wnt t 1 t n , n 1.
una de cuyas trayectorias aparece en la Figura 8.3. Dada la simetra de la
caminata, sigue cumpliendose que E Wnt 0. La razon por la que se
ha tomado esa nueva escala en el tama no de los saltos es que con ello se
logra similitud con el movimiento Browniano estandar al cumplirse tambien
que para cualquier valor de n, Var Wnt nt Var nt. Puede de-
mostrarse que cuando t 0 esta caminata tiende (en algun sentido) a un
sicas
8.2. Propiedades ba 247
resultante es el movimien- 2 t
to Browniano est andar. Es-
t
ta aproximaci on del mo-
vimiento Browniano como t 2t 3t 4t 5t 6t 7t 8t
lmite de una caminata t
Difusion
Suponga que se coloca una partcula al azar en la recta real de acuerdo a una
densidad de probabilidad f y . Suponga ahora que esta partcula se mueve
siguiendo un movimiento Browniano estandar unidimensional. Entonces la
densidad de probabilidad de la posicion de la partcula despues de t unidades
de tiempo es la funci
on f t, x dada por
f t, x f y p t, y, x dx f y p t, x, y dx,
Cuando este n umero es finito se dice que la funcion tiene variacion finita en
dicho intervalo. An
alogamente, la variacion cuadratica es
n 1
2
lm sup g ti 1 g ti .
t 0 i 0
i i j i
2 2
3 ti ti tj b a
i i j
2 2 2
2 ti ti b a
i i
2
2 ti
i
2b a m
ax ti 0.
0 i n
Recordemos ahora el resultado que establece que toda toda sucesion con-
vergente en el sentido L2 P tiene una subsucesion convergente casi segu-
ramente. Por lo tanto existe una subsucesion de particiones Pnk : k 1
del intervalo a, b tal que
n 1
2
lm sup Bti 1 Bti b a, c.s.
t 0 i 1
Por otro lado, como las trayectorias del movimiento Browniano son conti-
nuas casi seguramente, se tiene que
lm max Bi 0, c.s.
k 0 i nk
No diferenciabilidad
Demostraremos a continuacion que para cualquier tiempo t0 0 fijo, con
probabilidad uno la trayectoria t Bt no es diferenciable en t0 . Mas ade-
lante se enuncia sin demostracion un resultado mas fuerte acerca de esta no
diferenciabilidad.
Proposici
on 8.6 Sea t0 0 fijo. Con probabilidad uno, el movimiento
Browniano Bt : t 0 no es diferenciable en t0 .
Proposici
on 8.7 Con probabilidad uno, el movimiento Browniano Bt :
t 0 no es diferenciable en ning
un t 0.
B t B1 t , . . . , Bn t .
t s 12 0
Var B t B s .. .
.
0 t s n2
Es decir, la funci
on de densidad del vector B t B s es
1 x21 2 t s 12
f x1 , . . . , xn e
2 t s 12
1 x2n 2 t s n
2
e .
2 t s n2
Cuando los valores de los parametros son todos uno, se dice nuevamente
que el movimiento Browniano es estandar, y la funcion de densidad de B t
8.4. Movimiento Browniano multidimensional 253
B s adquiere la expresi
on compacta
1 x 2 2 t s
f x1 , . . . , xn n 2
e ,
2 t s
pt s, x, y p t, x, u p s, u, y du.
Rn
El proceso de Bessel
Sea B t : t 0 un movimiento Browniano en Rn . El proceso de Bessel
es el proceso dado por
Rt B t B12 t Bn2 t 1 2
.
u t, x E f Btx 1 t g Bx 1 t . (8.3)
ux P Bx a E 1 a Bx .
Bt ux
b 1
x
a
t x
a b
a b
Figura 8.5
Proposici
on 8.8 (Principio de reflexi on) Sea Bta : t 0 un movi-
miento Browniano que empieza en a, y sea b a. Para cualquier t 0,
La u
ltima igualdad se debe a que P t P Bta b 0, por ser Bta
una variable aleatoria continua. Por otro lado,
P Bta b P Bta b t P t
P Bta b 0 t P t, (8.6)
P t 2 P Bta b.
P Bt 0 para alg
un t t1 , t2 Bt1 u
P Bt u para alg
un t 0, t2 t1
P Bt u para alg
un t 0, t2 t1
2 P Bt2 t1 u.
P Bt 0 para alg
un t t1 , t2
P Bt 0 para alg
un t t1 , t2 Bt1 u p t1 , 0, u du
2 P Bt2 t1 u p t1 , 0, u du
4 P Bt2 t1 u p t1 , 0, u du
0
4 p t2 t1 , 0, v dv p t1 , 0, u du
0 u
1 v2 2 t2 t1 1 u2 2t1
4 e e dv du.
0 u 2 t2 t1 2t1
t1 1 r2 2
4 arctan e r dr
2 t2 t1 2 0
2 t1
1 arctan .
t2 t1
!
t1
y t2 t1
x
t1
arctan t2 t1
x
Figura 8.7
2 t1
P Bt 0 para alg
un t 0, t2 lm 1 arctan 1.
t1 0 t2 t1
r1 r2
Figura 8.8
1 si x r2 ,
g y
0 si x r1 .
8.6. Recurrencia y transitoriedad 261
La funci
on f x satisface la ecuacion diferencial
f x 0, (8.7)
1 si y r2 ,
f y g y
0 si y r1 .
1 d n 1d
r
r n 1 dr dr
d2 n 1 d
.
dr 2 r dr
Por lo tanto, la ecuaci
on (8.7) se escribe
n 1
r r 0, para r r1 , r2 ,
r
y las nuevas condiciones de frontera son r2 1 y r1 0. La solucion
general de esta ecuaci
on es
c1 ln r c2 si n 2,
r
c1 r 2 n c2 si n 3,
ln x ln r1
x si n 2, (8.8)
ln r2 ln r1
r12 n x 2 n
x si n 3. (8.9)
r12 n r22 n
lm P B r2 antes que B r1 B 0 x
r2
ln x ln r1
lm
r2 ln r2 ln r1
0.
lm P B r1 antes que B r2 B 0 x
r1 0
ln x ln r1
lm 1
r1 0 ln r2 ln r1
0.
lm P B r2 antes que B r1 B 0 x
r2
r12 n x 2 n
lm
r2 r12 n r22 n
r1 n 2
1
x
0.
lm P B r1 antes que B r2 B 0 x
r1 0
r12 n x 2 n
lm 1
r1 0 r12 n r22 n
0.
8.7. N. Wiener
Norbert Wiener (E.U.A., 18941964) fue un ni no
prodigio. En 1903, a la edad de nueve a nos in-
greso a la preparatoria Ayer en Massachusetts, la
cual concluy o en 1906 para ingresar despues al cole-
gio Tufts, en donde estudio matematicas con el
apoyo y asesora de su padre. En 1909, a la edad
14 anos, se gradu o del colegio Tufts e ingreso a la
Universidad de Harvard para realizar estudios de
posgrado en Zoologa. Con ayuda de una beca in-
greso despues a la Universidad de Cornell en 1910,
en donde tom o cursos de posgrado en matematicas N. Wiener
y filosofa, pero su desempe no all no fue del todo
satisfactorio y su padre lo regreso a Harvard para continuar sus estudios de
filosofa. Se graduo en Harvard a la edad de 18 a nos con una tesis sobre logica
matem atica bajo la direccion de Karl Schmidt. Despues de Harvard viajo a
264 8. Movimiento Browniano
d) Wiener N., Ex-prodigy: my childhood and youth, The MIT Press, Agos-
to 1964.
8.8. P. P. L`
evy
Paul Pierre L`evy (Francia, 18861971) na-
cio dentro de una familia con tradicion
matem atica. Su abuelo fue profesor de
matem aticas y su padre estudio geometra
y trabaj o en la Ecole Polytechnique. De
peque no, L`evy asisti
o al Lycee Saint Louis en
Pars, en donde mostr o ser un excelente es-
tudiante, sobresaliendo y ganando premios no
solo en matem aticas sino tambien en griego,
fsica y qumica. Ingres
o despues a la Ecole P. P. L`evy
Polytechnique y siendo all a un estudiante
public o su primer artculo en matematicas en 1905, el cual trataba temas
8.9. Ejercicios 265
8.9. Ejercicios
a) Wt Bt : t 0 .
b) Wt B 2 t : t 0 .
212. Traslaci
on. Sea s 0 fijo y sea Bt : t 0 es un movimiento Brow-
andar. Demuestre que el proceso Xt Bt s Bs : t 0 es
niano est
un movimiento Browniano estandar.
p 2p
.
t 2 y2
8.9. Ejercicios 267
pt s, x, y p t, x, u p s, u, y du.
2t s
a) E Bt Bs .
b) E Bt Bs 2 t s.
c) E Bs Bt s t.
d) Cov Bs , Bt s t.
e) Bt , Bs s t, para 0 s t.
219. Sea Bt : t 0 un movimiento Browniano. Demuestre que tanto el
proceso original Bt : t 0 como Bt2 t : t 0 son martingalas
respecto de la filtracion natural del movimiento Browniano.
220. Use la caracterizaci
on de Paul L`evy para demostrar que los siguientes
procesos son movimientos Brownianos:
a) Wt Bt : t 0 .
1
b) Wt c Bc 2 t :t 0 , con c 0 constante.
c) Wt t B1 t : t 0 , con W0 0.
d) Wt Bt0 t Bt0 : t 0 , con t0 0 fijo.
221. Sea Bt : t 0 un movimiento Browniano de parametro 2 que inicia
en cero. Sea a una constante y defina el tiempo nf t 0 : Bt
a . Encuentre la funcion de densidad de .
222. Sea Bt : t 0 un movimiento Browniano unidimensional estandar.
Encuentre la distribucion conjunta de las variables Mt y Xt definidas
como sigue:
Mt sup Bs
0 s t
y Xt Mt Bt .
268 8. Movimiento Browniano
d2 1 d
f r, f f.
dr 2 r dr
Este resultado fue usado en la demostracion de la propiedad de recu-
rrencia por vecindades del movimiento Browniano en R2 .
1 1 1 2
f r, , r2 f sen f f.
r2 r r r 2 sen r 2 sen2 2
8.9. Ejercicios 271
d2 2 d
f r, f f.
dr 2 r dr
Este resultado fue usado en la demostracion de la propiedad de tran-
sitoriedad del movimiento Browniano en R3 .
272 8. Movimiento Browniano
Captulo 9
C
alculo estoc
astico
9.1. Integraci
on estoc
astica
El objetivo de esta secci
on es presentar la definicion de la integral de Ito de
un proceso Xt respecto del movimiento Browniano, es decir, una integral
de la forma
t
Xs dBs . (9.1)
0
273
274 lculo estoca
9. Ca stico
El espacio L2 P
Denotaremos por L2 P al espacio vectorial de variables aleatorias X que
son cuadrado integrables, es decir, que cumplen la condici
on
2 1 2
X L2 P E X .
La funcion 2
L2 P define una norma en L P , es decir, es una funci on
real definida sobre este espacio lineal que cumple las siguientes cuatro condi-
ciones:
a) X 0.
b) X 0 X 0 c.s.
c) X Y X Y .
d) X X , constante.
2 1 2
Bt L2 P E Bt t .
n estoca
9.1. Integracio stica 275
El espacio L2 P dt
Denotaremos tambien por L2 P dt al espacio lineal de todos los procesos
X Xt : 0 t T , que cumplen la condicion
T
X L2 P dt E Xt 2 dt 1 2
.
0
Procesos simples
Definiremos primero la integral de Ito para procesos que tienen la forma
indicada a continuaci
on y que llamaremos procesos simples.
tales que
T
E Xt 2 dt .
0
El espacio H2 resulta ser un subespacio lineal cerrado de L2 P dt . Observe
que la u
nica diferencia entre estos dos espacios es que a los elementos de
H2 se les pide adem as que sean medibles y adaptados. En particular, todo
proceso simple es un elemento de H2 . Tenemos entonces la contencion de
espacios H02 H2 L2 P dt , en donde puede probarse que H02 es denso
en H2 respecto de la norma en L2 P dt . Esto significa que para cualquier
proceso X en H2 existe un sucesion de procesos X k en H02 tales que
lm X Xk L2 P dt 0. (9.4)
k
I Xk I Xl L2 P I Xk Xl L2 P
k l
X X L2 P dt
k
X X L2 P dt X Xl L2 P dt .
Debido a (9.4) la u
ltima expresion puede hacerse tan peque
na como se desee,
tomando ndices k y l suficientemente grandes.
I X lm I X k ,
k
I
H02
H2
L2 P dt L2 P
Figura 9.2
I Xn L2 P Xn L2 P dt
I X L2 P X L2 P dt .
!
280 lculo estoca
9. Ca stico
0 E2 I X I Xk E I X I Xk 2
0.
E I X lm E I X k 0.
k
Denotaremos por L2loc el espacio de todos estos procesos. Este nuevo espacio
contiene a H2 y es tal que para cada proceso X en L2loc existe una sucesion
creciente de tiempos de paro 0 1 2 tales que n T cuando
n , y para cada n 1 el proceso Xt 1 n t pertenece al espacio H2 . Se
define entonces la integral estocastica como el siguiente lmite en el espacio
L2 P ,
t T
Xs dBs lm Xs 1 n t 1 0,t s dBs .
0 n 0
Nuevamente es posible demostrar que tal lmite existe, que existe una ver-
si
on continua de el, y que es independiente de la sucesion de tiempos de
paro localizante. En este caso la integral ya no es una martingala sino una
martingala local, esto quiere decir que el proceso detenido It n X es una
martingala para cada natural n. En general, la isometra de Ito ya no se
cumple cuando la integral estocastica tiene como dominio de definicion el
espacio L2loc .
Se puede demostrar que esta integral puede ser calculada mediante el siguien-
te lmite en el espacio L2 P , aunque tambien se verifica la convergencia en
probabilidad:
t n 1
f Bs dBs lm f Btk Btk 1
Btk , (9.7)
0 n
k 0
Con esto concluimos la serie de ideas generales con las cuales puede cons-
truirse la integral de It
o. Las demostraciones de algunos detalles tecnicos
que hemos simplemente mencionado se pueden encontrar en [33]. El esquema
simplificado del procedimiento seguido para definir la integral estocastica se
ilustra la Figura 9.3.
Definicion
H02
Aproximacion
H2
Localizacion
L2loc L2 P
Figura 9.3
se obtiene
t n 1
Bs dBs lm Btk Btk 1
Btk
0 n
j 0
n 1
1 2 1
lm B Bt2k Btk Btk 2
n
j 0
2 tk 1
2 1
1 2 1
B t.
2 t 2
La primera suma es telesc opica mientras que la segunda suma corresponde
a la variacion cuadratica del movimiento Browniano. Los lmites indicados
son validos en el sentido de media cuadr atica. Observe que aparece el termi-
no 21 Bt2 como si se siguieran las reglas de integraci on usual, pero aparece
1
tambien el termino 2 t, conocido como la correcci on de It
o. Ahora veamos
el cambio en la soluci on de la integral (9.8) cuando se modifica ligeramente
la forma de calcularla. El cambio consiste en evaluar el integrando en el
extremo derecho de cada subintervalo. Observe que en este caso el proceso
a integrar ya no es adaptado y por lo tanto queda fuera de la teora desa-
rrollada antes. Usando la identidad
1 2 1
bb a b a2 a b 2
2 2
se obtiene, nuevamente en el sentido de media cuadr
atica,
t n 1
Bs dBs lm Btk 1
Btk 1
Btk
0 n
j 0
n 1
1 2 1
lm B Bt2k Btk Btk 2
n
j 0
2 tk 1
2 1
1 2 1
B t.
2 t 2
El signo del segundo termino cambi o de negativo a positivo. Esto muestra
que, a diferencia de la integral de Riemann, la integral estocastica es sen-
sible al punto donde se evalua el integrando. Al considerar el promedio de
las dos evaluaciones en los extremos se obtiene la as llamada integral de
284 lculo estoca
9. Ca stico
Esta f
ormula es f
acil de comprobar usando la isometra de It
o y la igualdad
1 2 1 2 2
ab 2 a b 2 a b . En efecto,
t t
E Xs dBs Ys dBs
0 0
t t t
1 2 1 2 2
E Xs Ys dBs E Xs dBs E Ys dBs
2 0 2 0 0
t t t
1 1
E Xs Ys 2 ds E Xs 2 ds E Ys 2 ds
2 0 2 0 0
t
E Xs Ys ds.
0
Propiedades de la integral
La integral estoc
astica de Ito cumple varias propiedades aunque solo men-
cionaremos algunas de ellas aqu, a manera de resumen de las caractersticas
se
naladas antes.
a) La integral It : L2loc L2 P es lineal, es decir, para c constante y
para cualesquiera procesos Xs y Ys en L2loc , se cumple que
t t t
cXs Ys dBs c Xs dBs Ys dBs , c.s.
0 0 0
t s
E Xu dBu Fs Xu dBu .
0 0
9.2. F
ormula de It
o
Usualmente una integral de Riemann no se calcula a partir de su definicion,
en lugar de ello existen formulas bien conocidas que agilizan y simplifican
los c
alculos. La misma situacion se presenta para integrales estocasticas: en
pocos casos se calculan estas a traves de su definicion. La famosa formula de
It
o es la herramienta fundamental para este tipo de integrales. Se enuncia
a continuacion este resultado en una version simple y se ejemplifica su uso.
Mas adelante se presenta una version un poco mas general. En lo sucesivo
haremos referencia a las siguientes espacios de funciones: una funcion real de
variable real es de clase C 1 , cuando es diferenciable y su derivada es conti-
nua. An alogamente, una funcion es de clase C 2 , si es dos veces diferenciable
y su segunda derivada es una funcion continua.
f x f x0 f x0 x x0 Rx,
rmula de Ito
9.2. Fo 287
Esta f
ormula es una versi on estocastica de la regla de la cadena del calculo
diferencial usual, y es comun escribirla en su forma diferencial del siguiente
modo:
1
df Bt f Bt dBt f Bt dt.
2
Esta expresion debe entenderse en el sentido de su forma integral dada por
la f
ormula (9.9). Ilustraremos su uso mediante algunos ejemplos.
1 2
Ejemplo 9.5 Sea f x 2x . Entonces la f
ormula de It
o establece que
t t
1 2 1 2 1
B B Bs dBs 1 ds.
2 t 2 0 0 2 0
288 lculo estoca
9. Ca stico
Es decir,
t
1 2 1
B Bs dBs
t.
0 2 t 2
Este resultado haba sido encontrado antes, ahora lo hemos obtenido de
manera inmediata a partir de la formula de It
o. De manera an
aloga, para
1 3
la funci
on f x 3 x se obtiene
t t
1 3
Bs2 dBs B Bs ds.
0 3 t 0
1 n 1
M
as generalmente, para f x n 1x se obtiene
t t
1 1
Bsn dBs Btn 1
nBsn 1
ds.
0 n 1 2 0
la variable x,
2 2
b t, x b t, y t, x t, y Kx y 2,
y la condici
on de crecimiento en x,
2 2
b t, x t, x K 1 x2 ,
Para que estas iteraciones tengan sentido es necesario verificar que los inte-
grandos involucrados son efectivamente susceptibles de ser integrados res-
pecto de la diferencial respectiva. Para comprobar que tal sucesion de pro-
cesos es convergente se demuestra que, con probabilidad uno, esta sucesion
constituye una sucesi on de Cauchy en el espacio de funciones continuas
C 0, T , respecto de la norma uniforme X sup0 t T Xt . Dado lo an-
terior, existe entonces un proceso continuo Xt , tal que con probabilidad
n
uno, Xt converge a Xt de manera uniforme en el intervalo 0, T . Adicional-
mente puede demostrarse que el proceso lmite es L2 -acotado en 0, T , y
n
que la convergencia Xt Xt tambien es valida en L2 P . Tambien debe
demostrarse que el proceso lmite es efectivamente solucion de la ecuacion
estoc
astica. Para ello se toma el lmite en la ecuacion que define las ite-
raciones, y se verifica la convergencia uniforme en 0, T con probabilidad
uno, termino a termino. Los detalles de esta demostracion pueden encon-
trarse por ejemplo en [33]. Observe que el teorema anterior no establece la
9.3. Ecuaciones diferenciales estocasticas 291
forma de encontrar la solucion a una ecuacion estocastica dada, sino que ase-
gura u
nicamente la existencia de dicha solucion. La siguiente version de la
f
ormula de It
o es un resultado bastante u til para resolver algunas ecuaciones
estoc
asticas y generaliza la version anteriormente enunciada.
1
dXt Xt dBt Xt dt,
2
con condici
on inicial X0 1. A este proceso se le llama movimiento Brow-
niano geometrico.
9.4. Simulaci
on
Una ecuaci on estocastica ha resultado muy u til para modelar sistemas que
presentan alg un tipo de ruido o perturbacion aleatoria. Aplicaciones de tales
modelos se estudian en ingeniera, finanzas y fsica entre muchas otras areas
del conocimiento. Debido a la imposibilidad de encontrar soluciones ex-
plcitas a ciertas ecuaciones de interes, los metodos numericos del caso de-
terminista se han extendido al caso estocastico. En las siguientes secciones
presentaremos algunos modelos particulares de ecuaciones estocasticas, y ex-
plicaremos un mecanismo para simular las trayectorias del proceso solucion.
Una trayectoria de un proceso Xt : t 0 que sigue la ley de movimiento
de una ecuaci on estocastica de la forma:
dXt b t, Xt dt t, Xt dBt ,
X0 x0 ,
puede obtenerse mediante el metodo de discretizacion de Euler-Maruyama.
En este procedimiento se divide el intervalo 0, t de manera uniforme en
n subintervalos de identica longitud t t n, y se define tj jt para
j 0, 1, 2, . . . , N . Suponiendo que Yj es un valor al azar de la distribucion
normal estandar, se definen los valores sucesivos de la trayectoria solucion
de la ecuacion estoc astica como sigue:
X0 x0 ,
Xtj 1 Xtj b tj , Xtj t tj , Xtj t Yj .
M
as adelante se presentara una implementacion de este procedimiento en
MATLAB para simular trayectorias de soluciones de ecuaciones particulares.
294 lculo estoca
9. Ca stico
randn(state,100)
T=2; N=300; dt=T/N; xcero=1; mu=1; sigma=1/3;
dW=zeros(1,N); MBG=zeros(1,N);
dW(1)=sqrt(dt)*randn;
MBG(1)=xcero+mu*dt+sigma*xcero*dW(1);
for j=2:N
dW(j)=sqrt(dt)*randn
MBG(j)=MBG(j-1)+mu*MBG(j-1)*dt+sigma*MBG(j-1)*dW(j)
end
plot([0:dt:T],[xcero,MBG],r-)
Figura 9.6
1
dXt ft t, Xt dt fx t, Xt dBt fxx t, Xt dt
2
296 lculo estoca
9. Ca stico
1
f t, x ft t, x fxx t, x ,
2
f t, x fx t, x .
1. E Xt x0 et .
2t
2. Var Xt x20 e2t e 1.
2s
3. Cov Xt , Xs x20 e s t e 1 , para 0 s t.
1 2
E Xt E x0 exp t Bt
2
1 2
x0 exp t E exp Bt
2
1 2 1
x0 exp t exp t 2
2 2
x0 et .
9.5. Algunos modelos particulares 297
1 2
E Xt Xs E x20 exp t s Bt Bs
2
1 2
x20 exp t s E exp Bt Bs
2
1 2
x20 exp t s E e2Bs E e Bt Bs
2
1 2 2 1
t s 2
x20 exp t s e2s e 2
2
x20 exp t s s 2 .
Por lo tanto,
Cov Xt , Xs E Xt Xs E Xt E Xs
s2
x20 e t s
x20 e t s
s2
x20 e t s
e 1
Proceso de Ornstein-Uhlenbeck
Este modelo fue propuesto por Ornstein y Uhlenbeck para modelar la ve-
locidad del movimiento difuso de una partcula en intervalos de tiempo
pequenos.
298 lculo estoca
9. Ca stico
Definici
on 9.6 Sean y dos constantes positivas. El proceso de Ornstein-
Uhlenbeck es aquel proceso Xt : t 0 soluci on de la ecuacion estoc
astica
dXt Xt dt dBt , (9.15)
X0 x0 .
y dado por
t
t t s
Xt x0 e e dBs . (9.16)
0
La variable Xt se interpreta como la velocidad de una partcula al tiempo t.
La parte determinista Xt corresponde a la fuerza de friccion, y el suman-
do dBt es un ruido aleatorio. En la Figura 9.7 se muestra una simulacion
de una trayectoria de este
proceso y se compara con
E Xt , que calcularemos Xt
mas adelante. El proce- 4
x0 3
so muestra un decaimien-
3 1
to conforme el tiempo avan- 1
za y ello es debido al fac- 2
tor de friccion del mode- 1
lo. Es inmediato verificar E Xt
que los coeficientes de la t
ecuaci
on (9.15) satisfacen 1 2
las condiciones del teore-
Figura 9.7
ma de existencia y unicidad
para ecuaciones estoc asti-
cas. Verificaremos entonces que (9.16) es efectivamente la solucion a la
ecuaci
on (9.15). Considere una solucion de la forma:
t
Xt a t x0 b s dBs , (9.17)
0
en donde a t y b t son funciones diferenciables. Derivando (9.17) y usando
la f
ormula de It
o (9.12) se obtiene
t
dXt a t x0 b s dBs dt a t b t dBt
0
a t
Xt dt a t b t dBt .
at
9.5. Algunos modelos particulares 299
Proposici
on 9.3 Para el proceso de Ornstein-Uhlenbeck se cumple lo si-
guiente.
a) E Xt x0 e t .
2 2t
b) Var Xt 1 e .
2
2 t s t s
c) Cov Xt , Xs e e .
2
Demostraci
on.
a) Este resultado se obtiene al tomar esperanza en (9.16), y observar que
la integral estoc
astica es una martingala que inicia en cero.
Cov Xt , Xs E Xt Xs E Xt E Xs
t
t t u
E x0 e e dBu
0
s
s s u
x0 e e dBu x20 e t s
0
t s
2 E e t u
dBu e s u
dBu .
0 0
Puente Browniano
El puente Browniano es un movimiento Browniano con espacio parametral
el intervalo unitario 0, 1 y es tal que en los extremos de este intervalo
el proceso se hace cero. Una trayectoria de tal proceso se muestra en la
Figura 9.8. Existen varias formas equivalentes de definir a este proceso, la
siguiente es una de ellas.
Definici
on 9.7 El puente Browniano en el intervalo 0, 1 es aquel proceso
Xt : t 0, 1 solucion de la ecuaci
on estoc
astica
Xt
dXt dt dBt , t 0, 1 , (9.18)
1 t
X0 0.
9.5. Algunos modelos particulares 301
Proposici
on 9.4 Para el puente Browniano dado por (9.19) se cumple
1. E Xt 0.
2. Var Xt t1 t.
3. Cov Xt , Xs s1 t, para 0 s t 1.
Demostraci
on.
1. La integral es una martingala continua que inicia en cero, por lo tanto
E Xt 0.
2. Por la isometra de It
o,
t
1
Var Xt 1 t 2 Var dBs
0 1 s
t
1
1 t 2E dBs 2
0 1 s
t
1
1 t 2E 2
ds
0 1 s
t
2 1
1 t
1 s 0
t1 t.
3. Para 0 s t 1,
Cov Xs , Xt E Xs Xt
s t
1 1
1 s 1 tE dBu dBu .
0 1 u 0 1 u
s
1 2
Cov Xs , Xt 1 s 1 tE dBu
0 1 u
s
1 2
1 s 1 t du
0 1 u
s
1
1 s 1 t
1 u 0
s1 t.
a) Xt Bt tB1 , para t 0, 1 .
b) Xt B1 t 1 t B1 , para t 0, 1 .
9.6. Ejercicios
Integral de It
o
232. Demuestre que dos procesos simples pueden siempre expresarse en
terminos de una particion com
un. Con ayuda de este resultado de-
muestre ahora que el espacio de procesos simples es un espacio vecto-
rial.
F
ormula de It
o
235. Use la f
ormula de Ito para demostrar que:
t t
1 3
a) Bs2 dBs Bt Bs ds.
0 3 0
t t
1 1
b) Bsn dBs Btn 1 nBsn 1
ds.
0 n 1 2 0
236. Use la f
ormula de Ito para demostrar que el proceso Xt : t 0 es
una soluci
on de la ecuacion estocastica indicada.
237. Use la f
ormula de Ito para demostrar que el proceso Xt 1 Bt 1
es soluci
on de la siguiente ecuacion estocastica para tiempos t 0,
en donde nf t 0 : Bt 1 .
Ecuaciones estoc
asticas
239. Demuestre que cada una de las siguientes ecuaciones estocasticas tiene
una u
nica soluci
on. En cada caso encuentre dicha solucion. Los termi-
nos b, y x0 son constantes.
a) dXt b Xt dt dBt , X0 x0 .
b) dXt b dt Xt dBt , X0 x0 .
c) dXt b Xt dt Xt dBt , X0 x0 .
Puente Browniano
a) Xt Bt tB1 , para t 0, 1 .
b) Xt B1 t 1 t B1 , para t 0, 1 .
306 lculo estoca
9. Ca stico
Apendice: conceptos
y resultados varios
Igualdad de procesos
Se dice que dos procesos estocasticos Xt : t 0 y Yt : t 0 son
equivalentes, o tambien se dice que uno es una version o modificacion del
otro, si para cada valor de t 0 fijo se cumple que
P Xt Yt 1,
P Xt Yt para cada t 0 1.
Esto significa que con probabilidad uno las trayectorias de los dos pro-
cesos son identicas. Claramente la indistinguibilidad es mas fuerte que la
equivalencia. Sin embargo, puede demostrarse que cuando los procesos son
continuos, es decir, cuando sus trayectorias son funciones continuas del
parametro, ambas nociones de igualdad coinciden. Cuando el parametro es
discreto, las definiciones son analogas y se puede demostrar la equivalencia
entre los dos tipos de igualdad sin ninguna condicion adicional.
307
308 . Ap
endice: conceptos y resultados varios
Independencia de procesos
Se dice que una variable aleatoria X es independiente de un proceso Xt :
t 0 si para cualesquiera tiempos 0 t1 t2 tn , n N,
la distribuci
on conjunta de la variable X y el vector Xt1 , . . . , Xtn es el
producto de las distribuciones marginales, es decir,
P X A P Xt1 A1 , . . . , Xtn An .
Lema de Abel
a) Si la serie k 0 ak es convergente, entonces
lm ak tk ak .
t 1
k 0 k 0
309
ak lm ak t k .
t 1
k 0 k 0
Lema de Fatou
a) Sea anm : n, m N una coleccion de n
umeros reales. Entonces
b) Adem
as, si anm bm con m bm , entonces
lm E Xn E lm Xn .
n n
lm E Xn E lm Xn .
n n
Ecuaci on de Wald
Sea X1 , X2 , . . . una sucesion de variables aleatorias independientes con la
misma distribuci on que X y con esperanza finita. Sea N una variable aleato-
ria con valores en el conjunto 1, 2, . . . , con esperanza finita e independiente
de la sucesi
on. Entonces,
N
E Xk E X E N .
k 1
Notaci on o peque na
Sean f t y g t dos funciones que se encuentran definidas y son positivas
para valores de t suficientemente grandes. Se dice que f t es de orden mas
peque no que g t cuando t , y se escribe f t o g t cuando t ,
si se cumple
f t
lm 0.
t g t
En particular, se escribe f t o 1 cuando f t converge a cero cuando
t . Se usa la misma notacion cuando t tiende a alg un valor finito
particular y las funciones se encuentran definidas y son positivas en una
vecindad no trivial alrededor de ese valor. En este texto se usa la notacion o
peque na para establecer el comportamiento de probabilidades dependientes
del tiempo p t , cuando t se aproxima a cero a traves de valores positivos.
F
ormula de Stirling
Para n suficientemente grande,
n! 2 nn 1 2
e n
.
Esperanza condicional
Sea , F , P un espacio de probabilidad. Sea X una variable aleatoria con
esperanza finita y sea G una sub -algebra de F . La esperanza condicional
311
a) Es G -medible.
E X G dP X dP.
G G
1. Si c es constante, entonces E c G c.
2. E X , E X .
3. Si A es un evento, entonces E 1A , P A.
E 1A , B, B c , P A B 1B P A B c 1B c .
7. E E X G E X .
9. E E X G E X .
12. Si X 0, entonces E X G 0.
13. Si X Y , entonces E X G E Y G .
14. Si G1 G2 , entonces
E E X G1 G2 E E X G2 G1 E X G1 .
E X G1 G2 E X G1 E X G2 E X .
E X G1 G2 E X G1 .
E XY G XE Y G .
uE X G E uX G .
n h nf H t : n 1h t nh ,
n h sup H t : n 1h t nh .
h h n h ,
n 1
h h n h ,
n 1
315
316 Bibliografa
[22] Lawler G. F., Random walk and the heat equation, Student
Mathematical Library, Vol. 55, AMS, 2010.
[29] Rincon L., Sobre el problema del mono que escribe caracteres al
azar, Miscelanea Matematica 42, Sociedad Matematica Mexica-
na, 7990, 2006.
[31] Ross S., A first course in probability - 4th ed., Macmillan Pub-
lishing Company, 1994.
[32] Spitzer F., Principles of random walk, 2nd. ed., Springer, 2001.
318
Indice analtico 319
Ecuacion Formula
de balance detallado, 90 de Stirling, 310
de calor, 244 Fatou
de Chapman-Kolmogorov, 39, lema, 309
244 Filtracion, 200
de difusi on, 244 canonica, 200
de renovaci on, 176, 177 continua por la derecha, 201
de Wald, 310 estandar, 201
estoc astica, 289 natural, 200
soluci on fuerte, 290 Funcion
Ecuaciones coseno hiperbolico, 137
de Kolmogorov, 156 de confiabilidad, 188
prospectivas, 158 de intensidad, 131
retrospectivas, 156 de renovacion, 176
Espacio de supervivencia, 188
C 1 , 286 de tasa de falla, 188
C 2 , 286 de valor medio, 131
L2 P , 274 delta de Kronecker, 31, 148
L2 P dt , 275 dir. Riemann integrable, 313
H2 , 278 hazard, 188
H02 , 275 seno hiperbolico, 137
L2loc , 281 variacion cuadratica de una,
de estados, 1 248
parametral, 1 variacion de una, 248
Esperanza
condicional, 310 Igualdad de procesos, 307
Estado Independencia
320 Indice analtico
Variaci
on, 248
cuadratica, 248
Wald
ecuaci
on de, 310
Wiener, N., 263