Professional Documents
Culture Documents
Luis Rincon
Departamento de Matematicas
Facultad de Ciencias UNAM
Circuito Exterior de CU
04510 Mexico DF
lars@fciencias.unam.mx
Febrero 2006
El Autor
Ciudad Universitaria UNAM
1
Contenido
4. Reaseguro 38
4.1. Reaseguro aplicado a cada reclamacion . . . . . . . . . . . . . 39
4.2. Reaseguro aplicado al total del riesgo . . . . . . . . . . . . . . 40
4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5. Teora de la credibilidad 45
5.1. Credibilidad completa . . . . . . . . . . . . . . . . . . . . . . 45
5.2. Credibilidad parcial . . . . . . . . . . . . . . . . . . . . . . . 47
5.3. Credibilidad Bayesiana . . . . . . . . . . . . . . . . . . . . . . 48
6. Procesos estocasticos 52
6.1. Filtraciones y tiempos de paro . . . . . . . . . . . . . . . . . 52
6.2. Proceso de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 53
2
6.3. Martingalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
7. Teora de la ruina 57
7.1. Modelo clasico de Cramer-Lundberg . . . . . . . . . . . . . . 57
7.2. Probabilidad de ruina . . . . . . . . . . . . . . . . . . . . . . 59
7.3. El coeficiente de ajuste . . . . . . . . . . . . . . . . . . . . . . 62
7.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
A. Distribuciones de probabilidad 68
B. Esperanza condicional 74
3
Captulo 1
4
una reclamacion por cada asegurado. Defina la variable aleatoria
(
1 si hay reclamacion en la poliza j,
Dj =
0 si no hay reclamacion en la poliza j.
De esta forma se considera como datos en este modelo los vectores aleatorios
5
Proposicion 1 Bajo la notacion e hipotesis del modelo individual se tienen
los siguientes resultados.
n
X
4. E(S) = qj E(Cj ).
j=1
n
X
5. Var(S) = [qj Var(Cj ) + qj pj E 2 (Cj )].
j=1
Demostracion.
Fj (x) = P (Dj Cj x)
= P (Dj Cj x | Dj = 0)P (Dj = 0)
+P (Dj Cj x | Dj = 1)P (Dj = 1)
= P (0 x | Dj = 0)pj + P (Cj x | Dj = 1)qj
= pj 1[0,) (x) + qj Gj (x).
2. Tenemos que
6
4. Nuevamente por independencia,
n
X
E(S) = E(Dj Cj )
j=1
n
X
= E(Dj )E(Cj )
j=1
Xn
= qj E(Cj ).
j=1
E(Dj Cj ) = qj E(Cj ),
E(Dj2 Cj2 ) = qj E(Cj2 ).
Entonces
Por lo tanto
n
X
Var(S) = Var(Dj Cj )
j=1
Xn
= [qj Var(Cj ) + qj pj E 2 (Cj )].
j=1
7
Y2
Y3
Y5
Y1
Y4
b b b b b
0 T
Observe que cada sumando es una variable aleatoria y que el numero de su-
mandos es tambien aleatorio. La ecuacion (1.2) representa el modelo colectivo
para un contrato de seguros. Nuevamente nuestro objetivo es estudiar las ca-
ractersticas de la variable S, cuyas posibles realizaciones como funcion del
tiempo tienen la siguiente forma
S(t) b
Y3
b bc
Y2
b bc
Y1
b c
b t
8
variable Y es no negativa. Adicionalmente usaremos la notacion n = E(Y n ),
en particular se escribe en lugar de 1 = E(Y ).
Demostracion.
X
FS (x) = P (S x | N = n)P (N = n)
n=0
X
= P (Y1 + + Yn x)P (N = n)
n=0
X
= Gn (x)P (N = n).
n=0
9
Demostracion.
1.
XN
E(S) = E( Yj )
j=1
XN
= E(E( Yj | N ))
j=1
N
X
= E( E(Yj | N ))
j=1
XN
= E( E(Yj ))
j=1
= E(N )E(Y ).
2.
XN
E(S 2 ) = E(( Yj )2 )
j=1
XN
= E(E(( Yj )2 |N ))
j=1
XN X
N
= E(E( Yj Yk |N ))
j=1 k=1
XN X
N
= E( E(Yj Yk |N ))
j=1 k=1
XN N
X
= E( E(Yj2 |N ) + E(Yj Yk |N ))
j=1 j,k=1
j6=k
10
= E(N )[E(Y 2 ) E 2 (Y )] + [E(N 2 ) E 2 (N )]E 2 (Y )
= E(N )Var(Y ) + Var(N )E 2 (Y ).
4.
MS (r) = E(erS )
= E(er(Y1 ++YN ) )
N
Y
= E( erYj )
j=1
N
Y
= E(E( erYj |N ))
j=1
N
Y
= E( E(erYj |N ))
j=1
N
Y
= E( MY (r))
j=1
= E((MY (r))N )
= E(eN ln(MY (r)) )
= MN (ln(MY (r))).
11
Proposicion 4 (Modelo binomial compuesto) Si N tiene una distribu-
cion bin(n, p) entonces
a) E(S) = np.
b) Var(S) = np(2 p2 ).
12
Para encontrar estas formulas es suficiente recordar que si N tiene distri-
bucion bin neg(, p) entonces E(N ) = (1 p)/p, Var(N ) = (1 p)/p2 y
MN (r) = [p/(1 (1 p)er )] .
1. E(S) = .
2. Var(S) = 2 .
4. E[(S E(S))3 ] = 3 .
3
5. 3 = p 3 > 0.
2
13
distribucion G1 (x) y G2 (x) respectivamente. Sea S = S1 + S2 . Entonces
tenemos el siguiente resultado.
Sea S un riesgo con distribucion Poisson compuesta. Suponga que los montos
de las reclamaciones pueden ser clasificadas en m categoras excluyentes
y exhaustivas denotadas por A1 , . . . , Am . Sea pk = P (Y Ak ) > 0 tal
que p1 + + pm = 1. Sea Nk el numero de reclamaciones del tipo k.
Entonces N = N1 + + Nm y debido a la independencia de los montos en
las reclamaciones, el vector (N1 , , Nm ) tiene una distribucion condicional
multinomial(p1 , . . . , pm ; n) cuando N = n. La distribucion no condicional
del vector (N1 , . . . , Nm ) es el contenido del siguiente resultado.
14
Demostracion. Sean n1 , . . . , nm enteros no negativos tales que n1 + +nm =
n. Entonces
P (N1 = n1 , . . . , Nm = nm ) = P (N1 = n1 , . . . , Nm = nm , N = n)
= P (N1 = n1 , . . . , Nm = nm |N = n)P (N = n)
n! n
= pn1 1 pnmm e
n1 ! nm ! n!
n
Y (pk )nk pk
= e .
nk !
k=1
Gk (x) = P (Yj x | Yj Ak )
P (Yj x, Yj Ak )
= .
P (Yj Ak )
15
Proposicion 9 (Modelo Poisson compuesto mixto) Si N tiene una
distribucion Poisson() y a su vez es una variable aleatoria con funcion
de distribucion H entonces
Z
hn
1. P (N = n) = eh dH(h).
0 n!
2. E(S) = E().
16
Con la primera igualdad se establece que el numero esperado de reclamacio-
nes en ambos modelos sea el mismo. La segunda ecuacion define a la funcion
de distribucion de una recamacion en el modelo colectivo como la suma pon-
derada de las funciones de distribucion del monto de las reclamaciones en el
modelo individual. De esta forma se construye entonces un modelo colectivo
Poisson compuesto
XN
Sc = Yj .
j=1
El k-esimo momento de una reclamacion en este modelo es
Z
k
E(Y ) = y k dG(y)
0
n
qj
X Z
= y k dGj (y)
0
j=1
n
X qj
= E(Cjk ).
j=1
17
modelo colectivo puede ser obtenido como un proceso lmite en el modelo in-
dividual. Consideremos entonces el modelo individual junto con la notacion
e hipotesis usuales. Por resultados previos sabemos que
n
Y
MS i (t) = [1 + qj (MCj (t) 1)].
j=1
18
El termino qj (MCj (t) 1) es pequeno para valores pequenos de t, de modo
que
n
X
ln(MS i (t)) = ln[1 + qj (MCj (t) 1)]
j=1
Xn
qj (MCj (t) 1)
j=1
n
X qj
= [ (MCj (t) 1)]
j=1
n
X qj
= [ MCj (t) 1],
j=1
1.3. Ejercicios
Modelo individual
19
n
X
a) E(S) = qj zj .
j=1
Xn
b) Var(S) = qj pj zj2 .
j=1
4. Sean qj,0 , qj,1 y qj,2 las probabilidades de que el j-esimo segurado pre-
sente 0, 1 y 2 reclamaciones respectivamente durante el tiempo de vi-
gencia del seguro. Suponga que cada una de las posibles reclamaciones
de la poliza j es constante zj y que
Modelo colectivo
20
a) E(Y ) = exp( 2 /2 + m).
2
b) Var(Y ) = (e 1) exp( 2 + 2m).
c) n = exp(nm + n2 2 /2).
d) E(S) = exp( 2 /2 + m).
e) Var(S) = exp(2 2 + 2m).
1
f ) 3 = exp(3 2 /2).
21
[0, 1], la funcion F1 + (1 )F2 es una funcion de distribucion
cuya funcion generadora de momentos asociada es M1 + (1 )M2 .
Este resultado fue utilizado en el analisis de la suma de dos riesgos con
distribucion Poisson compuesta.
22
Captulo 2
23
b) N es Poisson() con a = 0 y b = .
pk = P (N = k),
fr = P (Y = r),
gr = P (S = r),
frk = P (Y1 + + Yk = r).
En particular
r1
X
fr(k+1) = (f k f )r = fik fri .
i=1
Ademas
g0 = P (S = 0) = P (N = 0) = p0 ,
X
y gr = P (S = r) = E[P (S = r | N )] = frk pk .
k=1
k
X r
a) E( Y1 | Yi = r ) = , para k 1.
k
i=1
r1
X bi (k1)
b) pk frk = pk1 (a + )fri fi , para k 2.
r
i=1
24
Demostracion. Para el primer inciso,
k k k
X 1X X
E( Y1 | Yi = r ) = E( Yj | Yi = r )
k
i=1 j=1 i=1
k k
1 X X
= E( Yj | Yi = r )
k
j=1 i=1
r
= .
k
Para el segundo inciso desarrollamos el lado derecho,
r1 r
X bi (k1) X bi
pk1 (a + )fri fi = pk1 (a + )P (Y2 + + Yk = r i)P (Y1 = i)
r r
i=1 i=1
r
X bi
= pk1 (a + )P (Y1 = i, Y2 + + Yk = r i)
r
i=1
r k
X bi X
= pk1 (a + )P (Y1 = i, Yj = r)
r
i=1 j=1
r k
X bi X
= pk1 (a + )P (Y1 = i| Yj = r)frk
r
i=1 j=1
k
bY1 X
= pk1 E(a + | Yj = r)frk
r
j=1
b
= pk1 (a + )frk
k
k
= pk f r
25
Teorema 1 (Formula de recursion de Panjer) Considerando el mode-
lo colectivo de riesgo, y bajo las hipotesis y notacion arriba enunciados, la
probabilidad gr = P (S = r) esta dada por
r
X bi
gr = (a + )fi gri .
r
i=1
Demostracion.
gr = P (S = r)
= E[P (S = r | N )]
= E[P (Y1 + + YN = r | N )]
X
= pk frk
k=1
X
= p1 f r + pk frk
k=2
r1
X
X bi (k1)fi
= (a + b)p0 fr + (a + )pk1 fri
r
k=2 i=1
r1
X bi X (k1)
= (a + b)p0 fr + (a + )fi pk1 fri
r
i=1 k=2
r1
X bi
= (a + b)p0 fr + (a + )fi gri
r
i=1
r
X bi
= (a + )fi gri
r
i=1
26
2.2. Aproximacion normal
27
La correspondiente media, varianza y coeficiente de asimetra de la varia-
ble k + Z es k + /, /2 y 2/ respectivamente. Haciendo coincidir
estas tres cantidades para ambas variables aleatorias obtenemos el sistema
de ecuaciones
2
k + = m, 2
= 2 , = 3 ,
cuya solucion es
2 4 2
k =m , = , = .
3 23 3
De esta forma se tiene la aproximacion
2 4 2
S m + gama( 2 , ).
3 3 3
28
Entonces
r2 r3 r4
MZ (r) exp( + a3 + a4 )
2! 3! 4!
r2 r3 r4
= exp( ) exp(a3 + a4 ).
2 6 24
Ahora se usa la serie ex = 1 + x + x2 /2! + x3 /3! + en el segundo factor y
se obtiene
r2 r3 r4 r6
MZ (r) exp( ) exp(1 + a3 + a4 + a23 ).
2 6 24 72
El siguiente paso es invertir cada termino de esta ecuacion encontrando la
distribucion correspondiente. Primeramente tenemos que
Z
r 2 /2
e = erx (x)dx,
29
en donde derivando directamente se puede demostrar que
1 2
(3) (z) = (z 2 1)ez /2 ,
2
1 2
(4) (z) = (z 3 + 3z)ez /2 ,
2
1 2
(6) (z) = (z 5 + 10z 3 15z)ez /2 .
2
2.5. Ejercicios
Aproximacion normal
a) Poisson().
b) bin(n, p).
c) bin neg(r, p).
12. Suponga que un cierto riesgo S tiene una distribucion Poisson com-
puesta con parametro = 30 en donde los montos de las reclamaciones
siguen una distribucion uniforme(0, 10). Use la aproximacion normal
para encontrar el valor de la prima p tal que
a) P (S > p) 0.05.
b) P (S > p) 0.01.
13. Suponga que un riesgo S sigue una distribucion Poisson compuesta con
parametro = 20 y los montos de las reclamaciones tienen distribu-
cion exp() con = 10. Use la aproximacion normal para estimar la
probabilidad P (S > E(S)).
14. Suponga que un riesgo S sigue una distribucion Poisson compuesta con
parametro = 20 y los montos de las reclamaciones tienen distribucion
Pareto(4, 3). Compruebe que el valor de la prima p que cumple P (S >
p) 0.01 es p =38.0194.
30
Aproximacion gama trasladada
a) N bin(n, p).
b) N Poisson().
c) N bin neg(, p).
21. Suponga que el riesgo S tiene una distribucion Poisson compuesta con
parametro > 0. Demuestre que los parametros para usar la aproxi-
macion gama trasladada son
k = ( 222 /3 ),
= 432 /23 ,
= 22 /3 .
31
Aproximacion de Edgeworth
22. Suponga que S tiene una distribucion Poisson compuesta con parame-
tro > 0 y que se desea usar la aproximacion de Edgeworth para S.
Demuestre que
dk
= k (2 )k/2 , para n 2.
ak = k ln MZ (r)
dr r=0
En consecuencia
x 3 (2 )3/2 (3) x
P (S x) ( ) ( )
2 6 2
4 (2 )2 (4) x
+ ( )
24 2
2 23 (2 )3 (6) x
+ ( ).
72 2
23. Suponga que S tiene una distribucion Poisson compuesta con parame-
tro > 0 y que se desea usar la aproximacion de Edgeworth para
S. Suponga adicionalmente que el monto de las reclamaciones siguen
una distribucion Pareto(4, 3). Demuestre que 4 = y por lo tanto la
formula del ejercicio anterior no puede aplicarse.
32
Captulo 3
Considere un seguro en donde se cobra una misma prima p por cada uno de
los n anos de vigencia. Suponga que Sj representa las reclamaciones efectua-
das durante el ano j, las cuales se asumen independientes e identicamente
distribuidas. Si u es el capital inicial de la aseguradora, entonces el capital
de la misma al final del n-esimo ano es
n
X
Xn = u + np Sj .
j=1
33
c.s.
a) Si p < E(S) entonces Xn .
b) Si p = E(S) entonces lm sup Xn = lm inf Xn = c.s.
n n
c.s.
c) Si p > E(S) entonces Xn y P (Xn 0 para cada n en N) > 0.
Dado este resultado, es natural entonces suponer p > E(S). Esta condicion
se conoce con el nombre de condicion de ganancia neta1 y debe prevalecer en
cualquier metodo para calcular p. Veamos ahora algunos principios generales.
Principio de la varianza
Este principio hace uso de una funcion de utilidad, esto es, una funcion v(x)
que cumpla las siguientes propiedades:
1
net profit condition.
2
safety loading.
34
v(x)
1. v(0) = 0.
2. v(x) es estrictamente creciente.
3. v(x) es estrictamente concava.
x
Este principio hace uso de una funcion de valor, esto es, una funcion v(x)
que cumpla las siguientes propiedades:
v(x)
1. v(0) = 0.
2. v(x) es estrictamente creciente.
3. v(x) es estrictamente convexa.
x
35
Principio exponencial
1 eu = E[1 e(u+pS) ].
ep 1 = E(eS 1)
3.2. Propiedades
Simplicidad. El calculo de la prima debe ser facil de calcular, por ejemplo, los
principios del valor esperado, el de la varianza y el de la desviacion estandar
cumplen esta primera propiedad.
36
Consistencia. Si un riesgo se incrementa en una constante entonces la prima
debe reflejar ese cambio incrementandose en la misma cantidad. Los princi-
pios de varianza, de la desviacion estandar, de utilidad cero y el principio
exponencial cumplen con esta propiedad.
3.3. Ejercicios
Principios
Propiedades
37
Captulo 4
Reaseguro
Reclamaciones
individuales
Reaseguro
Total del
riesgo
38
En ambos esquemas el reseguro se aplica mediante una funcion h : [0, )
[0, ) tal que h(0) = 0 y h(x) x. Las dos funciones de este tipo que con-
sideraremos son h(x) = x para (0, 1) y h(x) = mn{x, M } para alguna
constante M > 0. Graficamente estas funciones se muestran a continuacion.
x x
M
39
4.2. Reaseguro aplicado al total del riesgo
S I = h(S).
Los ejemplos mas comunes de este tipo de reaseguro son el reaseguro pro-
porcional y el reaseguro de perdida maxima (stop loss).
Proporcional
Reclamaciones
individuales
Exceso de perdida
(excess of loss)
Reaseguro
Proporcional
Total del
riesgo
Perdida maxima
(stop loss)
40
Sobre el reaseguro proporcional
1. E(S I ) = E(S).
2. Var(S I ) = 2 Var(S).
41
Numero de reclamaciones en un reaseguro por ex-
ceso de perdida
a) N R bin(n, qp).
b) N I bin(n, (1 q)p).
a) N R Poisson(q).
b) N I Poisson((1 q)).
42
cuando N tiene distribucion bin(n, p) tenemos que MN (r) = (1 p + per )n .
Por lo tanto
4.3. Ejercicios
Reaseguro proporcional
a) Son N R y N I independientes?
b) Son N y N R independientes?
43
30. Suponga que el monto de una reclamacion Y para un cierto tipo de ries-
go se modela mediante una variable aleatoria con distribucion exp().
Asuma que hay un lmite maximo de suma asegurada M > 0, de modo
que en caso de que se presenta una reclamacion, el monto a pagar por
la aseguradora es
YM = mn{Y, M }.
Calcule E(YM ) y Var(YM ). Compare con E(Y ) y Var(Y ).
44
Captulo 5
Teora de la credibilidad
45
con probabilidad mayor o igual a p.
|S E(S)| kE(S)
P ( |S E(S)| kE(S) ) = P ( p p )
Var(S)/m Var(S)/m
k mE(S)
2( p ) 1.
Var(S)
De donde se obtiene
u2(1+p)/2 Var(S)
m= . (5.2)
k2 E 2 (S)
Los terminos desconocidos E(S) y Var(S) pueden ser estimados de la forma
usual.
[ = S,
E(S)
m
\ = 1 X
Var(S) (Sj S)2 .
m1
j=1
46
en donde N tiene distribucion Poisson(). Las variables Yi corresponden a
las reclamaciones individuales y de acuerdo a la notacion previa, su primer
y segundo momento son 1 y 2 , entonces
E(Sj ) = 1 ,
y Var(Sj ) = 2 .
u2(1+p)/2 2
m .
k2 21
(1,6449)2 2
m = 2165.56.
(0,05)2 12
z S + (1 z)E(S),
47
se tiene la condicion
z 2 u2(1+p)/2 Var(S)
m= .
k2 E 2 (S)
De donde se obtiene
k E(S) m
z= p .
u(1+p)/2 Var(S)
Por lo tanto se define
k E(S) m
z = mn { p , 1 }. (5.3)
u(1+p)/2 Var(S)
Modelo Poisson-gama
48
se considera aleatorio con distribucion a priori gama(, ). Observe que he-
mos supuesto que las reclamaciones anuales Sj toman valores enteros. Para
enfatizar tal supuesto estas reclamaciones se escriben simplemente como Nj .
f (N1 , . . . , Nm | = )f ()
f ( | N1 , . . . , Nm ) = Z
f (N1 , . . . , Nm | = )f () d
0
m
Y Nj 1
( e ) e
Nj ! ()
j=1
= Y m
Nj 1
Z
( e ) e d
0 Nj ! ()
j=1
mN +1 e(m+)
= Z
mN +1 e(m+) d
0
(m + )mN + mN +1 (m+)
= e .
(mN + )
p = E( | N1 , . . . , Nm )
Z
= f ( | N1 , . . . , Nm ) d
0
(m + )mN + mN +1 (m+)
Z
= e d
0
Z
(m + )mN +
= mN + e(m+) d
(mN + ) 0
(m + )mN + (mN + + 1)
=
(mN + ) (m + )mN ++1
mN +
=
m+
m
= N +
m+ m+
= z N + (1 z) ,
49
en donde z = m/(m + ) es llamado factor de credibilidad. Observe que esta
cantidad crece monotonamente a uno cuando m crece. Los parametros y
puede ser estimados mediante algun metodo estadstico.
Modelo normal-normal
50
a posteriori de es nuevamente normal. La media de esta distribucion es
entonces la prima por credibilidad, es decir,
my 1 m
p = ( 2
+ 2 )( 2 + 2 )1
2 + m 2 S
=
2 + m 2
m 2 m 2
= S + (1 )
2 + m 2 2 + m 2
= z S + (1 z),
51
Captulo 6
Procesos estocasticos
52
se dice que el proceso es adaptado a la filtracion. Todo proceso estocastico
Xt determina una filtracion natural dada por Ft = {Xs : 0 s t}.
Claramente todo proceso es adaptado a su filtracion natural. En este caso a
la -algebra Ft se le interpreta como la historia del proceso al tiempo t,
pues en ella se encuentran todos los posibles eventos o sucesos que el proceso
haya tenido hasta ese momento. Adicionalmente
T se dice que una filtracion
es continua por la derecha cuando Ft+ = s>t Fs coincide con Ft .
a. N0 = 0.
b. tiene incrementos independientes y estacionarios.
c. P (Nh = 0) = 1 h + o(h) cuando h 0.
d. P (Nh = 1) = h + o(h) cuando h 0.
53
periodo infinitesimal de tiempo de longitud h, el proceso salta al siguiente
estado 1 con probabilidad h o permanece en el estado actual 0 con proba-
bilidad complementaria 1 h. Debido a la segunda propiedad este tipo de
comportamiento se presenta en todo momento. Una posible trayectoria de
un proceso de Poisson se muestra en la siguiente figura.
Nt ()
3 b
2 b bc
1 b bc
b c
b t
6.3. Martingalas
54
Las martingalas son procesos que estan relacionados con los juegos justos.
Si Mt representa la fortuna de un jugador que apuesta continuamente en-
tonces la igualdad anterior se interpreta del siguiente modo. En promedio
la fortuna del jugador al tiempo t dada toda la historia del juego hasta el
tiempo s t es la fortuna del jugador al tiempo s, es decir, el juego es justo
pues el jugador en promedio no pierde ni gana. Cuando en lugar de (6.1)
se cumple E(Mt |Fs ) Ms se dice que el proceso es una supermartingala,
se trata entonces de un juego desfavorable al jugador pues en promedio su
fortuna disminuye. En caso de la desigualdad contraria el proceso es una
submartingala, juego favorable al jugador. Cuando se toma esperanza en la
ecuacion (6.1) se obtiene E(Mt ) = E(Ms ). Esto quiere decir que todas las
variables aleatorias que conforman una martingala tienen la misma esperan-
za. En particular, si la variable inicial M0 es cero entonces E(Mt ) = 0 para
cualquier t 0.
6.4. Ejercicios
Proceso de Poisson
Nt Ns Poisson((t s)).
55
n N} una sucesion de v.a.i.i.d. tal que Xn Ber(p). Demuestre que
Nt
X
{ Xk : t 0 }
k=1
Martingalas
56
Captulo 7
Teora de la ruina
57
por primas hasta el tiempo t con c constante, Yj es el monto de la j-esima
reclamacion y Nt es un proceso de Poisson de tasa .
Ct ()
bc
bc
c
b b
bc
c
b b
u b
b
b
t
58
Poisson. El tamano de un salto es el tamano de la reclamacion dada por la
variable Y .
59
= P (nf Ct < 0).
t>0
2. (0) = .
c
Z Z u
3. (u) = [ (1 F (x)) dx + (u x)(1 F (x)) dx ].
c u 0
60
u
Z Z u Z uy
= [ Q(x)dx Q(u)dxdFY (y)]
c 0 0 0
Z u Z u Z ux
= [ Q(x)dx Q(x)dFY (y)dx]
c 0 0 0
u
Z
= [ Q(x)(1 F (u x))dx
c 0
u
Z
= [ Q(u x)(1 F (x))dx. (7.3)
c 0
Xk = c(Tk Tk1 ) Yk ,
61
que pueden ser interpretadas como el balance de la compana aseguradora
entre dos siniestros sucesivos. La esperanza de esta variable es
c > (7.5)
Nt
r Yi
= e(r)tr(u+ct) E(e i=1 )
(r)tr(u+ct)
= e MSt (r)
(r)tr(u+ct) t(MY (r)1)
= e e
< .
3
net profit condition.
62
Finalmente tenemos la propiedad de martingala. Para 0 s < t,
Nts
r Yi
= e(r)trCs rc(ts) E(e i=1 )
(r)trCs rc(ts) (ts)(MY (r)1)
= e e
rCs (r)s
= e .
Tenemos entonces que el proceso anterior es una martingala para cada valor
de r tal que MY (r) < . Si para algun valor de r se cumple que (r) =
0 entonces la martingala dependera del tiempo unicamente a traves del
proceso Ct . Veamos si hay alguna posibilidad de que tal valor de r exista
estudiando el comportamiento de (r). Tenemos que
(r) = MY (r) c,
(r) = MY (r)
= E(Y 2 erY ) > 0.
(r)
b r
R
63
Definicion 2 (Coeficiente de ajuste) Al valor R > 0 tal que (R) = 0,
si existe, se le llama coeficiente de ajuste o exponente de Lundberg.
Ru
(u) = e .
c
Tenemos que
64
Demostracion. Sea el tiempo de paro correspondiente al primer tiempo de
ruina. Entonces el proceso {Ct : t 0} es tambien una martingala y por
lo tanto
eRu = eRC0
= E(eRCt )
= E(eRCt | > t) + E(eRCt | t)
E(eRCt | t)
= E(eRC | t).
Haciendo t , por el teorema de convergencia monotona se obtiene
eRu E(eRC | < )
> E( 1 | < )
= P ( < )
= (u).
Demostracion.
65
> ( c) + 2 r.
Por lo tanto
Z t
(r) = (0) + (s)ds
0
1
> ( c)r + 2 r 2 .
2
Evaluando la ultima desigualdad en R se obtiene
1 1
0 > ( c)R + 2 R2 = [( c) + 2 R]R.
2 2
Como R > 0 entonces ( c) + 2 12 R < 0. Despejando R se obtiene la
cota inferior anunciada.
x
2. Suponga ahora que Yi M c.s. y sea h(x) = M (eRM 1) (eRx 1).
2 Rx
Entonces h (x) = R e < 0. Por lo tanto h es concava con h(0) = h(M ) =
0. Esto quiere decir que h(x) > 0 para 0 < x < M , es decir,
x RM
(e 1) (eRx 1) > 0,
M
o bien
x RM
(eRx 1) (e 1). (7.6)
M
Sea g(x) = xex ex + 1. Entonces g (x) = xex > 0. Por lo tanto g(x)
es creciente para x > 0, es decir, g(x) > g(0) = 0 para x > 0. Es decir,
xex ex + 1 > 0 para x > 0. En particular, evaluando en x = RM se obtiene
RM eRM eRM + 1 > 0. Por lo tanto
eRM 1
< eRM . (7.7)
RM
Por otro lado, usando (7.6),
Z M
MY (R) 1 = (eRx 1)dG(x)
0
M
x
Z
(eRM 1)dG(x)
0 M
Z M
1 RM
= (e 1) xdG(x)
M 0
RM
= (e 1). (7.8)
M
66
Por lo tanto usando (7.8) y luego (7.7),
0 = (MY (R) 1) cR
RM
(e 1) cR
M
< ReRM cR
= (eRM c)R.
7.4. Ejercicios
67
Apendice A
Distribuciones de
probabilidad
Distribucion Bernoulli
Distribucion beta
68
E(X) = a/(a + b).
Var(X) = ab/[(a + b + 1)(a + b)2 ].
Distribucion binomial
X bin(n,
p) con n {1, 2, . . .} y p (0, 1).
n
f (x) = px (1 p)nx para x = 0, 1, . . . , n.
x
E(X) = np.
Var(X) = np(1 p).
G(t) = (1 p + pt)n .
M (t) = [(1 p) + pet ]n .
Distribucion Cauchy
69
1
f (x) = .
(1 + x2 )
F (x) = 1/2 + (arctan x)/.
Distribucion exponencial
Distribucion gama
Distribucion ji-cuadrada
70
Distribucion log normal
Distribucion normal
Distribucion Pareto
71
Distribucion Poisson
Distribucion t
72
Distribucion uniforme discreta
X unif{x1 , . . . , xn } con n N.
f (x) = 1/nPpara x = x1 , . . . , xn .
E(X) = n1 nj=1 xj .
Var(X) = n1 nj=1 (xj )2 .
P
Distribucion Weibull
73
Apendice B
Esperanza condicional
1. Es G-medible.
E[ E( X | G ) 1G ] = E[ X 1G ].
Puede demostrarse que esta variable aleatoria existe y es unica casi segura-
mente, esto significa que si existe otra variable aleatoria con las tres propieda-
des anteriores entonces con probabilidad uno coincide con E(X|G). Cuando
G = (Y ) para alguna variable aleatoria Y , se escribe E(X|Y ) en lugar de
E(X|(Y )). Se enuncian a continuacion algunas propiedades de esta espe-
ranza.
a. E(X | {, } ) = E(X).
b. E(1A | {, } ) = P (A).
74
d. E(E(X | G)) = E(X).
e. Si X es G-medible entonces E(X | G) = X.
En particular, si c es una constante entonces E(c | G) = c.
f. E(aX + Y | G) = aE(X | G) + E(Y | G).
g. Si X 0 entonces E(X | G) 0.
h. [Teorema de convergencia monotona]
Si 0 Xn X entonces E(Xn | G) E(X | G) c.s.
i. [Teorema de convergencia dominada]
Si |Xn | Y , E|Y | < y Xn X c.s. entonces E(Xn | G) E(X | G)
c.s.
j. [Desigualdad de Jensen]
Si es convexa entonces (E(X | G)) E((X) | G).
Varianza condicional
75
a. Var(X | {, }) = Var(X).
76
Bibliografa
[1] Beard R. E., Pentikainen T., Pesonen E. (1984) Risk theory. Tercera
edicion. Chapman and Hall. London.
[3] Daykin C. D., Pentikainen T., Pesonen M. (1994) Practical risk theory
for actuaries. Chapman and Hall. London.
77
Indice
Espacio Reaseguro
filtrado, 52 de perdida maxima (stop loss),
Esperanza 40
condicional, 74 por exceso de perdida (excess of
Exponente de Lundberg, 64 loss), 39
78
proporcional, 39, 40
Tiempo de paro, 53
Varianza
condicional, 75
79