Professional Documents
Culture Documents
Adama Mickiewicza
w Poznaniu
Michał Bereta
Praca magisterska
Promotor
prof. UAM dr hab. Witold Wnuk
Poznań 2008
Spis treści
Podziękowania 3
Wstęp 4
1 Wiadomości wstępne 8
1.1 Teoria miary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Elementy probabilistyki . . . . . . . . . . . . . . . . . . . . . 20
3 Zastosowania martyngałów 49
3.1 Twierdzenie o reprezentacji martyngału . . . . . . . . . . . . . 49
3.2 Wycena opcji . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3 Granica pochodnych Radona-Nikodyma . . . . . . . . . . . . . 58
3.4 Twierdzenie Kakutaniego . . . . . . . . . . . . . . . . . . . . . 61
3.5 Zagadnienie dyskryminacji . . . . . . . . . . . . . . . . . . . . 63
3.6 Zadanie o ruinie gracza . . . . . . . . . . . . . . . . . . . . . . 64
Bibliografia 67
2
Podziękowania
3
Wstęp
4
rze. Wyróżniłem definicje, przykłady, wnioski, twierdzenia wraz z dowodami
oraz uwagi. Pozostałą część tekstu stanowią komentarze lub opisy pewnych
postępowań. Na początku każdego rozdziału omawiam wprowadzane pojęcia
i twierdzenia. Zastosowałem ciągłą numerację twierdzeń, definicji i przykła-
dów w obrębie każdego rozdziału tzn. pierwsza liczba w numerze twierdze-
nia oznacza numer rozdziału, druga (po kropce) wskazuje, kolejność danego
twierdzenia w rozdziale. Natomiast wnioski i uwagi nie są numerowane, po-
nieważ jest ich niewiele oraz, z reguły, nie są wykorzystywane w dalszych
rozważaniach. Oddzielnie numeruję również wzory i równości, do których na-
stępuje odwołanie w dalszej części pracy. Symbol oznacza koniec dowodu.
Praca jest tak skonstruowana, aby maksymalnie obniżyć próg wymagań
wobec Czytelnika. Przystępując do jej lektury nie jest wymagana wiedza z
teorii miary, a co za tym idzie rachunku prawdopodobieństwa.
Pierwszy rozdział jest poświęcony teorii miary. Zostały w nim oddzielone
ogólne rozważania tej teorii od elementów rachunku prawdopodobieństwa.
Najpierw zostały wprowadzone definicje σ-algebry oraz miary i ich własności
wraz z przykładami. Dalej przypominam całkę Lebesgue’a, zmienne losowe
oraz pojęcia wartości oczekiwanej i warunkowej wartości oczekiwanej. W za-
sadzie większość informacji z tego rozdziału pochodzi z wysłuchanych przez
mnie wykładów z teorii miary lub rachunku prawdopodobieństwa.
W drugim rozdziale przechodzę do zasadnieczego tematu mojej pracy.
Zostaje wprowadzona wraz z przykładami definicja martyngału. Dalej jest
omówina teoria momentów stopu. Ponadto przytoczyłem wiele twierdzeń o
zbieżności martyngałów oraz pewne nierówności martyngałowe. Można do
nich zaliczyć twierdzenia Dooba, zasadnicze twierdzenie o zbieżności martyn-
gałów oraz uogólnienie nierówności Kołmogorowa- nierówność maksymalną
dla podmartyngałów. W ostatnim podrozdziale znalazły się informacje na
temat martyngałów z czasem odwróconym oraz kilka ich własności.
W rozdziale trzecim znalazły się wiadomości o zastosowaniach twierdze-
nia o reprezentacji martyngałowej. Jest ono wykorzystywane do wyceny in-
strumentów pochodnych. Co więcej wyróżniona została wycena europejskiej
5
opcji kupna. Ponadto wskazałem, wykorzystując [1], przykład zastosowania
martyngałów przy określaniu granicy pochodnych Radona-Nikodyma. Omó-
wiłem, wykorzystując [7], sposób wykorzystania martyngałów do rozróznienia
zadanych z góry rozkładów danego zdarzenia losowego. Oddzieliłem przypa-
dek, gdy ryzyko podjęcia złej decyzji wiąże się z kosztami. Ostatnim zagad-
nieniem poruszonym w tym rozdziale jest sposób obliczania prawdopodobień-
stwa ruiny w grze dwóch graczy.
Zdaję sobie sprawę, iż mimo wielu korekt, w mojej pracy mogą znaleźć się
niedoskonałości czy błędy. Będą wdzięczny za wszelkie uwagi na ten temat.
Można je przysyłać na adres d138599@atos.wmid.amu.edu.pl
Notatki z wykładów [13] wykorzystane zostały w definiowaniu procesów
stochastycznych oraz opisie własnośći funkcji wypukłych. Również twierdze-
nie o momencie zatrzymania pochodzi z tego wykładu. Bardzo pomocna była
obszerna monografia [1]. Wiele zagadnień zostało tam przystępnie opisanych.
Z niej pochodzą twiedzenia: zasadnicze twierdzenie o zbieżności martynga-
łów oraz teoria martyngałów z czasem odwróconym. Ponadto, jak już wspo-
mniałem, pochodzi z niej przykład zastosowania martyngałów w obliczaniu
granicy pochodnych Radona-Nikodyma. Co więcej twierdzenie 2.16 (o złoże-
niu martyngałów z funkcją wypukłą) też zostało tam opisane. Wykorzysty-
wane jest w uwadze dotyczącej nierówności maksymalnej dla martyngałów.
Często korzystałem z [7]. Zaczerpnąłem z niej elementy teori momentów za-
trzymania, większą część podrozdziału o zbieżności martyngałów (twierdze-
nie Dooba, twierdzenie o ciągu liczbowym i liczbie przejść w górę, wartości
oczekiwanej przejść w górę nadmartyngałów, nierówność Kołmogorowa oraz
nierówność maksymalną dla nadmaryngałów). Większość zastosowań mar-
tyngałów została zaczerpnięta z tego dzieła.
Z pozycji [2] pochodzi twierdzenie o dekompozycji Dooba. Notatki [4] by-
ły pomocne do zrozumienia roli martyngałów w wycenie instrumentów po-
chodnych. Natomiast opracowanie [6] zawierało twierdzenie o własnościach
ciągów stopu. Bardzo pomocna była pozycja [16], z której pochodzi twierdze-
nie Dooba o zbieżności oraz wniosek do twiedzenia o ograniczoności przejść w
6
górę nadmartyngału. Wykorzystałem też postępowanie użyte przez D. Wil-
liams’a do wykazania istnienia strategii hedgingu dla wyceny europejskiej
opcji kupna.
7
Rozdział 1
Wiadomości wstępne
1. X ∈ Σ,
8
Elementy σ−algebry nazywamy zbiorami mierzalnymi (dokładniej Σ−mierzal-
nymi).
9
Definicja 1.3. Miarą nazywamy funkcję µ: Σ → [0, +∞] taką, że
• µ(∅) = 0
10
3. Niech Σ będzie σ-algebrą podzbiorów zbioru Ω. Funkcje ν, µ postaci
0 gdy A = ∅
µ(A) =
+∞ gdy A 6= ∅
j(k) ∞
X X
6 µ(Ai ) 6 µ(Ai ).
i=1 i=1
∞
P
Ponieważ k możemy wybrać dowolne, to µ(A) 6 µ(Ai ). Ostatecznie
i=1
∞
P
µ(A) = (Ai ).
i=1
11
Dla dowolnego A ⊂ Rn jego n-wymiarową miarą zewnętrzną Lebesgue’a
m∗n definiuje się wzorem
m∗n (A) =
∞ ∞
Pi ⊃ A, Pi − przedziały ograniczone i domknięte w Rn },
X [
= inf{ |Pi |:
i=1 i=1
∞
An , gdzie An ∈ Σ, An ⊂ An+1 dla n ∈ N to µ(A) =
S
d. Jeżeli A =
n=1
lim µ(An ).
n→∞
∞
An , gdzie An ∈ Σ, An+1 ⊂ An dla n ∈ N i µ(Am ) < ∞
T
e. Jeżeli A =
n=1
dla pewnego m ∈ N, to µ(A) = n→∞
lim µ(An ).
12
Dowód. a. Niech A i B będą takimi zbiorami, że A ⊂ B. Ponieważ
A ∩ (B \ A) = ∅ to z addytywności miary µ mamy
n−1
c. Niech B1 = A1 , Bn = An \
S
Ai dla n > 2.
i=1
Wtedy (Bn )∞
n=1 jest ciągiem zbiorów mierzalnych o właściwościach:
(a) Bn ⊂ An dla n ∈ N.
∞ ∞
An , a ponadto Bi ∩Bj = ∅ dla i 6= j, i, j ∈ N. Istotnie
S S
(b) Bn =
n=1 n=1
∞ ∞ ∞
inkluzja Bn ⊂ An implikuje Bn ⊂ An . Niech x0 ∈
S S S
An
n=1 n=1 n=1
i niech j będzie najmniejszą liczbą, dla której zachodzi x0 ∈ Aj .
∞
Wówczas x0 ∈ Bj ⊂
S
Bn .
n=1
n
[ n
X
µ(An ) = µ( Bk ) = µ(Bk ) (1.2)
k=1 k=1
oraz ∞ ∞
[ X
µ(A) = µ( Bk ) = µ(Bk )
k=1 k=1
∞
S ∞
S
bo Ak = Bk . Wykorzystując równość (1.2) otrzymujemy µ(A) =
k=1 k=1
n
P
lim ( µ(Bk )) = lim µ(An ).
n→∞ k=1 n→∞
13
∞
T
e. Bez zmniejszania ogólności można przyjąć, że m = 1, bo An =
n=1
∞
An dla każdego m ∈ N. Niech Cn = A1 \ An . Wówczas C1 ⊂ C2 ⊂
T
n=m
... ⊂ Cn ⊂ ... Stąd z własności b. oraz d. wynika, że µ(A1 ) − µ(A) =
∞ ∞ ∞
µ(A1 \A) = µ(A1 \ A1 \An ) = µ(
T S S
An ) = µ( Cn ) = lim µ(Cn ) =
n=1 n=1 n=1 n→∞
lim µ(A1 \ An ) = n→∞
n→∞
lim [µ(A1 ) − µ(An )] = µ(A1 ) − n→∞
lim µ(An )
Zatem otrzymujemy µ(A) = n→∞
lim µ(An ).
Przykład 1.3. Pokażemy teraz, że założenie µ(Am ) < ∞ jest istotne. Niech
∞
Σ = B(R), An = [n, ∞) oraz niech µ będzie miarą liczącą. Wtedy An = ∅,
T
n=1
An+1 ⊂ An dla n ∈ N oraz
∞
\
µ(A) = µ( An ) = 0 6= n→∞
lim µ(An ) = ∞
n=1
14
1 dla x ∈ A
χA (x) =
0 dla x ∈
/ A.
Zatem funkcja f : Ω → R jest prosta wtedy i tylko wtedy, gdy jest mie-
rzalna i ma skończony zbiór wartości.
Przypomnimy teraz kilka rodzajów zbieżności ciągów funkcyjnych i twier-
dzenia pokazujące związki między tymi rodzajami zbieżności.
15
Definicja 1.9. Ciąg funkcji mierzalnych (fn ) jest zbieżny µ−prawie wszędzie
do funkcji mierzalnej f , gdy
16
Definicja 1.13. Niech (Ω, Σ, µ) będzie przestrzenią z miarą i niech f, fn :
Ω → R będą funkcjami mierzalnymi. Mówimy, że ciąg {fn } jest zbieżny
µ
według miary µ do f (fn → f ) na zbiorze E ∈ Σ jeżeli
17
1. ∀n∈N 0 6 Sn 6 Sn+1 6 f
i−1 i 2(i−1)
to zachodzi warunek 1., bo 2n
6 f (x) < 2n
wtedy i tylko wtedy, gdy 2n+1
6
2i
f (x) < 2n+1
i dlatego ciąg (Sn ) nie może być malejący.
Wykażemy, że zachodzi 2.
Jeśli x ∈ Ω, f (x) < +∞ oraz n ∈ N to x ∈ Eni dla pewnego i, a więc
i−1 i−1 i i−1 1
|f (x) − Sn (x)| = |f (x) − n
| = f (x) − n < n − n = n .
2 2 2 2 2
Stąd lim Sn (x) = f (x)
n→∞
Jeżeli f (x) = +∞ to Sn (x) = n, czyli n→∞
lim Sn (x) = +∞ = f (x)
Definicja 1.14. Jeżeli f : Ω → R jest funkcją, to przez jej część dodatnią, od-
powiednio ujemną, rozumie się funkcje f + , f − postaci f + (x) = max{f (x), 0}
oraz f − (x) = max{−f (x), 0}.
18
• Jeżeli f : X → R+ jest funkcją mierzalną, to przyjmujemy
Z Z
f dµ = sup{ sdµ : s-funkcja prosta mierzalna taka, że 0 6 s 6 f }
Ω Ω
Wtedy
1. f jest całkowalna,
19
1.2 Elementy probabilistyki
Definicja 1.16. σ-algebrą generowaną przez zmienną losową X nazywamy
najmniejszą σ-algebrę względem której X jest mierzalna.
P (X1−1 (E1 ) ∩ ... ∩ Xn−1 (En )) = P (X1−1 (E1 )) · ... · P (Xn−1 (En ))
20
4. Jeżeli X > Y , to E[X] > E[Y ].
5. |E[X]| 6 E[|X|].
k X
X m
E[aX + bY ] = E[ (axi + byj )χAi ∩Bj ] =
i=1 j=1
k X
X m k
X m
[ m
X k
[
= (axi +byj )P (Ai ∩Bj ) = a xi P (Ai ∩ Bj )+b yj P (Bj ∩ Ai ) =
i=1 j=1 i=1 j=1 j=1 i=1
k
X m
X
=a xi P (Ai ) + b yj P (Bj ) = E[X] + E[Y ].
i=1 j=1
21
5. Ze względu na własność 2. i 3. możemy napisać
Z Z Z Z
− −
X + dP − +
|E[X]| =
X dP 6
X dP + X dP =
Ω Ω Ω Ω
Z Z Z Z
= X + dP + X − dP = (X + + X − )dP = |X|dP = E[|X|].
Ω Ω Ω Ω
k
P m
P
6. Jeżeli X = xi χ A i , Y = yj χBj są niezależnymi funkcjami pro-
i=1 j=1
k P
m
xi yj P (Ai ∩ Bj ). Po-
P
stymi w postaci kanonicznej, to E[XY ] =
i=1 j=1
nieważ zbiory jednopuktowe są borelowskie oraz Ai = X −1 ({xi }), Bj =
Y −1 ({yi }), to niezależność funkcji X i Y oznacza P (Ai ∩Bj ) = P (Aj )P (Bj ),
a stąd
k X
X m
E[XY ] = xi P (Ai )yj P (Bj ) =
i=1 j=1
k
X m
X
=( xi P (Ai ))( yj P (Bj )) = E[X]E[Y ].
i=1 j=1
E[X] = 1 · p + (−1) · (1 − p) = p − 1 + p = 2p − 1.
x
• Niech X będzie zmienną losową ciągłą dla której fX (x) = λ1 e− λ χ(0,∞) ,
gdzie λ > 0. Wtedy
Z∞ ∞ ∞
x −x Z Z
E[X] = e λ dx = zλe dz = λ ze−z dz =
−z
λ
0 0 0
Z∞
= λ[−ze−z |∞
0 + e−z dz] = λ[−ze−z − e−z ]∞
0 = λ.
0
22
Definicja 1.20. Wariancją zmiennej losowej X nazywamy liczbę
Zatem na każdym En R
XdP
En
E[X|A] =
P (En )
Stąd otrzymujemy tezę.
23
Definicja 1.22. Mówimy, że ciąg zmiennych losowych (Xn ), określony na
przestrzeni (Ω, F, P ) jest zbieżny według p-tej średniej (0 < p < ∞) do
zmiennej losowej X , gdy
24
Dowód. Dowód został oparty na [1] oraz [9].
25
R
7. Z definicji wartości oczekiwanej mamy E[E[X|A]] = E[X|A]dP =
R Ω
XdP = E[X].
Ω
26
Stąd E[(χA )Y |G] = χA E[Y |G] prawie wszędzie.
n
ai χBi oraz Bi ∈ G (i = 1, ..., n) otrzymujemy
P
Dalej, dla X =
i=1
Z Z n
X Z
E[(XY )|G]dP = XY dP = ai Y dP =
B B i=1 B∩Bi
n
X Z n
X Z
= ai E[Y |G]dP = ai χBi E(Y |G)dP =
i=1 B∩Bi i=1 B
n
Z X Z
= ai χBi E[Y |G]dP = XE[Y |G]dP
B i=1 B
27
Rozdział 2
28
Zbiór T interpretujemy jako czas.
S0 = 0,
Sn = X1 + ... + Xn dla n ∈ N.
29
Warto zauważyć, iż gdy {Xt , Ft , t ∈ T } jest podmartyngałem to {−Xt , Ft , t ∈
T } jest nadmartyngałem.
Jeśli T = N ∪ {0} to na to, aby proces {Xt , Ft , t ∈ T } był martynga-
łem potrzeba i wystarcza, aby E[Xn+1 |Fn ] = Xn dla wszytkich n. Istot-
nie, dla każdego k > 1 mamy E[Xn+k |Fn ] = E[E[Xn+k |Fn ]|Fn+k−1 ] =
E[E[Xn+k |Fn+k−1 ]|Fn ] = E[Xn+k−1 |Fn ]. Postępując indukcyjnie mamy
E[Xn+k |Fn ] = E[Xn+1 |Fn ] = Xn .
Dowód.
W konsekwencji, gdy A ∈ Fn to
Z Z
E[Xn+1 |Fn ]dP = Xn+1 dP = P (A)E[Xn ] = 0,
A A
30
Dowód. W poniższym dowodzie wykorzystałem elementy rozumowania za-
wartego w [2].
n
Xi . Zauważmy najpierw, iż σ 2 = V ar[Xi ] = E[Xi2 ]−E 2 [Xi ] =
P
Niech Sn =
i=1
E[Xi2 ] dla i ∈ N. Sprawdzimy warunek skończonej wartości oczekiwanej. Ko-
rzystając z niezależności zmiennych losowych Xi otrzymujemy
n n n−1 n
E[Sn2 ] = E[( Xk )2 ] = E[ Xk2 + 2
P P P P
Xj Xk ] =
k=1 k=1 j=1 k=j+1
n n−1 n
E[Xk2 ] + 2 E[Xj ]E[Xk ] = nσ 2 .
P P P
=
k=1 j=1 k=j+1
Zatem E[|Mn |] = E[|Sn2 − nσ 2 |] 6 E[Sn2 ] + nσ 2 = 2nσ 2 < ∞.
Zachodzi następująca równość:
2
E[Mn+1 |Fn ] = E[Sn+1 − (n + 1)σ 2 |Fn ] = E[(Sn + Xn+1 )2 − (n + 1)σ 2 |Fn ] =
2
= E[Sn2 + 2Sn Xn+1 + Xn+1 − (n + 1)σ 2 |Fn ] = E[Sn2 |Fn ] + 2E[Sn Xn+1 |Fn ] +
2
E[Xn+1 |Fn ] − E[(n + 1)σ 2 |Fn ].
Dla dowolnego zbioru A ∈ Fn mamy
Z Z Z
2 2 2
E[Xn+1 |Fn ] = Xn+1 dP = P (A) Xn+1 dP =
A A Ω
Z Z
= P (A)σ 2 = σ 2 dP = σ 2 χΩ dP,
A A
2 2
a zatem E[Xn+1 |Fn ] = σ χΩ prawie wszędzie.
Ponieważ, ze względu na niezależność Xn+1 od Fn mamy dla dowolnego A ∈
Fn , równość E[Xn+1 |Fn ]dP =
R R
Xn+1 dP = P (A)E[Xn+1 ] = 0, a zatem
A A
E[Xn+1 |Fn ] = 0 prawie wszędzie. Otrzymujemy więc
E[Sn2 |Fn ] + 2E[Sn Xn+1 |Fn ] + E[Xn+1
2
|Fn ] − E[(n + 1)σ 2 |Fn ] =
= Sn2 + 2Sn E[Xn+1 |Fn ] + σ 2 χΩ − (n + 1)σ 2 χΩ = Sn2 − nσ 2 χΩ = Mn .
{τ 6 t} ∈ Ft dla wszytkich t ∈ T .
31
Twierdzenie 2.1. Niech T będzie przeliczalnym podzbiorem zbioru R+ ∪
{0}. Zmienna losowa τ : Ω → T ∪ {+∞} jest momentem stopu względem
filtracji (Ft )t∈T wtedy i tylko wtedy, gdy {τ = t} ∈ Ft dla każdego t ∈ T .
∞
1 1
[ \
{τ < t} = τ 6t− ∈ Ft oraz {τ 6 t} = τ <t+ ∈ Ft .
k=1 k n n
• τ1 ∧ τ2 = min(τ1 , τ2 )
• τ1 ∨ τ2 = max(τ1 , τ2 )
• τ1 + τ2
są momentami stopu.
32
c. Niech τ będzie momentem stopu, oraz niech T = [0, ∞]. Wtedy istnieje
ciąg momentów stopu (τn )∞
n=1 przyjmujących skończoną liczbę wartości,
takich że τn ↓ τ .
b. {sup τn 6 t} = {τn 6 t} ∈ Ft
T
n Sn
{inf τn < t} = {τn < t} ∈ Ft
n n
33
2.3 Zbieżność martyngałów
Definicja 2.4. Niech τ będzie momentem stopu dla filtracji (Ft )t∈T i niech
F oznacza tu σ-algebrę zawierającą wszystkie σ-algebry Ft . Wtedy przez Fτ
oznaczamy klasę takich zbiorów B ∈ F, iż dla każdego t należącego do T
zachodzi B ∩ {τ 6 t} ∈ Ft . Rodzina Fτ jest σ-algebrą.
34
Zauważmy, że dla τ2 6 m zmienne losowe Xτ2 ∧(m+1) i Xτ2 ∧(m) są równe.
W przeciwnym przypadku Xτ2 ∧(m+1) = Xm+1 oraz Xτ2 ∧(m) = Xm . Zatem
z definicji nadmartyngału otrzymujemy nierówność. Udowodniliśmy (2.1).
Natomiast jeżeli (Xn ) jest martyngałem to ciągi (Xn ) oraz (−Xn ) tworzą
nadmartyngały i zachodzi równość w (2.1).
Niech [α, β] będzie przedziałem, gdzie α < β. Niech ponadto (xn ) będzie
ciągiem liczbowym. Tzw. „przejście w górę” ciągu możemy opisać następują-
co. Przesuwamy się zgodnie z indeksami ciągu. Przejście w górę zaczyna się w
momencie kiedy wyraz ciągu będzie mniejszy od α, a kończy gdy przekroczy
β. Postępując analogicznie można wyliczyć następne przejścia w górę.
Na rysunku 2.1 został zaznaczony przykładowy przedział [α, β] oraz ciąg
(xn ). Liniami oznaczono przejścia między elementami ciągu. Przejścia w górę
zostały pogrubione. Oznaczmy:
ξ0 = inf{n : xn < α}
ξ1 = inf{n : n > ξ0 , xn > β}
...
35
ξ2k = inf{n : n > ξ2k−1 , xn < α}
ξ2k+1 = inf{n : n > ξ2k , xn > β}
36
Oznaczmy przez Uαβ [m](ω) liczbę przejść w górę ciągu (X1 (ω), ..., Xm (ω)).
Zatem Uαβ [m] jest zmienną losową Fn -mierzalną dla F0 = {∅, Ω} oraz Fk =
σ(X1 , ..., Xk ).
3. (k + 1)- sze przejście w górę jeszcze się nie zaczęło przed momentem m.
Mamy Xξ2k+1
0 − Xξ2k
0 = Xm − Xm = 0, bo ξ2k > m oraz ξ2k+1 > m.
37
Twierdzenie 2.8. (O monotoniczej zbieżności) Niech fn będzie niemale-
jącym ciągiem funkcji nieujemnych, mierzalnych oraz całkowalnych. Jeśli
fn → f dla n → ∞ to
R R
fn dµ zbiega niemalejąco do f dµ.
Ω Ω
Niech (Xn , Fn ) będzie nadmartyngałem takim, że sup E[|Xn |] < +∞. Niech
n
α, β ∈ R, (α < β). Oznaczmy przez Uαβ [∞] granicę niemalejącego ciągu
Uαβ [m]. Wtedy
(β − α)E[Uαβ [m]] 6 E[|Xm − α|] 6 |α| + E[|Xm |] 6 |α| + sup E[|Xn |].
n
38
funkcji X∞ = limn→∞ Xn prawie na pewno. Korzystając z lematu Fatou
otrzymamy
E[|X∞ |] = E[lim inf |Xn |] 6 lim inf E[|Xn |] 6 sup E[|Xn |] < ∞,
Dowód tego twierdzenia można znaleźć w [1]. Wiele elementów tego dowodu
jest wspólnych z twierdzeniem Dooba o zbieżności.
39
a więc
E[|Xn |] = E[Xn ] + 2E[Xn− ] 6 E[X0 ] + 2 sup E[Xn− ]
n
Dowody poniższych dwóch twiedzeń można znależć w [1] (strony 471 i 468).
z prawdopodobieństwem 1.
E[|Xn |] + α
E[Uαβ [n]] 6 .
β−α
Wniosek
Zauważmy, że funkcja wypukła f ma poniższe własności
40
f (z)−f (x)
1. z−x
6 f (y)−f
y−x
(x)
6 f (y)−f
y−z
(z)
o ile x < z < y. Istotnie, zauważmy, że
z−x y−z
y−x
+ y−x = 1. Z definicji wypukłości otrzymamy
!
(z − x)y (y − z)x z−x y−z
f (z) = f + 6 f (y) + f (x) .
y−x y−x y−x y−x
f (x + s) − f (x) f (x + t) − f (x)
6 f−0 (x) 6 f+0 (x) 6
s t
gdzie s < 0 < t.
41
Dowód. Z powyższej uzasadnionionej własności 3. wynika dla dowolnej liczby
x ∈ R, że
f (x) > f (E[X]) + f+0 (E[X])(x − E[X]).
42
1. Z definicji martyngału zachodzi równość E[Xn+1 |Fn ] = Xn . Po zło-
żeniu z funkcją f otrzymujemy f (E[Xn+1 |Fn ]) = f (Xn ). Funkcja f
jest wypukła, zatem po zastosowaniu twiedzenia 2.15, otrzymujemy
f (Xn ) = f (E[Xn+1 |Fn ] 6 E[f (Xn+1 )|F].
Dowód. Niech A = {ω : max |Si | > ε} oraz A1 = {ω : |S1 (ω)| > ε},
16i6n
j−1
{ω : |Si (ω)| < ε} ∩ {ω : |Sj (ω)| > ε} dla j = 2, 3, ..., n. Oczywiście
T
Aj =
i=1
n
S
zbiory Ai , i = 1, ..., n są parami rozłączne, a także A = Aj .
i=1
j=1
n
E[((Sn − Sj )2 + Sj2 + 2(Sn − Sj )Sj )χAj ] >
X
=
j=1
43
n n−1
E[Sj2 χAj ] + 2
X X
> E[(Sn − Sj )Sj χAj ]
j=1 j=1
j=1 j=1
a więc wykazaliśmy a.
n n n
2
E[Sj2 χAj ]
X X X
= E[(Sn − Sj ) χAj ] + +2 E[(Sn − Sj )Sj χAj ] 6
j=1 j=1 j=1
n n
2 2
X X
6 E[(Sn − Sj ) χAj ] + (C + ε) P (Aj )
j=1 j=1
ponieważ dla ω ∈ Aj mamy |Sj (ω)| 6 |Sj−1 (ω)| + |Xj (ω)| < ε + C
prawie wszędzie.
Niezależność zmiennych losowych X1 , ..., Xn implikuje, że dla dowolne-
go k ∈ {1, ..., n} zachodzi
n n
Xj )2 ] = E[ Xj2 +
X X X
E[( Xi Xj ] =
j=k j=k i,j∈{k,...,n},i6=j
n n
Xj2 ] + E[Xj2 ]
X X X
= E[ E[Xi ]E[Xj ] =
j=k i,j∈{k,...,n} j=k
i6=j
44
Wobec powyższego i niezależności zmiennych losowych X1 , ...Xn
n n
E[Sn2 χA ] 6 E[(Sn − Sj )2 χAj ] + (C + ε)2
X X
P (Aj ) =
j=1 j=1
n n
Xk )2 ] + (C + ε)2 P (A) 6 [E[Sn2 ] + (C + ε)2 ]P (A).
X X
= P (Aj )E[(
j=1 k=j+1
Z drugiej strony
E[Sn2 χA ] = E[Sn2 ]−E[Sn2 χΩ\A ] > E[Sn2 ]−ε2 P (Ω\A) = E[Sn2 ]−ε2 +ε2 P (A).
Stąd
E[Sn2 ] − ε2 (ε + C)2 (ε + C)2
P (A) > = 1− > 1− .
E[Sn2 ] − ε2 + (ε + C)2 E[Sn2 ] + 2εC + ε2 E[Sn2 ]
n
X
>r P (Ai ) = rP (A).
i=1
Zatem otrzymujemy tezę, gdyż
Z
rP (max Xi > r) 6 Xn dP 6 E[Xn+ ] 6 E[|Xn |].
i6n
A
45
Uwaga 1. Przyjmijmy założenia takie samie jak w pierwszej części
twierdzenia 2.16. Dla martyngału (Xn , Fn ) i funkcji wypukłej f (t) = t2
proces (f (Xn ), Fn ) jest podmartyngałem, co pociąga, że spełnia nierówność
z twierdzenia 2.18. Niech Ui będą niezależnymi zmiennymi losowymi takimi,
k
że E[Ui ] = 0, V ar[Ui ] < ∞ oraz Xk =
P
Ui , gdzie k = 1, 2, ..., n. Wtedy
i=1
otrzymujemy nierówność Kołmogorowa
k n
1 X
E[Uk2 ].
X
P (max | Ui | > r) 6
k6n
i=1 r2 k=1
46
Definicja 2.8. Mówimy, że ciąg zmiennych losowych (Xn )∞
n=1 jest jednostaj-
nie (jednakowo) całkowalny jeśli:
Z
lim sup
c→∞
|Xn |dµ = 0.
n
{Xn >c}
47
E[X|Fn ]. Z dowolności k wynika, że Y jest również F0 mierzalne. Z jedno-
stajnej całkowalności mamy dla A ∈ F0
Z Z Z
Y dP = lim
n
E(X|Fn )dP = lim
n
E(E(X|Fn )|F0 )dP =
A A A
Z Z
= lim
n
E(X|F0 ) = E(X|F0 )dP.
A A
48
Rozdział 3
Zastosowania martyngałów
49
E[Xn |Fn−1 ] = Xn dla każdego n naturalnego, gdzie (Xn ) jest procesem
prognozowalnym.
oraz
n−1
X
An = [−Xi + E[Xi+1 |Fi ]].
i=0
50
0, 1, 2, ... jest spełniona równość Mn + An = Mn∗ + A∗n . Zatem dla procesu
Un = Mn − Mn∗ otrzymujemy Un = Mn − Mn∗ = A∗n − An . Z powyższych
równości wynika, że Un jest martyngałem i jest prognozowalny, czyli na pod-
stawie przykładu 3.1 jest stały prawie wszędzie.
Dowód. Procesy (Xn ) i (Yn ) są całkowalne więc całkowalny jest również pro-
ces (Zn ).
E[Zn+1 |Fn ] = E[(X0 + Y1 (X1 − X0 ) + ... + Yn+1 (Xn+1 − Xn ))|Fn )] =
= E[X0 |Fn ] + E[Y1 (X1 − X0 )|Fn )] + ... + E[Yn+1 (Xn+1 − Xn )|Fn )] =
= E[X0 |Fn ] + Y1 E[(X1 − X0 )|Fn )] + ... + E[Yn+1 Xn+1 |Fn ] − E[Yn+1 Xn |Fn ] =
= X0 + Y1 (X1 − X0 ) + ... + Yn (Xn − Xn−1 ) + Yn+1 E[Xn+1 |Fn ]−
−Xn E[Yn+1 |Fn ] = Zn + Yn+1 Xn − Xn Yn+1 = Zn .
Zatem zachodzi E[Zn+1 |Fn ] = Zn , więc Zn jest martyngałem.
51
Twierdzenie 3.2. Niech Y będzie zmienną losową o wartościach w Rn i
niech X będzie zmienną losową mierzalną względem σ(Y ). Wtedy istnieje
funkcja borelowska h : RN → R taka, że X = h(Y ).
Yn − Yn−1
An = .
Zn − Zn−1
Taka postać procesu wymusza jego jednoznaczność. Z Twierdzenia 3.2 i faktu,
iż zmienna losowa Yn jest Fn -mierzalna mamy
Niech
fn (ω1 , ..., ωn−1 , 1) − fn−1 (ω1 , ..., ωn−1 )
An = .
2(1 − p)
Stąd widać, że proces (An ) jest prognozowalny. Ciąg (Yn , Fn ) jest martynga-
łem. Zmienne losowe εk są niezależne. Ponadto z Twierdzenia 3.3 wynika
E[Yn |Fn−1 ] = pfn (ω1 , ..., ωn−1 , 1) + (1 − p)fn (ω1 , ...., ωn−1 , −1) =
52
= fn−1 (ω1 , ..., ωn−1 ) = Yn−1
oraz
fn (ω1 , ..., ωn−1 , 1) − fn−1 (ω1 , ..., ωn−1 ) fn (ω1 , ..., ωn−1 , −1) − fn−1 (ω1 , ..., ωn−1 )
= .
2(1 − p) −2p
(3.2)
Zatem
Yn − Yn−1
An = .
Zn − Zn−1
x = A0 S0 + V0 B0 .
x = A1 S0 + V1 B0 .
53
gdzie Xn oznacza wartość portfela w chwili n. Zakładamy, że transakcje nic
nie kosztują. Poprzez sprzedawanie akcji za obligacje lub obligacji za akcje
możemy zmienić swój portfel, w czasie (n − 1, n), w taki sposób, że wartość
portfela tuż przed chwilą n wyniesie
Xn −Xn−1 = An (Sn −Sn−1 )+Vn (Bn −Bn−1 ) = An Rn Sn−1 +rVn Bn−1 +rAn Sn−1 −
−rAn Sn−1 = r(Vn Bn−1 +An Sn−1 )+An Sn−1 (Rn −r) = rXn−1 +An Sn−1 (Rn −r).
Stąd
Xn − (1 + r)Xn−1 = An Sn−1 (Rn − r).
Oznaczmy
Yn = (1 + r)−n Xn . (3.5)
a+b b−a
Rn = + εn . (3.7)
2 2
54
Wtedy
1 1
Rn − r = (b − a)(εn − 2p + 1) = (b − a)(Zn − Zn−1 ), (3.8)
2 2
gdzie
r−a
p= . (3.9)
b−a
Europejską opcją kupna nazywamy kontrakt zawarty tuż po chwili 0 po-
zwalający na kupno danej liczby akcji w momencie N za cenę K. K jest
nazywaną ceną wykonania. Opcję wykonamy jeśli Sn > K, nie wykonamy
w przeciwnym wypadku. Zatem wartość takiego kontraktu w momencie N
wynosi (SN − K)+ . Możemy zadać pytanie ile powinniśmy zapłacić za opcję
w chwili 0, aby cena była sprawiedliwa. Odpowiedzi na to pytanie udzielili
Black i Scholes. Bazuje ona na teorii tzw. transakcji hedgingowych, które
mają za zadanie zmniejszenie ryzyka związanego z wahaniem cen.
Strategia hedgingowa z kapitałem początkowym x dla opisanej opcji jest
schematem zarządzania portfelem {(An , Vn ) : 1 6 n 6 N }, gdzie procesy
(An ) oraz (Vn ) są prognozowalne względem filtracji (Fn ) i gdzie Xn spełnia
równania (3.3) oraz (3.4). Zachodzą ponadto
1. X0 (ω) = x,
2. Xn (ω) > 0 (0 6 n 6 N ),
dla każdego ω.
Zauważmy, że Black i Scholes wymagają iż Xn (ω) > 0. Nie wymagają
natomiast tego, aby procesy (An ) i (Vn ) były dodatnie. Ujemna wartość Vn
dla pewnego n oznacza pożyczenie obligacji na ustalony procent r, a dla
ujemnego An oznacza krótką sprzedaż akcji.
55
gdzie E jest wartością oczekiwaną względem miary P z poprzedniego pod-
rozdziału, a p jest takie jak w równaniu (3.9). To jest jedyna strategia z
kapitałem początkowym x0 gdzie nie ma krótkiej sprzedaży.
X0 = x i XN = (SN − K)+ .
56
Pozostaje udowodnić, że proces (An ) nie jest nigdy ujemny. Nasz portfel jest
samofinansujący, więc zachodzi
" N
! #+
+
Y Xk
E[(SN − K) |Fn−1 ] = E x −K ,
k=n Bk |x=Sn−1
57
Uwaga. Niech Xn = (1 + r)n Yn . Jeśli X0 jest kapitałem początkowym to
2Bn
portfel o składzie An = Fn (b−a)Sn−1
akcji oraz Vn = (Xn − An Sn )Bn−1
obligacji jest jedynym portfelem replikującym wypłatę (SN − K)+ . Co
więcej jest on samofinasujący i prognozowalny.
58
Dowód twierdzenia znajduje się w [1] (strona 425).
59
Zauważmy, że jeśli A ∈ Fn to również A ∈ Fn+1 , więc
Z
Xn+1 dP = ν(A).
A
A zatem dla A ∈ Fn Z Z
Xn dP = Xn+1 dP.
A A
Stąd P (X = 0) = 1.
60
3.4 Twierdzenie Kakutaniego
Przykład 3.3. Rzucamy monetą. W codziennym życiu najprawdopodobniej
nie jest ona symetryczna. Nasze zadanie polega na decyzji, czy szansa otrzy-
mania orła przy rzucie monetą wynosi p czy r, gdy p 6= r oraz p, r ∈ [0, 1].
Niech Xn będzie zmienną losową taką, że
1 gdy w n-tym rzucie wypadł orzeł,
Xn =
0 gdy w n-tym rzucie wypadła reszka.
Zdefiniujmy
ρ(X1 )...ρ(Xn )
Zn = oraz Fn = σ(X1 , ..., Xn ).
π(X1 )...π(Xn )
Niech P będzie miarą probabilistyczną taką, że P (Xn = 1) = p. Wówczas
ciąg (Zn , Fn ) jest martyngałem, gdyż
" #
ρ(Xn ) r 1−r
E = p+ (1 − p) = 1
π(Xn ) p 1−p
oraz " #
ρ(X1 ) ρ(X2 ) ρ(Xn+1 )
E[Zn+1 |Fn ] = E ... |Fn =
π(X1 ) π(X2 ) π(Xn+1 )
" # " #
ρ(X1 ) ρ(X2 ) ρ(Xn ) ρ(Xn+1 ) ρ(X1 ) ρ(Xn ) ρ(Xn+1 )
= ... E |Fn = ... E = Zn ,
π(X1 ) π(X2 ) π(Xn ) π(Xn+1 ) π(X1 ) π(Xn ) π(Xn+1 )
gdzie przedostatnia równość wynika z twierdzenia 3.3.
Zauważmy, że Zn > 0. Z twierdzenia 2.11 wynika, że ciąg (Zn ) jest zbieżny
P-prawie wszędzie. Ponadto granica jest równa zero, gdyż równość
ρ(Xn+1 )
Zn+1 = Zn
π(Xn+1 )
implikuje
ρ(Xn+1 )
lim sup Zn+1 6 lim sup Zn lim sup .
n→∞ n→∞ n→∞ π(Xn+1 )
61
Ale ciąg (Zn ) jest zbieżny P-prawie wszędzie, a zatem
ρ(Xn+1 )
lim sup Zn+1 = lim sup Zn lim sup .
n→∞ n→∞ n→∞ π(Xn+1 )
ρ(Xn+1 )
Z założenia, że r 6= p wynika, iż lim sup π(Xn+1 )
6= 1. Więc lim sup Zn = 0
n n
P −prawie na pewno.
Jeśli P (Xn = 1) = r to proces (Zn−1 , Fn ) jest martyngałem zbieżnym do zera
Q−prawie na pewno, czyli ciąg (Zn ) dąży do nieskończoności.
Zwiększając ilość rzutów można zaobserwować, czy martyngał dąży do
nieskończoności, czy do zera. Na tej podstawie można podjąć decyzję, czy
prawdopodobieństo wyrzucenia orła wynosi r, czy p. Niestety nigdy nie mo-
żemy mieć całkowitej pewności, czy nasza decyzja jest dobra.
Wtedy
62
to (fn ) jest zbieżny prawie na pewno do zmiennej losowej całkowalnej
f∞ , która jest gęstością Q względem P na F∞ ; jeśli natomiast
∞
√
Y Z
gn dPn = 0,
n=1 Ω
0
lim fn = ∞ Q-prawie na
lim fn = 0 P -prawie na pewno oraz n→∞
to n→∞
pewno.
63
Z Z Z
> min(a, bg)dP = adP + bgdP =
Ω {a6bg} {a>bq}
a a
= aP g > + bQ g < .
b b
R
Zatem ryzyko minimalne wynosi rmin = min(a, bg)dP i jest osiągane dla
Ω
zbioru A = {g > ab }. Jeżeli wykonamy doświadczenie n razy to ryzyko mini-
malne wyniesie Z
rn = min(a, bfn )dP ⊗n ,
Ω
gdzie fn jest gęstością rozkładu z Twierdzenia 3.9 dla rozkładu Q ⊗ Q ⊗ ... ⊗
Q = Q⊗n względem P ⊗ P ⊗ ... ⊗ P = P ⊗n . (fn , Fn ) jest martyngałem na
(Ω, F∞ , P∞ ) co implikuje, że ciąg (min(a, bfn ), Fn ) jest nadmartyngałem.
Istotnie, niech (fn , Fn ) będzie martyngałem. Ustalmy liczby a, b > 0. Przyj-
mijmy oznaczenie Bn = {ω : bfn (ω) 6 a}. Dla dowolnego A ∈ Fn jest
A ∩ Bn ∈ Fn oraz A \ Bn ∈ Fn , a zatem
Z Z Z
min(a, bfn ) = adP + b fn dP =
A A\Bn A∩Bn
Z Z
= E[a|Fn ]dP + E[bfn+1 |Fn ]dP >
A\Bn A∩Bn
Z Z
> E[min(a, fn+1 )|Fn ]dP + E[min(a, bfn+1 )|Fn ]dP =
A\Bn A∩Bn
Z
= E[min(a, bfn+1 )|Fn )]dP.
A
Z dowolności A ∈ Fn otrzymujemy min(a, bfn ) > E[(min(a, bfn+1 ))|Fn ] pra-
wie wszędzie.
Zatem dla n = 1, 2, 3, ... mamy rn > rn+1 . Ponadto n→∞
lim rn = 0, gdyż
lim fn = 0 P∞ -prawie na pewno.
n→∞
64
leżnymi zmiennymi losowymi ξ1 , ..., ξn , .... Jeśli gracz wygra rundę to zmienna
losowa ξn z prawdopodobieństwem p przyjmuje wartość 1, jeśli przegra to z
prawdopodobieństwem 1 − p = q przyjmuje wartość −1, gdzie p, q > 0. Niech
Sn = ξ1 + ... + ξn . Moment ruiny dla pierwszego gracza możemy zdefiniować
jako
τ1 = inf{n : Sn = −a}.
Jest to moment stopu, dla którego P (τ1 < ∞) < 1. Moment ruiny dla pierw-
szego lub drugiego gracza definiujemy jako
dla każdego k ∈ N i dla każdego ε > 0. P (τR > k) → 0 ponieważ P (τR <
∞) = 1. Na podstawie powyższych rozważań wnioskujemy, że E[SτR ] = 0,
wobec czego
−ap1 + bp2 = 0
p1 + p2 = 1,
b
skąd p1 = z
oraz p2 = az .
W przypadku, gdy p i q nie są równe martyngałem jest ciąg
!Sn ∞
q
, σ(ξ1 , ..., ξn ) .
p
n=1
65
Powtarzając rozumowanie z przypadku symetrycznego mamy
(− pq )−a p1 + ( pq )b p2 = 1
p1 + p2 = 1,
skąd
( pq )a − ( pq )z
p1 = .
1 − ( pq )z
Nieskońkończony kapitał.
Niech pierwszy gracz ma kapitał a i niech drugi ma nieskończony kapitał.
Aby obliczyć prawdopodobieństwo ruiny pierwszego gracza wykorzystamy
poprzednie wyniki i dokonamy przejścia granicznego (z → ∞).
Oznaczmy przez Aa zdarzenie polegające na ruinie gracza z kapitałem a, a
przez Aa,z zdarzenie polegające na tym, że zanim gracz został zrujnowany,
jego wygrana była zawsze mniejsza od z. Zauważmy, że P (Aa,z ) oznacza
prawdopodobieństwo ruiny gracza z kapitałem a w grze o łącznym kapitale
∞
a+z. Co więcej zachodzą następujące zależności Aa,z ⊂ Aa,z+1 , Aa =
S
Aa,z .
z=1
Zatem możemy napisać
∞
[ 1 dla q > p,
P (Aa ) = P ( Aa,z ) = z→∞
lim P (Aa,z ) =
z=1
( qr )a dla q < p.
66
Bibliografia
67
[10] M. Mastyło, Wykłady: Teoria miary i całki, UAM, rok akademicki
2004/2005.
68