You are on page 1of 68

Uniwersytet im.

Adama Mickiewicza
w Poznaniu

Michał Bereta

Praca magisterska

Martyngały i przykłady ich


zastosowań

Promotor
prof. UAM dr hab. Witold Wnuk

Wydział Matematyki i Informatyki

Poznań 2008
Spis treści

Podziękowania 3

Wstęp 4

1 Wiadomości wstępne 8
1.1 Teoria miary . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Elementy probabilistyki . . . . . . . . . . . . . . . . . . . . . 20

2 Martyngały i ich własności 28


2.1 Podstawowe pojęcia i przykłady . . . . . . . . . . . . . . . . . 28
2.2 Momenty zatrzymania . . . . . . . . . . . . . . . . . . . . . . 31
2.3 Zbieżność martyngałów . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Nierówności martyngałowe . . . . . . . . . . . . . . . . . . . . 40
2.5 Martyngały z czasem odwróconym . . . . . . . . . . . . . . . 46

3 Zastosowania martyngałów 49
3.1 Twierdzenie o reprezentacji martyngału . . . . . . . . . . . . . 49
3.2 Wycena opcji . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.3 Granica pochodnych Radona-Nikodyma . . . . . . . . . . . . . 58
3.4 Twierdzenie Kakutaniego . . . . . . . . . . . . . . . . . . . . . 61
3.5 Zagadnienie dyskryminacji . . . . . . . . . . . . . . . . . . . . 63
3.6 Zadanie o ruinie gracza . . . . . . . . . . . . . . . . . . . . . . 64

Bibliografia 67

2
Podziękowania

Na wstępie chciałbym podziękować moim rodzicom, za to że stworzyli wa-


runki, abym mógł bezproblemowo studiować. Ponadto wspierali mnie przez
cały okres studiów oraz mobilizowali do pisania niniejszej pracy.
Chciałbym również podziękować mojemu promotorowi, prof. dr. hab. Witol-
dowi Wnukowi za pomoc wpisaniu pracy, odpowiedzi na moje pytania oraz
cenne uwagi dotyczące tej pracy magisterskiej.
Ponadto dziękuję Wydziałowi Matematyki i Informatyki Uniwersytetu im.
Adama Mickiewicza oraz jego pracownikom (nie tylko naukowym) za prze-
kazywanie wiedzy oraz pomoc w rozwiązywaniu róznorodnych problemów.

3
Wstęp

Pierwszym celem, który przyświecał mi podczas pisania tej pracy, było


przygotowanie takiej rozprawy, która przy niewielkiej objętośći zawierałaby
możliwie dużo informacji na temat martyngałów. Chciałem, aby mogli z niej
korzystać studenci matematyki, którzy chcieliby rozszerzyć swoją wiedzę o
tym zagadnieniu. Zaplanowałem ją tak, aby wybrane fragmenty można wy-
korzystać jako uzupełnienie wykładów. Pierwszy rozdział mojej pracy jest
oparty na notatkach z wykładów teorii miary oraz rachunku prawdopodo-
bieństwa. Kolejna zasadnicza część opracowania zawiera materiał o wyższym
poziomie abstrakcji. Większość zawartych w niej informacji wykracza po-
za wiedzę zdobytą na wykładach podczas moich studiów. Trzeci rozdział to
omówienie zastosowań martyngałów, w tym twierdzenia o reprezentacji mar-
tyngałowej. Oczywiście moja skromna praca nie wyczerpuje tematu jakim
są martyngały. Można ją traktować jedynie jako wstęp do poważniejszych
studiów.
Starałem się przytoczyć jak najwięcej przykładów ilustrujących wprowa-
dzane pojęcia. Pozwalają one lepiej zrozumieć ich ideę. Znalazły się wśród
nich zarówno przykłady klasyczne, które są spotykane w różnych publika-
cjach, jak i takie, które sam ułożyłem. Ponadto chciałem rozważyć możliwie
najwięcej własności wprowadzonych terminów, aby możliwie głęboko anali-
zować ich istotę i poszerzyć zakres ewentualnych zastosowań. Starałem się
również prowadzić rozważania z użyciem możliwie prostych, standardowych
środków oraz zachować precyzję dowodów. Łatwo zauważyć, iż większa część
materiału została podana w typowej dla książek matematycznych struktu-

4
rze. Wyróżniłem definicje, przykłady, wnioski, twierdzenia wraz z dowodami
oraz uwagi. Pozostałą część tekstu stanowią komentarze lub opisy pewnych
postępowań. Na początku każdego rozdziału omawiam wprowadzane pojęcia
i twierdzenia. Zastosowałem ciągłą numerację twierdzeń, definicji i przykła-
dów w obrębie każdego rozdziału tzn. pierwsza liczba w numerze twierdze-
nia oznacza numer rozdziału, druga (po kropce) wskazuje, kolejność danego
twierdzenia w rozdziale. Natomiast wnioski i uwagi nie są numerowane, po-
nieważ jest ich niewiele oraz, z reguły, nie są wykorzystywane w dalszych
rozważaniach. Oddzielnie numeruję również wzory i równości, do których na-
stępuje odwołanie w dalszej części pracy. Symbol  oznacza koniec dowodu.
Praca jest tak skonstruowana, aby maksymalnie obniżyć próg wymagań
wobec Czytelnika. Przystępując do jej lektury nie jest wymagana wiedza z
teorii miary, a co za tym idzie rachunku prawdopodobieństwa.
Pierwszy rozdział jest poświęcony teorii miary. Zostały w nim oddzielone
ogólne rozważania tej teorii od elementów rachunku prawdopodobieństwa.
Najpierw zostały wprowadzone definicje σ-algebry oraz miary i ich własności
wraz z przykładami. Dalej przypominam całkę Lebesgue’a, zmienne losowe
oraz pojęcia wartości oczekiwanej i warunkowej wartości oczekiwanej. W za-
sadzie większość informacji z tego rozdziału pochodzi z wysłuchanych przez
mnie wykładów z teorii miary lub rachunku prawdopodobieństwa.
W drugim rozdziale przechodzę do zasadnieczego tematu mojej pracy.
Zostaje wprowadzona wraz z przykładami definicja martyngału. Dalej jest
omówina teoria momentów stopu. Ponadto przytoczyłem wiele twierdzeń o
zbieżności martyngałów oraz pewne nierówności martyngałowe. Można do
nich zaliczyć twierdzenia Dooba, zasadnicze twierdzenie o zbieżności martyn-
gałów oraz uogólnienie nierówności Kołmogorowa- nierówność maksymalną
dla podmartyngałów. W ostatnim podrozdziale znalazły się informacje na
temat martyngałów z czasem odwróconym oraz kilka ich własności.
W rozdziale trzecim znalazły się wiadomości o zastosowaniach twierdze-
nia o reprezentacji martyngałowej. Jest ono wykorzystywane do wyceny in-
strumentów pochodnych. Co więcej wyróżniona została wycena europejskiej

5
opcji kupna. Ponadto wskazałem, wykorzystując [1], przykład zastosowania
martyngałów przy określaniu granicy pochodnych Radona-Nikodyma. Omó-
wiłem, wykorzystując [7], sposób wykorzystania martyngałów do rozróznienia
zadanych z góry rozkładów danego zdarzenia losowego. Oddzieliłem przypa-
dek, gdy ryzyko podjęcia złej decyzji wiąże się z kosztami. Ostatnim zagad-
nieniem poruszonym w tym rozdziale jest sposób obliczania prawdopodobień-
stwa ruiny w grze dwóch graczy.
Zdaję sobie sprawę, iż mimo wielu korekt, w mojej pracy mogą znaleźć się
niedoskonałości czy błędy. Będą wdzięczny za wszelkie uwagi na ten temat.
Można je przysyłać na adres d138599@atos.wmid.amu.edu.pl
Notatki z wykładów [13] wykorzystane zostały w definiowaniu procesów
stochastycznych oraz opisie własnośći funkcji wypukłych. Również twierdze-
nie o momencie zatrzymania pochodzi z tego wykładu. Bardzo pomocna była
obszerna monografia [1]. Wiele zagadnień zostało tam przystępnie opisanych.
Z niej pochodzą twiedzenia: zasadnicze twierdzenie o zbieżności martynga-
łów oraz teoria martyngałów z czasem odwróconym. Ponadto, jak już wspo-
mniałem, pochodzi z niej przykład zastosowania martyngałów w obliczaniu
granicy pochodnych Radona-Nikodyma. Co więcej twierdzenie 2.16 (o złoże-
niu martyngałów z funkcją wypukłą) też zostało tam opisane. Wykorzysty-
wane jest w uwadze dotyczącej nierówności maksymalnej dla martyngałów.
Często korzystałem z [7]. Zaczerpnąłem z niej elementy teori momentów za-
trzymania, większą część podrozdziału o zbieżności martyngałów (twierdze-
nie Dooba, twierdzenie o ciągu liczbowym i liczbie przejść w górę, wartości
oczekiwanej przejść w górę nadmartyngałów, nierówność Kołmogorowa oraz
nierówność maksymalną dla nadmaryngałów). Większość zastosowań mar-
tyngałów została zaczerpnięta z tego dzieła.
Z pozycji [2] pochodzi twierdzenie o dekompozycji Dooba. Notatki [4] by-
ły pomocne do zrozumienia roli martyngałów w wycenie instrumentów po-
chodnych. Natomiast opracowanie [6] zawierało twierdzenie o własnościach
ciągów stopu. Bardzo pomocna była pozycja [16], z której pochodzi twierdze-
nie Dooba o zbieżności oraz wniosek do twiedzenia o ograniczoności przejść w

6
górę nadmartyngału. Wykorzystałem też postępowanie użyte przez D. Wil-
liams’a do wykazania istnienia strategii hedgingu dla wyceny europejskiej
opcji kupna.

7
Rozdział 1

Wiadomości wstępne

Kluczowe dla naszych rozważań są pojęcia wartości oczekiwanej i warun-


kowej wartości oczekiwanej. Przypomnimy je w tej części pracy i dodatkowo
przytoczymy szereg innych pojęć i faktów z zakresu teorii miary i probabi-
listyki, które będziemy wykorzystywać, pośrednio lub bezpośrednio, w dal-
szych rozważaniach. Przedstawimy m. in. definicję σ−algebry, miary, całki,
a także ich własności, kilka klasycznych twierdzeń (Jegorowa, Riesza, Lebe-
sque’a o zmajoryzowanej zbieżności) oraz przykłady ilustrujące wprowadzane
pojęcia. Warte uwagi są umieszczone tutaj informacje dotyczące funkcji mie-
rzalnych. Możemy do nich zaliczyć różne rodzaje zbieżności ciągów funkcji
mierzalnych oraz twierdzenie o aproksymacji zmiennymi losowymi prostymi.

1.1 Teoria miary


Definicja 1.1. Rodzinę Σ podzbiorów zbioru Ω nazywamy σ-algebrą (lub
σ-ciałem), gdy

1. X ∈ Σ,

2. Jeżeli A ∈ Σ, to dopełnienie A0 = (X \ A) zbioru A także należy do Σ,


S
3. Jeśli ciąg zbiorów (An )n∈N jest zawarty w Σ, to An jest elementem
n∈N
Σ.

8
Elementy σ−algebry nazywamy zbiorami mierzalnymi (dokładniej Σ−mierzal-
nymi).

Definicja 1.2. Niech C będzie rodziną podzbiorów zbioru Ω. Najmniejszą w


sensie inkluzji σ-algebrę σ(C) zawierającą wszystkie zbiory z C określamy ja-
ko σ−algebrę generowaną przez C- jest ona przekrojem wszystkich σ−algebr
zawierających C.

Przykład 1.1. Przykłady σ-algebr:

• Σ = {∅, Ω} jest najmniejszą σ-algebrą podzbiorów zbioru Ω.

• Jeżeli A ⊂ Ω, to σ(A) = {∅, A, A0 , Ω}.

• Największą σ-algebrą (w sensie inkluzji) jest Σ = 2Ω = P(Ω) tzn. zbiór


potęgowy zbioru Ω.

• Niech Ω będzie zbiorem nieskończonym, wtedy Σ = {A ⊂ Ω : A lub (Ω\


A) jest najwyżej przeliczalny } jest σ-algebrą.

Dowód. Niech An ∈ Σ dla n ∈ N. Jeśli wszystkie zbiory An są prze-



S
liczalne, to ich suma An jest także przeliczalna, a więc należy do
n=1

Σ. Jeżeli Ω \ Am jest przeliczalny dla pewnego m, to Ω \
S
An jest
n=1

najwyżej przeliczalny jako podzbiór zbioru Ω \ Am . Zatem An ∈ Σ
S
n=1
również w tym przypadku. Jeżeli A ∈ Σ, to również Ω \ A ∈ Σ, gdyż w
przypadku nieprzeliczalności zbioru A dopełnienie Ω \ A jest przeliczal-
ne, a jeśli Ω \ A jest przeliczalny, to z definicji rodziny Σ jest Ω \ A ∈ Σ.
Zatem Σ jest rodziną zamkniętą na dopełnienie.

Uwaga. Do bardzo ważnych σ-algebr zalicza się σ-algebrę B(Ω) zbiorów


borelowskich przestrzeni topologicznej Ω = (Ω, τ ). Tę σ-algebrę definiuje
równość B(Ω) = σ(τ ). Nie jest rzeczą łatwą wskazanie zbioru A ∈
/ B(R)
(chociaż takich zbiorów jest wiele, gdyż dobrze wiadomo, że card B(R) = c
podczas gdy card P(R) = 2c > c).

9
Definicja 1.3. Miarą nazywamy funkcję µ: Σ → [0, +∞] taką, że

• µ(∅) = 0

• µ( µ(An ), gdy Ai ∩ Aj = ∅ dla i 6= j (tj. µ jest przeli-


S P
An ) =
n∈N n∈N
czalnie addytywna)

Ponadto miarę µ na σ-algebrze podzbiorów zbioru Ω nazywamy:

• skończoną, gdy µ(Ω) < ∞,

• σ-skończoną, gdy istnieje ciąg podzbiorów w Σ taki, że miara każdego


zbioru jest skończona oraz ich suma mnogościowa jest równa przestrzeni
Ω,

• probabilistyczną (unormowaną), gdy µ(Ω) = 1.


k
S k
P
Uwaga. Każda miara µ jest skończenie addytywna, tj. µ( Ai ) = µ(Ai )
i=1 i=1
o ile Ai ∩ Aj = ∅ dla i 6= j. Istotnie, wystarczy przyjąć Ai = ∅ dla i > k.

Przykład 1.2. Przykłady miar.

1. Niech Ω będzie dowolnym zbiorem, a µ: P(Ω) → [0, +∞] funkcją taką,


że 
 +∞ gdy card A> ℵ0
µ(A) =
 card(A) gdy card A< ℵ0 .
Funkcja µ jest miarą nazywaną miarą liczącą.

2. Dla ustalonego elementu x0 ∈ Ω określamy µ: P(Ω) → {0, 1} przyjmu-


jąc

 0 gdy x0 ∈
/A
µ(A) =
 1 gdy x0 ∈ A.

Wówczas µ jest miarą. Nazywamy ją miarą Diraca.

10
3. Niech Σ będzie σ-algebrą podzbiorów zbioru Ω. Funkcje ν, µ postaci

 0 gdy A = ∅
µ(A) =
 +∞ gdy A 6= ∅

ν(A) = 0, dla każdego zbioru A ∈ Σ

są miarami. Nazywamy je miarami trywialnymi.

4. Niech (an ) będzie ciągiem liczb nieujemnych. Równość µ(∅) = 0 i


an dla A 6= ∅ definiuje miarę na P(N).
P P
µ(A) = an = sup
n∈A k∈N n∈{1,...,k}∩A

Dowód. Musimy pokazać przeliczalną addytywność miary µ. Niech (Ai )


S
będzie ciągiem zbiorów rozłącznych i niech A = Ai , a ponadto niech
i∈N
an . Wówczas wi,k 6 wi,k+1 oraz wi,k % µ(Ai ). Dla
P
wi,k =
n∈{1,...,k}∩Ai
dowolnych j, k ∈ N mamy, wobec rozłączności zbiorów Ai , µ(A) >
P j
P j
P
an = wi,k . Zatem dla każdego j będzie µ(A) > µ(Ai ),
j
S i=1 i=1
n∈{1,...,k}∩ Ai
i=1

µ(Ai ). Ustalmy k ∈ N. Wtedy istnieje
P
a w konsekwencji µ(A) >
i=1
j(k) ∈ N o własności
j(k)
X X X
an = an = wi,k 6
n∈{1,...,k}∩A j(k)
S i=1
n∈{1,...,k}∩ Ai
i=1

j(k) ∞
X X
6 µ(Ai ) 6 µ(Ai ).
i=1 i=1

P
Ponieważ k możemy wybrać dowolne, to µ(A) 6 µ(Ai ). Ostatecznie
i=1

P
µ(A) = (Ai ).
i=1

5. Do ważniejszych miar należy miara Lebesgue’a.

11
Dla dowolnego A ⊂ Rn jego n-wymiarową miarą zewnętrzną Lebesgue’a
m∗n definiuje się wzorem
m∗n (A) =
∞ ∞
Pi ⊃ A, Pi − przedziały ograniczone i domknięte w Rn },
X [
= inf{ |Pi |:
i=1 i=1

przy czym przez |P | rozumiemy objętość przedziału n- wymiarowego,


n
tj. |P | = |Ii |, gdzie Ii są przedziałami jednowymiarowymi, takimi,
Q
i=1
że P = I1 × I2 × ... × In , a |Ii | oznacza długość przedziału Ii .
Zbiory E ⊂ Rn spełniające tzw. warunek Carathéodory’ego

∀A⊂Rn m∗n (A) = m∗n (A \ E) + m∗n (A ∩ E)

tworzą σ-algebrę L zwaną σ-algebrą zbiorów Lebesgue’a mierzalnych,


a m∗n zawężona do L jest miarą- zawężenie to, oznaczane przez mn ,
określa się mianem miary Lebesgue’a w Rn .
Dodatkowe informacje dotyczące miar zewnętrznych oraz miar Lebes-
gue’a można znaleźć w [1].

Twierdzenie 1.1. Niech µ będzie miarą określoną na σ-algebrze Σ podzbio-


rów zbioru Ω. Zachodzą wtedy następujące własności:

a. Jeżeli zbiory A, B ∈ Σ i A ⊂ B to µ(A) 6 µ(B).

b. Jeżeli zbiory A, B ∈ Σ i A ⊂ B oraz µ(A) < ∞ to µ(B \ A) = µ(B) −


µ(A).
∞ ∞
c. Dla dowolnego ciągu (An )∞
n=1 ⊂ Σ zachodzi µ(
S P
An ) 6 µ(An ).
n=1 n=1


An , gdzie An ∈ Σ, An ⊂ An+1 dla n ∈ N to µ(A) =
S
d. Jeżeli A =
n=1
lim µ(An ).
n→∞


An , gdzie An ∈ Σ, An+1 ⊂ An dla n ∈ N i µ(Am ) < ∞
T
e. Jeżeli A =
n=1
dla pewnego m ∈ N, to µ(A) = n→∞
lim µ(An ).

12
Dowód. a. Niech A i B będą takimi zbiorami, że A ⊂ B. Ponieważ
A ∩ (B \ A) = ∅ to z addytywności miary µ mamy

µ(B) = µ(A) + µ(B \ A) > µ(A). (1.1)

b. Z zależności (1.1) i faktu µ(A) < ∞ otrzymujemy

µ(B \ A) = µ(B) − µ(A).

n−1
c. Niech B1 = A1 , Bn = An \
S
Ai dla n > 2.
i=1
Wtedy (Bn )∞
n=1 jest ciągiem zbiorów mierzalnych o właściwościach:

(a) Bn ⊂ An dla n ∈ N.
∞ ∞
An , a ponadto Bi ∩Bj = ∅ dla i 6= j, i, j ∈ N. Istotnie
S S
(b) Bn =
n=1 n=1
∞ ∞ ∞
inkluzja Bn ⊂ An implikuje Bn ⊂ An . Niech x0 ∈
S S S
An
n=1 n=1 n=1
i niech j będzie najmniejszą liczbą, dla której zachodzi x0 ∈ Aj .

Wówczas x0 ∈ Bj ⊂
S
Bn .
n=1

Zatem z faktu, że µ jest miarą otrzymujemy:



[ ∞
[ ∞
X ∞
X
µ( An ) = µ( (Bn )) = µ(Bn ) 6 µ(An ).
n=1 n=1 n=1 n=1

d. Niech B1 = A1 , Bn = An \ An−1 dla n = 2, 3, ...


Wówczas Bn ∈ Σ, Bi ∩ Bj = ∅ dla i 6= j oraz i, j = 1, 2, ...
n
S
Ze względu na równość An = Bk otrzymujemy
k=1

n
[ n
X
µ(An ) = µ( Bk ) = µ(Bk ) (1.2)
k=1 k=1

oraz ∞ ∞
[ X
µ(A) = µ( Bk ) = µ(Bk )
k=1 k=1

S ∞
S
bo Ak = Bk . Wykorzystując równość (1.2) otrzymujemy µ(A) =
k=1 k=1
n
P
lim ( µ(Bk )) = lim µ(An ).
n→∞ k=1 n→∞

13

T
e. Bez zmniejszania ogólności można przyjąć, że m = 1, bo An =
n=1

An dla każdego m ∈ N. Niech Cn = A1 \ An . Wówczas C1 ⊂ C2 ⊂
T
n=m
... ⊂ Cn ⊂ ... Stąd z własności b. oraz d. wynika, że µ(A1 ) − µ(A) =
∞ ∞ ∞
µ(A1 \A) = µ(A1 \ A1 \An ) = µ(
T S S
An ) = µ( Cn ) = lim µ(Cn ) =
n=1 n=1 n=1 n→∞
lim µ(A1 \ An ) = n→∞
n→∞
lim [µ(A1 ) − µ(An )] = µ(A1 ) − n→∞
lim µ(An )
Zatem otrzymujemy µ(A) = n→∞
lim µ(An ).

Przykład 1.3. Pokażemy teraz, że założenie µ(Am ) < ∞ jest istotne. Niech

Σ = B(R), An = [n, ∞) oraz niech µ będzie miarą liczącą. Wtedy An = ∅,
T
n=1
An+1 ⊂ An dla n ∈ N oraz

\
µ(A) = µ( An ) = 0 6= n→∞
lim µ(An ) = ∞
n=1

Definicja 1.4. Jeżeli Σ jest σ-algebrą w zbiorze Ω i µ jest miarą na Σ


to (Ω, Σ) nazywamy przestrzenią mierzalną, a trójkę (Ω, Σ, µ) nazywamy
przestrzenią z miarą.

Definicja 1.5. Zbiór R = R ∪ {−∞, ∞} nazywamy rozszerzonym zbiorem


liczb rzeczywistych.

Definicja 1.6. Niech (Ω, Σ) będzie przestrzeną mierzalną. Odwzorowanie


f : Ω → R nazywa się mierzalnym (Σ-mierzalnym) jeśli

f −1 (B) ∈ Σ dla każdego zbioru borelowskiego B.

Funkcje mierzalne nazywa się również zmiennymi losowymi, zwłaszcza w


przypadku przestrzeni probalistycznej. Jeżeli Σ = P(Ω) to każde odwzo-
rowanie jest mierzalne, a jeśli Σ = {∅, Ω} to mierzalne są tylko funkcje stałe.
Warto pamietać, że na mierzalność funkcji f potrzeba i wystarcza, aby {ω :
f (ω) < r} ∈ Σ dla wszystkich r ∈ R (lub równoważnie {ω : f (ω) > r} ∈ Σ
dla dowolnego r ∈ R).

Definicja 1.7. Funkcję χA : Ω → R nazywamy funkcją charakterystyczną


zbioru A ⊂ Ω, gdy jest ona postaci

14

 1 dla x ∈ A
χA (x) =
 0 dla x ∈
/ A.

Przykład 1.4. Przykłady odwzorowań mierzalnych.

1. Gdy f : Ω → R jest dowolnym odwzorowaniem stałym, to f jest mie-


rzalna. Istotnie, dla f (Ω) = {y0 } jest

 ∅ gdy y0 ∈
/A
f −1 (A) =
 Ω gdy y0 ∈ A.

2. Niech f : Ω → R przyjmuje przeliczalnie wiele wartości, przy czym każdą


z nich na zbiorze mierzalnym, to znaczy f (Ω) = {ri : i ∈ N} oraz
f −1 ({ri }) ∈ Σ. Ponieważ dla dowolnego zbioru B jest B ∩ {ri } = ∅
lub B ∩ {ri } = {ri } to przyjmując I = {i : B ∩ {ri } =
6 ∅} możemy
napisać f −1 (B) = f −1 (B ∩ f (Ω)) = f −1 ({ri }) ∈ Σ gdyż f −1 ({ri }) ∈
S
i∈I
Σ, a I jest najwyżej przeliczalny. Szczególnym przypadkiem takiego
odwzorowania jest funkcja charakterystyczna χA zbioru A ∈ Σ.

Twierdzenie 1.2. Niech f : Ω → R będzie funkcją mierzalną i niech g :


R → R będzie B(R) mierzalna. Wtedy złożenie g ◦ f jest Σ-mierzalne.

Definicja 1.8. Niech Σ będzie σ-algebrą podzbiorów zbioru Ω. Funkcję f :


Ω → R nazywamy prostą, gdy spełnione są warunki:

1. f (Ω) jest zbiorem skończonym.

2. ∀y∈f (Ω) f −1 ({y}) ∈ Σ.

Zatem funkcja f : Ω → R jest prosta wtedy i tylko wtedy, gdy jest mie-
rzalna i ma skończony zbiór wartości.
Przypomnimy teraz kilka rodzajów zbieżności ciągów funkcyjnych i twier-
dzenia pokazujące związki między tymi rodzajami zbieżności.

15
Definicja 1.9. Ciąg funkcji mierzalnych (fn ) jest zbieżny µ−prawie wszędzie
do funkcji mierzalnej f , gdy

∃A∈Σ ∧ µ(A)=0 ∀ω∈(Ω\A) fn (ω) → f (ω).

Gdy mówimy o mierze probablistycznej P powyższy warunek możemy sfor-


mułować następująco:

P ({ω: lim fn (ω) = f (ω)}) = 1.


n→∞

Definicja 1.10. Mówimy, że funkcja f : Ω → R jest µ-prawie wszędzie skoń-


czona, gdy jest skończona z wyjątkiem wartości przyjmowanych w punktach
pewnego zbioru miary zero.

Definicja 1.11. Mówimy, że ciąg funkcji mierzalnych (fn ), określony na


przestrzeni (Ω, F, µ) jest jednostajnie zbieżny na Ω do funkcji mierzalnej f ,
jeśli
∀ε>0 ∃N (ε) ∀ω∈Ω ∀n>N |fn (ω) − f (ω)| < ε.

Definicja 1.12. Mówimy, że ciąg funkcji mierzalnych (fn ) określonych na


przestrzeni (Ω, F, µ) jest zbieżnym punktowo do funkcji mierzalnej f , kiedy
zachodzi
∀ω∈Ω lim fn (ω) = f (ω).
To znaczy, że

∀ε>0 ∀ω∈Ω ∃N (ε,ω) ∀n>N |fn (ω) − f (ω)| < ε.

Twierdzenie 1.3. (Jegorowa) Niech (Ω, Σ, µ) będzie przestrzenią miary


skończonej i niech f, fn : Ω → R dla n ∈ N będą funkcjami mierzalnymi, µ-
prawie wszędzie skończonymi. Jeżeli fn → f µ-prawie wszędzie to fn → f µ
niemal jednostajnie na Ω tzn.

∀δ>0 ∃A∈Σ µ(Ω \ A) < δ i fn → f jednostajnie na A.

W konsekwencji istnieje ciąg rosnący (Ek ) zbiorów mierzalnych taki, że



µ(X \ Ek ) = 0 i fn → f jednostajnie na każdym Ek , a zatem jeżeli
S
k=1
funkcje są mierzalne i zbieżne punktowo to istnieją zbiory, na których są
zbieżne jednostajnie.

16
Definicja 1.13. Niech (Ω, Σ, µ) będzie przestrzenią z miarą i niech f, fn :
Ω → R będą funkcjami mierzalnymi. Mówimy, że ciąg {fn } jest zbieżny
µ
według miary µ do f (fn → f ) na zbiorze E ∈ Σ jeżeli

∀ε>0 lim µ({x ∈ E: |fn (x) − f (x)| > ε}) = 0.


n→∞

Gdy µ jest miarą probabilistyczą P to mówimy, że ciąg jest zbieżny według


P
prawdopodobieństwa i piszemy wówczas Xn → X.

Przykład 1.5. Przytoczymy teraz przykłady ciągów funkcyjnych, które przy-


bliżą pojęcie zbieżności według miary.

1. Niech fn (x) = xn dla x ∈ [0, 1]. Oznaczmy przez m miarę Lebesgue’a


na R. Pokażemy, że ciąg fn jest zbieżny według miary do f (x) = 0.
Istotnie,
 m({x ∈ [0, 1] : xn > ε}) = 
 m(∅) dla ε > 1  0 dla ε > 1
= √ = √
 m([ n ε, 1)) dla ε ∈ (0, 1)  1 − n ε dla ε ∈ (0, 1)
lim m({x ∈ [0, 1] : |xn | > ε}) = 0
Stąd n→∞

2. Niech In,k = [ k−1 , k ) dla n ∈ N, k = 1, 2, 3, ..., 2n . Ustawiamy przedzia-


2n 2n
ły w ciąg (Jm ) następująco: I1,1 , I1,2 , I2,1 , I2,2 , I2,3 , I2,4 , ... Wówczas
χJm → 0 według miary Lebesgue’a, ale nie jest on zbieżny w żadnym
punkcie przedziału [0, 1).

Twierdzenie 1.4. (Riesza) Jeżeli ciąg (fn ) funkcji mierzalnych fn : Ω → R


µ- prawie wszędzie skończonych jest zbieżny według miary do funkcji mie-
rzalnej f : Ω → R µ-prawie wszędzie skończonej na E ∈ Σ to istnieje podciąg
(fnk )∞
k=1 ciagu (fn ) taki, że fnk → f µ- prawie wszędzie na Ω.

Dowód poniższego twierdzenia sformułowanego dla zmiennych losowych


na przestrzeni probabilistycznej można znaleźć w [9]. To twierdzenie zostanie
udowodnione, ponieważ w dalszej części pracy będzie wiele odwołań do niego.
Ponadto bardzo ciekawy jest sposób konstrukcji ciągu zmiennych losowych
prostych.

Twierdzenie 1.5. Jeżeli f : Ω → [0, +∞] jest funkcją mierzalną to istnieje


ciąg (Sn )∞
n=1 mierzalnych funkcji prostych określonych na Ω takich, że

17
1. ∀n∈N 0 6 Sn 6 Sn+1 6 f

2. ∀x∈Ω lim Sn (x) = f (x).


n→∞

Dowód. Dla każdego n ∈ N i i ∈ {1, 2, ..., n2n } przyjmujemy


i−1 i i−1 i
Eni = f −1 ([ n
, n )) = {x ∈ X : n 6 f (x) < n }
2 2 2 2
Fn = f −1 ([n, ∞)) = {x ∈ X : f (x) > n}
z mierzalności funkcji f wynika, że Eni , Fn ∈ Σ dla n ∈ N, i ∈ {1, 2, ..., n2n }
Jeśli zdefiniujemy funkcję prostą
n2n
X i−1
Sn = n
χEni + nχFn
i=1 2

i−1 i 2(i−1)
to zachodzi warunek 1., bo 2n
6 f (x) < 2n
wtedy i tylko wtedy, gdy 2n+1
6
2i
f (x) < 2n+1
i dlatego ciąg (Sn ) nie może być malejący.
Wykażemy, że zachodzi 2.
Jeśli x ∈ Ω, f (x) < +∞ oraz n ∈ N to x ∈ Eni dla pewnego i, a więc
i−1 i−1 i i−1 1
|f (x) − Sn (x)| = |f (x) − n
| = f (x) − n < n − n = n .
2 2 2 2 2
Stąd lim Sn (x) = f (x)
n→∞
Jeżeli f (x) = +∞ to Sn (x) = n, czyli n→∞
lim Sn (x) = +∞ = f (x)

Jeżeli funkcja f jest ograniczona to powyższa konstrukcja ciągu Sn pro-


wadzi do jednostajnej zbieżności.

Definicja 1.14. Jeżeli f : Ω → R jest funkcją, to przez jej część dodatnią, od-
powiednio ujemną, rozumie się funkcje f + , f − postaci f + (x) = max{f (x), 0}
oraz f − (x) = max{−f (x), 0}.

Definicja 1.15. (Całki z funkcji mierzalnej) Niech (Ω, Σ, µ) będzie prze-


strzenią z miarą, wtedy:

• Jeśli f jest nieujemną funkcją mierzalną prostą w postaci kanonicznej


n
ck χAk , gdzie f (Ω) = {c1 , ..., cn }, An = f −1 ({cn }) ∈ Σ, to
P
f =
k=0
n
ck µ(Ak ). (Zakładamy, że ∞ · 0 = 0 · ∞ = 0).
R P
przyjmuje się f dµ =
Ω k=1

18
• Jeżeli f : X → R+ jest funkcją mierzalną, to przyjmujemy
Z Z
f dµ = sup{ sdµ : s-funkcja prosta mierzalna taka, że 0 6 s 6 f }
Ω Ω

• Jeśli f : Ω → R jest mierzalna, to


Z Z Z
f dµ = f + dµ − f − dµ
Ω Ω Ω

o ile chociaż jedna z całek po prawej stronie jest skończona.

• Funkcję f : Ω → R nazywamy całkowalną, gdy jej całka


R
f dµ istnieje

i jest skończona.

• Gdy istnieje całka f dµ, to dla A ∈ Σ przyjmuje się


R

Z Z
f dµ = f χA dµ.
A Ω

Twierdzenie 1.6. (Lebesgue’a o zbieżności zmajoryzowanej) Niech


(fn )∞
n=1 będzie ciągiem funkcji mierzalnych na przestrzeni (Ω, Σ, µ) takim,
że:

1. fn → f µ-prawie wszędzie lub wg miary µ.

2. Istnieje funkcja g całkowalna względem miary µ taka, że ∀n∈N |fn | 6 g


µ-prawie wszędzie.

Wtedy

1. f jest całkowalna,

lim |fn − f |dµ = 0,


R
2. n→∞

R R
lim fn dµ = f dµ.
3. n→∞
Ω Ω

19
1.2 Elementy probabilistyki
Definicja 1.16. σ-algebrą generowaną przez zmienną losową X nazywamy
najmniejszą σ-algebrę względem której X jest mierzalna.

Definicja 1.17. Mówimy, że zmienna losowa X na przestrzeni probabili-


stycznej (Ω, Σ, P ) jest

• dyskretna, gdy istnieje przeliczalny podzbiór A w R taki, że P (Ω \


X −1 (A)) = 0.

• ciągła, gdy istnieje funkcja fX : R → R całkowalna w sensie Lebes-


gue’a względem miary Lebesgue’a taka, że P (X −1 (E)) =
R
fX (t)dt dla
E
każedego E ∈ B(R). Funkcję fX nazywamy gestością zmiennej losowej
X.

Definicja 1.18. Wartością oczekiwaną zmiennej losowej określownej na prze-


strzeni probalistycznej (Ω, Σ, P ) nazywamy liczbę
Z
E[X] = XdP,

gdy powyższa całka istnieje.

Definicja 1.19. Zmienne losowe X1 ...Xn na przestrzeni probabilistycznej


(Ω, Σ, P ) nazywamy niezależnymi , gdy

P (X1−1 (E1 ) ∩ ... ∩ Xn−1 (En )) = P (X1−1 (E1 )) · ... · P (Xn−1 (En ))

dla dowolnego n i dowolnych E1 , .., En ∈ B(R).

Twierdzenie 1.7. (Własności wartości oczekiwanej).

1. Jeżeli X = χA , to E[X] = P (A).

2. Jeżeli X > 0, to E[X] > 0.

3. E[aX + bY ] = aE[X] + bE[Y ], gdzie a,b ∈ R o ile istnieją E[X] i E[Y ].

20
4. Jeżeli X > Y , to E[X] > E[Y ].

5. |E[X]| 6 E[|X|].

6. Jeżeli X i Y są niezależnymi zmiennymi losowymi, to E[XY ] = E[X]E[Y ].

Dowód. Dowód powyższego twiedzenia znależć można w [9]. Uzasadnienie


punktów 3. i 6. wymaga twierdzenia o przechodzeniu do granicy pod znakiem
całki (twierdzenie B. Levi’ego). Celem skrócenia rozważań, zasygnalizowania
jedynie idei dowodu, w tych częściach ograniczymy się do szczególnego przy-
padku funkcji prostych. Z tych samych powodów wykażemy 4. przyjmując
dodatkowo, iż E[Y ] ∈ R.

1. Ponieważ χA jest dwuwartościową funkcją prostą oraz A = χ−1


A ({1}),
Ω \ A = χ−1
A ({0}), to z definicji całki E[χA ] = 1 · P (A) + 0 · P (Ω \ A) =
P (A).

2. Wynika od razu z definicji całki.


k
P m
P
3. Niech X = xi χ A i , Y = yj χBj będą funkcjami prostymi w postaci
i=1 j=1
kanonocznej. Ze względu na Ai1 ∩ Ai2 = ∅ = Bj1 ∩ Bj2 dla różnych
k
indeksów i1 , i2 ∈ {1, ..., k}, j1 , j2 ∈ {1, ..., m} oraz równości
S
Ai =
i=1
m
S
Bi = Ω otrzymujemy
j=1

k X
X m
E[aX + bY ] = E[ (axi + byj )χAi ∩Bj ] =
i=1 j=1

k X
X m k
X m
[ m
X k
[
= (axi +byj )P (Ai ∩Bj ) = a xi P (Ai ∩ Bj )+b yj P (Bj ∩ Ai ) =
i=1 j=1 i=1 j=1 j=1 i=1

k
X m
X
=a xi P (Ai ) + b yj P (Bj ) = E[X] + E[Y ].
i=1 j=1

4. Ponieważ X − Y > 0, to E[X − Y ] istnieje i korzystając z 3. oraz 2.


otrzymujemy E[X] = E[X − Y ] + E[Y ] > E[Y ].

21
5. Ze względu na własność 2. i 3. możemy napisać

Z Z Z Z
− −
X + dP − +

|E[X]| =
X dP 6
X dP + X dP =

Ω Ω Ω Ω
Z Z Z Z
= X + dP + X − dP = (X + + X − )dP = |X|dP = E[|X|].
Ω Ω Ω Ω

k
P m
P
6. Jeżeli X = xi χ A i , Y = yj χBj są niezależnymi funkcjami pro-
i=1 j=1
k P
m
xi yj P (Ai ∩ Bj ). Po-
P
stymi w postaci kanonicznej, to E[XY ] =
i=1 j=1
nieważ zbiory jednopuktowe są borelowskie oraz Ai = X −1 ({xi }), Bj =
Y −1 ({yi }), to niezależność funkcji X i Y oznacza P (Ai ∩Bj ) = P (Aj )P (Bj ),
a stąd
k X
X m
E[XY ] = xi P (Ai )yj P (Bj ) =
i=1 j=1

k
X m
X
=( xi P (Ai ))( yj P (Bj )) = E[X]E[Y ].
i=1 j=1

Przykład 1.6. Przykłady zmiennych losowych i ich wartości oczekiwanych.

• Niech X będzie taką zmienną losową, że P (X = 1) = p oraz


P (X = −1) = 1 − p, gdzie p ∈ [0, 1]. Wtedy

E[X] = 1 · p + (−1) · (1 − p) = p − 1 + p = 2p − 1.

x
• Niech X będzie zmienną losową ciągłą dla której fX (x) = λ1 e− λ χ(0,∞) ,
gdzie λ > 0. Wtedy
Z∞ ∞ ∞
x −x Z Z
E[X] = e λ dx = zλe dz = λ ze−z dz =
−z
λ
0 0 0

Z∞
= λ[−ze−z |∞
0 + e−z dz] = λ[−ze−z − e−z ]∞
0 = λ.
0

22
Definicja 1.20. Wariancją zmiennej losowej X nazywamy liczbę

V ar(X) = E[[X − E(X)]2 ]

jeśli wartość oczekiwana po prawej stronie nierówności istnieje. Ponadto licz-


q
bę V ar(X) nazywamy odchyleniem standardowym. Zauważmy, że z włas-
ności wartości oczekiwanej wynika

V ar(X) = E[X 2 ] − [E[X]]2 .

Definicja 1.21. Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną. Niech


X będzie zmienna losową na (Ω, Σ, P ) taką, że E[|X|] < ∞. Niech A będzie
σ-algebrą podzbiorów zawartą w Σ. Zmienną losową Y nazywamy warun-
kową wartością oczekiwaną zmiennej X względem σ-algebry A i oznaczamy
symbolem E[X|A], gdy
Z Z
∀E∈A Y dP = XdP.
E E

Istnienie warunkowej wartości oczekiwanej wynika z twierdzenia Radona-


Nikodyma (patrz podrozdział 3.6).

Niech X będzie zmienną losową na przestrzeni probabilistycznej (Ω, Σ, P )


i niech (En ) będzie ciągiem parami rozłącznych elementów Σ takich, że

En = Ω. Ponadto przez A oznaczmy σ-algebrę gene-
S
P (En ) > 0 oraz
n=1
rowaną przez ciąg (En ). Wówczas
R
∞ XdP
X En
E[X|A] = χEn prawie wszędzie.
n=1 P (En )
Ponieważ E[X|A] jest A mierzalna, to na każdym zbiorze En funkcja E[X|A]
ma stałą wartość en . Z definicji warunkowej wartości mamy
Z
en P (En ) = XdP
En

Zatem na każdym En R
XdP
En
E[X|A] =
P (En )
Stąd otrzymujemy tezę.

23
Definicja 1.22. Mówimy, że ciąg zmiennych losowych (Xn ), określony na
przestrzeni (Ω, F, P ) jest zbieżny według p-tej średniej (0 < p < ∞) do
zmiennej losowej X , gdy

lim E(|Xn − X|p ) = 0


n→∞

Symbolicznie fakt zbieżności wg p-tej średniej odnotowywać będziemy pisząc


Lp
Xn → X.

Twierdzenie 1.8. Własności warunkowej wartości oczekiwanej.


Niech X, Y : Ω → R będą Σ-mierzalne i niech A ⊂ Σ będzie σ-algebrą.
Wówczas

1. Jeśli X jest stała, to E[X|A] jest również stała P-prawie wszędzie.

2. Dla liczb a, b zachodzi E[aX + bY |A] = aE[X|A] + bE[Y |A] P-prawie


wszędzie.

3. Jeśli X 6 Y to E[X|A] 6 E[Y |A] P-prawie wszędzie.

4. E[X|{∅, Ω}] = E[X]χΩ .

5. E[X|Σ] = X P -prawie wszędzie.

6. Jeżeli G, H są σ-algebrami oraz G ⊂ H ⊂ Σ to E[E[X|H]|G] = E[X|G] =


E[E[X|G]|H] P-prawie wszędzie.

7. Dla każdej σ-algebry A ⊂ Σ zachodzi E[E[X|A]] = E[X].

8. Niech ciąg zmiennych losowych (Xn ) będzie zbieżny do zmiennej loso-


wej X z prawdopodobieństwem 1, oraz niech |Xn | 6 Y , gdzie zmienna
lim E[Xn |A] = E[X|A] z prawdo-
losowa Y jest całkowalna. Wtedy n→∞
podobieństwem 1.

9. Jeżeli G ⊂ Σ jest σ-algebrą oraz zmienna losowa X jest G- mierzalna


i ponadto zmienne losowe X, oraz XY są całkowalne to E[XY |G] =
XE[Y |G] P-prawie wszędzie.

24
Dowód. Dowód został oparty na [1] oraz [9].

1. Niech X(ω) = c. Wtedy dla każdego A ∈ A jest


R
E[X|A]dP =
R R A
XdP = cdP . Stąd E[X|A] = c (P-prawie wszędzie).
A A

E[aX + bY |A]dP = (aX + bY )dP = a XdP + b


R R R R
2. A Y dP =
A RA A
= a E[X|A]dP + b E[Y |A]dP = (aE[X|A] + bE[Y |A])dP . Z do-
R R
A A A
wolności A ∈ A otrzymujemy tezę.

3. Niech X 6 Y . Dla każdego zbioru E ∈ Σ z definicji całki otrzymu-


R R
jemy XdP 6 Y dP . W szczególności nierówność zachodzi dla zbio-
E E
rów A ∈ A. Zatem z definicji warunkowej wartości oczekiwanej mamy
E[Y |A]dP przy wszystkich A ∈ A skąd wynika żąda-
R R
E[X|A]dP 6
A A
na nierówność.

4. Ponieważ funkcje {∅, Ω}-mierzalne są stałe, to E[X|{∅, Ω}] = c. W


konsekwencji
Z Z
c = cP (Ω) = E[X|{∅, Ω}]dP = XdP = E[X].
Ω Ω

5. Ponieważ E[X|Σ]dP = XdP dla wszystkich A ∈ Σ, to E[X|Σ] = X


R R
A A
P-prawie wszędzie.

6. Z definicji dla każdego zbioru A ∈ G jest


R R
E[X|G]dP = XdP
A A
Ale z założenia A ∈ G pociąga A ∈ H i dlatego
Z Z Z Z
E[E[X|H]|G]dP = E[X|H]dP = XdP = E[X|G]dP
A A A A

dla każdego A ∈ G, a więc

E[E[X|H]|G] = E[X|G] P-prawie wszędzie.

Ponieważ E[X|G] jest G-mierzalna, to jest także H-mierzalna. Stosując


5. dla Σ = H otrzymujemy

E[E[X|G]|H] = E[X|G] P-prawie wszędzie.

25
R
7. Z definicji wartości oczekiwanej mamy E[E[X|A]] = E[X|A]dP =
R Ω
XdP = E[X].

8. Niech Xn → X prawie wszędzie. Funkcje Zn = sup |Xk −X| są Σ−mierzalne,


k>n
lim Zn = lim sup |Xn − X| = 0 prawie wszę-
(Zn ) jest nierosnacy oraz n→∞
n→∞
dzie, a także |Zn | = Zn 6 2Y . Ponadto

|E[Xn |A] − E[X|A]| = |E[Xn − X|A]| 6 E[|Xn − X||A] 6 E[Zn |A].


(1.3)
Ciąg (E[Zn |A]) jest nierosnącym (patrz część 3) ciągiem funkcji nie-
lim E[Zn |A]. Ponadto
ujemnych, więc istnieje (prawie wszędzie) f = n→∞
E[Zn |A] 6 2E[Y |A] i funkcja E[Y |A] jest całkowalna wobec całkowal-
ności zmiennej Y oraz części 7. Wykorzystując twierdzenie Lebesgue’a
o zmajoryzowanej zbieżności możemy, dla dowolnego zbioru A ∈ A,
napisać
Z Z Z
f dP = lim E[Zn |A]dP = lim E[Zn |A]dP =
n→∞ n→∞
A A A
Z Z
= n→∞
lim Zn dP = n→∞
lim Zn dP = 0
A A

W konsekwencji f = 0 prawie wszędzie, tj. E[Zn |A] → 0 prawie wszę-


dzie, co oczywiście oznacza (wobec 1.3), że E[Xn |A] → E[X|A] prawie
wszędzie.

9. Dowód tej równości przeprowadzimy w kilku krokach. Najpierw udo-


wodnimy ją dla X = χA gdzie A ∈ G. Zauważmy, że zmienna losowa
χA E(Y |G) jest G-mierzalna.
Dla dowolnego B ∈ G prawdziwe są równości
Z Z Z
E[(χA Y )|G]dP = χA Y dP = Y dP =
B B A∩B
Z Z
= E[Y |G]dP = χA E[Y |G]dP
A∩B B

26
Stąd E[(χA )Y |G] = χA E[Y |G] prawie wszędzie.
n
ai χBi oraz Bi ∈ G (i = 1, ..., n) otrzymujemy
P
Dalej, dla X =
i=1

Z Z n
X Z
E[(XY )|G]dP = XY dP = ai Y dP =
B B i=1 B∩Bi

n
X Z n
X Z
= ai E[Y |G]dP = ai χBi E(Y |G)dP =
i=1 B∩Bi i=1 B
n
Z X Z
= ai χBi E[Y |G]dP = XE[Y |G]dP
B i=1 B

Zatem E[(XY )|G] = XE[Y |G] prawie wszędzie.


Niech (Xn1 ), (Xn2 ) będą ciągami zmiennych losowych prostych takimi,
że 0 6 Xn1 % X + , 0 6 Xn2 % X − (patrz twierdzenie 1.5). Zachodzi
|Xn1 − Xn2 | 6 |X|, a więc na mocy 8. oraz 2. możemy napisać

lim E[(Xn1 − Xn2 )Y |G] =


E[(XY )|G] = n→∞

lim E[(Xn1 Y )|G] − n→∞


= n→∞ lim E[(Xn2 Y )|G] =

= lim Xn1 E[Y |G] − lim Xn2 E[Y |G] =


n→∞ n→∞

= X + E[Y |G] − X − E[Y |G] = XE[Y |G].

27
Rozdział 2

Martyngały i ich własności

W niniejszym rozdziale zostaną opisane podstawowe pojęcia i twierdzenia


związane z martyngałami. W pierwszym podrozdziale wprowadzimy pojęcie
martyngału i zilustrujemy je przykładami. Następnie zostanie opisane zagad-
nienie momentów stopu wraz z ich podstawowymi własnościami. W kolejnym
podrozdziale dotyczącym zbieżności martyngałów przytoczymy twierdzenia,
które można spotkać w prawie każdym opracowaniu dotyczącym martynga-
łów. Można wymienić tutaj twierdzenie Dooba lub zasadnicze twierdzenie o
zbieżności. Ponadto badane są tutaj własności tzw. przejść w górę. Dalej opi-
szemy ważne nierówności martyngałowe, takie jak nierówność maksymalna
dla podmartyngałów, która jest uogólnieniem nierówności Kołmogorowa. W
ostatnim podrozdziale wspomnimy o przypadku martyngałów z czasem od-
wróconym. Procesy te mają wiele ciekawych własności, które warto pokazać.

2.1 Podstawowe pojęcia i przykłady


Definicja 2.1. Niech (Ω, Σ, P ) będzie przestrzenią probabilistystyczną i niech
T będzie podzbiorem zbioru R+ ∪ {0}. Rodzinę zmiennych losowych {Xt :
t ∈ T } na przestrzeni (Ω, Σ, P ) nazywamy procesem stochastycznym. Tra-
jektorią (realizacją procesu) zdarzenia s ∈ Ω nazywamy funkcję rzeczywistą
t → Xt (s). Zbiór {Xt (s) : s ∈ Ω, t ∈ T } nazywamy przestrzenią stanów.

28
Zbiór T interpretujemy jako czas.

Przykład 2.1. (Błądzenie losowe na Z) Niech (Xn ) będzie ciągiem nieza-


leżnych dyskretnych zmiennych losowych przyjmujących wartości w zbiorze
liczb całkowitych Z. Definiujemy

S0 = 0,

Sn = X1 + ... + Xn dla n ∈ N.

Ciąg (Sn ) nazywamy błądzeniem losowym.

Definicja 2.2. Niech (Ω, Σ, P ) będzie przestrzenią probabilistyczną i niech


T będzie podzbiorem zbioru R+ ∪ {0}.
Filtracją nazywamy niemalejącą rodzinę σ-algebr {Ft : t ∈ T } tzn. Fs ⊂
Ft ⊂ Σ dla s, t ∈ T i s < t.
Mówimy, że proces stochastyczny {Xt : t ∈ T } (T ⊂ R+ ∪ {0}) jest zgodny z
filtracją Ft (lub jest do niej adaptowalny), gdy Xt jest mierzalna względem
Ft dla każdego t ∈ T . Piszemy wówczas {Xt , Ft , t ∈ T }.
Proces stochastyczny {Xt , Ft , t ∈ T } jest martyngałem, gdy:

1) E[|Xt |] < ∞ dla wszystkich t ∈ T ,

2) E[Xt |Fs ] = Xs dla wszystkich t ∈ T takich, że s < t.

Jeżeli drugi warunek zmienimy na

E[Xt |Fs ] 6 Xs dla dowolnych s < t,

to proces nazywamy nadmartynagałem.


Natomiast w przypadku, gdy

E[Xt |Fs ] > Xs dla dowolnych s < t,

to proces nazywamy podmartynagałem.

29
Warto zauważyć, iż gdy {Xt , Ft , t ∈ T } jest podmartyngałem to {−Xt , Ft , t ∈
T } jest nadmartyngałem.
Jeśli T = N ∪ {0} to na to, aby proces {Xt , Ft , t ∈ T } był martynga-
łem potrzeba i wystarcza, aby E[Xn+1 |Fn ] = Xn dla wszytkich n. Istot-
nie, dla każdego k > 1 mamy E[Xn+k |Fn ] = E[E[Xn+k |Fn ]|Fn+k−1 ] =
E[E[Xn+k |Fn+k−1 ]|Fn ] = E[Xn+k−1 |Fn ]. Postępując indukcyjnie mamy
E[Xn+k |Fn ] = E[Xn+1 |Fn ] = Xn .

Przykład 2.2. Niech (Xn ) będzie ciągiem niezależnych zmiennych losowych


o własności E[Xn ] = 0 dla n ∈ N. Wówczas ciąg zmiennych losowych M0 =
n
Xi jest martyngałem względem σ−algebr Fn generowanych przez
P
0, Mn =
i=1
X1 , X2 , ..., Xn .

Dowód.

E[Mn+1 |Fn ] = E[Mn + Xn+1 |Fn ] = E[Mn |Fn ] + E[Xn+1 |Fn ]

Ponieważ zmienne losowe X1 , ..., Xn , Xn+1 są niezależne, a Fn jest σ-algebrą


generowaną przez X1 , ..., Xn to (patrz [15] uwaga(x) strona 160)
Z Z
Xn+1 dP = P (A) Xn+1 dP dla A ∈ Fn .
A Ω

W konsekwencji, gdy A ∈ Fn to
Z Z
E[Xn+1 |Fn ]dP = Xn+1 dP = P (A)E[Xn ] = 0,
A A

więc E[Xn+1 |Fn ] = 0 prawie wszędzie. Ostatecznie

E[Mn+1 |Fn ] = E[Mn |Fn ] + E[Xn+1 |Fn ] = Mn .

Przykład 2.3. Niech {Xn : n ∈ N} będą ciągiem niezależnych zmiennych


losowych takich, że E[Xn ] = 0 i V ar[Xn ] = σ 2 dla n ∈ N.
n
Xi )2 − nσ 2 . Wówczas {Mn : n ∈ N ∪ {0}}
P
Definiujemy M0 = 0, Mn = (
i=1
jest martyngałem względem σ-algebr Fn generowanych przez X1 , X2 , ..., Xn .

30
Dowód. W poniższym dowodzie wykorzystałem elementy rozumowania za-
wartego w [2].
n
Xi . Zauważmy najpierw, iż σ 2 = V ar[Xi ] = E[Xi2 ]−E 2 [Xi ] =
P
Niech Sn =
i=1
E[Xi2 ] dla i ∈ N. Sprawdzimy warunek skończonej wartości oczekiwanej. Ko-
rzystając z niezależności zmiennych losowych Xi otrzymujemy
n n n−1 n
E[Sn2 ] = E[( Xk )2 ] = E[ Xk2 + 2
P P P P
Xj Xk ] =
k=1 k=1 j=1 k=j+1
n n−1 n
E[Xk2 ] + 2 E[Xj ]E[Xk ] = nσ 2 .
P P P
=
k=1 j=1 k=j+1
Zatem E[|Mn |] = E[|Sn2 − nσ 2 |] 6 E[Sn2 ] + nσ 2 = 2nσ 2 < ∞.
Zachodzi następująca równość:
2
E[Mn+1 |Fn ] = E[Sn+1 − (n + 1)σ 2 |Fn ] = E[(Sn + Xn+1 )2 − (n + 1)σ 2 |Fn ] =
2
= E[Sn2 + 2Sn Xn+1 + Xn+1 − (n + 1)σ 2 |Fn ] = E[Sn2 |Fn ] + 2E[Sn Xn+1 |Fn ] +
2
E[Xn+1 |Fn ] − E[(n + 1)σ 2 |Fn ].
Dla dowolnego zbioru A ∈ Fn mamy
Z Z Z
2 2 2
E[Xn+1 |Fn ] = Xn+1 dP = P (A) Xn+1 dP =
A A Ω
Z Z
= P (A)σ 2 = σ 2 dP = σ 2 χΩ dP,
A A
2 2
a zatem E[Xn+1 |Fn ] = σ χΩ prawie wszędzie.
Ponieważ, ze względu na niezależność Xn+1 od Fn mamy dla dowolnego A ∈
Fn , równość E[Xn+1 |Fn ]dP =
R R
Xn+1 dP = P (A)E[Xn+1 ] = 0, a zatem
A A
E[Xn+1 |Fn ] = 0 prawie wszędzie. Otrzymujemy więc
E[Sn2 |Fn ] + 2E[Sn Xn+1 |Fn ] + E[Xn+1
2
|Fn ] − E[(n + 1)σ 2 |Fn ] =
= Sn2 + 2Sn E[Xn+1 |Fn ] + σ 2 χΩ − (n + 1)σ 2 χΩ = Sn2 − nσ 2 χΩ = Mn .

2.2 Momenty zatrzymania


Definicja 2.3. Zmienną losową τ przyjmującą wartości w T ∪{∞} nazywamy
momentem stopu (momentem zatrzymania) dla filtracji {Ft }, gdy

{τ 6 t} ∈ Ft dla wszytkich t ∈ T .

31
Twierdzenie 2.1. Niech T będzie przeliczalnym podzbiorem zbioru R+ ∪
{0}. Zmienna losowa τ : Ω → T ∪ {+∞} jest momentem stopu względem
filtracji (Ft )t∈T wtedy i tylko wtedy, gdy {τ = t} ∈ Ft dla każdego t ∈ T .

Dowód. Teza wynika z następujących równości.


[ [
{τ 6 t} = {τ = s} oraz {τ = t} = {τ 6 t} \ {τ 6 s}.
T 3s6t s6t∧s6=t

Twierdzenie 2.2. 1. Dla dowolnego momentu stopu τ zdarzenie {τ < t}


należy do σ−algebry Ft dla każdego t ∈ T = [0, ∞].
2. Niech T = R+ ∪ {0} i niech filtracja {Ft , t ∈ T } spełnia warunek Ft =
Fs . Jeśli τ : Ω → R+ ∪ {∞} jest zmienną losową oraz {τ < t} ∈ Ft
T
t<s, t,s∈T
dla każdego t ∈ T to τ jest momentem stopu.

Dowód. Wzorując się na dowodzie twierdzenia zawartego w [6] (strona 68)


możemy napisać

∞ 
1 1
[  \ 
{τ < t} = τ 6t− ∈ Ft oraz {τ 6 t} = τ <t+ ∈ Ft .
k=1 k n n

Twierdzenie 2.3. (Własności momentów stopu).

a. Niech T = [0, ∞]. Jeżeli τ1 , τ2 są momantami stopu, to

• τ1 ∧ τ2 = min(τ1 , τ2 )
• τ1 ∨ τ2 = max(τ1 , τ2 )
• τ1 + τ2

są momentami stopu.

b. Niech τn , gdzie n ∈ N są momentami stopu i niech T = [0, ∞]. Wtedy


sup τn i inf
n
τn są momentami stopu.
n

32
c. Niech τ będzie momentem stopu, oraz niech T = [0, ∞]. Wtedy istnieje
ciąg momentów stopu (τn )∞
n=1 przyjmujących skończoną liczbę wartości,
takich że τn ↓ τ .

Dowód. Postępująć analogicznie jak w [6] str. 79 możemy napisać:

a. {τ1 ∧ τ2 6 t} = {τ1 6 t} ∪ {τ2 6 t} ∈ Ft ,


{τ1 ∨ τ2 6 t} = {τ1 6 t} ∩ {τ2 6 t} ∈ Ft
{τ1 + τ2 < t} = {τ1 < s} ∩ {τ2 < u} ∈ Ft
S
s,u∈Q∩T,s+u<t

b. {sup τn 6 t} = {τn 6 t} ∈ Ft
T
n Sn
{inf τn < t} = {τn < t} ∈ Ft
n n

c. Wystarczy zdefiniować momenty stopu następująco:





 0, gdy τ (ω) = 0

k+1
τn (ω) = 2n
, gdy τ (ω) ∈ ( 2kn , k+1
2n
] k = 0, 1, 2..., n2n − 1

 ∞,

gdy τ (ω) > n

Twierdzenie 2.4. (O momencie zatrzymania) Niech ciąg (Mn , Fn )∞


n=0 bę-
dzie martyngałem. Wtedy proces zatrzymania (Mn∧τ , Fn )n∈N∪{0} jest mar-
tyngałem.

Dowód. Sprawdzimy mierzalność funkcji Mn∧τ . Ponieważ



 Mτ (ω) (ω) gdy τ (ω) 6 n
Mn∧τ (ω) = Mn∧τ (ω) (ω) = 
Mn (ω) gdy τ (ω) > n,
to dla r ∈ R możemy napisać
n
{ω : Mn∧τ (ω) < r} = ({ω : Mk (ω) < r} ∩ {ω : τ (ω) = k})∪
S
k=0
∪({ω : Mn (ω) < r} ∩ {ω : τ (ω) > n}) ∈ Fn .
n
χτ =k Mk )+χτ >n+1 Mn+1 = Mn∧τ −Mn χτ >n+1 +Mn+1 χτ >n+1 ,
P
Zatem Mn+1∧τ = (
k=0
bo {τ > n} = {τ = n} ∪ {τ > n + 1}. Otrzymujemy E(Mn+1∧τ |Fn ) =
= Mn∧τ + E[(Mn+1 − Mn )χτ >n+1 |Fn ] = Mn∧τ + χτ >n+1 E(Mn+1 − Mn |Fn ) =
= Mn∧τ + χτ >n+1 (Mn − Mn ) = Mn∧τ .

33
2.3 Zbieżność martyngałów
Definicja 2.4. Niech τ będzie momentem stopu dla filtracji (Ft )t∈T i niech
F oznacza tu σ-algebrę zawierającą wszystkie σ-algebry Ft . Wtedy przez Fτ
oznaczamy klasę takich zbiorów B ∈ F, iż dla każdego t należącego do T
zachodzi B ∩ {τ 6 t} ∈ Ft . Rodzina Fτ jest σ-algebrą.

Twierdzenie 2.5. (J. L. Doob) Załóżmy, że ciąg (Xn , Fn )∞


n=0 jest nad-
martyngałem (martyngałem) a ponadto τ1 6 τ2 są dwoma ograniczonymi
momentami stopu. Wówczas ciąg ((Xτ1 , Fτ1 ), (Xτ2 , Fτ2 )) jest nadmartynga-
łem (odpowiednio martyngałem).

Dowód. W dowodzie wykorzystamy elementy rozumowania zawarte w [7]. Za-


uważmy, że zmienne losowe Xτ1 oraz Xτ2 są mierzalne względem odpowiednio
Fτ1 i Fτ2 , gdyż dla ustalonego j oraz i = 1, 2 jest

{ω : Xτi (ω) (ω) < r} ∩ {ω : τi (ω) 6 j} =


[
= ({ω : Xk (ω) < r} ∩ {ω : τi (ω) = k}) =
k6j

{ω : Xk (ω) < r} ∩ {ω : τi (ω) 6 k} ∩ {ω : τi (ω) 6 k − 1}0 ∈ Fj .


[
=
k6j

Niech τ1 6 τ2 6 N . Pokażemy, że dla A ∈ Fτ1 zachodzi


Z Z
Xτ1 dP > Xτ2 dP (2.1)
A A

Ustalmy 0 6 k 6 N . Niech Bk = A ∩ {τ1 = k}. Wtedy Bk1 ∩ Bk2 = ∅


N
dla k1 6= k2 oraz A =
S R
Bk . Udowodnimy, że Xτ2 ∧m dP jest nierosnącą
k=0 Bk
funkcją m, dla m ∈ [k, N ]. Widać, że Bk ∈ Fk ⊂ Fm , {τ2 > m} ∈ Fm , gdyż
na podstawie twierdzenia 2.1

Bj = A ∩ {ω : τj (ω) = j} = A ∩ {ω : τj (ω) 6 j} ∩ {ω : τj (ω) = j} ∈ Fj .

Zatem Bk ∩ {τ2 > m} ∈ Fm . Stąd


Z Z Z
Xτ2 ∧(m+1) dP − Xτ2 ∧m dP = (Xm+1 − Xm )dP 6 0
Bk Bk Bk ∩{τ2 >m}

34
Zauważmy, że dla τ2 6 m zmienne losowe Xτ2 ∧(m+1) i Xτ2 ∧(m) są równe.
W przeciwnym przypadku Xτ2 ∧(m+1) = Xm+1 oraz Xτ2 ∧(m) = Xm . Zatem
z definicji nadmartyngału otrzymujemy nierówność. Udowodniliśmy (2.1).
Natomiast jeżeli (Xn ) jest martyngałem to ciągi (Xn ) oraz (−Xn ) tworzą
nadmartyngały i zachodzi równość w (2.1).

Rysunek 2.1: Ciąg (xn )

Niech [α, β] będzie przedziałem, gdzie α < β. Niech ponadto (xn ) będzie
ciągiem liczbowym. Tzw. „przejście w górę” ciągu możemy opisać następują-
co. Przesuwamy się zgodnie z indeksami ciągu. Przejście w górę zaczyna się w
momencie kiedy wyraz ciągu będzie mniejszy od α, a kończy gdy przekroczy
β. Postępując analogicznie można wyliczyć następne przejścia w górę.
Na rysunku 2.1 został zaznaczony przykładowy przedział [α, β] oraz ciąg
(xn ). Liniami oznaczono przejścia między elementami ciągu. Przejścia w górę
zostały pogrubione. Oznaczmy:

ξ0 = inf{n : xn < α}
ξ1 = inf{n : n > ξ0 , xn > β}
...

35
ξ2k = inf{n : n > ξ2k−1 , xn < α}
ξ2k+1 = inf{n : n > ξ2k , xn > β}

Łatwo zauważyć, że (k+1)-sze przejście ciągu (xn ) w górę przez przedział


[α, β] wyznaczane jest przez moment ξ2k+1 . Zdefiniujmy liczbę przejść w górę
ciągu (xn )

 sup{k > 0 : ξ2k+1 < ∞} gdy ξ1 < ∞
Uαβ =
 0 gdy ξ1 = ∞

Przykład 2.4. Niech



 ||n − 10| − 3| dla n = 1, 2, ..., 22
xn =
 (x − 25)2 dla n = 22, 23, ...

oraz niech[α, β] = [1, 6]. Wtedy

ξ0 = 7, ξ1 = 20, ξ2 = 25, ξ3 = 28 oraz U16 = 2.

Twierdzenie 2.6. Ciąg liczbowy (xn )∞


n=0 jest zbieżny (ewentualnie do nie-
skończoności) wtedy i tylko, gdy Uαβ < ∞ dla wszystkich par liczb wymier-
nych α, β takich, że α < β.

Dowód. W poniższym dowodzie wykorzystamy dowód z [7] (strona 237).


(⇐)
Załóżmy, że ciąg (xn ) nie jest zbieżny. Wtedy istnieją α, β ∈ Q takie, że
lim inf xn < α < β < lim sup xn . Stąd wnioskujemy, że istnieją podciągi
n→∞ n→∞
(xnk ) i (xnl ) takie, że xnk < α i xnl > β dla każdego k, l ∈ N ∪ {0}. Ciąg
(xn ) ma nieskończenie wiele elementów większych od α oraz nieskończenie
wiele elementów mniejszych od β, czyli musi przejść nieskończenie wiele razy
w górę, a więc Uαβ = ∞.
(⇒)
Niech α < β oraz przypuśćmy, że Uαβ = ∞. Mamy wtedy dwa podciągi (xnk )
i (xnl ), dla których xnk < α i xnl > β. Jednak wówczas ciąg (xn ) nie jest
zbieżny.

36
Oznaczmy przez Uαβ [m](ω) liczbę przejść w górę ciągu (X1 (ω), ..., Xm (ω)).
Zatem Uαβ [m] jest zmienną losową Fn -mierzalną dla F0 = {∅, Ω} oraz Fk =
σ(X1 , ..., Xk ).

Twierdzenie 2.7. Niech (Xn , Fn )m


n=1 będzie nadmartyngałem. Wtedy dla
α < β mamy
1
E[Uαβ [m]] 6 E[(Xm − α)− ].
β−α
Dowód. Poniższy dowód zaczerpnięto z [7] (strona 238).
Oznaczmy ξk0 = min(ξk , m). Przeanalizujemy teraz zmienne losowe
Xξ2k+1
0 − Xξ2k
0 . Mamy następujące możliwości:

1. (k + 1)-sze przejście w górę skończyło się przed momentem m, Mamy


Xξ2k+1
0 − Xξ2k
0 = Xξ2k+1 − Xξ2k > β − α, bo ξ2k 6 m oraz ξ2k+1 6 m.

2. (k + 1)-sze przejście w górę trwa. Mamy Xξ2k+1


0 − Xξ2k
0 = Xm − Xξ2k >
−(Xm − α)− , gdyż

0
0
 gdy ξ2k =m
Xm − Xξ2k
0 = 0
Xm − Xξ2k
0 gdy ξ2k < m,
bo ξ2k 6 m oraz ξ2k+1 > m.

3. (k + 1)- sze przejście w górę jeszcze się nie zaczęło przed momentem m.
Mamy Xξ2k+1
0 − Xξ2k
0 = Xm − Xm = 0, bo ξ2k > m oraz ξ2k+1 > m.

W konsekwencji (dla k=0,1,...,m)


m
β −
X
(Xξ2k+1
0 − Xξ2k
0 ) > (β − α)U [m] − (Xm − α) .
α
k=1

Z twierdzenia Dooba mamy E(Xξ2k


0 ) > E(Xξ 0
2k+1
). Po obliczeniu wartości
oczekiwanej lewej i prawej strony mamy 0 > (β −α)E(Uαβ [m])−E(Xm −α)− .
Zmienna losowa Uαβ [m] jest całkowalna, gdyż jest zmienną losową prostą.

Uzasadniając Wniosek sformułowany niżej korzystać będziemy z jednego


z klasycznych twierdzeń o przechodzeniu do granicy pod znakiem całki (jego
dowód znajduje się w [16] (strona 213).

37
Twierdzenie 2.8. (O monotoniczej zbieżności) Niech fn będzie niemale-
jącym ciągiem funkcji nieujemnych, mierzalnych oraz całkowalnych. Jeśli
fn → f dla n → ∞ to
R R
fn dµ zbiega niemalejąco do f dµ.
Ω Ω

Wniosek z twierdzenia 2.7.

Niech (Xn , Fn ) będzie nadmartyngałem takim, że sup E[|Xn |] < +∞. Niech
n
α, β ∈ R, (α < β). Oznaczmy przez Uαβ [∞] granicę niemalejącego ciągu
Uαβ [m]. Wtedy

(β − α)E[Uαβ [∞]] 6 |α| + sup E[|Xn |] < ∞


n

oraz P (Uαβ [∞] = ∞) = 0.

Dowód. Z Twierdzenia 2.7 mamy dla m ∈ N

(β − α)E[Uαβ [m]] 6 E[|Xm − α|] 6 |α| + E[|Xm |] 6 |α| + sup E[|Xn |].
n

Stosując Twierdzenie 2.8 i przechodząc do nieskończoności otrzymujemy pierw-


szą część tezy. Druga jej część jest konsekwencją całkowalności funkcji Uαβ [∞].

Twierdzenie 2.9. (Dooba o zbieżności) Niech (Xn , Fn ) będzie takim


nadmartyngałem, że sup E[|Xn |] < ∞. Wówczas granica X∞ = lim Xn ist-
n n→∞
nieje prawie na pewno i jest prawie wszędzie skończona.

Dowód. Dowód oprzemy na rozumowaniu przedstawionym w [16]. Zdefiniuj-


my Λ = {ω : (Xn (ω)), nie zbiega do granicy w R}
oraz Λa,b = {ω : lim inf Xn (ω) < a < b < lim sup Xn (ω)}. Wtedy
Λ = {ω : lim inf Xn (ω) < lim sup Xn (ω)} =
S
Λa,b
{a,b∈Q:a<b}
Ale
Λa,b ⊂ {ω : Uab [∞](ω) = ∞}

więc na mocy Wniosku z Twierdzenia 2.7. mamy P (Λa,b ) = 0. Ponieważ Λ


jest przeliczalną sumą zbiorów Λa,b zatem P (Λ) = 0, co oznacza istnienie

38
funkcji X∞ = limn→∞ Xn prawie na pewno. Korzystając z lematu Fatou
otrzymamy

E[|X∞ |] = E[lim inf |Xn |] 6 lim inf E[|Xn |] 6 sup E[|Xn |] < ∞,

więc P (X∞ jest skończone) = 1, ze wzgęldu na całkowalność X∞ .

Twierdzenie 2.10. (Zasadnicze twierdzenie o zbieżności martyngałów) Niech


(Xn , Fn ) będzie podmartyngałem oraz sup E[|Xn |] < ∞. Wówczas istnie-
n
je zmienna losowa X taka, że Xn → X z prawdopodobieństwem 1 oraz
E[|X|] 6 sup E[|Xn |].
n

Dowód tego twierdzenia można znaleźć w [1]. Wiele elementów tego dowodu
jest wspólnych z twierdzeniem Dooba o zbieżności.

Twierdzenie 2.11. Jeżeli proces (Xn , Fn )∞


n=0 jest nadmartyngałem oraz
sup E[Xn− ] < ∞ to ciąg (Xn ) jest zbieżny prawie na pewno do zmiennej
n
losowej całkowalnej.

Dowód. Poniższy dowód oparty jest na rozumowaniu zawartym w [7]. Za-


uważmy, że ciąg Uαβ [m] jest niemalejący a więc zbieżny do pewnego Uαβ . Po-
nadto na mocy twierdzenia 2.7 mamy
" #
1 1 |Xm − α| − Xm + α
E[Uαβ [m]] 6 E[(Xm − α)− ] = E 6
β−α β−α 2
" #
1 |Xm | − Xm |α| + α 1 −
6 E + = (E[Xm ] + α+ ) 6
β−α 2 2 β−α
1
6 (sup E[Xn− ] + α+ ) < ∞.
β−α n
W konsekwencji, z prawdopodobieństwem 1 zmienna losowa Uαβ jest skończo-
na dla par α, β ∈ Q, α < β. Na mocy twierdzenia 2.6 ciąg (Xn ) jest zbieżny
(ewentualnie do nieskończoności) z prawdopodobieństwem 1. Pokażemy, że
ta granica jest skończona. Zauważmy, że

|Xn | = Xn+ + Xn− = Xn + 2Xn− ,

39
a więc
E[|Xn |] = E[Xn ] + 2E[Xn− ] 6 E[X0 ] + 2 sup E[Xn− ]
n

gdyż (Xn , Fn ) jest nadmartyngałem. Lemat Fatou daje

E[lim inf |Xn |] 6 lim inf E[|Xn |]


n→∞ n→∞

lim Xn jest prawie wszędzie skończona i całkowalna.


i stąd n→∞

Dowody poniższych dwóch twiedzeń można znależć w [1] (strony 471 i 468).

Twierdzenie 2.12. Niech (Fn )∞


n=1 będzie filtracją zawartą w σ-algebrze F,

gdzie F = σ( Fn ) oraz niech Z oznacza zmienną losową całkowalną. Wte-
S
n=1
dy
E[Z|Fn ] → E[Z|F]

z prawdopodobieństwem 1.

Twierdzenie 2.13. Niech (Xn , Fn ) będzie podmartyngałem. Wtedy dla licz-


by przejść z dołu w górę Uαβ [n] zachodzi

E[|Xn |] + α
E[Uαβ [n]] 6 .
β−α

2.4 Nierówności martyngałowe


Definicja 2.5. Mówimy że funkcja f : R → R jest wypukła, gdy f (αx +
βy) 6 αf (x) + βf (y) dla wszystkich x, y ∈ R oraz dowolnych α, β > 0
spełniających warunek α + β = 1.

Wniosek
Zauważmy, że funkcja wypukła f ma poniższe własności

40
f (z)−f (x)
1. z−x
6 f (y)−f
y−x
(x)
6 f (y)−f
y−z
(z)
o ile x < z < y. Istotnie, zauważmy, że
z−x y−z
y−x
+ y−x = 1. Z definicji wypukłości otrzymamy
!
(z − x)y (y − z)x z−x y−z
f (z) = f + 6 f (y) + f (x) .
y−x y−x y−x y−x

W konsekwencji możemy napisać


z−x z−x
f (z) − f (x) 6 f (y) − f (x)
y−x y−x
a także
y−z y−z
f (z) − f (y) 6 −f (y) + f (x) .
y−x y−x
f (z)−f (x) f (y)−f (x) f (y)−f (z)
Zatem z−x
6 y−x
6 y−z
.

2. Pochodne lewostrone i prawostronne funkcji f istnieją w każdym punk-


cie dziedziny i są rosnące. W rzeczy samej, z 1. wynika, że funkcja
f (x+h)−f (x)
h
jest rosnąca dla h 6= 0. Stąd funkcja f ma lewostronną i
prawostronną pochodną w punkcie x oraz

f (x + s) − f (x) f (x + t) − f (x)
6 f−0 (x) 6 f+0 (x) 6
s t
gdzie s < 0 < t.

3. Dla dowolnych x, y ∈ R zachodzi nierówność

f (x) + f+0 (x)(y − x) 6 f (y).

Istotnie, jeśli y < x to wystarczy przyjąć na podstawie punktu 2. x+s =


y. W przeciwnym przypadku podstawiamy x + t = y.

Twierdzenie 2.14. (Nierówność Jensena) Niech X będzie zmienną lo-


sową na przestrzeni (Ω, Σ, P ) taką, że E[|X|] < +∞ oraz niech f będzie
funkcją wypukłą. Wtedy

f (E[X]) 6 E[f ◦ X].

41
Dowód. Z powyższej uzasadnionionej własności 3. wynika dla dowolnej liczby
x ∈ R, że
f (x) > f (E[X]) + f+0 (E[X])(x − E[X]).

A zatem dla każdego ω ∈ Ω otrzymujemy

f (X(ω)) > f (E[X]) + f+0 (E[X])(X(ω) − E[X]).

Całkując powyższą nierówność otrzymujemy tezę:

E[f ◦ X] > f (E[X]) + E[f+0 (E[X])(X − E[X])] =

= f (E[X]) + f+0 (E[X])(E[X] − E[X]) = f (E[X]).

Twierdzenie 2.15. (Nierówność Jensena dla warunkowych wartości


oczekiwanych) Niech X będzie zmienną losową na przestrzeni (Ω, Σ, P )
taką, że E[|X|] < +∞ oraz niech f będzie funkcją wypukłą. Wtedy

f (E[X|]) 6 E[f (X)|F]

z prawdopodobieństwem 1, gdzie F jest σ-algebrą zawartą w Σ.

Dowód jest analogiczny do dowodu twierdzenia 2.14. Znajduje się w [1]


(strona 450).

Twierdzenie 2.16. 1. Niech (Xn , Fn ) będzie martyngałem oraz niech f


będzie funkcją wypukłą. Jeśli zmienne losowe f (Xn ) są całkowalne to
ciąg (f (Xn ), Fn ) jest podmartyngałem.

2. Niech (Xn , Fn ) będzie podmartyngałem oraz niech f będzie niemalejącą


funkcją wypukłą. Jeżeli zmienne losowe f (Xn ) są całkowalne to ciąg
(f (Xn ), Fn ) jest podmartyngałem.

Dowód. Dowód na podstawie [1] (strona 466).

42
1. Z definicji martyngału zachodzi równość E[Xn+1 |Fn ] = Xn . Po zło-
żeniu z funkcją f otrzymujemy f (E[Xn+1 |Fn ]) = f (Xn ). Funkcja f
jest wypukła, zatem po zastosowaniu twiedzenia 2.15, otrzymujemy
f (Xn ) = f (E[Xn+1 |Fn ] 6 E[f (Xn+1 )|F].

2. Wykorzystując defincję podmartyngału otrzymujemy E[Xn+1 |Fn ] >


Xn . Funkcja f ject niemalejąca, więc f (E[Xn+1 |Fn ] > f (Xn ). Podob-
nie jak w 1. korzystając z wypukłości f możemy napisać f (Xn ) 6
f (E[Xn+1 |Fn ]) 6 E[f (Xn+1 )|F]

Twierdzenie 2.17. (Nierówność Kołmogorowa) Niech X1 , ..., Xn będą


j
P
niezależnymi zmiennymi losowymi i niech Sj = Xi dla 1 6 j 6 n.
i=1

a. Jeśli E[Xi ] = 0 oraz E[Xi2 ] < ∞, to dla dowolnego ε > 0


E[Sn2 ]
P ( max |Si | > ε) 6
16i6n ε2

b. Jeżeli ponadto istnieje C > 0 takie, że P (|Xi | 6 C) = 1 dla i =


1, 2, ..., n, to w przypadku E[Sn2 ] > 0
(C + ε)2
P ( max |Si | > ε) > 1 −
16i6n E[Sn2 ]
dla ε > 0.

Dowód. Niech A = {ω : max |Si | > ε} oraz A1 = {ω : |S1 (ω)| > ε},
16i6n
j−1
{ω : |Si (ω)| < ε} ∩ {ω : |Sj (ω)| > ε} dla j = 2, 3, ..., n. Oczywiście
T
Aj =
i=1
n
S
zbiory Ai , i = 1, ..., n są parami rozłączne, a także A = Aj .
i=1

a. Ze względu na E[Xj ] = 0 otrzymujemy


n
E[Sn2 ] > E[Sn2 χA ] = E[Sn2 χAj ] =
X

j=1

n
E[((Sn − Sj )2 + Sj2 + 2(Sn − Sj )Sj )χAj ] >
X
=
j=1

43
n n−1
E[Sj2 χAj ] + 2
X X
> E[(Sn − Sj )Sj χAj ]
j=1 j=1

Niezależność zmiennych losowych X1 , ..., Xn pociąga niezależność zmien-


nych Sn − Sj i Sj χAj dla j = 1, ..., n − 1. Stąd E[(Sn − Sj )Sj χAj ] =
E[Sn − Sj ]E[Sj χAj ] = 0.
W konsekwencji
n n
E[Sn2 ] > E[Sj2 χAj ] > ε2 P (Aj ) = ε2 P (A),
X X

j=1 j=1

a więc wykazaliśmy a.

b. Powtarzając rozumowanie z początku dowodu części a. możemy napisać


n
E[Sn2 χA ] E[Sn2 χAj ] =
X
=
j=1

n n n
2
E[Sj2 χAj ]
X X X
= E[(Sn − Sj ) χAj ] + +2 E[(Sn − Sj )Sj χAj ] 6
j=1 j=1 j=1
n n
2 2
X X
6 E[(Sn − Sj ) χAj ] + (C + ε) P (Aj )
j=1 j=1

ponieważ dla ω ∈ Aj mamy |Sj (ω)| 6 |Sj−1 (ω)| + |Xj (ω)| < ε + C
prawie wszędzie.
Niezależność zmiennych losowych X1 , ..., Xn implikuje, że dla dowolne-
go k ∈ {1, ..., n} zachodzi
n n
Xj )2 ] = E[ Xj2 +
X X X
E[( Xi Xj ] =
j=k j=k i,j∈{k,...,n},i6=j

n n
Xj2 ] + E[Xj2 ]
X X X
= E[ E[Xi ]E[Xj ] =
j=k i,j∈{k,...,n} j=k
i6=j

gdyż E[Xi ] = 0. W konsekwencji


n n n
2
E[Xj2 ] Xj )2 ] = E[Sn2 ].
X X X
E[( Xj ) ] 6 = E[(
j=k j=1 j=1

44
Wobec powyższego i niezależności zmiennych losowych X1 , ...Xn
n n
E[Sn2 χA ] 6 E[(Sn − Sj )2 χAj ] + (C + ε)2
X X
P (Aj ) =
j=1 j=1

n n
Xk )2 ] + (C + ε)2 P (A) 6 [E[Sn2 ] + (C + ε)2 ]P (A).
X X
= P (Aj )E[(
j=1 k=j+1

Z drugiej strony

E[Sn2 χA ] = E[Sn2 ]−E[Sn2 χΩ\A ] > E[Sn2 ]−ε2 P (Ω\A) = E[Sn2 ]−ε2 +ε2 P (A).

Stąd
E[Sn2 ] − ε2 (ε + C)2 (ε + C)2
P (A) > = 1− > 1− .
E[Sn2 ] − ε2 + (ε + C)2 E[Sn2 ] + 2εC + ε2 E[Sn2 ]

Twierdzenie 2.18. (Nierówność maksymalna dla podmartyngałów) Załóż-


my, że (Xi , Fi )ni=1 jest podmartyngałem. Wówczas dla r > 0 zachodzi
Z
rP (max Xi > r) 6 Xn dP 6 E[Xn+ ] 6 E[|Xn |]
i6n
{max Xi >r}
i6n

Dowód. Zdefiniujmy τ = inf{i ∈ N : Xi > r}. Zauważmy, że tak określone τ


jest pierwszym momentem, który przekracza poziom r. Zdefiujmy ponadto
zbiory A = {max Xi > r} oraz Ai = A ∩ {τ = i}, gdzie i = 1, 2, ..., n.
i6n
n
Zauważmy, że Ai ∈ Fi dla i 6 n oraz A =
S
Ak . Stąd wynika
k=1
Z n Z
X n Z
X n Z
X
Xn dP = Xn dP = E[Xn |Fi ]dP > Xi dP >
A i=1 A i=1 A i=1 A
i i i

n
X
>r P (Ai ) = rP (A).
i=1
Zatem otrzymujemy tezę, gdyż
Z
rP (max Xi > r) 6 Xn dP 6 E[Xn+ ] 6 E[|Xn |].
i6n
A

45
Uwaga 1. Przyjmijmy założenia takie samie jak w pierwszej części
twierdzenia 2.16. Dla martyngału (Xn , Fn ) i funkcji wypukłej f (t) = t2
proces (f (Xn ), Fn ) jest podmartyngałem, co pociąga, że spełnia nierówność
z twierdzenia 2.18. Niech Ui będą niezależnymi zmiennymi losowymi takimi,
k
że E[Ui ] = 0, V ar[Ui ] < ∞ oraz Xk =
P
Ui , gdzie k = 1, 2, ..., n. Wtedy
i=1
otrzymujemy nierówność Kołmogorowa
k n
1 X
E[Uk2 ].
X
P (max | Ui | > r) 6
k6n
i=1 r2 k=1

Uwaga 2. Niech (Mn , Fn )∞ p


n=0 będzie martyngałem, takim że E[|Mn | ] < ∞,
dla pewnego p ∈ [1, ∞). Wtedy dla dowolnego r > 0 i n ∈ N mamy:

rp P ({ max |Mk | > r}) 6 E[|Mn |p ].


06k6n

2.5 Martyngały z czasem odwróconym


Definicja 2.6. Jeśli ciąg (X−n , F−n )1n=∞ spełnia warunki definicji martyn-
gału, to mówimy, że jest on martyngałem z czasem odwróconym.

Warto zauważyć, że martyngał z czasem odróconym nie ma elementu


pierwszego, ma za to ostatni.

Definicja 2.7. Mówimy, że na przestrzeni mierzalnej (Ω, F) miara µ jest


absolutnie ciągła względem miary ν, co oznaczamy symbolem µ  ν, gdy
zachodzi:
∀A∈F ν(A) = 0 ⇒ µ(A) = 0.

Ponadto jeżeli zachodzi µ  ν oraz ν  µ to mówimy o równoważności miar


µ i ν co oznaczamy pisząc µ ≡ ν.
Dla miary skończonej ν powyższa definicja jest równoważna warunkowi

∀ε>0 ∃δ>0 ∀A∈F ν(A) < δ ⇒ µ(A) < ε.

46
Definicja 2.8. Mówimy, że ciąg zmiennych losowych (Xn )∞
n=1 jest jednostaj-
nie (jednakowo) całkowalny jeśli:
Z
lim sup
c→∞
|Xn |dµ = 0.
n
{Xn >c}

Twierdzenie 2.19. Jeśli µ(Ω) < ∞, a limn→∞ fn = f prawie wszędzie dla


jednostajnie całkowalnych funkcji fn to f jest całkowalna oraz
Z Z
fn dµ → f dµ.
Ω Ω

Dowód twierdzenia znajduje się [1] (strona 215).

Twierdzenie 2.20. Jeżeli Fn jest dowolną rodziną σ−algebr zawartą w F


oraz X jest całkowalną zmienną losową, to warunkowe wartości oczekiwane
E[X|Fn ] są jednostajnie całkowalne.

Dowód tego twierdzenia można znaleźć w [1] (strona 471).

Twierdzenie 2.21. Niech (X−n , F−n ) będzie martyngałem z czasem odwró-


conym. Wtedy granica X∞ = n→∞
lim X−n istnieje i jest całkowalna. Ponadto
zachodzi E(X∞ ) = E(X−n ).

Dowód twierdzenia jest analogiczny jak twierdzenia 2.6.

Twierdzenie 2.22. Niech X będzie całkowalną zmienną losową oraz niech



(Fn )∞
n=1 będzie ciągiem σ−algebr zawartym w F0 = Fn , takim że Fn+1 ⊂
T
n=1
Fn . Wtedy E[X|Fn ] → E[X|F0 ] z prawdopodobieństwem 1.

Dowód. W poniższym dowodzie wykorzystano elementy rozumowania za-


warte w [1]. Zdefiniujmy ciąg (X−n ) równaniem X−n = E[X|Fn ]. Wte-
dy (X−n , Fn )1n=∞ jest martyngałem. Na podstawie twierdzenia 2.21 granica
Y = n→∞
lim X−n tego ciągu istnieje i jest całkowalna. Ponadto z twierdzenia
2.20 ten ciąg zmiennych losowych jest jednostajnie całkowalny. Zmienna lo-
sowa Y jest Fk mierzalna dla k 6 n, gdyż jest granicą zmiennych losowych

47
E[X|Fn ]. Z dowolności k wynika, że Y jest również F0 mierzalne. Z jedno-
stajnej całkowalności mamy dla A ∈ F0
Z Z Z
Y dP = lim
n
E(X|Fn )dP = lim
n
E(E(X|Fn )|F0 )dP =
A A A
Z Z
= lim
n
E(X|F0 ) = E(X|F0 )dP.
A A

Stąd wynika Y = E(X|F0 ) prawie wszędzie.

48
Rozdział 3

Zastosowania martyngałów

Celem tego rozdziału jest pokazanie jak można zastosować martynga-


ły do różnych zagadnień związanych z sytuacjami, które możemy spotkać
w życiu, jak i w dowodzeniu pewnych twierdzeń. Najpierw zostaną przyto-
czone twierdzenia Dooba o dekompozycji martyngału oraz o reprezentacji
martygału. Później opiszemy sposób wyceny europejskiej opcji kupna wraz
z postacią portfela replikującego wypłatę z powyższego kontraktu. Następ-
nym poruszonym zagadnieniem będzie wykorzystanie teorii martyngałów dla
dowodu twierdzenia o granicy pochodnych Radona-Nikodyma. W kolejnym
podrozdziale będziemy ustalać, który z dwóch zadanych rozkładów prawdo-
podobieństwa bardziej odpowiada danemu zdarzeniu losowemu, aż dojdziemy
do Twierdzenia Kakatuniego. Później wybór będziemy opierać na podstawie
zbioru krytycznego, który stworzymy uwzględniając koszty podjęcia błęd-
nej decyzji. Będzie to tzw. zagadnienie dyskryminacji. W końcu obliczymy
prawdopodobieństwo ruiny gracza w pewnej grze.

3.1 Twierdzenie o reprezentacji martyngału


Definicja 3.1. Mówimy, że proces stochastyczny (Xn )N
n=0 jest prognozowal-
ny, jeżeli zmienna losowa Xn jest Fn−1 mierzalna dla każdego n > 0.

Warto zauważyć, że z własności warunkowej wartości oczekiwanej zachodzi

49
E[Xn |Fn−1 ] = Xn dla każdego n naturalnego, gdzie (Xn ) jest procesem
prognozowalnym.

Przykład 3.1. Udowodnimy, że martyngał prognozowalny (Xn , Fn ) jest pra-


wie wszędzie stały. Zauważmy, że z definicji martyngału E[Xn+1 |Fn ] = Xn ,
a z prognozowalności E[Xn+1 |Fn ] = Xn+1 . Stąd Xn = Xn+1 prawie wszędzie.

Twierdzenie 3.1. (Dooba) Niech ciąg (Xn , Fn ) będzie podmartyngałem.


Wtedy można go przedstawić jednoznacznie w postaci tzw. dekompozycji
Dooba
Xn = Mn + An ,

gdzie (Mn , Fn ) jest martyngałem, a (An ) niemalejącym ciągiem zmiennych


losowych prognozowalnych nazywanym kompensatorem.

Dowód. Na podstawie [2] oraz [6]. Załóżmy M0 = X0 oraz A0 = 0. Zdefiniuj-


my, dla n = 1, 2, 3, ... następujące ciągi
n−1
X
Mn = M0 + [Xi+1 − E[Xi+1 |Fi ]]
i=0

oraz
n−1
X
An = [−Xi + E[Xi+1 |Fi ]].
i=0

Wtedy pierwsza część tezy jest spełniona. Istitnie udowodnimy, że (Mn , Fn )


jest martyngałem. Zauważmy, że dla i 6 n zmienne losowe Xi są Fn mierza-
n
lne. W konsekwencji E[Mn+1 |Fn ] = E[M0 + [[Xi+1 − E[Xi+1 |Fi ]]|Fn ] =
P
i=0
n
= E[M0 |Fn ] + (E[Xi+1 |Fn ] − E[E[Xi+1 |Fi ]|Fn ]) =
P
i=0
n−1
[[Xi+1 − E[Xi+1 |Fi ] + E[Xn+1 |Fn ] − E[E[Xn+1 |Fn ]|Fn ] =
P
= X0 +
i=0
n−1
[Xi+1 − E[Xi+1 |Fi ]] + E[Xn+1 |Fn ] − E[Xn+1 |Fn ] = Mn .
P
= X0 +
i=0
Ponadto proces (An , Fn ) tworzy ciąg prognozowalny. Zauważmy, iż, zachodzi
An+1 − An = E[Xn+1 |Fn ] − Xn > Xn − Xn = 0, gdyż ciąg (Xn ) jest podmar-
tyngałem.
Wykażemy teraz jednoznaczność rozkładu. Niech (Mn∗ ) i (A∗n ) są inną pa-
rą procesów spełniającą warunki twierdzenia. Wówczas dla każdego n =

50
0, 1, 2, ... jest spełniona równość Mn + An = Mn∗ + A∗n . Zatem dla procesu
Un = Mn − Mn∗ otrzymujemy Un = Mn − Mn∗ = A∗n − An . Z powyższych
równości wynika, że Un jest martyngałem i jest prognozowalny, czyli na pod-
stawie przykładu 3.1 jest stały prawie wszędzie.

Przykład 3.2. Załóżmy, że ciąg ograniczonych zmiennych losowych (Yn )∞


n=0
jest prognozowalny, a ciąg (Xn , Fn )∞
n=0 jest martyngałem. Niech ponadto
Zn = X0 + Y1 (X1 − X0 ) + ... + Yn (Xn − Xn−1 ). Wówczas zmienne losowe
Zn są całkowalne, a proces (Zn , Fn )∞
n=0 jest martyngałem i jest nazywany
transformatą martyngałową (Xn ) przez (Yn ). Zakładamy, że F0 = {∅, Ω}.

Dowód. Procesy (Xn ) i (Yn ) są całkowalne więc całkowalny jest również pro-
ces (Zn ).
E[Zn+1 |Fn ] = E[(X0 + Y1 (X1 − X0 ) + ... + Yn+1 (Xn+1 − Xn ))|Fn )] =
= E[X0 |Fn ] + E[Y1 (X1 − X0 )|Fn )] + ... + E[Yn+1 (Xn+1 − Xn )|Fn )] =
= E[X0 |Fn ] + Y1 E[(X1 − X0 )|Fn )] + ... + E[Yn+1 Xn+1 |Fn ] − E[Yn+1 Xn |Fn ] =
= X0 + Y1 (X1 − X0 ) + ... + Yn (Xn − Xn−1 ) + Yn+1 E[Xn+1 |Fn ]−
−Xn E[Yn+1 |Fn ] = Zn + Yn+1 Xn − Xn Yn+1 = Zn .
Zatem zachodzi E[Zn+1 |Fn ] = Zn , więc Zn jest martyngałem.

Niech S oznacza dwupunktowy zbiór {−1, 1} i niech Σ = σ(S). Niech


ponadto p ∈ (0, 1) i niech µ będzie miarą probalistyczną na (S, Σ) taką, że
µ({1}) = p = 1 − µ({−1}).
Niech N ∈ N. Zdefiniujmy (Ω, F, P ) = (S, Σ, µ)N . Zdarzenia elementarne
na tej przestrzeni są postaci ω = (ω1 , ω2 , ..., ωN ), gdzie ωk ∈ {−1, 1}.
Zdefiniujmy εk : Ω → R następująco εk (ω) = ωk , więc (ε1 , ε2 , ..., εN ) są
niezależnymi zmiennymi losowymi o identycznym rozkładzie. Niech
n
X
Zn = (εk − 2p + 1) oraz Fn = σ(Z0 , Z1 , ..., Zn ) = σ(ε1 , ε, ...εn )
k=1

dla 0 6 n 6 N. Zauważmy, że E[εk ] = 2p−1. Stąd wynika, że ciąg (Zn , Fn )N


n=0
jest martyngałem, ponieważ jest on sumą niezależnych zmiennych losowych
o zerowej wartości oczekiwanej (por. przykład 2.2).

51
Twierdzenie 3.2. Niech Y będzie zmienną losową o wartościach w Rn i
niech X będzie zmienną losową mierzalną względem σ(Y ). Wtedy istnieje
funkcja borelowska h : RN → R taka, że X = h(Y ).

Dowód powyższego twierdzenia znajduje się w [7] (strona 134).

Twierdzenie 3.3. Niech X i Y będą niezależnymi zmiennymi losowymi oraz


niech f będzie ograniczoną funkcją borelowską. Wówczas

E[f (X, Y )|σ(Y )] = E[f (X, t)]|t=Y .

Wskazówki na temat sposobu udowodnienia tego twierdzenia znajdują się w


[7] (strona 422).

Twierdzenie 3.4. Jeżeli (Yn , Fn ) jest martyngałem, to istnieje dokładnie


jeden proces prognozowalny (An ) taki, że
n
X
Yn = Y0 + Ak (Zk − Zk−1 ). (3.1)
k=1

Dowód. Poniższy dowód został oparty na rozumowaniu zawartym w [7]. Aby


proces (At ) spełniał równanie (3.1) musi zachodzić

Yn − Yn−1
An = .
Zn − Zn−1
Taka postać procesu wymusza jego jednoznaczność. Z Twierdzenia 3.2 i faktu,
iż zmienna losowa Yn jest Fn -mierzalna mamy

Yn (ω) = fn ((ε1 (ω), ..., εn (ω)) = fn (ω1 , ..., ωn ).

Niech
fn (ω1 , ..., ωn−1 , 1) − fn−1 (ω1 , ..., ωn−1 )
An = .
2(1 − p)
Stąd widać, że proces (An ) jest prognozowalny. Ciąg (Yn , Fn ) jest martynga-
łem. Zmienne losowe εk są niezależne. Ponadto z Twierdzenia 3.3 wynika

E[Yn |Fn−1 ] = pfn (ω1 , ..., ωn−1 , 1) + (1 − p)fn (ω1 , ...., ωn−1 , −1) =

52
= fn−1 (ω1 , ..., ωn−1 ) = Yn−1

oraz
fn (ω1 , ..., ωn−1 , 1) − fn−1 (ω1 , ..., ωn−1 ) fn (ω1 , ..., ωn−1 , −1) − fn−1 (ω1 , ..., ωn−1 )
= .
2(1 − p) −2p
(3.2)
Zatem
Yn − Yn−1
An = .
Zn − Zn−1

3.2 Wycena opcji


Rozważmy rynek, na którym handlujemy obligacjami o ustalonej stopie
procentowej r i akcjami, których cena zmienia się losowo. Ustalmy N ∈ N.
Przypuśćmy, że wartość akcji i obligacji zmienia się w momentach 1, 2, ..., N .
Oznaczmy dla n = 1, 2, ..., N :
- Bn = (1 + r)n B0 wartość jednej obligacji w czasie (n, n + 1)
- Sn wartość jednej akcji w otwartym przedziale czasowym (n, n + 1).

Zaraz po momencie 0 początkowy kapitał naszego portfela wynosi x. Po-


siadamy A0 akcji i V0 obligacji. Zatem mamy

x = A0 S0 + V0 B0 .

Pomiędzy momentami 0 i 1 inwestujemy nasz kapitał w akcje i obligacje tak,


że tuż przed chwilą 1 mamy A1 akcji V1 obligacji, czyli

x = A1 S0 + V1 B0 .

Niech (A1 , V1 ) reprezentuje portel składający się akcji i obligacji po momencie


1. Podobnie po chwili n − 1 (dla n > 1) mamy An−1 jednostek akcji i Vn−1
jednostek obligacji o wartości

Xn−1 = An−1 Sn−1 + Vn−1 Bn−1 ,

53
gdzie Xn oznacza wartość portfela w chwili n. Zakładamy, że transakcje nic
nie kosztują. Poprzez sprzedawanie akcji za obligacje lub obligacji za akcje
możemy zmienić swój portfel, w czasie (n − 1, n), w taki sposób, że wartość
portfela tuż przed chwilą n wyniesie

Xn−1 = An Sn−1 + Vn Bn−1 dla n > 1.

Taki portfel nazywamy samofinasującym. Następnie, tuż chwili n jego war-


tość wyniesie
Xn = An Sn + Vn Bn . (3.3)

Zatem zmianę wartości portfela możemy przedstawić następująco

Xn − Xn−1 = An (Sn − Sn−1 ) + Vn (Bn − Bn−1 ). (3.4)

Niech teraz Bn − Bn−1 = rBn−1 oraz Sn − Sn−1 = Rn Sn−1 , gdzie Rn jest


losową stopą procentową dla akcji w momencie n. Zatem otrzymujemy

Xn −Xn−1 = An (Sn −Sn−1 )+Vn (Bn −Bn−1 ) = An Rn Sn−1 +rVn Bn−1 +rAn Sn−1 −

−rAn Sn−1 = r(Vn Bn−1 +An Sn−1 )+An Sn−1 (Rn −r) = rXn−1 +An Sn−1 (Rn −r).

Stąd
Xn − (1 + r)Xn−1 = An Sn−1 (Rn − r).

Oznaczmy
Yn = (1 + r)−n Xn . (3.5)

Zauważmy, że Yn to zdyskontowana wartość potfela z chwili n. Wówczas

Yn − Yn−1 = (1 + r)−n An Sn−1 (Rn − r). (3.6)

Niech Ω, F, εn , Zn , Fn będą takie same jak w poprzednim podrozdziale.


Zbudujemy model, w którym Rn przyjmuje tylko wartości a, b z przedziału
(−1, ∞), gdzie a < r < b. Mamy

a+b b−a
Rn = + εn . (3.7)
2 2

54
Wtedy
1 1
Rn − r = (b − a)(εn − 2p + 1) = (b − a)(Zn − Zn−1 ), (3.8)
2 2
gdzie
r−a
p= . (3.9)
b−a
Europejską opcją kupna nazywamy kontrakt zawarty tuż po chwili 0 po-
zwalający na kupno danej liczby akcji w momencie N za cenę K. K jest
nazywaną ceną wykonania. Opcję wykonamy jeśli Sn > K, nie wykonamy
w przeciwnym wypadku. Zatem wartość takiego kontraktu w momencie N
wynosi (SN − K)+ . Możemy zadać pytanie ile powinniśmy zapłacić za opcję
w chwili 0, aby cena była sprawiedliwa. Odpowiedzi na to pytanie udzielili
Black i Scholes. Bazuje ona na teorii tzw. transakcji hedgingowych, które
mają za zadanie zmniejszenie ryzyka związanego z wahaniem cen.
Strategia hedgingowa z kapitałem początkowym x dla opisanej opcji jest
schematem zarządzania portfelem {(An , Vn ) : 1 6 n 6 N }, gdzie procesy
(An ) oraz (Vn ) są prognozowalne względem filtracji (Fn ) i gdzie Xn spełnia
równania (3.3) oraz (3.4). Zachodzą ponadto

1. X0 (ω) = x,

2. Xn (ω) > 0 (0 6 n 6 N ),

3. XN (ω) = (SN − K)+

dla każdego ω.
Zauważmy, że Black i Scholes wymagają iż Xn (ω) > 0. Nie wymagają
natomiast tego, aby procesy (An ) i (Vn ) były dodatnie. Ujemna wartość Vn
dla pewnego n oznacza pożyczenie obligacji na ustalony procent r, a dla
ujemnego An oznacza krótką sprzedaż akcji.

Twierdzenie 3.5. Strategia hedgingu z kapitałem początkowym x istnieje


wtedy i tylko wtedy, gdy

x = x0 = E[(1 + r)−N (SN − K)+ ],

55
gdzie E jest wartością oczekiwaną względem miary P z poprzedniego pod-
rozdziału, a p jest takie jak w równaniu (3.9). To jest jedyna strategia z
kapitałem początkowym x0 gdzie nie ma krótkiej sprzedaży.

Dowód. Wykorzystano wiadomości [16] (strona 158) oraz odwozorowano do-


wód i objaśnienia [7] (strony 261 i 458). W definicji strategii hedgingu nie jest
wspomniane o zasadniczej mierze probabilistystycznej. Ponieważ wymagamy,
że strategia zachodzi „dla każdego ω” powinniśmy rozważyć tylko miary na
Ω dla których każdy punkt ω ma dodatnie prawdopodobieństwo. Oczywiście
miara P jest taką miarą.
Niech strategia hedgingu ma wartość początkową x i niech (An ), (Vn ),
(Xn ), (Yn ) oznaczają towarzyszące procesy. Z równości (3.6) i (3.7) zachodzi
t
X
Yt = Y0 + Fk (Zk − Zk−1 ),
k=1

gdzie proces (Fn ) jest prognozowalny oraz


1
Fn = (b − a)(1 + r)−n An Sn−1 .
2
Oczywiście (Fn ) jest ograniczony, gdyż jest skończenie wiele kombinacji n i
ω. Ponieważ (Zn , Fn ) jest martyngałem to (Yn , Fn ) jako transformata mar-
tyngałowa jest martyngałem względem miary P . Niech Yn będzie takie samo
jak w równaniu (3.5). Z warunków Y0 = x i YN = (1 + r)−N (Sn − K)+ otrzy-
mujemy x = x0 .
Niech teraz
Yn = E[(1 + r)−N (SN − K)+ |Fn ].

Wtedy (Yn , Fn ) jest martyngałem. Stosując twierdzenie 3.4 do równania (3.8)


widzimy, że dla pewnego jedynego procesu (An ) zachodzi (3.6). Zdefiniujmy
Xn − An Sn
Xn = (1 + r)n Yn , oraz Vn = .
Bn
Wtedy zachodzą równania (3.3) oraz (3.4) ponieważ

X0 = x i XN = (SN − K)+ .

56
Pozostaje udowodnić, że proces (An ) nie jest nigdy ujemny. Nasz portfel jest
samofinansujący, więc zachodzi

An−1 Sn−1 + Vn−1 Bn−1 = An Sn−1 + Vn Bn−1

co jest równoważne warunkowi


!
Xn Xn−1 Sn Sn−1
− = An − . (3.10)
Bn Bn−1 Bn Bn−1
Zauważmy bowiem, że jeśli portfel jest samofinansujący to mamy
Xn Xn−1 An Sn + Vn Bn An−1 Sn−1 + Vn−1 Bn−1
− = − =
Bn Bn−1 Bn Bn−1
Sn Sn−1
= An + Vn − An − Vn .
Bn Bn−1
Jeśli natomiast spełnione jest równanie (3.10) to

An−1 Sn−1 + Vn−1 Bn−1 An Sn−1


Vn − =− .
Bn−1 Bn−1
Zatem na podstawie powyższych rozważań wynika, że An > 0 wtedy i tylko
Xn
wtedy, gdy zachodzi Yn − Yn−1 > 0 ⇔ Zn − Zn−1 > 0, gdzie Yn = Bn
.
Ponieważ mamy Zn − Zn−1 > 0 ⇔ Rn = b ⇔ Sn = (1 + b)Sn−1 , musimy
pokazać, że na zbiorze {Rn = b} zachodzi

E[(SN − K)+ |Fn ] > E[(SN − K)+ |Fn−1 ],

natomiast na zbiorze {Rn = a} zachodzi nierówność odwrotna. Niech teraz


Xn Xn
Bn
= 1 + Rn . Wówczas zmienne losowe Bn
(dla 0 6 n 6 N ) są niezależne i
n
Q Xk
Sn = Bk
. Na podstawie Twierdzenia 3.3 mamy
k=1

" N
! #+
+
Y Xk
E[(SN − K) |Fn−1 ] = E x −K ,
k=n Bk |x=Sn−1

a stąd wynikają żądane równości.

57
Uwaga. Niech Xn = (1 + r)n Yn . Jeśli X0 jest kapitałem początkowym to
2Bn
portfel o składzie An = Fn (b−a)Sn−1
akcji oraz Vn = (Xn − An Sn )Bn−1
obligacji jest jedynym portfelem replikującym wypłatę (SN − K)+ . Co
więcej jest on samofinasujący i prognozowalny.

Dowód. Poniższy dowód został odwzorowany z [7]. Mamy (SN − K)+ =


= BN YN = XN = AN SN + VN BN . Prognozowalność ciągu An wynika z
prognozowalności procesu Fn . Aby wykazać, że portfel jest samofinansujący
pokażemy, że zachodzi równanie (3.10). Dla dowodu wykorzystamy postać
martyngału (Yn , Fn ) i procesu Rn oraz definicję An wraz z równaniem (3.8).
Zatem mamy
Xn Xt−1 1 (Rn − r)
− = Fn (Zn − Zn−1 ) = (b − a)(1 + r)−n An Sn−1 (2 )=
Bt Bt−1 2 b−a
!
Sn−1 Sn−1 Sn − Sn−1 (1 + r) Sn Sn−1
= An (Rn − r) = An = An − .
Bn Bn Sn−1 Bn Bn−1
Aby dowieść prognozowalność Vn wystarczy zauważyć, że An jest
prognozowalny oraz zachodzi
An − An+1
Vn+1 − Vn = Sn .
Bn

3.3 Granica pochodnych Radona-Nikodyma


Twierdzenie 3.6. (Radona - Nikodyma) Niech µ i ν będą miarami
σ−skończonymi na przestrzeni mierzalnej (S, Σ). Ponadto niech ν będzie
dodatnia. Jeżeli µ jest absolutnie ciągła względem ν to istnieje funkcja cał-
kowalna f : S → R wobec ν taka, że dla każdego zbioru A ∈ Σ zachodzi
Z
µ(A) = f dν. (3.11)
A

Ponadto funkcja f jest ustalona z dokładnością do zbioru miary zero, tzn.


jeśli funkcje f i g spełniają tezę twierdzenia to ν({ω ∈ S : f (ω) 6= g(ω)}) = 0.

58
Dowód twierdzenia znajduje się w [1] (strona 425).

Definicja 3.2. Funkcję f będziemy nazywać gęstością lub pochodną Radona-



Nikodyma µ względem ν i oznaczać przez dν
.

Definicja 3.3. Klasę M podzbiorów zbioru Ω nazywamy monotoniczną,


jeśli:

• A1 , A2 , ... ∈ M oraz A1 ⊂ A2 ⊂ ... implikuje An ∈ M.


S
n

• A1 , A2 , ... ∈ M oraz A1 ⊃ A2 ⊃ ... implikuje An ∈ M.


T
n

Twierdzenie 3.7. (O klasach monotonicznych) Niech F będzie ciałem, a


M klasą monotoniczną. Jeżeli F ⊂ M, to σ(F) ⊂ M.

Dowód tego twierdzenia można znaleźć w [1] (strona 51).

Definicja 3.4. Miary probabilistyczne µ i ν na przestrzeni mierzalnej (Ω, Σ)


są wzajemnie osobliwe (singularne) jeżeli istnieje taki zbiór A ∈ Σ, że µ(Ω \
A) = ν(A) = 0.

Twierdzenie 3.8. Niech (Ω, F, P ) będzie przestrzenią probabilistyczną, ν


miarą skończoną na σ-algebrze F oraz Fn jest filtracją taką, że n→∞
lim Fn =
F∞ ⊂ F. Niech ν będzie miarą absolutnie ciągłą względem miary P na σ-
algebrze Fn a zmienna losowa Xn pochodną Radona-Nikodyma ν względem
P . Wtedy Xn → X z prawdopodobieństwem 1, gdzie X jest zmienną losową
całkowalną.
Ponadto jeśli miara ν jest absolutnie ciągła względem miary P na σ-algebrze
F∞ , to zmienna losowa X jest pochodną Radona-Nikodyma ν względem P .
Co więcej jeśli miary P i ν są wzajemnie osobliwe na σ-algebrze F∞ , to X = 0
z prawdopodobieństwem 1.

Dowód. Rozumowanie oparte na dowodzie zawartym w [1] (strona 473). Je-


dνn
żeli Xn = dP
, gdzie νn = ν|Fn to dla każdego A ∈ Fn zachodzi
Z
Xn dP = ν(A).
A

59
Zauważmy, że jeśli A ∈ Fn to również A ∈ Fn+1 , więc
Z
Xn+1 dP = ν(A).
A

A zatem dla A ∈ Fn Z Z
Xn dP = Xn+1 dP.
A A

Ale Xn jest Fn -mierzalna, więc E[Xn+1 |Fn ] = Xn . Stąd ciąg zmiennych


losowych (Xn , Fn ) jest martyngałem. Ponadto Xn jest nieujemna. Zatem
E[|Xn |] = E[Xn ] = ν(Ω) < ∞. Z twierdzenia 2.10 wynika zbieżność zmien-
nych losowych Xn do całkowalnej zmiennej losowej X, gdzie granica X jest
F∞ -mierzalna.
Załóżmy teraz, że ν jest absolutnie ciągła względem miary P na σ-algebrze
dν∞
F∞ . Niech Z = dP
, gdzie ν∞ = ν|F∞ . Mamy
Z Z
ZdP = Xn dP dla A ∈ Fn ,
A A

tj. Xn = E[Z|Fn ]. Z twierdzenia 2.12 wynika, że Xn → E[Z|F∞ ] = Z.


Załóżmy, że miary P i ν są wzajemnie osobliwe na σ-algebrze F∞ , czyli
istnieje taki zbiór S należący do F∞ , że ν(S) = 0 oraz P (S) = 1. Ponadto z
lematu Fatou Z Z
XdP 6 lim inf
n→∞
Xn dP.
A A

Jeśli A ∈ Fi to Xn dP = ν(A) dla i 6 n, czyli XdP 6 ν(A) dla A ∈ Fi .
R R S
A A i=1
Z twierdzenia 3.7 zachodzi to dla każdego zbioru A ∈ F∞ . A zatem
Z
XdP 6 ν(S) = 0.
S

Stąd P (X = 0) = 1.

Poniższe trzy podrozdziały zostały odwzorowane z [7].

60
3.4 Twierdzenie Kakutaniego
Przykład 3.3. Rzucamy monetą. W codziennym życiu najprawdopodobniej
nie jest ona symetryczna. Nasze zadanie polega na decyzji, czy szansa otrzy-
mania orła przy rzucie monetą wynosi p czy r, gdy p 6= r oraz p, r ∈ [0, 1].
Niech Xn będzie zmienną losową taką, że

 1 gdy w n-tym rzucie wypadł orzeł,
Xn =
 0 gdy w n-tym rzucie wypadła reszka.

Niech ponadto ρ i π będą takimi funkcjami, że

ρ(1) = r, ρ(0) = 1 − r, π(1) = p, π(0) = 1 − p.

Zdefiniujmy

ρ(X1 )...ρ(Xn )
Zn = oraz Fn = σ(X1 , ..., Xn ).
π(X1 )...π(Xn )
Niech P będzie miarą probabilistyczną taką, że P (Xn = 1) = p. Wówczas
ciąg (Zn , Fn ) jest martyngałem, gdyż
" #
ρ(Xn ) r 1−r
E = p+ (1 − p) = 1
π(Xn ) p 1−p
oraz " #
ρ(X1 ) ρ(X2 ) ρ(Xn+1 )
E[Zn+1 |Fn ] = E ... |Fn =
π(X1 ) π(X2 ) π(Xn+1 )
" # " #
ρ(X1 ) ρ(X2 ) ρ(Xn ) ρ(Xn+1 ) ρ(X1 ) ρ(Xn ) ρ(Xn+1 )
= ... E |Fn = ... E = Zn ,
π(X1 ) π(X2 ) π(Xn ) π(Xn+1 ) π(X1 ) π(Xn ) π(Xn+1 )
gdzie przedostatnia równość wynika z twierdzenia 3.3.
Zauważmy, że Zn > 0. Z twierdzenia 2.11 wynika, że ciąg (Zn ) jest zbieżny
P-prawie wszędzie. Ponadto granica jest równa zero, gdyż równość
ρ(Xn+1 )
Zn+1 = Zn
π(Xn+1 )
implikuje
ρ(Xn+1 )
lim sup Zn+1 6 lim sup Zn lim sup .
n→∞ n→∞ n→∞ π(Xn+1 )

61
Ale ciąg (Zn ) jest zbieżny P-prawie wszędzie, a zatem
ρ(Xn+1 )
lim sup Zn+1 = lim sup Zn lim sup .
n→∞ n→∞ n→∞ π(Xn+1 )
ρ(Xn+1 )
Z założenia, że r 6= p wynika, iż lim sup π(Xn+1 )
6= 1. Więc lim sup Zn = 0
n n
P −prawie na pewno.
Jeśli P (Xn = 1) = r to proces (Zn−1 , Fn ) jest martyngałem zbieżnym do zera
Q−prawie na pewno, czyli ciąg (Zn ) dąży do nieskończoności.
Zwiększając ilość rzutów można zaobserwować, czy martyngał dąży do
nieskończoności, czy do zera. Na tej podstawie można podjąć decyzję, czy
prawdopodobieństo wyrzucenia orła wynosi r, czy p. Niestety nigdy nie mo-
żemy mieć całkowitej pewności, czy nasza decyzja jest dobra.

Następujące twierdzenie jest uogólnieniem przypadku z poprzedniego przy-


kładu. Niech (Ω0 , F) będzie przestrzenią mierzalną i niech (Pn ) i (Qn ) bę-
dą ciągami rozkładów prawdopodobieńswa na tej przestrzeni. Niech Ω =
Ω0 × Ω0 × ..., niech ponadto zmienna losowa Xn oznacza rzut na n-tą współ-
rzędną. Niech Fn = σ(X1 , ..., Xn ) i F∞ = σ(X1 , X2 , ...) będą σ-algebrami.
Ponadto na F∞ = σ(X1 , X2 , ...) zdefiniujmy prawdopodobieńtwa produkto-
we następująco P = P1 ⊗ P2 ⊗ ... oraz Q = Q1 ⊗ Q2 ⊗ ...

Twierdzenie 3.9. (Kakutaniego) Niech dla każdego n miara Qn będzie


absolutnie ciągła względem Pn , niech gn będzie odpowiednią gęstością i niech

fn = g1 (X1 )...gn (Xn ).

Wtedy

1. (fn , Fn ) jest martyngałem na (Ω, F∞ , P ),

2. jeśli τ jest momentem stopu względem (Fn ), skończonym prawie wszę-


dzie względem miary P + Q, to fτ jest gęstością Q względem P na
σ−algebrze Fτ ,

3. Q jest albo absolutnie ciągła, albo singularna względem P . Jeśli




Y Z
gn dPn > 0,
n=1 Ω
0

62
to (fn ) jest zbieżny prawie na pewno do zmiennej losowej całkowalnej
f∞ , która jest gęstością Q względem P na F∞ ; jeśli natomiast


Y Z
gn dPn = 0,
n=1 Ω
0

lim fn = ∞ Q-prawie na
lim fn = 0 P -prawie na pewno oraz n→∞
to n→∞
pewno.

Dowód tego twiedzenia znajduje się w [7] (strona 254).

3.5 Zagadnienie dyskryminacji


Niech (Ω, F) będzie przestrzenią mierzalną i niech P oraz Q będą miarami
probabilistycznymi na tej przestrzeni. Ponadto niech istnieje gęstość g =
dQ
dP
. Mamy zdecydować na podstawie zdarzenia elementarnego ω0 ∈ Ω czy
faktycznym rozkładem doświadczenia losowego jest P czy Q.
Naszą decyzję podejmiemy na podstawie tzw. zbioru krytycznego A ∈ F.
W przypadku, gdy w0 ∈ A to wybieramy rozkład Q w przeciwnym przypadku
P . Ponadto w przypadku błędnych decyzji poniesiemy pewne koszty. Niech
wybranie Q zamiast P oznaczmy przez stratę lQ , a wybranie P zamiast Q
jako lP . Załóżmy, że szansa wybrania rozkładu P wynosi p, a rozkładu Q
równa się q = 1 − p. Ostatnie założenie nie zawsze jest realistyczne.
Średnia strata dla rozkładu P wynosi lQ P (A) + 0 · P (A0 ) = lQ P (A), a dla
Q jest równa 0·Q(A)+lP Q(A0 ) = lP Q(A0 ). Niech ryzyko r oznacza całkowitą
średnią stratę, która wynosi

r(A) = plQ P (A) + qlP Q(A0 ) = aP (A) + bQ(A0 ),

gdzie plQ = a i qlP = b. Zakładamy, że a, b > 0. Pokażemy jaki zbiór kry-


tyczny minimalizuje ryzyko.
Z Z Z
r(A) = aP (A) + b gdP = adP + bgdP >
A0 A A0

63
Z Z Z
> min(a, bg)dP = adP + bgdP =
Ω {a6bg} {a>bq}
a a
   
= aP g > + bQ g < .
b b
R
Zatem ryzyko minimalne wynosi rmin = min(a, bg)dP i jest osiągane dla

zbioru A = {g > ab }. Jeżeli wykonamy doświadczenie n razy to ryzyko mini-
malne wyniesie Z
rn = min(a, bfn )dP ⊗n ,

gdzie fn jest gęstością rozkładu z Twierdzenia 3.9 dla rozkładu Q ⊗ Q ⊗ ... ⊗
Q = Q⊗n względem P ⊗ P ⊗ ... ⊗ P = P ⊗n . (fn , Fn ) jest martyngałem na
(Ω, F∞ , P∞ ) co implikuje, że ciąg (min(a, bfn ), Fn ) jest nadmartyngałem.
Istotnie, niech (fn , Fn ) będzie martyngałem. Ustalmy liczby a, b > 0. Przyj-
mijmy oznaczenie Bn = {ω : bfn (ω) 6 a}. Dla dowolnego A ∈ Fn jest
A ∩ Bn ∈ Fn oraz A \ Bn ∈ Fn , a zatem
Z Z Z
min(a, bfn ) = adP + b fn dP =
A A\Bn A∩Bn
Z Z
= E[a|Fn ]dP + E[bfn+1 |Fn ]dP >
A\Bn A∩Bn
Z Z
> E[min(a, fn+1 )|Fn ]dP + E[min(a, bfn+1 )|Fn ]dP =
A\Bn A∩Bn
Z
= E[min(a, bfn+1 )|Fn )]dP.
A
Z dowolności A ∈ Fn otrzymujemy min(a, bfn ) > E[(min(a, bfn+1 ))|Fn ] pra-
wie wszędzie.
Zatem dla n = 1, 2, 3, ... mamy rn > rn+1 . Ponadto n→∞
lim rn = 0, gdyż
lim fn = 0 P∞ -prawie na pewno.
n→∞

3.6 Zadanie o ruinie gracza


W grze bierze udział dwóch graczy z kapitałami odpowiednio a i b, gdzie
a + b = z. Oznaczmy wygrane pierwszego gracza w kolejnych partiach nieza-

64
leżnymi zmiennymi losowymi ξ1 , ..., ξn , .... Jeśli gracz wygra rundę to zmienna
losowa ξn z prawdopodobieństwem p przyjmuje wartość 1, jeśli przegra to z
prawdopodobieństwem 1 − p = q przyjmuje wartość −1, gdzie p, q > 0. Niech
Sn = ξ1 + ... + ξn . Moment ruiny dla pierwszego gracza możemy zdefiniować
jako
τ1 = inf{n : Sn = −a}.
Jest to moment stopu, dla którego P (τ1 < ∞) < 1. Moment ruiny dla pierw-
szego lub drugiego gracza definiujemy jako

τR = inf{n : Sn ∈ {−a, b}}.

Dla tego momentu stopu zachodzi P (τR < ∞) = 1, ponieważ z prawdopo-


dobieństwem 1 pojawi się na przykład kiedyś a + b wygranych pierwszego
gracza.
Prawdopodobieństwo ruiny dla obu graczy
Znajdziemy prawdpopodobieństwa p1 i p2 takie, że p1 = P (SτR = −a) oraz
p2 = P (SτR = b). Najpierw rozważymy przypadek symetryczny, tzn. p =
q = 21 . Wtedy proces (Sn , σ(ξ1 , ..., ξn ))∞
n=1 jest martyngałem oraz E[Sn ] = 0
dla n = 1, 2, 3, ... Zauważmy, że τR ∧ n jest ograniczonym momentem stopu.
Zatem z Twierdzenia 2.5 mamy E[SτR ∧n ] = 0. Co więcej |SτR ∧n | 6 max(a, b).
Zauważmy, że lim SτR ∧n = SτR . Istotnie, mamy
n→∞
[
P (sup |SτR ∧ n − SτR | > ε) 6 P ( {|SτR ∧n − SτR | =
6 0}) 6 P (τR > k)
n>k n>k

dla każdego k ∈ N i dla każdego ε > 0. P (τR > k) → 0 ponieważ P (τR <
∞) = 1. Na podstawie powyższych rozważań wnioskujemy, że E[SτR ] = 0,
wobec czego 
 −ap1 + bp2 = 0
 p1 + p2 = 1,
b
skąd p1 = z
oraz p2 = az .
W przypadku, gdy p i q nie są równe martyngałem jest ciąg
 !Sn ∞
q
 , σ(ξ1 , ..., ξn ) .
p
n=1

65
Powtarzając rozumowanie z przypadku symetrycznego mamy

 (− pq )−a p1 + ( pq )b p2 = 1
 p1 + p2 = 1,

skąd
( pq )a − ( pq )z
p1 = .
1 − ( pq )z

Nieskońkończony kapitał.
Niech pierwszy gracz ma kapitał a i niech drugi ma nieskończony kapitał.
Aby obliczyć prawdopodobieństwo ruiny pierwszego gracza wykorzystamy
poprzednie wyniki i dokonamy przejścia granicznego (z → ∞).
Oznaczmy przez Aa zdarzenie polegające na ruinie gracza z kapitałem a, a
przez Aa,z zdarzenie polegające na tym, że zanim gracz został zrujnowany,
jego wygrana była zawsze mniejsza od z. Zauważmy, że P (Aa,z ) oznacza
prawdopodobieństwo ruiny gracza z kapitałem a w grze o łącznym kapitale

a+z. Co więcej zachodzą następujące zależności Aa,z ⊂ Aa,z+1 , Aa =
S
Aa,z .
z=1
Zatem możemy napisać


[  1 dla q > p,
P (Aa ) = P ( Aa,z ) = z→∞
lim P (Aa,z ) =
z=1
 ( qr )a dla q < p.

66
Bibliografia

[1] P. Billingsley, Prawdopodobieństwo i miara, Tyt. oryg. Probability


and Measure, Państwowe Wyd. Naukowe, Warszawa 1987.

[2] D. Bobrowski, Ciągi losowe, Wyd. Naukowe UAM, Poznań 2002.

[3] J. Diestel, J. J. Uhl, Vector Measures, Mathematical Surveys vol.15,


Amer. Math. Soc., Providence, Rhode Island 1977.

[4] R. Doman, Wykłady: Inżyneria Finansowa, UAM, rok akademicki


2006/2007.

[5] G. Grimmett, D. Stirzaker, Probability and Random processes,


Oxford Univ. Press, Oxford 2001.

[6] J.Jakubowski, A. Palczewski, M. Rutkowski, Ł.Stettner, Matematyka


finansowa. Instrumenty pochodne., Wyd. Naukowo-Techniczne, War-
szawa 2003.

[7] J.Jakubowski, R.Sztencel, Wstęp do teorii prawdopodobieństwa,


Script, Warszawa 2004.

[8] M. Krzyśko, Wykłady: Wstęp do rachunku prawdopodobieńśtwa,


UAM, rok akademicki 2005/2006.

[9] M. Krzyśko, Wykłady z teorii prawdopodobieństwa, Wyd. Naukowo-


Techinczne, Warszawa 2003.

67
[10] M. Mastyło, Wykłady: Teoria miary i całki, UAM, rok akademicki
2004/2005.

[11] P. A. Meyer, Martingales and Stochastic Integrals I, Springer Berlin,


1972.

[12] P. A. Meyer, Probability and potentials, Tyt. oryg.: Probabilités et


potentiel, Blaisdell Publishing Company, Waltham, MA 1966.

[13] A. Michalak, Wykłady: Procesy stochastyczne,UAM, rok akademicki


2006/2007.

[14] J. Neveu, Discrete- Parameter Martingales, North-Holland Publishing


Company, Amsterdam 1975.

[15] R. L. Schiling, Measures, integrals and martingales, Cambridge Univ.


Press, Cambridge 2005.

[16] D. Williams, Probability with martingales, Cambridge Univ. Press,


Cambridge 1991.

68

You might also like