6.1. Podstawowe definicje
Zajmiemy się teraz kolejną ważną klasą procesów stochastycznych:
łańcuchami Markowa.
Niech E będzie ,,przestrzenią stanów”: skończonym lub
przeliczalnym zbiorem. Jego elementy będziemy oznaczać literami j,
k, … bądź 1, 2, ….
Definicja 6.1
Macierz P=piji,j∈E×E nazywamy macierzą
stochastyczną, jeśli pij∈0,1 dla wszystkich i, j∈E
oraz ∑j∈Epij=1 dla każdego i∈E.
Definicja 6.2
Załóżmy, że Ω,F,P jest przestrzenią
probabilistyczną, E, P są j.w., ustalone. Jednorodnym łańcuchem
Markowa o wartościach w E i macierzy przejścia P nazywamy ciąg
Xnn=0,1,2,… zmiennych losowych takich, że
|
P(Xn+1=an+1|Xn=an,Xn-1=an-1,…,X0=a0)=P(Xn+1=an+1|Xn=an)=panan+1 |
|
dla wszystkich a0, a1, …, an+1 takich, że zdarzenie
warunkujące ma dodatnie prawdopodobieństwo. Równoważnie,
|
P(Xn+1=j|X0,X1,…,Xn)=P(Xn+1=j|Xn)=pXnj. |
|
Liczba pij jest
prawdopodobieństwem przejścia ze stanu i do stanu j w jednym
kroku.
1) Załóżmy, że X0, X1, X2, … są niezależnymi
zmiennymi losowymi o tym samym rozkładzie, przyjmującymi wartości w
zbiorze E, przy czym PXn=j=pj dla j∈E. Wówczas
|
P(Xn+1=an+1|Xn=an,…,X0=a0)=P(Xn+1=an+1)=pj=P(Xn+1=an+1|Xn=an), |
|
a zatem Xnn jest łańcuchem Markowa; mamy
2) (Błądzenie losowe) Załóżmy, że ξ1, ξ2, … są niezależnymi zmiennymi
losowymi o rozkładzie Pξn=1=p,
Pξn=-1=q=1-p. Niech X0=0,
Xn=ξ1+ξ2+…+ξn dla n≥1. Mamy
|
P(Xn+1=an+1|Xn,Xn-1,…,X0)=P(Xn+ξn+1=an+1|ξ0,ξ1,…,ξn)=pjeśli Xn=an+1-1,qjeśli Xn=an+1+1,0w pozostałych przypadkach=P(Xn+1=an+1|Xn). |
|
3) (Błądzenie z pochłanianiem na brzegu). Załóżmy, że a,b∈Z+, Xn jak poprzednio, przy czym po dojściu do -a
bądź b proces zatrzymuje się. Otrzymany ciąg zmiennych losowych
także jest łańcuchem Markowa. Mamy E=-a,-a+1,…,b-1,b i
|
P=1000…00q0p0…000q0p…0000q0…00…0000…0p0000…01 |
|
4) (Błądzenie z odbiciem od brzegu). Niech a,b∈Z+, Xn
jak poprzednio, przy czym po dojściu do -a przechodzimy do -a+1,
po dojściu do b przechodzimy do b-1. Wówczas otrzymany proces
jest łańcuchem Markowa o macierzy przejścia jak poprzednio, tyle
że pierwszy wiersz to 0,1,0,0,…,0, a ostatni -
0,0,…,0,1,0.
5) (Model dyfuzji cząstek).
Danych jest n cząstek w dwóch pojemnikach: I i II. Co
jednostkę czasu losowo wybrana cząstka przemieszcza się z jednego
pojemnika do drugiego.
Niech Xn oznacza liczbę cząstek w pojemniku I w chwili n.
Przestrzeń stanów to E=0,1,2,…,n oraz
|
pi,i+1=n-in dla i≤n-1,pi,i-1=in dla i≥1. |
|
Pozostałe pij są równe 0:
|
P=010…001/n01-1/n…0002/n0…00003/n…00…000…01/n000…10. |
|
Stwierdzenie 6.1
Załóżmy, że Xn jest łańcuchem Markowa z macierzą przejścia
P=pij. Wówczas dla każdej ograniczonej funkcji f:E→R i
dowolnego n,
|
E(f(Xn+1)|X0,X1,…,Xn)=E(f(Xn+1)|Xn)=∑j∈Ef(j)pXnj. |
| (*) |
Dowód:
Mamy
|
E(f(Xn+1)|X0,X1,…,Xn)=∑j∈EE(f(Xn+1)1{Xn+1=j}|X0,X1,…,Xn=∑j∈Ef(j)P(Xn+1=j|X0,X1,…,Xn)=∑j∈Ef(j)pXnj. |
|
Stąd równość skrajnych stron w (*). Aby otrzymać prawą
równość, wystarczy powtórzyć powyższe rozumowanie z warunkowaniem
tylko po zmiennej Xn.
∎
Twierdzenie 6.1
Załóżmy, że Xn, E, P - jak wyżej. Wówczas dla wszystkich
n=0, 1, 2,…, k=1, 2,…, j∈E,
|
P(Xn+k=j|X0,X1,…,Xn)=P(Xn+k=j|Xn)=pXnjk, |
|
gdzie pijki,j∈E=Pk. Macierz tę możemy
interpretować jako macierz przejścia w k krokach.
Dowód:
Stosujemy indukcję ze względu na k. Dla k=1 dostajemy definicję
łańcucha Markowa. Przypuśćmy, że teza zachodzi dla pewnego k≥1. Mamy
|
P(Xn+k+1=j|X0,X1,…,Xn)=E(1j(Xn+k+1)|X0,X1,…,Xn)=E(E(1j(Xn+k+1)|X0,X1,…,Xn+1)|X0,X1,…,Xn)=z.ind.E(pXn+1jk|X0,X1,…,Xn)=Stw.∑i∈EpijkpXni=z.ind.pXnjk+1. |
|
∎
Wniosek 6.1 (Równanie Chapmana-Kołmogorowa)
Dla wszystkich k,n≥1 oraz i,j∈E,
Dowód:
Wynika to natychmiast z równości
Pk+n=PkPn.
∎
Stwierdzenie 6.2
Przy założeniach jak wyżej, dla dowolnego n≥0 oraz
i0,i1,…,in∈E,
|
P(X0=i0,X1=i1,…,Xn=in)=P(X0=i0)pi0i1pi1i2…pin-1in. |
|
Dowód:
Mamy
|
E(1i0(X0)1i1(X1)…1in(Xn))=E[E(…|X0,X1,…,Xn-1)]=E[1i0(X0)1i1(X1)…1in(Xn-1))P(Xn=in|X0,X1,…,Xn-1)︸pXn-1in=pin-1in] |
|
itd.
∎
Definicja 6.3
Rozkład zmiennej X0 nazywamy rozkładem początkowym. Jest on
jednoznacznie wyznaczony przez ciąg πii∈E liczb
nieujemnych o sumie 1.
Podane niżej twierdzenie mówi, iż każda macierz stochastyczna i
rozkład początkowy prowadzą do pewnego łańcucha Markowa.
Twierdzenie to pozostawimy bez dowodu.
Twierdzenie 6.2
Niech E będzie zbiorem co najwyżej przeliczalnym. Wówczas dla
każdej macierzy stochatycznej P oraz miary probabilistycznej π
na E istnieje przestrzeń probabilistyczna i określony na niej
łańcuch Markowa o macierzy przejścia P i rozkładzie początkowym
π.
6.2. Klasyfikacja stanów
Mówimy, że stan j jest osiągalny ze stanu i, jeśli
pijn>0 dla pewnego n≥1. Mówimy, że stany i oraz j
się komunikują, jeśli j jest osiągalny z i oraz i jest
osiągalny z j. Stan i jest nieistotny, jeśli istnieje taki stan
j, że j jest osiągalny z i oraz i nie jest osiągalny z j.
Jak łatwo sprawdzić, korzystając z równania Chapmana-Kołmogorowa,
relacja ,,osiągalności” jest przechodnia: istotnie, jeśli j jest
osiągalny z i oraz k jest osiągalny z j, to dla pewnych
m, n≥1, pijm>0 i pjkn>0, a zatem
|
pikm+n=∑l∈Epilmplkn≥pijmpjkn>0. |
|
Aby zilustrować powyższe definicje, odnotujmy, iż dla błądzenia
losowego po liczbach całkowitych (przykład 2 powyżej), wszystkie
stany wzajemnie się komunikują. Natomiast w przypadku pochłaniania
na brzegu (przykład 3), stany -a+1,-a+2,…,b-1 są nieistotne.
Zbiór stanów S nazywamy zamkniętym, jeśli dla dowolnego i∈S
oraz j∉S, stan j nie jest osiągalny ze stanu i (innymi
słowy, startując ze stanu wewnątrz C, z prawdopodobieństwem 1
nie wychodzimy nigdy z tego zbioru). Jeśli stan k ma tę
własność, że zbiór k jest zamknięty (tzn. mamy
pkkn=1 dla wszystkich n), to stan ten nazywamy
pochłaniającym. łańcuch Markowa nazywamy nieprzywiedlnym, jeśli
wszystkie stany komunikują się ze sobą. Przykładowo, łańcuch
Markowa pojawiający się w modelu dyfuzji cząstek (przykład 5) jest
nieprzywiedlny.
Uwaga: Załóżmy, że C jest zamkniętym zbiorem stanów
łańcucha Markowa o macierzy przejścia P=piji,j∈E×E.
Wówczas możemy rozpatrzyć łańcuch Markowa ,,zawężony” do C:
jako nową przestrzeń stanów bierzemy zbiór C, a macierz
przejścia zadana jest przez pij(i,j)]inC×C
(wykreślamy z macierzy P wiersze i kolumny odpowieadające stanom
nienależącym do C). Przykładowo, załóżmy, że macierz przejścia
łańcucha na E=1,2,3,4 wynosi
|
1/21/2001/43/40001/31/21/61/51/52/51/5. |
|
Jak łatwo zauważyć, zbiór C=1,2 jest zamknięty i indukuje
łańcuch Markowa o wartościach w tym zbiorze i macierzy przejścia
1/21/21/43/4.
Niech
będzie prawdopodobieństwem tego, że startując z k łańcuch
dojdzie kiedyś do stanu j. Mamy
gdzie
|
fkj=P(X1≠j,X2≠j,…,Xn-1≠j,Xn=j|X0=k) |
|
jest prawdopodobieństwem że startując z k łańcuch dochodzi do j
po raz pierwszy w chwili n.
Definicja 6.4
Stan j nazywamy powracającym, jeśli Fjj=1. Stan j nazywamy
chwilowym (tranzytywnym), jeśli Fjj<1.
Niech Nj=∑n=1∞1{Xn=j} będzie zmienną losową
zliczającą ile razy proces Xn był w stanie j (nie biorąc pod
uwagę zmiennej X0). Mamy
następujący fakt.
Stwierdzenie 6.3
(i) Stan j jest powracający wtedy i tylko wtedy, gdy
P(Nj=∞|X0=j)=1.
(ii) Stan j jest chwilowy wtedy i tylko wtedy, gdy
PNj∞X0=j=1.
Dowód:
Niech Ak={proces Xn był w stanie j co najmniej k
razy}. Oczywiście Ak+1⊆Ak, a zatem z twierdzenia o
ciagłości
|
limk→∞P(Ak|X0=i)=P(⋂k=1∞Ak|X0=i)=P(Nj=∞|X0=i). |
|
Wykażemy, że
|
P(Ak|X0=i)=FijFjjk-1. |
| (*) |
Wówczas dostaniemy (stosując tę równość dla i=j), iż
P(Nj=∞|X0=j)=1 wtedy i tylko wtedy, gdy Fjj=1
(to teza (i)) oraz P(Nj=∞|X0=j)=0 wtedy i tylko
wtedy, gdy Fjj<1 (co jest równoważne tezie (ii)).
Pozostaje więc udowodnić (*). Intuicyjnie ten wynik jest jasny: jeśli mamy k razy odwiedzić stan j (przy
założeniu, że startujemy z i), to musimy dojść z i do
j, a potem k-1 razy powrócić do j po pewnych liczbach kroków.
Formalnie, ustalmy n1<n2<…<nk. Mamy
|
P(Xnl=j dla l=1,2,…,k,Xn≠j dla n≠nl,n≤nk|X0=i)=P(X1≠j,X2≠j,…,Xn1-1≠j,Xn1=j|X0=i)××∏l=2k[P(Xnl-1+1≠j,Xnl-1+2≠j,…,Xnl-1≠j,Xnl=j|Xnl-1=j)]=fij(n1)∏l=2nfjj(nl-nl-1). |
|
Podstawmy m1=n1, mk=nk-nk-1. Mamy, dla i≠j,
|
P(Ak|X0=i)=∑m1,…,mk≥1fij(m1)fjj(m2)…fjj(mk)=(∑m1=1∞fij(m1))∏l=2k(∑ml=1∞fjj(ml))=FijFjjk-1. |
|
∎
Uwaga: W szczególności, P(Nj=∞|X0=i)=0
jeśli j jest stanem chwilowym. Zatem w przypadku stanu chwilowego,
proces odwiedza go skończenie wiele razy niezależnie od punktu
startowego.
Podane niżej twierdzenie charakteryzuje stany chwilowe i powracające w
terminach macierzy przejścia. Wprowadźmy, dla każdego j∈E,
liczbę Pj=∑n=1∞pjjn. Na mocy twierdzenia
Fubiniego (dla funkcji nieujemnych),
|
Pj=∑n=1∞E(1j(Xn)|X0=j)=E(Nj|X0=j), |
|
czyli Pj jest średnim czasem przebywania łańcucha w stanie j
(przy założeniu startowania z tego stanu), nie licząc zmiennej
X0.
Twierdzenie 6.3
(i) Stan j jest chwilowy wtedy i tylko wtedy, gdy Pj<∞.
(ii) Stan j jest powracający wtedy i tylko wtedy, gdy Pj=∞.
Dowód:
Zauważmy, iż na mocy wzoru na prawdopodobieństwo całkowite,
|
pjjk=∑m=0k-1fjjk-mpjjm, |
|
gdzie przyjmujemy pjj0=1.
Zatem, na mocy twierdzenia Fubiniego (dla funkcji nieujemnych),
|
∑k=1npjjk=∑k=1n∑m=0k-1fjjk-mpjjm=∑m=0n-1pjjm∑k=m+1nfjjk-m≤∑m=0npjjmFjj=Fjj+Fjj∑m=1npjjm, |
|
czyli, równoważnie,
|
1-Fjj∑m=1npjjm≤Fjj. |
| (\Delta) |
Jeśli stan j jest chwilowy, to (Δ) daje, iż
I w drugą stronę: jeśli Pj<∞, czyli E(Nj|X0=j)<∞,
to P(Nj=∞|X0=j)=0 i na mocy poprzedniego twierdzenia
j jest stanem chwilowym. To dowodzi (i). Część (ii) jest
konsekwencją tego, że każdy stan jest albo chwilowy, albo
powracający oraz tego, że Pj jest albo skończone, albo nie.
∎
Przykład: Zbadamy błądzenie losowe po liczbach
całkowitych. Mamy
|
p002n=2nnpnqn∼1πn4pqn, |
|
na mocy wzoru Stirlinga. Ponadto, p002n+1=0. Stąd
wtedy i tylko wtedy,gdy p≠1/2. Zatem 0 jest stanem powracającym
wtedy i tylko wtedy, gdy p=1/2.
W przypadku gdy wszystkie stany komunikują się wzajemnie, stany
muszą być tego samego typu.
Twierdzenie 6.4
Załóżmy, że łańcuch Markowa jest nieprzywiedlny. Wówczas jeśli
jeden stan jest chwilowy, to wszystkie są chwilowe; jeśli jeden stan jest
powracający, to wszystkie są powracające.
Możemy więc mówić o łańcuchach określonego typu: chwilowych i
powracających.
Weźmy dwa stany i, j. Istnieją liczby całowite dodatnie r, s
takie, że α=pijr>0, β=pjis>0. Dla n≥1 mamy
|
piir+s+n≥pijrpjjnpjis=αβpjjn |
|
i podobnie pjjr+s+n≥αβpiin. Zatem dla
n>r+s,
|
1αβpiir+s+n≥pjjn≥αβpiin-r-s, |
|
czyli asymptotyczne zachowanie ciągów piinn oraz
pjjnn jest takie samo; w szczególności, ∑n=1∞piin=∞ wtedy i tylko wtedy, gdy
∑n=1∞pjjn=∞.
∎
Na zakończenie - następujący fakt dotyczący struktury stanów
łańcucha Markowa ze względu na stany chwilowe i powracające (bez
dowodu).
Stwierdzenie 6.4
Przestrzeń stanów E łańcucha Markowa możemy jednoznacznie
przedstawić w postaci
gdzie C jest zbiorem stanów chwilowych, a Di, i≥1 są
nieprzywiedlnymi zamkniętymi zbiorami stanów powracających.
Przy danym rozbiciu przestrzeni E jak w powyższym stwierdzeniu, z
prawdopodobieństwem 1 łańcuch Markowa zachowuje się następująco. Jeśli startuje on w
zbiorze Di, i≥1, to nigdy go nie opuszcza i odwiedza wszystkie
elementy tego zbioru; jeśli startuje on w zbiorze C, to albo
pozostaje tam na zawsze (co może mieć miejsce tylko wtedy, gdy C ma
nieskończenie wiele elementów), albo po
skończonej liczbie kroków trafia do jednego ze zbiorów Di, i
pozostaje tam na zawsze.
6.3. Rozkłady stacjonarne i twierdzenie ergodyczne
Definicja 6.5
Załóżmy, że P jest macierzą stochastyczną. Rozkład π na
E nazywamy stacjonarnym (niezmienniczym), jeśli πP=π (tzn.
dla wszystkich j∈E, ∑i∈Eπipij=πj.
Rozkład stacjonarny ma następujące własności. Po pierwsze
zauważmy, że jeśli π jest rozkładem stacjonarnym, to dla
każdego n≥1, πPn=π (oczywista indukcja). Innymi słowy,
jeśli Xn jest łańcuchem Markowa o macierzy przejścia P i
rozkładzie początkowym π, to dla n≥1, rozkład Xn jest
równy π. Można nawet powiedzieć więcej: dla wszystkich n≥1 oraz dowolnego ciągu m1<m2<…<mk (k≥1 również jest
dowolne) wektor Xm1,Xm2,…,Xmk ma ten sam rozkład
co Xn+m1,Xn+m2,…,Xn+mk. Istotnie,
|
PXn+m1=j1,Xn+m2=j2,…,Xn+mk=jk |
|
|
=∑i∈Eπipij1m1+npj1j2m2-m1…pjk-1jkmk-mk-1=πj1pj1j2m2-m1…pjk-1jkmk-mk-1, |
|
co nie zależy od n.
łańcuch o takiej własności nazywamy stacjonarnym.
Definicja 6.6
Okresem stanu j nazywamy największą taką liczbę n, że powrót
do stanu j jest możliwy tylko po liczbie kroków podzielnej przez
n: oj=NWDn:pjjn>0.
Stan nazywamy okresowym jeśli oj>1 i nieokresowym, jeśli
oj=1.
Stwierdzenie 6.5
W nieprzywiedlnym łańcuchu Markowa wszystkie stany mają ten sam
okres.
Wobec tego następująca definicja ma sens.
Definicja 6.7
Nieprzywiedlny łańcuch Markowa Xn nazywamy okresowym,
jeśli wszystkie jego stany mają okres większy niż 1. W przeciwnym
razie łańcuch nazywamy nieokresowym.
Lemat 6.1
łańcuch jest nieprzywiedlny i nieokresowy wtedy i tylko wtedy, gdy
jest spełniony warunek
|
∀i,j∈E∃n0∀n≥n0pijn>0. |
| (O) |
Dowód:
Oczywiście wystarczy tylko udowodnić implikację ⇒.
Ustalmy i,j∈E oraz liczbę m taką, że pijm>0.
Z definicji nieokresowości, istnieją liczby
względnie pierwsze n1,n2,…,nk takie, że
pjjnl>0, l=1, 2,…,k. Jeśli n jest
dostatecznie duże, to
|
n=a1n1+a2n2+…+aknk,dla pewnych al∈Z+, |
|
i mamy
|
pjjn≥∏lpjjalnl≥∏lpjjnlal>0. |
|
Zatem
o ile m+n jest dostatecznie duże.
∎
Twierdzenie 6.5
Załóżmy, że warunek (O) jest spełniony i istnieje rozkład
stacjonarny π. Wówczas każdy stan jest powracalny, rozkład stacjonarny
jest jednoznaczny oraz dla wszystkich i,j∈E,
Uwaga: Jak widać, przy założeniach twierdzenia,
pijn ,,przestaje zależeć od i” o ile n jest duże.
Innymi słowy, po dużej liczbie kroków łańcuch ,,zapomina”, z
jakiego stanu wystartował.
Dowód:
Dowód przeprowadzimy w pięciu krokach.
1. Wszystkie stany są albo powracalne, albo chwilowe. Załóżmy, że
ma miejsce ta druga możliwość. Liczba ∑n=1∞pijn jest średnim czasem przebywania w stanie j przy
założeniu startowania ze stanu i. Na mocy własności Markowa, mamy zatem
a zatem pijn→0 gdy n→∞. Z drugiej strony, dla
każdego j∈E,
i lewa strona dąży do 0 na mocy tw. Lebesgue'a o zmajoryzowanym
przejściu do granicy. Stąd π≡0 i sprzeczność.
2. Rozważmy nową przestrzeń stanów E×E oraz macierz przejścia P⊗2
na tej przestrzeni, o wyrazach
pi,jk,l=pikpjl (oczywiście jest to macierz
stochastyczna). Niech π⊗2=πi⋅πji,j∈E×E będzie rozkładem na E×E: jest to rozkład stacjonarny dla P⊗2. Niech
Xn′,Xn′′ będzie łańcuchem Markowa z tą macierzą
przejścia: Xn′ oraz Xn′′ to dwa niezależne łańcuchy
Markowa o macierzach przejścia P, startujące ze stanów i, j,
odpowiednio. Ponieważ będziemy zmieniać te punkty startowe, wygodnie
nam będzie pracować na miarach probabilistycznych
Pij=P(⋅|X0′=i,X0′′=j). Jak łatwo sprawdzić, warunek (O)
jest spełniony; zatem na mocy kroku 1., z każdego stanu i,j
można dojść do każdego innego; w szczególności do stanu k,k.
Zatem dla wszystkich i,j∈E, Pij(Xn′=Xn′′ dla pewnego
n)=1.
3. Niech τ=infn:Xn′=Xn′′. Definiujemy
|
Yn′,Yn′′=Xn′,Xn′′dla n<τ,Xn′,Xn′dla n≥τ. |
|
Z powyższej dyskusji wynika, że dla wszystkich i,j∈E,
Sprawdzimy teraz, że Yn′, Yn′′ są
łańcuchami Markowa (względem miary probabilistycznej
Pij) z macierzą przejścia P. Ograniczymy się tylko
do procesu Yn′′;w przypadku Yn′ przekształcenia są
analogiczne.
|
Pij(Yn+1′′=k|Xs′,Xs′′,s≤n)=Pij(Yn+1′′=k,τ<n|Xs′,Xs′′,s≤n)+Pij(Yn+1′′=k,τ≥n|Xs′,Xs′′,s≤n)=Pij(Xn+1′=k|Xs′,Xs′′,s≤n)1{τ<n}+Pij(Xn+1′′=k|Xs′,Xs′′,s≤n)1{τ≥n}=Pij(Xn+1′=k|Xs′,s≤n)1{τ<n}+Pij(Xn+1′′=k|Xs′′,s≤n)1{τ≥n}=pXn′k1{τ<n}+pXn′′k1{τ≥n}=pYn′′k |
|
i wystarczy obłożyć obie strony warunkową wartością oczekiwaną
względem ciągu Y0′′,Y1′′,…,Yn′′.
4. Pokażemy, że dla i,j,k∈E, pikn-pjkn→0. Mamy PA-PB≤PA∖B+PB∖A, więc
|
|pikn-pjkn|=|Pij(Yn′=k)-Pij(Yn′′=k)|≤Pij(Yn′=k,Yn′′≠k)+Pij(Yn′≠k,Yn′′=k)≤Pij(Yn′≠Yn′′)→0. |
|
5. Mamy, dla wszystkich k∈E, ∑i∈Eπipikn=πk, skąd, na mocy poprzedniej części oraz
twierdzenia Lebesgue'a,
|
πk-pjkn=∑i∈Eπipikn-pjkn→0. |
|
Jednoznaczność rozkładu stacjonarnego jest oczywista: πk jest
wyznaczony jako granice pikn.
∎
Na zakończenie zaprezentujemy następujący fakt. Dowodzi się go
używając podobnej argumentacji jak w poprzednim twierdzeniu.
Szczegóły pozostawiamy czytelnikowi.
Twierdzenie 6.6
Jeśli E jest zbiorem skończonym i zachodzi warunek (O), to istnieje
rozkład stacjonarny i zachodzi teza poprzedniego twierdzenia.
6.4. Zadania
1. Niech E będzie pewnym zbiorem przeliczalnym.
Dany jest ciąg Xn niezależnych zmiennych losowych oraz ciąg
funkcyjny fn, fn:E×R→E. Definiujemy ciąg
Yn wzorem
gdzie Y0 jest pewną zmienną losową o wartościach w E.
Dowieść, że Yn jest łańcuchem Markowa.
2. Dany jest łańcuch Markowa Xn na pewnej przestrzeni
E oraz różnowartościowa funkcja f:E→E. Wykazać, że
fXn jest łańcuchem Markowa. Co jeśli f nie jest
różnowartościowa?
3. Dany jest ciąg Xn niezależnych zmiennych losowych o
tym samym rozkładzie PXn=±1=12. Rozstrzygnąć,
które z podanych niżej procesów są łańcuchami Markowa:
4. Dany jest ciąg Xn niezależnych zmiennych losowych o
tym samym rozkładzie PXn=1=p=1-PXn=-1, p∈0,1. Niech
Sn=X1+X2+…+Xn, n=1,2,…. Udowodnić, że ciągi
są łańcuchami Markowa.
5. Rzucamy kostką tak długo, aż pojawi się ciąg 16 lub
66. Jakie jest prawdopodobieństwo, że ciąg 16 pojawi się
wcześniej?
6. Rzucamy symetryczną monetą aż do momentu, gdy wyrzucimy
serię 4 orłów. Obliczyć wartość oczekiwaną liczby
przeprowadzonych rzutów.
7. Macierz przejścia łańcucha Markowa Xnn na przestrzeni
E=1,2,3,4 dana jest następująco:
|
P=0121201412014230013023130. |
|
-
a) Jakie jest prawdopodobieństwo dojścia w dwóch krokach ze
stanu 1 do stanu 2?
-
b) Zakładając, że X0=1 p.n.
obliczyć prawdopodobieństwo tego, że
Xn będzie w stanie 2 przed stanem 4.
-
c) Zakładając, że X0=3 p.n.
obliczyć wartość oczekiwaną czasu dojścia do stanu 2.
-
d) Wyznaczyć rozkład stacjonarny.
Czy łańcuch jest okresowy? Czy jest nieprzywiedlny?
8. Po wierzchołkach pięciokąta ABCDE porusza się pionek.
W chwili początkowej znajduje się w punkcie A, a w każdym kolejnym ruchu
przesuwa się w sposób niezależny od poprzednich ruchów z
prawdopodobieństwem 1/2 do jednego z sąsiednich wierzchołków.
Obliczyć
a) prawdopodobieństwo, że pionek powróci do punktu A przed
dotarciem do punktu C,
b) wartość oczekiwaną liczby ruchów, jakie wykona pionek przed
powrotem do punktu A.
9. Naukowiec mający r parasoli wędruje między domem a
biurem, zabierając ze sobą parasol (jeśli jest on pod ręką) wtedy,
gdy pada (prawdopodobieństwo p), lecz nie przy bezdeszczowej
pogodzie (prawdopodobieństwo q=1-p). Niech stanem łańcucha Markowa
będzie liczba parasoli znajdujących się pod ręką, bez względu na
to, czy naukowiec jest w domu, czy w miejscu pracy. Skonstruować
macierz przejścia i znaleźć rozkład stacjonarny. Znaleźć
przybliżone prawdopodobieństwo zmoknięcia naukowca w danym
(odległym) dniu, a następnie wykazać, że 5 parasoli jest w stanie
ochronić go w 95% przed zmoknięciem (dla dowolnego p).
10. Proces Xn jest łańcuchem Markowa.
(i) Czy dla dowolnego n≥0, liczb 0≤i0<i1<…<ik=n oraz
stanów a0, a1, …, ak+1 mamy
|
P(Xn+1=ak+1|Xik=ak,Xik-1=ak-1,…,Xi0=a0)=P(Xn+1=ak+1|Xik=ak)? |
|
(ii) Czy dla dowolnego n≥0, liczb 0≤i0<i1<…<ik=n oraz
zbiorów A0, A1, …, Ak+1 mamy
|
P(Xn+1∈Ak+1|Xik∈Ak,Xik-1∈Ak-1,…,Xi0∈A0)=P(Xn+1∈Ak+1|Xik∈Ak)? |
|
11. Dany jest łańcuch Markowa Xn o macierzy przejścia P,
której każdy wiersz jest taki sam. Udowodnić, że zmienne X0,
X1, … są niezależne.
12. Dany jest łańcuch Markowa Xn startujący ze stanu
i. Niech τ=infn≥1:Xn≠i. Udowodnić, że τ ma
rozkład geometryczny.
13. Rozważamy błądzenie losowe po Z2: stan
i,j∈Z2 komunikuje się w jednym kroku z każdym ze
stanów i±1,j, i,j±1 z prawdopodobieństwem 1/4.
Udowodnić, że wszystkie stany są powracalne. Udowodnić, że nie
istnieje rozkład stacjonarny.
14. Niech α będzie ustaloną liczbą dodatnią. Dany jest łańcuch Markowa na E=1, 2,…
startujący z 1, o następujących prawdopodobieństwach przejścia:
stan k∈E prowadzi w jednym kroku do 1 z prawdopodobieństwem
k+1-α oraz do k+1 z prawdopodobieństwem
1-k+1-α. Czy
łańcuch jest okresowy? Czy jest nieprzywiedlny? Dla jakich α
łańcuch jest powracalny? Dla jakich α istnieje rozkład
stacjonarny?
15. Dany jest spójny graf W,K o skończonej liczbie
wierzchołków oraz łańcuch Markowa o
wartościach w V taki, że z każdego wierzchołka x∈V można w
jednym kroku dojść do jednego z wierzchołków sąsiadujących z x.
Niech nx oznacza liczbę sąsiadów x. Udowodnić, że
πx=nx/2K jest rozkładem stacjonarnym.
16. W modelu dyfuzji (przykład 5) powyżej) z n=20,
załóżmy, że w chwili 0 nie ma żadnej cząstki w pojemniku I. Wyznaczyć
przybliżone prawdopodobieństwo tego, że w chwili 10000 nie będzie
żadnej cząstki w I pojemniku.