Zagadnienia

6. Łańcuchy Markowa

6.1. Podstawowe definicje

Zajmiemy się teraz kolejną ważną klasą procesów stochastycznych: łańcuchami Markowa.

Niech E będzie ,,przestrzenią stanów”: skończonym lub przeliczalnym zbiorem. Jego elementy będziemy oznaczać literami j, k, bądź 1, 2, .

Definicja 6.1

Macierz P=piji,jE×E nazywamy macierzą stochastyczną, jeśli pij0,1 dla wszystkich i, jE oraz jEpij=1 dla każdego iE.

Definicja 6.2

Załóżmy, że Ω,F,P jest przestrzenią probabilistyczną, E, P są j.w., ustalone. Jednorodnym łańcuchem Markowa o wartościach w E i macierzy przejścia P nazywamy ciąg Xnn=0,1,2, zmiennych losowych takich, że

P(Xn+1=an+1|Xn=an,Xn-1=an-1,,X0=a0)=P(Xn+1=an+1|Xn=an)=panan+1

dla wszystkich a0, a1, , an+1 takich, że zdarzenie warunkujące ma dodatnie prawdopodobieństwo. Równoważnie,

P(Xn+1=j|X0,X1,,Xn)=P(Xn+1=j|Xn)=pXnj.

Liczba pij jest prawdopodobieństwem przejścia ze stanu i do stanu j w jednym kroku.

Przykłady:

1) Załóżmy, że X0, X1, X2, są niezależnymi zmiennymi losowymi o tym samym rozkładzie, przyjmującymi wartości w zbiorze E, przy czym PXn=j=pj dla jE. Wówczas

P(Xn+1=an+1|Xn=an,,X0=a0)=P(Xn+1=an+1)=pj=P(Xn+1=an+1|Xn=an),

a zatem Xnn jest łańcuchem Markowa; mamy

P=p1p2p1p2p1p2.

2) (Błądzenie losowe) Załóżmy, że ξ1, ξ2, są niezależnymi zmiennymi losowymi o rozkładzie Pξn=1=p, Pξn=-1=q=1-p. Niech X0=0, Xn=ξ1+ξ2++ξn dla n1. Mamy

P(Xn+1=an+1|Xn,Xn-1,,X0)=P(Xn+ξn+1=an+1|ξ0,ξ1,,ξn)=pjeśli Xn=an+1-1,qjeśli Xn=an+1+1,0w pozostałych przypadkach=P(Xn+1=an+1|Xn).

3) (Błądzenie z pochłanianiem na brzegu). Załóżmy, że a,bZ+, Xn jak poprzednio, przy czym po dojściu do -a bądź b proces zatrzymuje się. Otrzymany ciąg zmiennych losowych także jest łańcuchem Markowa. Mamy E=-a,-a+1,,b-1,b i

P=100000q0p0000q0p0000q00000000p000001

4) (Błądzenie z odbiciem od brzegu). Niech a,bZ+, Xn jak poprzednio, przy czym po dojściu do -a przechodzimy do -a+1, po dojściu do b przechodzimy do b-1. Wówczas otrzymany proces jest łańcuchem Markowa o macierzy przejścia jak poprzednio, tyle że pierwszy wiersz to 0,1,0,0,,0, a ostatni - 0,0,,0,1,0.

5) (Model dyfuzji cząstek). Danych jest n cząstek w dwóch pojemnikach: I i II. Co jednostkę czasu losowo wybrana cząstka przemieszcza się z jednego pojemnika do drugiego.

Niech Xn oznacza liczbę cząstek w pojemniku I w chwili n. Przestrzeń stanów to E=0,1,2,,n oraz

pi,i+1=n-in dla in-1,pi,i-1=in dla i1.

Pozostałe pij są równe 0:

P=010001/n01-1/n0002/n000003/n0000001/n00010.
Stwierdzenie 6.1

Załóżmy, że Xn jest łańcuchem Markowa z macierzą przejścia P=pij. Wówczas dla każdej ograniczonej funkcji f:ER i dowolnego n,

E(f(Xn+1)|X0,X1,,Xn)=E(f(Xn+1)|Xn)=jEf(j)pXnj. (*)
Dowód:

Mamy

E(f(Xn+1)|X0,X1,,Xn)=jEE(f(Xn+1)1{Xn+1=j}|X0,X1,,Xn=jEf(j)P(Xn+1=j|X0,X1,,Xn)=jEf(j)pXnj.

Stąd równość skrajnych stron w (*). Aby otrzymać prawą równość, wystarczy powtórzyć powyższe rozumowanie z warunkowaniem tylko po zmiennej Xn.

Twierdzenie 6.1

Załóżmy, że Xn, E, P - jak wyżej. Wówczas dla wszystkich n=0, 1, 2,, k=1, 2,, jE,

P(Xn+k=j|X0,X1,,Xn)=P(Xn+k=j|Xn)=pXnjk,

gdzie pijki,jE=Pk. Macierz tę możemy interpretować jako macierz przejścia w k krokach.

Dowód:

Stosujemy indukcję ze względu na k. Dla k=1 dostajemy definicję łańcucha Markowa. Przypuśćmy, że teza zachodzi dla pewnego k1. Mamy

P(Xn+k+1=j|X0,X1,,Xn)=E(1j(Xn+k+1)|X0,X1,,Xn)=E(E(1j(Xn+k+1)|X0,X1,,Xn+1)|X0,X1,,Xn)=z.ind.E(pXn+1jk|X0,X1,,Xn)=Stw.iEpijkpXni=z.ind.pXnjk+1.
Wniosek 6.1 (Równanie Chapmana-Kołmogorowa)

Dla wszystkich k,n1 oraz i,jE,

pijk+n=iEpilkpljn.
Dowód:

Wynika to natychmiast z równości Pk+n=PkPn.

Stwierdzenie 6.2

Przy założeniach jak wyżej, dla dowolnego n0 oraz i0,i1,,inE,

P(X0=i0,X1=i1,,Xn=in)=P(X0=i0)pi0i1pi1i2pin-1in.
Dowód:

Mamy

E(1i0(X0)1i1(X1)1in(Xn))=E[E(|X0,X1,,Xn-1)]=E[1i0(X0)1i1(X1)1in(Xn-1))P(Xn=in|X0,X1,,Xn-1)pXn-1in=pin-1in]

itd.

Definicja 6.3

Rozkład zmiennej X0 nazywamy rozkładem początkowym. Jest on jednoznacznie wyznaczony przez ciąg πiiE liczb nieujemnych o sumie 1.

Podane niżej twierdzenie mówi, iż każda macierz stochastyczna i rozkład początkowy prowadzą do pewnego łańcucha Markowa. Twierdzenie to pozostawimy bez dowodu.

Twierdzenie 6.2

Niech E będzie zbiorem co najwyżej przeliczalnym. Wówczas dla każdej macierzy stochatycznej P oraz miary probabilistycznej π na E istnieje przestrzeń probabilistyczna i określony na niej łańcuch Markowa o macierzy przejścia P i rozkładzie początkowym π.

6.2. Klasyfikacja stanów

Mówimy, że stan j jest osiągalny ze stanu i, jeśli pijn>0 dla pewnego n1. Mówimy, że stany i oraz j się komunikują, jeśli j jest osiągalny z i oraz i jest osiągalny z j. Stan i jest nieistotny, jeśli istnieje taki stan j, że j jest osiągalny z i oraz i nie jest osiągalny z j. Jak łatwo sprawdzić, korzystając z równania Chapmana-Kołmogorowa, relacja ,,osiągalności” jest przechodnia: istotnie, jeśli j jest osiągalny z i oraz k jest osiągalny z j, to dla pewnych m, n1, pijm>0 i pjkn>0, a zatem

pikm+n=lEpilmplknpijmpjkn>0.

Aby zilustrować powyższe definicje, odnotujmy, iż dla błądzenia losowego po liczbach całkowitych (przykład 2 powyżej), wszystkie stany wzajemnie się komunikują. Natomiast w przypadku pochłaniania na brzegu (przykład 3), stany -a+1,-a+2,,b-1 są nieistotne.

Zbiór stanów S nazywamy zamkniętym, jeśli dla dowolnego iS oraz jS, stan j nie jest osiągalny ze stanu i (innymi słowy, startując ze stanu wewnątrz C, z prawdopodobieństwem 1 nie wychodzimy nigdy z tego zbioru). Jeśli stan k ma tę własność, że zbiór k jest zamknięty (tzn. mamy pkkn=1 dla wszystkich n), to stan ten nazywamy pochłaniającym. łańcuch Markowa nazywamy nieprzywiedlnym, jeśli wszystkie stany komunikują się ze sobą. Przykładowo, łańcuch Markowa pojawiający się w modelu dyfuzji cząstek (przykład 5) jest nieprzywiedlny.

Uwaga: Załóżmy, że C jest zamkniętym zbiorem stanów łańcucha Markowa o macierzy przejścia P=piji,jE×E. Wówczas możemy rozpatrzyć łańcuch Markowa ,,zawężony” do C: jako nową przestrzeń stanów bierzemy zbiór C, a macierz przejścia zadana jest przez pij(i,j)]inC×C (wykreślamy z macierzy P wiersze i kolumny odpowieadające stanom nienależącym do C). Przykładowo, załóżmy, że macierz przejścia łańcucha na E=1,2,3,4 wynosi

1/21/2001/43/40001/31/21/61/51/52/51/5.

Jak łatwo zauważyć, zbiór C=1,2 jest zamknięty i indukuje łańcuch Markowa o wartościach w tym zbiorze i macierzy przejścia 1/21/21/43/4.

Niech

Fkj=P(n=1{Xn=j}|X0=k)

będzie prawdopodobieństwem tego, że startując z k łańcuch dojdzie kiedyś do stanu j. Mamy

Fkj=n=1fkjn,

gdzie

fkj=P(X1j,X2j,,Xn-1j,Xn=j|X0=k)

jest prawdopodobieństwem że startując z k łańcuch dochodzi do j po raz pierwszy w chwili n.

Definicja 6.4

Stan j nazywamy powracającym, jeśli Fjj=1. Stan j nazywamy chwilowym (tranzytywnym), jeśli Fjj<1.

Niech Nj=n=11{Xn=j} będzie zmienną losową zliczającą ile razy proces Xn był w stanie j (nie biorąc pod uwagę zmiennej X0). Mamy następujący fakt.

Stwierdzenie 6.3

(i) Stan j jest powracający wtedy i tylko wtedy, gdy P(Nj=|X0=j)=1.

(ii) Stan j jest chwilowy wtedy i tylko wtedy, gdy PNjX0=j=1.

Dowód:

Niech Ak={proces Xn był w stanie j co najmniej k razy}. Oczywiście Ak+1Ak, a zatem z twierdzenia o ciagłości

limkP(Ak|X0=i)=P(k=1Ak|X0=i)=P(Nj=|X0=i).

Wykażemy, że

P(Ak|X0=i)=FijFjjk-1. (*)

Wówczas dostaniemy (stosując tę równość dla i=j), iż P(Nj=|X0=j)=1 wtedy i tylko wtedy, gdy Fjj=1 (to teza (i)) oraz P(Nj=|X0=j)=0 wtedy i tylko wtedy, gdy Fjj<1 (co jest równoważne tezie (ii)).

Pozostaje więc udowodnić (*). Intuicyjnie ten wynik jest jasny: jeśli mamy k razy odwiedzić stan j (przy założeniu, że startujemy z i), to musimy dojść z i do j, a potem k-1 razy powrócić do j po pewnych liczbach kroków. Formalnie, ustalmy n1<n2<<nk. Mamy

P(Xnl=j dla l=1,2,,k,Xnj dla nnl,nnk|X0=i)=P(X1j,X2j,,Xn1-1j,Xn1=j|X0=i)××l=2k[P(Xnl-1+1j,Xnl-1+2j,,Xnl-1j,Xnl=j|Xnl-1=j)]=fij(n1)l=2nfjj(nl-nl-1).

Podstawmy m1=n1, mk=nk-nk-1. Mamy, dla ij,

P(Ak|X0=i)=m1,,mk1fij(m1)fjj(m2)fjj(mk)=(m1=1fij(m1))l=2k(ml=1fjj(ml))=FijFjjk-1.

Uwaga: W szczególności, P(Nj=|X0=i)=0 jeśli j jest stanem chwilowym. Zatem w przypadku stanu chwilowego, proces odwiedza go skończenie wiele razy niezależnie od punktu startowego.

Podane niżej twierdzenie charakteryzuje stany chwilowe i powracające w terminach macierzy przejścia. Wprowadźmy, dla każdego jE, liczbę Pj=n=1pjjn. Na mocy twierdzenia Fubiniego (dla funkcji nieujemnych),

Pj=n=1E(1j(Xn)|X0=j)=E(Nj|X0=j),

czyli Pj jest średnim czasem przebywania łańcucha w stanie j (przy założeniu startowania z tego stanu), nie licząc zmiennej X0.

Twierdzenie 6.3

(i) Stan j jest chwilowy wtedy i tylko wtedy, gdy Pj<.

(ii) Stan j jest powracający wtedy i tylko wtedy, gdy Pj=.

Dowód:

Zauważmy, iż na mocy wzoru na prawdopodobieństwo całkowite,

pjjk=m=0k-1fjjk-mpjjm,

gdzie przyjmujemy pjj0=1. Zatem, na mocy twierdzenia Fubiniego (dla funkcji nieujemnych),

k=1npjjk=k=1nm=0k-1fjjk-mpjjm=m=0n-1pjjmk=m+1nfjjk-mm=0npjjmFjj=Fjj+Fjjm=1npjjm,

czyli, równoważnie,

1-Fjjm=1npjjmFjj. (\Delta)

Jeśli stan j jest chwilowy, to (Δ) daje, iż

PjFjj1-Fjj<.

I w drugą stronę: jeśli Pj<, czyli E(Nj|X0=j)<, to P(Nj=|X0=j)=0 i na mocy poprzedniego twierdzenia j jest stanem chwilowym. To dowodzi (i). Część (ii) jest konsekwencją tego, że każdy stan jest albo chwilowy, albo powracający oraz tego, że Pj jest albo skończone, albo nie.

Przykład: Zbadamy błądzenie losowe po liczbach całkowitych. Mamy

p002n=2nnpnqn1πn4pqn,

na mocy wzoru Stirlinga. Ponadto, p002n+1=0. Stąd

n=1p00n<

wtedy i tylko wtedy,gdy p1/2. Zatem 0 jest stanem powracającym wtedy i tylko wtedy, gdy p=1/2.

W przypadku gdy wszystkie stany komunikują się wzajemnie, stany muszą być tego samego typu.

Twierdzenie 6.4

Załóżmy, że łańcuch Markowa jest nieprzywiedlny. Wówczas jeśli jeden stan jest chwilowy, to wszystkie są chwilowe; jeśli jeden stan jest powracający, to wszystkie są powracające.

Możemy więc mówić o łańcuchach określonego typu: chwilowych i powracających.

Weźmy dwa stany i, j. Istnieją liczby całowite dodatnie r, s takie, że α=pijr>0, β=pjis>0. Dla n1 mamy

piir+s+npijrpjjnpjis=αβpjjn

i podobnie pjjr+s+nαβpiin. Zatem dla n>r+s,

1αβpiir+s+npjjnαβpiin-r-s,

czyli asymptotyczne zachowanie ciągów piinn oraz pjjnn jest takie samo; w szczególności, n=1piin= wtedy i tylko wtedy, gdy n=1pjjn=.

Na zakończenie - następujący fakt dotyczący struktury stanów łańcucha Markowa ze względu na stany chwilowe i powracające (bez dowodu).

Stwierdzenie 6.4

Przestrzeń stanów E łańcucha Markowa możemy jednoznacznie przedstawić w postaci

E=CD1D2,

gdzie C jest zbiorem stanów chwilowych, a Di, i1 są nieprzywiedlnymi zamkniętymi zbiorami stanów powracających.

Przy danym rozbiciu przestrzeni E jak w powyższym stwierdzeniu, z prawdopodobieństwem 1 łańcuch Markowa zachowuje się następująco. Jeśli startuje on w zbiorze Di, i1, to nigdy go nie opuszcza i odwiedza wszystkie elementy tego zbioru; jeśli startuje on w zbiorze C, to albo pozostaje tam na zawsze (co może mieć miejsce tylko wtedy, gdy C ma nieskończenie wiele elementów), albo po skończonej liczbie kroków trafia do jednego ze zbiorów Di, i pozostaje tam na zawsze.

6.3. Rozkłady stacjonarne i twierdzenie ergodyczne

Definicja 6.5

Załóżmy, że P jest macierzą stochastyczną. Rozkład π na E nazywamy stacjonarnym (niezmienniczym), jeśli πP=π (tzn. dla wszystkich jE, iEπipij=πj.

Rozkład stacjonarny ma następujące własności. Po pierwsze zauważmy, że jeśli π jest rozkładem stacjonarnym, to dla każdego n1, πPn=π (oczywista indukcja). Innymi słowy, jeśli Xn jest łańcuchem Markowa o macierzy przejścia P i rozkładzie początkowym π, to dla n1, rozkład Xn jest równy π. Można nawet powiedzieć więcej: dla wszystkich n1 oraz dowolnego ciągu m1<m2<<mk (k1 również jest dowolne) wektor Xm1,Xm2,,Xmk ma ten sam rozkład co Xn+m1,Xn+m2,,Xn+mk. Istotnie,

PXn+m1=j1,Xn+m2=j2,,Xn+mk=jk
=iEπipij1m1+npj1j2m2-m1pjk-1jkmk-mk-1=πj1pj1j2m2-m1pjk-1jkmk-mk-1,

co nie zależy od n.

łańcuch o takiej własności nazywamy stacjonarnym.

Definicja 6.6

Okresem stanu j nazywamy największą taką liczbę n, że powrót do stanu j jest możliwy tylko po liczbie kroków podzielnej przez n: oj=NWDn:pjjn>0.

Stan nazywamy okresowym jeśli oj>1 i nieokresowym, jeśli oj=1.

Stwierdzenie 6.5

W nieprzywiedlnym łańcuchu Markowa wszystkie stany mają ten sam okres.

Wobec tego następująca definicja ma sens.

Definicja 6.7

Nieprzywiedlny łańcuch Markowa Xn nazywamy okresowym, jeśli wszystkie jego stany mają okres większy niż 1. W przeciwnym razie łańcuch nazywamy nieokresowym.

Lemat 6.1

łańcuch jest nieprzywiedlny i nieokresowy wtedy i tylko wtedy, gdy jest spełniony warunek

i,jEn0nn0pijn>0. (O)
Dowód:

Oczywiście wystarczy tylko udowodnić implikację . Ustalmy i,jE oraz liczbę m taką, że pijm>0. Z definicji nieokresowości, istnieją liczby względnie pierwsze n1,n2,,nk takie, że pjjnl>0, l=1, 2,,k. Jeśli n jest dostatecznie duże, to

n=a1n1+a2n2++aknk,dla pewnych alZ+,

i mamy

pjjnlpjjalnllpjjnlal>0.

Zatem

pijm+npijmpjjn>0

o ile m+n jest dostatecznie duże.

Twierdzenie 6.5

Załóżmy, że warunek (O) jest spełniony i istnieje rozkład stacjonarny π. Wówczas każdy stan jest powracalny, rozkład stacjonarny jest jednoznaczny oraz dla wszystkich i,jE,

limnpijn=πj.

Uwaga: Jak widać, przy założeniach twierdzenia, pijn ,,przestaje zależeć od i” o ile n jest duże. Innymi słowy, po dużej liczbie kroków łańcuch ,,zapomina”, z jakiego stanu wystartował.

Dowód:

Dowód przeprowadzimy w pięciu krokach.

1. Wszystkie stany są albo powracalne, albo chwilowe. Załóżmy, że ma miejsce ta druga możliwość. Liczba n=1pijn jest średnim czasem przebywania w stanie j przy założeniu startowania ze stanu i. Na mocy własności Markowa, mamy zatem

k=1pijn=FijPj<,

a zatem pijn0 gdy n. Z drugiej strony, dla każdego jE,

iEπipijn=πj

i lewa strona dąży do 0 na mocy tw. Lebesgue'a o zmajoryzowanym przejściu do granicy. Stąd π0 i sprzeczność.

2. Rozważmy nową przestrzeń stanów E×E oraz macierz przejścia P2 na tej przestrzeni, o wyrazach pi,jk,l=pikpjl (oczywiście jest to macierz stochastyczna). Niech π2=πiπji,jE×E będzie rozkładem na E×E: jest to rozkład stacjonarny dla P2. Niech Xn,Xn′′ będzie łańcuchem Markowa z tą macierzą przejścia: Xn oraz Xn′′ to dwa niezależne łańcuchy Markowa o macierzach przejścia P, startujące ze stanów i, j, odpowiednio. Ponieważ będziemy zmieniać te punkty startowe, wygodnie nam będzie pracować na miarach probabilistycznych Pij=P(|X0=i,X0′′=j). Jak łatwo sprawdzić, warunek (O) jest spełniony; zatem na mocy kroku 1., z każdego stanu i,j można dojść do każdego innego; w szczególności do stanu k,k. Zatem dla wszystkich i,jE, Pij(Xn=Xn′′ dla pewnego n)=1.

3. Niech τ=infn:Xn=Xn′′. Definiujemy

Yn,Yn′′=Xn,Xn′′dla n<τ,Xn,Xndla nτ.

Z powyższej dyskusji wynika, że dla wszystkich i,jE,

limnPijYnYn′′=0.

Sprawdzimy teraz, że Yn, Yn′′ są łańcuchami Markowa (względem miary probabilistycznej Pij) z macierzą przejścia P. Ograniczymy się tylko do procesu Yn′′;w przypadku Yn przekształcenia są analogiczne.

Pij(Yn+1′′=k|Xs,Xs′′,sn)=Pij(Yn+1′′=k,τ<n|Xs,Xs′′,sn)+Pij(Yn+1′′=k,τn|Xs,Xs′′,sn)=Pij(Xn+1=k|Xs,Xs′′,sn)1{τ<n}+Pij(Xn+1′′=k|Xs,Xs′′,sn)1{τn}=Pij(Xn+1=k|Xs,sn)1{τ<n}+Pij(Xn+1′′=k|Xs′′,sn)1{τn}=pXnk1{τ<n}+pXn′′k1{τn}=pYn′′k

i wystarczy obłożyć obie strony warunkową wartością oczekiwaną względem ciągu Y0′′,Y1′′,,Yn′′.

4. Pokażemy, że dla i,j,kE, pikn-pjkn0. Mamy PA-PBPAB+PBA, więc

|pikn-pjkn|=|Pij(Yn=k)-Pij(Yn′′=k)|Pij(Yn=k,Yn′′k)+Pij(Ynk,Yn′′=k)Pij(YnYn′′)0.

5. Mamy, dla wszystkich kE, iEπipikn=πk, skąd, na mocy poprzedniej części oraz twierdzenia Lebesgue'a,

πk-pjkn=iEπipikn-pjkn0.

Jednoznaczność rozkładu stacjonarnego jest oczywista: πk jest wyznaczony jako granice pikn.

Na zakończenie zaprezentujemy następujący fakt. Dowodzi się go używając podobnej argumentacji jak w poprzednim twierdzeniu. Szczegóły pozostawiamy czytelnikowi.

Twierdzenie 6.6

Jeśli E jest zbiorem skończonym i zachodzi warunek (O), to istnieje rozkład stacjonarny i zachodzi teza poprzedniego twierdzenia.

6.4. Zadania

1. Niech E będzie pewnym zbiorem przeliczalnym. Dany jest ciąg Xn niezależnych zmiennych losowych oraz ciąg funkcyjny fn, fn:E×RE. Definiujemy ciąg Yn wzorem

Yn+1=fYn,Xn,n=0,1,2,,

gdzie Y0 jest pewną zmienną losową o wartościach w E. Dowieść, że Yn jest łańcuchem Markowa.

2. Dany jest łańcuch Markowa Xn na pewnej przestrzeni E oraz różnowartościowa funkcja f:EE. Wykazać, że fXn jest łańcuchem Markowa. Co jeśli f nie jest różnowartościowa?

3. Dany jest ciąg Xn niezależnych zmiennych losowych o tym samym rozkładzie PXn=±1=12. Rozstrzygnąć, które z podanych niżej procesów są łańcuchami Markowa:

U0=0,Un=X1+X2++Xn,n1,
Wn=X0X1X2Xn,n0,
Vn=-1Un,n0,
Yn=XnXn+1,n0,
Zn=Xn+Xn+12,n0.

4. Dany jest ciąg Xn niezależnych zmiennych losowych o tym samym rozkładzie PXn=1=p=1-PXn=-1, p0,1. Niech Sn=X1+X2++Xn, n=1,2,. Udowodnić, że ciągi

Yn=Sn,Zn=maxknSk-Sn

są łańcuchami Markowa.

5. Rzucamy kostką tak długo, aż pojawi się ciąg 16 lub 66. Jakie jest prawdopodobieństwo, że ciąg 16 pojawi się wcześniej?

6. Rzucamy symetryczną monetą aż do momentu, gdy wyrzucimy serię 4 orłów. Obliczyć wartość oczekiwaną liczby przeprowadzonych rzutów.

7. Macierz przejścia łańcucha Markowa Xnn na przestrzeni E=1,2,3,4 dana jest następująco:

P=0121201412014230013023130.
  • a) Jakie jest prawdopodobieństwo dojścia w dwóch krokach ze stanu 1 do stanu 2?

  • b) Zakładając, że X0=1 p.n. obliczyć prawdopodobieństwo tego, że Xn będzie w stanie 2 przed stanem 4.

  • c) Zakładając, że X0=3 p.n. obliczyć wartość oczekiwaną czasu dojścia do stanu 2.

  • d) Wyznaczyć rozkład stacjonarny. Czy łańcuch jest okresowy? Czy jest nieprzywiedlny?

8. Po wierzchołkach pięciokąta ABCDE porusza się pionek. W chwili początkowej znajduje się w punkcie A, a w każdym kolejnym ruchu przesuwa się w sposób niezależny od poprzednich ruchów z prawdopodobieństwem 1/2 do jednego z sąsiednich wierzchołków. Obliczyć

a) prawdopodobieństwo, że pionek powróci do punktu A przed dotarciem do punktu C,

b) wartość oczekiwaną liczby ruchów, jakie wykona pionek przed powrotem do punktu A.

9. Naukowiec mający r parasoli wędruje między domem a biurem, zabierając ze sobą parasol (jeśli jest on pod ręką) wtedy, gdy pada (prawdopodobieństwo p), lecz nie przy bezdeszczowej pogodzie (prawdopodobieństwo q=1-p). Niech stanem łańcucha Markowa będzie liczba parasoli znajdujących się pod ręką, bez względu na to, czy naukowiec jest w domu, czy w miejscu pracy. Skonstruować macierz przejścia i znaleźć rozkład stacjonarny. Znaleźć przybliżone prawdopodobieństwo zmoknięcia naukowca w danym (odległym) dniu, a następnie wykazać, że 5 parasoli jest w stanie ochronić go w 95% przed zmoknięciem (dla dowolnego p).

10. Proces Xn jest łańcuchem Markowa.

(i) Czy dla dowolnego n0, liczb 0i0<i1<<ik=n oraz stanów a0, a1, , ak+1 mamy

P(Xn+1=ak+1|Xik=ak,Xik-1=ak-1,,Xi0=a0)=P(Xn+1=ak+1|Xik=ak)?

(ii) Czy dla dowolnego n0, liczb 0i0<i1<<ik=n oraz zbiorów A0, A1, , Ak+1 mamy

P(Xn+1Ak+1|XikAk,Xik-1Ak-1,,Xi0A0)=P(Xn+1Ak+1|XikAk)?

11. Dany jest łańcuch Markowa Xn o macierzy przejścia P, której każdy wiersz jest taki sam. Udowodnić, że zmienne X0, X1, są niezależne.

12. Dany jest łańcuch Markowa Xn startujący ze stanu i. Niech τ=infn1:Xni. Udowodnić, że τ ma rozkład geometryczny.

13. Rozważamy błądzenie losowe po Z2: stan i,jZ2 komunikuje się w jednym kroku z każdym ze stanów i±1,j, i,j±1 z prawdopodobieństwem 1/4. Udowodnić, że wszystkie stany są powracalne. Udowodnić, że nie istnieje rozkład stacjonarny.

14. Niech α będzie ustaloną liczbą dodatnią. Dany jest łańcuch Markowa na E=1, 2, startujący z 1, o następujących prawdopodobieństwach przejścia: stan kE prowadzi w jednym kroku do 1 z prawdopodobieństwem k+1-α oraz do k+1 z prawdopodobieństwem 1-k+1-α. Czy łańcuch jest okresowy? Czy jest nieprzywiedlny? Dla jakich α łańcuch jest powracalny? Dla jakich α istnieje rozkład stacjonarny?

15. Dany jest spójny graf W,K o skończonej liczbie wierzchołków oraz łańcuch Markowa o wartościach w V taki, że z każdego wierzchołka xV można w jednym kroku dojść do jednego z wierzchołków sąsiadujących z x. Niech nx oznacza liczbę sąsiadów x. Udowodnić, że πx=nx/2K jest rozkładem stacjonarnym.

16. W modelu dyfuzji (przykład 5) powyżej) z n=20, załóżmy, że w chwili 0 nie ma żadnej cząstki w pojemniku I. Wyznaczyć przybliżone prawdopodobieństwo tego, że w chwili 10000 nie będzie żadnej cząstki w I pojemniku.

Treść automatycznie generowana z plików źródłowych LaTeXa za pomocą oprogramowania wykorzystującego LaTeXML.

Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego.

Projekt współfinansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego i przez Uniwersytet Warszawski.