Notice: Undefined index: mode in /home/misc/mst/public_html/common.php on line 63 Notice: Undefined index: mode in /home/misc/mst/public_html/common.php on line 65 Notice: Undefined index: mode in /home/misc/mst/public_html/common.php on line 67 Notice: Undefined index: mode in /home/misc/mst/public_html/common.php on line 69 Notice: Undefined variable: base in /home/misc/mst/public_html/lecture.php on line 36 Modele matematyczne biologii i medycyny – 10. Doświadczenia Mendla: łańcuchy Markowa w klasycznej genetyce II – MIM UW

Zagadnienia

10. Doświadczenia Mendla: łańcuchy Markowa w klasycznej genetyce II

10.1. Łańcuchy pochłaniające i ciągłe krzyżowanie z dominantą

Dla łańcuchów pochłaniających postać kanoniczna macierzy przejścia przedstawia się następująco

\mathbf{P}=\left(\begin{array}[]{cc}\mathbb{I}&0\\
R&Q\end{array}\right),

gdzie \mathbb{I} oznacza macierz jednostkową wymiaru m\times m reprezentującą m stanów pochłaniających, R jest macierzą wymiaru (n-m)\times m przejścia ze stanów nieistotnych do stanów pochłaniających, a Q — macierzą (n-m)\times(n-m) przejścia ze stanów nieistotnych do stanów nieistotnych. Zauważmy, że dla takich łańcuchów wygodniej jest zdefiniować postać kanoniczną inaczej niż poprzednio — zaczynamy numerowanie od stanów pochłaniających, dopiero później bierzemy pod uwagę stany nieistotne.

Z własności stanów nieistotnych i stanów pochłaniających wynika, że

  1. Q^{t}\to 0 dla t\to\infty (zbieżność po wyrazach);

  2. macierz \mathbb{I}-Q jest odwracalna;

  3. (\mathbb{I}-Q)^{{-1}}=\sum\limits _{{s=0}}^{{\infty}}Q^{s} .

Własność 1. wynika z ogólnego twierdzenia dotyczącego łańcuchów Markowa, które orzeka, że niezależnie od stanu początkowego prawdopodobieństwo trafienia do stanu komunikującego się po t krokach dąży do 1 przy t\to\infty, a ponieważ Q odpowiada stanom nieistotnym, zatem każde z pozostałych prawdopodobieństw dąży do 0. Dalej zauważmy, że

\mathbb{I}-Q^{t}=(\mathbb{I}-Q)(\mathbb{I}+Q+Q^{2}+\ldots+Q^{{t-1}}).

Skoro Q^{t}\to 0, to \mathbb{I}-Q^{t}\to\mathbb{I}, a z ciągłości wyznacznika wynika, że dla dostatecznie dużych t zachodzi \det(\mathbb{I}-Q^{t})\ne 0, czyli także \det(\mathbb{I}-Q)\ne 0, więc macierz \mathbb{I}-Q jest odwracalna. Stąd

(\mathbb{I}-Q)^{{-1}}(\mathbb{I}-Q^{t})=\mathbb{I}+Q+Q^{2}+\ldots+Q^{{t-1}}

i przechodząc do granicy t\to\infty dostajemy wzór 3.

W przypadku łańcuchów pochłaniających interesują nas głównie następujące zagadnienia dotyczące łańcucha, dla którego stanem początkowym jest pewien nieistotny stan \mathcal{W}_{i}.

    [I]
  1. Jaka jest oczekiwana liczba przejść przez stan \mathcal{W}_{j}, zakładając że stanem początkowym jest \mathcal{W}_{i}?

  2. Jaka jest oczekiwana liczba kroków przed absorpcją, jeśli stanem początkowym jest \mathcal{W}_{i}?

  3. Jakie jest prawdopodobieństwo absorpcji przez dany stan pochłaniający \mathcal{W}_{j}, jeśli stanem początkowym jest \mathcal{W}_{i}?

Dla macierzy przejścia w postaci kanonicznej definiujemy następującą macierz fundamentalną

\mathbf{N}=(\mathbb{I}-Q)^{{-1}}=\left(\eta _{{ij}}\right)_{{i,j=1}}^{{n-m}}

łańcucha pochłaniającego. Macierz ta zawiera wszystkie istotne informacje dotyczące zachowań asymptotycznych. W szczególności

Twierdzenie 10.1

Niech \mathbf{N} będzie macierzą fundamentalną łańcucha pochłaniającego.

  1. Oczekiwana liczba przejść przez stan \mathcal{W}_{j} przy stanie początkowym \mathcal{W}_{i} jest równa \eta _{{ij}}.

  2. Oczekiwana liczba kroków przed absorpcją dla łańcucha o stanie początkowym \mathcal{W}_{i} zadana jest jako suma wyrazów w i. wierszu macierzy \mathbf{N}.

  3. Niech \mathbf{B}=(b_{{ij}}) będzie (n-m)\times m macierzą prawdopodobieństw absorpcji przez stan \mathcal{W}_{j} przy stanie początkowym \mathcal{W}_{i}. Wtedy \mathbf{B}=\mathbf{N}R.

Niech e_{{ij}} oznacza oczekiwaną liczba przejść przez stan \mathcal{W}_{j} przy stanie początkowym \mathcal{W}_{i}. Wprowadźmy zmienną losową

\zeta _{j}^{{(t)}}=\left\{\begin{array}[]{ll}1&\text{gdy}\  X_{t}=j,\\
0&\text{wpp}.\end{array}\right.

Niech E_{i}(x) oznacza wartość średnią x przy warunku, że proces zaczął się w stanie \mathcal{W}_{i}. Wtedy

e_{{ij}}=E_{i}\left(\sum\limits _{{s=0}}^{{\infty}}\zeta _{j}^{{(s)}}\right)=\sum\limits _{{s=0}}^{{\infty}}E_{i}\left(\zeta _{j}^{{(s)}}\right)=\sum\limits _{{s=0}}^{{\infty}}\Big((1-p_{{ij}}^{{(s)}})\cdot 0+p_{{ij}}^{{(s)}}\cdot 1\Big),

czyli ostatecznie e_{{ij}}=\sum\limits _{{s=0}}^{{\infty}}p_{{ij}}^{{(s)}}. Skoro p_{{ij}}^{{(s)}} jest (i,j). wyrazem macierzy Q^{s}, to e_{{ij}} jest (i,j). wyrazem macierzy \mathbf{N}, czyli \eta _{{ij}}.

Bezpośrednio z tego wzoru otrzymujemy także, że średni czas do absorpcji jest sumą wyrazów w wierszu i.

Wyprowadzimy teraz wzór rekurencyjny na prawdopodobieństwo b_{{ij}}. Niech \mathcal{W}_{i} będzie stanem początkowym nieistotnym. W pierwszym kroku łańcuch może przejść do interesującego nas stanu pochłaniającego \mathcal{W}_{j}, do innego stanu pochłaniającego \mathcal{W}_{k}, k\ne j, albo do któregoś ze stanów nieistotnych \mathcal{W}_{l} z prawdopodobieństwami zadanymi przez macierz \mathbf{P}. Prawdopodobieństwa absorpcji przez stan \mathcal{W}_{j} ze stanu \mathcal{W}_{j}, \mathcal{W}_{k} oraz \mathcal{W}_{l} są odpowiednio równe 1, 0 oraz b_{{lj}}. Stąd

b_{{ij}}=p_{{ij}}+\sum\limits _{{l=m+1}}^{n}p_{{il}}b_{{lj}}.

Skoro \mathcal{W}_{i} oraz \mathcal{W}_{j} są odpowiednio stanem nieistotnym i pochłaniającym, więc p_{{ij}} jest (i,j). wyrazem macierzy R i analogicznie p_{{il}} jest (i,l). wyrazem macierzy Q. Zatem

\mathbf{B}=R+Q\mathbf{B}\ \ \Longrightarrow\ \ \mathbf{B}=(\mathbb{I}-Q)^{{-1}}R=\mathbf{N}R.

Zastosujemy teraz powyższe twierdzenie do opisu asymptotyki rosyjskiej ruletki oraz do opisu doświadczenia polegającego na ciągłym krzyżowaniu z dominantą.

W przypadku rosyjskiej ruletki mamy jeden stan pochłaniający \mathcal{M} i jeden stan nieistotny \mathcal{Z}. Odpowiednie podmacierze macierzy \mathbf{P} są jednoelementowe

Q=(5/6),\quad R=(1/6),\quad\mathbf{N}=(1-5/6)^{{-1}}=(6),\quad\mathbf{B}=\mathbf{N}R=1.

Ponieważ jest tylko jeden stan pochłaniający, więc oczywiście prawdopodobieństwo znalezienia się w tym stanie po dostatecznie długim czasie wynosi 1, natomiast oczekiwana liczba kroków do absorpcji równa się 6.

Ciągłe krzyżowanie z dominantą

Rozpatrzmy teraz następujący ciąg doświadczeń tworzący łańcuch Markowa. Bierzemy ustalonego osobnika o genotypie dominującym DD i krzyżujemy go z nieznanym osobnikiem. W wyniku eksperymentu dostajemy potomka o genotypie zależnym od genotypu drugiego rodzica z prawdopodobieństwami wynikającymi z prawa Mendla. Mamy zatem 3 możliwe wyniki eksperymentu, ponieważ są 3 genotypy. Ponumerujmy je w następujący sposób:

DD=\mathcal{W}_{1},\quad DR=\mathcal{W}_{2},\quad RR=\mathcal{W}_{3}.

Odpowiednie prawdopodobieństwa wynoszą

  • p_{{11}}=1, gdyż zawsze ze skrzyżowania dominanty z dominantą otrzymujemy ten sam genotyp. Stąd p_{{1j}}=0 dla j=1,2 i stan \mathcal{W}_{1} jest pochłaniający.

  • p_{{21}}=1/2=p_{{22}} oraz p_{{23}}=0, gdyż krzyżując dominantę z hybrydą otrzymujemy z prawdopodobieństwem 1/2 albo dominantę, albo hybrydę, nie możemy natomiast dostać osobnika recesywnego;

  • p_{{31}}=0=p_{{33}}, p_{{32}}=1, ponieważ krzyżując osobnika recesywnego z dominantą zawsze dostajemy hybrydę.

Dla tego łańcucha Markowa macierz przejścia ma postać

\mathbf{P}_{D}=\left(\begin{array}[]{ccc}1&0&0\\
0,5&0,5&0\\
0&1&0\end{array}\right),

dla której

R=\left(\begin{array}[]{c}0,5\\
\par
\end{array}\right)\quad\text{oraz}\quad Q=\left(\begin{array}[]{cc}0,5&0\\
1&0\end{array}\right).

Policzmy macierz fundamentalną

\mathbf{N}=(\mathbb{I}-Q)^{{-1}}=\left(\begin{array}[]{cc}0,5&0\\
-1&1\end{array}\right)^{{-1}}=2\left(\begin{array}[]{cc}1&0\\
1&0,5\end{array}\right).

Na jej podstawie wnioskujemy, że jeśli wybranym rodzicem była hybryda, to średni czas do absorpcji wynosi 2, natomiast jeśli osobnik recesywny, to 2+1=3. Możemy jeszcze sprawdzić punkt 3. twierdzenia wykonując mnożenie

\mathbf{B}=\mathbf{N}R=2\left(\begin{array}[]{cc}1&0\\
1&0,5\end{array}\right)\left(\begin{array}[]{c}0,5\\
\par
\end{array}\right)=\left(\begin{array}[]{c}1\\
1\end{array}\right),

co oczywiście potwierdza, że z prawdopodobieństwem 1 nasz eksperyment kończy się osobnikami o genotypie DD.

Zauważmy jeszcze, że dokładnie w taki sam sposób możemy opisać ciągłe krzyżowanie z osobnikiem recesywnym. Wtedy macierz przejścia ma postać

\mathbf{P}_{R}=\left(\begin{array}[]{ccc}1&0&0\\
0,5&0,5&0\\
0&1&0\end{array}\right),

gdzie tym razem \mathcal{W}_{1}=RR, \mathcal{W}_{2}=DR oraz \mathcal{W}_{3}=DD, zatem odpowiednio numerując stany dostajemy dokładnie taką samą dynamikę łańcucha pochłaniającego jak w przypadku krzyżowania z dominantą.

10.2. Łańcuchy regularne i ciągłe krzyżowanie z hybrydą

Zajmiemy się teraz pewnym szczególnym przypadkiem łańcuchów nieprzywiedlnych.

Definicja 10.1

Łańcuch nieprzywiedlny nazwiemy regularnym, jeśli istnieje taka liczba k\in\mathbb{N}\setminus\{ 0\}, że z każdego stanu \mathcal{W}_{i}, i\in\{ 1,\ldots,n\} można dojść do dowolnego stanu \mathcal{W}_{j}, j\in\{ 1,\ldots,n\} w dokładnie k krokach.

Zauważmy, że rzut monetą jest łańcuchem regularnym, dla którego k=1. Natomiast łatwo podać przykład łańcucha nieprzywiedlnego, który nie jest regularny. Weźmy dla przykładu łańcuch o dwóch stanach \mathcal{W}_{1}, \mathcal{W}_{2}, dla którego macierz przejścia ma postać

\mathbf{P}=\left(\begin{array}[]{cc}0&1\\
1&0\end{array}\right)\ \Longrightarrow\ \mathbf{P}^{2}=\mathbb{I},

zatem np. ze stanu \mathcal{W}_{1} do \mathcal{W}_{2} przechodzimy zawsze w nieparzystej liczbie kroków, podczas gdy ze stanu \mathcal{W}_{1} do niego samego — w parzystej. Tak zdefiniowany łańcuch jest oczywiście łańcuchem okresowym. Co więcej, można udowodnić następujące twierdzenie

Twierdzenie 10.2

W nieprzywiedlnym łańcuchu Markowa wszystkie stany są tego samego typu, tzn. jeśli choć jeden stan jest powracający, to wszystkie są powracające, jeśli choć jeden jest zerowy, to wszystkie są zerowe, a jeśli choć jeden jest okresowy o okresie d, to wszystkie są okresowe o okresie d.

Niech \mathcal{W}_{i}, \mathcal{W}_{j} będą dwoma różnymi stanami. Ponieważ stany te komunikują się, więc istnieją takie M,N\in\mathbb{N}\setminus\{ 0\}, że

p_{{ij}}^{{(M)}}>0\quad\text{oraz}\quad p_{{ji}}^{{(N)}}>0.

Stosując wzór na prawdopodobieństwo całkowite

p_{{ii}}^{{(N+M+t)}}=\sum\limits _{{l,s=1}}^{n}p_{{il}}^{{(M)}}p_{{ls}}^{{(t)}}p_{{si}}^{{(N)}}

dostajemy nierówność

p_{{ii}}^{{(N+M+t)}}\geq p_{{ij}}^{{(M)}}p_{{jj}}^{{(t)}}p_{{ji}}^{{(N)}}=\alpha\beta p_{{jj}}^{{(t)}},

gdzie \alpha=p_{{ij}}^{{(M)}}>0, \beta=p_{{ji}}^{{(N)}}>0 oraz t\in\mathbb{N}\setminus\{ 0\}. Postępując analogicznie otrzymujemy nierówność

p_{{jj}}^{{(N+M+t)}}\geq\alpha\beta p_{{ii}}^{{(t)}}.

Stąd

\frac{1}{\alpha\beta}p_{{ii}}^{{(N+M+t)}}\geq p_{{jj}}^{{(t)}}\geq\alpha\beta p_{{ii}}^{{(t-M-N)}}.

Powyższe nierówności wykazują, że własności asymptotyczne ciągów \left(p_{{ii}}^{{(t)}}\right)_{{t\in\mathbb{N}}} oraz \left(p_{{jj}}^{{(t)}}\right)_{{t\in\mathbb{N}}} są takie same. W szczególności, jeśli stan \mathcal{W}_{i} jest zerowy, p_{{ii}}^{{(t)}}\to 0 przy t\to\infty, to także \mathcal{W}_{j} jest zerowy. Z kolei jeśli \mathcal{W}_{i} jest powracający, czyli P_{i}=\sum\limits _{{t=1}}^{{\infty}}p_{{ii}}^{{(t)}}=\infty, to \mathcal{W}_{j} ma tę samą własność. Załóżmy teraz, że \mathcal{W}_{i} jest okresowy o okresie d_{i}. Ponieważ p_{{ii}}^{{(M+N)}}\geq\alpha\beta>0, więc d_{i}/(M+N) (d_{i} dzieli M+N). Pokażemy, że \mathcal{W}_{j} jest okresowy i jego okres d_{j}=d_{i}. Zauważmy, że jeśli dla pewnego l zachodzi p_{{jj}}^{{(l)}}>0, to także p_{{ii}}^{{(l+M+N)}}>0, zatem d_{i}/(l+M+N), czyli d_{i}/l, więc d_{i}\leq d_{j}. Analogicznie d_{j}\leq d_{i}, skąd d_{i}=d_{j}.

W ogólnym przypadku dla łańcuchów nieprzywiedlnych asymptotykę opisuje następujące twierdzenie ergodyczne, którego dowód pomijamy.

Twierdzenie 10.3

Łańcuch Markowa jest nieprzywiedlny wtw jeśli dla każdego j\in\{ 1,\ldots,n\} istnieje niezależna od i granica

\lim _{{t\to\infty}}p_{{ij}}^{{(t)}}=p_{j},\ \  i,j\in\{ 1,\ldots,n\},

przy czym p_{j} są jednoznacznym rozwiązaniem układu

p_{j}=\sum\limits _{{i=1}}^{n}p_{i}p_{{ij}},\ \  j=1,\ldots,n,\quad\sum\limits _{{j=1}}^{n}p_{j}=1.

Taki asymptotyczny rozkład prawdopodobieństwa nazywamy rozkładem stacjonarnym. Wynika stąd, że zachowanie asymptotyczne badanego łańcucha nie zależy od stanu początkowego — łańcuch ma własność ,,zapominania” rozkładu początkowego.

Dla łańcuchów regularnych można udowodnić twierdzenie silniejsze.

Twierdzenie 10.4

Macierz \mathbf{P} łańcucha regularnego ma pojedynczą wartość własną równą 1. Macierz \mathbf{P}^{t} zbiega do macierzy stochastycznej W o wyrazach dodatnich, której wszystkie wiersze w są jednakowe. Zachodzi w\mathbf{P}=w.

Ponieważ dla łańcucha regularnego wszystkie wyrazy macierzy \mathbf{P}^{k} są dodatnie, więc twierdzenie to jest bezpośrednim wnioskiem z twierdzenia Frobeniusa – Perrona dla macierzy o wszystkich wyrazach dodatnich.

Niech \mathbf{P} będzie macierzą przejścia łańcucha regularnego, natomiast W jej macierzą graniczną. Można pokazać, że macierz

\mathbb{I}-(\mathbf{P}-W)

jest odwracalna, co więcej

\mathbf{Z}=(\mathbb{I}-(\mathbf{P}-W))^{{-1}}=\mathbb{I}+\sum\limits _{{s=1}}^{{\infty}}\mathbf{P}^{s}-W.

Macierz \mathbf{Z} nazywamy macierzą fundamentalną łańcucha regularnego i dzięki niej możemy wyznaczyć czasy przejścia i powrotów opisane macierzą \mathbf{E}=(e_{{ij}})_{{i,j=1}}^{n}. Mamy

\mathbf{E}=(\mathbb{I}-\mathbf{Z}+J\mathbf{Z}_{p})D,

gdzie J jest macierzą o wszystkich wyrazach równych 1, \mathbf{Z}_{p} to macierz, która ma na przekątnej wyrazy takie same jak \mathbf{Z} i zera poza przekątną, natomiast D jest macierzą diagonalną o wyrazach na przekątnej równych 1/w_{i}, gdzie w=(w_{1},\ldots,w_{n}) oznacza rozkład stacjonarny. W szczególności wyrazy na przekątnej e_{{jj}} zadają średni pierwszy czas powrotu do stanu \mathcal{W}_{j}.

Zastosujmy najpierw powyższe twierdzenia do rzutu monetą. W tym przypadku rozkład stacjonarny znajdujemy bez trudu, gdyż \mathbf{P}_{{rm}}^{t}=\mathbf{P}_{{rm}} dla dowolnego t, zatem w_{1}=w_{2}=0,5. Policzymy jeszcze macierz \mathbf{E}, choć możemy się spodziewać rezultatu — średnio co drugi rzut powinien dawać \mathcal{O} i co drugi \mathcal{R}, zatem średni czas powrotu szacujemy jako 2.

\mathbf{Z}=(\mathbb{I}-(\mathbf{P}_{{rm}}-W))^{{-1}}=\mathbb{I}\ \Longrightarrow\ \mathbf{E}=J\mathbf{Z}_{p}D=D,

co oczywiście implikuje, że średni czas powrotu wynosi 2 rzuty, natomiast średni czas przejścia od \mathcal{O} do \mathcal{R} i odwrotnie wynosi 1.

Ciągłe krzyżowanie z hybrydą

W tym paragrafie omówimy doświadczenie genetyczne polegające na ciągłym krzyżowaniu z hybrydą. Przebieg doświadczenia jest analogiczny jak w omówionym już przypadku krzyżowania z dominantą, ale matematyczny opis doświadczenia prowadzi do innego typu łańcucha Markowa. W tym łańcuchu mamy także 3 możliwe stany \mathcal{W}_{1}=DD, \mathcal{W}_{2}=DR i \mathcal{W}_{3}=RR. Macierz przejścia tego łańcucha ma postać

\mathbf{P}=\left(\begin{array}[]{ccc}0,5&0,5&0\\
0,25&0,5&0,25\\
0&0,5&0,5\end{array}\right)

i łatwo sprawdzimy, że \mathbf{P}^{2} jest macierzą o wszystkich wyrazach dodatnich. Zatem mamy do czynienia z łańcuchem regularnym. Policzmy jego rozkład stacjonarny

(w_{1},w_{2},w_{3})\mathbf{P}=(w_{1},w_{2},w_{3}),\quad w_{1}+w_{2}+w_{3}=1,

skąd dostajemy

w=(0,25,\, 0,5,\, 0,25).

Wobec tego przy ciągłym krzyżowaniu z hybrydą dostaniemy następujący wynik eksperymentu: bez względu na genotyp drugiego praprzodka po dostatecznie długim czasie średnio 3/4 potomków będzie wykazywało fenotyp dominanty, a 1/4 fenotyp recesywny. Otrzymaliśmy zatem potwierdzenie pierwotnych wyników uzyskanych przez Mendla przy krzyżowaniu groszku, gdzie średnio było 3/4 strąków zielonych i 1/4 strąków żółtych.

Treść automatycznie generowana z plików źródłowych LaTeXa za pomocą oprogramowania wykorzystującego LaTeXML.

Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego.

Projekt współfinansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego i przez Uniwersytet Warszawski.