W kolejnych wykładach przejdziemy do omówienia podstaw genetyki klasycznej, w szczególności praw dziedziczenia postulowanych przez Mendla na podstawie wyników przeprowadzonych przez niego doświadczeń. Gregor Mendel, żyjący w XIX wieku czeski zakonnik, przez wiele lat zajmował się pracą w ogrodzie. Hodował różne rośliny, w szczególności groszek w dwóch odmianach — o strąkach zielonych i żółtych. Mendel zauważył, że można wyróżnić groszki ,,czysto żółte”, ,,czysto zielone” i ,,mieszane”. Jeśli krzyżuje się dwie rośliny, jedną ,,czysto żółtą”, a drugą ,,czysto zieloną”, to w następnym pokoleniu otrzymuje się rośliny o strąkach zielonych, natomiast przy dalszym krzyżowaniu ze sobą tak otrzymanych roślin, w kolejnym pokoleniu 3/4 osobników ma strąki zielone, a 1/4 żółte. Wyniki swoich badań opublikował w 1866 roku i na ich podstawie wysnuł teorię, którą obecnie nazywamy całkowitą dominacją genów.
W opisie doświadczeń Mendla będziemy używać stosowanych obecnie w genetyce pojęć, w szczególności jednostki kodujące dane cechy nazywać będziemy genami. Cecha badana przez Mendla, czyli kolor strąków groszku, kodowana jest przez parę genów, dziedziczonych po jednym od każdego z rodziców. Gen występuje w dwóch odmianach, które nazywamy allelami: dominującej, którą oznaczymy D i recesywnej R. Mamy więc trzy genotypy: DD, DR, RR, ponieważ nie rozróżniamy kolejności występowania genów, zatem DR i RD dają ten sam genotyp. Jeśli w genotypie pojawia się choć jeden gen dominujący, to odpowiadająca mu cecha uwidacznia się w danym osobniku, czyli taki groszek ma strąki zielone. Rozróżniamy więc dwa fenotypy — genotypom DD i DR odpowiada fenotyp zielony, natomiast RR ma fenotyp żółty. W zależności od genotypu, stosujemy też następujące nazewnictwo:
-
DD to osobnik (czysto) dominujący;
-
-
RR to osobnik (czysto) recesywny.
W teorii Mendla zakłada się, że osobniki łączą się losowo i potomek dziedziczy losowo po jednym genie od każdego z rodziców, przy czym wybór genów od rodziców jest niezależny. Sprawdźmy więc, jaki genotyp ma potomstwo ustalonej pary rodziców:
-
DD+DD⟶DD, jeśli krzyżujemy dwa osobniki dominujące, to z prawdopodobieństwem 1 potomek dziedziczy od każdego z rodziców gen dominujący D, zatem każdy potomek ma ten sam genotyp DD;
-
RR+RR⟶RR, podobnie jeśli krzyżujemy dwa osobniki recesywne, to z prawdopodobieństwem 1 potomek dziedziczy od każdego z rodziców gen dominujący R, zatem każdy potomek ma ten sam genotyp RR;
-
DD+RR⟶DR, jeśli krzyżujemy osobnika dominującego z recesywnym, to z prawdopodobieństwem 1 potomek dziedziczy od jednego z rodziców gen D, a od drugiego gen R, zatem każdy potomek jest hybrydą;
-
DD+DR⟶12DD+12DR, przy krzyżowaniu osobnika dominującego z hybrydą od osobnika dominującego potomek dziedziczy gen D z prawdopodobieństwem 1, natomiast od hybrydy — albo gen D z prawdopodobieństwem 1/2, albo gen R, także z prawdopodobieństwem 1/2, zatem potomek jest z prawdopodobieństwem 1/2 albo hybrydą, albo dominantą;
-
RR+DR⟶12RR+12DR, podobnie przy krzyżowaniu osobnika recesywnego z hybrydą potomek jest z prawdopodobieństwem 1/2 albo recesywny, albo hybrydyczny;
-
DR+DR⟶14DD+14RR+12DR, jeśli natomiast krzyżujemy dwie hybrydy, to z prawdopodobieństwem 1/2 osobnik dziedziczy albo D, albo R od każdego z rodziców, stąd mamy rozkład genotypów potomka 1/4DD, 1/4RR oraz 1/2DR (pamiętając, że nie rozróżniamy układu DR i RD).
Przedstawiony powyżej rozkład genotypów pokazuje, skąd w doświadczeniu Mendla wzięły się proporcje 3/4 strąków zielonych i 1/4 strąków żółtych. Jeśli bowiem Mendel skrzyżował w pierwszym pokoleniu osobnika czysto dominującego z czysto recesywnym, to każdy osobnik potomny był hybrydą. Następnie krzyżując hybrydy, jeśli tylko potomków w drugiej generacji było dostatecznie dużo, otrzymywał rozkład genotypów odpowiadający proporcjom: po 1/4 osobników dominujących i recesywnych oraz 1/2 hybryd, co uzewnętrzniło się jako 1/4 fenotypu żółtego i 3/4 fenotypu zielonego.
Tego typu doświadczenia można oczywiście powtarzać, ale jeśli znamy genotyp rodziców, to wiemy też, jaki powinien być wynik doświadczenia. Znacznie ciekawsze doświadczenie może polegać na tym, że na podstawie otrzymanych wyników eksperymentów chcemy wnioskować na temat genotypu rodziców. Opiszemy trzy takie doświadczenia, które nazwiemy ciągłym krzyżowaniem z osobnikiem dominującym, recesywnym i hybrydą. Każde z tych doświadczeń przeprowadzamy w taki sam sposób: ustalamy jednego z rodziców (wybieramy osobnika o danym genotypie) i krzyżujemy go z osobnikiem o genotypie nieznanym. Zakładamy, że mamy dostatecznie dużo potomstwa, tak by rozkład genotypów odpowiadał prawdopodobieństwom obliczonym na podstawie prawa Mendla, wybieramy losowo jednego potomka i ponownie krzyżujemy go z tym samym ustalonym osobnikiem. Doświadczenie powtarzamy wielokrotnie. Otrzymujemy więc ciąg doświadczeń, w których wynik kolejnego doświadczenia zależy od wyniku poprzedniego, mamy więc łańcuch Markowa. W celu zinterpretowania wyników eksperymentów przypomnimy podstawowe pojęcia i twierdzenia z teorii łańcuchów Markowa [7, 1].
9.1. Łańcuchy Markowa
Zajmiemy się teraz opisem ciągu zależnych doświadczeń losowych. Niech D oznacza pewne doświadczenie, którego zbiór możliwych wyników W1, W2,…,Wn, n∈N, znamy. W trakcie powtarzania tego doświadczenia w próbie z numerem t∈N dostajemy wynik o numerze Xt∈1,2,…,n, przy czym prawdopodobieństwa różnych wartości WXt w ogólnym przypadku mogą zależeć od wyników wszystkich poprzednich doświadczeń. Taki obiekt nazwiemy skończonym procesem stochastycznym. Z kolei łańcuch Markowa to pewien szczególny rodzaj procesu stochastycznego, w którym wynik kolejnej próby zależy tylko od wyniku próby poprzedniej.
Definicja 9.1
Niech Xtt=0∞ oznacza ciąg zmiennych losowych o wartościach całkowitych. Jeśli w próbie z numerem t zrealizowało się zdarzenie Wj, to przyjmiemy Xt=j. Ciąg zmiennych losowych Xtt=0∞ nazwiemy łańcuchem Markowa, jeśli
|
P(Xt=j|X0=k0,X1=k1,…,Xt-1=i)=P(Xt=j|Xt-1=i), |
|
przy czym jeśli P(Xt=j|Xt-1=i) nie zależy od numeru próby t, to taki łańcuch nazywamy jednorodnym. Wyniki poszczególnych prób nazwiemy stanami łańcucha.
Podamy teraz kilka prostych przykładów:
— Rzut monetą to jeden z najprostszych możliwych procesów stochastycznych. Mamy dwa możliwe wyniki każdej próby orzeł O i reszka R, przy czym zawsze prawdopodobieństwo otrzymania każdego z tych dwóch wyników wynosi 1/2, niezależnie od tego, jakie wyniki otrzymywaliśmy w przeszłości. Wobec tego rzut monetą jest przykładem jednorodnego łańcucha Markowa.
— Rosyjska ruletka I to wersja gry, w której używa się sześciostrzałowego rewolweru z jedną kulą. Po zakręceniu bębenkiem oddaje się strzał i w pierwszej próbie wynik z prawdopodobieństwem 1/6 jest martwy M, a z prawdopodobieństwem 5/6 — żywy Z. Wynik kolejnej próby zależy od poprzedniego. Jeśli osoba, do której się strzela, została zastrzelona w poprzedniej próbie, to oczywiście w każdej następnej
jest martwa z prawdopodobieństwem 1, natomiast jeśli jest żywa, to w drugiej próbie będzie martwa z prawdopodobieństwem 4/5, w trzeciej z prawdopodobieństwem 3/4, następnie 2/3, 1/2 i ostatecznie w szóstej próbie wynik jest zawsze M z prawdopodobieństwem 1. Widzimy więc, że taka wersja rosyjskiej ruletki stanowi łańcuch Markowa, ale nie jest to łańcuch jednorodny.
— Rosyjska ruletka II to inna wersja, w której za każdym razem używa się sześciostrzałowego rewolweru z jedną kulą, ale przed każdą próbą ponownie kręci się bębenkiem. Zatem przy każdej próbie otrzymywane wyniki są jednakowe: M z prawdopodobieństwem 1/6 oraz Z z prawdopodobieństwem 5/6. Mamy więc jednorodny łańcuch Markowa.
W dalszej części wykładu zajmiemy się tylko łańcuchami jednorodnymi, wobec tego nie będziemy już powtarzać określenia ,,jednorodny łańcuch Markowa”, tylko pisząc ,,łańcuch Markowa” będziemy mieli na myśli łańcuch jednorodny. Taki łańcuch Markowa możemy w jednoznaczny sposób zdefiniować podając jego stany, czyli możliwe wyniki kolejnych eksperymentów, oraz macierz przejścia
P=piji,j=1n, czyli prawdopodobieństwa pij przejścia ze stanu Wi w próbie t-1 do stanu Wj w kolejnej próbie t. Macierz przejścia ma oczywiście następujące własności:
|
pij≥0,∑j=1npij=1,i=1,…,n, |
|
ponieważ dla dowolnych i,j∈1,…,n liczba pij jest prawdopodobieństwem, a jeśli łańcuch znajduje się w pewnym stanie Wi w chwili t-1, to musi przejść do jakiegoś stanu Wj w chwili t. Macierze o tych własnościach nazywamy macierzami stochastycznymi. Pełny opis łańcucha Markowa możemy także przedstawić za pomocą grafu skierowanego ważonego.
Definicja 9.2
Grafem skierowanym nazywamy parę W,S, gdzie W jest zbiorem elementów nazywanych wierzchołkami grafu, natomiast S stanowi zbiór uporządkowanych par wierzchołków, które nazywamy krawędziami grafu.
W przypadku grafu ważonego każdej istniejącej krawędzi prowadzącej od wierzchołka i do j przypisujemy pewną wagę wij. Graf opisujący łańcuch Markowa budujemy w następujący sposób
-
wierzchołek z numerem i, i∈1,…,n odpowiada wynikowi Wi;
-
od wierzchołka z numerem i do wierzchołka z numerem j przeprowadzamy krawędź i,j, o ile pij>0, a jeśli pij=0, to takiej krawędzi nie ma;
-
zbudowanej krawędzi i,j nadajemy wagę wij=pij.
Zaprezentujemy teraz macierze przejścia i grafy przejścia, por. rys. 9.1, odpowiadające wymienionym w przykładach łańcuchom: rzutowi monetą i rosyjskiej ruletce w wersji II.
|
Prm=0,50,50,50,5,Prr=101/65/6. |
|
Macierz przejścia P odzwierciedla dynamikę łańcucha w jednym kroku, natomiast my jak zwykle chcemy zbadać, co będzie się działo asymptotycznie, czyli czego możemy się spodziewać, jeśli będziemy nasze doświadczenia powtarzać dostatecznie długo. Do tego celu musimy obliczyć prawdopodobieństwa przejścia wyższego rzędu, czyli pijt, które opisuje przejście ze stanu Wi do stanu Wj w t krokach, czyli po wykonaniu t prób. Mamy więc pijt=P(Xt=j|X0=i).
Zgodnie ze wzorem na prawdopodobieństwo całkowite dla t>1 otrzymujemy
|
pijt=P(Xt=j|X0=i)=∑s=1nP(Xt-1=s|X0=i)psj=∑s=1npist-1psj, |
|
czyli rekurencyjną zależność pijt od prawdopodobieństw niższego rzędu pist-1. Stąd jeśli Pt=pijti,j=1n jest macierzą przejścia wyższego rzędu, to dostajemy zależność
Wnioskujemy zatem, że rozkład łańcucha w dowolnym kroku jest jednoznacznie wyznaczony przez macierz przejścia i początkowy rozkład prawdopodobieństwa
pi0=PX0=i, i=1,…,n.
W kontekście opisywanych powyżej doświadczeń genetycznych chcemy poznać asymptotykę dwóch konkretnych typów łańcuchów Markowa. Zanim jednak przejdziemy do badania asymptotyki, podamy potrzebne definicje, w tym klasyfikację stanów łańcucha.
9.2. Klasyfikacja stanów i łańcuchów
Zaczniemy od podziału stanów łańcucha na pewne specjalne grupy.
Definicja 9.3
Stan Wi nazwiemy nieistotnym, jeśli istnieje taki stan Wj i liczba t0∈N∖0, że pijt0>0 oraz pjit=0 dla dowolnego t∈N. W przypadku przeciwnym stan Wi nazywamy istotnym.
Definicja 9.4
Stany istotne Wi, Wj nazywamy komunikującymi się, jeśli istnieją takie t, s∈N∖0, dla których pijt>0 i pjis>0.
Podzielmy teraz wszystkie stany danego łańcucha na podklasy: niech S0 oznacza klasę wszystkich stanów nieistotnych, następnie wybierzmy jakikolwiek stan istotny Wi i oznaczmy przez Si zbiór wszystkich stanów komunikujących się z Wi. Ten zbiór stanów nazywa się także czasem zbiorem stochastycznie zamkniętym. W taki sposób podzielimy łańcuch na rozłączne klasy stanów komunikujących się S1,…,SN, N≤n. Jeśli łańcuch znalazł się w pewnym momencie w stanie istotnym Wi, to już nigdy nie wyjdzie z odpowiadającej mu klasy.
Definicja 9.5
Jeśli klasa Si składa się z jednego stanu Wi, to taki stan nazywamy pochłaniającym (absorbującym).
Definicja 9.6
Łańcuch Markowa składający się z jednej klasy stanów istotnych komunikujących się nazywamy łańcuchem nieprzywiedlnym. Jeśli łańcuch zawiera więcej niż jedną klasę, to jest przywiedlny.
Badając łańcuch Markowa sprowadzamy najpierw jego macierz do postaci kanonicznej numerując stany w taki sposób, aby na początku znalazły się stany nieistotne, a następnie poszczególne stany z kolejnych klas.
Macierz ma wtedy postać
|
P=S0S1S2S0…………………………………………S10⋮⋮⋮⋮00S200⋮⋮⋮⋮0⋮, |
|
a powstałe macierze ⋮⋮⋮⋮ są macierzami stochastycznymi i każda z nich odpowiada łańcuchowi nieprzywiedlnemu.
Oznaczmy
|
fjt=P(Xt=j,Xt-1≠j,…,X1≠j|X0=j),Fj=∑t=1∞fjt, |
|
gdzie fjt oznacza prawdopodobieństwo, że układ po wyjściu ze stanu Wj wróci do tego stanu po raz pierwszy po t krokach, a Fj to prawdopodobieństwo, że po wyjściu z tego stanu wróci do niego kiedykolwiek.
– Stan Wj nazywamy powracającym, jeśli Fj=1, natomiast niepowracającym, gdy Fj<1.
– Stan Wj nazywamy zerowym, jeśli pjjt→0 przy t→∞.
– Stan Wj nazywamy okresowym o okresie dj, jeśli powrót z dodatnim prawdopodobieństwem możliwy jest w liczbie kroków równej wielokrotności dj i dj jest najmniejszą liczbą o tej własności (czyli dj jest NWD zbioru t:pjjt>0).
– Stan powracający, niezerowy i nieokresowy nazywamy ergodycznym.
Wymienimy teraz dwa typy łańcuchów, które są istotne z punktu widzenia doświadczeń genetycznych, jakie za ich pomocą chcemy opisywać.
Definicja 9.7
Łańcuchem pochłaniającym (absorbującym) nazwiemy taki łańcuch przywiedlny, którego klasy stanów istotnych składają się z pojedynczych stanów pochłaniających.
Drugi typ stanowią oczywiście łańcuchy nieprzywiedlne.
Każdy typ łańcucha przywiedlnego możemy analizować korzystając z własności łańcuchów pochłaniających i łańcuchów nieprzywiedlnych. Dopóki łańcuch nie trafi do któregoś ze zbiorów Si, i>0, możemy traktować łańcuch jak łańcuch pochłaniający, natomiast jak już trafi do zbioru Si, i>0, to ten zbiór tworzy łańcuch nieprzywiedlny.
Wróćmy teraz do naszych prostych przykładów i spróbujmy w ich kontekście zastosować poznane definicje.
-
Rzut monetą: zauważmy, że prawdopodobieństwa przejścia z każdego z dwóch stanów łańcucha O, R do każdego z nich jest zawsze równe 1/2, bez względu na stan w kroku poprzednim, zatem Pt=P, czyli oba stany są istotne i komunikujące się, tworzą więc łańcuch nieprzywiedlny.
-
Rosyjska ruletka II: stan M jest oczywiście pochłaniający, natomiast stan Z tworzy zbiór S0 i jest stanem nieistotnym, ponieważ p21=1/6, natomiast p12t=0 dla dowolnego t∈N, gdyż M=W1 jest pochłaniający, czyli łańcuch ma własności wymienione w def. 9.7, zatem stanowi łańcuch pochłaniający.
Zauważmy, że asymptotycznie te dwa typy łańcuchów (czyli nieprzywiedlny i pochłaniający) mają diametralnie różne własności. W łańcuchu nieprzywiedlnym każdy stan jest osiągany z dodatnim prawdopodobieństwem w dowolnej próbie, natomiast w łańcuchu pochłaniającym w pewnej próbie łańcuch wynosi
trafia do jakiegoś stanu pochłaniającego, z którego już nie wychodzi.
W przypadku rzutu monetą, ponieważ dla dowolnego
t∈N∖0 zachodzi Prmt=Prm, więc bez względu na liczbę prób zawsze średnio dostajemy połowę orłów i połowę reszek. Z kolei w przypadku rosyjskiej ruletki prawdopodobieństwo pozostania
żywym maleje do 0 wraz z rosnącą liczbą prób, co łatwo możemy bezpośrednio
obliczyć iterując macierz przejścia
Co ciekawe, oczekiwane liczba kroków przed absorpcją wynosi 6, czyli tyle, ile maksymalna liczba kroków możliwa w wersji I.
Wykażemy to poniżej.