Zagadnienia

13. Markowowskie Monte Carlo IV. Pola losowe

13.1. Definicje

Niech S,E będzie nieskierowanym grafem. Wyobraźmy sobie, że elementy sS reprezentują ,,miejsca” w przestrzeni lub na płaszczyźnie, zaś krawędzie grafu łączą miejsca ,,sąsiadujące” ze sobą. Taka interpretacja jest związana z zastosowaniami do statystyki ,,przestrzennej” i przetwarzania obrazów. Model, który przedstawimy ma również zupełnie inne interpretacje, ale pozostaniemy przy sugestywnej terminologii ,,przestrzennej”:

  • S — zbiór miejsc,

  • s,tE — miejsca s i t sąsiadują — będziemy wtedy pisać st,

  • t=s:st — zbiór sąsiadów miejsca t.

Niech Λ=1,,l będzie skończonym zbiorem. Powiedzmy, że elementy aΛ są ,,kolorami” które mogą być przypisane elementom zbioru S. Konfiguracją nazywamy dowolną funkcję x:SΛ. Będziemy mówić że xs=xs jest s-tą współrzędną konfiguracji x i stosować oznaczenia podobne jak dla wektorów:

x=(xs)=(xs:sS). (13.1)

W zadaniach przetwarzania obrazów, miejsca są pikslami na ekranie i konfigurację utożsamiamy z ich pokolorowaniem, a więc z cyfrową reprezentacją obrazu. Zbiór Λ gra rolę ,,palety kolorów”. Niekiedy założenie o skończoności zbioru Λ staje się niewygodne. Dla czarno-szaro-białych obrazów ,,pomalowanych” różnymi odcieniami szarości, wygodnie przyjąć, że Λ=0,1 lub λ=[0,[. Tego typu modyfikacje są dość oczywiste i nie będę się nad tym zatrzymywał. Dla ustalenia uwagi, wzory w tym podrozdziale dotyczą przypadku skończonego zbioru ,,kolorów”. Przestrzenią konfiguracji jest zbiór X=ΛS. Dla konfiguracji x i miejsca t, niech

  • x-t=(xs:st)=(xs:sS{t}) — konfiguracja z pominiętą t-tą współrzędną,

  • xt=(xs:st) — konfiguracja ograniczona do sąsiadów miejsca t.

Jeśli H:XR i β0 to rozkładem Gibbsa nazywamy rozkład prawdopodobieństwa na przestrzeni konfiguracji dany wzorem

πβx=1Zβexp-βHx.

Ze względu na inspiracje pochodzące z fizyki statystycznej, funkcję H nazywamy energią, β jest (z dokładnością do stałej) odwrotnością temperatury. Stała normująca wyraża się wzorem

Zβ=xXexp-βHx. (13.2)

i jest typowo niemożliwa do obliczenia.

Oczywiście, każdy rozkład prawdopodobieństwa π na X dale się zapisać jako rozkład Gibbsa, jeśli położyć Hx=-logπx, β=1 i umownie przyjąć, że -log0= (czyli konfiguracje niemożliwe mają nieskończoną energię). Nie o to jednak chodzi. Ciekawe są rozkłady Gibbsa, dla których fukcja energii ma specjalną postać związaną z topologią grafu ,,sąsiedztw”. Ograniczymy się do ważnej podklasy markowowskich pól losowych (MPL), mianowicie do sytuacji gdy energia jest sumą ,,oddziaływań” lub ,,interakcji” między parami miejsc sąsiadujących i składników zależnych od pojedynczych miejsc. Dokładniej, założymy że

Hx=stVxs,xt+sUsxs, (13.3)

dla pewnych funkcji V:Λ×ΛR i Us:ΛR. Funkcja Vxs,xt opisuje ,,potencjał interakcji pomiędzy s i t”, zaś Usa jest wielkością związaną z ,,tendencją miejsca s do przybrania koloru a. Zwróćmy uwagę, że potencjał V jest jednorodny (Va,b zależy tylko od ,,kolorów” a,bΛ ale nie od miejsc), zaś Usa może zależeć zarówno od aΛ jak i od sS. W modelach fizyki statystycznej zazwyczaj Usa=Ua jest jednorodnym ,,oddziaływaniem zewnętrznym” ale w modelach rekonstrukcji obrazów nie można tego zakładać.

Przykład 13.1 (Model Pottsa)

Niech Λ będzie zbiorem skończonym i

Hx=JstIxsxt.

Ta funkcja opisuje ,,tendencję sąsiednich miejsc do przybierania tego samego koloru”. Jeśli J>0 to preferowane są konfiguracje złożone z dużych, jednobarwnych plam.

13.2. Generowanie markowowskich pól losowych

Użyteczność MPL w różnorodnych zastosowaniach związana jest z istnieniem efektywnych algorytmów symulacyjnych. Wszystko opiera się na próbniku Gibbsa i następującym prostym fakcie.

Twierdzenie 13.1 (Pełne rozkłady warunkowe dla MPL)

Jeżeli πβ jest rozkładem Gibbsa z energią daną wzorem (13.3), to

πβ(xs|x-s)=πβ(xs|xs)=1Zsβexp[-βHs(x)], (13.4)

gdzie

Hsx=tsVxs,xt+Uxs, (13.5)

Zs(β)=aΛexp[Hs(xas). Symbol xas oznacza konfigurację powstałą z x przez wpisanie koloru a w miejscu s.

Dowód

Skorzystamy z elementarnej definicji prawdopodobieństwa warunkowego (poniżej piszemy πβ()=π(), bo parametr β jest ustalony):

π(xs|x-s)=πxπx-s=πxaπxas=exp-βHxaexp-βHxas=exp-βt:tsVxs,xt+tw,ts,wsVxt,xw+Usxs+tsUtxtaexp-βt:tsVa,xt+tw,ts,wsVxt,xw+Usa+tsUtxt=exp-βt:tsVxs,xt+Usxsaexp-βt:tsVa,xt+Usa=exp-βHsxZsβ. (13.6)

Ponieważ otrzymany wynik zależy tylko od xs i xs, więc π(xs|x-s)=π(xs|xs). Ten wniosek jest pewną formą własności Markowa.

Zauważmy, że obliczenie Hsx jest łatwe, bo suma ts zawiera tylko tyle składników, ile jest sąsiadów miejsca s. Obliczenie Zsβ też jest łatwe, bo suma aΛ zawiera tylko l=Λ składników. Ale nawet nie musimy obliczać stałej normującej Zsβ żeby generować z rozkładu

π(xs=a|xs)exp-β(t:tsV(a,xt)+Us(a)). (13.7)

Na tym opiera się implementacja próbnika Gibbsa. Wersję PG z ,,systemstycznym przeglądem miejsc” można zapisać tak:

for  sS do
    begin
    Gen aπ(xs=|xs);
    x:=xas
    end
Faktycznie już ten algorytm spotkaliśmy w Podrozdziale 12.2, dla szczególnego przypadku modelu auto-logistycznego.

13.3. Rekonstrukcja obrazów

Bayesowski model rekonstrukcji obrazów został zaproponowany w pracy Gemana i Gemana w 1987 roku. Potem zdobył dużą popularność i odniósł wiele sukcesów. Model łączy idee zaczerpnięte ze statystyki bayesowskiej i fizyki statystycznej. Cyfrową reprezentację obrazu utożsamiamy z konfiguracją kolorów na wierzchołkach grafu, czyli z elementem przestrzeni X=ΛS, zdefiniowanej w Podrozdziale 13.1. Przyjmijmy, że ,,idealny obraz”, czyli to co chcielibyśmy zrekonstruować jest konfiguracją xX. Niestety, obraz jest ,,zakłócony” lub ,,zaszumiony”. Możemy tylko obserwować konfigurację y reprezentującą zakłócony obraz. Zbiór kolorów w obrazie y nie musi być identyczny jak w obrazie x. Powiedzmy, że yY=ΓS. Ważne jest to, że zniekształcenie modelujemy probabilistycznie przy pomocy rodziny rozkładów warunkowych f(y|x). Dodatkowo zakładamy, że obraz x pojawia się losowo, zgodnie z rozkładem prawdopodobieństwa πx. Innymi słowy, ,,idealny” obraz x oraz ,,zniekształcony” obraz y traktujemy jako realizacje zmiennych losowych X:ΩX i Y:ΩY,

π(x)=P(X=x),f(y|x)=P(Y=y|X=x). (13.8)

W ten sposób buduje się statystyczny model bayesowski, w którym

  • Y jest obserwowaną zmienną losową,

  • x jest nieznanym parametrem traktowanym jako zmienna losowa X.

Oczywiście, π gra rolę rozkładu a priori, zaś f jest wiarogodnością. Być może użycie literki x na oznaczenie parametru jest niezgodne z tradycyjnymi oznaczeniami statystycznymi, ale z drugiej strony jest wygodne. Wzór Bayesa mówi, że rozkład a posteriori jest następujący.

πy(x)=P(X=x|Y=y)f(y|x)π(x). (13.9)

Pomysł Gemana i Gemana polegał na tym, żeby modelować rozkład a priori π jako MPL. Załóżmy, że π jest rozkładem Gibbsa,

πxexp-Hx, (13.10)

gdzie

Hx=JstVxs,xt. (13.11)

Energia ,,a priori” zawiera tu tylko składniki reprezentujące oddziaływania między parami miejsc sąsiednich. Funkcja Va,b zazwyczaj ma najmniejszą wartość dla a=b i rośnie wraz z ,,odległością” między a i b (jakkolwiek tę odległość zdefiniujemy). W ten sposób ,,nagradza” konfiguracje w których sąsiedznie miejsca są podobnie pokolorowane. Im większy parametr J>0, tym bardziej prawdopodobne są obrazy zawierające jednolite plamy kolorów.

Trzeba jeszcze założyć coś o ,,wiarogodności” f. Dla uproszczenia opiszę tylko najprostszy model, w którym kolor ys na obserwowanym obrazie zależy tylko od koloru xs na obrazie idealnym. Intuicyjnie znaczy to, że ,,zaszumienie” ma ściśle lokalny charakter. Matematycznie znaczy to, że

f(y|x)=sf(ys|xs) (13.12)

(pozwolę sobie na odrobinę nieścisłości aby uniknąć nowego symbolu na oznaczenie f(ys|xs)). Zapiszemy teraz ,,wiarogodność” f w postaci zlogarytmowanej. Jeśli położymy -logf(ys|xs)=Us(xs) pamiętając, że y jest w świecie bayesowskim ustalone, to otrzymujemy następujący wzór:

πyxexp-Hyx, (13.13)

gdzie

Hy(x)=JstV(xs,xt)-slogf(ys|xs). (13.14)

Okazuje się zatem, że rozkład a posteriori ma podobną postać do rozkładu a priori. Też jest rozkładem Gibbsa, a różnica polega tylko na dodaniu składników reprezentujących oddziaływania zewnętrzne Us(xs)=-logf(ys|xs). Pamiętajmy przy tym, że y jest w świecie bayesowskim ustalone. W modelu rekonstrukcji obrazów ,,oddziaływania zewnętrzne” zależą od y i ,,wymuszają podobieństwo” rekonstruowanego obrazu do obserwacji. Z kolei ,,oddziaływania między parami” są odpowiedzialne za wygładzenie obrazu. Lepiej to wyjaśnimy na przykładzie.

Przykład 13.2 (Losowe ,,przekłamanie koloru” i wygładzanie Pottsa)

Załóżmy, że Λ=1,,l jest naprawdę paletą kolorów, na przykład Λ=Czerwony,Niebieski,Pomarańczowy,Zielony.

Przypuśćmy, że mechanizm losowego ,,przekłamania” polega na tym, że w każdym pikslu, kolor obecny w idealnym obrazie x jest z prawdopodobieństwem 1-ε niezmieniony, a z prawdopodobieństwem ε zmienia się na losowo wybrany inny kolor. Tak więc zarówno x jak i y należą do tej samej przestrzeni ΛS,

f(ys|xs)=1-ε dla ys=xs;ε/l-1 dla ysxs. (13.15)

Można za rozkład a priori przyjąć rozkład Pottsa z Przykładu 13.1. Rozkład a posteriori ma funkcję energii daną następującym wzorem (z J>0):

Hy(x)=JstI(xsxt)-s[log(1-ε)I(xs=ys)+log(ε/(l-1))I(xsys)]. (13.16)

Pierwszy składnik w tym wzorze pochodzi od rozkładu a priori (z modelu Pottsa) i ,,nagradza” konfiguracje w których dużo sąsiednich punktów jest pomalowanych na ten sam kolor. Powoduje to, że obrazy x składające się z jednolotych dużych ,,plam” są preferowane. Drugi składnik pochodzi od obserwowanegj konfiguracji y i jest najmniejszy dla x=y. Powoduje to, ze obrazy x mało się różniące od y są bardziej prawdopodobne. Rozkład a posteriori jest pewnym kompromisem pomiędzy tymi dwoma konkurującymi składnikami. Parametr J jest ,,wagą” pierwszego składnika i dlatego odgrywa rolę ,,parametru wygładzającego”. Im większe J tym odtwarzany obraz będzie bardziej regularny (a tym mnie będzie starał się upodobnić do y). I odwrotnie, małe J powoduje ściślejsze dopasowanie x do y ale mniejszą ,,regularność” x.

Jeszcze lepiej to samo widać na przykładzie tak zwanego ,,szumu gaussowskiego”.

Przykład 13.3 (Addytywny szum gaussowski)

Załóżmy, że x jest konfiguracją ,,poziomów szarości” czyli, powiedzmy, Λ[0,[. Mechanizm losowego ,,zaszumienia” polega na tym, że zamiast poziomu szarości xs obserwujemy ysNxs,σ2. Innymi słowy,

f(ys|xs)exp[-12σ2(ys-xs)2]. (13.17)

Przestrzenią obserwaowanych konfiguracji y jest tutaj (formalnie) RS (faktycznie, raczej [0,[S). Rozkład a posteriori ma funkcję energii daną następującym wzorem:

Hy(x)=JstV(xsxt)+12σ2s(ys-xs)2. (13.18)

Jeśli rozpatrujemy model ze skończoną liczbą poziomów szarości dla konfiguracji x to można pierwszy składnik określić tak jak w poprzednim przykładzie, czyli zapożyczyć z modelu Pottsa. Bardziej naturalne jest określenie Va,b w taki sposób, aby większe różnice pomiędzy poziomami a i b były silniej karane. parametr J jest, jak poprzednio, odpowiedzialny zaa stopień wygładzenia.

Treść automatycznie generowana z plików źródłowych LaTeXa za pomocą oprogramowania wykorzystującego LaTeXML.

Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego.

Projekt współfinansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego i przez Uniwersytet Warszawski.