13.1. Definicje
Niech S,E będzie nieskierowanym grafem. Wyobraźmy sobie, że elementy s∈S reprezentują ,,miejsca”
w przestrzeni lub na płaszczyźnie, zaś krawędzie grafu łączą miejsca ,,sąsiadujące” ze sobą. Taka
interpretacja jest związana z zastosowaniami do statystyki ,,przestrzennej” i przetwarzania obrazów.
Model, który przedstawimy ma również zupełnie inne interpretacje, ale pozostaniemy przy sugestywnej terminologii
,,przestrzennej”:
-
-
s,t∈E — miejsca s i t sąsiadują — będziemy wtedy pisać s∼t,
-
∂t=s:s∼t — zbiór sąsiadów miejsca t.
Niech Λ=1,…,l będzie skończonym zbiorem. Powiedzmy, że elementy a∈Λ są ,,kolorami”
które mogą być przypisane elementom zbioru S. Konfiguracją nazywamy dowolną funkcję x:S→Λ.
Będziemy mówić że xs=xs jest s-tą współrzędną konfiguracji x i stosować oznaczenia podobne jak dla wektorów:
W zadaniach przetwarzania obrazów, miejsca są pikslami na ekranie i konfigurację utożsamiamy z ich pokolorowaniem,
a więc z cyfrową reprezentacją obrazu. Zbiór Λ gra rolę ,,palety kolorów”. Niekiedy założenie o skończoności
zbioru Λ staje się niewygodne. Dla czarno-szaro-białych obrazów ,,pomalowanych” różnymi odcieniami szarości,
wygodnie przyjąć, że Λ=0,1 lub λ=[0,∞[. Tego typu modyfikacje są dość oczywiste i
nie będę się nad tym zatrzymywał. Dla ustalenia uwagi, wzory w tym podrozdziale dotyczą przypadku skończonego zbioru
,,kolorów”. Przestrzenią konfiguracji jest zbiór X=ΛS. Dla konfiguracji x i miejsca t, niech
-
x-t=(xs:s≠t)=(xs:s∈S∖{t}) — konfiguracja z pominiętą t-tą współrzędną,
-
x∂t=(xs:s∈∂t) — konfiguracja ograniczona do sąsiadów miejsca t.
Jeśli H:X→R i β⩾0 to rozkładem Gibbsa nazywamy rozkład prawdopodobieństwa na przestrzeni konfiguracji dany
wzorem
Ze względu na inspiracje pochodzące z fizyki statystycznej, funkcję H nazywamy energią, β jest (z dokładnością do stałej)
odwrotnością temperatury. Stała normująca wyraża się wzorem
|
Zβ=∑x∈Xexp-βHx. |
| (13.2) |
i jest typowo niemożliwa do obliczenia.
Oczywiście, każdy rozkład prawdopodobieństwa π na X dale się zapisać jako rozkład Gibbsa, jeśli położyć Hx=-logπx, β=1 i
umownie przyjąć, że -log0=∞ (czyli konfiguracje niemożliwe mają nieskończoną energię). Nie o to jednak chodzi. Ciekawe są rozkłady
Gibbsa, dla których fukcja energii ma specjalną postać związaną z topologią grafu ,,sąsiedztw”. Ograniczymy się do ważnej podklasy
markowowskich pól losowych (MPL), mianowicie do sytuacji gdy energia jest sumą ,,oddziaływań” lub ,,interakcji” między parami
miejsc sąsiadujących i składników zależnych od pojedynczych miejsc. Dokładniej, założymy że
|
Hx=∑s∼tVxs,xt+∑sUsxs, |
| (13.3) |
dla pewnych funkcji V:Λ×Λ→R i Us:Λ→R. Funkcja Vxs,xt opisuje ,,potencjał interakcji
pomiędzy s i t”, zaś Usa jest wielkością związaną z ,,tendencją miejsca s do przybrania koloru a.
Zwróćmy uwagę, że potencjał V jest jednorodny (Va,b zależy tylko od ,,kolorów” a,b∈Λ ale nie od miejsc),
zaś Usa może zależeć zarówno od a∈Λ jak i od s∈S. W modelach fizyki statystycznej zazwyczaj
Usa=Ua jest jednorodnym ,,oddziaływaniem zewnętrznym” ale w modelach rekonstrukcji obrazów nie można tego zakładać.
Przykład 13.1 (Model Pottsa)
Niech Λ będzie zbiorem skończonym i
Ta funkcja opisuje ,,tendencję sąsiednich miejsc do przybierania tego samego koloru”. Jeśli J>0 to preferowane są konfiguracje
złożone z dużych, jednobarwnych plam.
13.2. Generowanie markowowskich pól losowych
Użyteczność MPL w różnorodnych zastosowaniach związana jest z istnieniem efektywnych algorytmów symulacyjnych.
Wszystko opiera się na próbniku Gibbsa i następującym prostym fakcie.
Twierdzenie 13.1 (Pełne rozkłady warunkowe dla MPL)
Jeżeli πβ jest rozkładem Gibbsa z energią daną wzorem (13.3), to
|
πβ(xs|x-s)=πβ(xs|x∂s)=1Zsβexp[-βHs(x)], |
| (13.4) |
gdzie
|
Hsx=∑t∈∂sVxs,xt+Uxs, |
| (13.5) |
Zs(β)=∑a∈Λexp[Hs(xa↝s). Symbol xa↝s oznacza konfigurację
powstałą z x przez wpisanie koloru a w miejscu s.
Dowód
Skorzystamy z elementarnej definicji prawdopodobieństwa warunkowego (poniżej piszemy πβ(⋅)=π(⋅),
bo parametr β jest ustalony):
|
π(xs|x-s)=πxπx-s=πx∑aπxa↝s=exp-βHx∑aexp-βHxa↝s=exp-β∑t:t∼sVxs,xt+∑t∼w,t≠s,w≠sVxt,xw+Usxs+∑t≠sUtxt∑aexp-β∑t:t∼sVa,xt+∑t∼w,t≠s,w≠sVxt,xw+Usa+∑t≠sUtxt=exp-β∑t:t∼sVxs,xt+Usxs∑aexp-β∑t:t∼sVa,xt+Usa=exp-βHsxZsβ. |
| (13.6) |
Ponieważ otrzymany wynik zależy tylko od xs i x∂s, więc π(xs|x-s)=π(xs|x∂s).
Ten wniosek jest pewną formą własności Markowa.
∎
Zauważmy, że obliczenie Hsx jest łatwe, bo suma ∑t∈∂s⋯ zawiera tylko tyle składników,
ile jest sąsiadów miejsca s. Obliczenie Zsβ też jest łatwe, bo suma ∑a∈Λ⋯ zawiera tylko
l=Λ składników. Ale nawet nie musimy obliczać stałej normującej Zsβ żeby generować z rozkładu
|
π(xs=a|x∂s)∝exp-β(∑t:t∼sV(a,xt)+Us(a)). |
| (13.7) |
Na tym opiera się implementacja próbnika Gibbsa. Wersję PG z ,,systemstycznym przeglądem miejsc” można zapisać tak:
for s∈S do |
begin |
Gen a∼π(xs=⋅|x∂s); |
x:=xa↝s |
end |
Faktycznie już ten algorytm spotkaliśmy w Podrozdziale
12.2, dla szczególnego przypadku modelu
auto-logistycznego.
13.3. Rekonstrukcja obrazów
Bayesowski model rekonstrukcji obrazów został zaproponowany w pracy Gemana i Gemana w 1987 roku. Potem zdobył dużą
popularność i odniósł wiele sukcesów. Model łączy idee zaczerpnięte ze statystyki bayesowskiej i fizyki
statystycznej. Cyfrową reprezentację obrazu utożsamiamy z konfiguracją kolorów na wierzchołkach
grafu, czyli z elementem przestrzeni X=ΛS, zdefiniowanej w Podrozdziale 13.1.
Przyjmijmy, że ,,idealny obraz”, czyli to co chcielibyśmy zrekonstruować jest konfiguracją x∈X.
Niestety, obraz jest ,,zakłócony” lub ,,zaszumiony”. Możemy tylko obserwować konfigurację y reprezentującą
zakłócony obraz. Zbiór kolorów w obrazie y nie musi być identyczny jak w obrazie x. Powiedzmy, że
y∈Y=ΓS. Ważne jest to, że zniekształcenie modelujemy probabilistycznie przy pomocy rodziny rozkładów
warunkowych f(y|x).
Dodatkowo zakładamy, że obraz x pojawia się losowo, zgodnie z rozkładem prawdopodobieństwa πx. Innymi słowy,
,,idealny” obraz x oraz ,,zniekształcony” obraz y traktujemy jako realizacje zmiennych losowych
X:Ω→X i Y:Ω→Y,
|
π(x)=P(X=x),f(y|x)=P(Y=y|X=x). |
| (13.8) |
W ten sposób buduje się statystyczny model bayesowski, w którym
-
Y jest obserwowaną zmienną losową,
-
x jest nieznanym parametrem traktowanym jako zmienna losowa X.
Oczywiście, π gra rolę rozkładu a priori, zaś f jest wiarogodnością.
Być może użycie literki x na oznaczenie parametru jest niezgodne z tradycyjnymi oznaczeniami statystycznymi, ale
z drugiej strony jest wygodne. Wzór Bayesa mówi, że rozkład a posteriori jest następujący.
|
πy(x)=P(X=x|Y=y)∝f(y|x)π(x). |
| (13.9) |
Pomysł Gemana i Gemana polegał na tym, żeby modelować rozkład a priori π jako MPL. Załóżmy,
że π jest rozkładem Gibbsa,
gdzie
|
Hx=J∑s∼tVxs,xt. |
| (13.11) |
Energia ,,a priori” zawiera tu tylko składniki reprezentujące oddziaływania między parami miejsc sąsiednich.
Funkcja Va,b zazwyczaj ma najmniejszą wartość dla a=b i rośnie wraz z ,,odległością” między a i b
(jakkolwiek tę odległość zdefiniujemy). W ten sposób ,,nagradza” konfiguracje w których sąsiedznie miejsca są podobnie
pokolorowane. Im większy parametr J>0, tym bardziej prawdopodobne są obrazy zawierające jednolite plamy kolorów.
Trzeba jeszcze założyć coś o ,,wiarogodności” f. Dla uproszczenia opiszę tylko najprostszy model, w którym
kolor ys na obserwowanym obrazie zależy tylko od koloru xs na obrazie idealnym. Intuicyjnie znaczy to, że
,,zaszumienie” ma ściśle lokalny charakter. Matematycznie znaczy to, że
|
f(y|x)=∏sf(ys|xs) |
| (13.12) |
(pozwolę sobie na odrobinę nieścisłości aby uniknąć nowego symbolu na oznaczenie f(ys|xs)).
Zapiszemy teraz ,,wiarogodność” f w postaci zlogarytmowanej. Jeśli położymy -logf(ys|xs)=Us(xs)
pamiętając, że y jest w świecie bayesowskim ustalone, to otrzymujemy następujący wzór:
gdzie
|
Hy(x)=J∑s∼tV(xs,xt)-∑slogf(ys|xs). |
| (13.14) |
Okazuje się zatem, że rozkład a posteriori ma podobną postać do rozkładu a priori. Też jest
rozkładem Gibbsa, a różnica polega tylko na dodaniu składników reprezentujących oddziaływania zewnętrzne
Us(xs)=-logf(ys|xs). Pamiętajmy przy tym, że y jest w świecie bayesowskim ustalone.
W modelu rekonstrukcji obrazów ,,oddziaływania zewnętrzne” zależą od y i ,,wymuszają podobieństwo”
rekonstruowanego obrazu do obserwacji. Z kolei ,,oddziaływania między parami” są odpowiedzialne za
wygładzenie obrazu. Lepiej to wyjaśnimy na przykładzie.
Przykład 13.2 (Losowe ,,przekłamanie koloru” i wygładzanie Pottsa)
Załóżmy, że Λ=1,…,l jest naprawdę paletą kolorów, na przykład
Λ=Czerwony,Niebieski,Pomarańczowy,Zielony.
Przypuśćmy, że mechanizm losowego ,,przekłamania” polega na tym, że w każdym pikslu, kolor obecny w idealnym obrazie
x jest z prawdopodobieństwem 1-ε niezmieniony, a z prawdopodobieństwem ε zmienia się na losowo wybrany inny kolor.
Tak więc zarówno x jak i y należą do tej samej przestrzeni ΛS,
|
f(ys|xs)=1-ε dla ys=xs;ε/l-1 dla ys≠xs. |
| (13.15) |
Można za rozkład a priori przyjąć rozkład Pottsa z Przykładu 13.1. Rozkład a posteriori ma funkcję
energii daną następującym wzorem (z J>0):
|
Hy(x)=J∑s∼tI(xs≠xt)-∑s[log(1-ε)I(xs=ys)+log(ε/(l-1))I(xs≠ys)]. |
| (13.16) |
Pierwszy składnik w tym wzorze pochodzi od rozkładu a priori (z modelu Pottsa) i ,,nagradza” konfiguracje w których dużo
sąsiednich punktów jest pomalowanych na ten sam kolor. Powoduje to, że obrazy x składające się z jednolotych dużych ,,plam”
są preferowane. Drugi składnik pochodzi od obserwowanegj konfiguracji y i jest najmniejszy dla x=y. Powoduje to, ze
obrazy x mało się różniące od y są bardziej prawdopodobne. Rozkład a posteriori jest pewnym kompromisem
pomiędzy tymi dwoma konkurującymi składnikami. Parametr J jest ,,wagą” pierwszego składnika i dlatego odgrywa rolę ,,parametru
wygładzającego”. Im większe J tym odtwarzany obraz będzie bardziej regularny (a tym mnie będzie starał się upodobnić do y).
I odwrotnie, małe J powoduje ściślejsze dopasowanie x do y ale mniejszą ,,regularność” x.
Jeszcze lepiej to samo widać na przykładzie tak zwanego ,,szumu gaussowskiego”.
Przykład 13.3 (Addytywny szum gaussowski)
Załóżmy, że x jest konfiguracją ,,poziomów szarości” czyli, powiedzmy, Λ⊆[0,∞[. Mechanizm
losowego ,,zaszumienia” polega na tym, że zamiast poziomu szarości xs obserwujemy ys∼Nxs,σ2.
Innymi słowy,
|
f(ys|xs)∝exp[-12σ2(ys-xs)2]. |
| (13.17) |
Przestrzenią obserwaowanych konfiguracji y jest tutaj (formalnie) RS (faktycznie, raczej [0,∞[S).
Rozkład a posteriori ma funkcję
energii daną następującym wzorem:
|
Hy(x)=J∑s∼tV(xs≠xt)+12σ2∑s(ys-xs)2. |
| (13.18) |
Jeśli rozpatrujemy model ze skończoną liczbą poziomów szarości dla konfiguracji x to można pierwszy składnik określić tak
jak w poprzednim przykładzie, czyli zapożyczyć z modelu Pottsa. Bardziej naturalne jest określenie
Va,b w taki sposób, aby większe różnice pomiędzy poziomami a i b były silniej karane. parametr J jest,
jak poprzednio, odpowiedzialny zaa stopień wygładzenia.