Zagadnienia

5. Generowanie zmiennych losowych III. Rozkłady wielowymiarowe

5.1. Ogólne metody

Wiele spośród ogólnych metod generowania zmiennych losowych jest całkowicie niezależnych od wymiaru. W szczególności, metody eliminacji, kompozycji i przekształceń są z powodzeniem stosowane do generowania zmiennych losowych wielowymiarowych. Wyjątek stanowi ,,najbardziej ogólna” metoda odwracania dystrybuanty, która nie ma naturalnego odpowiednika dla wymiaru większego niż 1.

5.1.1. Metoda rozkładów warunkowych

Jest to właściwie jedyna metoda ,,w zasadniczy sposób wielowymiarowa”. Opiera się na przedstawieniu gęstości łącznej zmiennych losowych X_{1},\ldots,X_{d} jako iloczynu gęstości brzegowej i gęstości warunkowych (wzór łańcuchowy):

f(x_{1},x_{2},\ldots,x_{d})=f(x_{1})f(x_{2}|x_{1})f(x_{3}|x_{1},x_{2})\cdots f(x_{d}|x_{1},\ldots,x_{{d-1}}).

Wynika stąd następujący algorytm:

for    i:=1 to d do
  Gen X_{i}\sim f(\cdot|X_{1},\ldots,X_{{i-1}})
Przykład 5.1 (Wielowymiarowy rozkład normalny)

Ograniczymy się do zmiennych losowych X_{{1}},X_{{2}} pochodzących z rozkładu dwuwymiarowego {\rm N}(0,0,\sigma _{1}^{2},\sigma _{2}^{2},\rho) o gęstości

f(x_{1},x_{2})=\frac{1}{2\pi\sigma _{1}\sigma _{2}\sqrt{1-\rho^{2}}}\exp\bigg[-\frac{1}{2(1-\rho^{2})}\Big(\frac{x_{1}^{2}}{\sigma _{1}^{2}}-2\rho\frac{x_{1}x_{2}}{\sigma _{1}\sigma _{2}}+\frac{x_{2}^{2}}{\sigma _{2}^{2}}\Big)\bigg].

Jak wiadomo (można to sprawdzić elementarnym rachunkiem),

f(x_{1})=\frac{1}{\sqrt{2\pi}\sigma _{1}}\exp\left[-\frac{x_{1}^{2}}{2\sigma _{1}^{2}}\right],
f(x_{2}|x_{1})=\frac{1}{\sqrt{2\pi}\sigma _{2}\sqrt{1-\rho^{2}}}\exp\bigg[-\frac{1}{2\sigma _{2}^{2}(1-\rho^{2})}\Big(x_{2}-\rho\frac{\sigma _{2}}{\sigma _{1}}x_{1}\Big)^{2}\bigg].

To znaczy, że {\rm N}(0,\sigma _{1}^{2}) jest rozkładem brzegowym X_{{1}} oraz

{\rm N}(\rho\frac{\sigma _{2}}{\sigma _{1}}x_{{1}},\sigma _{2}^{2}(1-\rho^{2}))

jest rozkładem warunkowym X_{{2}} dla X_{{1}}=x_{{1}}. Algorytm jst więc następujący.

Gen X_{1},X_{2}\sim{\rm N}(0,1)
X_{1}:=\sigma _{1}X_{1}
X_{2}:=\rho({\sigma _{2}}/{\sigma _{1}})X_{1}+\sigma _{2}\sqrt{1-\rho^{2}}X_{2}

Próbka z dwuwymiarowego rozkładu normalnego, poziomice gęstości i funkcja regresji
Rys. 5.1. Próbka z dwuwymiarowego rozkładu normalnego, poziomice gęstości i funkcja regresji x_{2}=\mathbb{E}(X_{2}|X_{1}=x_{1}).

Efekt działania powyższego algorytmu widać na Rysunku 5.1. W tym konkretnym przykładzie X_{1} ma rozkład brzegowy {\rm N}(0,1), zaś X_{2} ma rozkład warunkowy {\rm N}(X_{1},0.5). Zauważmy, że {\rm Var}X_{2}=1.5 i {\rm Cov}(X_{1},X_{2})=1. Prosta x_{2}=x_{1} jest wykresem funkcji regresji \mathbb{E}(X_{2}|X_{1}=x_{1}) i jest przedstawiona na wykresie. Pokazane są też poziomice gęstości (elipsy). Warto zwrócić uwagę, że funkcja regresji nie pokrywa się ze wspólną osią tych elips. Dlaczego? Jak obliczyć oś?

Uogólnienie na przypadek rozkładu normalnego {\rm N}(\mu _{{1}},\mu _{{2}},\sigma _{1}^{2},\sigma _{2}^{2},\rho), z niezerowymi średnimi, jest banalne. Uogólnienie na wyższe wymiary też nie jest skomplikowane. Okazuje się jednak, że metoda rozkładów warunkowych dla rozkładów normalnych prowadzi to do algorytmu identycznego jak otrzymany metodą przekształceń.

5.1.2. Metoda przeksztalceń

Podstawą jest następujące twierdzenie o przekształcaniu gęstości.

Twierdzenie 5.1

Załóżmy, że X jest d-wymiarową zmienną losową o wartościach w otwartym zbiorze A\subseteq\mathbb{R}^{{d}}. Jeżeli

X\sim f(x)

i h:A\to\mathbb{R}^{{d}} jest dyfeomorfizmem, to

Y=h(X)\sim g(y)=f(h^{{-1}}(y))\left|\det\frac{\partial}{\partial y}h^{{-1}}(y)\right|.
Przykład 5.2 (Wielowymiarowy rozkład normalny)

Rozważmy niezależne zmienne losowe Z_{1},\ldots,Z_{d}\sim{\rm N}(0,1). Wektor Z=(Z_{1},\ldots,Z_{d}) ma d-wymiarowy rozkład normalny {\rm N}(0,I) o gęstości

f(z)=(2\pi)^{{-d/2}}\exp\left[-\frac{1}{2}z^{\top}z\right].

Jeżeli teraz R jest nieosobliwą macierzą (d\times d) to przekształcenie z\mapsto x=Rz jest dyfeomorfizmem z jakobianem \det\textrm{R}. Z Twierdzenia 5.1 wynika, że wektor losowy X=\textrm{R}Z ma rozkład normalny o gęstości

f_{X}(x)=(2\pi)^{{-d/2}}(\det\textrm{R})^{{-1/2}}\exp\left[-\frac{1}{2}x^{\top}\Sigma^{{-1}}x\right],

gdzie \Sigma=\textrm{R}\textrm{R}^{\top}. Innymi słowy, X\sim{\rm N}(0,\Sigma). Algorytm generacji jest oczywisty:

Gen Z\sim{\rm N}(0,I)
X:=\textrm{R}Z
Jeśli dana jest macierz kowariancji \Sigma wektora X, to przed uruchomieniem algorytmu trzeba znaleźć taką macierz R, żeby \Sigma=\textrm{R}\textrm{R}^{\top}. Istnieje wiele takich macierzy, ale najlepiej skorzystać z rozkładu Choleskiego i wybrać macirz trójkątną.

5.2. Kilka ważnych przykładów

Rozmaitych rozkładów wielowymiarowych jest więcej, niż gwiazd na niebie – a wśród nich tyle przykładów ciekawych i ważnych! Musiałem wybrać zaledwie kilka z nich. Rzecz jasna, wybrałem te, które mi się szczególnie podobają.

5.2.1. Rozkłady sferyczne i eliptyczne

Najważniejszy, być może, przykład to wielowymiarowy rozkład normalny, omówiony już w 5.2. Rozpatrzymy teraz rozklady jednostajne na kuli

B^{d}=\{ x\in\mathbb{R}^{{d}}:|x|^{2}\leq 1\}

i sferze

S^{{d-1}}=\{ x\in\mathbb{R}^{{d}}:|x|^{2}=1\}.

Oczywiście, |x| oznacza normę euklidesową, |x|=(x_{{1}}^{{2}}+\cdots+x_{{d}}^{{2}})^{{1/2}}=(x^{\top}x)^{{1/2}}. Rozkład {\rm U}(B^{d}) ma po prostu stałą gęstość względem d-wymiarowej miary Lebesgue'a na kuli. Rozkład {\rm U}(S^{{d-1}}) ma stałą gęstość względem (d-1)-wymiarowej miary ,,powierzchniowej” na sferze. Oba te rozkłady są niezmiennicze względem obrotów (liniowych przekształceń ortogonalnych) \mathbb{R}^{{d}}. Takie rozkłady nazywamy sferycznie symetrycznymi lub krócej: sferycznymi. Zauważmy, że zmienną losową o rozkładzie {\rm U}(S^{{d-1}}) możemy interpretować jako losowo wybrany kierunek w przestrzeni d-1-wymiarowej. Algorytmy ,,poszukiwań losowych” często wymagają generowania takich losowych kierunków.

Rozkłady jednostajne na kuli i sferze są blisko ze sobą związane.

  • Jeśli V=(V_{1},\ldots,V_{d})\sim{\rm U}(B^{d}) i R=|V| to

    Y=\dfrac{V}{R}=\left(\dfrac{V_{1}}{R},\ldots,\dfrac{V_{d}}{R}\right)\sim{\rm U}(S^{{d-1}}).

    Łatwo też zauważyć, że R jest zmienną losową o rozkładzie \mathbb{P}(R\leq r)=r^{{d}} niezależną od Y.

  • Jeśli Y\sim{\rm U}(S^{{d-1}}) i R jest niezależną zmienną losową o rozkładzie \mathbb{P}(R\leq r)=r^{{d}} to V=RY=(R{Y_{1}},\ldots,R{V_{d}})\sim{\rm U}(B^{{d}}).

Zmienną R łatwo wygenerować metodą odwracania dystrybuanty.

Najprostszy wydaje się algorytm eliminacji:

repeat
  Gen V_{1},\ldots,V_{d}\sim{\rm U}(0,1)
until    R^{2}=V_{1}^{2}+\ldots+V_{d}^{2}\leq 1
Na wyjściu otrzymujemy, zgodnie z żądaniem

V=(V_{1},\ldots,V_{d})\sim{\rm U}(B^{d}).

W istocie, dokładnie ta metoda, dla d=2, była częścią algorytmu biegunowego Marsaglii. Problem w tym, że w wyższych wymiarach efektywnosc eliminacji gwałtownie maleje. Prawdopodobieństwo akceptacji jest równe stosunkowi ,,objętości” kuli B^{d} do kostki [-1,1]^{{d}}. Ze znanego wzoru na objętość kuli d-wymiarowej wynika, że

\frac{|B^{d}|}{2^{{d}}}=\frac{2\pi^{{d/2}}}{d\Gamma(d/2)}\cdot\frac{1}{2^{{d}}}=\frac{\pi^{{d/2}}}{d2^{{d-1}}\Gamma({d}/{2})}\longrightarrow _{{d\to\infty}}0.

Zbieżność do zera jest bardzo szybka. Dla dużego d kula jest znikomą częścią opisanej na niej kostki.

Inna metoda, którą z powodzeniem stosuje się dla d=2 jest związana ze współrzędnymi biegunowymi:

Gen \Phi\sim{\rm U}(0,2\pi);
Y_{1}:=\cos\Phi;\  Y_{2}:=\sin\Phi;
Gen U;\  R:=\sqrt{U};
V_{1}:=Y_{1}\cdot R;\  V_{2}:=Y_{2}\cdot R;
Na wyjściu (Y_{{1}},Y_{{2}})\sim S^{1} i (V_{{1}},V_{{2}})\sim B^{2}. Jest to część algorytmu Boxa-Müllera. Uogólnienie na przypadek d>2 nie jest jednak ani proste, ani efektywne. Mechaniczne zastąpienie, współrzędnych biegunowych przez współrzędne sferyczne (dla, powiedzmy d=3) prowadzi do niepoprawnych wyników. Popatrzmy na punkty produkowane przez następujący algorytm:

Gen \Phi\sim{\rm U}(0,2\pi);\ \Psi\sim{\rm U}\left(-\dfrac{\pi}{2},\dfrac{\pi}{2}\right)
Y_{1}:=\cos\Phi\cos\Psi;\quad Y_{2}:=\sin\Phi\cos\Psi;\quad\  Y_{3}=\sin\Psi
Algorytm ,,współrzędnych sferycznych'' \text@underline{nie generuje} rozkładu jednostajnego na sferze
Rys. 5.2. Niepoprawne i poprawne generowanie z rozkładu jednostajnego na sferze.

Efekt działania algorytmu ,,współrzędnych sferycznych” jest widoczny na trzech początkowych obrazkach na Rysunku 5.2. Górny lewy rysunek przedstawia punkty widoczne ,,z płaszczyzny równika”, czyli (Y_{1},Y_{3}). Górny prawy – te same punkty widziane ,,znad bieguna”, czyli (Y_{1},Y_{2}). Dolny lewy – górną półsferę widzianą ,,skośnie”, czyli (Y_{2},Y_{3}^{a}), gdzie Y_{3}^{a}=\sqrt{2}Y_{3}+\sqrt{2}Y_{1}. Dla porównania, na ostatnim rysunku po prawej stronie u dołu – punkty wylosowane rzeczywiście z rozkładu {\rm U}(S^{2}) przy pomocy poprawnego algorytmu podanego niżej.

Gen Z_{1},\ldots,Z_{d}\sim{\rm N}(0,1);
R:=(Z_{1}^{2}+\cdots+Z_{d}^{2})^{{1/2}};
Y_{1}:={Z_{1}}/{R},\ldots,Y_{d}:={Z_{d}}/{R};
Gen U;\quad R:={U}^{{1/d}};
V_{1}:=Y_{1}\cdot R,\ldots,V_{d}:=Y_{d}\cdot R;
Na wyjściu Y\sim{\rm U}(S^{{d-1}}) i V\sim{\rm U}(B^{d}). Jak widać, algorytm polega na normowaniu punktów wylosowanych ze sferycznie symetrycznego rozkładu normalnego. Jest prosty, efektywny i godny polecenia.

Przykład 5.3 (Wielowymiarowe rozkłady Studenta)

Niech Z=(Z_{1},\ldots,Z_{d})^{\top} będzie wektorem losowym o rozkładzie {\rm N}(0,I), zaś R^{2} – niezależną zmienną losową o rozkładzie \chi^{2}(n). Wektor

(Y_{1},\ldots,Y_{d})^{\top}=\frac{(Z_{1},\ldots,Z_{d})^{\top}}{\sqrt{R^{2}}/n}

ma, z definicji, Sferyczny rozkład t-Studenta z n stopniami swobody. Gęstość tego rozkładu (z dokładnością do stałej normującej) jest równa

f(y)=f(y_{1},\ldots,y_{d})\propto\left[1+\frac{1}{n}\big(\sum y_{i}^{2}\big)\right]^{{-({n+d})/{2}}}=\left[1+\frac{1}{n}|y|^{2}\right]^{{-({n+d})/{2}}}.

W przypadku jednowymiarowym, a więc przyjmując d=1, otrzymujemy dobrze znane rozklady t-Studenta z n stopniami swobody o gęstości

f(y)\propto\frac{1}{(1+y^{2}/n)^{{({n+1})/{2}}}}

W szczególnym przypadku, biorąc za liczbę stopni swobody n=1, otrzymujemy rozkłady Cauchy'ego. Na przykład, dwuwymiarowy rozkład Cauchy'ego ma taką gęstość:

f(y_{1},y_{2})\propto\frac{1}{(1+y_{1}^{2}+y_{2}^{2})^{{3/2}}}.

Użytecznym uogólnieniem rozkładów sferycznych są rozkłady eliptyczne. Są one określone w następujący sposób. Niech \Sigma będzie macierzą symetryczną i nieosbliwą. Nazwijmy uogólnionym obrotem przekształcenie liniowe, które zachowuje uogólnioną normę |x|_{{\Sigma^{{-1}}}}=(x^{\top}{\Sigma^{{-1}}}x)^{{1/2}}. Rozkład jest z definicji eliptycznie konturowany lub krócej eliptyczny, gdy jest niezmienniczy względem uogólnionych obrotów (dla ustalonej macierzy \Sigma).

5.2.2. Rozklady Dirichleta

Definicja 5.1

Mówimy, że n-wymiarowa zmienna losowa X ma rozkład Dirichleta,

X=(X_{1},\ldots,X_{n})\sim{\rm Dir}(\alpha _{1},\ldots,\alpha _{n})

jesli X_{1}+\cdots+X_{n}=1 i zmienne X_{1},\ldots,X_{{n-1}} mają gęstość

f(x_{1},\ldots,x_{{n-1}})=\frac{\Gamma(\alpha _{1}+\cdots+\alpha _{n})}{\Gamma(\alpha _{1})\ldots\Gamma(\alpha _{n})}x_{1}^{{\alpha _{1}-1}}\ldots x_{{n-1}}^{{\alpha _{{n-1}}-1}}(1-x_{1}-\ldots x_{{n-1}})^{{\alpha _{n}-1}}.

Parametry \alpha _{{1}},\ldots,\alpha _{{n}} mogą być dowolnymi liczbami dodatnimi.

Uwaga 5.1

Rozkłady Dirichleta dla d=2 są to w istocie rozkłady beta:

X_{1}\sim{\rm Beta}(\alpha _{1},\alpha _{2})\textrm{ wtedy i tylko wtedy, gdy }(X_{1},X_{2})\sim{\rm Dir}(\alpha _{1},\alpha _{2})
Wniosek 5.1

Jeśli U_{1},\ldots,U_{{n-1}} są niezależnymi zmiennymi o jednakowym rozkładzie jednostajnym {\rm U}(0,1) i

U_{{1:n}}<\ldots<U_{{n-1:n-1}}

oznaczają statystyki pozycyjne, to spacje

X_{i}=U_{{i:n}}-U_{{i-1:n}},\quad X_{n}=1-U_{{n-1:n}}

maja rozklad {\rm Dir}(1,\ldots,1).

Twierdzenie 5.2

Jeśli Y_{1},\ldots,Y_{n} są niezależnymi zmiennymi losowymi o rozkładach gamma,

Y_{i}\sim{\rm Gamma}(\alpha _{i})

i S=Y_{1}+\cdots+Y_{n} to

(X_{1},\ldots,X_{n})=\left(\frac{Y_{1}}{S},\ldots,\frac{Y_{n}}{S}\right)\sim{\rm Dir}(\alpha _{1},\ldots,\alpha _{n}).

Wektor losowy X jest niezależny od S.

Dowód

Obliczymy łączną gęstość zmiennych losowych S,X_{1},\ldots,X_{{n-1}}. Ze wzoru na przekształcenie gęstości wynika, że

\begin{split}&f_{{S,X_{1},\ldots,X_{{n-1}}}}(s,x_{1},\ldots,x_{{n-1}})=f_{{Y_{1},\ldots,Y_{n}}}(x_{1}s,\ldots,x_{n}s)\\
&\propto(x_{1}s)^{{\alpha _{1}-1}}{\rm e}^{{-x_{1}s}}\ldots(x_{n}s)^{{\alpha _{n}-1}}{\rm e}^{{-x_{n}s}}\bigg|\frac{\partial(y_{1},\ldots,y_{n})}{\partial(s,x_{1},\ldots x_{{n-1}})}\bigg|\\
&\propto x_{1}^{{\alpha _{1}-1}}\ldots x_{n}^{{\alpha _{n}-1}}s^{{\alpha _{1}+\cdots+\alpha _{n}-1}}{\rm e}^{{-s}},\end{split}

ponieważ jakobian przekształcenia odwrotnego jest równy s^{{n-1}}. Wystarczy teraz zauważyć, że

x_{1}^{{\alpha _{1}-1}}\cdots x_{n}^{{\alpha _{n}-1}}={\rm Dir},
s^{{\alpha _{1}+\cdots+\alpha _{n}-1}}{\rm e}^{{-s}}={\rm Gamma}.
Wniosek 5.2

Dla niezależnych zmiennych losowych o jednakowym rozkładzie wykładniczym,

Y_{1},\ldots,Y_{n}\sim{\rm Ex}(1),

jeśli S=Y_{1}+\cdots+Y_{n} to

(X_{1},\ldots,X_{n})=\left(\frac{Y_{1}}{S},\ldots,\frac{Y_{n}}{S}\right)\sim{\rm Dir}(1,\ldots,1)

Z 5.1 i 5.2 wynika, że następujące dwa algorytmy:

Gen U_{1},\ldots,U_{{n-1}};
Sort (U_{1},\ldots,U_{{n-1}});\; U_{0}=0;\; U_{n}=1;
X_{i}:=U_{i}-U_{{i-1}}
oraz
Gen Y_{1},\ldots,Y_{n}\sim{\rm Ex}(1)
S:=Y_{1}+\cdots+Y_{n}
X_{i}:=Y_{i}/S
dają te same wyniki.

Wiele ciekawych własności rozkładów Dirichleta wynika niemal natychmiast z 5.2 (choć nie tak łatwo wyprowadzić je posługując się gęstością 5.2). Mam na myśli przede wszystkim zasadniczą własność ,,grupowania zmiennych”.

Wniosek 5.3

Rozważmy rozbicie zbioru indeksów na sumę rozłącznych podzbiorów:

\left\{ 1,\ldots,n\right\}=\bigcup _{{j=1}}^{k}I_{j}.

Jeżeli (X_{1},\ldots,X_{n})\sim{\rm Dir}(\alpha _{1},\ldots,\alpha _{n}) i rozważymy ,,zgrupowane zmienne”

S_{j}=\sum _{{i\in I_{j}}}X_{i},

to wektor tych zmiennych ma też rozkład Dirichleta,

(S_{1},\ldots,S_{k})\sim{\rm Dir}(\beta _{1},\ldots,\beta _{k}),

gdzie

\beta _{j}=\sum _{{i\in I_{j}}}\alpha _{i}.

Co więcej, każdy z wektorów (X_{i}/S_{j})_{{i\in I_{j}}} ma rozkład Dirichleta {\rm Dir}(\alpha _{{i}})_{{i\in I_{j}}} i wszystkie te wektory są niezależne od (S_{1},\ldots,S_{k}).

Przykład 5.4

Wniosek 5.3 razem z 5.1 pozwala szybko generować wybrane statystyki pozycyjne. Na przykład łączny rozkład dwóch statystyk pozycyjnych z rozkładu jednostajnego jest wyznaczony przez rozkład trzech ,,zgrupowanych spacji”:

(U_{{k:n-1}},\; U_{{l:n-1}}-U_{{k:n-1}},\; 1-U_{{l:n-1}})\sim{\rm Dir}(k,l-k,n-l)
Przykład 5.5 (Rozkład dwumianowy)

Aby wygenerować zmienną o rozkładzie dwumianowym {\rm Bin}(n,p) wystarczy rozpoznać między którymi statystykami pozycyjnymi z rozkładu {\rm U}(0,1) leży liczba p. Nie musimy w tym celu generować wszystkich staystyk pozycyjnych, możemy wybierać ,,najbardziej prawdopodobne”. W połączeniu 5.4 daje to następujący algorytm.

k:=n\theta:=pX:=0;
repeat
  i:=\lfloor 1+k\theta\rfloor;
  Gen V\sim{\rm Beta}(i,k+1-i);
  if \theta<V then
    begin \theta:=\theta/Vk:=i-1 end
                  else
    begin X:=X+i\theta=({\theta-V})/({1-V})k:=k-i end
until k=0

Metoda generowania zmiennych o rozkładzie Dirichleta opiera sie na następującym fakcie, który jest w istocie szczególnym przypadkiem ,,reguły grupowania” 5.3.

Wniosek 5.4

Jeśli (X_{1},\ldots,X_{n})\sim{\rm Dir}(\alpha _{{1}},\ldots,\alpha _{{n}}) i, dla k=1,\ldots,n, określimy S_{k}=X_{1}+\cdots+X_{k} to zmienne

Y_{1}=\frac{S_{1}}{S_{2}},Y_{2}=\frac{S_{2}}{S_{3}},\ldots,Y_{n}=\frac{S_{{n-1}}}{S_{{n}}}

są niezależne i

Y_{k}\sim{\rm Beta}(\alpha _{1}+\cdots+\alpha _{k},\alpha _{{k+1}}).

Odwrotnie, jeśli zmienne Y_{1},\ldots,Y_{n} są niezależne i każda z nich ma rozkład beta, to wektor (X_{1},\ldots,X_{n}) ma rozkład Dirichleta.

Oczywiście, jeśli wygenerujemy niezależne zmienne Y_{1},\ldots,Y_{n} o rozkładach beta, to zmienne X_{1},\ldots,X_{n} łatwo ,,odzyskać” przy pomocy wzorów:

X_{n}=1-Y_{{n-1}}
Z_{{n-1}}=(1-Y_{{n-2}})Y_{{n-1}}
\ldots
Z_{2}=(1-Y_{1})Y_{2}\cdots Y_{{n-1}}
Z_{1}=Y_{1}Y_{2}\cdots Y_{{n-1}}

Powyższe równania określają algorytm generowania zmiennych o rozkładzie {\rm Dir}(\alpha _{1},\ldots,\alpha _{n}).

Treść automatycznie generowana z plików źródłowych LaTeXa za pomocą oprogramowania wykorzystującego LaTeXML.

Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego.

Projekt współfinansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego i przez Uniwersytet Warszawski.