Zagadnienia

4. Warunkowa wartość oczekiwana

Warunkowa wartość oczekiwana jest jednym z kluczowych pojęć w teorii prawdopodobieństwa. Zacznijmy od sytuacji gdy warunkujemy względem zdarzenia.

Definicja 4.1

Załóżmy, że (\Omega,\mathcal{F},\mathbb{P}) jest przestrzenią probabilistyczną oraz B jest zdarzeniem o dodatnim prawdopodobieństwie. Niech X będzie całkowalną zmienną losową. Warunkową wartością oczekiwaną X pod warunkiem B nazywamy liczbę

\mathbb{E}(X|B)=\int _{\Omega}X(\omega)\mathbb{P}(d\omega|B).
Stwierdzenie 4.1

Przy założeniach jak wyżej,

\mathbb{E}(X|B)=\frac{1}{\mathbb{P}(B)}\int _{B}Xd\mathbb{P}. (*)
Dowód:

Stosujemy standardową metodę komplikacji zmiennej X.

1. Załóżmy najpierw, że X=1_{A}, gdzie A\in\mathcal{F}. Wówczas

\mathbb{E}(X|B)=\mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}=\frac{1}{\mathbb{P}(B)}\int _{B}1_{A}d\mathbb{P}.

2. Z liniowości, dowodzona równość zachodzi także dla zmiennych prostych (kombinacji liniowych indykatorów zdarzeń).

3. Teraz jeśli X jest nieujemną zmienną losową, to bierzemy niemalejący ciąg (X_{n}) zmiennych prostych zbieżny prawie na pewno do X. Pisząc (*) dla X_{n} i zbiegając z n\to\infty dostajemy (*) dla X, na mocy twierdzenia Lebesgue'a o monotonicznym przejściu do granicy pod znakiem całki.

4. Jeśli X jest dowolną zmienną losową, to rozważamy rozbicie X=X_{+}-X_{-} i stosujemy (*) dla X_{+} oraz X_{-}; po odjęciu stronami dostajemy (*) dla X.

Przechodzimy do definicji warunkowej wartości oczekiwanej względem \sigma-ciała.

Definicja 4.2

Załóżmy, że (\Omega,\mathcal{F},\mathbb{P}) jest przestrzenią probabilistyczną, \mathcal{M} jest pod-\sigma-ciałem \mathcal{F}, a X jest całkowalną zmienną losową. Warunkową wartością oczekiwaną X pod warunkiem \mathcal{M} nazywamy taką zmienną losową \eta, że są spełnione następujące dwa warunki.

1) \eta jest mierzalna względem \mathcal{M}.

2) Dla każdego B\in\mathcal{M},

\int _{B}\eta d\mathbb{P}=\int _{B}Xd\mathbb{P}.

Oznaczenie: \mathbb{E}(X|\mathcal{M}).

W szczególności gdy X=1_{A}, A\in\mathcal{F}, to definiujemy prawdopodobieństwo warunkowe zdarzenia A pod warunkiem \mathcal{M} poprzez \mathbb{P}(A|\mathcal{M})=\mathbb{E}(1_{A}|\mathcal{M}).

Twierdzenie 4.1

Załóżmy, że X jest całkowalną zmienną losową, a \mathcal{M} jest pod-\sigma-ciałem \mathcal{F}. Wówczas warunkowa wartość oczekiwana istnieje i jest wyznaczona jednoznacznie z dokładnością do równości p.n.

Dowód:

Dla dowolnego B\in\mathcal{M} definiujemy \nu(B)=\int _{B}Xd\mathbb{P}. Funkcja \nu:\mathcal{M}\to\mathbb{R} jest przeliczalnie addytywną funkcją zbioru. Ponadto jeśli \mathbb{P}(B)=0, to \nu(B)=0 (jest to tzw. absolutna ciągłość \nu względem \mathbb{P}). Na mocy twierdzenia Radona-Nikodyma istnieje \mathcal{M}-mierzalna zmienna losowa \eta będąca gęstością \nu względem \mathbb{P}, tzn. taka, że dla wszystkich B\in\mathcal{M},

\int _{B}X\mathbb{P}=\nu(B)=\int _{B}\eta d\mathbb{P}.

Jednoznaczność jest oczywista: jeśli \eta _{1}, \eta _{2} są zmiennymi losowymi spełniającymi 1) oraz 2), to w szczególności, dla każdego B\in\mathcal{M}, \int _{B}\eta _{1}d\mathbb{P}=\int _{B}\eta _{2}d\mathbb{P}, skąd \eta _{1}=\eta _{2} p.n.

Uwaga: Warto tu przyjrzeć się warunkowej wartości oczekiwanej zmiennej X względem \sigma-ciała \mathcal{M} generowanego przez co najwyżej przeliczalne rozbicie (B_{n}) zbiorów o dodatnim prawdopodobieństwie. Bardzo łatwo wyznaczyć tę zmienną w oparciu o powyższą definicję. Mianowicie, jak widać z warunku 1), \mathbb{E}(X|\mathcal{M}) musi być stała na każdym zbiorze B_{n}, n=1,\, 2,\,\ldots; własność 2) natychmiast implikuje, iż \mathbb{E}(X|\mathcal{M})=\mathbb{E}(X|B_{n}) na zbiorze B_{n}. To w jednoznaczny sposób opisuje warunkową wartość oczekiwaną.

Przechodzimy do pojęcia warunkowej wartości oczekiwanej względem zmiennej losowej. Będziemy potrzebować następującego pomocniczego faktu.

Lemat 4.1

Załóżmy, że Y jest zmienną losową. Wówczas każda zmienna losowa X mierzalna względem \sigma(Y) ma postać f(Y) dla pewnej funkcji borelowskiej f.

Dowód:

Ponownie stosujemy metodę komplikacji zmiennej.

1. Załóżmy, że X=1_{A}, gdzie A\in\sigma(Y). Wówczas A=\{ Y\in B\} dla pewnego B, skąd X=1_{B}(Y), czyli jako f możemy wziąć indykator 1_{B}.

2. Jeśli X jest zmienną prostą, to jako f bierzemy kombinację liniową odpowiednich indykatorów (patrz poprzedni punkt).

3. Załóżmy, że X jest nieujemną zmienną losową. Istnieje niemalejący ciąg (X_{n}) prostych, \sigma(Y)-mierzalnych zmiennych losowych zbieżny do X. Na mocy 2), mamy X_{n}=f_{n}(Y) dla pewnego ciągu funkcyjnego (f_{n}). Jak łatwo sprawdzić, wystarczy wziąć

f(x)=\begin{cases}\lim _{{n\to\infty}}f_{n}(x)&\mbox{ jeśli granica istnieje,}\\
0&\text{jeśli granica nie istnieje}.\end{cases}

4. Jeśli teraz X jest dowolną zmienną losową, to mamy X=X_{+}-X_{-}=f_{+}(Y)-f-(Y)=f(Y), gdzie f_{+}, f_{-} to funkcje borelowskie odpowiadające \sigma(Y)-mierzalnym X_{+} oraz X_{-}.

Definicja 4.3

Załóżmy, że X,\, Y są zmiennymi losowymi, przy czym X jest całkowalna. Definiujemy warunkową wartość oczekiwaną X pod warunkiem Y jako

\mathbb{E}(X|Y)=\mathbb{E}(X|\sigma(Y)).

Uwaga: Na mocy lematu mamy \mathbb{E}(X|Y)=f(Y) dla pewnej funkcji borelowskiej f. Liczbę f(y) możemy interpretować jako \mathbb{E}(X|Y=y).

Przykłady:

1. Załóżmy, że X, Y posiadają rozkłady skokowe. Oznaczmy

P_{Y}(y)=\mathbb{P}(Y=y)\,\,\mbox{ oraz }\,\, P_{{(X,Y)}}(x,y)=\mathbb{P}(X=x,Y=y).

Jeśli h jest dowolną funkcją borelowską taką, że h(X)\in L^{1}, to

\mathbb{E}(h(X)|Y)=\sum _{{x\in S_{X}}}h(x)\frac{P_{{(X,Y)}}(x,Y)}{P_{Y}(Y)}.

Aby to wykazać, należy sprawdzić, iż prawa strona (oznaczana dalej przez \eta) spełnia własności 1) i 2) z definicji \mathbb{E}(h(X)|\sigma(Y)). Pierwszy warunek jest jasny - \eta, jako funkcja Y, jest \sigma(Y)-mierzalna. Zajmijmy się zatem drugim warunkiem. niech B\in\sigma(Y). Ponieważ Y ma rozkład dyskretny, B jest co najwyżej przeliczalną sumą zdarzeń postaci \{ Y=y\} oraz zdarzenia o prawdopodobieństwie 0. Wystarczy więc sprawdzić 2) dla zbiorów B postaci \{ Y=y\}. Mamy

\int _{{\{ Y=y\}}}\eta d\mathbb{P}=\int _{{\{ Y=y\}}}\sum _{{x\in S_{X}}}h(x)\frac{P_{{X,Y}}(x,y)}{P_{Y}(y)}d\mathbb{P}=\sum _{{x\in S_{X}}}h(x)P_{{X,Y}}(x,y)

oraz

\int _{{\{ Y=y\}}}h(X)d\mathbb{P}=\sum _{{x\in S_{X}}}h(x)\int _{{\{ Y=y\}}}1_{{\{ X=x\}}}d\mathbb{P}=\sum _{{x\in S_{X}}}h(x)P_{{X,Y}}(x,y).

2. Konkretny przykład. Załóżmy, że X, Y są niezależnymi zmiennymi losowymi o rozkładzie Poissona z parametrami \lambda,\,\mu, odpowiednio. Wyznaczymy \mathbb{E}(X|X+Y).

Wiadomo, że X+Y ma rozkład Poissona z parametrem \lambda+\mu. Stąd

P_{{X+Y}}(k)=\frac{(\lambda+\mu)^{k}}{k!}e^{{-(\lambda+\mu)}},\qquad k=0,\, 1,\, 2,\,\ldots.

Ponadto, jeśli k\geq\ell\geq 0, to

\begin{split} P_{{X,X+Y}}(\ell,k)&=\mathbb{P}(X=\ell,X+Y=k)=\mathbb{P}(X=\ell)\mathbb{P}(Y=k-\ell)\\
&=\frac{\lambda^{\ell}}{\ell!}e^{{-\lambda}}\cdot\frac{\mu^{{k-\ell}}}{(k-\ell)!}e^{{-\mu}}\end{split}

i

\frac{P_{{X,X+Y}}(\ell,k)}{P_{{X+Y}}(k)}=\frac{k!\lambda^{\ell}\mu^{{k-\ell}}}{\ell!(k-\ell)!(\lambda+\mu)^{k}}={k\choose\ell}\left(\frac{\lambda}{\lambda+\mu}\right)^{\ell}\left(1-\frac{\lambda}{\lambda+\mu}\right)^{{k-\ell}}.

Stąd

\mathbb{E}(X|X+Y)=\frac{\lambda}{\lambda+\mu}(X+Y).

3. Załóżmy, że (X,Y) ma rozkład z gęstością g i niech g_{Y}(y)=\int _{\mathbb{R}}g(x,y)dx będzie gęstością zmiennej Y. Zdefiniujmy gęstość warunkową wzorem

g_{{X|Y}}(x|y)=\begin{cases}\frac{g(x,y)}{g_{Y}(y)}&\text{jeśli }g_{Y}(y)\neq 0,\\
0&\text{jeśli }g_{Y}(y)=0.\end{cases}

Wówczas dla dowolnej funkcji borelowskiej h:\mathbb{R}\to\mathbb{R} mamy

\mathbb{E}(h(X)|Y)=\int _{\mathbb{R}}h(x)g_{{X|Y}}(x|Y)dx. (*)

Istotnie, sprawdzimy, że prawa strona spełnia warunki 1) i 2) z definicji \mathbb{E}(h(X)|Y). Oczywiście warunek 1) jest spełniony - prawa strona jest funkcją od Y. Przejdźmy do 2). Dla dowolnego B\in\sigma(Y) mamy, iż B=\{ Y\in A\} dla pewnego A\in\mathbb{R} oraz

\begin{split}\int _{B}h(X)d\mathbb{P}&=\int _{\Omega}1_{{\{ Y\in A\}}}h(X)d\mathbb{P}=\int _{{\mathbb{R}^{2}}}1_{{\{ y\in A\}}}h(x)g(x,y)dxdy\\
&=\int _{\mathbb{R}}1_{{\{ y\in A\}}}g_{Y}(y)\int _{\mathbb{R}}h(x)g_{{X|Y}}(x|y)dxdy\\
&=\int _{B}\int _{\mathbb{R}}h(x)g_{{X|Y}}(x|Y)dxd\mathbb{P}.\end{split}

Własności warunkowej wartości oczekiwanej

Załóżmy, że (\Omega,\mathcal{F},\mathbb{P}) jest ustaloną przestrzenią probabilistyczną i niech \mathcal{M} będzie pewnym pod-\sigma-ciałem \mathcal{F}. Ponadto, o wszystkich zmiennych losowych zakładamy, że są całkowalne.

0. Mamy \mathbb{E}(\mathbb{E}(X|\mathcal{M}))=\mathbb{E}X. Wynika to natychmiast z 2), jeśli weźmiemy B=\Omega.

1. Niech \alpha,\,\beta\in\mathbb{R}. Wówczas

\mathbb{E}(\alpha X_{1}+\beta X_{2}|\mathcal{M})=\alpha\mathbb{E}(X_{1}|\mathcal{M})+\beta\mathbb{E}(X_{2}|\mathcal{M}).

Istotnie: sprawdzimy, że prawa strona (oznaczana dalej przez R) spełnia warunki 1) i 2) z definicji \mathbb{E}(\alpha X_{1}+\beta X_{2}|\mathcal{M}). Pierwszy warunek jest oczywisty. Aby sprawdzić drugi zauważmy, że dla dowolnego B\in\mathcal{M},

\begin{split}\int _{B}Rd\mathbb{P}&=\alpha\int _{B}\mathbb{E}(X_{1}|\mathcal{M}d\mathbb{P}+\beta\int _{B}\mathbb{E}(X_{2}|\mathcal{M}d\mathbb{P}=\alpha\int _{B}X_{1}d\mathbb{P}+\beta\int _{B}X_{2}d\mathbb{P}\\
&=\int _{B}\alpha X_{1}+\beta X_{2}d\mathbb{P}.\end{split}

2. Jeśli X jest nieujemną zmienną losową, to \mathbb{E}(X|\mathcal{M})\geq 0 p.n. Istotnie, niech B=\{\mathbb{E}(X|\mathcal{M})<0\}. Wówczas B\in\mathcal{M} i

\int _{B}\mathbb{E}(X|\mathcal{M})d\mathbb{P}=\int _{B}Xd\mathbb{P}.

Widzimy, że gdyby zdarzenie B miało dodatnie prawdopodobieństwo, to lewa strona byłaby ujemna, a prawa - nieujemna.

3. Mamy

|\mathbb{E}(X|\mathcal{M})|\leq\mathbb{E}(|X||\mathcal{M})\quad\text{p.n.} (*)

Istotnie, na mocy 1. oraz 2. mamy, iż nierówność X\leq Y p.n. pociąga za sobą \mathbb{E}(X|\mathcal{M})\leq\mathbb{E}(Y|\mathcal{M}). Stąd, z prawdopodobieństwem 1,

\mathbb{E}(X_{1}|\mathcal{M})\leq\mathbb{E}(|X_{1}||\mathcal{M})

i

-\mathbb{E}(X_{1}|\mathcal{M})\leq\mathbb{E}(|X_{1}||\mathcal{M}).

Biorąc wartość oczekiwaną obu stron w (*) dostajemy, na mocy 0.,

\mathbb{E}(|\mathbb{E}(X|\mathcal{M})|)\leq\mathbb{E}|X|.

Innymi słowy, operator liniowy \mathbb{E}(\cdot|\mathcal{M}):L^{1}(\Omega,\mathcal{F},\mathbb{P})\to L^{1}(\Omega,\mathcal{F},\mathbb{P}) jest kontrakcją.

4. Warunkowa wersja twierdzenia Lebesgue'a o monotonicznym przejściu do granicy. Załóżmy, że X_{n}\uparrow X. Wówczas \mathbb{E}(X_{n}|\mathcal{M})\uparrow\mathbb{E}(X|\mathcal{M}) p.n.

Aby to wykazać, zacznijmy od obserwacji iż na mocy 1. i 2., ciąg (\mathbb{E}(X_{n}|\mathcal{M})) jest z prawdopodobieństwem 1 niemalejący, a więc w szczególności zbieżny. Oznaczmy jego granicę przez \eta, \mathbb{E}(X_{1}|\mathcal{M})\leq\eta\leq\infty. Niech teraz B\in\mathcal{M}. Mamy, na mocy 2) oraz bezwarunkowego twierdzenia Lebesgue'a,

\int _{B}X=\lim _{{n\to\infty}}\int _{B}X_{n}=\lim _{{n\to\infty}}\int _{B}\mathbb{E}(X_{n}|\mathcal{M})=\int _{B}\eta.

Ponieważ \eta jest \mathcal{M}-mierzalna, to z powyższej równości wynika, iż \eta=\mathbb{E}(X|\mathcal{M}).

5. Analogicznie dowodzimy warunkowe wersje twierdzenia Lebesgue'a o zmajoryzowanym przejściu do granicy pod znakiem całki oraz lematu Fatou.

6. Załóżmy, że X_{1} jest mierzalna względem \mathcal{M} oraz X_{1}X_{2} jest całkowalna. Wówczas

\mathbb{E}(X_{1}X_{2}|\mathcal{M})=X_{1}\mathbb{E}(X_{2}|\mathcal{M})\quad\text{p.n}. (+)

W szczególności, biorąc X_{2}\equiv 1, dostajemy, iż \mathbb{E}(X_{1}|\mathcal{M})=X_{1}.

Sprawdzamy, że prawa strona spełnia warunki 1) oraz 2) z definicji \mathbb{E}(X_{1}X_{2}|\mathcal{M}). Warunek 1) jest oczywisty, pozostaje więc sprawdzić drugi. Zastosujemy metodę komplikacji zmiennej X_{1}.

a) Jeśli X_{1}=1_{A}, gdzie A\in\mathcal{M}, to dla dowolnego B\in\mathcal{M},

\int _{B}X_{1}\mathbb{E}(X_{2}|\mathcal{M})d\mathbb{P}=\int _{{A\cap B}}\mathbb{E}(X_{2}|\mathcal{M})d\mathbb{P}=\int _{{A\cap B}}X_{2}d\mathbb{P}=\int _{B}X_{1}X_{2}d\mathbb{P}.

b) Jeśli X_{1} jest zmienną prostą, to wzór (+) dostajemy na mocy a) oraz liniowości warunkowych wartości oczekiwanych.

c) Jeśli X_{1} jest nieujemną zmienną losową, to istnieje niemalejący ciąg (Y_{n}) \mathcal{M}-mierzalnych zmiennych prostych, zbieżny p.n. do X_{1}. Rozbijmy X_{2}=X_{2}^{+}-X_{2}^{-} i zastosujmy b) do zmiennych Y_{n} oraz X_{2}^{+}:

\mathbb{E}(Y_{n}X_{2}^{+}|\mathcal{M})=Y_{n}\mathbb{E}(X_{2}^{+}|\mathcal{M}).

Zbiegając z n\to\infty i korzystając z warunkowej wersji twierdzenia Lebesgue'a (własność 4.), dostajemy

\mathbb{E}(X_{1}X_{2}^{+}|\mathcal{M})=X_{1}\mathbb{E}(X_{2}^{+}|\mathcal{M}).

Zastępując X_{2}^{+} przez X_{2}^{-} i powtarzając rozumowanie, dostajemy

\mathbb{E}(X_{1}X_{2}^{-}|\mathcal{M})=X_{1}\mathbb{E}(X_{2}^{-}|\mathcal{M})

i po odjęciu stronami dostajemy (+).

d) Jeśli X_{1} jest dowolną zmienną losową, to rozbijamy ją na różnicę X_{1}^{+}-X_{1}^{-}, stoujemy c) do zmiennych X_{1}^{+}, X_{2}, oraz X_{1}^{-}, X_{2}, i odejmujemy stronami uzyskane równości.

7. Jeśli \mathcal{M}_{1}\subset\mathcal{M}_{2} są pod-\sigma-ciałami \mathcal{F}, to

\mathbb{E}(X|\mathcal{M}_{1})=\mathbb{E}(\mathbb{E}(X|\mathcal{M}_{2})|\mathcal{M}_{1})=\mathbb{E}(\mathbb{E}(X|\mathcal{M}_{1})|\mathcal{M}_{2}). (=)

Zacznijmy od obserwacji, iż wyrażenia stojące po skrajnych stronach są równe. Wynika to natychmiast z poprzedniej własności: zmienna losowa \mathbb{E}(X|\mathcal{M}_{1}) jest mierzalna względem \mathcal{M}_{2}. Wystarczy więc udowodnić, że pierwsze dwa wyrazy w (=) są równe. Weźmy B\in\mathcal{M}_{1}. Mamy B\in\mathcal{M}_{2}, a więc

\int _{B}\mathbb{E}(X|\mathcal{M}_{1})=\int _{B}X=\int _{B}\mathbb{E}(X|\mathcal{M}_{2})=\int _{B}\mathbb{E}(\mathbb{E}(X|\mathcal{M}_{2})|\mathcal{M}_{1}),

skąd teza.

8. Załóżmy, że X jest niezależna od \mathcal{M}. Wówczas \mathbb{E}(X|\mathcal{M})=\mathbb{E}X. Istotnie, sprawdzimy, że \mathbb{E}X spełnia warunki 1) i 2) w definicji \mathbb{E}(X|\mathcal{M}). Warunek 1) jest oczywisty: \mathbb{E}X jest zmienn:a losową stałą, a więc mierzalną względem każdego \sigma-ciała. Niech teraz B\in\mathcal{M}. Mamy na mocy niezależności 1_{B} oraz X,

\int _{B}\mathbb{E}Xd\mathbb{P}=\mathbb{E}1_{B}\mathbb{E}X=\mathbb{E}(1_{B}X)=\int _{B}Xd\mathbb{P}.

9. Nierówność Jensena. Załóżmy, że f:\mathbb{R}\to\mathbb{R} jest funkcją wypukłą taką, że f(X) jest zmienną całkowalną. Wówczas

\mathbb{E}(f(X)|\mathcal{M})\geq f(\mathbb{E}(X|\mathcal{M})).

Będzie nam potrzebny następujący prosty fakt. Dowód pozostawiamy jako proste ćwiczenie.

Lemat 4.2

Załóżmy, że f:\mathbb{R}\to\mathbb{R} jest funkcją wypukłą. Wówczas istnieją ciągi (a_{n}), (b_{n}) takie, że dla dowolnego x\in\mathbb{R},

f(x)=\sup _{n}(a_{n}x+b_{n}).

Powróćmy do dowodu 9. Dla ciągów (a_{n}), (b_{n}), gwarantowanych przez powyższy lemat, mamy f(X)\geq a_{n}X+b_{n} dla każdego n. Stąd, na mocy 1. oraz 2., z prawdopodobieństwem 1,

\mathbb{E}(f(X)|\mathcal{M})\geq a_{n}\mathbb{E}(X|\mathcal{M})+b_{n}.

Poniweaż ciągi (a_{n}), (b_{n}) są przeliczalne, to możemy wziąć supremum po n po prawej stronie i dalej nierówno'sć będzie zachodziła z prawdopodobieństwem 1:

\mathbb{E}(f(X)|\mathcal{M})\geq\sup _{n}(a_{n}\mathbb{E}(X||\mathcal{M})+b_{n})=f(\mathbb{E}(X|\mathcal{M})).

Jako wniosek, dostajemy, iż dla p\geq 1 i X\in L^{p}(\Omega,\mathcal{F},\mathbb{P}),

\mathbb{E}(|X|^{p}|\mathcal{M})\geq[\mathbb{E}(|X||\mathcal{M})]^{p}.

Stąd po wzięciu wartości oczekiwanej obu stron, \mathbb{E}(|\mathbb{E}(X|\mathcal{M})|^{p})\leq\mathbb{E}|X|^{p}, czyli

||\mathbb{E}(X|\mathcal{M})||_{p}\leq||X||_{p}.

Zatem warunkowa wartość oczekiwana \mathbb{E}(\cdot|\mathcal{M}) jest kontrakcją w L^{p}.

4.1. Zadania

1. Załóżmy, że X, Y są zmiennymi losowymi a \mathcal{G} jest \sigma-ciałem takim, że X jest mierzalne względem \mathcal{G}, a Y jest niezależne od \mathcal{G}. Niech \phi:\mathbb{R}^{2}\to\mathbb{R} będzie funkcją borelowską taką, że \phi(X,Y) jest całkowalną zmienną losową. Udowodnić, że

\mathbb{E}[\phi(X,Y)|\mathcal{G}]=\Phi(X),

gdzie \Phi(x)=\mathbb{E}\phi(x,Y).

2. Załóżmy, że X jest całkowalną zmienną losową, a \sigma-ciało \mathcal{G} jest niezależne od X oraz od \sigma-ciała \mathcal{M}. Udowodnić, że

\mathbb{E}(X|\sigma(\mathcal{G},\mathcal{M}))=\mathbb{E}(X|\mathcal{M}).

3. Zmienna losowa (X,Y) ma gęstość

g(x,y)=\frac{x^{3}}{2}e^{{-x(y+1)}}1_{{\{ x>0,\, y>0\}}}.

Wyznaczyć \mathbb{E}(Y|X) oraz \mathbb{E}(Y^{2}|X).

4. Zmienna losowa (X,Y) ma rozkład Gaussa o wartości oczekiwanej 0, VarX=\sigma _{1}^{2}, VarY=\sigma _{2}^{2}, Cov(X,Y)=c. Obliczyć \mathbb{P}(Y\in B|X) (dla B\in\mathcal{B}(\mathbb{R})) oraz \mathbb{E}(Y|X).

5. Zmienne losowe X, Y są niezależne i mają rozkład wykładniczy z parametrem 1. Obliczyć \mathbb{P}(X\in B|X+Y) (dla B\in\mathcal{B}(\mathbb{R})) oraz \mathbb{E}(\sin X|X+Y).

6. Zmienne losowe \varepsilon _{1},\,\varepsilon _{2},\,\varepsilon _{3} są niezależne i mają ten sam rozkład \mathbb{P}(\varepsilon _{i}=-1)=\mathbb{P}(\varepsilon _{i}=1)=1/2, i=1,\, 2,\, 3. Obliczyć \mathbb{E}(\varepsilon _{1}|\varepsilon _{1}+\varepsilon _{2}+\varepsilon _{3}) oraz \mathbb{E}(\varepsilon _{1}\varepsilon _{2}|e_{1}+e_{2}e_{3}).

7. Wiadomo, że p procent monet stanowią monety fałszywe, z orłem po obu stronach. Losujemy ze zwracaniem n monet i każdą z nich wykonujemy rzut. Niech F oznacza liczbę losowań, w wyniku których wyciągnięto monetę fałszywą, O - liczba wyrzuconych orłów. Udowodnić, że \mathbb{E}(F|O)=\frac{2p}{100+p}O.

8. Zmienna losowa X ma rozkład wykładniczy z parametrem 1, zaś Y jest zmienną losową taką, że jeśli X=x, to Y ma rozkład wykładniczy z parametrem x.

a) Wyznaczyć rozkład Y.

b) Obliczyć \mathbb{P}(X>r|Y).

9. Losujemy ze zwracaniem po jednej karcie z talii 52 kart tak długo aż wyciągniemy pika. Niech Y oznacza zmienną losową równą liczbie wyciągniętych kart, a X zmienną losową równą liczbie wyciągniętych kierów. Wyznaczyć \mathbb{E}(Y|X=4) oraz \mathbb{E}(X|Y=4).

10. Zmienne lsowe X, Y są niezależne i mają rozkład wykładniczy z parametrem 1. Obliczyć \mathbb{E}(X|X+Y) oraz \mathbb{E}(X|\min(X,Y)).

Treść automatycznie generowana z plików źródłowych LaTeXa za pomocą oprogramowania wykorzystującego LaTeXML.

Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego.

Projekt współfinansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego i przez Uniwersytet Warszawski.