Notice: Undefined index: mode in /home/misc/mst/public_html/common.php on line 63 Notice: Undefined index: mode in /home/misc/mst/public_html/common.php on line 65 Notice: Undefined index: mode in /home/misc/mst/public_html/common.php on line 67 Notice: Undefined index: mode in /home/misc/mst/public_html/common.php on line 69 Notice: Undefined variable: base in /home/misc/mst/public_html/lecture.php on line 36 Analiza portfelowa i rynki kapitałowe I – 3. Wykład III, 16.X.2009 – MIM UW

3. Wykład III, 16.X.2009

Przykłady obliczeń odwzorowania Markowitza w najprostszych sytuacjach – gdy okazuje się ono być liniowe lub kawałkami liniowe. (Od takich prostych przykładów zaczyna się najczęściej, bo rzadkie są sytuacje, gdy odchylenie standardowe portfela Markowitza da się policzyć bez wyciągania pierwiastka kwadratowego. Wykłady [13] też od tego zaczynały. Wielokąty wypukłe i odbicie w pionowej osi \overrightarrow{OE}, które czytelnik zobaczy poniżej, pojawiały się już w [13]. Natomiast specyfiką bieżących wykładów jest wielokrotne używanie w różnych sytuacjach modeli \pm doskonale skorelowanych. Dokładniej, szereg interesujących przykładów będzie się brał z odpowiedniego zaburzania  macierzy kowariancji postaci jak tu niżej w I i II. Np przykład dany w przypisie nr 3 w Wykładzie XI (w wersji html jest to przypis nr 31) – do macierzy \pm doskonale skorelowanej dodana tam zostanie macierz Id.)

I. Załóżmy przez chwilę, że zmienne losowe R_{1},\dots,\, R_{k} są wszystkie doskonale dodatnio  skorelowane, tzn \rho _{{ij}}=1 dla 1\le i\ne j\le k, albo też \sigma _{{ij}}=\sigma _{i}\sigma _{j} dla i\ne j, tzn \Sigma=\sigma\sigma^{{\text{T}}}. Wtedy x^{{\text{T}}}\Sigma\, x=x^{{\text{T}}}\sigma\sigma^{{\text{T}}}x=(\sigma^{{\text{T}}}x)^{2}, \sqrt{x^{{\text{T}}}\Sigma\, x}=\sigma^{{\text{T}}}x dla x\in\Delta^{k}.
Zatem \mathcal{M}(x)=\left(\begin{array}[]{c}\sigma^{{\text{T}}}x\\
\mu^{{\text{T}}}x\end{array}\right) dla x\in\Delta^{k}. Odwzorowanie Markowitza jest w tym przypadku liniowe (dokładniej: zapisuje się liniowymi wzorami; jego dziedzina \Delta^{k} rzecz prosta nie jest przestrzenią liniową; nawet powłoka afiniczna dziedziny, czyli hiperpłaszczyzna H zdefiniowana w Wykładzie II wzorem (2.2) , nie jest przestrzenią liniową).

II. Zmienne losowe R_{1},\dots,\, R_{k} rozpadają się na dwie grupy R_{1},\dots,\, R_{r}  oraz  R_{{r+1}},\dots,\, R_{k} gdzie 1\le r\le k-1. Zakładamy, że zmienne w każdej z grup są parami doskonale dodatnio skorelowane, zaś między grupami są doskonale ujemnie skorelowane. Innymi słowy macierz współczynników korelacji to   
r k-r
r +1 -1
k-r -1 +1
 ,  albo jeszcze inaczej

\Sigma\,\,=\,\left[\begin{array}[]{c}\sigma _{1}\\
\vdots\\
\sigma _{r}\\
-\sigma _{{r+1}}\\
\vdots\\
-\sigma _{k}\end{array}\right][\begin{array}[]{cccccc}\sigma _{1}&\dots&\sigma _{r}&-\,\sigma _{{r+1}}&\dots&-\,\sigma _{k}\end{array}]
Uwaga 3.1

Chociaż tak skrajne rozbicie spółek giełdowych na dwie antagonistyczne grupy nigdy nie występuje w praktyce, to jednak coś trochę zbliżonego obserwowano na giełdzie w Tokio bezpośrednio po katastrofalnym trzęsieniu ziemi w mieście Kobe w styczniu 1995 roku. Wtedy korelacje między stopami zwrotu z akcji firm budowlanych i ubezpieczeniowych były między -0.6 i -0.2, podczas gdy w warunkach stabilnych prawie wszystkie współczynniki korelacji są między 0.5 i 0.7 .  (Średni współczynnik korelacji na NYSE wynosi 0.6 .)

W tej sytuacji \sigma^{2}(x)=x^{{\text{T}}}\Sigma\, x\,=

x^{{\text{T}}}\left[\begin{array}[]{c}\sigma _{1}\\
\vdots\\
\sigma _{r}\\
-\sigma _{{r+1}}\\
\vdots\\
-\sigma _{k}\end{array}\right][\begin{array}[]{cccccc}\sigma _{1}&\dots&\sigma _{r}&-\,\sigma _{{r+1}}&\dots&-\,\sigma _{k}\end{array}]\, x\,=\,\left([\begin{array}[]{cccccc}\sigma _{1}&\dots&\sigma _{r}&-\,\sigma _{{r+1}}&\dots&-\,\sigma _{k}\end{array}]\, x\right)^{2}

oraz \sigma(x)\,=

\sqrt{x^{{\text{T}}}\Sigma\, x}=\left|[\begin{array}[]{cccccc}\sigma _{1}&\dots&\sigma _{r}&-\,\sigma _{{r+1}}&\dots&-\,\sigma _{k}\\
\end{array}]\, x\right|=|\sigma _{1}x_{1}+\cdots+\sigma _{r}x_{r}-\sigma _{{r+1}}x_{{r+1}}-\cdots-\sigma _{k}x_{k}|,

dla x\in\Delta^{k}. Zatem

\mathcal{M}(x)=\left(\begin{array}[]{c}|\sigma _{1}x_{1}+\cdots+\sigma _{r}x_{r}-\sigma _{{r+1}}x_{{r+1}}-\cdots-\sigma _{k}x_{k}|\\
\mu^{{\text{T}}}x\end{array}\right),\quad x\in\Delta^{k}.

Odwzorowanie Markowitza jest więc złożeniem liniowego przenoszącego \Delta^{k} na pewien wielokąt wypukły położony po obu stronach osi \overrightarrow{OE} i ,,nakładki” \mathbb{R}^{2}(\sigma,\, E)\to\mathbb{R}^{2}(\sigma,\, E),  \left(\begin{array}[]{c}\sigma\\
E\end{array}\right)\longmapsto\left(\begin{array}[]{c}|\sigma|\\
E\end{array}\right).

Pierwsze z narzucających się tu pytań to

  • Czym są zbiory osiągalne \mathcal{M}(\Delta^{k}) w sytuacjach I i II?

  • Czym są granice: minimalna F_{{\min}} i maksymalna F_{{\max}} dla \mathcal{M}(\Delta^{k}) w sytuacjach I i II, gdzie te granice definiowane są, i to ogólnie, nie tylko w sytuacjach doskonałych, w sposób następujący

F_{{\min}}\overset{\text{def}}{=}\Big\{\text{zbiór lewych krańców
zbiorów liniowych }\mathcal{M}(\Delta^{k})\cap\{ E=\text{const}\}\Big\}\,,
F_{{\max}}\overset{\text{def}}{=}\Big\{\text{zbiór prawych krańców
zbiorów liniowych }\mathcal{M}(\Delta^{k})\cap\{\, E=\text{const}\,\}\Big\}\,.

(Zbiory liniowe występujące w tych definicjach zawsze są ograniczone, bo \mathcal{M}(\Delta^{k}) jest zbiorem zwartym w \mathbb{R}^{2}(\sigma,\, E).)

Na temat zbiorów osiągalnych:

W sytuacji I

\mathcal{M}(\Delta^{k})=\mathcal{M}\left(\text{conv}\left(\left(\begin{array}[]{c}1\\
0\\
\vdots\\
0\\
\end{array}\right),\left(\begin{array}[]{c}0\\
1\\
\vdots\\
0\\
\end{array}\right),\ldots,\left(\begin{array}[]{c}0\\
0\\
\vdots\\
1\end{array}\right)\right)\right)=\text{conv}\left(\mathcal{M}\left(\begin{array}[]{c}1\\
0\\
\vdots\\
0\\
\end{array}\right),\dots,\mathcal{M}\left(\begin{array}[]{c}0\\
0\\
\vdots\\
1\end{array}\right)\right)
=\text{conv}\left\{\left(\begin{array}[]{c}\sigma _{i}\\
\mu _{i}\end{array}\right)\Bigg|\  i=1,\, 2,\dots,\, k\right\},

jest to więc l-kąt wypukły, 1\le l\le k, położony w prawej (otwartej) półpłaszczyźnie \mathbb{R}^{2}(\sigma,\, E), bo \sigma _{1},\dots,\,\sigma _{k}>0. Dlaczego ogólnie l-kąt, a nie po prostu k-kąt? Ponieważ niektóre (lub wiele z nich) obrazy wierzchołków sympleksu \Delta^{k} mogą nie  być punktami ekstremalnymi tego zbioru wypukłego. Lub też, w sytuacji skrajnej, wszystkie te obrazy mogą się pokrywać, dając w wyniku po prostu punkt (1-kąt wypukły).

Niektóre z możliwych tu sytuacji są przedstawione na Rysunku 3.1 poniżej.

\par
Rys. 3.1. Zbiory osiągalne w modelu Markowitza przy stopach zwrotu doskonale dodatnio skorelowanych.

Natomiast w sytuacji II,

by uzyskać \mathcal{M}(\Delta^{k}), najpierw tworzymy pomocniczy wielokąt wypukły
\text{conv}\left\{\left(\begin{smallmatrix}\sigma _{i}\\
\mu _{i}\end{smallmatrix}\right)\colon i=1,2,\dots,r;\left(\begin{smallmatrix}-\sigma _{j}\\
\mu _{j}\end{smallmatrix}\right)\colon j=r+1,\dots,\, k\right\}, który – uwaga – położony jest po obu stronach osi \overrightarrow{OE}. Dokładniej, chwilowo ignorujemy znak wartości bezwzględnej w aktualnym wzorze na \mathcal{M} i stosujemy rachunek wypukły z sytuacji I. Jedyna różnica w porównaniu do I jest taka, że teraz dostajemy jakiś l-kąt wypukły, gdzie 2\le l\le k (nie dostajemy pojedynczego punktu, bo trafiamy w obie półpłaszczyzny). Szukany \mathcal{M}(\Delta^{k}) jest obrazem tego l-kąta przy przekształceniu \mathbb{R}^{2}(\sigma,\, E)\to\mathbb{R}^{2}(\sigma,\, E), \left(\begin{array}[]{c}\sigma\\
E\end{array}\right)\longmapsto\left(\begin{array}[]{c}|\sigma|\\
E\end{array}\right), które zachowuje punkty w prawej półpłaszczyźnie, zaś punkty z lewej półpłaszczyzny odbija w pionowym lustrze do prawej.

Przykład 3.1

Weźmy k=4, r=2 oraz \sigma _{1}=4,\ \sigma _{2}=1,\ \sigma _{3}=1,\ \sigma _{4}=4;\ \mu _{1}=1,\ \mu _{2}=2,\ \mu _{3}=5,\ \mu _{4}=6. Na Rysunku 3.2 tuż poniżej pokazane jest powstawanie zbioru \mathcal{M}(\Delta^{4}) we wspomnianych dwóch krokach; e_{1}, e_{2}, e_{3}, e_{4} to, oczywiście, kolejne wierzchołki sympleksu \Delta^{4}.

\par
Rys. 3.2. Zbiór osiągalny w modelu Markowitza przy stopach \pm doskonale skorelowanych.

Na temat granic minimalnych i maksymalnych:

Te pytania w sytuacji I są całkiem elementarne, nietrudno scharakteryzować (i należy to zrobić samemu!) rodziny łamanych, którymi są takie granice.

Jednak już w sytuacji II, nawet przy ustalonym dyskretnym parametrze r\in\{ 1,\, 2,\dots,\, k-1\}, opisy granic stają się dosyć skomplikowane. Zatrzymajmy się na chwilę przy tych opisach.

F_{{\min}} jest wtedy łamaną o nie więcej niż k+1 bokach, przy czym ta ilość jest osiągana przy każdym k i każdym r (dlaczego?). k+1 jest więc najmniejszym ograniczeniem górnym ilości boków łamanej F_{{\min}}. Np na Rysunku 3.2, przy k=4 i r=2, łamana F_{{\min}} składa się z 5 boków. Tak samo jest w sytuacji przedstawionej w górnej części Rysunku 3.3 tuż poniżej, choć ten przykład jest subtelniejszy od poprzedniego i będzie w przyszłości wykorzystany w innym celu.

\par
Rys. 3.3. Trochę ciekawsze przykłady sytuacji \pm doskonale skorelowanych.
Ćwiczenie 3.1

W sytuacji \pm doskonale skorelowanej przy ustalonych wielkościach k i r, znaleźć najmniejsze ograniczenie górne (dlaczego takie istnieje?) ilości boków łamanej F_{{\max}}.

Wskazówka: 

Zanalizować przykład pokazany w dolnej części Rysunku 3.3 powyżej, gdzie przy k=6 i r=3 granica (tu łamana) maksymalna składa się z 10 boków.

Rozwiązanie: 

Pokazać, że poszukiwanym ograniczeniem jest funkcja od k i r zdefiniowana następująco

\begin{cases}k-2+2r=2k-2&\text{gdy }r=k-r\,,\\
k-1+2\min(r,\, k-r)&\text{gdy }r\ne k-r\,.\end{cases}

(To zadanie rozwiązują, z różnymi efektami, kolejne roczniki słuchaczy wykładów z APRK1 na Wydziale MIM. Stanowi ono dobry wstęp do poznania i rozumienia ,,parasolkowatej” natury granicy maksymalnej F_{{\max}} dla ogólnych  odwzorowań Markowitza – gdy odrzuci się sztuczne założenie \pm doskonałej korelacji zmiennych stóp zwrotu.)

Dygresja nt podprzestrzeni zerowych form kwadratowych nieujemnie określonych.

Chodzi tu o zbiory wektorów, na których zerują się formy kwadratowe nieujemnie określone. Często, ustalając bazę w przestrzeni \mathbb{R}^{k} (np bazę standardową e_{1},\dots,\, e_{k})), utożsamia się formy z macierzami nieujemnie określonymi k\times k. Zaczynamy od prostego pytania

Ćwiczenie 3.2

Czy macierze \Sigma w sytuacjach doskonale skorelowanych I i II są dodatnio określone ?

Rozwiązanie: 

Nie, gdyż mają one duże zbiory wektorów y\in\mathbb{R}^{k} zerujących odpowiadającą im formę kwadratową y^{{\text{T}}}\Sigma\, y. Z wcześniejszych obliczeń wiemy, że te zbiory są hiperpłaszczyznami liniowymi: \sum _{{i=1}}^{k}\sigma _{i}y_{i}=0 w sytuacji I, względnie \sum _{{i=1}}^{r}\sigma _{i}y_{i}-\sum _{{i=r+1}}^{k}\sigma _{i}y_{i}=0 w sytuacji II.

Trochę trudniej jest pokazać, że

Ćwiczenie 3.3

\Sigma\ge 0\ \Rightarrow\ \{ y\in\mathbb{R}^{k}|\: y^{{\text{T}}}\Sigma\, y=0\} jest podprzestrzenią liniową \mathbb{R}^{k}. Jest to właśnie tzw. podprzestrzeń zerowa  formy mającej macierz \Sigma.

Rozwiązanie: 

y^{{\text{T}}}\Sigma\, y=\widetilde{y}^{{\text{T}}}\Sigma\,\widetilde{y}=0\ \Rightarrow\ (y+\widetilde{y})^{{\text{T}}}\Sigma(y+\widetilde{y})=2y^{{\text{T}}}\Sigma\widetilde{y}\ge 0 oraz też (y-\widetilde{y})^{{\text{T}}}\Sigma(y-\widetilde{y})=-2y^{{\text{T}}}\Sigma\,\widetilde{y}\ge 0. Te dwie nierówności dają łącznie y^{{\text{T}}}\Sigma\widetilde{y}=0, i dalej (y+\widetilde{y})^{{\text{T}}}\Sigma(y+\widetilde{y})=0.

Dokładniejszą informację może dać

Ćwiczenie 3.4

Ustalić (jeśli istnieje) związek między rzędem macierzy \Sigma\ge 0 i wymiarem jej podprzestrzeni zerowej.

Zauważmy jeszcze, tylko informacyjnie, że ogólnie zbiór wektorów zerujących daną formę kwadratową nie musi mieć struktury przestrzeni liniowej.

Przykład 3.2

Już forma kwadratowa na \mathbb{R}^{2} mająca w bazie standardowej macierz \left(\begin{smallmatrix}1&0\\
0&-1\end{smallmatrix}\right), tj przyjmująca na wektorze (y_{1},\, y_{2})^{{\text{T}}} wartość y_{1}^{{\, 2}}-y_{2}^{{\, 2}}, jest taka.

Gdy macierz kowariancji \Sigma jest dodatnio określona, wtedy (oczywiście) żaden portfel Markowitza nie ma zerowego ryzyka. Natomiast czasami, i to już przy k=2, można zmniejszać ryzyko portfela Markowitza poniżej wielkości \min\{\sigma _{1},\,\sigma _{2}\}. Tak jest w obu przykładach w Wykładzie I; porównaj w szczególności Rysunek 1.2 dotyczący jednego z nich. Czasami zaś nie można zejść poniżej \min\{\sigma _{1},\,\sigma _{2}\}, jak w przykładzie ,,5 stanów giełdy” w Wykładzie II, porównaj z kolei Rysunek 2.1. Od czego to zatem zależy? Przynajmniej przy k=2 chcielibyśmy mieć tu jasność.

Pełny opis zbioru\mathcal{M}(\Delta^{2}).

Język naszego opisu to \mu _{1},\,\mu _{2},\,\sigma _{1},\,\sigma _{2},\,\rho\,(\,=\rho _{{12}}). Liczby \mu _{i} są rzeczywiste nie mniejsze niż -1 i różne, by portfele mogły mieć różne wartości oczekiwane. Liczy \sigma _{i} są dodatnie, natomiast \rho\in[-1,\, 1]. Podczas rachunku przyjmujemy domyślnie, że jeśli \sigma _{1}=\sigma _{2}, to wtedy \rho\ne 1.
Celem jest, czego domyślamy się już z dotychczasowych doświadczeń i na wykładzie i na ćwiczeniach, uzyskanie hiperboli na płaszczyźnie \mathbb{R}^{2}(\sigma,\, E), względnie paraboli na płaszczyźnie \mathbb{R}^{2}(\sigma^{2},\, E) (parabola będzie nawet wtedy, kiedy hiperbola przy |\rho|=1 zdegeneruje się do pary prostych).

Obliczamy wariancję portfela, parametryzując najpierw parametrem x_{1}:

\tag{$*$}\sigma^{2}=\sigma^{2}\begin{pmatrix}x_{1}\\
1-x_{1}\end{pmatrix}=\begin{pmatrix}x_{1}&1-x_{1}\end{pmatrix}\begin{pmatrix}\sigma _{1}^{{\, 2}}&\rho\sigma _{1}\sigma _{2}\\
\rho\sigma _{1}\sigma _{2}&\sigma _{2}^{{\, 2}}\end{pmatrix}\begin{pmatrix}x_{1}\\
1-x_{1}\end{pmatrix}\\
=(\sigma _{1}^{{\, 2}}-2\rho\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}})x_{1}^{{\, 2}}+(2\rho\sigma _{1}\sigma _{2}-2\sigma _{2}^{{\, 2}})x_{1}+\sigma _{2}^{{\, 2}}\,, (3.1)

podczas gdy

E=E\begin{pmatrix}x_{1}\\
1-x_{1}\end{pmatrix}=(\mu _{1}-\mu _{2})x_{1}+\mu _{2}\,,

albo

\tag{$**$}x_{1}=\frac{E-\mu _{2}}{\mu _{1}-\mu _{2}} (3.2)

i to wyrażenie będzie można podstawić do (3.1).

Uwaga 3.2

Jest jeden jedyny przypadek, gdy (3.1) nie  wyraża kwadratowej zależności \sigma^{2} od x_{1}:  \sigma _{1}=\sigma _{2} i \rho=1. Wtedy znikają tam współczynniki przy x_{1}^{{\, 2}} oraz x_{1}, i przez to \sigma^{2}\left(\begin{smallmatrix}x_{1}\\
1-x_{1}\end{smallmatrix}\right)\equiv\sigma _{2}^{{\, 2}}. Ten przypadek wykluczyliśmy na początku rachunku.

Trójmian wyrażający wariancję ma minimum w

x_{{1,0}}=\frac{\sigma _{2}^{{\, 2}}-\rho\,\sigma _{1}\sigma _{2}}{\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}}},

z czego wyliczamy, dzięki (3.2), wartość oczekiwaną E_{0} odpowiadającą tej wartości x_{1}=x_{{1,0}},

E_{0}\,=\, E_{0}(\rho)\,=\,\frac{\mu _{1}\sigma _{2}^{{\, 2}}+\mu _{2}\sigma _{1}^{{\, 2}}-(\mu _{1}+\mu _{2})\rho\,\sigma _{1}\sigma _{2}}{\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}}}\,. (3.3)

Patrząc teraz równocześnie na (3.1) i (3.2), widzimy, że szukana hiperbola musi mieć równanie postaci

(\mu _{1}-\mu _{2})^{2}\sigma^{2}-(\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}})(E-E_{0})^{2}=\text{const}\,,

przy czym w analizie portfelowej ciekawa jest tylko gałąź \sigma>0.
Trochę dodatkowych rachunków pozwala wyznaczyć wartość stałej po prawej stronie,

(\mu _{1}-\mu _{2})^{2}\sigma^{2}-(\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}})(E-E_{0})^{2}\,=\,\frac{(\mu _{1}-\mu _{2})^{2}\sigma _{1}^{{\, 2}}\sigma _{2}^{{\, 2}}}{\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}}}(1-\rho^{2})\,. (3.4)

Gdy |\rho|=1 (więc \rho=-1 gdy \sigma _{1}=\sigma _{2}), w (3.4) mamy dwie proste krzyżujące się w \left(\begin{smallmatrix}0\\
E_{0}\end{smallmatrix}\right).

Gdy |\rho|<1, w (3.4) mamy hiperbolę w płaszczyźnie \mathbb{R}^{2}(\sigma,\, E), z półosiami długości

a=\sigma _{1}\sigma _{2}\sqrt{\frac{1-\rho^{2}}{\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}}}}\,,\qquad b=\frac{|\mu _{1}-\mu _{2}|\sigma _{1}\sigma _{2}}{\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}}}\sqrt{1-\rho^{2}}\,. (3.5)
3Równanie położonej kanonicznie na płaszczyźnie \mathbb{R}^{2}(x,\, y) hiperboli o półosiach długości a i b to
\frac{(x-x_{0})^{2}}{a^{2}}-\frac{(y-y_{0})^{2}}{b^{2}}=1\,.
Tutaj x=\sigma, x_{0}=0, y=E, y_{0}=E_{0}.

W każdym z tych przypadków obrazy portfeli Markowitza (które nas chwilowo jedynie interesują) to części wymienionych krzywych leżące w półpłaszczyźnie \{\sigma\ge 0\} i w poziomym pasie położonym między E=\mu _{1} oraz E=\mu _{2}.

Skrajne wartościE_{0}, gdy uzmienniamy parametr\rho.

Podstawiamy w (3.3) \rho=-1:

E_{0}^{-}=E_{0}(-1)=\frac{\mu _{1}\sigma _{2}^{2}+\mu _{2}\sigma _{1}^{2}+(\mu _{1}+\mu _{2})\sigma _{1}\sigma _{2}}{(\sigma _{1}+\sigma _{2})^{2}}=\frac{(\sigma _{2}\mu _{1}+\sigma _{1}\mu _{2})(\sigma _{1}+\sigma _{2})}{(\sigma _{1}+\sigma _{2})^{2}}=\frac{\sigma _{2}\mu _{1}+\sigma _{1}\mu _{2}}{\sigma _{1}+\sigma _{2}}\,,

E_{0}^{-} jest więc punktem podziału wewnętrznego  odcinka o końcach \mu _{1}, \mu _{2} w stosunku \sigma _{1}:\sigma _{2}.

Podstawiamy teraz w (3.3) \rho=+1:

E_{0}^{+}=E_{0}(+1)=\frac{\mu _{1}\sigma _{2}^{{\, 2}}+\mu _{2}\sigma _{1}^{{\, 2}}-(\mu _{1}+\mu _{2})\sigma _{1}\sigma _{2}}{(\sigma _{1}-\sigma _{2})^{2}}=\frac{(\sigma _{2}\mu _{1}-\sigma _{1}\mu _{2})(\sigma _{2}-\sigma _{1})}{(\sigma _{2}-\sigma _{1})^{2}}=\frac{\sigma _{2}\mu _{1}-\sigma _{1}\mu _{2}}{\sigma _{2}-\sigma _{1}}\,,

E_{0}^{+} jest więc punktem podziału zewnętrznego  odcinka o końcach \mu _{1}, \mu _{2} w stosunku \sigma _{1}:\sigma _{2} (i nie istnieje, gdy \sigma _{1}=\sigma _{2}, lecz ten przypadek od początku wykluczyliśmy).

Obserwacja. 3.1. Gdy \rho rośnie od -1 do 1, wtedy E_{0}(\rho) dane wzorem (3.3) zmienia się ściśle monotonicznie.

Prawa strona w (3.3) to funkcja homograficzna od \rho. Zapisujemy ją inaczej, jak (być może) robiliśmy to już kiedyś na zajęciach z Funkcji Analitycznych:

E_{0}\,=\,\frac{\mu _{1}\sigma _{2}^{{\, 2}}+\mu _{2}\sigma _{1}^{{\, 2}}-(\mu _{1}+\mu _{2})\rho\,\sigma _{1}\sigma _{2}}{\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}}}
=\,\frac{(\mu _{1}+\mu _{2})(\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}})+(\mu _{2}-\mu _{1})\sigma _{1}^{{\, 2}}+(\mu _{1}-\mu _{2})\sigma _{2}^{{\, 2}}}{2(\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}})}
=\,\frac{\mu _{1}+\mu _{2}}{2}+\frac{(\mu _{2}-\mu _{1})(\sigma _{1}^{{\, 2}}-\sigma _{2}^{{\, 2}})}{2(\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}})}\,. (3.6)

Ścisła monotoniczność E_{0}(\rho) jest już teraz widoczna.

Np w sytuacji na rysunku poniżej, mimo braku numeracji obrazów wierzchołków, musi być albo \mu _{1}<\mu _{2} i \sigma _{1}<\sigma _{2}, albo też \mu _{1}>\mu _{2} i \sigma _{1}>\sigma _{2}, więc licznik ułamka w (3.6) przy każdej z tych możliwych numeracji jest ujemny  i E_{0}(\rho) ściśle maleje od E_{0}^{-} do E_{0}^{+} [w wersji pdf Rysunek 3.4 przeskoczył na następną stronę].

\par
Rys. 3.4. Pęk hiperbol parametryzowany zmieniającą się wartością \rho.

Obserwacja. 3.2. Gdy \sigma _{1}\ne\sigma _{2}, \mu _{1}\ne\mu _{2} i \rho rośnie od -1 do +1, wtedy rozwartość kąta między asymptotami hiperboli (3.4) ściśle rośnie od 2\,\text{arctg}\frac{|\mu _{2}-\mu _{1}|}{\sigma _{1}+\sigma _{2}} do 2\,\text{arctg}\left|\frac{\mu _{2}-\mu _{1}}{\sigma _{2}-\sigma _{1}}\right|.

Według (3.5), \text{tg}\frac{1}{2}(\text{kąt rozwarcia asymptot})=\frac{b}{a}=\frac{|\mu _{2}-\mu _{1}|}{\sqrt{\sigma _{1}^{{\, 2}}-2\rho\,\sigma _{1}\sigma _{2}+\sigma _{2}^{{\, 2}}}} .

Krytyczna wartość współczynnika korelacji.

Postawmy sobie pozornie uboczne pytanie, kiedy (tj dla jakiej wartości \rho) E_{0}=\mu _{1}, tzn. kiedy \mathcal{M}(e_{1})=\left(\begin{smallmatrix}\sigma _{1}\\
\mu _{1}\end{smallmatrix}\right) jest czubkiem gałęzi hiperboli (3.4). Według (3.3),

\mu _{2}\sigma _{1}^{{\, 2}}-(\mu _{1}+\mu _{2})\rho\,\sigma _{1}\sigma _{2}\,=\,\mu _{1}\sigma _{1}^{{\, 2}}-2\mu _{1}\rho\,\sigma _{1}\sigma _{2}\,,

tzn.

(\mu _{2}-\mu _{1})\sigma _{1}^{{\, 2}}\,=\,(\mu _{2}-\mu _{1})\rho\,\sigma _{1}\sigma _{2}\,,

tzn. \frac{\sigma _{1}}{\sigma _{2}}=\rho, przy czym równość \sigma _{1}=\sigma _{2} jest tutaj wykluczona, bo oznaczałaby (dodatkowo) \rho=1.

Rozumując symetrycznie, E_{0}=\mu _{2} pociąga za sobą, że \rho=\frac{\sigma _{2}}{\sigma _{1}}<1.

Wniosek 3.1

Czubek gałęzi hiperboli (3.4) pokrywa się z jednym z obrazów wierzchołków \Delta^{2} wtedy i tylko wtedy, gdy

\rho(=\,\rho _{{\text{kryt}}}\,)\overset{\text{def}}{=}\min\left\{\frac{\sigma _{1}}{\sigma _{2}},\,\,\frac{\sigma _{2}}{\sigma _{1}}\right\}<1\,.

Krytyczna wartość współczynnika korelacji, zdefiniowana powyższym wzorem, to bardzo ważne narzędzie w analizie portfelowej. Bywa ono pomocne w zupełnie niespodziewanych sytuacjach, także w przykładach i zadaniach z ilością spółek większą niż dwa (o czym studenci często nie pamiętają).

Ćwiczenie 3.5

Policzyć wartość \rho _{{\text{kryt}}} w przykładzie na Rysunku 3.4 powyżej.

Przykład 3.3

W przykładzie ,,5 stanów giełdy” z Wykładu II wartość współczynnika korelacji \rho _{{\text{AB}}} jest właśnie krytyczna:

\rho _{{\text{AB}}}=\frac{\text{cov}(R_{{\text{A}}},\, R_{{\text{B}}})}{\sigma _{{\text{A}}}\sigma _{{\text{B}}}}=\frac{\sigma _{{\text{B}}}^{{\, 2}}}{\sigma _{{\text{A}}}\sigma _{{\text{B}}}}=\frac{\sigma _{{\text{B}}}}{\sigma _{{\text{A}}}}=\rho _{{\text{kryt}}}\,.

Ten efekt krytyczności \rho _{{\text{AB}}} widać wyraźnie na Rysunku 2.1 w Wykładzie II: czubek gałęzi hiperboli jest tam na wysokości 0.05 .

Definicja 3.1

Wartości -1\le\rho<\rho _{{\text{kryt}}} nazywamy podkrytycznymi, natomiast wartości \rho _{{\text{kryt}}}<\rho\le 1 nazywamy nadkrytycznymi.

W obu przykładach w Wykładzie I wartości współczynników korelacji są podkrytyczne: w pierwszym można to sprawdzić bezpośrednim rachunkiem, zaś w drugim kowariancja między stopami zwrotu jest ujemna.

Nasuwa się pytanie, które łuki hiperbol na Rysunku 3.4 powyżej odpowiadają nadkrytycznym wartościom \rho ?

Treść automatycznie generowana z plików źródłowych LaTeXa za pomocą oprogramowania wykorzystującego LaTeXML.

Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego.

Projekt współfinansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego i przez Uniwersytet Warszawski.