Zagadnienia

15. Nieliniowe szeregi czasowe

Modele uwzględniające heteroskedastyczność - GARCH. (1 wykład)

15.1. Wstęp.

Zmienność odchyleń standardowych (heteroscedasticity) zwrotów finansowych powoduje, że do ich opisu należy stosować bardziej skomplikowane modele stochastyczne niż model błądzenia przypadkowego, na przykład modele z rodziny GARCH. Są to modele nieliniowe. Ponadto, oprócz badanej wielkości, np. przyrostów logarytmicznych kursów walutowych, wprowadza się zmienne pomocnicze, których nie można bezpośrednio mierzyć.

Najprostszy model z tej rodziny, GARCH(1,1), jest opisany następująco:
Rozważamy dwa ciągi zmiennych losowych r_{t} i h_{t}. Wartość r_{t} poznajemy w momencie t, a h_{t} jest zmienną pomocniczą. Są one związane wzorami

r_{t}=\sqrt{h_{t}}\cdot\varepsilon _{t},
h_{t}=a+bh_{{t-1}}+cr_{{t-1}}^{2},\;\;\; t\in\mathbb{Z},

gdzie a,b,c są parametrami modelu a \varepsilon _{t} są niezależnymi zmiennymi losowymi o tym samym rozkładzie o wartości oczekiwanej 0 i wariancji 1.
\sqrt{h_{t}} można interpretować jako zmienne odchylenie standardowe zmiennych losowych r_{t}.

Indeksy 1,1 w nazwie modelu oznaczają, że h_{t} zależy liniowo od h_{{t-1}} i r_{{t-1}}^{2}. W literaturze są badane również modele GARCH(p,q)

r_{t}=\sqrt{h_{t}}\cdot\varepsilon _{t},\;\;\; t\in\mathbb{Z},
h_{t}=a+b_{1}h_{{t-1}}+\dots+b_{p}h_{{t-p}}+c_{1}r_{{t-1}}^{2}+\dots+c_{q}r_{{t-q}}^{2}.

15.2. Ogólne własności modelu GARCH(1,1).

Model GARCH pozwala w prosty sposób wyliczać warunkową wartość oczekiwaną i warunkowe momenty zmiennej r_{t}. Dla uproszczenia przyjmiemy, że inowacje \varepsilon _{t} mają rozkład normalny

\forall t\;\;\;\varepsilon _{t}\sim N(0,1).

Oznaczmy przez E_{t}(\cdot) wartość oczekiwaną wyznaczoną gdy znane są już wartości r_{i} dla i\leq t. Zauważmy, że dla każdego t h_{t} i \varepsilon _{t} są niezależne zatem

E_{t}(r_{{t+k}}^{{2m-1}})=E_{t}(h_{{t+k}}^{{m-1/2}})\cdot E_{t}(\varepsilon _{{t+k}}^{{2m-1}})=0,
E_{t}(r_{{t+k}}^{{2m}})=E_{t}(h_{{t+k}}^{{m}})\cdot E_{t}(\varepsilon _{{t+k}}^{{2m}})=1\cdot 3\cdot\dots\cdot(2m-1)\cdot E_{t}(h_{{t+k}}^{{m}}).

Wynika, to z założenia, \varepsilon _{t} nie zależą od historii i mają rozkład normalny N(0,1)

E_{t}(\varepsilon _{{t+k}}^{{m}})=E(\varepsilon _{{t+k}}^{{m}})=\left\{\begin{array}[]{cl}0&m=1,3,5,7,\dots\\
1\cdot 3\cdot 5\cdot\dots\cdot(m-1)&m=2,4,6,\dots\end{array}\right.

(patrz [12] str.60 lub [11] §18.8-3.)

Zauważmy, że h_{{t+1}} jest wyznaczone przez h_{1} i wartości historyczne r_{i}, i\leq t. Zatem przy prognozowaniu o jeden krok naprzód, mamy

E_{t}(r_{{t+1}}^{{2m}})=h_{{t+1}}^{m}\cdot 1\cdot 3\cdot\dots(2m-1)

gdzie h_{{t+1}}=a+bh_{t}+cr_{t}^{2}.

Dla k>1 korzystamy ze wzoru

h_{{t+1}}=a+bh_{t}+ch_{t}\varepsilon _{t}^{2}.

Co daje nam

E_{t}(h_{{t+k}})=a+(b+c)E_{t}(h_{{t+k-1}}).

Oznaczmy przez A_{k} warunkową wartość oczekiwaną E_{t}(h_{{t+k}}). Zależność rekurencyjna

A_{k}=a+(b+c)A_{{k-1}},\;\; k=2,3,\dots,\;\;\; A_{1}=h_{{t+1}}>0

wyznacza jednoznacznie A_{k}.
Jeśli b+c=1 to

A_{k}=(k-1)a+A_{1};

gdy b+c\neq 1 to

A_{k}=\frac{a}{1-b-c}+(b+c)^{{k-1}}(A_{1}-\frac{a}{1-b-c}).

Zauważmy, że w przypadku gdy b+c=1 i a=0 ciąg A_{k} jest stały, a gdy b+c=1 i a>0 rozbieżny liniowo do nieskończoności.
Gdy |b+c|<1 to ciąg A_{k} jest zbieżny do

A_{{\infty}}=\frac{a}{1-b-c},

a gdy |b+c|>1 to ciąg A_{k} jest rozbieżny wykładniczo.

Aby wyznaczyć czwarty moment r_{t}, czyli drugi h_{t}, korzystamy ze wzoru

h_{{t+1}}^{2}=a^{2}+2a(b+c\varepsilon _{t}^{2})\cdot h_{t}+(b+c\varepsilon _{t}^{2})^{2}h_{t}^{2}.

Otrzymujemy

E_{t}(h_{{t+k}}^{2})=a^{2}+2a(b+cE_{t}(\varepsilon _{{t+k-1}}^{2}))\cdot E_{t}(h_{{t+k-1}})+(b^{2}+2bcE_{t}(\varepsilon _{{t+k-1}}^{2})+c^{2}E_{t}(\varepsilon _{{t+k-1}}^{4})\cdot E_{t}(h_{{t+k-1}}^{2}).

Oznaczmy przez B_{k} warunkowy moment E_{t}(h_{{t+k}}^{2}). Wówczas mamy zależność

B_{k}=a^{2}+2a(b+c)A_{{k-1}}+((b+c)^{2}+2c^{2})B_{{k-1}},\;\; B_{1}=h^{2}_{{t+1}}\neq 0.

Gdy b+c=1 to

B_{k}=a^{2}+2a((k-1)a+A_{1})+(1+2c^{2})B_{{k-1}}.

Zatem gdy c\neq 0 to ciąg B_{k} jest rozbieżny. W szczególności model wzorowany na Risk Metrics (a=0, b=0,94 i c=0,06) jest rozbieżny.

Zauważmy, że ograniczność czwartego momentu jest zagwarantowana gdy
(b+c)^{2}+2c^{2}<1. Wówczas B_{k} zbiega do

B_{{\infty}}=\frac{a^{2}(1+b+c)}{(1-b-c)(1-(b+c)^{2}-2c^{2})}.

Otrzymujemy w ten sposób następujący wzór na asymptotyczną kurtozę:

\frac{3B_{{\infty}}}{A_{{\infty}}^{2}}=\frac{3(1-(b+c)^{2})}{1-(b+c)^{2}-2c^{2}}=3+\frac{6c^{2}}{1-(b+c)^{2}-2c^{2}}.

15.3. Ograniczenia na parametry modelu GARCH(1,1).

Ograniczenia na parametry modelu wynikają z naturalnych założeń dotyczących ograniczoności procesu. Zakładamy, że istnieją granice warunkowych wartości oczekiwanych

\lim _{{k\rightarrow\infty}}E_{t}(h_{{t+k}}),\;\;\mbox{ i }\;\;\lim _{{k\rightarrow\infty}}E_{t}(h_{{t+k}}^{2}).

Pierwsza granica istnieje gdy b+c<1 i zachodzi wówczas

\lim _{{k\rightarrow\infty}}E_{t}(h_{{t+k}})=\frac{a}{1-b-c}.

Druga gdy (b+c)^{2}+2c^{2}<1, wówczas

\lim _{{k\rightarrow\infty}}E_{t}(h_{{t+k}}^{2})=\frac{a^{2}(1+b+c)}{(1-b-c)(1-(b+c)^{2}-2c^{2})}.

Natomiast założenie o rozkładzie \varepsilon _{t} możemy osłabić. Istotne są tylko następujące warunki

E(\varepsilon _{t})=0,\;\;\; E(\varepsilon _{t}^{2})=1,\;\;\; E(\varepsilon _{t}^{3})=0,\;\;\; E(\varepsilon _{t}^{4})=3.

15.4. Stacjonarność modeli GARCH.

Nie dla wszystkich modeli GARCH istnieją rozwiązania stacjonarne. Potrzebne są dodatkowe warunki na parametry (patrz [14] §3.3.1). Przykładowo dla modelu GARCH(1,1) zachodzi:

Twierdzenie 15.1

Następujące warunki są równoważne:
1. Model GARCH(1,1) z parametrami a,b,c ma dokładnie jedno nieujemne rozwiązanie stacjonarne (r_{t},h_{t}).
2. Parametry a,b,c są nieujemne i spełnione jest oszacowanie

E(ln(b\varepsilon _{t}^{2}+c))<0.

Momenty rozwiązania stacjonarnego można stosunkowo łatwo wyznaczyć.

Twierdzenie 15.2

Niech (r_{t},h_{t}) będzie stacjonarnym procesem GARCH(1,1) z parametrami a,b,c. Przy założeniu

E(\varepsilon _{t})=0,\;\;\; E(\varepsilon _{t}^{2})=1,\;\;\; E(\varepsilon _{t}^{3})=0,\;\;\; E(\varepsilon _{t}^{4})=3,

otrzymujemy:
A. Gdy b+c<1 to

\displaystyle 1. \displaystyle E(h_{t})=\frac{a}{1-b-c};
\displaystyle 2. \displaystyle E(r_{t})=0;
\displaystyle 3. \displaystyle D^{2}(r_{t})=E(r_{t}^{2})=\frac{a}{1-b-c};
\displaystyle 4. \displaystyle cov(r_{t},r_{{t+k}})=0\;\;\; k=1,2,\dots.

B. Gdy ponadto (b+c)^{2}+2c^{2}<1 to

\displaystyle 5. \displaystyle E(h_{t}^{2})=\frac{a^{2}(1+b+c)}{(1-b-c)(1-(b+c)^{2}-2c^{2})};
\displaystyle 6. \displaystyle D^{2}(h_{t})=\frac{2a^{2}c^{2}}{(1-b-c)^{2}(1-(b+c)^{2}-2c^{2})};
\displaystyle 7. \displaystyle cov(h_{t},h_{{t+k}})=(b+c)^{k}D^{2}(h_{t})\;\;\;\; k=1,2,\dots;
\displaystyle 8. \displaystyle E(r_{t}^{4})=3E(h_{t}^{2});
\displaystyle 9. \displaystyle D^{2}(r_{t}^{2})=\frac{2a^{2}(1-b^{2}-bc)}{(1-b-c)^{2}(1-(b+c)^{2}-2c^{2})};
\displaystyle 10. \displaystyle cov(r_{t}^{2},r_{{t+1}}^{2})=\frac{c(1-b^{2}-bc)}{1-b^{2}-2bc}D^{2}(r_{t}^{2});
\displaystyle 11. \displaystyle cov(r_{t}^{2},r_{{t+k}}^{2})=(b+c)^{{k-1}}cov(r_{t}^{2},r_{{t+1}}^{2})\;\;\; k=2,3,\dots.

Treść automatycznie generowana z plików źródłowych LaTeXa za pomocą oprogramowania wykorzystującego LaTeXML.

Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego.

Projekt współfinansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego i przez Uniwersytet Warszawski.