Zagadnienia

8. Metody asymptotyczne

Zbieżność ciągów zmiennych losowych. Metoda delty. Asymptotyczna normalność estymatorów. Stacjonarność i ergodyczność. Ciągi przyrostów martyngałowych. Centralne Twierdzenie Graniczne dla przyrostów martyngałowych. (1 wykład)

8.1. Zbieżność zmiennych losowych

Omówimy pokrótce trzy pojęcia zbieżności zmiennych losowych.
Niech Ω,M,P – przestrzeń probabilistyczna. Rozważmy ciąg zmiennych losowych Znn=0 o wartościach w RK.

Definicja 8.1

Ciąg zmiennych losowych Zn zbiega prawie napewno do zmiennej losowej Z gdy

PlimnZn=Z=1.

W zapisie skróconym będziemy pisali

ZnasZ lub ZnpnZ.
Definicja 8.2

Ciąg zmiennych losowych Zn zbiega według prawdopodobieństwa do zmiennej losowej Z gdy

ε>0limnPZn-Z>ε=0,

gdzie oznacza normę w RK.

W zapisie skróconym będziemy pisali

plimnZn=Z lub ZnpZ.
Definicja 8.3

Ciąg zmiennych losowych Zn zbiega według rozkładu do zmiennej losowej Z gdy ciąg dystrybuant FZn zbiega do dystrybuanty FZ w każdym punkcie ciągłości FZ.

W zapisie skróconym będziemy pisali

ZndZ lub ZndR,

gdzie R jest rozkładem zmiennej losowej Z.

Uwaga 8.1

Jeśli ciąg różnic Zn-Yn zbiega do 0 według prawdopodobieństwa i ciąg Zn zbiega według rozkładu do zmiennej losowej Z, to również Yn zbiega według rozkładu do Z

ZndZ,Zn-Ynp0YndZ.
Uwaga 8.2

Trzy powyższe zbieżności są od siebie zależne. Mamy

ZnasZZnpZZndZ.

Aby zamknąć powyższy diagram należy dopuścić zmianę przestrzeni probabilistycznej i skorzystać z następującego twierdzenia o reprezentacji prawie napewno.

Twierdzenie 8.1

(Skorochod)
Jeśli ciąg zmiennych losowych Zn zbiega według rozkładu do zmiennej losowej Z to istnieje przestrzeń probabilistyczna Ω,M,P i określone na niej zmienne losowe Y i Yn, n=0,1, takie, że Y ma ten sam rozkład co Z, a Yn co Zn i ciąg zmiennych losowych Yn zbiega prawie napewno do zmiennej losowej Y.

Sformułujemy teraz kilka przydatnych w ekonometrii twierdzeń o zbieżności zmiennych losowych.

Twierdzenie 8.2

O odwzorowaniu ciągłym.[2, 16]
Niech Df oznacza zbiór punktów nieciągłości funkcji

f:RkRm.

Wówczas jeśli ciąg zmiennych losowych Zn zbiega według rozkładu, prawdopodobieństwa lub prawie napewno do zmiennej losowej Z takiej, że

PZDf=0,

to ciąg zmiennych losowych fZn zbiega odpowiednio według rozkładu, prawdopodobieństwa lub prawie napewno do zmiennej losowej fZ.

Twierdzenie 8.3

(Slutsky)
Niech Xn i Yn ciagi zmiennych losowych o wartościach macierzowych, X macierzowa zmienna losowa i C macierz (deterministyczna). Wówczas, jeśli

XndX, a YndC,

to:

a.Xn+YndX+C,
b.YnXndCX,
c.C-1Yn-1XndC-1X,

gdzie Yn-1 to dowolna macierz losowa taka, że

YnωYn-1ω=Id

gdy detYnω0.

Dowód.
Ponieważ Yn zbiega do stałej, to

Xn,YndX,C.

Działania +, są ciągłe zatem z twierdzenia o odwzorowaniu ciągłym (8.2) otrzymujemy tezę twierdzenia.
W przypadku odwracania macierzy zbiorem punktów nieciągłości jest zbiór macierzy o wyznaczniku 0. Zatem wystarczy zauważyć, że prawdopodobieństwo, że odwracalna macierz deterministyczna ma zerowy wyznacznik jest równe 0.

Uwaga 8.3

Niech Xni X to wektory kolumnowe, czyli macierze K×1, a Yn i C macierze K×K. Wówczas, jeśli

XndN0,Σ,YndC,

to

YnXndN0,CΣCT.
Twierdzenie 8.4

Metoda delty.
Niech Xn ciąg zmiennych losowych o wartościach w Rm, X zmienna losowa o wartościach w Rm, C punkt z Rm, a f:RmRK funkcja różniczkowalna w C. Wówczas, jeśli

XndC, i nXn-CdX

to

nfXn-fCdDfCX.

Dowód.
Korzystając z twierdzenia 8.1 o reprezentacji prawie napewno, możemy zastąpić ciąg Xn ciągiem Xn takim, że

XndXn,XnasC, i nXn-CdX.

Wówczas

nfXn-fCdnfXn-fC=
=n(f(Xn)-f(C)-Df(C)(Xn-C))+nDf(C)(Xn-C)=
=fXn-fC-DfCXn-CXn-CnXn-C+DFCnXn-C.

Z różniczkowalności f otrzymujemy

fXn-fC-DfCXn-CXn-Cas0.

Ponieważ

nXn-CdXDFCnXn-CdDfCX,

to z twierdzenia Slutsky'ego (8.3) otrzymujemy

nfXn-fCd0X+DfCX.
Uwaga 8.4

Jeśli przy założeniach twierdzenia 8.4 X ma rozkład normalny N0,Σ to

n(f(Xn)-f(C))dN(0,Df(C)ΣDf(C)T).

8.2. Estymatory jako ciągi zmiennych losowych

Załóżmy, że proces generujący dane Zt, t=0,1,, pochodzi z parametrycznej rodziny procesów SPθ, gdzie zbiór parametrów Θ jest podzbiorem Rm

θΘRm.

Ustalmy funkcję ν:ΘRk i rodzinę estymatorów

ν^=ν^nn=1,

wartości funkcji ν w punkcie θZ. Niech ν^n będzie estymatorem νθZ, wyznaczonym na podstawie próbki rozmiaru n, tzn.

ν^n=ν^nZ0,,Zn-1.
Definicja 8.4

Ciąg estymatorów ν^ nazywamy nazywamy zgodnym gdy

plimnν^n=νθZ.
Definicja 8.5

Zgodny ciąg estymatorów ν^ nazywamy nazywamy asymptotycznie normalnym gdy

nν^n-νθZdN0,Σ.
Uwaga 8.5

Macierz Σ oznaczamy Avarν^ i nazywamy asymptotyczną wariancją estymatora ν^n.

8.3. Stacjonarność i ergodyczność procesów stochastycznych

8.3.1. Definicje i podstawowe własności

Niech Z=Ztt=0 będzie K-wymiarowym procesem stochastycznym (ciągiem zmiennych losowych) określonym na przestrzeni probabilistycznej Ω,M,P.

Definicja 8.6

Proces stochastyczny Z jest (silnie) stacjonarny gdy dla dowolnych p,q,rN łączne rozkłady

Zp,Zp+1,,Zp+q i Zr,,Zr+q

są identyczne.

Wniosek 8.1

Jeśli proces stochastyczny Z jest stacjonarny i Zt należą do L2, to dla wszystkich p,q,rN

EZp=EZr,CovZp,Zp+q=CovZr,Zr+q.
Definicja 8.7

Stacjonarny proces stochastyczny Z ma własność mieszania gdy dla dowolnych ograniczonych funkcji borelowskich f i g oraz indeksów p,l,mN

limnEfZp,,Zp+mgZn,,Zn+l=EfZp,,Zp+mEgZp,,Zp+l.
Definicja 8.8

Stacjonarny proces stochastyczny Z jest ergodyczny gdy

ABRKPtZtA0,1.
Twierdzenie 8.5

Twierdzenie ergodyczne.
Jeśli proces stochastyczny Z jest stacjonarny i Zt należą do L1, to zachodzdzą implikacje

abc,

gdzie
a. Z ma własność mieszania,
b. Z jest ergodyczny,
c. średnie zbiegają do wartości oczekiwanej

Zn¯=1nt=0n-1ZtasEZ0.
Uwaga 8.6

Jeśli proces stochastyczny Z jest stacjonarny i ma własność mieszania a f jest funkcją borelowską to proces Z=fZt,,Zt+qt=0 też jest stacjonarny i ma własność mieszania.
Zatem jeśli Zt należą do L2 to

1nt=0n-1Zt2asEZ02,
1nt=0n-1ZtZt+pasEZ0Zp.
Wniosek 8.2

Dla procesów stacjonarnych i ergodycznych średnie próbkowe są zgodnymi estymatorami.

8.3.2. Przykłady

Definicja 8.9

Proces ε nazywamy gaussowskim białym szumem gdy

ε=εtt=0,εtN0,σ,σ>0,εt niezależne.
Lemat 8.1

Biały szum jest stacjonarny i ergodyczny.

Dowód.
Dla dowolnych indeksów p i q wektor εp,,εp+q ma rozkład N0,Idq+1. Rozkład ten nie zależy od p co implikuje stacjonarność.

Aby pokazać własność mieszania zauważmy, że dla n>p+m zmienne losowe fεp,,εp+m i gεn,,εn+l są niezależne. Zatem dla n odpowiednio dużych

Efεp,,εp+mgεn,,εn+l=Efεp,,εp+mEgεn,,εn+l=
=Efεp,,εp+mEgεp,,εp+l.
Uwaga 8.7

Powyższe rozumowanie można zastosować dla dowolnego procesu iid tzn. o wyrazach niezależnych i o jednakowym rozkładzie.

Proces autoregresyjny

Niech ε będzie gaussowskim białym szumem. Dodatkowo założymy, ze εtN0,1. Proces Z=Zt zdefiniujemy rekurencyjnie:

Zt=c+ρZt-1+σεt,t=1,2,,
Z0=c1-ρ+σ1-ρ2ε0,

gdzie c,ρ,σ rzeczywiste parametry, ρ<1, σ>0. Tak zdefiniowany proces nazywa się autoregresyjnym rzędu 1 (AR1).

Lemat 8.2

Proces Z jest stacjonarny i ergodyczny.

Dowód.

Krok 1. Pokażemy, że wszystkie Zt mają rozkład normalny o parametrach c1-ρ i σ21-ρ2

ZtNc1-ρ,σ21-ρ2.

Zastosujemy indukcję po t.
Jak łatwo zauważyć Z0 ma rozkład normalny oraz

EZ0=c1-ρ,D2Z0=σ21-ρ2.

Załóżmy, że

ZsNc1-ρ,σ21-ρ2,s<t.

Ponieważ εt i Zt-1 mają rozkłady normalne i są niezależne to Zt ma rozkład normalny. Ponadto

EZt=c+ρEZt-1+σEε=c+ρc1-ρ+0=c1-ρ.
D2Zt=ρ2D2Zt-1+σ2D2εt=ρ2σ21-ρ2+σ2=σ21-ρ2.

Krok 2. Pokażemy, że CovZt+k,Zt=ρkσ21-ρ2.
Zastosujemy indukcję po k.
Dla k=0 mamy

CovZt,Zt=D2Zt=σ21-ρ2.

Załóżmy, że

CovZt+k-1,Zt=ρk-1σ21-ρ2.

Wówczas

CovZt+k,Zt=Covc+ρZt+k-1+σεt,Zt=ρCovZt+k-1,Zt=ρρk-1σ21-ρ2=ρkσ21-ρ2.

Krok 3. Stacjonarność.
Z poprzednich dwóch ”kroków” wynika, że rozkład wektora Zt,,Zt+p nie zależy od t. Rzeczywiście

Zt,,Zt+pNc1-ρe,σ21-ρ2Rp,

gdzie e jest wektorem o p+1 współrzędnych, które są wszystkie równe 1, e=1,,1, a Rp jest macierzą p+1×p+1 o wyrazach Rpi,j=ρi-j, czyli

Rp=1ρρ2ρpρ1ρρp-1ρp-1,ρp-2ρp-3ρρp,ρp-1ρp-21.

Krok 4. Ergodyczność.
Dla n>p+m wektor Zp,,Zp+m,Zn,,Zn+l ma m+l+2-wymiarowy rozkład normalny

Zp,,Zp+m,Zn,,Zn+lNc1-ρe,σ21-ρ2Cn,

gdzie macierz C otrzymujemy z macierzy Rn+l+1-p przez wycięcie kolumn i wierszy od m+2-giego do n-1-ego.

Cn=Rmρn-p-mAρn-p-mATRl,

gdzie m+1×l+1 macierz A nie zależy od n, Ai,j=ρm+j-i

A=ρmρm+1ρm+2ρm+lρm-1ρmρm+1ρm+l-1ρ1,ρ2ρ3ρl+11,ρ1ρ2ρl.

Zatem

limnCn-1=C-1=Rm-100Rl-1.

W oparciu o powyższą granicę pokażemy własność mieszania.

EfZp,,Zp+mgZn,,Zn+l=
=12πm+l+2detCn-11-ρ2σm+l+2fxgx′′exp-12x-μeTCn-1x-μe
12πm+l+2det(C)-1(1-ρ2σ)m+l+2f(x)g(x′′)exp(-12(x-μe)TC-1(x-μe))dx=
=12πm+l+2detRm-1detRl-11-ρ2σm+l+2fxexp-12x-μeTRm-1x-μedx
gx′′exp-12x′′-μe′′TRl-1x′′-μe′′dx′′=
=EfZp,,Zp+mEgZp,,Zp+l.

8.4. Martyngały i przyrosty martyngałowe

Definicja 8.10

K-wymiarowy proces stochastyczny Z=Ztt=0 nazywamy martyngałem gdy

1.ZtL1 dla t=0,1,,
2.E(Zt|Zt-1,,Z0)=Zt-1 dla t=1,2,.
Definicja 8.11

K-wymiarowy proces stochastyczny g=gtt=0 nazywamy ciągiem przyrostów martyngałowych gdy

1.Egt=0, dla t=0,1,,
2.E(gt|gt-1,,g0)=0 dla t=1,2,.
Uwaga 8.8

Jeśli proces Z=Ztt=0 jest martyngałem, to proces g=gtt=0, gdzie

g0=Z0-EZ0,gt=Zt-Zt-1,t>0,

jest ciągiem przyrostów martyngałowych.

Uwaga 8.9

Jeśli proces g=gtt=0 jest ciągiem przyrostów martyngałowych a μ dowolną stałą, to proces Z=Ztt=0, gdzie

Z0=μ+g0,Zt=Zt-1+gt,t>0,

jest martyngałem.

Lemat 8.3

Jeśli proces g=gtt=0 jest ciągiem przyrostów martyngałowych i gt należą do L2 to są one nieskorelowane

Covgt,gs=0, dla ts.

Dowód.
Zapiszemy wektory gt i gt+j, j>0, jako wektory kolumnowe. Egt=Egt+j=0 zatem

Cov(gt,gt+j)=E(gtgt+jT)=E(E(gtgt+jT|gt+j-1,,g0))=
=E(gtE(gt+jT|gt+j-1,,g0))=E(gt0)=0.

Przykład
Biały szum ε=εt jest ciągiem przyrostów martyngałowych, a błądzenie przypadkowe czyli proces X=Xtt=0

X0=μ+ε0,Xt=Xt-1+εt,t>0,

jest martyngałem.

Twierdzenie 8.6

Centralne Twierdzenie Graniczne ([2] Twierdzenie 23.1).
Jeśli stacjonarny i ergodyczny proces g=gtt=0 jest ciągiem przyrostów martyngałowych i gt należą do L2, to

ngn¯=nnt=0n-1gtdN0,Σ,

gdzie Σ=Eg0g0T.

Uwaga 8.10

Powyższe twierdzenie jest uogólnieniem CTG Linderberga-Levy'ego, w którym pominięta została niezależnośc składników.

Treść automatycznie generowana z plików źródłowych LaTeXa za pomocą oprogramowania wykorzystującego LaTeXML.

Projekt współfinansowany przez Unię Europejską w ramach Europejskiego Funduszu Społecznego.

Projekt współfinansowany przez Ministerstwo Nauki i Szkolnictwa Wyższego i przez Uniwersytet Warszawski.