이전 포스팅에서는 두 변수를 코릴시키기 위해 'Cholesky Decompostion'을 배웠다. 우리의 최종 목적은 코릴돼있는 두 변수를 그렇지 않게 만드는 것이다. 우선, →xt=C(L)→ξt를 다음과 같이 써보자.
[ytzt]=[C0,yyC0,yzC0,zyC0,zz][ξy,tξz,t]+C1→xit−1+⋯
Sims는 C0가 lower-triangular matrix여야 한다고 제안했다. 즉,
[ytzt]=[C0,yy0C0,zyC0,zz][ξy,tξz,t]+[C1,yyC1,yzC1,zyC1,zz][ξy,t−1ξz,t−1]+C2→ξt−2+⋯
이는 VAR을 직교화함으로써 C0,yz의 이펙트를 C0,zy가 흡수하는 걸 의미한다. 즉,
C0=B0A−1⇒C0=IA−1⇒C0=A−1
그리고 우리가 A를 lower-triangular matrix로 정의했기 때문에 A−1도 lower-triangular matrix가 된다.
위의 식은 VAR을 VMA(∞)로 표현한 것이다. 이걸 다시 VAR로 표현하면 다음과 같다.
C(L)−1→xt=→ξt⇒D(L)→xt=→ξtwhereD(L)=C(L)−1
그럼 이 식은 과거 변수들의 유한 합과 하나의 에러텀을 갖는 것으로 바뀐다.
[D0,yy0D0,zyD0,zz][ytzt]+[D1,yyD1,yzD1,zyD1,zz][yt−1zt−1]+D2→xt−2+⋯=[ξy,tξz,t]
⇒
D0,yyyt=0−D1,yyyt−1−D2,yyyt−2−⋯−Dp,yyyt−p−D1,yzzt−1−D2,yzzt−2−⋯−Dp,yzzt−p+ξy,t
D0,zzzt=−D0,zyyt−D1,zyyt−1−D2,zyyt−2−⋯−Dp,zyyt−p−D1,zzzt−1−D2,zzzt−2−⋯−Dp,zzzt−p+ξz,t
(1)
⇒ 위 식(1)을 각각 −D0,yy,−D0,zzzt로 나누자.
yt=0+a1,yyyt−1+a2,yyyt−2+⋯+ap,yyyt−p+a1,yzzt−1+a2,yzzt−2+⋯+ap,yzzt−p+ξy,t
zt=a0,zyyt+a1,zyyt−1+a2,zyyt−2+⋯+ap,zyyt−p+a1,zzzt−1+a2,zzzt−2+⋯+ap,zzzt−p+ξz,t
(1) 식을 보는 방법 중 하나는 OLS다. 이를 OLS로 표현해보자.
ξy,t=yt−E[yt|yt−1,yt−2,⋯,yt−p,zt−1,zt−2,⋯,zt−p]
ξz,t=zt−E[zt|yt,yt−1,yt−2,⋯,yt−p,zt−1,zt−2,⋯,zt−p]
여기서 ξy,t는 (yt,yt−1,yt−2,⋯,yt−p,zt−1,zt−2,⋯,zt−2)의 선형 결합이다. 그러면 OLS의 정의에 의해, ξz,t는 회귀 변수의 그 어떤 선형 결합과 독립(직교)이어야 한다. 그러므로 ξy,t,ξz,t는 언코릴됐다.
'금융 > 시계열' 카테고리의 다른 글
[시계열] 그레인저 인과성 (Granger Causality) (1) | 2020.09.03 |
---|---|
[시계열] 분산 분해, 예측 오차 분산 분해 (Variance Decomposition, Forecast Error Variance Decomposition ) (0) | 2020.09.02 |
[시계열] 충격반응분석 (Impulse Response Analysis) - (2) (Cholesky Decomposition) (0) | 2020.08.31 |
[시계열] 충격반응분석 (Impulse Response Analysis) - (1) (2) | 2020.08.30 |
[시계열] 벡터자기회귀모델 (Vector Auto-Regressive Model) (0) | 2020.08.29 |