1次ARモデルの特徴や統計量について

更新日

1次ARモデルの定常性

まずは1次ARモデルの定常性について考えていきましょう。

1次ARモデル式は次のように表されます。

yt= ϕ0+ϕ1yt1+εt y_t = \phi_0 + \phi_1y_{t-1} + \varepsilon_t

εt\varepsilon_t  E(εt)=0  E(\varepsilon_t) = 0 V(εt)=σ2  V(\varepsilon_t) = \sigma^2 のホワイトノイズとする

定常性を持つ1次ARモデル

モデルの定常性について考える前に、以下の式で表される1次ARモデルについてyt y_t の値を計算してみましょう。

yt=2+0.5yt1+εt y_t = 2 + 0.5y_{t-1} + \varepsilon_t ... ①

εt \varepsilon_t の分散は1 1  y0=3, ε1=1.3, ε2=0.8, ε3=1.6, ε4=0.3 y_0 = 3 ,  \varepsilon_1 = 1.3,  \varepsilon_2 = 0.8,  \varepsilon_3 = -1.6 ,  \varepsilon_4 = 0.3とする。

この時、 y1, y2, y3, y4 y_1 , y_2, y_3, y_4がどのような値をとるか考えます。

まずy1 y_1 について計算してみましょう。

式①にy0=3, ε1=1.3 y_0 = 3,  \varepsilon_1 = 1.3 を代入すると、y1=2+0.5×3+1.3=4.8 y_1 = 2 + 0.5\times3 + 1.3 = 4.8 と求めることができます。

同様に、y2=5.2 y_2 = 5.2 ,  y3=3 y_3 = 3 y4=3.8 y_4 = 3.8 と求めることができます。

実際に計算すると、式①のyt y_t は発散しないであろうことが分かります。このような時、yt y_t 定常性を持ちます。

発散する1次ARモデル

では、1次ARモデルはいつも定常性を持つのでしょうか。式①を変形した以下の1次ARモデルについて見てみましょう。

yt=2+2yt1+εt y_t = 2 + 2y_{t-1} + \varepsilon_t ... ②

εt \varepsilon_t の分散は1 1  y0=3, ε1=1.3, ε2=0.8, ε3=1.6, ε4=0.3 y_0 = 3 ,  \varepsilon_1 = 1.3,  \varepsilon_2 = 0.8,  \varepsilon_3 = -1.6 ,  \varepsilon_4 = 0.3とする。

式②では ϕ1 \phi_1 2 2 としました。この時 y1, y2, y3, y4 y_1 , y_2, y_3, y_4がどのような値をとるか考えてみましょう。

計算すると、y1=9.3 y_1 = 9.3 ,y2=21.4 y_2 = 21.4 ,  y3= 43.2 y_3 =  43.2 y4=88.7 y_4 = 88.7 となります。

式②のyt y_t はどんどん大きくなっており、定常性を持つとは言えません。

1次ARモデルの定常条件

1次ARモデルが定常性を持つための条件は以下の通りです。

 ϕ1<1 | \phi_1 | \lt 1 の時、1次ARモデルは定常性を持つ。

 ϕ1 1 | \phi_1 | \geq 1 の時、1次ARモデルのyt y_t は発散する。

1次ARモデルの統計量

1次ARモデルの統計量について考えてみましょう。

yt= ϕ0+ϕ1yt1+εt y_t = \phi_0 + \phi_1y_{t-1} + \varepsilon_t ... ③

 E(εt)=0  E(\varepsilon_t) = 0 V(εt)=σ2  V(\varepsilon_t) = \sigma^2  ϕ1<1 | \phi_1 | \lt 1 とする。

期待値

式③におけるyt y_t の期待値について考えます。

 ϕ1<1 | \phi_1 | \lt 1 であるため式③は定常性を持つと分かります。

定常であるとき、yt y_t は期待値、自己相関を持ちます。

それでは、yt y_t の期待値を計算していきましょう。

yt y_t の期待値を求めるためにまず式③の両辺の期待値を取ります。

E[yt]=E[ϕ0+ϕ1yt1+εt]= ϕ0+ϕ1E[yt1] E[y_t] = E[\phi_0 + \phi_1y_{t-1} + \varepsilon_t] = \phi_0 + \phi_1E[y_{t-1}]  

 

定常のときE[yt]= E[yt1] E[y_t] = E[y_{t-1}] であることを考えると、期待値は以下のようになります。

E[yt]=  ϕ0 1ϕ1 E[y_t] =\displaystyle \frac{ \phi_0 }{ 1-\phi_1 }

 

分散

yt y_t の分散、  V[yt]    V[y_t] を求めます。

そのために式③の両辺の分散を取ります。

V[yt]=V[ϕ0+ϕ1yt1+εt]=V[ϕ1yt1]+V[εt] V[y_t] = V[\phi_0 + \phi_1y_{t-1} + \varepsilon_t] = V[\phi_1y_{t-1}] + V[\varepsilon_t]

 V[εt]= σ2  V[\varepsilon_t] = \sigma^2  であるから

V[yt]=ϕ12V[yt1]+σ2  V[y_t] = \phi_1^2V[y_{t-1}] + \sigma^2  と変形することができます。

 

定常のとき、V[yt]=V[yt1] V[y_t] = V[y_{t-1}] であることを考えると、分散は以下のようになります。

V[yt]=  σ2 1ϕ12 V[y_t] = \displaystyle \frac{ \sigma^2 }{ 1-\phi_1^2 }

自己共分散

次にj j 次の自己共分散 γj   \gamma_j  について考えていきましょう。

  γj=Cov[yt , ytj]   \gamma_j = Cov[ y_t  , \ y_{t-j} ]  ... ④

 

yt= ϕ0+ϕ1yt1+εt y_t = \phi_0 + \phi_1y_{t-1} + \varepsilon_t を式④に代入すると

 γj=Cov[ϕ0+ϕ1yt1+εt , ytj]   \gamma_j = Cov[\phi_0 + \phi_1y_{t-1} + \varepsilon_t  , \ y_{t-j}] 

 

Cov[yttj , εt]=0 Cov[y_{t-{t-j}}  , \ \varepsilon_t] = 0  だから

 γj=ϕ1Cov[yt1 , ytj] = ϕ1γj1  \gamma_j = \phi_1Cov[y_{t-1}  , \ y_{t-j}]  = \phi_1\gamma_{j-1} と分かります。

 

γ0= Var[yt]=  σ2 1ϕ12  \gamma_0 =  Var[y_t] = \displaystyle \frac{ \sigma^2 }{ 1-\phi_1^2 } であることを考えると

 γj= ϕ1γj1= ϕ12γj2= = σ2 1ϕ12ϕ1j  \gamma_j = \phi_1\gamma_{j-1} = \phi_1^2\gamma_{j-2} = \cdots =  \displaystyle\frac{ \sigma^2 }{ 1-\phi_1^2 } \phi_1^j と求めることができます。

自己相関

分散V[yt]=  σ2 1ϕ12 V[y_t] = \displaystyle \frac{ \sigma^2 }{ 1-\phi_1^2 } 、自己共分散 γj=σ2 1ϕ12ϕ1j  \gamma_j = \displaystyle \frac{\sigma^2 }{ 1-\phi_1^2 } \phi_1^jと求めることができました。

これらを用いて自己相関 pj   p_j と求めます。

 pj=  γj γo= ϕ1j  p_j = \displaystyle \frac{ \gamma_j }{ \gamma_o } = \phi_1^j

と自己相関を求めることができます。

関連記事

時系列分析のARモデルとは

定常性とホワイトノイズを分かりやすく解説

カテゴリ: 時系列分析

関連サービス

講座一覧ページ

記事一覧はこちら

無料で統計学を学ぶ