1次ARモデルの特徴や統計量について

 2019/01/17    2019/01/25    時系列分析    

今回は1次ARモデル期待値自己相関について説明します。

そのためにまず1次ARモデルの定常性について考えます。

その後、1次ARモデルの期待値、自己相関について説明します。

1次ARモデルの定常性

まずは1次ARモデルの定常性について考えていきましょう。

そのために1次ARモデル式について確認します。以下の式で表されるのが1次ARモデルです。

 

\( y_t = \phi_0 + \phi_1y_{t-1} + \varepsilon_t \)

\(\varepsilon_t \)は\(  E(\varepsilon_t) = 0\) , \(  V(\varepsilon_t) = \sigma^2 \)のホワイトノイズとする。

 

定常性を持つ1次ARモデル

モデルの定常性について考える前に、以下の式で表される1次ARモデルについて\( y_t \)の値を計算してみましょう

 

\( y_t = 2 + 0.5y_{t-1} + \varepsilon_t \) ... ①

\( \varepsilon_t \)の分散は\( 1 \)、\( y_0 = 3 ,  \varepsilon_1 = 1.3,  \varepsilon_2 = 0.8,  \varepsilon_3 = -1.6 ,  \varepsilon_4 = 0.3\)とする。

 

この時、\( y_1 , y_2, y_3, y_4\)がどのような値をとるか考えます。まず\( y_1 \)について計算してみましょう。

①式に\( y_0 = 3,  \varepsilon_1 = 1.3 \)を代入すると、\( y_1 = 2 + 0.5\times3 + 1.3 = 4.8 \)と求めることができます。

同様に、\( y_2 = 5.2 \),  \( y_3 = 3 \), \( y_4 = 3.8 \)と求まります。

 

実際に計算すると①式の\( y_t \)発散しないであろうことが分かります。このような時、\( y_t \)は定常性を持ちます。

では1次ARモデルはいつも定常性を持つのでしょうか。①式を変形した以下の1次ARモデルについて見てみましょう。

発散する1次ARモデル

 

\( y_t = 2 + 2y_{t-1} + \varepsilon_t \) ... ②

\( \varepsilon_t \)の分散は\( 1 \)、\( y_0 = 3 ,  \varepsilon_1 = 1.3,  \varepsilon_2 = 0.8,  \varepsilon_3 = -1.6 ,  \varepsilon_4 = 0.3\)とする。

 

②式では\( \phi_1 \)を\( 2 \)としました。この時\( y_1 , y_2, y_3, y_4\)がどのような値をとるか考えてみましょう。

計算すると、\( y_1 = 9.3 \),\( y_2 = 21.4 \),  \( y_3 =  43.2 \), \( y_4 = 88.7 \)となります。

①式での\( y_t \)と異なり、②式の\( y_t \)はどんどん大きくなっていますね。②式の\( y_t \)は定常性を持つとは思えません。

ではなぜ1次ARモデルは定常性を持ったり持たなかったりするのでしょうか。これからは1次ARモデルが定常性を持つための条件を示します。

1次ARモデルの定常条件

\( | \phi_1 | \lt 1 \)の時、1次ARモデルは定常性を持つ。

\( | \phi_1 | \geq 1 \)の時、1次ARモデルの\( y_t \)は発散する。

 

1次ARモデルの統計量

今までは1次ARモデルの定常性について説明してきました。これからは1次ARモデルの期待値、自己相関について考えてみましょう。

以下の1次ARモデルについて期待値、自己相関を算出します。

 

\( y_t = \phi_0 + \phi_1y_{t-1} + \varepsilon_t \) ... ③

\(  E(\varepsilon_t) = 0\) , \(  V(\varepsilon_t) = \sigma^2 \)、\( | \phi_1 | \lt 1 \)とする。

 

1次ARモデルの期待値

まずは③式における\( y_t \)の期待値について考えます。\( | \phi_1 | \lt 1 \)であるため③式は定常性を持つと分かります。

定常であるとき、\( y_t \)は期待値、自己相関を持ちます。

それでは、\( y_t \)の期待値を計算していきましょう。\( y_t \)の期待値を求めるためにまず③式の両辺の期待値を取ります。

\( E[y_t] = E[\phi_0 + \phi_1y_{t-1} + \varepsilon_t] \) 

     \( = \phi_0 + \phi_1E[y_{t-1}] \) 

 

定常のとき、\( E[y_t] = E[y_{t-1}] \)であることを考えると

\( E[y_t] =\displaystyle \frac{ \phi_0 }{ 1-\phi_1 } \)と求まります。 

 

1次ARモデルの分散

期待値の次は分散について考えてみましょう。\( y_t \)の分散、\(   V[y_t] \)を求めます。

そのために③式の両辺の分散を取ります。

\( V[y_t] = V[\phi_0 + \phi_1y_{t-1} + \varepsilon_t] \) 

         \( = V[\phi_1y_{t-1}] + V[\varepsilon_t] \)

 

\( V[\varepsilon_t] = \sigma^2  \)であるから

\( V[y_t] = \phi_1^2V[y_{t-1}] + \sigma^2  \)と変形することができます。

 

定常のとき、\( V[y_t] = V[y_{t-1}] \)であることを考えると

\( V[y_t] = \displaystyle \frac{ \sigma^2 }{ 1-\phi_1^2 } \)と求まります。

 

1次ARモデルの自己共分散

次に\( j \)次の自己共分散\(  \gamma_j  \)について考えていきましょう。

 

\(  \gamma_j = Cov[ y_t  , \ y_{t-j} ]  \) ... ④

 

\( y_t = \phi_0 + \phi_1y_{t-1} + \varepsilon_t \)を④に代入すると

\(  \gamma_j = Cov[\phi_0 + \phi_1y_{t-1} + \varepsilon_t  , \ y_{t-j}]  \)

 

\(Cov[y_{t-{t-j}}  , \ \varepsilon_t] = 0  \)だから

\(  \gamma_j = \phi_1Cov[y_{t-1}  , \ y_{t-j}]  = \phi_1\gamma_{j-1} \)と分かります。

 

\( \gamma_0 =  Var[y_t] = \displaystyle \frac{ \sigma^2 }{ 1-\phi_1^2 } \)であることを考えると

\(  \gamma_j = \phi_1\gamma_{j-1} = \phi_1^2\gamma_{j-2} = \cdots =  \displaystyle\frac{ \sigma^2 }{ 1-\phi_1^2 } \phi_1^j \)と求まります。

 

1次ARモデルの自己相関

分散\( V[y_t] = \displaystyle \frac{ \sigma^2 }{ 1-\phi_1^2 } \)、自己共分散\(  \gamma_j = \displaystyle \frac{\sigma^2 }{ 1-\phi_1^2 } \phi_1^j\)と求めることができました。

これらを用いて自己相関\(  p_j \)と求めます。

\(  p_j = \displaystyle \frac{ \gamma_j }{ \gamma_o } = \phi_1^j \)

と自己相関を求めることができます。\( j \)次自己相関を求めるために、\( j \)次自己共分散を\( 0 \)次自己共分散、つまり分散で割りました。

まとめ

今回は1次ARモデルの定常性、期待値、自己相関について考えてきました。

\(  j \)次ARモデルの定常性、期待値、自己相関については次回の記事で紹介します。

  • イベント情報

    0529-イベント
  • 関連コンテンツ

  • コメントを残す

    メールアドレスが公開されることはありません。 * が付いている欄は必須項目です