2019/01/17

2020/05/27

n次ARモデルの特徴や統計量について

時系列分析

ライター:

前回の記事では\(1\)次ARモデルの期待値や自己共分散といった統計量について説明しました。

今回はまず一般的な\(n\)次ARモデルの統計量について考えます。\(n\)次ARモデルを考えることで、\(n\)時点前までのデータを用いた分析が可能になります。

その後、具体的に\(2\)次ARモデルの統計量がどうなっているかについて考えていきましょう。

\(n\)次ARモデルの統計量

\(n\)次ARモデルとは

\( y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t} \) … (1)

ただし\( \epsilon_{t} \)は分散\( \sigma^2 \)のホワイトノイズとする。

 

\(n\)次ARモデルは(1)の形で表されます。ある時点のデータ\( y_{t}\)に対して\(n\)時点前までのデータ\( y_{t-n}\)がモデルに用いられていることが分かります。

\(n\)次ARモデルの期待値

定常性を持つ\(n\)次ARモデルは期待値、自己共分散を持ちます。そのため以下では定常な\(n\)次ARモデルについて考えます。

まず\(n\)次ARモデルの期待値\( E[y_{t}] \)を求めてみましょう。そのために\(n\)次ARモデル式(1)を見てみましょう。

 

\( y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t} \)

 

上記の\(n\)次ARモデルの両辺に対して期待値をとると以下のように表すことができます。

\( E[y_{t}] = E[\phi_{0}] + E[\phi_{1}y_{t-1}] + E[\phi_{2}y_{t-2}] + \cdots + E[\phi_{n}y_{t-n}] + E[\epsilon_{t}] \)

 

モデルが定常であるとき、どんな\( t \) に対して\( E[y_{t}] =  \mu  \)、また\( E[\epsilon_{t}] = 0 \)であることを用いると

\( \begin{eqnarray} E[y_{t}] &=& \phi_{0} + \phi_{1}E[y_{t}] + \phi_{2}E[y_{t}] + \cdots + \phi_{n}E[y_{t}] \\  &=&  \displaystyle \frac{ \phi_{0} }{ 1 – \phi_{1} – \phi_{2}  – \cdots – \phi_{n} } \end{eqnarray} \)

 

よって\(n\)次ARモデルの期待値\( E[y_{t}] \)を求めることができました。

 

\(n\)次ARモデルの自己共分散

それでは、まず\(n\)次ARモデルの分散\( V[y_{t}] \)を求めてみましょう。期待値と同じように\(n\)次ARモデルの式(1)から分散\( V[y_{t}] \)を考えます。

 

\( y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t} \)

 

上記の式の両辺の分散をとります。

\( \begin{eqnarray} V[y_{t}] &=& V[\phi_{1}y_{t-1}] + V[\phi_{2}y_{t-2}] + \cdots + V[\phi_{n}y_{t-n}] + V[\epsilon_{t}] \\ &=& \phi_{1}^2V[y_{t-1}] + \phi_{2}^2V[y_{t-2}] + \cdots + \phi_{n}^2V[y_{t-n}]  + \sigma^2 \end{eqnarray} \)

 

定常であるとき、どんな\( t \)に対しても\( V[y_{t}] = \gamma_0 \)であるから、

\( V[y_{t}] = \displaystyle \frac{ \sigma^2 }{ 1- \phi_{1}^2 – \phi_{2}^2 – \cdots – \phi_{n}^2 } \) … ②

 

よって分散\( V[y_{t}] \)を求めることができました。

 

次に\( j \)次自己共分散\( \gamma_j \)を求めます。

 

\( \begin{eqnarray} \gamma_j = Cov[y_{t}, y_{t – j}] &=& Cov[ \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \cdots + \phi_{n}y_{t-n} + \epsilon_{t} ,  y_{t – j}] \\  &=& \phi_{1}Cov[y_{t-1},y_{t-j}] + \phi_{2}Cov[y_{t-2},y_{t-j}] + \cdots + \phi_{n}Cov[y_{t-n},y_{t-j}] \\ &=& \phi_{1}\gamma_{j-1} + \phi_{2}\gamma_{j-2} + \cdots + \phi_{n}\gamma_{j-n} \end{eqnarray} \)

 

これは1次ARモデルの自己共分散と同じ求め方ですね。

 

\(n\)次ARモデルの自己相関

次は\( j \)次自己相関を求めてみましょう。

\( \gamma_j = \phi_{1}\gamma_{j-1} + \phi_{2}\gamma_{j-2} + \cdots + \phi_{n}\gamma_{j-n} \)

 

両辺を\( y_{t} \)の分散\( \gamma_0 \)で割ると

\( p_j = \phi_{1}p_{j-1} + \phi_{2}p_{j-2} + \cdots + \phi_{n}p_{j-n} \)

 

確かに\( j \)次自己相関を求めることができました。

 

\(2\)次ARモデルの統計量

\(2\)次ARモデルの期待値、分散、自己共分散

今までは\(n\)次ARモデルの統計量について考えてきました。ここではより具体的に\(2\)次ARモデルの統計量について考えてみましょう。

以下の式で表される\(2\)次ARモデルについて考えてみましょう。

 

\( y_{t} = \phi_{0} + \phi_{1}y_{t-1} + \phi_{2}y_{t-2} + \epsilon_{t} \)

ただし\( \epsilon_{t} \)は分散\( \sigma^2 \)のホワイトノイズとする。また、定常とする。

 

\(n\)次ARモデルの期待値、分散、自己共分散、自己相関はそれぞれ以下の式で表される。

 

\( E[y_{t}] =  \displaystyle \frac{ \phi_{0} }{ 1 – \phi_{1} – \phi_{2}  – \cdots – \phi_{n} } \)

\( V[y_{t}] = \displaystyle \frac{ \sigma^2 }{ 1- \phi_{1}^2 – \phi_{2}^2 – \cdots – \phi_{n}^2 } \)

\( \gamma_j = \phi_{1}\gamma_{j-1} + \phi_{2}\gamma_{j-2} + \cdots + \phi_{n}\gamma_{j-n} \)

\( p_j = \phi_{1}p_{j-1} + \phi_{2}p_{j-2} + \cdots + \phi_{n}p_{j-n} \)

 

これを用いて、\(2\)次ARモデルの期待値、分散、自己共分散、自己相関について考えると以下のように求まります。

\( E[y_{t}] =  \displaystyle \frac{ \phi_{0} }{ 1 – \phi_{1} – \phi_{2} } \)

\( V[y_{t}] = \displaystyle \frac{ \sigma^2 }{ 1- \phi_{1}^2 – \phi_{2}^2 } \)

\( \gamma_j = \phi_{1}\gamma_{j-1} + \phi_{2}\gamma_{j-2}  \)

\( p_j = \phi_{1}p_{j-1} + \phi_{2}p_{j-2} \)

まとめ

この記事ではまず\(n\)次ARモデルの統計量について考えました。その後、具体例として\(2\)次ARモデルの統計量について考えてみました。

ARモデルの統計量を求めるために定常であるという仮定をおいたことを忘れないようにしましょう。

モデルが定常であるからこそ期待値、自己共分散といった統計量を求めることができるのです。

(totalcount 10,615 回, dailycount 30回 , overallcount 16,404,751 回)

ライター:

時系列分析

single-banner

COMMENT

コメントを残す

メールアドレスが公開されることはありません。
*は必須項目です。




CAPTCHA