n次MAモデルの特徴や統計量について

更新日

n次MAモデルの性質

n n 次MAモデルについて考える前に2つの性質を確認しましょう。

 性質1

n n 次MAモデルがホワイトノイズの和で表される。

ARモデルと異なる点はyt y_t を複数の時点に発生するホワイトノイズという乱数の和を用いて表現している点です。

 性質2

2つ目はn n 次MAモデルが常に定常過程であるということ。

これはn n 次MAモデルが時点に関わらず一定の期待値、自己共分散を持つことを意味します。

n次MAモデルの式

n n 次MAモデルは以下の式で表されます。

 yt=θ0+εt+θ1εt1++θnεtn (1) y_{t} = \theta_0 + \varepsilon_{t} + \theta_{1}\varepsilon_{t-1} + \cdots + \theta_{n}\varepsilon_{t-n} \ldots (1)

 

(1) (1) 式を見ると確かにn n 次MAモデルが定数項 θ0 \ \theta_0 n n 時点前までの過去のホワイトノイズの加重和によって表されることが分かります。

また、n n 次MAモデルはn n 次自己相関まで考えることができます。一方で1 1 次MAモデルは1 1 次自己相関しか表現できません。n n 次MAモデルが表現力に富んだモデルであるということが分かります。

n次MAモデルの統計量

期待値

n n 次MAモデルのyt y_{t} の期待値は(1) (1) 式の両辺の期待値をとることによって求めることができます。

 yt=θ0+εt+θ1εt1++θnεtn y_{t} = \theta_0 + \varepsilon_{t} + \theta_{1}\varepsilon_{t-1} + \cdots + \theta_{n}\varepsilon_{t-n}

 (1) (1) 式の両辺の期待値をとると

 E[yt]=E[θ0]+E[εt]+θ1E[εt1]++θnE[εtn] =θ0 \begin{equation*}\begin{split} E[y_{t}] &= E[\theta_0] + E[\varepsilon_{t}] + \theta_{1}E[\varepsilon_{t-1}] + \cdots + \theta_{n}E[\varepsilon_{t-n}] \\ &= \theta_0 \end{split}\end{equation*}

ホワイトノイズの期待値がE[εt]=0E[\varepsilon_t] = 0 であることを用いた。

 上記からn n 次MAモデルの期待値はθ0 \theta_0 であると分かります。

自己共分散

n n 次MAモデルのj j 次自己共分散γj\gamma_j について考えます。

まずは自己共分散γ0\gamma_0 、分散V[yt] V[y_t] について考えてみましょう。

n n 次MAモデルのyt y_{t} の分散は(1) (1) 式の両辺の分散をとることによって求めることができます。

  V[yt]=V[θ0]+V[εt]+V[θ1εt1]++V[θnεtn] =V[εt]+θ12V[εt1]+ +θn2V[εtn] =(1+ θ12+ + θn2)σ2    \begin{equation*}\begin{split} V[y_{t}] &= V[\theta_0] + V[\varepsilon_{t}] + V[\theta_{1}\varepsilon_{t-1}] + \cdots + V[\theta_{n}\varepsilon_{t-n}]  \\ &= V[\varepsilon_{t}] + \theta_1^2V[\varepsilon_{t-1}] + \cdots + \theta_{n}^2V[\varepsilon_{t-n}] \\ &= (1 + \theta_1^2 + \cdots + \theta_{n}^2)\sigma^2  \end{split}\end{equation*}  

ホワイトノイズの分散がV[εt]=σ2V[\varepsilon_t] = \sigma^2 であることを用いた。

次にj j 次自己共分散 γj \ \gamma_j について考えてみましょう。

 γj=Cov[yt,ytj] =Cov[θ0+εt++θnεtn, θ0+εtj++θnεtjn]  \begin{equation*}\begin{split} \gamma_j &= Cov[y_t, y_{t - j}] \\ &= Cov[\theta_0 + \varepsilon_{t} + \cdots + \theta_{n}\varepsilon_{t-n}, \ \theta_0 + \varepsilon_{t - j} + \cdots + \theta_{n}\varepsilon_{t- j -n} ] \end{split}\end{equation*} 

yt,ytj y_t, y_{t-j} について(1) (1) 式を用いて変形した。

 

Cov[θ0+εt++θnεtn, θ0+εtj++θnεtjn]  (2) Cov[\theta_0 + \varepsilon_{t} + \cdots + \theta_{n}\varepsilon_{t-n}, \ \theta_0 + \varepsilon_{t - j} + \cdots + \theta_{n}\varepsilon_{t- j -n} ] \ \ldots \ (2)

 (2) (2) の共分散について場合分けを用いて考えます。

0 j n 0 \leq  j \leq n の場合

(2) (2) 式の中を展開すると、

εtj,εtj1,, εtn \varepsilon_{t - j},\varepsilon_{t - j -1},\cdots, \varepsilon_{t - n}

に関して、ホワイトノイズの分散V[εt]=σ2 V[\varepsilon_{t}] = \sigma^2 が表れます。

(2) (2) 式のその他の項に関しては、ホワイトノイズの自己共分散なのでCov[εt,εtj] =0 Cov[\varepsilon_t,\varepsilon_{t-j}] = 0 となります。

これらを用いて(2) (2) 式を変形すると以下のようにj j 次自己共分散γj \gamma_j が求めることができます。

 γj=(θj+ θj+1θ1++ θnθnj)σ2, 0 j  nの時 \gamma_j = (\theta_{j} + \theta_{j + 1}\theta_{1} + \cdots + \theta_{n}\theta_{n - j})\sigma^2, \quad 0 \leq  j \leq \ nの時

n<j n \lt j の場合

この時、yt y_t の最も古いホワイトノイズ, ytj y_{t-j} の最も新しいホワイトノイズ、εtn \varepsilon_{t-n}εtj \varepsilon_{t-j}の時点を比べた時にtn>tj t - n \gt t - j となります。

ホワイトノイズの自己共分散についてCov[εt,εtj] =0 Cov[\varepsilon_t,\varepsilon_{t-j}] = 0 が成立するから、(2) (2) 式を展開したすべての項が0 0 となります。

よって、j j 次自己共分散γj \gamma_j が以下のように求めることができます。

 

γj=0, n<j の時  \gamma_j = 0, \quad n \lt j \ の時 

 

よってj j 次自己共分散γj\gamma_j は以下のように表すことができる。

  γj={ (θj+ θj+1θ1++ θnθnj)σ2(0< j n) 0( n<j) \begin{equation*}\begin{split} \gamma_j = \begin{cases} (\theta_{j} + \theta_{j + 1}\theta_{1} + \cdots + \theta_{n}\theta_{n - j})\sigma^2 & ( 0 \lt  j \leq n ) \\ 0 & ( n \lt j ) \end{cases} \end{split}\end{equation*}

自己相関

j j 次自己相関pj p_j を求めるため、j j 次自己共分散γj \gamma_j を分散V[yt] V[y_t] 、つまり自己共分散γ0 \gamma_0 で割る。

j j 次自己相関pj p_j も場合分けを用いて考える。

以下では、先ほど求めたj j 次自己共分散の値を用いて自己相関の値を求める。

 

0< j n 0 \lt  j \leq n の場合

 pj=  γj γ0=  θj+ θj+1θ1++ θnθnj 1+ θ12+ + θn2, 0 j  nの時 p_j = \frac{ \gamma_j }{ \gamma_0 } = \frac{ \theta_{j} + \theta_{j + 1}\theta_{1} + \cdots + \theta_{n}\theta_{n - j} }{ 1 + \theta_1^2 + \cdots + \theta_{n}^2 }, \quad 0 \leq  j \leq \ nの時

 

n<j n \lt j の場合

 pj=  γj γ0=0, n<j の時 p_j = \frac{ \gamma_j }{ \gamma_0 } = 0, \quad n \lt j \ の時

 よってj j 次自己相関 pj \ p_j は以下のように表すことができる。

 

pj={θj+θj+1θ1++θnθnj1+θ12++θn2(0<jn)0(n<j) \begin{equation*}\begin{split} p_j = \begin{cases} \displaystyle \frac{ \theta_{j} + \theta_{j + 1}\theta_{1} + \cdots + \theta_{n}\theta_{n - j} }{ 1 + \theta_1^2 + \cdots + \theta_{n}^2 } & ( 0 \lt j \leq n ) \\ 0 & ( n \lt j ) \end{cases} \end{split}\end{equation*}

関連記事

時系列分析のMAモデルとは

カテゴリ: 時系列分析

関連サービス

講座一覧ページ

記事一覧はこちら

無料で統計学を学ぶ