統計学

時系列の定常性やスペクトル密度関数

2023年7月19日

p.15の定義にも、
tに依存しない、ラグhに依存しないってあるからやっぱ弱定常は期待値と共分散が一定(時間が経っても一定)を意味している
相関(corre)なのでコレログラムはまさに時間とともに減る相関係数のグラフ
時系列データにはトレンドなどによる値が含まれる。そしてこのトレンドを除去したいのであれば通常定数なのでt+1とtを引けば除去できる
ARは常に定常とはかぎらない→なのでちょっと扱いづらい
MAはホワイトノイズであらわされるので常に定常→ なので扱いやすい
MAからARに変換をすることができたりする。これをMA反転可能性といったりします。もちろんすべてて反転ができるわけではないので注意。

MA過程の反転可能性

定常性

自己回帰モデルであるAR(1)は、常に定常とはなりません。

弱定常性

時系列データを{\(x_{t}\)}とした時、以下2つを同時に満たすとき、弱定常性と言います。
\begin{eqnarray}
E[x_{t}] &=& \mu_{x} ・・・① \\
cox(x_{t}, x_{t+k}) &=& ・・・② \\
\end{eqnarray}

①は単純に時系列データの平均値が常に一定であるということ。tなのでどんな期間が経ったとしても常に一定であること。
②はt期での時系列データと、t+k期での時系列データで相関が常に一定であること。つまり自己相関が一定であること。
これを満たす時系列データは、弱定常性と言います。

さらに定常性は、
\(|\phi| \lt 1\)を満たすときに定常性と判断することも可能です。

 

▼ 自己回帰モデル
1次自己回帰モデルである\(AR(1)\)は常に定常であるとは限りません。
以下の例を考えたとします。
\(x_{t} = 2x_{t-1} + \epsilon_{t}\)のAR(1)を考えたとする。
直感的に、どんどん2倍されていくので、\(x_{0} = 0\)としてもどんどん2倍されて、2次関数のように増えていく。
となると、定常性はないと言えそうですね、、

でもなんとなくですが、\(x_{t} = 0.8x_{t-1} + \epsilon_{t}\)だとどうでしょうか?
0.8倍していくので確かに0に収束するように減っていくかもしれないですが、イプシロンはホワイトノイズで-2にも2にもなります。なのでいい具合に定常性を持ってそうな感じもしますね。

結論から言うと、係数が1以下であればARは定常性を持ちます。

 

自己共分散は\(x_{t}\)と\(x_{t+k}\)の分散で\(cov(x_{t}, x_{t+k})\)となるが、
\(x_{t}\)と\(x_{t}\)はただの\(cov(x_{t}, x_{t}) = V(x_{t})\)で{\(x_{t}\)}の分散になる。

 

▼ 移動平均モデル
1次移動平均モデルである\(MA(1)\)は常に定常になります。
時系列データ{\(x_{t}\)}が以下を満たすとする。
\(x_{t} = a + v_{t}\)
この時、\(v_{t} \sim N(0,\sigma^{2})\)とした時、
まず、\(E[x_{t}] = E[a + v_{t}] = a + 0 = a\)で①を満たし、
\(V(x_{t}) = V(a + v_{t}) = a^{2} + \sigma^{2}\)となり、そもそも分散値がtに依存しないということは、時間が経っても同じ分散値となるということなので、②も満たす。
なので、常に弱定常性を満たすことになります。

 

▼ 自己回帰移動平均モデル(ARMA)
これは2つの自己回帰モデルと移動平均モデルがそれぞれ定常性を持つかどうかによって変わります。
そもそも移動平均モデルは常に定常性を持っているので、自己回帰モデルのみ考えます。
このARMAはARとMAの線形モデルになるので、
ARが定常性を持っていれば、ARMRも定常性を持つことになりますし、
ARが定常性を持っていなければ、ARMRは定常性を持たなくなります。

 

強定常性

弱があるので、強もあります。

時系列データを{\(x_{t}\)}とした時、分布も同じであるとき、強定常性と言います。

弱定常性を満たしつつも、分布も同じであれば強定常性となります。
上で期待値と自己共分散が同じであれば、なんだか正規分布チックになって、弱定常性の時点で同じ分布じゃないの?ってなりそうですが、そうではないです。

 

定常性の検証

AR(1)の定常性

ARは常に定常とはかぎらない→なのでちょっと扱いづらい
MAはホワイトノイズであらわされるので常に定常→ なので扱いやすい
MAからARに変換をすることができたりする。これをMA反転可能性といったりします。もちろんすべてて反転ができるわけではないので注意。

 

ランダムウォークの定常性

時系列データが非定常の場合

定常ではなく非定常の場合は、さらに分析をすることが可能で、単位根検定をすることができます。
単位根検定は、時系列単体では非定常でなくても、時系列の差分が定常であるとき、単位根検定をすることが可能です。

【単位根検定(単位根過程)】
時系列データ\({x_{t}}\)が非定常かつ、\(\Delta(x_{t}) = x_{t} - x_{t-1}\)が定常であるとき、単位根過程と言います。

単位根過程の代表例としては、ランダムウォークがあります。
ランダムウォークは\(x_{t} = x_{t-1} + \epsilon_{t}\)と表現され、\(|\phi| = 1\)であるため、非定常過程となるが、単位根過程である。

AR(1)では、
\(|\phi| \lt 1\)なら、定常過程となり、
\(|\phi| = 1\)なら、非定常過程となり、\(\Delta(x_{t}) = \epsilon_{t}\)となり時間\(t\)で一定なので単位根過程
\(|\phi| \gt 1\)なら、非定常過程となり、単位根過程でもありません。

 

スペクトルとピリオドグラム

スペクトルという言葉は音声などの周波数を想像する人も多いと思います。
音声などの波形データはまさに時系列データになるので関わりがあります。

時系列データのスペクトルとは、時系列データをいくつかの周期的な関数であるcosやsinなどの三角関数で表現することができるものです。

【スペクトル密度関数】
自己共分散\(C_{k}\)が\(\displaystyle \sum_{k=1}^{\infty} C_{k} < \infty\)を満たすとき、スペクトル関数を持ち、スペクトル関数\(f(\lambda)\)は、 \begin{eqnarray} f(\lambda) &=& \sum_{h=-\infty}^{\infty} C_{k} e^{-ih\lambda} (- \infty < \lambda < \infty) ・・・① \\ \end{eqnarray}

 

それに対して、ピリオドグラムというものがありますが、標本になっただけです。
上はサーメーションが無限となってるのに対して、下のピリオドグラムはサーメーションがNになってます。
さらには上では自己共分散を使っていますが、下では標本での自己共分散となるので標本自己共分散を使って計算することになります。

【ピリオドグラム】
標本自己共分散\(\hat{C_{k}}\)が\(\displaystyle \sum_{k=1}^{\infty} \hat{C_{k}} < \infty \)を満たすとき、スペクトル関数を持ち、スペクトル関数\(f(\lambda)\)は、 \begin{eqnarray} f(\lambda) &=& \sum_{i=1}^{N} \hat{C_{k}} e^{-ih\lambda} (- \infty < \lambda < \infty) ・・・① \\ \end{eqnarray}

MA

\(y_{t} = \mu + \epsilon_{t} + \theta\epsilon_{t-1} \)
で表現できる。
時系列データは平均に対してノイズによって各データが生成されていると考える。
こっちはt-1期のノイズの影響を受けてる

AR

\(y_{t} = \phi y_{t-1}+ \epsilon_{t} \)
t-1期の値の影響を受けてt期はデータを生成していると考える。
こっちはt-1期のデータの影響を受けてる。

データには通常ノイズと平均が入ってので、ARでは平均は式に含まれない

スペクトル

共和分

-統計学

© 2024 Yosshi Labo. Powered by AFFINGER5