統計学

系列相関・ダービンワトソン比とコクランオーカット法

2022年11月6日

まず、
1次回帰モデルとして以下のようなモデルを考えます。
\begin{eqnarray}
y_{t} &=& \alpha y_{t-1} + u_{t} \\
u_{t} &=& \rho u_{t-1} + \epsilon_{t} \\
\end{eqnarray}

この\(u_{t}\)はいわゆる回帰分析で言う誤差項と呼ばれます。
今回着目するのが、この誤差項です。
 

この誤差項が過去の誤差項から影響を受けて今回の値が出ているのか、つまり相関があるのかなどを系列相関と言ったりします。
今回はその系列相関について考えていきたいと思います。
 

系列相関

基本的な指標として、自己相関係数を求めます。
各時系列データがどのように相関があるかを求めますが、

自己相関係数

普通は相関係数は、xとyの2つの変数間での相関で、定義は以下となります。
\begin{eqnarray}
r &=& \displaystyle \frac{\sum_{i=1}^{k}(x_{i} - \bar{x})(y_{i} - \bar{y}) }{\sqrt{\sum_{i=1}^{k} (x - \bar{x})^{2} } { \sqrt{ \sum_{i=1}^{k} (y - \bar{y})^{2} }}} \\
&=& \frac{cov(x, y)}{\sqrt{var(x)}\sqrt{var(y)}}
\end{eqnarray}
 

そして今回扱うのは自己相関係数で、自己なので同じデータ間での相関係数になります。
相関係数は2つのデータでの計数なので、同じデータなら何と何の相関係数になるのか?
それはある時点とある時点での相関係数になります。
例えば時系列で、2019年のデータと2021年のデータでの相関係数を求めたりします。
上の定義式から、ある時点tとそこから\(k\)期時間の経った時点\(t+k\)の相関係数は

\begin{eqnarray}
r(k) &=& \frac{cov(y_{t}, y_{t+k})}{\sqrt{var(y_{t}})\sqrt{var(y_{t+k})}}
\end{eqnarray}

になります。ここで分母の分散ですが、辞典は違えど同じデータを用いているので、\(var(y_{t}) = var(y_{t+k})\)であるので、

\begin{eqnarray}
r(k) &=& \frac{cov(y_{t}, y_{t+k})}{var(y_{t})}
\end{eqnarray}

です。

 
そして、自己共分散は

\begin{eqnarray}
cov(y_{t}, y_{t+k}) &=& E[(y_{t} - \bar{y})(y_{t+k} - \bar{y})] \\
&=&  \displaystyle \frac{1}{T}\sum_{t=1}^{T}(y_{t} - \bar{y})(y_{t+k} - \bar{y})
\end{eqnarray}

です。
 

これによって、自己相関係数は以下のようになります。

\begin{eqnarray}
r(k) &=& \frac{\displaystyle \frac{1}{T} \sum_{t=1}^{T}(y_{t} - \bar{y})(y_{t+k} - \bar{y})}{var(y_{t})}
\end{eqnarray}

 

ちなみに、
自己相関係数をプロットしたのは、
相関がコレロ(correlation)なので、コレログラムと呼びます。

上記、よく分析に使われるものとしては誤差や残差を使います。
この誤差や残差は性質が近しく、誤差\(y_{t}\)、残差\(\epsilon_{t}\)ともに、正規分布\(N(0, \sigma^{2})\)となるので、
平均が0、分散が\(\sigma^{2}\)ということから、
この場合の自己相関係数は

\begin{eqnarray}
r(k) &=& \frac{ \displaystyle \frac{1}{T} \sum_{t=1}^{T}{y_{t}y_{t+k}}} {\sigma^{2}}
\end{eqnarray}

と変形することもできます。

自己相関係数

ある時点\(y_{t}\)と\(y_{t-k}\)の自己相関係数は、
\begin{eqnarray}
r(k) &=& \displaystyle \frac{ \sum_{t=k+1}^{T}(y_{t} - \bar{y})(y_{t-k} - \bar{y}) }{ \sum_{t=1}^{T} (y_{t} - \bar{y})^{2}}
\end{eqnarray}

そうすると、さまざまな自己相関係数\(r(1)\)、\(r(2)\)、\(r(3)\)、、を出すことができます。
そして、それを実際にプロットしたものが、コレログラムと呼びます。
 

ダービンワトソン比

ダービンワトソン比の定義は以下です。

\begin{eqnarray}
d &=& \frac{\sum_{t=2}^{T} (u_{t}-u_{t-1})^{2} }{ \sum_{t=1}^{T} u_{t}^{2} }・・・①
\end{eqnarray}

これを展開して、整理してみると、
\begin{eqnarray}
d &=& ① \\
&=& \frac{\sum_{t=2}^{T} u_{t}^{2} -2\sum_{t=2}^{T}u_{t}u_{t-1} + \sum_{t=2}^{T} u_{t-1}^{2} }{ \sum_{t=1}^{T} u_{t}^{2}} \\
&=& \frac{\sum_{t=2}^{T} u_{t}^{2} + \sum_{t=2}^{T} u_{t-1}^{2} }{ \sum_{t=1}^{T} u_{t}^{2}} - 2 \frac{\sum_{t=2}^{T}u_{t}u_{t-1}}{ \sum_{t=1}^{T} u_{t}^{2}} \\
\end{eqnarray}
ここで、第一項について、
\(\sum_{t=2}^{T} u_{t}^{2}\)と\( \sum_{t=2}^{T} u_{t-1}^{2}\)は長期的に見たらほぼ同じに値に近づいていくのて、ほぼ等しいと考えると、
\begin{eqnarray}
\frac{\sum_{t=2}^{T} u_{t}^{2} + \sum_{t=2}^{T} u_{t-1}^{2} }{ \sum_{t=1}^{T} u_{t}^{2}}
&=& 2\frac{\sum_{t=2}^{T} u_{t}^{2}}{{ \sum_{t=1}^{T} u_{t}^{2}}} \\
&=& 2 \\
\end{eqnarray}
とし、
そして、第二項については、\(u_{t}\)の期待値が0であることから、
\begin{eqnarray}
\frac{\sum_{t=2}^{T}u_{t}u_{t-1}}{ \sum_{t=1}^{T} u_{t}^{2}}
&=& \frac{\sum_{t=2}^{T} (u_{t} - E[u_{t}])(u_{t-1} - E[u_{t-1}])} { \sum_{t=1}^{T} (u_{t} - E[u_{t}])^{2}}
\end{eqnarray}
の形式なので、1次自己相関係数です。

これにより、ダービンワトソン\(d\)は、
\begin{eqnarray}
d &=& 2 - 2\rho \\
&=& 2(1 - \rho)
\end{eqnarray}
と表現されます。\(\rho\)は1次自己相関係数です。

そして、ダービンワトソンではこの誤差について深く考えていくことが目的です。
本当に上記のような仮定をしているが、独立なの?と。
 

一回ここで以下のように式を立ててみます。
\(e_{t} = \rho e_{t-1} + \epsilon\)とします。
この式の意味するところとしては、イプシロンを除いたとして考えると、\(e_{t} = \rho e_{t-1}\)となり、
\(e_{t}\)は\(e_{t-1}\)の\(\rho\)倍、つまり相関があるということを意味しています。
逆に\(\rho = 0\)であれば\(e_{t} = \epsilon\)となり、\(e_{t-1}\)との相関は皆無ということになります。

なので、この\(\rho\)の大きさによって検定する。
\(\rho\)は相関を表す値なので、-1から1の値を取る定数とします。
 

無の系列相関(\(\rho = 0\))

このとき、相関がないので、\(\rho = 0\)ということになります。
\(e_{t} = \epsilon\)となるので、全ての誤差は\(\epsilon\)の値、つまりランダムな正規分布\(N(0,\sigma^{2})\)によるサンプル値になります。
これはまさに、通常の回帰分布の仮定と一緒になります。
 

そしてこの場合、ダービンワトソン比\(d\)は\(d= 2(1-\rho) = 2\)となります。

 

正の系列相関(\(\rho > 0\))

正の系列相関:ダービンワトソン比をプロットすると、符号が連続で続く。
 
\(\rho  > 0\)とすると、上記の\(e_{t} = \rho e_{t-1} + \epsilon\)から、
一回\(\rho > 0\)であると、\(e_{t-1} > 0\)の時、そこそこ値が大きくなり、\(\epsilon\)はランダムで正負の値を取るが、それでも\(\rho e_{t-1} > 0\)の値を超えないことの確率が高いので、
となると、式から\(\{ e_{t} \}\)は、同じ符号のものが続くイメージになります。
 

\(\rho = 1\)とした時、\(d = 2(1-1) = 0\)となります。

負の系列相関(\(\rho < 0\))

負の系列相関:ダービンワトソン比をプロットすると、交互に符号が続く。

\begin{eqnarray}
e_{t} = e_{t-1} + \epsilon
\end{eqnarray}
なので、計算すると交互になりそうな予感はあるよね

\(\rho  > 0\)とすると、上記の\(e_{t} = \rho e_{t-1} + \epsilon\)から、
一回\(\rho > 0\)であると、\(e_{t-1} < 0\)の時、そこそこ値が大きくなり、\(\epsilon\)はランダムで正負の値を取るが、それでも\(\rho e_{t-1} > 0\)の値を超えることの確率が高いので、
となると、式から\(\{ e_{t} \}\)は、逆に符号が交互に変わることが続くイメージになります。
\(\rho\)がマイナスでもあるので、直感的にもイプシロンを除けば、1つ前の誤差にマイナスかかってという感じになるので、符号が交互に変わりそうなイメージは容易に想像できそうです。

 
\(\rho = -1\)とした時、\(d = 2(1-(-1)) = 4\)となります。

 

コクラン・オーカット法

時系列データの場合、回帰分析だとうまくいかないことが多いです。
そのため、コクラン・オーカット法という手法を用いて、時系列データでの最小二乗法を適用することを考えます。
 

時系列データの時の回帰係数の求め方としては、
\begin{eqnarray}
y_{t} &=& \alpha X_{t} + u_{t}・・・① \\
u_{t} &=& \rho u_{t-1} + \epsilon_{t}・・・② \\
\end{eqnarray}

\(①\)から、
\(y_{t-1} = \alpha X_{t-1} + u_{t-1}\)なので、
この式と\(①\)を\(②\)に代入して、u_{t}系を消して、
\(y_{t}-\alpha X_{t} = \rho(y_{t-1} - \alpha X_{t-1}) + \epsilon_{t}\)
となります。

この状態で最小二乗法で最小二乗推定値を求めます。

参照

-統計学
-

© 2022 Yosshi Blog Powered by AFFINGER5