Contenido
Introducción
Medidas de dependencia (bivariada)
Medidas de dependencia (multivariada)
Estacionariedad
Linealidad
Invertibilidad
Estimación
Prueba de hipótesis para la correlación serial con CCM
VARMA(p,q)
En la práctica, es común enfrentar situaciones en donde se presentan varias series temporales.
Objetivos:
Contenido
Introducción
Medidas de dependencia (bivariada)
Medidas de dependencia (multivariada)
Estacionariedad
Linealidad
Invertibilidad
Estimación
Prueba de hipótesis para la correlación serial con CCM
VARMA(p,q)
\[\rho_X(t,s)=\frac{\gamma(t,s)}{\sqrt{\gamma(t,t)\gamma(s,s)}}\]
\[\gamma_{XY}(t,s)= Cov(X_t,Y_s) =E\left[ (X_t-\mu_{Xt})(Y_s-\mu_{Ys}) \right]\]
\[\rho_{XY}(t,s)= \frac{\gamma_{XY}(t,s)}{\sqrt{\gamma_{X}(t,t)\gamma_{Y}(s,s)}}\]
Definición 1 (Estacionariedad conjunta (bivariada)) Dos series temporales, \(X_t\) y \(Y_t\) se dicen que son conjuntamente estacionarias, si cada serie es estacionaria, y la función de covariancia cruzada
\[\gamma_{XY}(h)= Cov(X_{t+h},Y_t) =E\left[ (X_{t+h}-\mu_{X})(Y_t-\mu_{Y}) \right]\] es una función que solamente depende de \(h\).
De esta forma, podemos definir la función de correlación cruzada de dos series temporales conjuntamente estacionarias por \[\rho_{XY}(h)=\frac{\gamma_{XY}(h)}{\sqrt{\gamma_X(0),\gamma_Y(0)}}\]
Propiedades:
Note que \(\hat{\gamma}_{XY}(-h)=\hat{\gamma}_{YX}(h)\) para \(h=0,1,...,T-1\).
[1] 0.60 0.37 0.21 0.05 -0.11 -0.19 -0.18 -0.10 0.05 0.22 0.36 0.41
[13] 0.31 0.10 -0.06 -0.17 -0.29 -0.37 -0.32 -0.19 -0.04 0.15 0.31 0.35
[25] 0.25 0.10 -0.03 -0.16 -0.28 -0.37 -0.32 -0.16 -0.02 0.17 0.33 0.39
[37] 0.30 0.16 0.00 -0.13 -0.24 -0.27 -0.25 -0.13 0.06 0.21 0.38 0.40
[1] 0.92 0.78 0.63 0.48 0.36 0.26 0.18 0.13 0.09 0.07 0.06 0.02
[13] -0.04 -0.12 -0.19 -0.24 -0.27 -0.27 -0.24 -0.19 -0.11 -0.03 0.03 0.06
[25] 0.06 0.02 -0.02 -0.06 -0.09 -0.12 -0.13 -0.11 -0.05 0.02 0.08 0.12
[37] 0.10 0.06 0.01 -0.02 -0.03 -0.03 -0.02 0.01 0.06 0.12 0.17 0.20
Gráfico de dispersión de REC contra SOI rezagadas
Autocorrelations of series 'X', by lag
-0.4167 -0.3333 -0.2500 -0.1667 -0.0833 0.0000 0.0833 0.1667 0.2500 0.3333
-0.259 -0.228 -0.154 -0.086 -0.013 0.025 0.011 -0.042 -0.146 -0.297
0.4167
-0.527
Autocorrelations of series 'X', by lag
-0.4167 -0.3333 -0.2500 -0.1667 -0.0833 0.0000 0.0833 0.1667 0.2500 0.3333
-0.527 -0.297 -0.146 -0.042 0.011 0.025 -0.013 -0.086 -0.154 -0.228
0.4167
-0.259
Contenido
Introducción
Medidas de dependencia (bivariada)
Medidas de dependencia (multivariada)
Estacionariedad
Linealidad
Invertibilidad
Estimación
Prueba de hipótesis para la correlación serial con CCM
VARMA(p,q)
La generalización a series temporales multivariadas con \(k\) componentes, \(X_{t1},...X_{tk}, t=1,...,T\), es intuitivo:
El vector de medias es función del tiempo \(t\): \[\mu_t=E(X_t)=\left(\begin{array}{c} \mu_{t1}\\ \vdots \\ \mu_{tk} \end{array}\right).\]
La función de autocovariancia cruzada:
\[\gamma_{ij}(t,s)= Cov(X_{ti},X_{sj}) =E\left[ (X_{ti}-\mu_{ti})(X_{sj}-\mu_{sj}) \right]\] para \(i,j=1,...,k.\)
\[= E\left( \begin{array}{c} (X_{t1}-\mu_{t1})^2 & \dots & (X_{t1}-\mu_{t1})(X_{tk}-\mu_{tk})\\ \vdots & \ddots & \vdots \\(X_{tk}-\mu_{tk})(X_{t1}-\mu_{t1}) & \dots & (X_{tk}-\mu_{tk})^2 \end{array} \right).\]
Contenido
Introducción
Medidas de dependencia (bivariada)
Medidas de dependencia (multivariada)
Estacionariedad
Linealidad
Invertibilidad
Estimación
Prueba de hipótesis para la correlación serial con CCM
VARMA(p,q)
Definición 2 (Estacionariedad débil) Sea \(X_t=(X_{t1},...,X_{tk})'\) un vector \(k \times 1\) de series temporales. Se dice que \(X_t\) es débilmente estacionario si:
El vector de medias es constante en el tiempo \[\mu=E(X_t)=\left(\begin{array}{c} \mu_1\\ \vdots \\ \mu_k \end{array}\right)\]
Y la matriz de autocovariancia depende únicamente del rezago \(h\), i.e. \[\Gamma(h)= E[(X_{t+h}-\mu)(X_{t}-\mu)']\] donde los elementos de la matriz son funciones de covariancia cruzada, \(\gamma_{ij}(h)= Cov(X_{t+h,i},X_{t,j}) =E\left[ (X_{t+h,i}-\mu_{i})(X_{tj}-\mu_{j}) \right]\) para \(i,j=1,...,k\).
\[\Gamma(-h)=\Gamma'(h)\]
la matriz de autocorrelaciones también depende únicamente del rezago \(h\), i.e. \[\boldsymbol{\rho}(h)= D^{-1}\Gamma(h) D^{-1}=\left[ \rho_{h,ij} \right]\] donde \(D=diag\left\lbrace \sigma_1,...,\sigma_k \right\rbrace\) es la matriz diagonal de desviaciones estándares de los componentes de \(X_t\).
Al igual que \(\Gamma(h)\), se tiene que \[\boldsymbol{\rho}(-h)=\boldsymbol{\rho}'(h)\]
Definición 3 (Estacionariedad estricta) Sea \(X_t=(X_{t1},...,X_{tk})'\) un vector \(k \times 1\) de series temporales. Se dice que \(X_t\) es estrictamente estacionario, si la distribución conjunta multivariada de una colección de m tiempos: \[\left\lbrace X_{t_1},...,X_{t_m} \right\rbrace\] es igual a \[\left\lbrace X_{t_1+h},...,X_{t_m+h} \right\rbrace\] donde \(m,j\) y \(t_1,...,t_m\) son enteros positivos arbitrarios.
Nota
Definición 4 (Ruido blanco)
Es una colección de vectores de variables aleatorias no correlacionadas, \(a_t\), con media \(0\) y matriz de covariancias \(\Sigma_a\).
Denotado por \(a_t \sim wn(0,\Sigma_a)\).
Si una secuencia de variables es i.i.d., i.e. \(a_t \sim iid(0,\Sigma_a)\), entonces \(a_t \sim wn(0,\Sigma_a)\).
Sin embargo, si un ruido blanco es Gaussiano, entonces \(a_t \overset{iid}{\sim} N(0,\Sigma_a)\).
Considere un ruido blanco Gaussiano: \[a_t \sim N\left( \left( \begin{array}{c} 0\\ 0 \end{array}\right) , \begin{bmatrix}1.5 & 0.8 \\ 0.8 & 1 \end{bmatrix} \right).\]
Note que su función de autocovariancia es \[\Gamma(h)=\left\lbrace \begin{aligned} \begin{bmatrix}1.5 & 0.8 \\ 0.8 & 1 \end{bmatrix} & & h = 0, \\ 0, & & h \neq 0. \end{aligned} \right.\]
Contenido
Introducción
Medidas de dependencia (bivariada)
Medidas de dependencia (multivariada)
Estacionariedad
Linealidad
Invertibilidad
Estimación
Prueba de hipótesis para la correlación serial con CCM
VARMA(p,q)
En la práctica, la mayoría de las series temporales multivariadas no son lineales pero pueden ser aproximada por modelos lineales.
Defina el modelo lineal (multivariado):
\[X_t=\mu+\sum_{i=0}^\infty \psi_i a_{t-i}=\mu+ a_{t}+\sum_{i=1}^\infty \psi_i a_{t-i}\] donde \(\mu\) es un vector constante, \(\psi_0=I_k\) es una matriz de identidad de \(k\times k\), \(\psi_i,~i=0,1,...\) matrices constantes, y \(\left\lbrace a_{t}\right\rbrace\), denominado como innovación, es una secuencia de i.i.d. vectores aleatorias con media 0 y matriz de covariancias \(\Sigma_a\), una matriz definitva positiva.
\[\sum_{i=1}^\infty ||\psi_i|| < \infty \] donde \(||A||\) denota la norma de la matriz \(A\). Un ejemplo es la norma Frobenius \(||A||=\sqrt{tr(AA')}\)
Como consecuencia, \(\psi_i \rightarrow 0\) si \(i \rightarrow \infty\).
Y tenemos que si \(X_t\) es estacionario, entonces \[E(X_t)=\mu,~~ \Gamma(h)=\sum_{i=0}^\infty \psi_{i+h} \Sigma_a \psi_i'\]
Similar al caso univariado, tanto AR, MA y ARMA forman casos particulares de un modelo lineal.
Contenido
Introducción
Medidas de dependencia (bivariada)
Medidas de dependencia (multivariada)
Estacionariedad
Linealidad
Invertibilidad
Estimación
Prueba de hipótesis para la correlación serial con CCM
VARMA(p,q)
El interés es expresar una serie tepmoral \(X_t\) en término de sus valores pasados \(X_{t-i}\) para \(i>0\).
Una serie temporal \(X_t\) es invertible si se puede expresar como: \[X_t=c+a_t+\sum_{j=0}^\infty \pi_j X_{t-j}\] donde \(c\) es un vector constante, \(\pi_j,~j>0\) matrices constantes \(k\times k\), y \(\left\lbrace a_{t}\right\rbrace \sim wn(0,\Sigma_a)\).
Un modelo invertible también se puede expresar como:
Contenido
Introducción
Medidas de dependencia (bivariada)
Medidas de dependencia (multivariada)
Estacionariedad
Linealidad
Invertibilidad
Estimación
Prueba de hipótesis para la correlación serial con CCM
VARMA(p,q)
La matriz de covariancia cruzada muestral es definida por \[\hat{\Gamma}(h)=\frac{1}{T}\sum_{t=1}^{T-h} (X_{t+h}-\bar{X})(X_{t}-\bar{X})',\] donde \(\bar{X}=\frac{1}{T}\sum\limits_{t=1}^{T} X_{t}\) es el vector de media muestral.
La matriz de correlación cruzada muestral (CCM) es definida por
\[\hat{\boldsymbol{\rho}}(h)= \hat{D}^{-1}\hat{\Gamma}(h) \hat{D}^{-1}\] donde \(\hat{D}=diag\left\lbrace \hat{\gamma}_{0,11}^{1/2},...,\hat{\gamma}_{0,kk}^{1/2} \right\rbrace\) con \(\left\lbrace\hat{\gamma}_{0,ii}\right\rbrace\) es el i-ésimo elemento de la diagonal de \(\hat{\Gamma(0)}\).
\[Var(\hat{\rho}_{h,ij}) \approx \frac{1}{T},~~ h>0\]
\[Var(\hat{\rho}_{0,ij}) \approx \frac{(1-\rho_{h,ij})^2}{T},~~ i \neq j\]
\[Cov(\hat{\rho}_{h,ij},\hat{\rho}_{-h,ij}) \approx \frac{\rho_{0,ij}^2}{T}\]
\[Cov(\hat{\rho}_{h,ij},\hat{\rho}_{l,uv}) \approx 0, h \neq l\]
Si \(X_t\) es VMA(q), entonces \[Var(\hat{\rho}_{h,ij}) \approx \frac{1}{T} \left( 1+2\sum_{v=1}^{q} \rho_{v,ii}\rho_{v,jj} \right),~~ |h|>q\]
En la práctica, cuando \(k\) es grande, es complicado estudiar \(k^2\) correlaciones cruzadas simultáneamente.
\[s_{h,ij} = \left\lbrace \begin{eqnarray} + & ~~& \text{si}~~\hat{\rho}_{h,ij} \geq 2/\sqrt{T} \\ -& ~~&\text{si}~~ \hat{\rho}_{h,ij} \leq -2/\sqrt{T} \\ . & ~~& \text{si}~~ |\hat{\rho}_{h,ij}| < 2/\sqrt{T} \end{eqnarray}\right.\]
Considere \[a_t \sim N\left(0, \begin{bmatrix}1.5 & 0.8 \\ 0.8 & 1 \end{bmatrix} \right).\]
Note que su función de autocovariancia es \[\Gamma(h)=\left\lbrace \begin{aligned} \begin{bmatrix}1.5 & 0.8 \\ 0.8 & 1 \end{bmatrix} & & h = 0 \\ 0, & & h \neq 0, \end{aligned} \right.\]
Simulación con \(T=500\).
Contenido
Introducción
Medidas de dependencia (bivariada)
Medidas de dependencia (multivariada)
Estacionariedad
Linealidad
Invertibilidad
Estimación
Prueba de hipótesis para la correlación serial con CCM
VARMA(p,q)
\[H_0: \boldsymbol{\Gamma}_1=...=\boldsymbol{\Gamma}_m=0\]
\[H_1: \boldsymbol{\Gamma}_i \neq 0$, para algún $1\leq i \leq m\]
o bien,
\[H_0: \boldsymbol{\rho}_1=...=\boldsymbol{\rho}_m=0\]
\[H_1: \boldsymbol{\rho}_i \neq 0$, para algún $1\leq i \leq m\]
donde \(tr(A)\) es la traza de la matriz A.
Ljung-Box Statistics:
m Q(m) df p-value
[1,] 1.00 7.47 9.00 0.59
[2,] 2.00 11.99 18.00 0.85
[3,] 3.00 16.14 27.00 0.95
[4,] 4.00 18.91 36.00 0.99
Contenido
Introducción
Medidas de dependencia (bivariada)
Medidas de dependencia (multivariada)
Estacionariedad
Linealidad
Invertibilidad
Estimación
Prueba de hipótesis para la correlación serial con CCM
VARMA(p,q)
\[X_{t}=\phi_0+ \sum_{i=1}^p \phi_i X_{t-i} - \sum_{j=1}^q \theta_j {w}_{t-j} +a_{t}\] con \(\phi_p, \theta_q \neq 0\) y \(\Sigma_w\) definida positiva.
Al igual que el caso univariado, si un VARMA es estacionario se puede expresar su versión centrada, o bien sin pérdida de generalidad suponer que \(\phi_0=0\).
Además, su representación es similar al caso univariado
\[\phi(B) X_{t}= \theta(B) a_{t}\] en donde
\(\phi(B)=I- \phi_1 B-...- \phi_p B^p\) es el operador autorregresivo y
\(\theta(B)=I-\theta_1 B-...- \theta_q B^q\) es el operador de medias móviles.
Para replicar los ejemplos de esta presentación, necesitan estos paquetes: