Tema 2: Análisis multivariado de series temporales(1)

Curso: Tópicos Avanzados de Series Temporales

Introducción

Contenido

  1. Introducción

  2. Medidas de dependencia (bivariada)

  3. Medidas de dependencia (multivariada)

  4. Estacionariedad

  5. Linealidad

  6. Invertibilidad

  7. Estimación

  8. Prueba de hipótesis para la correlación serial con CCM

  9. VARMA(p,q)

Introducción

  • En la práctica, es común enfrentar situaciones en donde se presentan varias series temporales.

  • Objetivos:

    1. Estudiar la relación dinámica de las variables de interés en el tiempo.
    2. Mejorar las predicciones.

Ejemplo 1: El Niño y la población de peces

  • Se tiene la serie ambiental de índice de oscilación del sur (SOI, Southern Oscillation Index), y la serie de número de peces nuevos (Reclutamiento) de 453 meses de 1950 a 1987.
  • SOI mide cambios en presión relacionada a la temperatura del superficie del mar en el oceano pacífico central, el cual se calienta cada 3-7 años por el efecto El Niño.
par(mfrow = c(2,1)) 
tsplot(soi, ylab="", main="SOI")
tsplot(rec, ylab="", main="Reclutamiento") 

Ejemplo 2: Imagen por resonancia magnética

  • Un estímulo fue aplicado a cinco personas en la mano por 32 segundos y luego paró el estímulo por otros 32 segundos, sucesivamente.
  • Durante 256 segundos, cada 2 segundos se registró la intensidad del dependiente del nivel en la sangre (BOLD, blood oxygenation-level dependent signal intensity), la cual mide áreas de activación en el celebro \((T=128)\).
par(mfrow=c(2,1), mar=c(3,2,1,0)+.5, mgp=c(1.6,.6,0))  
ts.plot(fmri1[,2:5], col=1:4, ylab="BOLD", xlab="", main="Corteza")
ts.plot(fmri1[,6:9], col=1:4, ylab="BOLD", xlab="", main="Tálamo y cerebelo")
mtext("Time (1 pt = 2 sec)", side=1, line=2) 

Medidas de dependencia (bivariada)

Contenido

  1. Introducción

  2. Medidas de dependencia (bivariada)

  3. Medidas de dependencia (multivariada)

  4. Estacionariedad

  5. Linealidad

  6. Invertibilidad

  7. Estimación

  8. Prueba de hipótesis para la correlación serial con CCM

  9. VARMA(p,q)

Medidas de dependencia (bivariada)

  • Recuerde que la función de autocorrelación es definida por

\[\rho_X(t,s)=\frac{\gamma(t,s)}{\sqrt{\gamma(t,t)\gamma(s,s)}}\]

  • Se puede generalizar estas medidas a dos series \(X_t\) y \(Y_t\). Defina la función de autocovariancia cruzada:

\[\gamma_{XY}(t,s)= Cov(X_t,Y_s) =E\left[ (X_t-\mu_{Xt})(Y_s-\mu_{Ys}) \right]\]

  • la función de autocorrelación cruzada:

\[\rho_{XY}(t,s)= \frac{\gamma_{XY}(t,s)}{\sqrt{\gamma_{X}(t,t)\gamma_{Y}(s,s)}}\]

Definición 1 (Estacionariedad conjunta (bivariada)) Dos series temporales, \(X_t\) y \(Y_t\) se dicen que son conjuntamente estacionarias, si cada serie es estacionaria, y la función de covariancia cruzada

\[\gamma_{XY}(h)= Cov(X_{t+h},Y_t) =E\left[ (X_{t+h}-\mu_{X})(Y_t-\mu_{Y}) \right]\] es una función que solamente depende de \(h\).

De esta forma, podemos definir la función de correlación cruzada de dos series temporales conjuntamente estacionarias por \[\rho_{XY}(h)=\frac{\gamma_{XY}(h)}{\sqrt{\gamma_X(0),\gamma_Y(0)}}\]

Propiedades:

  • \(-1 \leq \rho_{XY}(h) \leq 1\)
  • \(\rho_{XY}(h) \neq \rho_{XY}(-h)\) pues \(Cov(X_2,Y_1)\) y \(Cov(X_1,Y_2)\) no siempre son iguales.
  • \(\rho_{XY}(h) = \rho_{YX}(-h)\)

Estimación

  • la función de autocovariancia cruzada muestral es definida por \[\hat{\gamma}_{XY}(h)=\frac{1}{T}\sum_{t=1}^{T-h} (X_{t+h}-\bar{X})(Y_{t}-\bar{Y}),\]

Note que \(\hat{\gamma}_{XY}(-h)=\hat{\gamma}_{YX}(h)\) para \(h=0,1,...,T-1\).

  • La función de autocorrelación cruzada muestral es definida por \[\hat{\rho}_{XY}(h)=\frac{\hat{\gamma}_{XY}(h)}{\sqrt{\hat{\gamma}_X(0)\hat{\gamma}_Y(0)}}\] Propiedad: La distribución de \(\hat{\rho}_{XY}(h)\) para \(T\) grande es aproximadamente normal con media cero y \[\sigma_{\hat{\rho}_{XY}}=\frac{1}{\sqrt{T}}.\]

Ejemplo 1: El Niño y la población de peces

  • Se tiene la serie ambiental de índice de oscilación del sur (SOI, Southern Oscillation Index), y la serie de número de peces nuevos (Reclutamiento) de 453 meses de 1950 a 1987.
  • SOI mide cambios en presión relacionada a la temperatura del superficie del mar en el oceano pacífico central, el cual se calienta cada 3-7 años por el efecto El Niño.
par(mfrow = c(2,1)) 
tsplot(soi, ylab="", main="SOI")
tsplot(rec, ylab="", main="Reclutamiento") 

(r = round(acf(soi, 6, plot=FALSE)$acf[-1], 3))
[1]  0.604  0.374  0.214  0.050 -0.107 -0.187
(r = round(acf(rec, 6, plot=FALSE)$acf[-1], 3))
[1] 0.922 0.783 0.627 0.477 0.355 0.259
par(mfrow=c(2,2))
plot(lag(soi,-1), soi); legend('topleft', legend=r[1],cex=0.5 )
plot(lag(soi,-6), soi); legend('topleft', legend=r[6],cex=0.5)

plot(lag(rec,-1), rec); legend('topleft', legend=r[1],cex=0.5)
plot(lag(rec,-6), rec); legend('topleft', legend=r[6],cex=0.5)

par(mfrow=c(2,1))
acf1(soi, 48, main="SOI")
 [1]  0.60  0.37  0.21  0.05 -0.11 -0.19 -0.18 -0.10  0.05  0.22  0.36  0.41
[13]  0.31  0.10 -0.06 -0.17 -0.29 -0.37 -0.32 -0.19 -0.04  0.15  0.31  0.35
[25]  0.25  0.10 -0.03 -0.16 -0.28 -0.37 -0.32 -0.16 -0.02  0.17  0.33  0.39
[37]  0.30  0.16  0.00 -0.13 -0.24 -0.27 -0.25 -0.13  0.06  0.21  0.38  0.40
acf1(rec, 48, main="Recrutamiento")
 [1]  0.92  0.78  0.63  0.48  0.36  0.26  0.18  0.13  0.09  0.07  0.06  0.02
[13] -0.04 -0.12 -0.19 -0.24 -0.27 -0.27 -0.24 -0.19 -0.11 -0.03  0.03  0.06
[25]  0.06  0.02 -0.02 -0.06 -0.09 -0.12 -0.13 -0.11 -0.05  0.02  0.08  0.12
[37]  0.10  0.06  0.01 -0.02 -0.03 -0.03 -0.02  0.01  0.06  0.12  0.17  0.20
lag2.plot (soi, rec, 8)

Gráfico de dispersión de REC contra SOI rezagadas

par(mfrow=c(2,1))
ccf2(rec,soi, 36, main="función de correlación cruzada de Rec. contra SOI")
ccf2(soi,rec, 36, main="función de correlación cruzada de SOI contra Rec.")
(r1=ccf(rec,soi, 5, plot=FALSE))

Autocorrelations of series 'X', by lag

-0.4167 -0.3333 -0.2500 -0.1667 -0.0833  0.0000  0.0833  0.1667  0.2500  0.3333 
 -0.259  -0.228  -0.154  -0.086  -0.013   0.025   0.011  -0.042  -0.146  -0.297 
 0.4167 
 -0.527 
(r2=ccf(soi,rec, 5, plot=FALSE))

Autocorrelations of series 'X', by lag

-0.4167 -0.3333 -0.2500 -0.1667 -0.0833  0.0000  0.0833  0.1667  0.2500  0.3333 
 -0.527  -0.297  -0.146  -0.042   0.011   0.025  -0.013  -0.086  -0.154  -0.228 
 0.4167 
 -0.259 
  • Note que \(\hat{\rho}_{XY}(h) = \hat{\rho}_{YX}(-h)\).

Medidas de dependencia (multivariada)

Contenido

  1. Introducción

  2. Medidas de dependencia (bivariada)

  3. Medidas de dependencia (multivariada)

  4. Estacionariedad

  5. Linealidad

  6. Invertibilidad

  7. Estimación

  8. Prueba de hipótesis para la correlación serial con CCM

  9. VARMA(p,q)

Medidas de dependencia (multivariada)

La generalización a series temporales multivariadas con \(k\) componentes, \(X_{t1},...X_{tk}, t=1,...,T\), es intuitivo:

  • El vector de medias es función del tiempo \(t\): \[\mu_t=E(X_t)=\left(\begin{array}{c} \mu_{t1}\\ \vdots \\ \mu_{tk} \end{array}\right).\]

  • La función de autocovariancia cruzada:

\[\gamma_{ij}(t,s)= Cov(X_{ti},X_{sj}) =E\left[ (X_{ti}-\mu_{ti})(X_{sj}-\mu_{sj}) \right]\] para \(i,j=1,...,k.\)

  • O bien, la matriz de autocovariancias: \[\Gamma(t,s)= E[(X_{t}-\mu_{t})(X_{s}-\mu_s)']=E\left[ \left( \begin{array}{c} X_{t1}-\mu_{t1}\\\vdots \\X_{tk}-\mu_{tk} \end{array} \right) \left( X_{t1}-\mu_{t1},\dots ,X_{tk}-\mu_{tk} \right) \right]\]

\[= E\left( \begin{array}{c} (X_{t1}-\mu_{t1})^2 & \dots & (X_{t1}-\mu_{t1})(X_{tk}-\mu_{tk})\\ \vdots & \ddots & \vdots \\(X_{tk}-\mu_{tk})(X_{t1}-\mu_{t1}) & \dots & (X_{tk}-\mu_{tk})^2 \end{array} \right).\]

Estacionariedad

Contenido

  1. Introducción

  2. Medidas de dependencia (bivariada)

  3. Medidas de dependencia (multivariada)

  4. Estacionariedad

  5. Linealidad

  6. Invertibilidad

  7. Estimación

  8. Prueba de hipótesis para la correlación serial con CCM

  9. VARMA(p,q)

Definición 2 (Estacionariedad débil) Sea \(X_t=(X_{t1},...,X_{tk})'\) un vector \(k \times 1\) de series temporales. Se dice que \(X_t\) es débilmente estacionario si:

  • El vector de medias es constante en el tiempo \[\mu=E(X_t)=\left(\begin{array}{c} \mu_1\\ \vdots \\ \mu_k \end{array}\right)\]

  • Y la matriz de autocovariancia depende únicamente del rezago \(h\), i.e. \[\Gamma(h)= E[(X_{t+h}-\mu)(X_{t}-\mu)']\] donde los elementos de la matriz son funciones de covariancia cruzada, \(\gamma_{ij}(h)= Cov(X_{t+h,i},X_{t,j}) =E\left[ (X_{t+h,i}-\mu_{i})(X_{tj}-\mu_{j}) \right]\) para \(i,j=1,...,k\).

  • Note que como \(\gamma_{ij}(h)=\gamma_{ji}(-h)\), entonces

\[\Gamma(-h)=\Gamma'(h)\]

  • la matriz de autocorrelaciones también depende únicamente del rezago \(h\), i.e. \[\boldsymbol{\rho}(h)= D^{-1}\Gamma(h) D^{-1}=\left[ \rho_{h,ij} \right]\] donde \(D=diag\left\lbrace \sigma_1,...,\sigma_k \right\rbrace\) es la matriz diagonal de desviaciones estándares de los componentes de \(X_t\).

  • Al igual que \(\Gamma(h)\), se tiene que \[\boldsymbol{\rho}(-h)=\boldsymbol{\rho}'(h)\]

Estacionariedad estricta

Definición 3 (Estacionariedad estricta) Sea \(X_t=(X_{t1},...,X_{tk})'\) un vector \(k \times 1\) de series temporales. Se dice que \(X_t\) es estrictamente estacionario, si la distribución conjunta multivariada de una colección de m tiempos: \[\left\lbrace X_{t_1},...,X_{t_m} \right\rbrace\] es igual a \[\left\lbrace X_{t_1+h},...,X_{t_m+h} \right\rbrace\] donde \(m,j\) y \(t_1,...,t_m\) son enteros positivos arbitrarios.

Nota

  • Una serie temporal estrictamente estacionaria es débilmente estacionaria, si sus primeros dos momentos existen.

Ruido blanco

Definición 4 (Ruido blanco)  

  • Es una colección de vectores de variables aleatorias no correlacionadas, \(a_t\), con media \(0\) y matriz de covariancias \(\Sigma_a\).

  • Denotado por \(a_t \sim wn(0,\Sigma_a)\).

  • Si una secuencia de variables es i.i.d., i.e. \(a_t \sim iid(0,\Sigma_a)\), entonces \(a_t \sim wn(0,\Sigma_a)\).

  • Sin embargo, si un ruido blanco es Gaussiano, entonces \(a_t \overset{iid}{\sim} N(0,\Sigma_a)\).

  • Considere un ruido blanco Gaussiano: \[a_t \sim N\left( \left( \begin{array}{c} 0\\ 0 \end{array}\right) , \begin{bmatrix}1.5 & 0.8 \\ 0.8 & 1 \end{bmatrix} \right).\]

  • Note que su función de autocovariancia es \[\Gamma(h)=\left\lbrace \begin{aligned} \begin{bmatrix}1.5 & 0.8 \\ 0.8 & 1 \end{bmatrix} & & h = 0, \\ 0, & & h \neq 0. \end{aligned} \right.\]

  • Simulación con \(T=500\).
aa<-mvrnorm(n = 500, mu=c(0,0), Sigma=matrix(c(1.5,0.8,0.8,1),nrow=2))
colnames(aa)<-c("a1","a2")
aa<-data.frame(aa)
tsplot(aa)

stats::acf(aa)

Linealidad

Contenido

  1. Introducción

  2. Medidas de dependencia (bivariada)

  3. Medidas de dependencia (multivariada)

  4. Estacionariedad

  5. Linealidad

  6. Invertibilidad

  7. Estimación

  8. Prueba de hipótesis para la correlación serial con CCM

  9. VARMA(p,q)

Linealidad

  • En la práctica, la mayoría de las series temporales multivariadas no son lineales pero pueden ser aproximada por modelos lineales.

  • Defina el modelo lineal (multivariado):

\[X_t=\mu+\sum_{i=0}^\infty \psi_i a_{t-i}=\mu+ a_{t}+\sum_{i=1}^\infty \psi_i a_{t-i}\] donde \(\mu\) es un vector constante, \(\psi_0=I_k\) es una matriz de identidad de \(k\times k\), \(\psi_i,~i=0,1,...\) matrices constantes, y \(\left\lbrace a_{t}\right\rbrace\), denominado como innovación, es una secuencia de i.i.d. vectores aleatorias con media 0 y matriz de covariancias \(\Sigma_a\), una matriz definitva positiva.

  • El modelo lineal también se puede escribir como:
    • \(X_t=\mu+ a_{t} + \psi_1 a_{t-1}+ \psi_2 a_{t-2} + \dots\)
    • \(X_t=\mu+\psi(B) a_{t}\),
      donde \(\psi(B)=1+\psi_1 B+\psi_2 B^2+\dots\) es el polinomio de medias móviles de orden infinito y \(1\) se entiende como \(I_k\).
  • Un modelo lineal es estacionario si los componentes \(\psi_i\) es absolutamente sumable, i.e.

\[\sum_{i=1}^\infty ||\psi_i|| < \infty \] donde \(||A||\) denota la norma de la matriz \(A\). Un ejemplo es la norma Frobenius \(||A||=\sqrt{tr(AA')}\)

  • Como consecuencia, \(\psi_i \rightarrow 0\) si \(i \rightarrow \infty\).

  • Y tenemos que si \(X_t\) es estacionario, entonces \[E(X_t)=\mu,~~ \Gamma(h)=\sum_{i=0}^\infty \psi_{i+h} \Sigma_a \psi_i'\]

  • Similar al caso univariado, tanto AR, MA y ARMA forman casos particulares de un modelo lineal.

Invertibilidad

Contenido

  1. Introducción

  2. Medidas de dependencia (bivariada)

  3. Medidas de dependencia (multivariada)

  4. Estacionariedad

  5. Linealidad

  6. Invertibilidad

  7. Estimación

  8. Prueba de hipótesis para la correlación serial con CCM

  9. VARMA(p,q)

Invertibilidad

  • El interés es expresar una serie tepmoral \(X_t\) en término de sus valores pasados \(X_{t-i}\) para \(i>0\).

  • Una serie temporal \(X_t\) es invertible si se puede expresar como: \[X_t=c+a_t+\sum_{j=0}^\infty \pi_j X_{t-j}\] donde \(c\) es un vector constante, \(\pi_j,~j>0\) matrices constantes \(k\times k\), y \(\left\lbrace a_{t}\right\rbrace \sim wn(0,\Sigma_a)\).

  • Un modelo invertible también se puede expresar como:

    • \(X_t-\sum\limits_{j=0}^\infty \pi_j X_{t-j}=c+a_t\), o
    • \(\pi(B)X_t =c+a_t\),
      donde \(\pi(B)=1-\sum\limits_{j=0}^\infty \pi_j B\) es el polinomio autorregresivo de orden infinito.

Estimación

Contenido

  1. Introducción

  2. Medidas de dependencia (bivariada)

  3. Medidas de dependencia (multivariada)

  4. Estacionariedad

  5. Linealidad

  6. Invertibilidad

  7. Estimación

  8. Prueba de hipótesis para la correlación serial con CCM

  9. VARMA(p,q)

Estimación de matrices de covariancia cruzada y correlación cruzada

  • La matriz de covariancia cruzada muestral es definida por \[\hat{\Gamma}(h)=\frac{1}{T}\sum_{t=1}^{T-h} (X_{t+h}-\bar{X})(X_{t}-\bar{X})',\] donde \(\bar{X}=\frac{1}{T}\sum\limits_{t=1}^{T} X_{t}\) es el vector de media muestral.

  • La matriz de correlación cruzada muestral (CCM) es definida por

\[\hat{\boldsymbol{\rho}}(h)= \hat{D}^{-1}\hat{\Gamma}(h) \hat{D}^{-1}\] donde \(\hat{D}=diag\left\lbrace \hat{\gamma}_{0,11}^{1/2},...,\hat{\gamma}_{0,kk}^{1/2} \right\rbrace\) con \(\left\lbrace\hat{\gamma}_{0,ii}\right\rbrace\) es el i-ésimo elemento de la diagonal de \(\hat{\Gamma(0)}\).

  • Se puede comprobar que \(\hat{\Gamma}(-h)=\hat{\Gamma}(h)'\) y \(\hat{\boldsymbol{\rho}}(-h)=\hat{\boldsymbol{\rho}}(h)'\)
  • Si \(X_t\) es ruido blanco, entonces para \(T\) suficientemente grande,

\[Var(\hat{\rho}_{h,ij}) \approx \frac{1}{T},~~ h>0\]

\[Var(\hat{\rho}_{0,ij}) \approx \frac{(1-\rho_{h,ij})^2}{T},~~ i \neq j\]

\[Cov(\hat{\rho}_{h,ij},\hat{\rho}_{-h,ij}) \approx \frac{\rho_{0,ij}^2}{T}\]

\[Cov(\hat{\rho}_{h,ij},\hat{\rho}_{l,uv}) \approx 0, h \neq l\]

  • Si \(X_t\) es VMA(q), entonces \[Var(\hat{\rho}_{h,ij}) \approx \frac{1}{T} \left( 1+2\sum_{v=1}^{q} \rho_{v,ii}\rho_{v,jj} \right),~~ |h|>q\]

  • En la práctica, cuando \(k\) es grande, es complicado estudiar \(k^2\) correlaciones cruzadas simultáneamente.

  • La matriz simplificada de CCM:

\[s_{h,ij} = \left\lbrace \begin{eqnarray} + & ~~& \text{si}~~\hat{\rho}_{h,ij} \geq 2/\sqrt{T} \\ -& ~~&\text{si}~~ \hat{\rho}_{h,ij} \leq -2/\sqrt{T} \\ . & ~~& \text{si}~~ |\hat{\rho}_{h,ij}| < 2/\sqrt{T} \end{eqnarray}\right.\]

  • Nos indican cuáles son significativos a un 5% de significancia bajo el supuesto de un ruido blanco.

Ruido blanco

  • Considere \[a_t \sim N\left(0, \begin{bmatrix}1.5 & 0.8 \\ 0.8 & 1 \end{bmatrix} \right).\]

  • Note que su función de autocovariancia es \[\Gamma(h)=\left\lbrace \begin{aligned} \begin{bmatrix}1.5 & 0.8 \\ 0.8 & 1 \end{bmatrix} & & h = 0 \\ 0, & & h \neq 0, \end{aligned} \right.\]

  • Simulación con \(T=500\).

aa<-mvrnorm(n = 500, mu=c(0,0), Sigma=matrix(c(1.5,0.8,0.8,1),nrow=2))
colnames(aa)<-c("a1","a2")
aa<-data.frame(aa)
tsplot(aa)

Ruido blanco

MTS::ccm(aa, lags= 4) 
[1] "Covariance matrix:"
      a1    a2
a1 1.438 0.778
a2 0.778 0.989
CCM at lag:  0 
      [,1]  [,2]
[1,] 1.000 0.652
[2,] 0.652 1.000
Simplified matrix: 
CCM at lag:  1 
. . 
. . 
CCM at lag:  2 
. . 
. . 
CCM at lag:  3 
. - 
. - 
CCM at lag:  4 
. . 
. . 

Hit Enter for p-value plot of individual ccm:  

  • Otra posibilidad es usar correlograma y función de autocorrelación cruzada.
stats::acf(aa)

Prueba de hipótesis para la correlación serial con CCM

Contenido

  1. Introducción

  2. Medidas de dependencia (bivariada)

  3. Medidas de dependencia (multivariada)

  4. Estacionariedad

  5. Linealidad

  6. Invertibilidad

  7. Estimación

  8. Prueba de hipótesis para la correlación serial con CCM

  9. VARMA(p,q)

Prueba de hipótesis para la correlación serial con CCM

  • Al igual que el caso univariado, se plantean las hipótesis:

\[H_0: \boldsymbol{\Gamma}_1=...=\boldsymbol{\Gamma}_m=0\]

\[H_1: \boldsymbol{\Gamma}_i \neq 0$, para algún $1\leq i \leq m\]

o bien,

\[H_0: \boldsymbol{\rho}_1=...=\boldsymbol{\rho}_m=0\]

\[H_1: \boldsymbol{\rho}_i \neq 0$, para algún $1\leq i \leq m\]

  • El estadístico de Portmanteau multivariado: la versión multivariada de la prueba de Ljung-Box. \[Q_m=T^2 \sum_{l=1}^m \frac{1}{T-l} tr \left(\hat{\boldsymbol{\Gamma}}'_l\hat{\boldsymbol{\Gamma}}^{-1}_0\hat{\boldsymbol{\Gamma}}_l\hat{\boldsymbol{\Gamma}}^{-1}_0\right)\]

donde \(tr(A)\) es la traza de la matriz A.

  • Bajo el supuesto de \(H_0\),i.e. \(\boldsymbol{\Gamma}_l=0,~ l>0\), y \(X_t\) es distribuída normalmente, para \(T\) y \(l\) suficientemente grandes, el estadístico se aproxima a la distribución \(\chi^2_{(mk^2)}\).

Ruido blanco

sig=diag(3)
z=mvrnorm(200,rep(0,3),sig)
mq(z,4)
Ljung-Box Statistics:  
       m       Q(m)     df    p-value
[1,]  1.00      7.47    9.00     0.59
[2,]  2.00     11.99   18.00     0.85
[3,]  3.00     16.14   27.00     0.95
[4,]  4.00     18.91   36.00     0.99

VARMA(p,q)

Contenido

  1. Introducción

  2. Medidas de dependencia (bivariada)

  3. Medidas de dependencia (multivariada)

  4. Estacionariedad

  5. Linealidad

  6. Invertibilidad

  7. Estimación

  8. Prueba de hipótesis para la correlación serial con CCM

  9. VARMA(p,q)

VARMA(p,q)

  • Conocido como VARMA o MARMA.
  • ARMA(p,q) vectorial de \(k\) dimensiones se define como

\[X_{t}=\phi_0+ \sum_{i=1}^p \phi_i X_{t-i} - \sum_{j=1}^q \theta_j {w}_{t-j} +a_{t}\] con \(\phi_p, \theta_q \neq 0\) y \(\Sigma_w\) definida positiva.

  • Los coeficientes \(\phi_i :i=1,...,p\), \(\theta_j:j=1,...,q\) son matrices \(k \times k\)
  • Al igual que el caso univariado, si un VARMA es estacionario se puede expresar su versión centrada, o bien sin pérdida de generalidad suponer que \(\phi_0=0\).

  • Además, su representación es similar al caso univariado

\[\phi(B) X_{t}= \theta(B) a_{t}\] en donde

\(\phi(B)=I- \phi_1 B-...- \phi_p B^p\) es el operador autorregresivo y

\(\theta(B)=I-\theta_1 B-...- \theta_q B^q\) es el operador de medias móviles.

  • El modelo VARMA se dice que es:
    • Causal (estacionario) si las raíces de \(|\phi(B)|\), están fuera del círculo unitario.
    • Invertible si las raíces de \(|\theta(B)|\), están fuera del círculo unitario.
  • De la misma forma, si se satisfacen estas condiciones, el modelo tiene su representación \(AR\) y \(MA\) de orden infinito.

Paquetes en R

Para replicar los ejemplos de esta presentación, necesitan estos paquetes:

library(ggplot2)
library(astsa)
library(MASS)
library(MTS)