Tema 6: Modelos ARIMA de Box&Jenkins(3)

Curso: Análisis de series temporales

Paquetes de R

Para este tema, se necesita cargar estos paquetes:

library(ggplot2)
library(forecast)
library(fpp2)
library(astsa)

Introducción

Contenido

  1. Introducción

  2. Identificación

  3. Estimación

  4. Diagnóstico de modelos ARIMA

  5. Criterio de información

  6. El contraste de raíz unitaria

Introducción

  • El enfoque de Box-Jenkins es adecuado para series estacionarias ya que requiere estimar la ACF y PACF.

  • En la práctica, las series no estacionarias se pueden realizar transformaciones apropiadas en series estacionarias.

    • Transformación logarítmica y diferenciación.
    • El uso de algún método para eliminar la tendencia.
  • El enfoque de B&J consiste en 3 etapas:

    1. Identificación.
    2. Estimación.
    3. Chequeo.

Identificación

Contenido

  1. Introducción

  2. Identificación

  3. Estimación

  4. Diagnóstico de modelos ARIMA

  5. Criterio de información

  6. El contraste de raíz unitaria

Identificación

  • Asegúrese que la serie es estacionaria.

  • Si no es estacionaria, realice una transformación apropiada para que sea estacionaria.

  • Se trata de calcular las ACF y PACF. muestrales y analizarlas para encontrar uno o varios modelos ARIMA que sean apropiados para describir los datos.

  • Box & Jenkins (1976) recomiendan examinar un número de rezagos de las ACF y PACF a lo más igual a \(1/4\) de las observaciones de la serie.

  • Si la media es estacionaria (constante), la ACF estimada debe caer rápidamente a cero.

  • Si la media no es estacionaria (no es constante), la ACF estimada cae lentamente a cero.

  • Aunque en la práctica los modelos AR(1), AR(2), MA(1), MA(2) y ARMA(1,1) ocurren muy frecuentemente, en muchas ocaciones la etapa de identificación puede ser difícil debido a una gran variedad de modelos que existen.

  • Bajo \(H_0: \rho_k=0\), \(r_k\) se distribuye aproximadamente normal con media 0 y error estándar \[e.e.(r_k) \cong \left( \frac{1+2\sum\limits_{j=1}^{k-1}r_j^2}{T} \right)^{1/2},\] suponiendo que las series son estacionarias con ruido blanco gaussiano \(a_t\), cuyo verdadero orden MA es \(k-1\).

  • De esta forma, se puede plantear el contraste: \(H_0: \rho_k=0\) para \(k=1,2,3,...\) con el estadístico t: \[t=\frac{r_k-0}{e.e.(r_k)}\]

  • Para el caso del PACF muestral \(r_{kk}\), éste se distribuye aproximadamente normal para \(T\) grande, con media 0 y error estándar: \[e.e.(r_{kk})=\frac{1}{\sqrt{T}}.\]
  • En los paquetes estadísticos generalmente ya proporcionan los correlogramas con las bandas de confianza alrededor de cero con \(\pm 2\) errores estándares.

Estimación

Contenido

  1. Introducción

  2. Identificación

  3. Estimación

  4. Diagnóstico de modelos ARIMA

  5. Criterio de información

  6. El contraste de raíz unitaria

Estimación

  • Después de la identificación de uno o varios modelos ARMA, el siguiente paso es la estimación de los parámetros.

  • Existe una variedad de métodos de estimación como:

    • métodos de momentos
    • máxima verosimilitud
    • mínimos cuadrados
  • El método de estimación más utilizado es la estimación por máxima verosimilitud.

  • Dada una serie observada, la idea es maximizar los valores de \(\phi_i\) y \(\theta_j\) del modelo identificado.

  • Después de estimar los parámetros del modelo ARIMA, es necesario chequear:

    • las condiciones de estacionariedad y de invertibilidad,
    • la significancia de los coeficientes estimados.

Estimación por máxima verosimilitud

Función de verosimilitud condicional: - Bajo el supuesto de que \(a_t\) son ruidos blancos gaussianos, tenemos que la función de densidad conjunta de \(a_1,...,a_T\) es \[f(a_1,...,a_T)=(2 \pi)^{-n/2}(\sigma_a)^{-n} \exp \left\lbrace -\sum\limits_{t=1}^T \frac{a_t^2}{2 \sigma_a^2} \right\rbrace\]

  • Para el caso de AR(1), \[a_t=Z_t-C-\phi_1 Z_{t-1},~~\text{para}~~ t=1,...,T,\] se tiene que

\[L(C,\phi_1,\sigma_a^2|Z_1,...,Z_T)=(2 \pi)^{-n/2}(\sigma_a)^{-n} \exp \left\lbrace -\sum\limits_{t=1}^T \frac{(Z_t-C-\phi_1 Z_{t-1})^2}{2 \sigma_a^2} \right\rbrace.\]

\[L(C,\phi_1,\sigma_a^2)=(2 \pi)^{-n/2}(\sigma_a)^{-n} \exp \left\lbrace -\sum\limits_{t=1}^T \frac{(Z_t-C-\phi_1 Z_{t-1})^2}{2 \sigma_a^2} \right\rbrace.\]

  • Luego, la función log-verosimilitud es definida como \[l(C,\phi_1,\sigma_a^2)= -(\frac{n}{2}) \log(2 \pi)-n \log(\sigma_a) \left\lbrace -\sum\limits_{t=1}^T \frac{(Z_t-C-\phi_1 Z_{t-1})^2}{2 \sigma_a^2} \right\rbrace\]

\[\Rightarrow l(C,\phi_1,\sigma_a^2)\propto -n \log(\sigma_a) -\left\lbrace \sum\limits_{t=1}^T \frac{(Z_t-C-\phi_1 Z_{t-1})^2}{2 \sigma_a^2} \right\rbrace.\]

  • La idea es maximizar \(l(C,\phi_1,\sigma_a^2)\).
  • De manera general, después de hacer \(d\) diferencias, el modelo ARMA resultante es estacionario e invertible y se puede escribir como \[a_t=Z_t-C-\phi_1 Z_{t-1}-\phi_2 Z_{t-2}-...-\phi_p Z_{t-p}\] \[+\theta_1 a_{t-1}+\theta_2 a_{t-2}+...+\theta_q a_{t-q}\] Su función de log-verosimilitud es: \[l(\boldsymbol{\theta}|Z_1,...,Z_T)\propto -n \log\sigma_a -\frac{S(\boldsymbol{\theta},\boldsymbol{Z},\boldsymbol{a})}{2 \sigma_a^2},\] donde
    \(\boldsymbol{\theta}=(C,\phi_1,...,\phi_p,\theta_1,...,\theta_q,\sigma_a^2)\)
    \(S(\boldsymbol{\theta},\boldsymbol{Z},\boldsymbol{a})=\sum\limits_{t=1}^T a_t^2(\boldsymbol{\theta},\boldsymbol{Z},\boldsymbol{a})\) (suma de cuadrados condicional)

  • El procedimiento de maximizar \(l(\boldsymbol{\theta}|Z_1,...,Z_T)\) usa algún método de optimización.

función de verosimilitud no condicional:

  • Bajo el supuesto de normalidad, el modelo ARMA tiene su media y matriz de autocovariancia teórica definida y su función de log-verosimilitud es: \[l(\boldsymbol{\theta}|Z_1,...,Z_T) \cong -n \log\sigma_a -\frac{S(\boldsymbol{\theta},\boldsymbol{Z})}{2 \sigma_a^2},\] donde
    \(\boldsymbol{\theta}=(C,\phi_1,...,\phi_p,\theta_1,...,\theta_q,\sigma_a^2)\)
    \(S(\boldsymbol{\theta},\boldsymbol{Z})=\sum\limits_{t=1}^T a_t^2(\boldsymbol{\theta},\boldsymbol{Z})\) (suma de cuadrados no condicional)

Diagnóstico de modelos ARIMA

Contenido

  1. Introducción

  2. Identificación

  3. Estimación

  4. Diagnóstico de modelos ARIMA

  5. Criterio de información

  6. El contraste de raíz unitaria

Diagnóstico de modelos ARIMA

  • Después de identificar uno o varios modelos de candidato y estimar los parámetros de los modelos, se debe continuar con el diagnóstico de estos modelos.

  • El objetivo es verificar si el modelo estimado es adecuado para la serie analizada.

  • El supuesto más importante es que los residuos no esten correlacionados.

  • El chequeo inicial se realiza examinando el correlograma de los residuos \(\hat{a}_t\).

  • En la práctica Pankratz (1983) sugiere que:

    • Para los rezagos 1, 2 y 3: el valor absoluto del estadístico t sea menor que 1.25.
    • Para los rezagos mayores que 3: el valor absoluto del estadístico t sea menor que 1.6.
    • Estos valores son llamados valores de alerta.
  • Note que si algún valor t de una ACF residual es mayor que los valores críticos, se rechaza la \(H_0\) de que \(\rho_k=0\). Por lo que se concluye que los \(a_t\) no es ruido blanco.

  • La presencia de autocorrelaciones en los residuos \(a_t\) implica que hay algún patrón temporal en la serie \(Z_t\) que no ha sido modelizado con el ARIMA.

  • Si este es el caso, se debe identificar un nuevo modelo re-examinando la ACF y la PACF de la serie \(Z_t\), y repetir las etapas de estimación y verificación.

  • El proceso termina hasta llegar a un modelo con residuos no autocorrelacionados.

  • Note que el procedimiento anterior se trata de realizar contrastes de hipótesis por separado para cada rezago \(k\).

  • Se puede realizar el contraste Q de Ljung-Box: \[H_0: \rho_1(a)=\rho_2(a)=...=\rho_K(a)=0\] con la estadística: \[Q=T(T+2) \sum\limits_{k=1}^K \frac{1}{T-k} r_k^2(\hat{a}).\] Bajo \(H_0\), \(Q\) se distribuye aproximadamente como \(\chi_{K-m}^2\) donde \(m\) es el número de parámetros estimados en el modelo ARIMA.

  • Para \(Q\) grande, significa que las primeras \(K\) autocorrelaciones residuales son significativamente diferentes que cero. Si este es el caso, se debe volver a la etapa de identificación de un nuevo modelo.

Criterio de información

Contenido

  1. Introducción

  2. Identificación

  3. Estimación

  4. Diagnóstico de modelos ARIMA

  5. Criterio de información

  6. El contraste de raíz unitaria

Criterio de información

  • Criterio de información de Akaike \((AIC)\):

\[AIC= -2 \ln L + 2 k\] donde
\(L\) es la función de verosimilitud,
\(k=p+q+c+1\) \(c=1\) si \(C \neq 0\) y \(c=0\) si \(C = 0\)

Note que \((p+q+c+1)\) es la cantidad de parámetros estimados.

  • AIC corregido \((AIC_c)\):

\[AIC_c= AIC + \frac{2(p+q+c+1)(p+q+c+2)}{T-p-q-c-2}\]

  • Criterio de información Bayesiana \((BIC)\): \[BIC= AIC + (\log T - 2) (p+q+c+1)\]

El contraste de raíz unitaria

Contenido

  1. Introducción

  2. Identificación

  3. Estimación

  4. Diagnóstico de modelos ARIMA

  5. Criterio de información

  6. El contraste de raíz unitaria

El contraste de raíz unitaria

  • Considere el modelo AR(1):

\[Z_t=\phi_1 Z_{t-1}+a_t\] Si se toma una diferencia:

\[W_t=Z_t-Z_{t-1}=\phi_1 Z_{t-1}+a_t-Z_{t-1}=(\phi_1-1) Z_{t-1}+a_t=\phi^* Z_{t-1}+a_t\]

Se puede obtener el estimador del mínimo cuadrado de \(\hat{\phi}^*\) mediante una regresión ordinaria de \(W_t\) sobre \(Z_{t-1}\). Por lo tanto, el contraste para la estacionariedad se puede formular mediante las siguientes hipótesis: \[H_0: \phi_1=1 ~~\text{v.s.}~~ H_1: \phi_1<1\] o equivalentemente a: \[H_0: \phi^*=0 ~~\text{v.s.}~~ H_1: \phi^*<0\]

  • El contraste se puede realizar mediante la estadística \(\hat{\tau}\) de Dickey-Fuller:

\[\hat{\tau}=\frac{\hat{\phi}^*}{e.e.(\hat{\phi}^*)}.\] - La distribución de \(\hat{\tau}\) no es conocida y se obtiene los percentiles y los valores críticos de la distribución de \(\hat{\tau}\) por medio de simulaciones. - Si se rechaza la \(H_0\), la serie es estacionaria. - Si no se rechaza la \(H_0\), la serie es no estacionaria, y se tiene que: \[Z_t-Z_{t-1}=a_t,\] la cual es denominada camino aleatorio.

  • Este contraste se puede generalizar al contraste de Dickey-Fuller modificado.
  • En este caso, se agrega los términos rezagados de \(W_t\) en la regresión:

\[W_t=C_0+C_1 t+ \phi^* Z_{t-1}+D_1 W_{t-1}+D_2 W_{t-2}+...+D_p W_{t-p}+a_t\]

  • Si la serie \(Z_t\) es no es estacionaria y necesita realizar una diferencia, \(\phi^* \approx 0\).
  • Si la serie \(Z_t\) es estacionaria, \(\phi^* < 0\).

Algunas consideraciones después de obtener un modelo ARIMA

  • Modelo parsimonioso.
  • Estacionariedad.
  • Invertibilidad.
  • Buena calidad de los coeficientes estimados.
  • Residuos independientes.
  • Buen ajuste de los datos.
  • Pronóstico satisfactorio.

Próximo tema

Modelos ARIMA de Box&Jenkins - Parte 4

Modelos ARIMA estacionales.