class: center, middle, inverse, title-slide # Series cronológicas (SP-1633) ### Prof. Shu Wei Chou C. ### Posgrado en Matemática - Posgrado en Estadística, UCR ### 24/09/2021 --- ## Tema 6 ### Series estacionarias, diferenciación de series, función de autocorrelación simple y parcial. --- ## Contenido 1. Introducción 2. Proceso estacionario 3. Estimación 4. Observaciones sobre las series estacionarias. 5. Transformación y diferenciación de series. --- ### Introducción - El principal objetivo del análisis de series temporales es construir modelos estadísticos o matemáticos que proporcionan una descripción de los datos muestreados. - Además, sirve para realizar inferencia del comportamiento en el intervalo observado o a futuro. --- ### Introducción - Considere una serie temporal como una secuencia de variables aleatorias `$$X_1,X_2,..,X_t,...$$` - **Proceso estocástico:** una colección de variables aleatorias indexada por un conjunto `\(\mathcal{T}\)`, `$$\left\lbrace X_t, t \in \mathcal{T} \right\rbrace$$` - Vamos a enfocar el caso cuando `\(\mathcal{T}\)` es un conjunto discreto, i.e. `\(t=0,1,2,...\)`. <div class="figure" style="text-align: center"> <img src="timeseriesmodel.png" alt="Figura tomada en Morettin (2017)" width="50%" /> <p class="caption">Figura tomada en Morettin (2017)</p> </div> --- ### Modelos de series temporales - Un modelo de series temporales generalmente especifica la distribución conjunta de la secuencia `\(X_t\)`. $$ P\left(X_1\leq x_1, X_2\leq x_2,...,X_t \leq x_t \right) $$ - Una observación de un proceso estocástico es una serie de valores observados en el tiempo y es llamada **una realización** de un proceso estocástico. <div class="figure" style="text-align: center"> <img src="realizaciones.png" alt="Figura tomada en Morettin (2017)" width="50%" /> <p class="caption">Figura tomada en Morettin (2017)</p> </div> --- ### Medidas de dependencia - Una descripción completa de un modelo de series temporales es proporcionado por la distribución de probabilidad conjunta, i.e. dados tiempos arbitrarios `\(t_1,...,t_n\)` para `\(n\)` entero positivo y `\(c_1,...,c_n\)` n valores constantes: $$ F_{t_1,...,t_n}(c_1,...,c_n)=P\left(X_1\leq c_1, X_2\leq c_2,...,X_t \leq c_t \right) $$ - Aunque esa distribución describe los datos globalmente, en la práctica, esa distribución multidimencional es dificil de conocer, excepto cuando es normal multivariado (¿por qué?) - La distribución marginal en el tiempo `\(t\)`, $$ F_t(x)=P(X \leq x) $$ - La función densidad marginal en el tiempo `\(t\)`, $$ f_t(x)= \frac{\partial F_t(x)}{\partial x} $$ --- ### Medidas de dependencia - **La función de media** para el tiempo `\(t\)` es definida por `$$\mu_t= E(X_t)=\int_{-\infty}^\infty x f_t(x)dx$$` - **La función de autocovariancia** es definida por `$$\gamma_X(t,s)=\gamma(t,s)= Cov(X_t,X_s)=E\left[ (X_t-\mu_t)(X_s-\mu_s) \right]$$` - Mide la dependencia lineal entre dos puntos de tiempo de la misma serie. - **La función de variancia** en el tiempo `\(t\)` es definida por `$$\gamma_X(t,t)=Var(X_t)$$` --- ### Medidas de dependencia - **La función de autocorrelación** es definida por `$$\rho_X(t,s)=\frac{\gamma(t,s)}{\sqrt{\gamma(t,t)\gamma(s,s)}}$$` **Observaciones:** - Aunque las medidas teóricas descritas (función de media, variancia, autocovariancia y autocorrelación) son importantes, pero no tenemos herramientas para calcularlas si solamente tenemos una realización del proceso. --- ### Procesos estacionarios **Definición:** Un **proceso estrictamente estacionario** es un proceso estocástico cuyo comportamiento de cada colección de valores `$$\left\lbrace X_{t_1},X_{t_2},...,X_{t_k} \right\rbrace$$` es idéntico a un conjunto bajo un cambio de tiempo `$$\left\lbrace X_{t_1+h},X_{t_2+h},...,X_{t_k+h} \right\rbrace.$$` Esto es, `$$P\left(X_{t_1} \leq c_1,...,X_{t_k} \leq c_k \right)=P\left(X_{t_1+h}\leq c_1,...,X_{t_k+h} \leq c_k \right)$$` para todo `\(k=1,2,...\)`, todo tiempo `\(t_1,...,t_k\)`, todos las constantes `\(c_1,...,c_k\)` y todos los cambios de tiempo `\(h=0, \pm 1, \pm 2,...\)`. --- ### Procesos estacionarios **Definición:** Un **proceso débilmente estacionario** es un proceso con variancia finita tal que 1. la función de la media es constante `$$\mu_t=E(X_t)=\mu$$` 2. La función de autocovariancia depende solamente de la diferencia de dos puntos `\(t, t+h\)` `$$\gamma(t,t+h)=Cov(X_t,X_{t+h})=Cov(X_0,X_h):=\gamma(h).$$` Consecuentemente, la **función de autocorrelación** de un proceso estacionario es definido como `$$\rho(h)=\frac{\gamma(t,t+h)}{\sqrt{\gamma(t+h,t+h),\gamma(t,t)}}=\frac{\gamma(h)}{\gamma(0)}.$$` --- ### Estimación - Aquí en adelante vamos a referir al concepto de estacionariedad débil con solamente **estacionariedad**. - Si una serie es estacionaria, la media `\(\mu_t=\mu\)` es constante y podemos estimarla usando **la media muestral** `$$\bar{X}=\frac{\sum_{t=1}^T X_t}{T}$$` - **Resultados teóricos:** se puede probar que `$$E\left[\bar{X}\right]=\mu$$` $$ Var\left[\bar{X}\right]=\frac{1}{T} \sum_{h=-n}^n \left(1-\frac{|h|}{T} \right) \gamma_X(h) $$ --- ### Estimación - Para entender la idea de la autocorrelación, recuerde que la estimación de la covariancia y la autocorrelación de una muestra observada de dos variables `\(X\)` y `\(Y\)` con una muestra de `\(n\)` valores es `$$s_{X,Y}=\frac{\sum\limits_{i=1}^{n} (X_{i}-\bar{X})(Y_{i}-\bar{X})}{n}$$` `$$r_{X,Y}=\frac{\sum\limits_{i=1}^{n} (X_{i}-\bar{X})(Y_{i}-\bar{X})}{\sqrt{\sum\limits_{i=1}^{n} (X_{i}-\bar{X})^2 \sum\limits_{i=1}^{n} (Y_{i}-\bar{Y})^2}}$$` --- ### Estimación - Suponga que tenemos las observaciones `\(X_1,...,X_T\)` de una serie `\(X\)`, considere la misma serie con un rezago, i.e. `$$X_2,...,X_{T-1},X_T$$` `$$X_1...,X_{T-2},X_{T-1}$$` - Podemos calcular la correlación como si fueran dos variables distintas: `$$r_1=\frac{\sum\limits_{t=2}^{T} (X_{t}-\bar{X}_1)(X_{t-1}-\bar{X}_2)}{\sqrt{\sum\limits_{t=2}^{T} (X_{t}-\bar{X}_1)^2 \sum\limits_{t=2}^{T} (X_{t-1}-\bar{X}_2)^2}}$$` donde `\(\bar{X}_1\)` es la media de los `\(n-1\)` últimos valores de la serie y `\(\bar{X}_2\)` es la media de los `\(n-1\)` primeros valores de la serie. --- ### Estimación - Si la serie es estacionaria, - `\(\bar{X}_1\)` y `\(\bar{X}_2\)` pueden ser reemplazadas por `\(\bar{X}\)`. - El denominador puede ser reemplazado por `\(\sum\limits_{t=1}^{T} (X_{t}-\bar{X})^2\)`. - Entonces, `$$r_1=\frac{\sum\limits_{t=2}^{T} (X_{t}-\bar{X})(X_{t-1}-\bar{X})}{\sum\limits_{t=1}^{T} (X_{t}-\bar{X})^2}$$` es la estimación de la autocorrelación de rezago `\(1\)`. --- ### Estimación - Análogamente se puede calcular la autocorrelación muestral de rezago `\(h\)` con: `$$r_h=\frac{\sum\limits_{t=h+1}^{T} (X_{t}-\bar{X})(X_{t-h}-\bar{X})}{\sum\limits_{t=1}^{T} (X_{t}-\bar{X})^2}$$` para `\(h=0,1,2,...\)`. - Se puede comprobar que `\(r_h=r_{-h}\)`. --- ### Estimación - Entonces, **la función de autocovariancia muestral** es definida por `$$\hat{\gamma}_X(h)=\frac{1}{T}\sum_{t=h+1}^{T} (X_{t}-\bar{X})(X_{t-h}-\bar{X}),$$` con `\(\hat{\gamma}_X(-h)=\hat{\gamma}_X(h)\)` para `\(h=0,1,...,T-1\)`. - **La función de autocorrelación muestral** es definida por `$$\hat{\rho}_X(h)=r_X(h)=r_h=\frac{\hat{\gamma}_X(h)}{\hat{\gamma}_X(0)}$$` `$$=\frac{\sum\limits_{t=h+1}^{T} (X_{t}-\bar{X})(X_{t-h}-\bar{X})}{\sum\limits_{t=1}^{T} (X_{t}-\bar{X})^2}$$` --- ### Estimación **Propiedad:** Si `\(X_t\)` tiene sus primeros 4 momentos finitos, y `\(X_t\)` es ruido blanco, entonces para `\(T\)` suficientemente grande, la función de autocorrelación `\(\hat{\rho}_X(h), h=1,2,..., H\)` donde `\(H\)` es un valor cualquier pero fijo, es aproximadamente normal con media cero y desviación estándar `$$\sigma_{\hat{\rho}_X(h)}=\frac{1}{\sqrt{T}}.$$` **Nota:** - Con este resultado, si se tiene un ruido blanco, entonces se espera que con aproximadamente 95% de confianza, las `\(\hat{\rho}_X(h)\)` deberían caer dentro del intervalo `\(\left( \frac{-2}{\sqrt{T}},\frac{2}{\sqrt{T}} \right)\)`. puede estimar intervalos de confianza e identificar aquellos rezagos que tienen autocorrelación significativa. - En la práctica, se grafica los pares ordenados `\((h,r_h),h=1,2,...\)` para visualizar la función de aucorrelación muestral. Este gráfico se denomina **correlograma**. --- ### Estimación **Ejemplo de ruido blanco:** .pull-left[ - Si `\(w_t \sim wn(0,\sigma_w^2)\)`, la función de autocorrelación es $$ \rho_w(t,s)=\left\lbrace `\begin{aligned} 1, & & t = s \\ 0, & & t \neq s, \end{aligned}` \right. $$ o $$ \rho_w(h)=\left\lbrace `\begin{aligned} 1, & & h = 0 \\ 0, & & h \neq 0, \end{aligned}` \right. $$ ] .pull-right[ La función de autocorrelación estimada de 500 observaciones de `\(w_t \overset{\text{iid}}{\sim} N(0,1)\)`. <img src="clase-6_files/figure-html/unnamed-chunk-4-1.png" width="90%" /> ] --- ## Estimación **Ejemplo de medias móviles:** .pull-left[ - Sea `\(v_t=\frac{1}{3}(w_{t-1}+w_{t}+w_{t+1})\)` La función de autocorrelación es $$ \rho_v(h)=\left\lbrace `\begin{aligned} 1, & & h = 0 \\ \frac{2}{3}, & & |h| = 1 \\ \frac{1}{3}, & & |h| = 2 \\ 0, & & |h| > 2, \end{aligned}` \right. $$ ] .pull-right[ <img src="clase-6_files/figure-html/unnamed-chunk-5-1.png" width="90%" /> ] --- ### Ejemplos: sorteo navideño de 2008 - Ejemplo 5.1 de Hernández (2011): 135 números del sorteo de la lotería de Naividad de 2008 según el orden de extracción. Los números son muestreados aleatoriamente con reemplazo de una distribución uniforme discreta enteros entre 0 y 99. .pull-left[ <img src="clase-6_files/figure-html/unnamed-chunk-6-1.png" width="90%" /> ] .pull-right[ <img src="clase-6_files/figure-html/unnamed-chunk-7-1.png" width="90%" /> ] --- ### Ejemplos: pasajeros La base de datos "AirPassenger" en R proporciona total de pasajeros mensuales de una aerolínea estadounidense de 1949 a 1960. .pull-left[ <img src="clase-6_files/figure-html/unnamed-chunk-8-1.png" width="90%" style="display: block; margin: auto;" /> ] .pull-right[ <img src="clase-6_files/figure-html/unnamed-chunk-9-1.png" width="90%" style="display: block; margin: auto;" /> ] ¿La serie es estacionaria? --- ### Ejemplos: contrayentes Ejemplo 2.1 de Hernández (2011): Serie de número de contrayentes en los matrimonios celebrados en Costa Rica de 1978 a 1983. .pull-left[ <img src="clase-6_files/figure-html/unnamed-chunk-10-1.png" width="90%" style="display: block; margin: auto;" /> ] .pull-right[ <img src="clase-6_files/figure-html/unnamed-chunk-11-1.png" width="90%" style="display: block; margin: auto;" /> ] ¿La serie es estacionaria? --- ### Ejemplos: graduados del ITCR - Ejemplo 3.2 de Hernández (2011): Serie de graduados del ITCR de 1975-2002. .pull-left[ <img src="clase-6_files/figure-html/unnamed-chunk-12-1.png" width="90%" style="display: block; margin: auto;" /> ] .pull-right[ <img src="clase-6_files/figure-html/unnamed-chunk-13-1.png" width="90%" style="display: block; margin: auto;" /> ] ¿La serie es estacionaria? --- ### Observaciones sobre el comportamiento de las series estacionarias Generalmente en la práctica, las series estacionarias presentan las siguientes características: - una media o nivel constante a lo largo del tiempo - una variabilidad constante en el tiempo (con pequeñas variaciones) - su función de autocorrelación generalmente decae rápidamente. ¡pero podría tener algunas excepciones! --- ### Transformación y diferenciación de series - En la práctica, la mayoría de las series no son estacionarias. - Si la variancia cambia con el nivel de la serie, se recomienda usar `$$W_t=\ln X_t.$$` - Otra transformación útil es la diferenciación de la serie: `$$W_t=\nabla X_t = X_t-X_{t-1},~~t=2,...,T.$$` --- ### Transformación y diferenciación de series - Ejemplo 3.2 de Hernández (2011): Serie de graduados del ITCR de 1975-2002. .pull-left[ La serie original: <img src="clase-6_files/figure-html/unnamed-chunk-14-1.png" width="50%" style="display: block; margin: auto;" /><img src="clase-6_files/figure-html/unnamed-chunk-14-2.png" width="50%" style="display: block; margin: auto;" /> ] .pull-right[ La serie con una diferencia: <img src="clase-6_files/figure-html/unnamed-chunk-15-1.png" width="50%" style="display: block; margin: auto;" /><img src="clase-6_files/figure-html/unnamed-chunk-15-2.png" width="50%" style="display: block; margin: auto;" /> ] --- ### Transformación y diferenciación de series - Ejemplo del valor de cierre de Google (25/02/2013-13/02/2017) .pull-left[ La serie original: <img src="clase-6_files/figure-html/unnamed-chunk-16-1.png" width="50%" style="display: block; margin: auto;" /><img src="clase-6_files/figure-html/unnamed-chunk-16-2.png" width="50%" style="display: block; margin: auto;" /> ] .pull-right[ La serie con una diferencia: <img src="clase-6_files/figure-html/unnamed-chunk-17-1.png" width="50%" style="display: block; margin: auto;" /><img src="clase-6_files/figure-html/unnamed-chunk-17-2.png" width="50%" style="display: block; margin: auto;" /> ] --- ### Caminata aleatoria Si una serie diferenciada resulta ser un ruido blanco `\(\epsilon_t\)`, `$$W_t=\nabla X_t = X_t-X_{t-1}= \epsilon_t,$$` entonces reordenando se tiene un modelo de caminata aleatoria: `$$X_t= X_{t-1} + \epsilon_t$$` Un modelo no estacionario ampliamente utilizado en datos económicos y financieros. Presenta tendencias crecientes y decrecientes imprevistas a lo largo del tiempo. --- ### Caminata aleatoria .pull-left[ Caminata aleatoria simulada: <img src="clase-6_files/figure-html/unnamed-chunk-18-1.png" width="50%" style="display: block; margin: auto;" /><img src="clase-6_files/figure-html/unnamed-chunk-18-2.png" width="50%" style="display: block; margin: auto;" /> ] .pull-right[ La serie con una diferencia: <img src="clase-6_files/figure-html/unnamed-chunk-19-1.png" width="50%" style="display: block; margin: auto;" /><img src="clase-6_files/figure-html/unnamed-chunk-19-2.png" width="50%" style="display: block; margin: auto;" /> ] --- ### La función de autocorrelación parcial (f.a.c.p.) - La autocorrelación parcial en el rezago `\(k\)` mide el grado de asociación lineal entre `\(Z_t\)` y `\(Z_{t-k}\)` cuando los efectos de los otros rezagos `\(1,2,...,k-1\)` han sido eliminados. - Denotemos la función de autocorrelación parcial teórica de orden `\(k\)` por `\(\rho_{kk}\)` para `\(k=1,2,...\)` y la función de autocorrelación parcial muestral de orden `\(k\)` con `\(r_{kk}\)`, para `\(k=1,2,...\)`. - Teóricamente la función de autocorrelación parcial de un proceso estacionario `\(Z_t\)`, denotado por `\(\rho_{kk}\)`, para `\(k=1,2,...\)` es `$$\rho_{11}=corr(Z_{t+1},Z_t)=\rho_1$$` y `$$\rho_{kk}=corr\left[Z_{t+k}-\hat{Z}_{t+k}~,~Z_t-\hat{Z}_{t}\right],~~\text{para}~~ k \geq 2,$$` donde `\(\hat{Z}_{t+k}=\beta_1 Z_{t+k-1}+\beta_2 Z_{t+k-2}+...+\beta_{h-1} Z_{t+1}\)` `\(\hat{Z}_{t}=\beta_1 Z_{t+1}+\beta_2 Z_{t+2}+...+\beta_{h-1} Z_{t+k+1}\)` --- ### La función de autocorrelación parcial (f.a.c.p.) - Si `\(Z_t\)` es un proceso gaussiano, `$$\rho_{kk}=corr(Z_{t+k},Z_t|Z_{t+1},...,Z_{t+k-1}).$$` i.e. es la correlación de una distribución normal bivariada `\((Z_{t+k},Z_t)\)` condicional a `\({Z_{t+1},...,Z_{t+k-1}}\)` (¿Por qué?) --- ## Próximo tema ### Modelos ARIMA de Box&Jenkins. --- class: center, middle # Thanks! Slides created via the R package [**xaringan**](https://github.com/yihui/xaringan). The chakra comes from [remark.js](https://remarkjs.com), [**knitr**](http://yihui.org/knitr), and [R Markdown](https://rmarkdown.rstudio.com).