You are on page 1of 55

ANÁLISIS DE SERIES DE

TIEMPO
MODELOS ARIMA

Profr. Francisco Sánchez Villarreal Enero 2018


MODELOS AUTORREGRESIVOS INTEGRADOS DE MEDIAS MOVILES
(ARIMA)

En 1970 George E.P. Box y Gwilym M. Jenkins publican su ahora famoso libro
“Time Series análisis forecasting and control” en donde presentan una
metodología para identificar, estimar y diagnosticar modelos dinámicos de series
temporales con la idea de que las estructuras subyacentes conduzcan al
investigador a construir un modelo en el que la variable exógena está constituida
por valores retrasados de la misma variable. Se argumenta como ventaja el que el
investigador se ahorra el esfuerzo de especificación de variables y relaciones
adicionales, pero por otra parte se renuncia a la presencia de otras variables
relacionadas con el fenómeno que se estudia y la riqueza interpretativa que la
acompaña.

Procesos Estocásticos y Series de Tiempo


Un proceso estocástico es sucesión ordenada de variables aleatorias Zt asociadas
a un conjunto índice de números reales. {Z t ; t ε T} . Si T es un conjunto finito o
infinito pero numerable se dice que el proceso es discreto.

Una serie de tiempo se concibe como una sucesión de observaciones generadas


por un proceso estocástico cuyo conjunto índice es el tiempo. Entonces Z1, Z2 Z3….
Zn denota valores sucesivos de la serie a intervalos equidistantes. El proceso
estocástico quedará plenamente caracterizado si se exhibe la función de densidad
conjunta f ( Z 1 , Z 2 ,....., Z n ) .

Una clase importante de modelos estocásticos para describir series de tiempo son
los llamados modelos estacionarios, los cuales suponen que el proceso
permanece en equilibrio en torno a una media constante. Más adelante se
analizará su definición formal. Sin embargo, la mayoría de las series de interés
económico se representan mejor por modelos no estacionarios, ello motivó los
métodos de suavizamiento exponencial revisados en la sección anterior de Brown,
Holt y Winter entre otros.

Box y Jenkins mencionan que los modelos de suavizamiento exponencial óptimos


corresponden a los llamados modelos autorregresivos integrados y de medias
móviles (ARiMA) que se revisarán con mayor detalle.

Operador de retraso
Se identifica por la letra B y se define como el valor retrasado de la serie indicado
por el exponente del operador:

B k Z t = Z t −k para k =1,2,…..

En particular B0Zt = Zt

18
El operador se puede aplicar en forma sucesiva

B k Z t = B( B k −1Z t ) = Z t −k
Operador de diferencia
Se identifica por la letra delta invertida y se define como el la diferencia entre el
valor correspondiente al período t y valor retrasado k períodos.

Z t = Z t − Z t −1

Ambos operadores, el de diferencia y el de retraso se relacionan de la siguiente


forma:

Z t = Z t − Z t −1 = Z t − BZ t = (1 − B) Z t

= (1 − B)

Al aplicar el operador diferencia en forma sucesiva se tiene:

k
= (1 − B) k

k
k!
k
Zt = ∑ (−1) k Z t − k
j = 0 k!( k − 1)!

Ejemplo 1 Consumo de Energía:


La siguiente serie de tiempo corresponde a consumo de energía eléctrica en USA
durante el período enero de 1951 a diciembre de 1958. En la gráfica se presenta
la serie original y las series generadas por los operadores Diferencia y Hacia Atrás
aplicados para k=1.

Mes 1951 1952 1953 1954 1955 1956 1957 1958


Ene 318 342 367 392 420 453 487 529
Feb 281 309 328 349 378 412 440 477
Mar 278 299 320 342 370 398 429 463
Abr 250 268 287 311 334 362 393 423
May 231 249 269 290 314 341 370 398
Jun 216 236 251 273 296 322 347 380
Jul 223 242 259 282 305 335 357 389
Ago 245 262 284 305 330 359 388 419
Sep 269 288 309 328 356 392 415 448
Oct 302 321 345 364 396 427 457 493
Nov 325 342 367 389 422 454 491 526
Dic 347 364 394 417 452 483 516 560

19
Como se puede ver en la gráfica, la tendencia creciente de la serie original se
elimina en la serie de primera diferencia.
Serie de consumo de energía eléctrica USA
Serie original y operadores Hacia Atrás y Diferencia

600

500

400

300
Zt
BZt

200 ΔZt

100

-100
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96
Período t

Operador de retraso y polinomios.


Una combinación lineal de la forma:
k
Z t − g1 Z t −1 − g 2 Z t − 2 − ........ − g k Z t − k = Z t − ∑ g j Z t − j
j =1

Donde Zt es el valor de la serie en el período t y gt es un ponderador para el valor


del mismo período. La serie se puede considerar como un polinomio de retraso:
k
G ( B) Z t = Z t − g1 BZ t − g 2 B 2 Z t − ........ − g k B k Z t = Z t − ∑ g j B j Z t
j =1

De donde
k
G ( B) = 1 − g1 B − g 2 B 2 − ........ − g k B k = 1 − ∑ g j B j
j =1

Un ejemplo de polinomio de retraso es la serie geométrica:

G ( B ) = 1 + g1 B + g 22 B 2 + g 33 B 3 + ....... con IgI<1

En forma alternativa
1
G ( B) =
con IgI<1
1 − gB
La representación de un modelo para una serie de tiempo mediante polinomios de
retraso proporciona una forma resumida del modelo. Así un modelo de medias
móviles puro MA(k), el cual se detallará más adelante, se puede representar de la
siguiente forma:

(
Z t − µ = 1 − θ1 B − θ 2 B 2 − ...... − θ k B k at )

20
En donde μ representa la media de la serie, θj un conjunto de parámetros del
modelo y {at }un sucesión de variables aleatorias. En notación de polinomio de
retraso, el modelo se puede representar entonces:

Z t − µ = θ (B )at

De manera análoga un modelo autorregresivo puro de orden k AR(k) se define


como sigue, en donde φt representa los parámetros autorregresivos.

(1 − φ1 B − φ 2 B 2 − ........ − φ k B k )( Z t − µ ) = at

En notación de polinomio de retraso queda

φ ( B)( Z t − µ ) = at
Desde luego se pueden plantear modelos que combinen parámetros
autorregresivos y de medias móviles (ARMA):

φ ( B)( Z t − µ ) = θ ( B)at
Es factible incorporar operadores de retraso y de diferencia que constituyen los
llamados modelos integrados autorregresivos y de medias móviles (ARIMA):

φ (B) d
Z t = θ ( B)at

Filtros lineales.
Los modelos que se emplearán se basan en la idea propuesta por Yule (1924) de
que una serie de tiempo se expresa como una sucesión de valores altamente
dependientes y que se consideran generados por una serie de choques
independientes at. Estos choques son variables aleatorias de una distribución que
usualmente se supone normal con media cero y varianza σ2 . La secuencia de
valores at,at-1,at-2,….. es llamada ruido blanco por alusión al campo de las
comunicaciones electrónicas.

El proceso de ruido blanco at es transformado al proceso Zt por un filtro lineal.

21
El filtro lineal consiste en una suma ponderada de los valores del ruido blanco.

Z t = µ + at + ψ 1 at −1 + ψ 2 at − 2 + ..........

= µ + ψ (B )at

El operador lineal o polinomio que transforma la sucesión de ruido blanco en la


serie de tiempo se conoce también como función de transferencia.

ψ (B ) = 1 + ψ 1 B + ψ 2 B 2 + ..........

La sucesión ψ 1 ,ψ 2 ,..... formada por los ponderadores, teóricamente puede ser


finita o infinita. Si la sucesión es finita o infinita y convergente, se dice que el filtro
es estable y el proceso resultante es estacionario y varía en torno a la media. De
otra forma se dice que el proceso es no estacionario y la media es solamente un
punto de referencia de la serie.

Procesos Estacionarios.
Un proceso estocástico se caracteriza completamente si se exhibe la función de
distribución conjunta de todas las variables aleatorias que lo constituyen. En la
práctica es difícil que esto se pueda tener. Se recurre entonces a los momentos de
primero y segundo orden (medias, varianzas y covarianzas).

E (Z t ) = µ t
En otros términos se tiene la esperanza de la suma ponderada, pero si la serie es
infinita, no es tan simple como distribuir el operador esperanza.

µ t = µ + E (at +ψ 1at −1 +ψ 2 at −2 + .....)

A menos que la suma de ponderadores converja.



1 + ∑ ψ i <∝
i =1

Entonces la media de la serie no depende del tiempo

E (Z t ) = µ
La serie eventualmente se puede alejar del valor medio, pero siempre volverá. En
la siguiente gráfica se observan des realizaciones del mismo proceso estacionario,
cuya media es cero.

22
1
0.8
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1

La varianza del proceso se obtiene a partir de la definición

γ 0 = E (Z t − µ )2

= E (at + ψ 1 at −1 + ψ 2 at − 2 + .....)
2

( )
= E a 2 t + ψ 21 a 2 t −1 + ψ 2 2 a 2 t − 2 + ..... − E (2atψ 1 at −1 + 2atψ 2 at − 2 + .... + 2ψ 1 at −1ψ 2 at − 2 + .......)

por independencia y considerando que las at tienen la misma varianza.

∝ ∝
= σ 2 ∑ψ 2j adopta un valor real si ∑ψ 2
j <∝
j =1 j =1

La varianza no depende del tiempo.

La covarianza se define

γ k = E [(Z t − µ )(Z t +k − µ )]

= E [(at + ψ 1 at −1 + ψ 2 at − 2 + .....)(at + k + ψ 1 at + k −1 + ψ 2 at + k − 2 + .....)]

= σ 2 (− ψ k + ψ 1ψ k +1 + ψ 2ψ k + 2 + .....)


= σ 2 ∑ψ iψ i + k − ψ k también se debe cumplir la condición de convergencia.
j =1

Se observa que la covarianza tampoco depende del tiempo.

23
Cuando los momentos de primero y segundo orden de un proceso no dependen
del tiempo se les designa como estacionarios de segundo orden.

Un proceso se define estrictamente estacionario si la función d densidad para un


conjunto arbitrario de variables Z t , Z t +1 , Z t + 2 ,........Z t + n no cambia respecto a
desplazamientos en el tiempo.

f ( Z t , Z t +1 , Z t + 2 ,........Z t + n ) = f ( Z t + m , Z t +1+ m , Z t + 2+ m +,........Z t + n + m )

Si un proceso es estrictamente estacionario cumple la estacionariedad de segundo


orden y en consecuencia

Media E (Z t ) = E (Z t +k ) = µ

Varianza V (Z t ) = V (Z t +k ) = σ 2

Autocovarianza E (Z t − µ )(Z t + k − µ ) = (Z t + m − µ )(Z t + m + k − µ ) = γ k

En el supuesto de normalidad basta conocer los momentos de primero y segundo


orden para considerar que una serie está completamente determinada. Para evitar
la influencia de las unidades, en lugar de las autocovarianzas se consideran los
coeficientes de autocorrelación.
E (Z t − µ )(Z t + k − µ ) γ k
ρk = = para k=0,1,2,……
E (Z t − µ ) γ0
2

La serie de coeficientes de autocorrelación define la función de autocorrelación.

Estimaciones de Varianzas, Covarianzas y Autocorrelaciones.


En la práctica estos valores parametrales se desconcen y solamente se cuenta
con una realización que se supone suficientemente larga a partir de la cual se
calculan estimaciones de media, varianza y función de autocorrelación. Si se
considera que el proceso que generó la serie es ergódica en el segundo momento,
esto es que es estacionario y que las autocovarianzas se anulan al incrementar la
distancia, entonces basta calcular una serie relativamente corta de coeficientes de
autocorrelación para tener caracterizado el proceso. Algunos autores recomiendan
a lo más n/4 donde n es el tamaño de la serie.

Estimación de la media
1 n
Z~ = ∑ Z t
n t =1

24
Estimación de las autocovarianzas.

1 n−k
Ck = ∑ (Z t − Z~ )(Z t + k − Z~ ) k=0,1,2,3……….
n t =1
Estimación de los coeficientes de autocorrelación.

n−k

Ck ∑ (Z t − Z~ )(Z t + k − Z~ )
rk = = t =1

∑ (Z − Z~ )
n
C0 2
t
t =1

Varianzas, Errores Estándares, Intervalos de Confianza y pruebas de


hipótesis para Autocorrelaciones.
En general se utilizan las siguientes aproximaciones de la varianza de las
autocorrelaciones propuestas por Bartlett.

1 ∝ 2
[
V (rk ) = ∑ ρ v + ρ v + k ρ v − k − 4 ρ k ρ v ρ v − k + 2 ρ v2 ρ k2
n v = −∝
]
Las varianzas y errores estándares de los coeficientes de autocorrelación se
calculan en función de dos supuestos principales: El supuesto de que el proceso
corresponde a un modelo de medias móviles de orden k-1, esto es MA( k-1). , La
aproximación de Bartlett se reduce a:

1 k −1

1 + 2∑ ri 2 
V (rk ) ≈
n t =1 
Para el supuesto de que la serie es ruido blanco, entonces la varianza y error
estándar se obtienen como sigue:

1n−k 1n−k 
V (rk ) =   y EE (rk ) =  
nn+2 nn+2

Para n>50 se considera la aproximación a la distribución normal con media cero y


varianza dada por la expresión anterior, entonces un intervalo de confianza de
100(1-α)% de confianza para la autocorrelación de orden k en torno al origen y
que permite considerar significativamnte diferentes de cero a las autocorrelaciones
que escapan del intervalo se calcula de la manera: siguiente, donde Z es el
coeficiente de confianza correspondiente al percentil 100(1-α/2)% de una
distribución normal estándar. Usualmente Z=2.0

0 ± Z1−α / 2 EE (rk )

25
Prueba de Box Ljung
Permite probar la hipótesis de que un conjunto de autocorrelaciones son iguales a
cero. La hipótesis se nula plantea de la siguiente forma:

Ho: Los datos se distribuyen de forma independiente o en forma equivalente el


conjunto de correlaciones de la población de donde proviene la muestra son
todas cero.
H0: ρt = 0 para toda t

H1: ρt ≠ 0 para alguna t. Los datos no se distribuyen en forma independiente.

La estadística de prueba:
k
r k2

Q( k ) = n( n + 2 )
t =1
(n−k)
La Q(k) se distribuye Ji cuadrada con k grados de libertad. Cuando se aplica a los
residuales de un modelo ARIMA, a los grados de libertad se les debe restar el
número de parámetros autorregresivos y de medias móviles asociados al modelo.

Autocorrelaciones parciales.
La identificación de los modelos se apoya en se puede llevar a efecto mediante la
función de autocorrelación y de los intervalos de confianza, pero la identificación
de un proceso autorregresivo con la sola ayuda de la FAC puede presentar serias
dificultades. Las autocorrelaciones parciales cubren esta limitante. Como se sabe,
la autocorrelación parcial entre dos variables mide la relación lineal existente entre
ellas manteniendo constante la presencia de otras variables o excluyendo su
influencia lineal..

Considérese que se desea calcular la autocorrelación lineal de segundo orden


excluyendo la influencia de la autocorrelación de primer orden en un modelo
AR(1). El coeficiente correlación parcial de segundo orden se calcula en función
de los coeficientes de autocorrelación simples de la siguiente forma:
ρ 02 − ρ 01 ρ12
ρ 02.1 =
(1 − ρ 012 )(1 − ρ122 )

Sabemos que ρ 01 = ρ12 = φ y que ρ 02 = φ 2 , entonces el numerador es cero y


todas las demás también lo son.

Las autocorrelaciones parciales φ kj son calculadas en forma empírica mediante las


siguientes fórmulas secuenciales:

26
φˆ11 = r1
φˆ22 = (r2 − r12 ) /(1 − r12 )

φˆkj = φˆk −1, j − φˆkk φˆk −1,k − j k=2,…. J=1,2,…..,k-1

 k −1 
 rk − ∑ φˆk −1 rk − j 
 
φ kk =
ˆ  j =1 
 k −1 
1 − ∑ φˆk −1 r j  k=3,4,……
 
 j =1 
Quenouille (1949) demostró que bajo el supuesto de un modelo AR(p) y con
p ≤ k − 1 entonces φˆkk se distribuye normal con media cero y varianza 1/n. En
consecuencia es muy fácil calcular intervalos de confianza para los coeficientes de
autocorrelación al sumar y restar la raíz cuadrada de 1/n multiplicada por el
coeficiente de confianza (usualmente 1.96, para 95% de confianza), que se suele
aproximar a 2.
1
0 ± Z1−α / 2
n
Modelos Autorregresivos AR(p)
Considérese un modelo en el cual la variable dependiente depende de p valores
retrasados de la misma variable en la siguiente forma:

Z~t = φ1 Z~t −1 + φ 2 Z~t − 2 + ....... + φ p Z~t − p + at


Expresado en forma equivalente en términos del operador de retraso.

(1 − φ B − φ B
1 2
2
)
− ..... − φ p B p Z~t = at en forma compacta φ ( B) Z~t = at

Modelo AR(1)
Se revisará inicialmente, por simplicidad, el modelo AR(1):

Z~t = φ1 Z~t −1 + at En forma equivalente (1 − φ1 B )Z~t = at

Para que la serie generada por este modelo sea estacionaria, se requiere que la
raíz de la siguiente ecuación se ubique dentro del círculo unitario.

1 − φx = 0

27
Por tanto debe cumplir φ1 < 1 y en forma alternativa se tiene la siguiente
expresión cuyos términos convergen a cero.

Z~t = (1 − φ1 B ) at = at + φ1 at −1 + φ12 at −2 + ..........


−1

Entonces el valor esperado y la varianza de la serie es:

( )
E (Z~t ) = E at + φ1 at −1 + φ12 at −2 + .......... = E (at ) + φ1 E (at −1 ) + φ12 E (at −2 ) + .......... = 0

(
V (Z~t ) = V (at ) + φ12V (at −1 ) + φ14V (at −2 ) + .......... )
(
= V (at ) + φ12V (at −1 ) + φ14V (at − 2 ) + ..........)
(
= σ 2 + φ12σ 2 + φ14σ 2 + .......... )
σ2
(
= σ 2 1 + φ12 + φ14 + .......... =) (1 − φ12 )
De donde
σ2
V ( Z~t ) = γ o =
(1 − φ12 )
De manera análoga las autocovarianzas se expresan
σ 2φ1 k
γk = = φ1γ k −1 para k=1,2,3………..
(1 − φ12 )

Puesto que se tiene una relación simétrica γ k = γ − k se sigue:


σ 2φ1 k
γk = para k = 0,±1. ±2, ±3…….
(1 − φ12 )

Las autocorrelaciones quedan entonces definidas por el cociente de las


autocovarianzas de orden k entre la varianza y resulta que las autocorrelaciones
corresponden a potencias sucesivas del coeficiente autorregresivo:

γk σ 2φ1 k  σ 2 
ρk = = /  2 
 = φ1 k
γ o (1 − φ1 )  (1 − φ1 ) 
2

Es evidente que las autocorrelaciones tenderán a cero conforme k se incrementa y


que una estimación del parámetro φ1 se obtiene mediante el coeficiente de
autocorrelacion calculado a partir de la muestra de primer orden.

28
Ejemplo AR(1) Simulado
Se tiene una realización de 156 observaciones generadas por Montecarlo de un
modelo AR(1) que tiene los siguientes parámetros y cuyo error se distribuye
normal con media 0 y varianza 0.7.

Modelor Autorregresivo de Primer Orden


AR(1)
4.00

3.00
φ = 0.8 2.00

µ = 0 1.00

σ2
0.00
= 0.7
-1.00

-2.00

-3.00

-4.00

Se han calculado las autocorrelaciones teóricas y empíricas. Obsérvese la lenta


caída de las autocorrelaciones simples
Autocorrelaciones
Empírica Teórica
1 0.7670508 0.80000
2 0.5966973 0.64000
3 0.4532749 0.51200
4 0.3583434 0.40960
5 0.2533344 0.32768
6 0.1208182 0.26214

En las autocorrelaciones parciales, solamente resulta significativa la primera, esto


es para K=1

Autocorrelaciones Simples AR(1) Autocorrelaciones parciales


1.000
Modelo AR(1)
0.800 Empírica 1.000
0.600 Teórica
0.400 .800
0.200
.600
0.000
-0.200 1 2 3 4 5 6
.400
-0.400
-0.600 .200
-0.800
-1.000 .000
Valores de T 1 2 3 4 5 6
-.200

29
Ahora se cambia únicamente el parámetro φ1 = -0.8 . Se observa el
comportamiento de alta volatilidad de la serie y la caída alternada de las
autocorrelaciones.
Empírica Teórica
1 -0.8794083 -0.80000
2 0.7603542 0.64000
Modelor Autorregresivo de Primer Orden AR(1) 3 -0.6485430 -0.51200
4 0.5239865 0.40960
6.00 5 -0.4232558 -0.32768
6 0.3288337 0.26214

4.00
Autocorrelaciones
1.00
2.00 0.90
0.80
0.70
0.60
0.50
0.00 0.40
0.30
0.20
0.10
0.00
-2.00 -0.10
-0.20 1 2 3 4 5 6
-0.30
-0.40
-4.00 -0.50
-0.60
-0.70
-0.80
-0.90
-6.00 -1.00

Las autocorrelaciones parciales resultan todas negativas y solamente significativa


la primera.

Autocorrelaciones parciales
Modelo AR(1)
.000
-.100 1 2 3 4 5 6

-.200
-.300
-.400
-.500
-.600
-.700
-.800
-.900

Modelo AR(2)
De manera natural se sigue con el análisis del modelo AR(2).

Z~t = φ1 Z~t −1 + φ 2 Z~t −2 + at

En forma alternativa (1 − φ B − φ B )Z~


1 2
2
t = at

Para que la serie generada por este modelo sea estacionaria, se requiere que las
raíces de la siguiente ecuación se ubiquen fuera del círculo unitario

1 − φ1 x − φ 2 x 2 = 0

Esta condición es equivalente a las siguientes restricciones:

30
φ 2 < 1 , φ1 + φ 2 < 1 y φ 2 − φ1 < 1

Estas restricciones definen una zona de combinaciones factibles en el plano


cartesiano Φ1 , Ф2 en forma de triángulo dentro de los puntos (-2,2) y (-1.1).

1.00

0.80

0.60

0.40

0.20

0.00
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
-0.20

-0.40

-0.60

-0.80

-1.00

Ahora se establecen los primeros dos momentos del modelo para completar su
definición.
σ2
E ( Z~ ) = 0 V ( Z~ ) =
1 − ρ1φ1 − ρ 2φ2

φ1γ 1 + φ 2γ 2 + σ 2 si k = 0
γk = 
φ1γ k −1 + φ 2γ k − 2 si k > 0

Considérese γ 1 y γ 2

γ 1 = φ1γ 0 + φ 2 γ −1 Por simetría equivale a γ 1 = φ1γ 0 + φ 2 γ 1 y por otra parte


γ 2 = φ1γ 1 + φ 2 γ 0

Si estas dos últimas ecuaciones se dividen entre γ 0 se obtienen las ecuaciones de


Yule Walker, las cuales permiten obtener los valores de las primeras dos
autocorrelaciones en función de φ1 y φ 2

ρ1 = φ1 + φ 2 ρ1
ρ 2 = φ1 ρ1 + φ 2

31
De la primera ecuación ρ1 = φ1 /(1 − φ 2 ) y al sustituir en la segunda ecuación se
obtiene ρ 2 = φ12 /(1 − φ 2 ) + φ 2 y las siguientes autocorrelaciones por la ecuación
recurrente:

ρ k = φ1 ρ k −1 + φ 2 ρ k − 2 para k ≥ 3

También es factible establecer condiciones de estacionariedad para el modelo


AR(2) en función de los dos primeros coeficientes de autocorrelación y definen
una superficie delimitada por una parábola.

− 1 < ρ1 < 1

−1 < ρ2 < 1

1
ρ12 < ( ρ 2 + 1)
2

Las autocorrelaciones simples decaerán exponencialmente hacia cero y serán


positivas si la primera lo es. Si la primera es negativa, entonces presentarán
signos alternados con convergencia hacia cero.

Al utilizar las ecuaciones de Yule Walker y resolverlas para φ1 y φ 2 se tienen


expresiones en función de las autocorrelaciones que al ser sustituidas por su
cálculos empíricos dan estimaciones de los parámetros.

φ1 = ρ1 (1 − ρ 2 ) /(1 − ρ 21 )
φ 2 = ( ρ 2 − ρ12 ) /(1 − ρ 21 )

Ejemplo AR(2)
Se tiene una realización de 156 observaciones del modelo AR(2) con los
siguientes parámetros: φ1 = 0.40 , φ 2 = 0.20, σ 2 = 0.50 . Rápidamente se verifica
que es estacionario y la lenta caída de los valores de las autocorrelaciones
simples y significancia de las dos primeras autocorrelaciones parciales.

32
Modelor Autorregresivo de Segundo Orden
AR(2)
2.00
1.50
1.00
0.50
0.00
k Empírica Teórica
-0.50
1 0.4584103 0.50000
-1.00 2 0.3917076 0.40000
-1.50 3 0.2679200 0.26000
-2.00 4 0.0726749 0.18400
-2.50
5 0.1078618 0.12560
6 0.1013765 0.08704
-3.00

Correlograma

Autocorrelaciones parciales 1.000


AR(2) 0.800
.500
0.600
.400
0.400
.300 0.200
.200 0.000
-0.200 1 2 3 4 5 6
.100
-0.400
.000
-0.600
1 2 3 4 5 6
-.100 -0.800
Empírica
-.200 -1.000
Valores de T Teórica

Modelo AR(p)
El caso general de los modelos autorregresivos puros considera p parámetros.

Z~t = φ1 Z~t −1 + φ 2 Z~t −2 + .... + φ p Z~t − p + at


Z~t = Z~t − µ
(
En términos del operador de retraso 1 − φ1 B − φ 2 B + ..... + φ p B Z t = at
2 p
)~
Para que el proceso AR(p) sea estacionario se requiere que las raíces del
polinomio se encuentren fuera del círculo unitario.

1 − φ1 x − φ 2 x 2 + ....... + φ p x p = 0
Una forma alterntiva de verificar ello es que los siguientes determinantes que
involucran a los parámetros autorregresivos sean positivos. Estas condiciones son
una consecuencia de la aplicación del llamado Teorema de Schur.

33
−1 0 φp φ p −1 − 1 0... 0... φ p φ p −1 ... φ1
−1 φp φ1 −1 0 φp φ1 - 1... 0 0 φ p φ2
D1 = D2 = ……. D p =
φp −1 φp 0 − 1 φ1 ... ... ... ... ... ...
φ p −1 φ p 0 −1 φ1 φ 2 ... φ p 0 0... −1

Una forma alternativa de verificar el supuesto de estacionariedad es mediante el


sistema de ecuaciones de Yule Walker asociadas al proceso AR(p) que
proporcionan las primeras p autocorrelaciones.

ρ1 = φ1 + φ 2 ρ1 + ...... + φ p ρ p-1
ρ 2 = φ1 ρ1 + φ 2 + ...... + φ p ρ p-2
………………
ρ p = φ1 ρ p-1 + φ p − 2 + ...... + φ p

Las restantes son obtenidas a través de una relación recursiva

ρ k = φ1 ρ k -1 + φ 2 ρ k -2 + ...... + φ p ρ k -p para k > p

Considérese ahora la matriz de coeficientes de autocorrelación para toda la


muestra.

1 ρ1 ρ 2 ... ρ n −1
1 ρ1 ρ2
ρ1 1 ρ 1... ρ n − 2 1 ρ
Pn = P1 = P2 = ρ 1 1 ρ 1 ……….
... ... ... ... ρ 1
ρ2 ρ1 1
ρ n −1 ρ n−2 ρ n −3 1

Para que la serie sea estacionaria se requiere que esta matriz así como sus
menores sean positivos.

Modelos de Medias Móviles MA(q)


Los modelos de medias móviles, introducidos por Yule y Slutzky, representan un
proceso como una suma finita de choques aleatorios independientes at
ponderados por una serie de parámetros en la siguiente forma:

Z~t = at − θ1 at −1 − θ 2 at − 2 − ...... − θ q at − q

En forma equivalente se representa:

Z~t = (1 − θ1 B − θ 2 B 2 − ...... − θ q B q )at o bien Z~t = θ ( B)at

34
Los parámetros θ que constituyen los coeficientes no definen una media móvil
ponderada en el sentido estricto, pues éstos pueden ser negativos y su suma no
necesariamente es igual a 1 como sucede en un promedio móvil.

p
Dado que la suma de los valores absolutos de los parámetros ∑θ
i =1
i involucra un

número finito de elementos, entonces todo proceso de medias móviles es


estacionario.

Modelo MA (1)
De forma semejante a lo que se hizo con los modelos autorregresivos, iniciamos el
análisis de los procesos de MA con el caso más sencillo.

Z~t = at − θ1 at −1 o en términos del operador de retraso Z~t = (1 − θ1 B)at

En forma inmediata se tiene el valor esperado y la varianza del proceso.

E ( Z~t ) = E (at − θ1 at −1 ) = E (at ) − θ1 E (at −1 ) = 0

V ( Z~t ) = γ 0 = V (at − θ1at −1 ) = V (at ) + V (θ1at −1 ) = σ 2 + θ1 σ 2 = σ 2 (1 + θ1 )


2 2

Las autocovarianzas se obtienen:

[
γ k = E [(at − θ1at −1 )(at −k − θ1at −k −1 )] = E (at at −k − θ1at at −k −1 − θ1at −1at −k + θ12 at −1at −k −1 ) ]
Para k=1

[ ]
E (at at −1 − θ1at at −2 − θ1at −1at −1 + θ12 at −1at −2 ) =

= E (at at −1 ) − θ1 E (at at −2 ) − θ1 E (at2−1 ) + θ12 E (at −1at −2 )

= E (at ) E (at −1 ) − θ1 E (at ) E (at − 2 ) − θ1 E (at2−1 ) + θ12 E (at −1 ) E (at − 2 )

Por independencia de las at resultan anulados tres sumandos


= 0 − 0 − θ1V (at −1 ) + 0

Finalmente la autocovarianza solo existe para k=1 y se anula para el resto

− θ1σ 2 k =1
γk = 
 0 k >1

Las autocorrelaciones simples quedan definidas también para k=1

35
 − θ1
 k =1
ρ k = 1 + θ1 2
 0 k >1

Al tener autocorrelaciones nulas más allá de 1 implica que el proceso MA(1) tenga
memoria de un solo período. Por otro lado la única autocorrelación no puede tener
valores muy elevados, pues de ser así implicaría una fuerte relación con valores
anteriores y daría lugar a un proceso autorregresivo, de hecho se debe cumplir
ρ1 ≤ 0.5 . Para θ=-1 se obtiene la autocorrelación igual a 0.5 y para θ=1 se tiene
la autocorrelación igual a -0.5. Con la estimación del coeficiente de autocorrelación
de primer orden, se puede obtener una estimación inicial del parámetro con la
solución de una sencilla ecuación de segundo grado.

ρ k θ1 2 + θ1 + ρ k = 0
Ejemplo MA(1)
A continuación se presenta una realización del proceso θ1 = -0.4 y con media del
error cero y varianza del σ 2 =1 . Obsérvese que la primera autocorrelación
coincide en gran medida con el valor teórico esperado y aunque teóricamente las
autocorrelaciones son nulas para k>1, se observan valores empíricos superiores a
0.1 para k= 4,5, pero ello es solamente producto del azar. Las autocorrelaciones
parciales para k=1 y 2 son significativas.

Proceso de Meadias Móviles MA(1)

1
k Empírica Teórica
0
1 0.327776 0.34482759
-1 2 -0.072329 0
3 -0.085026 0
-2 4 -0.022376 0
5 0.016459 0
-3 6 -0.002418 0

FAC Autocorrelaciones
Autocorrelaciones parciales
AR(2)
.400 1.00
0.80
.300
0.60
.200 0.40
0.20
.100
0.00
.000 -0.20 1 2 3 4 5 6
1 2 3 4 5 6
-0.40
-.100
-0.60
-.200 -0.80

-.300 -1.00

36
Invertibilidad
Cuando un proceso puede expresarse mediante un modelo AR, se dice que el
proceso es invertible, esto es que se puede representar por un polinomio de
retraso de la siguiente forma:

π ( B) Z~t = at
donde π ( B) = 1 − π 1 B − π 2 B 2 − ....... es un polinomio de retraso que
cumple con que la siguiente suma converja dentro del círculo unitario.

π ( x) = 1 − ∑ π i x i
i =1
Todo proceso MA es estacionario y todo proceso AR es invertible. Las condiciones
de invertibilidad de un proceso MA se obtienen de manera similar a las
estacionariedad de un proceso AR.

La invertibilidad de un proceso es importante porque todo proceso invertible está


determinado de manera única por su función de autocorrelación.

El proceso MA(1) es invertible si θ < 1 lo que implica que ρ1 < 0.5

Modelo MA (2)
Ahora se analiza el modelo de medias móviles que involucra dos parámetros.

Z~t = at − θ1 at −1 − θ 2 at − 2 o su equivalente Z~t = (1 − θ1 B − θ 2 B 2 )at

Su media y varianza están dadas por

E ( Z~t ) = 0

V ( Z~t ) = γ 0 = σ 2 (1 + θ12 + θ 22 )

Su función de autocovarianza y función de autocorrelación tienen las siguientes


expresiones:
 − θ1 (1 − θ 2 )
(−θ1 + θ1θ 2 )σ 2
k =1 1+ θ 2 + θ 2 k = 1
  1 2
γk =  − θ 2σ 2 k=2  −θ2
ρk =  k =2
 ≥ 1 + θ 2
+ θ 2
 0 k 3  1 2
 0 k ≥3

La forma de su función de autocorrelación determina que la memoria del proceso
se limita a dos períodos. Para que el proceso MA(2) sea invertible se requiere que
las raíces de la siguiente ecuación se encuentren fuera del círculo unitario.

1 − θ1 x − θ 2 x 2 = 0

37
De donde se deducen condiciones alternativas de invertibilidad.

θ 2 < 1 , θ 2 + θ1 < 1 , θ 2 − θ1 < 1


Región de Invertibilidad para
MA(2)

1.0

0.8

0.6

0.4

0.2
Theta 2

0.0
-2.0 -1.8 -1.6 -1.4 -1.2 -1.0 -0.8 -0.6 -0.4 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
-0.2

-0.4

-0.6

-0.8

-1.0
Theta 1

En forma equivalente se establecen restricciones con referencia a los coeficientes


de autocorrelación

ρ12 ≤ 0.5 y ρ 2 ≤ 0.5

Ejemplo MA(2)
A continuación se presenta una realización del proceso θ1 = 0.6 , θ 2 = -0.4 y con
media del error cero y varianza del σ 2 =0.7. Las primeras dos autocorrelaciones
coinciden en gran medida con los valores teóricos esperados, pero las
subsiguientes no se anulan.

Medias Móviles MA(2) FAC Autocorrelaciones

3.0 1.00
0.80
2.0
0.60

1.0 0.40
0.20
0.0 0.00
-0.20 1 2 3 4 5 6
-1.0
-0.40
-2.0 -0.60
-0.80
-3.0
-1.00

-4.0

38
Las autocorrelaciones parciales muestran significancia para K=1 y 3

Autocorrelaciones parciales
MA(2)
.400
.300
.200
.100
.000
-.100 1 2 3 4 5 6
-.200
-.300
-.400
-.500
-.600

Modelo MA (q)
Se ha referido la forma general del modelo de medias móviles de q parámetros.

Z~t = at − θ1 at −1 − θ 2 at − 2 − ...... − θ q at − q

Cuyos momentos de segundo orden y función de autocorrelación son los


siguientes:

E ( Z~t ) = 0

( )
V ( Z~t ) = γ 0 = 1 + θ12 + θ 22 + ...... + θ q2 σ 2

− θ k + θ1θ k +1 + ...... + θ q − k θ q k = 1,2....q


γk = 
 0 k ≥ q +1

 − θ k + θ1θ k +1 + ...... + θ q − k θ q
 k = 1,2....q
ρ k =  1 + θ12 + θ 22 + ......... + θ q2
 k ≥ q +1
 0
De manera análoga a lo observado en los procesos MA(1) y MA(2), la memoria del
proceso MA(q) se limita a q períodos. Para que el proceso sea invertible se
requiere que los q determinantes definidos en la siguiente forma sean positivos.

−1 0 θ q θ q −1 − 1 0... 0... θ q θ q −1 ... θ1


−1 θq θ1 −1 0 θq θ1 - 1... 0 0 θ q ... θ 2
D1 = D2 = ……. D p =
θq −1 θq 0 − 1 θ1 ... ... ... ... ... ...
θ q θ q −1 0 −1 θ1 θ 2 .. θ q 0 0... − 1

39
Modelo ARMA (p,q)
Constituyen una unión y generalización de los modelos autorregresivos y de
medias móviles. En términos de polinomios de retraso de grados p y q se
expresan de la siguiente forma:

Z~t = φ1 Z~t −1 + φ 2 Z~t − 2 + ....... + φ p Z~t − p + at − θ1 at −1 − θ 2 at − 2 − ...... − θ q at − q

(1 − φ1 B − φ 2 B 2 − ....... − φ p B p ) Z~t = (1 − θ1 B − θ 2 B 2 − ...... − θ q B q )at

φ ( B) Z~t = θ ( B)at
El proceso ARMA(p,q) se puede referir como un autorregresivo puro de orden p

φ ( B) Z~t = et donde et = θ ( B)at


También como un proceso de medias móviles de orden q.

Z~t = θ ( B)bt con b siguiendo un proceso autorregresivo de orden p φ ( B)bt = at de


forma que θ ( B ) Z~t = θ ( B )φ ( B )bt = θ ( B)at

Modelo ARMA (1,1)


El más sencillo modelo ARMA involucra un modelo autorregresivo y uno de
medias móviles, ambos de primer orden.

Z~t = φ1 Z~t −1 + at − θ1 at −1
Cuyos primeros momentos son:
E ( Z~t ) = 0
La varianza del proceso se puede obtener de la forma siguiente:

[ ]
V ( Z~t ) = E Z~t2 = E [φ1 Z~t −1 Z~t + Z~t a t − θ 1 Z~t a t −1 ]
= φ E (Z~ Z~ ) + E (Z~ a ) − θ E (Z~ a )
1 t −1 t t t 1 t t −1

= φ1γ 1 + E (Z~t a t ) − θ 1 E (Z~t a t −1 )

Ahora se obtiene la esperanza del segundo sumando

( )
E ( Z~t a t ) = E [φ1 Z~t −1 a t ] + E a t2 − θ 1 E (a t a t −1 )
Puesto que Zt-1 no depende de at son indep.
= 0 +σ − 0 2

Finalmente la esperanza del tercer sumando

( )
E ( Z~t a t −1 ) = φ1 E (Z~t −1 a t −1 ) + E (a t a t −1 ) − θ 1 E a t2−1
= φ1σ + 0 − θ 1σ
2 2

= σ 2 (φ1 − θ 1 )

40
Volvemos a la varianza de Zt
γ 0 = φ1γ 1 + σ 2 − θ 1 (σ 2 (φ1 − θ ))
= φ1γ 1 + σ 2 [1 − θ 1 (φ1 − θ 1 )]

De manera similar se obtiene γ1

φ1γ 1 + (1 − θ 1 (φ1 − θ 1 ))σ 2 k =0



γk φ1γ 0 − θ 1σ 2 k =1
 φγ k −1 k≥2

Los valores de γ 0 y γ 1 se pueden obtener en función de los parámetros


autorregresivo y de medias móviles a partir del siguiente sistema de ecuaciones:

γ 0 = φ1γ 1 + (1 − θ1 (φ1 − θ1 ))σ 2


γ 1 = φ1γ 0 − θ1σ 2

(1 − 2φ1θ1 + θ12 )σ 2 (1 − φ1θ1 )(φ1 − θ1 )σ 2


Cuya solución es γ0 = γ1 =
1 − φ12 1 − φ12

De donde se deduce que la función de autocovarianza se puede expresar:

φ1k −1 (1 − φ1θ1 )(φ1 − θ1 )σ 2


γ1 = para k=1,2,3,……
1 − φ12
De donde la función de autocorrelación está dada por:

φ1k −1 (1 − φ1θ1 )(φ1 − θ1 )


ρk = para k=1,2,3,……
1 − 2φ1 θ1 + θ12

Si se cumple la condición de estacionariedad φ1 < 1 entonces la función de


autocorrelación experimenta un decaimiento exponencial.

Ejemplo ARMA (1,1) Simulado


A continuación se presenta una
realización del proceso φ1 = 0.6 , θ1 = 0.4 MODELO ARMA(1,1)
2.5
y con media del error cero y varianza del 2.0
σ 2 =1.0. Obsérvese la caída sistemática 1.5
de las autocorrelaciones simples 1.0

empíricas y teóricas que presentan una 0.5


0.0
elevada coincidencia.
-0.5
-1.0
-1.5
-2.0
-2.5

41
Las autocorrelaciones parciales muestran una caída lenta hacia el cero con signos
alternos. Observamos la mezcla de comportamientos propia de los modelos
ARMA

Autocorrelaciones Simples Autocorrelaciones Parciales


ARMA (1,1) ARMA (1,1)
0.90 0.80
0.80
0.60
0.70
0.60 0.40
0.50
0.40 0.20
0.30
0.20 0.00
1 2 3 4 5 6
0.10
-0.20
0.00
-0.10 1 2 3 4 5 6 -0.40
-0.20

Modelo ARIMA (p,d,q)


Los modelos revisados plantean que los procesos son estacionarios, sin embargo
para el caso de ciertos procesos no estacionarios, es posible lograr la
estacionariedad con la aplicación de diferencias a la serie original. Se ha visto que
d
al aplicar el operador diferencia en forma sucesiva se logra eliminar
tendencias de tipo polinomial y a la serie resultante ya estacionaria se le puede
ajustar un modelo de tipo ARMA.
Wt = d Z~t con d ≥ 1

Así un modelo ARIMA(p,d,q) queda definido en términos de los operadores de


diferencia y retraso de la siguiente forma:

φ (B) d
Z t = θ ( B)at

Al sustituir se tiene un ARMA(p,q) para Wt

φ (B) Wt = θ ( B)at

El adjetivo integrado hace alusión a que Zt se obtiene al despejar de Wt e invertir


d
el operador y da como resultado una suma infinita o una integración de
términos Wt.

Z~t = −d
Wt con d ≥ 1
Por ejemplo, para d=1

−1
= (1 − B) −1 = 1 + B + B 2 + B 3 + ..........

Para que el modelo sea estacionario e invertible se requiere que las raíces de
φ ( x) = 0 y θ ( x) = 0 se encuentren fuera del círculo unitario.

42
La no estacionariedad de la serie de tiempo se puede deber a que la varianza no
sea constante esto es se tenga σ t2 asociada a cada período como función de su
media µ t . La estabilización de la varianza se logra a través de una función
potencia (The use of transformations, Biométrika, Bartlett ,3,39,1947) del tipo:

f ( µt ) ∝ µ 2 (1−λ )
De donde
 µ tλ si λ ≠ 0
T (µt ) ∝ 
log(µ t ) si λ = 0
Se sugiere aplicar la transformaciones siguiente conocida como Box y Cox con m
suficiente para hacer positivos todos los valores de la serie usualmente m=1.

 Z tλ − 1
 si λ ≠ 0
Wt = T ( Z t ) =  λ
log(Z t ) si λ = 0 m > 0
Se explica para no dejar indeterminada la transformación con λ=0
Z tλ − 1
Lim = log(Z t )
λ →0 λ
La forma de elegir la mejor transformación se discutirá más adelante con mayor
detalle.

Ajuste de Modelos ARIMA


Los modelos de la clase ARIMA, como se ha PROCEDIMIENTO ITERARIVO
PARA CONSTRUIR MODELOS
visto, incluyen varios tipos de parámetros
cuyos valores son desconocidos. La forma
Identificación
específica del modelo más conveniente dentro del Modelo
de la clase ARIMA es una incógnita. En
consecuencia se tienen que aplicar
herramientas y procedimientos adicionales
para reducir las alternativas y seleccionar el Estimación de
mejor modelo para una serie dada. La primera Parámetros
recomendación que se hace es la de reducir el
número de parámetros tanto como sea
posible, esto es la parsimonia es la primera
regla que hay que tomar en cuenta. Validación y
Otro aspecto esencial es que estos modelos Diagnóstico

requieren un mínimo de 50 observaciones


para obtener resultados satisfactorios. De
hecho Box y Jenkins recomiendan 100 ó más Adecuado
observaciones. Los mismos autores proponen
una serie de etapas que constituyen un

Uso del Modelo 43


proceso iterativo para alcanzar un buen modelo, pues es usual que no se tenga
una respuesta satisfactoria al primer intento. Estas etapas son Identificación,
Estimación y Diagnóstico, las cuales aplicadas secuencialmente y con ayuda de
herramientas auxiliares para cada etapa llevan a un proceso convergente hacia la
mejor solución. En la siguiente sección se comentará cada etapa, así como sus
herramientas auxiliares.

Identificación.
En esta etapa se efectuarán pruebas de estacionariedad para determinar las
necesidades de transformación y diferenciación de la serie y los órdenes de los
parámetros autorregresivos y de medias móviles que se necesitarán, a partir del
análisis de los patrones de autocorrelaciones simples y parciales.

Patrones Característicos de Funciones de Autocorrelación.


Las funciones de autocorrelación simples y parciales de los modelos
Autorregresivos puros AR(p) y de Medias Móviles puros MA(q) tienen patrones
muy característicos y por tanto fáciles de identificar. A continuación se presentan
las gráficas de series de diferentes modelos puros y de los comportamientos
característicos de sus funciones de autocorrelación simples y parciales.

AR(1) parámetro Phi negativo.


Modelor Autorregresivo de Primer Orden
AR(1)
2.50
2.00
1.50
1.00
0.50
0.00
-0.50
-1.00
-1.50
-2.00
-2.50

Autocorrelaciones Simples Autocorrelaciones Parciales


.800 .400
.600
.200
.400
.000
.200 1 2 3 4 5 6 7 8 9 10
.000 -.200
1 2 3 4 5 6 7 8 9 10
-.200 -.400
-.400
-.600
-.600
-.800
-.800
-1.000 -1.000

44
Autorregresivo AR(1) parámetro Phi positivo
Modelor Autorregresivo de Primer Orden
AR(1)
3.00
2.50
2.00
1.50
1.00
0.50
0.00
-0.50
-1.00
-1.50
-2.00

Autocorrelaciones Simples Autocorrelaciones Parciales


1.000 1.000

.800 .800

.600 .600

.400 .400

.200 .200

.000 .000
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
-.200 -.200

-.400 -.400

Medias Móviles MA(1) parámetro Theta negativo

Proceso de Medias Móviles


MA(1)
2.50
2.00
1.50
1.00
0.50
0.00
-0.50
-1.00
-1.50
-2.00
-2.50

Autocorrelaciones Simples Autocorrelaciones Parciales


.500 .500
.400
.400
.300
.300
.200
.200 .100

.100 .000
1 2 3 4 5 6 7 8 9 10
-.100
.000
1 2 3 4 5 6 7 8 9 10 -.200
-.100
-.300
-.200 -.400

45
Medias Móviles parámetro Theta positivo

Proceso de Medias Móviles


MA(1)
2.50
2.00
1.50
1.00
0.50
0.00
-0.50
-1.00
-1.50
-2.00

Autocorrelaciones Simples Autocorrelaciones Parciales


.200 .200

.100 .100

.000 .000
1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10
-.100 -.100

-.200 -.200

-.300 -.300

-.400 -.400

-.500 -.500

Modelo de Medias Móviles MA(2) Theta(1) positivo y Theta(2) negativo

Medias Móviles MA(2)


0.80

0.60

0.40

0.20

0.00

-0.20

-0.40

-0.60

-0.80

-1.00

46
Autocorrelaciones Simples Autocorrelaciones Parciales
.600 .300
.200
.400
.100
.200 .000
-.100 1 2 3 4 5 6 7 8 9 10
.000
1 2 3 4 5 6 7 8 9 10 -.200
-.200 -.300

-.400 -.400
-.500
-.600
-.600
-.800 -.700

Medias Móviles MA(2) Theta(1) negativo y Theta (2) negativo

Medias Móviles MA(2)


1.50

1.00

0.50

0.00

-0.50

-1.00

-1.50

Autocorrelaciones Simples Autocorrelaciones Parciales


.700 .700
.600 .600
.500
.500
.400
.400
.300
.200 .300
.100 .200
.000 .100
-.100 1 2 3 4 5 6 7 8 9 10
.000
-.200
1 2 3 4 5 6 7 8 9 10
-.300 -.100
-.400 -.200

Estacionarización.
La estrategia de análisis sugiere que en primer término se estabilice la varianza.
En su caso la búsqueda de una transformación adecuada es el primer objetivo. Se
pretende encontrar un exponente λ de manera que el siguiente cociente sea
constante:
σt
= Cte para t = 1,2,.....n
µ 1−λ
La serie transformada como se mencionó, será:

 Z tλ − 1
 si λ ≠ 0
Wt = T ( Z t ) =  λ
log(Z t ) si λ = 0

47
En donde µ y σ t representan la media y la desviación estándar de la variable Zt,
a la cual se le habrá sumado, si lo requiere, una constante m que garantiza la no
negatividad de la serie y n es el número de observaciones. Como se dispone de
una sola realización del modelo, una alternativa propuesta por Víctor Guerrero es
dividir la serie en H grupos contiguos del mismo tamaño y calcular estimaciones
de la media y desviación estándar para cada grupo ( S h , Z h ) y construir una tabla
para evaluar cada valor del exponente. En un documento anexo se expone un
método para obtener una λ óptima. “Selección Óptima del Exponente para la
Transformación Box y Cox para Eliminar Heteroscedasticidad”

La tendencia de la serie se puede suprimir con la aplicación de diferencias, tanto a


períodos inmediatos, como a períodos del tamaño del ciclo estacional. Considere
la siguiente serie, la cual presenta una tendencia lineal creciente.

Modelor Autorregresivo de Segundo Orden


AR(2) con Tendencia
5.00

4.00

3.00

2.00

1.00

0.00

-1.00

Después de aplicar una primera diferencia respecto al período inmediato anterior,


la serie se estabiliza.

Serie Diferenciada D1
4.00
3.00
2.00
1.00
0.00
-1.00
-2.00
-3.00
-4.00
106
113
120
127
134
141
148
155
1
8
15
22
29
36
43
50
57
64
71
78
85
92
99

48
Los siguientes datos corresponden a transporte de pasajeros de una línea aérea
que presentan en la serie G del anexo Box y Jenkins. Note que hay un efecto
estacional y un incremento sistemático de la varianza.

Datos de Pasajeros de Línea Aéra


Box Jenkins
700
600
500
400
300
200
100
0
ene.-49

mar.-50
oct.-50

mar.-57
oct.-57
jun.-55
ene.-56
sep.-53

sep.-60
dic.-51

nov.-54
feb.-53

dic.-58

feb.-60
ago.-49

may.-51

jul.-52

abr.-54

ago.-56

may.-58

jul.-59
Se aplica la transformación logaritmo natural a los datos y se logra la
estabilización de la serie en cuanto a varianza.

Serie de Pasajeros Transformada


Zt'=Ln(Zt)
7.00

6.50

6.00

5.50

5.00

4.50

4.00
ene.-49

mar.-50
oct.-50

mar.-57
oct.-57
jun.-55
ene.-56
sep.-53

sep.-60
dic.-51

nov.-54
feb.-53

dic.-58

feb.-60
ago.-49

may.-51

jul.-52

may.-58
abr.-54

ago.-56

jul.-59

Modelos Estacionales
Los modelos autorregresivos, integrados y de medias móviles que se han
expuesto bajo condiciones de estacionariedad o de no estacionariedad y las
diferencias y transformaciones que se requieren para inducir la estacionariedad
resultan de bastante utilidad, sin embargo en los fenómenos reales son frecuentes
los comportamientos estacionales motivados por el tiempo, cuyos cambios de
temperatura, regímenes pluviométricos y otros fenómenos atmosféricos afectan el
comportamiento de la economía. También los hábitos de comportamiento
colectivo, tales como los períodos vacacionales y migraciones temporales tienen
efectos importantes y dan lugar a cambios cíclicos. Antes se han visto métodos
descriptivos para expresar este tipo de series en forma aditiva o multiplicativa en
sus componentes de tendencia, estacionales y cíclicos. Una extensión de los
modelos ARIMA revisados propone una alternativa más eficiente que los métodos

49
descriptivos y aún que métodos basados en series de Furier o combinaciones de
funciones basadas en senos y cosenos.

Como analogía al operador diferencia utilizado anteriormente se introduce el


operador diferencia estacional:

k
E Z t = (1 − B E ) k Z t

k
k!
=∑ (−1) j Z t − jE para k=0,1,2,……..y E=1,2,……
j =0 j!(k − j )!

Si E=12 y k=2 se tendría:

2
12 Z t = (1 − B12 ) 2 Z t = Z t − 2 Z t −12 + Z t −24

Entonces se pueden definir modelos estrictamente estacionales de la forma:

( )
Φ BE D
E (Z t − µ ) = Θ(B E )at o siguiendo la notación más simple

ARIMA (0,0,0)(P,D,Q)E

Modelo ARIMA (0,0,0)(1,0,0)E


El modelo estacional autorregresivo de primer orden, en analogía con el AR(1),
constituye el más sencillo.

Z~t = ΦZ~t − E + at donde Z~t = Z~t − µ


Evidentemente su esperanza es nula, pero su varianza está dada por:

( ) [
γ 0 = V (Z~t ) = E Z~t 2 = E (ΦZ~t −E + at )
2
]
[
= E Φ 2 Z~t2− E + 2ΦZ~t − E at + at2 ]
( )
= Φ 2 E Z~t2− E + 2ΦE (Z~t − E at ) + E at2 ( )
= Φ 2γ 0 + σ 2

De donde γ 0 = Φ 2γ 0 + σ 2 y al despejar se tiene

50
γ 0 = σ 2 /(1 − Φ 2 )

Las autocovarianzas se expresan de manera general por:

γ iE = Φ iσ 2 /(1 − Φ 2 ) para i>0

y γk = 0 para k≠ iE

De donde es fácil concluir que la FAC se expresa como:

Φ i para k = i E con i = 0,1,2,.....


ρk = 
0 para k ≠ i E

Ejemplo Modelo Estacional Simulado


~
A continuación se presenta una realización del proceso Z t = −0.6 Z t −3 + at
con media del error cero y varianza del σ 2 =1.0. Obsérvese la significancia de las
autocorrelaciones que son múltiplo del parámetros de estacionalidad ( 3 ) y la
oscilación de su signo.

Función de Autocorrelación
Período Empírica Teórica
1 0.091 0.000
2 -0.089 0.000
3 -0.655 -0.600
MODELO ARIMA(0.0.0)(1,0,0)3 4 -0.076 0.000
5 0.077 0.000
4 6 0.389 0.360
7 0.141 0.000
3 8 -0.082 0.000
9 -0.250 -0.216
2 10 -0.201 0.000

1
Autocorrelaciones
0
1.000
-1 0.800
0.600
0.400
-2
0.200
0.000
-3 -0.200 1 2 3 4 5 6 7 8 9 10
-0.400
-4 -0.600
-0.800
-5 -1.000

51
Modelo ARIMA (0,0,0)(0,0,1)E
El modelo estacional de medias móviles de primer orden, en analogía con el
MA(1), es el siguiente modelo que lógicamente resulta interesante revisar.

Z~t = at − Θat − E
Sus autocovarianzas y función de autocorrelación se resumen en las siguientes
expresiones.

( )
 1 + Θ 2 σ 2 para k = 0

γ k = − Θσ 2 para k = E ρk = 
(
 Θ/ 1 + Θ 2) para k = E
0 0 para k ≠ E
en otro lado

~
Por ejemplo, obsérvese una realización del modelo Z t = + at − 0.6at −3 . La función
de autocorrelación presenta un valor significativo par k=3 y los demás coeficientes
se anulan, aunque la autocorrelación empírica presenta algunos valores distintos
de cero, pero no significativos.
Función de Autocorrelación
Período Empírica Teórica
1 -0.016 0.000
MODELO ARIMA(0.0.0)(0,0,1)3 2 0.082 0.000
3 0.471 0.441
4 -0.072 0.000
4 5 0.137 0.000
6 0.004 0.000
3 7 0.014 0.000
8 0.036 0.000
2 9 -0.125 0.000
10 -0.063 0.000

1
Autocorrelaciones
0
1.000
-1 0.800
0.600
0.400
-2 0.200
0.000
-0.200 1 2 3 4 5 6 7 8 9 10
-3 -0.400
-0.600
-0.800
-4
-1.000

Modelo Multiplicativo ARIMA (p,d,q)(P,D,Q)E


Las series que observamos en la práctica desde luego presentan una combinación
de efectos que en observaciones mensuales se pueden asociar tanto a los meses
recientes, como a los mismos meses de años anteriores.

Así los efectos puramente estacionales se combinan con efectos de corto plazo.

52
( )
Φ BE D
E (Z t − µ ) = Θ(B E )at
Donde los errores at no se comportan como ruido blanco sino generadas por un
proceso ARIMA(p,d,q)

φ (B ) at = θ (B )at
d

La multiplicación de ambos efectos da lugar al modelo general

φ (B ) Φ (B E ) d D
E (Z t − µ ) = θ ( B)Θ(B E )at
Evidentemente las expresiones para las autocovarianzas y funciones de
autocorrelación se complican notablemente y como consecuencia el proceso de
identificación. El analista se ve en la necesidad de construir su modelo por etapas
y analizar varios modelos alternativos.

Ejemplo Indice Nacional de Precios al Consumido (INPC)


Considere la serie de valores del Indice Nacional de Precios al Consumidor de
enero de enero de 2000 a agosto de 2014.

Mes 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014
Ene 59.808 64.660 67.755 71.249 74.242 77.616 80.671 83.882 86.989 92.454 96.575 100.228 104.284 107.678 112.505
Feb 60.339 64.617 67.711 71.447 74.686 77.875 80.794 84.117 87.248 92.659 97.134 100.604 104.496 108.208 112.790
Mar 60.673 65.026 68.057 71.898 74.939 78.226 80.896 84.299 87.880 93.192 97.824 100.797 104.556 109.002 113.099
Abr 61.019 65.354 68.429 72.020 75.053 78.505 81.014 84.248 88.080 93.518 97.512 100.789 104.228 109.074 112.888
May 61.247 65.504 68.568 71.788 74.864 78.307 80.653 83.837 87.985 93.245 96.898 100.046 103.899 108.711 112.527
Jun 61.609 65.659 68.902 71.847 74.984 78.232 80.723 83.938 88.349 93.417 96.867 100.041 104.378 108.645 112.722
Jul 61.850 65.489 69.100 71.951 75.181 78.538 80.944 84.295 88.842 93.672 97.078 100.521 104.964 108.609 113.032
Ago 62.190 65.877 69.363 72.167 75.645 78.632 81.358 84.638 89.355 93.896 97.347 100.680 105.279 108.918 113.438
Sep 62.644 66.490 69.780 72.597 76.270 78.947 82.179 85.295 89.964 94.367 97.857 100.927 105.743 109.328
Oct 63.075 66.790 70.088 72.863 76.799 79.141 82.538 85.627 90.577 94.652 98.462 101.608 106.278 109.848
Nov 63.615 67.042 70.654 73.468 77.454 79.711 82.971 86.232 91.606 95.143 99.250 102.707 107.000 110.872
Dic 64.303 67.135 70.962 73.784 77.614 80.200 83.451 86.588 92.241 95.537 99.742 103.551 107.246 111.508

La grafica de la serie del INPC muestra una tendencia lineal, pero también se
percibe un efecto estacional con incrementos en el primer trimestre de cada año,
la cual es más evidente en la gráfica de los últimos 4 años.

Indice Nacional de Precios al Consumidor Indice Nacional de Precios al Consumidor


2000-2014 Zt 2010 - 2014
115
120
113
110 111
109
100 107

90 105
103
80 101
99
70
97
60 95
Oct 2010

Oct 2011

Oct 2012

Oct 2013
Ene 2010

Ene 2011

Ene 2012

Ene 2013

Ene 2014
Jul 2010

Jul 2011

Jul 2012

Jul 2013

Jul 2014
Abr 2010

Abr 2011

Abr 2012

Abr 2013

Abr 2014

50
105
113
121
129
137
145
153
161
169
1
9
17
25
33
41
49
57
65
73
81
89
97

53
Procedemos a tomar la primera diferencia simple para remover la tendencia. La
gráfica de la serie de la primera diferencia revela con mayor claridad el efecto
estacional y un incremento de la varianza relacionada con el tiempo. En
consecuencia habrá que atacar inicialmente el problema de la varianza, para
lograr la estacionariedad de segundo orden.

Indice Nacional de Precios al Consumidor


Dif 1
1.50

1.00

0.50

0.00

-0.50

-1.00
103
109
115
121
127
133
139
145
151
157
163
169
175
1
7
13
19
25
31
37
43
49
55
61
67
73
79
85
91
97

Una de las formas más usuales para corregir este tipo de problema, como se
mencionó, es mediante la transformación logarítmica de la serie original y
posteriormente tomar primera diferencia. El efecto es una disminución de la
varianza.

En la siguiente tabla se observan los promedios, desviaciones estándares y


coeficientes de variación por cada año de la serie. Se observa que los coeficientes
de variación de cada año varían entre 0.3% (2014) y 2.2%(2000).

54
Mes 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014
Ene 59.808 64.660 67.755 71.249 74.242 77.616 80.671 83.882 86.989 92.454 96.575 100.228 104.284 107.678 112.505
Feb 60.339 64.617 67.711 71.447 74.686 77.875 80.794 84.117 87.248 92.659 97.134 100.604 104.496 108.208 112.790
Mar 60.673 65.026 68.057 71.898 74.939 78.226 80.896 84.299 87.880 93.192 97.824 100.797 104.556 109.002 113.099
Abr 61.019 65.354 68.429 72.020 75.053 78.505 81.014 84.248 88.080 93.518 97.512 100.789 104.228 109.074 112.888
May 61.247 65.504 68.568 71.788 74.864 78.307 80.653 83.837 87.985 93.245 96.898 100.046 103.899 108.711 112.527
Jun 61.609 65.659 68.902 71.847 74.984 78.232 80.723 83.938 88.349 93.417 96.867 100.041 104.378 108.645 112.722
Jul 61.850 65.489 69.100 71.951 75.181 78.538 80.944 84.295 88.842 93.672 97.078 100.521 104.964 108.609 113.032
Ago 62.190 65.877 69.363 72.167 75.645 78.632 81.358 84.638 89.355 93.896 97.347 100.680 105.279 108.918 113.438
Sep 62.644 66.490 69.780 72.597 76.270 78.947 82.179 85.295 89.964 94.367 97.857 100.927 105.743 109.328
Oct 63.075 66.790 70.088 72.863 76.799 79.141 82.538 85.627 90.577 94.652 98.462 101.608 106.278 109.848
Nov 63.615 67.042 70.654 73.468 77.454 79.711 82.971 86.232 91.606 95.143 99.250 102.707 107.000 110.872
Dic 64.303 67.135 70.962 73.784 77.614 80.200 83.451 86.588 92.241 95.537 99.742 103.551 107.246 111.508

Media 61.864 65.804 69.114 72.257 75.644 78.661 81.516 84.750 89.093 93.813 97.712 101.042 105.196 109.200 112.875
Desv Est 1.359 0.878 1.086 0.776 1.123 0.740 0.997 0.952 1.690 0.949 0.985 1.078 1.128 1.083 0.312
CV 2.2% 1.3% 1.6% 1.1% 1.5% 0.9% 1.2% 1.1% 1.9% 1.0% 1.0% 1.1% 1.1% 1.0% 0.3%

Después de tomar logaritmo natural de la serie se vuelven calcular las mismas


estadísticas. El CV es comparable, pues no depende de las unidades. Los
coeficientes de variación disminuyen a 0.1% y 0.5% respectivamente, por lo que
se considera que la transformación resulta útil para controlar la varianza.

Mes 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014
Ene 4.091 4.169 4.216 4.266 4.307 4.352 4.390 4.429 4.466 4.527 4.570 4.607 4.647 4.679 4.723
Feb 4.100 4.168 4.215 4.269 4.313 4.355 4.392 4.432 4.469 4.529 4.576 4.611 4.649 4.684 4.726
Mar 4.106 4.175 4.220 4.275 4.317 4.360 4.393 4.434 4.476 4.535 4.583 4.613 4.650 4.691 4.728
Abr 4.111 4.180 4.226 4.277 4.318 4.363 4.395 4.434 4.478 4.538 4.580 4.613 4.647 4.692 4.726
May 4.115 4.182 4.228 4.274 4.316 4.361 4.390 4.429 4.477 4.535 4.574 4.606 4.643 4.689 4.723
Jun 4.121 4.184 4.233 4.275 4.317 4.360 4.391 4.430 4.481 4.537 4.573 4.606 4.648 4.688 4.725
Jul 4.125 4.182 4.236 4.276 4.320 4.364 4.394 4.434 4.487 4.540 4.576 4.610 4.654 4.688 4.728
Ago 4.130 4.188 4.239 4.279 4.326 4.365 4.399 4.438 4.493 4.542 4.578 4.612 4.657 4.691 4.731
Sep 4.137 4.197 4.245 4.285 4.334 4.369 4.409 4.446 4.499 4.547 4.584 4.614 4.661 4.694
Oct 4.144 4.202 4.250 4.289 4.341 4.371 4.413 4.450 4.506 4.550 4.590 4.621 4.666 4.699
Nov 4.153 4.205 4.258 4.297 4.350 4.378 4.418 4.457 4.517 4.555 4.598 4.632 4.673 4.708
Dic 4.164 4.207 4.262 4.301 4.352 4.385 4.424 4.461 4.524 4.560 4.603 4.640 4.675 4.714

Media 4.125 4.187 4.236 4.280 4.326 4.365 4.401 4.440 4.490 4.541 4.582 4.615 4.656 4.693 4.726
Desv Est 0.022 0.013 0.016 0.011 0.015 0.009 0.012 0.011 0.019 0.010 0.010 0.011 0.011 0.010 0.003
CV 0.5% 0.3% 0.4% 0.3% 0.3% 0.2% 0.3% 0.3% 0.4% 0.2% 0.2% 0.2% 0.2% 0.2% 0.1%

La serie diferenciada después de aplicar logaritmo natural se reproduce en la


siguiente gráfica.

Indice Nacional de Precios al Consumidor


Dif 1 (Ln(Zt))
0.02

0.01

0.01

0.00

-0.01

-0.01 55
106
113
120
127
134
141
148
155
162
169
176
1
8
15
22
29
36
43
50
57
64
71
78
85
92
99
A continuación se toma diferencia para el efecto cíclico k=12. La serie resultante,
después de aplicarle logaritmo natural, primera diferencia simple y primera
diferencia para ciclo k=12, se presenta en la siguiente gráfica, para proceder a
calcular sus autocorrelaciones simples y parciales e identificar el modelo.

Serie de INPC D12(D1(Ln(Zt)))


0.010
0.008
0.006
0.004
0.002
0.000
-0.002
-0.004
-0.006
-0.008
-0.010
-0.012

106
113
120
127
134
141
148
155
162
1
8
15
22
29
36
43
50
57
64
71
78
85
92
99
El siguiente paso es el cálculo de las autocorrelaciones simples y parciales de la
serie transformada y diferenciada. Las autocorrelaciones simples muestran valores
muy significtivos para k=1 y 12, además son significtivas para k=3,8,9 y 11

Autocorrelaciones Simples
0.40
0.30
0.20
0.10
0.00
-0.10 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24

-0.20
-0.30
-0.40
-0.50
-0.60

56
Autocorrelaciones Simples
Estadístico de Box-Ljung
Error
Retardo Autocorrelación Grados
Estándar Q(k) Probabilidad
Lib
1 .3449 .0776 19.747 1 .00001
2 -.0831 .0774 20.900 2 .00003
3 -.2658 .0771 32.780 3 .00000
4 -.1318 .0769 35.719 4 .00000
5 .0377 .0766 35.961 5 .00000
6 -.0095 .0764 35.976 6 .00000
7 .0276 .0762 36.108 7 .00001
8 .2175 .0759 44.317 8 .00000
9 .2643 .0757 56.518 9 .00000
10 .0797 .0754 57.636 10 .00000
11 -.2507 .0752 68.757 11 .00000
12 -.4857 .0749 110.778 12 .00000
13 -.1453 .0747 114.561 13 .00000
14 .0475 .0744 114.968 14 .00000
15 .1190 .0742 117.541 15 .00000

Las autocorrelaciones parciales muestran cierta caída en los primeros períodos y


significancia para k=12 seguida de una brusca interrupción. Ello sugiere un
modelo ARIMA con parámetros simples y estacionales de carácter mixto.

Autocorrelaciones Parciales
0.40

0.30

0.20

0.10

0.00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
-0.10

-0.20

-0.30

-0.40

57
Autocorrelaciones parciales

Error
Retardo Autocorrelación
Estándar

1 .34489 .07833
2 -.22927 .07833
3 -.18157 .07833
4 .02452 .07833
5 .03080 .07833
6 -.12648 .07833
7 .07283 .07833
8 .25379 .07833
9 .10801 .07833
10 -.03635 .07833
11 -.17249 .07833
12 -.32686 .07833
13 .10414 .07833
14 -.09775 .07833
15 -.05883 .07833

Se plantea un modelo mixto del tipo ARIMA (0,1,1)(1,1,0) donde Zt está


transformada por su logaritmo.
Z~t = −θ1at −1 − Φ12 Z t −12 + at

Las estimaciones de los Mes Zt Zt Est Li 95% Ls 95%


parámetros obtenidas mediante ago-13 108.92 108.64 108.11 109.16
uso de paquetería estadística, sep-13 109.33 109.36 108.84 109.89
oct-13 109.85 109.94 109.41 110.47
arrojan los siguientes resultados.
nov-13 110.87 110.78 110.24 111.31
dic-13 111.51 111.51 110.98 112.05
En la tabla se presentan los ene-14 112.51 112.12 111.58 112.66
valores observados y estimados feb-14 112.79 113.01 112.46 113.55
de agosto 2013 a agosto 2015. mar-14 113.1 113.04 112.5 113.59
También los límites para abr-14 112.89 112.91 112.37 113.46
intervalos de 95% para los may-14 112.53 112.48 111.94 113.02
correspondientes pronósticos. jun-14 112.72 112.79 112.24 113.33
jul-14 113.03 113.01 112.47 113.56
Podrá verificar la precisión de ago-14 113.44 113.34 112.79 113.89
sep-14 113.92 113.37 114.47
las estimaciones, puesto que
oct-14 114.44 113.48 115.41
este documento se escribe en
nov-14 115.31 114.05 116.57
septiembre de 2014. dic-14 115.7 114.21 117.21
ene-15 116.37 114.67 118.09
θˆ1 = −0.438114 feb-15 116.79 114.9 118.7
Φˆ 12 = −0.579958 mar-15 117.39 115.32 119.47
abr-15 117.3 115.09 119.55
may-15 116.88 114.54 119.26
Puede observar que el promedio jun-15 116.89 114.41 119.41
del error absoluto porcentual es jul-15 116.97 114.36 119.62
menor al 1% ago-15 117.3 114.56 120.08

58
Estadísticas de ajuste:
Raíz del Error Error
Error C. M Abs. Medio Porc. Abs.M
RMSE MAE MAPE

0.21607614 0.16527607 0.193%

El error estándar de la estimación de Zt se obtiene mediante la siguiente


expresión:

φ ( B ) Φ ( B ) Z t = θ ( B ) Θ ( B ) = at

θ ( B )Θ( B ) ∝
Zt = a = ψ ( B)at = ∑ψ at −i
φ ( B )Φ ( B ) t i =1
i

Por lo tanto

V (Zˆ t ) = σ
t
2
at ∑ψ
i =0
i
2
Donde ψ0 =1

La varianza estimada se obtiene a partir de la suma de cuadrados de residuales


corregidos por grados de libertad, multiplicada por los coeficientes ψ que se
obtienen en forma iterativa. La estimación de los coeficientes de la varianza
resulta engorrosa y se recomienda aplicar paquetería estadística.

m −1
Vˆ (Zˆt + m ) =
n
1
∑ et ∑ψˆ i2
2

n − p − q − P − Q t =1 i =0

El intervalo de confianza se obtiene mediante aproximación normal:

Zˆ t ± Z1−α / 1 V ( Zˆ t )

La siguiente gráfica muestra pronósticos, valores observados e intervalos de


confianza de agosto de 2013 a agosto de 2015.

59
Pronóticos INPC
122
120
118
116
114
112
Zt
110
108 Zt Est
106 Li 95%
104 Ls 95%
102

La gráfica de los residuales no revela un patrón sistemático, lo cual indica que se


han removido los principales componentes y nos ha quedado sólo ruido blanco.

Residuales del Modelo ARIMA


0.800

0.600

0.400

0.200

0.000

-0.200

-0.400

-0.600

-0.800
106
113
120
127
134
141
148
155
162
1
8
15
22
29
36
43
50
57
64
71
78
85
92
99

Las autocorrelaciones simples y parciales de los residuales, no muestran


evidencia de un movimiento sistemático no detectado. La significancia de algunas
autocorrelaciones simples y parciales K=8,9 y 10 se consideran espurias.

60
Autocorrelaciones Simples de Residuales
.250
.200
.150
.100
.050
.000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-.050
-.100
-.150
-.200

Autocorrelaciones Parciales de Residuales


.250
.200
.150
.100
.050
.000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-.050
-.100
-.150
-.200

Estadísticas de Diagnóstico.
El Error Cuadrático Medio ECM o su identificación y abreviatura en inglés Mean
Squared Error( MSE), se calcula mediante la suma de cuadrados de los
residuales, dividido entre el número de éstos m, que puede ser menor al número
de observaciones iniciales n debido a las pérdidas por diferenciación de la serie,
es el más conocido.
m

∑ (Z − Zˆ t )
1
MSE =
2

m−k
t
i =1

61
Otro indicador es la Raíz Cuadrada del El Error Cuadrático Medio RECM o su
identificación y abreviatura en inglés ( RMSE), tiene la ventaja de expresarse en
las unidades originales de la serie.

∑ (Z − Zˆ )
1
RMSE =
2

m−k
t t
i =1

El Error Absoluto Promedio o Mean Absolute Error (MAE), se calcula como el


promedio de los valores absolutos residuales. Es una medida de desviación en
términos de las unidades originales.
m

∑Z
1
MAE = t − Zˆ t
m i =1

El error absoluto porcentual medio (EAPM) o Mean Absolute Percentage Error


(MAPE), se calcula como el promedio de los valores absolutos residuales divididos
entre los correspondientes valores de las observaciones originales y multiplicado
por 100 para expresar un porcentaje.

∑ Z − Zˆ
100
MAPE = t t / Zt
m i =1
El Criterio de información Bayesiano normalizado, Normalized Bayesian
Information Criterion, abreviado BIC normalizado es un criterio para selección de
modelos, fue desarrollado por Gideon E. Schwarz .

BIC normalizado = Ln(MSE ) + k


Ln(m)
m
Su forma no normalizada se obtiene al multiplicar el BIC normalizado por m

BIC = mLn(MSE ) + kLn(m)

El modelo con menor BIC es el que se prefiere.

El criterio de información de Akaike es otro criterio muy popular

1 m
2
AIC = mLn
m

∑ (Z
i =1
t − Zˆ t )  + 2k

Otra estadística que reporta es el logaritmo de la función de verosimilitud que se


supone alcanza el valor máximo con los estimadores calculados. Para este caso

62
SSQ' nLn(2π )
L = nLn(σˆ a ) − −
2σˆ 2 a 2
También se suele reportar el criterio de información de Akaike que se calcula en
función del logaritmo de la función de verosimilitud y el número de parámetros.

AIC = 2m − 2 L

Donde m es el número de parámetros del modelo

Otra estadística adicional es el Criterio Bayesiano de Schwartz también conocido


como criterio de información bayesiano que se calcula de la siguiente forma y el
mejor modelo tiene el menor BIC o AIC

BIC = −2 L + Ln(n)m

Ejemplo Serie Línea Aérea.


Como ejemplo de un modelo multiplicativo estacional considérese los datos de la
llamada serie G que Box y Jenkins incluyen en su texto. Estos 144 datos
corresponden al número de pasajeros internacionales en miles que viajaron por
una compañía aérea entre enero de 1949 y diciembre de 1960.

Mes 1949 1950 1951 1952 1953 1954 1955 1956 1957 1958 1959 1960
Ene 112 115 145 171 196 204 242 284 315 340 360 417
Feb 118 126 150 180 196 188 233 277 301 318 342 391
Mar 132 141 178 193 236 235 267 317 356 362 406 419
Abr 129 135 163 181 235 227 269 313 348 348 396 461
May 121 125 172 183 229 234 270 318 355 363 420 472
Jun 135 149 178 218 243 264 315 374 422 435 472 535
Jul 148 170 199 230 264 302 364 413 465 491 548 622
Ago 148 170 199 242 272 293 347 405 467 505 559 606
Sep 136 158 184 209 237 259 312 355 404 404 463 508
Oct 119 133 162 191 211 229 274 306 347 359 407 461
Nov 104 114 146 172 180 203 237 271 305 310 362 390
Dic 118 140 166 194 201 229 278 306 336 337 405 432

En principio se procede a graficar la serie y se observa un evidente efecto de


incremento de la varianza directamente relacionada con el tiempo. Los puntos
máximos corresponden a los meses de julio y agosto de cada año y los mínimos a
noviembre.

63
Datos de Pasajeros de Línea Aérea
Serie G de Box y Jenkins
(miles de pasajeros)
700

600

500

400

300

200

100

0
Ene-49

Jul-49

Ene-50

Jul-50

Ene-51

Jul-51

Ene-52

Jul-52

Ene-53

Jul-53

Ene-54

Jul-54

Ene-55

Jul-55

Ene-56

Jul-56

Ene-57

Jul-57

Ene-58

Jul-58

Ene-59

Jul-59

Ene-60

Jul-60
Se comienza por estabilizar la varianza de la serie se procede a transformarla y se
toma el logaritmo natural. En la siguiente gráfica se puede apreciar que la serie
presenta un comportamiento estable, resta sin embargo corregir la tendencia para
dejarla estacionaria.

Datos Logaritmo Natural de Pasajeros de Línea Aérea


Serie G de Box y Jenkins

7.0

6.5

6.0

5.5

5.0

4.5

4.0
Ene-49

Jul-49

Ene-50

Jul-50

Ene-51

Jul-51

Ene-52

Jul-52

Ene-53

Jul-53

Ene-54

Jul-54

Ene-55

Jul-55

Ene-56

Jul-56

Ene-57

Jul-57

Ene-58

Jul-58

Ene-59

Jul-59

Ene-60

Jul-60

A continuación se procede a calcular la función de autocorrelaciones simples FAC


y la función de autocorrelaciones parciales para la serie transformada a logaritmo.
Los valores y gráfica de la función de autocorrelación muestran el comportamiento
característico de una serie no estacionaria. Esto es, elevados valores y muy lento
descenso. La oscilación de la FAC se debe al efecto estacional.

64
Error Estadístico de Box-Ljung
Retardo k Autocorrelación
Estándar Q(k) Grados Lib probabilidad
1 .95370 .08247 133.723 1 .000
2 .89892 .08218 253.360 2 .000
3 .85080 .08189 361.293 3 .000
4 .80843 .08160 459.437 4 .000
5 .77890 .08131 551.200 5 .000
6 .75644 .08102 638.374 6 .000
7 .73760 .08072 721.864 7 .000
8 .72713 .08043 803.598 8 .000
9 .73365 .08013 887.420 9 .000
10 .74426 .07984 974.327 10 .000
11 .75803 .07954 1065.158 11 .000
12 .76194 .07924 1157.625 12 .000
13 .71650 .07894 1240.016 13 .000
14 .66304 .07863 1311.114 14 .000
15 .61836 .07833 1373.432 15 .000
16 .57621 .07803 1427.965 16 .000
17 .54380 .07772 1476.920 17 .000
18 .51946 .07742 1521.944 18 0.000
19 .50070 .07711 1564.110 19 0.000
20 .49040 .07680 1604.886 20 0.000

Autocorrelaciones Simples Ln(Zt)


1.20

1.00

0.80

0.60

0.40

0.20

0.00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
-0.20

-0.40

65
Las autocorrelaciones parciales muestran solamente dos valores significativos,
para K=1 y para K=13, ello por el efecto estacional.

Autocorrelación Error
Retardo K
parcial Estándar
1 .953703 .083333
2 -.117570 .083333
3 .054233 .083333
4 .023756 .083333
5 .115822 .083333
6 .044368 .083333
7 .038034 .083333
8 .099622 .083333
9 .204096 .083333
10 .063909 .083333
11 .106035 .083333
12 -.042466 .083333
13 -.485430 .083333
14 -.034350 .083333
15 .042225 .083333
16 -.044197 .083333
17 .027608 .083333
18 .037148 .083333
19 .041638 .083333
20 .014400 .083333

Autocorrelaciones Parciales Ln(Zt)


1.20
1.00
0.80
0.60
0.40
0.20
0.00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
-0.20
-0.40
-0.60

66
Se procede entonces a tomar primera diferencia de la serie para eliminar la
tendencia. La siguiente gráfica muestra que la serie resultante es estacionaria. El
patrón repetitivo muestra la influencia de la parte estacional.

Datos con Primera diferencia del Logaritmo Natural de Pasajeros de Línea Aérea
Serie G de Box y Jenkins

0.25

0.20

0.15

0.10

0.05

0.00

-0.05

-0.10

-0.15

-0.20

-0.25
Ene-49

Sep-49
Ene-50

Sep-50
Ene-51

Sep-51
Ene-52

Sep-52
Ene-53

Sep-53
Ene-54

Sep-54
Ene-55

Sep-55
Ene-56

Sep-56
Ene-57

Sep-57
Ene-58

Sep-58
Ene-59

Sep-59
Ene-60

Sep-60
May-49

May-50

May-51

May-52

May-53

May-54

May-55

May-56

May-57

May-58

May-59

May-60
Se procede también a tomar una primera diferencia estacional de 12 períodos. La
gráfica de la serie con la aplicación de esta segunda diferencia ya no muestra el
patrón sistemático y no aparecen las primeras 13 observaciones, pues la primera
se pierde por la diferencia simple y las siguientes 12 para contar con los
desplazamientos que requiere la diferencia estacional.
Datos con Primera diferencia del Logaritmo Natural y Primera diferencia estacional a 12 períodos
de Pasajeros de Línea Aérea. Serie G de Box y Jenkins

0.20

0.15

0.10

0.05

0.00

-0.05

-0.10

-0.15

-0.20
Ene-49

Jul-49

Ene-50

Jul-50

Ene-51

Jul-51

Ene-52

Jul-52

Ene-53

Jul-53

Ene-54

Jul-54

Ene-55

Jul-55

Ene-56

Jul-56

Ene-57

Jul-57

Ene-58

Jul-58

Ene-59

Jul-59

Ene-60

Jul-60

67
A continuación se vuelven a calcula las funciones de autocorrelación simples y
parciales para tratar de identificar un modelo o modelos alternativos. Las
autocorrelaciones simples muestran significancia para K=1 y 12

Error Estadístico de Box-Ljung


Retardo k Autocorrelación
Estádar Q(k) Grados Lib Probabilidad
1 -.341124 .086379 15.596 1 .000
2 .105047 .086047 17.086 2 .000
3 -.202139 .085712 22.648 3 .000
4 .021359 .085377 22.710 4 .000
5 .055654 .085040 23.139 5 .000
6 .030804 .084702 23.271 6 .001
7 -.055579 .084362 23.705 7 .001
8 -.000761 .084022 23.705 8 .003
9 .176369 .083679 28.147 9 .001
10 -.076358 .083336 28.987 10 .001
11 .064384 .082991 29.589 11 .002
12 -.386613 .082644 51.473 12 .000
13 .151602 .082296 54.866 13 .000
14 -.057607 .081947 55.361 14 .000
15 .149565 .081596 58.720 15 .000
16 -.138942 .081243 61.645 16 .000
17 .070482 .080889 62.404 17 .000
18 .015631 .080534 62.442 18 .000
19 -.010611 .080177 62.460 19 .000
20 -.116729 .079818 64.598 20 .000

Autocorrelaciones Simples
D1(D12( Ln(Zt)))
1.20

1.00

0.80

0.60

0.40

0.20

0.00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
-0.20

-0.40

-0.60

68
Las autocorrelaciones parciales muestran valores significativos para K=1,9 y 12.
Se puede decir que hay patrones mezclados de componentes autorregrsivos y de
medias móviles.

Autocorrelación Error
Retardo k
parcial Estándar
1 -.341124 .087370
2 -.012809 .087370
3 -.192662 .087370
4 -.125028 .087370
5 .033090 .087370
6 .034677 .087370
7 -.060187 .087370
8 -.020223 .087370
9 .225577 .087370
10 .043071 .087370
11 .046588 .087370
12 -.338695 .087370
13 -.109179 .087370
14 -.076839 .087370
15 -.021751 .087370
16 -.139545 .087370
17 .025892 .087370
18 .114822 .087370
19 -.013162 .087370
20 -.167430 .087370
21 .132404 .087370
22 -.072039 .087370
23 .142854 .087370
24 -.067332 .087370

Autocorrelaciones Parciales
D1(D12(Ln(Zt)))
0.30

0.20

0.10

0.00
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
-0.10

-0.20

-0.30

-0.40

69
En observacia de parsimonia, se plantea un modelo con un parámetro
autorregresivo en la parte simple y un parámetro de medias móviles en la parte
estacionaria, esto es un modelo ARIMA(1,1,0)(0,1,1)12 .

Se procede al ajuste con los siguientes resultados después de 5 iteraciones:

φˆ = -0.34112
Θ̂ = 0.40120
Constante =-0.00006

Esto es el modelo quedaría de la forma: (1 + 0.34112 B) Z t = (1 − 0.4012 B 12 )at


Las estadísticas de ajuste que reporta SPSS son:

Parámetros Error estándar Tcalculada Probabilidad


φˆ = -0.33951036 0.08244750 -4.1178976 0.00006811
Θ̂ = 0.56291903 0.08546761 6.5863437 0.00000000
Cte -0.00017482 0.000122245 -0.1430072 0.88650939

La serie de observaciones en escala original, las predicciones incluyendo un año


adicional y los intervalos de 95% de confianza para las predicciones se pueden
observar en la siguiente gráfica.

SERIE G PASAJEROS BOX JENKINS


PRONOSTICOS CON MODELO ARIMA(1,1,0)(0,1,1)12
900

800

700

600

500

400

300

200

100

0
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96 101 106 111 116 121 126 131 136 141 146 151 156

70
Para confirmar que el modelo es adecuado se calcularon las autocorrelaciones
para los residuales y éstas resultaron no significativas. Así se puede considerar
que los residuales se comportan como ruido blanco.

Box y Jenkins ajustan un modelo alternativo para esta serie de la forma


ARIMA(0,1,1)(0,1,1)12 que proporciona resultados muy similares en los
pronósticos y en los criterios de Akaike y Shwartz. Ello nos lleva a la conclusión de
que para una serie en particular pueden existir diferentes alternativas y se deben
evaluar bajo diferentes puntos de vista considerando siempre la parsimonia, la
bondad de ajuste, la interpretabilidad y la capacidad de pronóstico. El modelaje de
series de tiempo responde a una técnica pero también a un arte.

BIBLIOGRAFIA
Box, G. Jenkins, G. Time Series Analysis Forecasting and Control. Holden
Day, 1971

Caridad y Ocerin, J.M.; Econometría: Modelos Econométricos y Series


Temporales Tomos 1 y 2. Ed. Reverté S.A., 1998

Guerrero, V. Análisis Estadístico de Series de Tiempo Económicas. UAM,


1991

Makridakis, S.; Wheelwright, S. Forecasting Methods & Applications. John


Wiley & Sons 1978

Makridakis, S.; Wheelwright, S. Métodos de Pronósticos. Limusa, 2000

71