Professional Documents
Culture Documents
SERIES TEMPORALES I
Mario Bidegain (FC) Alvaro Diaz (FI) Universidad de la Repblica Montevideo, Uruguay 2011
CONTENIDO
Estudio de las series temporales en Climatologa. Ciclo anual y diario en variables climticas. Dominio temporal vs. dominio de frecuencias. Procesos estocsticos. Series aleatorias. Estacionariedad. Pruebas de tendencia (test de Mann-Kendall). Autocovariancia y autocorrelacin Procesos de Markov. Ejemplos de procesos autorregresivos.
Procesos estocsticos I
Se define un proceso X(t) como un fenmeno que cambia en el tiempo o el espacio. Los procesos suelen clasificarse en: Determinsticos: existe una relacin definida o causal por lo que la obtencin de nuevos datos u observaciones no agregan informacin sobre el mismo Estocsticos: definidos por una distribucin de probabilidades. Son mas complejos que su anlogo determinstico. Normalmente se define una Serie cronolgica o temporal como una funcin no determinstica o aleatoria X que depende de una variable t (tiempo). Se admite que la serie temporal representa un muestreo de una poblacin, suponiendo adems que es estacionaria, es decir que su promedio, varianza y otros momentos estadsticos son invariantes a desplazamientos temporales. Un proceso aleatorio puro cumple adems que las realizaciones son independientes entre ellas constituyendo una secuencia al azar.
Procesos estocsticos II
En las series climticas los valores sucesivos no son independientes entre si debido a la presencia de persistencia (la serie tiende a recordar sus valores anteriores), ciclos peridicos o aperiodicos y tendencias ya sea lineal o no lineal y otros efectos no aleatorios. En general las series climticas consisten tanto de componentes aleatorias como determinsticas. El objetivo es identificar tan claramente como sea posible la naturaleza y extensin de las componentes no aleatorias en estas series climticas. Existen varias tcnicas estadsticas que intentan ajustar modelos que representen los procesos estocasticos generadores de las series. Si bien un proceso estocstico no es predecible con certeza es posible describirlo en trminos de sus parmetros estadsticos.
Estacionariedad
Hay dos aproximaciones para tratar con series no estacionarias: La primera aproximacin es transformar matemticamente los datos no estacionarios para acercarnos a la estacionariedad. Por ejemplo, restando una funcin peridica a los datos que contiene un ciclo anual producira una serie de datos transformada con media (cero) constante. Para producir una serie con media y varianza constante, podra ser necesario aun ms transformar estas anomalas a anomalas estandarizadas - es decir dividir los valores en la serie de anomalas por las desviaciones estndar que tambin varan con un ciclo anual. La alternativa a la transformacin de datos es estratificar los datos. Es decir podemos hacer los anlisis por separado de los subconjuntos del registro de datos que son bastante cortos para ser considerados como estacionarios. Nosotros podramos analizar observaciones diarias para todos los registros de enero disponibles en una ubicacin dada, asumiendo que cada registro de datos de 31 das es una muestra del mismo proceso fsico, pero necesariamente estamos diciendo que no aceptamos que aquel proceso sea el mismo para julio, o para febrero.
Estacionariedad
Hay dos aproximaciones para testear la estacionariedad de una serie: No paramtricas Paramtricas Dentro de las No Paramtricas se utiliza: Test del recorrido Dentro de las Paramtricas: La Funcin de autocorrelacin en una serie temporal no estacionaria, no decaer, ni se extinguir rpidamente. Bsicamente las aproximaciones paramtricas asumen un cierto nivel de experiencia con los datos, y con aquella experiencia uno entonces puede contar que examinando los datos pueden se puede considerar estacionaria o no.
Autocovariancia
La autocovariancia es la covariancia consigo misma en otros instantes de tiempo, medido por un lag o desfasaje temporal. Esta funcin es utilizada para estimar los periodos dominantes en una serie temporal. La autocovariancia mide el grado de intensidad de correlacin, dependencia o memoria de los valores de un proceso entre dos instantes.
Autocorrelacin I
Usamos la correlacin como una medida de dependencia. Cuando trabajamos con una variable, podemos calcular la correlacin entre X t y X t-1 o entre X t y X t-2 Las correlaciones entre X en diferentes tiempos son llamados autocorrelaciones. No obstante, debemos asumir que todos los Xs tienen: misma media (no existen tendencias) misma varianza
Autocorrelacin II
Suponemos que la serie es estacionaria.
Esto significa que: La serie temporal varia alrededor de una media fija y tiene variancia constante La dependencia entre observaciones sucesivas no cambia con el tiempo
Autocorrelacin III
Las estimaciones de la autocorrelaciones muestrales son:
T
(X
rs =
t =s
t T
X)(Xt s X)
t
(X
t =1
X)
a) Si el lag o desplazamiento es pequeo la autocorrelacion es positiva para muchas variables geofisicas b) Esto significa que existe persistencia en las variables c) Por lo tanto si tenemos una secuencia de N observaciones estas no pueden ser consideradas independientes. d) Esto significa que los grados de libertad son menores a N.
Procesos estocsticos
Procesos estocsticos elementales: Ruido Blanco
El denominado ruido blanco es un proceso estocstico que presenta media nula, varianza constante y covarianza nula para cualquier valor de lag (k), si adems la distribucin es normal, se denomina Ruido Blanco Gaussiano.
E (at ) = 0
2 E at2 = a
( )
Cov(at , at + k ) = 0 k
Procesos estocsticos
Procesos estocsticos elementales: Proceso Autorregresivo.
Definimos un proceso autorregresivo de primer orden AR(1) como un proceso aleatorio que responde a una expresin del tipo
X t = 0 + 1 X t 1 + at
o bien
X t = 1 X t 1 + at
con X t = X t 0
Para que el proceso AR(1) sea estacionario se debe cumplir que -1<1<1, para que z2 sea finita y no negativa.
Var ( X t ) = = + =
2 z 2 1 2 z 2 a
2 a
1 12
Los procesos autoregresivos pueden generalizarse al orden p AR(p) sin ms que aadir trminos retardados en la expresin general.
X t = 0 + 1 X t 1 + 2 X t 2 + ... + p X t p + at
Procesos estocsticos
Procesos estocsticos elementales: Medias mviles.
Definimos una media mvil de primer orden MA(1) como un proceso aleatorio que responde a una expresin del tipo
X t = at + 1at 1 + 2 at 2 + ... + q at q
Cadenas de Markov I
La clase ms comn de modelo estocstico, usado para representar las series temporales de variables discretas es la Cadena de Markov. Una cadena de Markov puede ser imaginada como una sucesin de estados de un sistema. Cada estado corresponde a uno de los elementos de la particin del espacio muestral que describe la variable aleatoria en cuestin. Para cada perodo de tiempo, la cadena de Markov puede o permanecer en el mismo estado o cambiarse a uno de los otros estados. El permanecer en el mismo estado corresponde a dos observaciones sucesivas del mismo valor de la variable aleatoria discreta en la serie temporal, y un cambio de estado implica dos valores sucesivos diferentes de la serie de tiempo.
Cadenas de Markov II
Cmo sabemos que orden es apropiado por una cadena de Markov para representar una serie de datos en particular? Un acercamiento es de usar un contraste de hiptesis, por ejemplo Chi-cuadrado Dos criterios se emplean comnmente para escoger entre los rdenes de los modelos de cadena de Markov. Criterio de Informacin de Akaike (AIC) y Criterio de Informacin Bayesiano (BIC) Tanto el AIC como el BIC intentan encontrar el orden mas apropiado para el modelo logrando un justo equilibrio entre la bondad del ajuste y una penalizacin que aumenta con el nmero de parmetros ajustados. Los dos criterios se diferencian slo en la forma de la funcin de penalizacin.
Procesos autorregresivos
Wilks, 2006