INTRODUCCIÓN A LAS RAÍCES UNITARIAS DR LUIS MIGUEL GALINDO RUIDO BLANCO Proceso estocástico (Xt): Una familia de variables aleatorias X1,X2,..Xn. Ruido blanco es un proceso estocástico alrededor de una media: (1) Yt – iid(α,σ2) (2) Yt = α + et et – iid(0,σ2) RUIDO BLANCO Tres definiciones de ruido blanco: 1. Ruido blanco en su forma débil (et-wn(0,σ2): Cov(et,et-1)=0 wn= white noise 2. Ruido blanco independiente: et – iid(0,σ2) RUIDO BLANCO 3. Ruido blanco gaussiano : et – nid(0,σ2) → et es una serie estacionaria por definición. Distribución normal. RUIDO BLANCO Propiedades del ruido blanco: 1. Los shocks son temporales. 2. La variable regresa a su media (reversión a la media). MEDICIONES DE DEPENDENCIA TEMPORAL Función de autocovarianzas: (3) γj = cov(Yt,Yt-j) La autocovarianza cero es la varianza. MEDICIONES DE DEPENDENCIA TEMPORAL Función de autocorrelación (ACF): (4) ρ j = cor (Y t ,Y t − j ) = cov(Y t ,Y t − j ) V (Y t ) = γj γ 0 La ACF normaliza la función de autocovarianzas. La SACF es la ACF muestral. RUIDO BLANCO Correlograma: • Estima la varianza, bajo ruido blanco, como 1/n. • Es válido con series estacionarias. Portmanteu tests: Ho: ρ1=ρ2=…ρk = 0 Donde r2j son las correlaciones muestrales. Box Pierce: Q = n∑nr2j Ljung Box: Q = n(n + 2)∑ j =1 Es común reportar varios k. k r 2 j n− j SERIES ESTACIONARIAS Forma débil: media, varianza y covarianza son invariantes en el tiempo. Una serie es débil estacionaria si: 1. E(Xt) = µ 2. var (Xt) = E(Xt – µ)2 = σ2 3. Covarianza (Xt,Xt+k) = E(Xt – µ)(Xt-k – µ) = γk (es constante). SERIES ESTACIONARIAS • Serie estacionaria débil conocida como serie estacionaria en covarianzas o de segundo orden. • Forma fuerte: Es covarianza estacionaria y además la función de distribución es estacionaria. • Ergodicidad. TREND STATIONARY PROCESS (5) Yt = α + βt + et Et –wn(0,σ2) Media : E(Yt) = α + βt → Serie no estacionaria: análisis quitar la tendencia. Características: 1. Shocks son temporales. 2. Las variables tiene reversión a la “media”. SENDA ALEATORIA Proceso estocástico determinado por: (6) Yt = Yt-1 + et (7) ∆Yt = et → Serie estacionaria diferenciable. (8.1) Yt = Yt-2 + et + et-1 (8.2) Yt = Yt-3 + et + et-1 + et-2 SERIES ESTACIONARIAS …. (8.3) Yt = Y0 + ∑t-1et-j Yt puede verse como una variable con un valor inicial Y0 y shocks aleatorios acumulativos. Senda aleatoria es una variable integrable y muestra tendencia expost. La condición de la varianza no se cumple → no es estacionaria. La primera diferencia es estacionaria porque ∆Yt = et y et por definición es estacionaria. SERIES ESTACIONARIAS Media: (9.1) E(Yt) = E(Yt-1) + E(et) = E(Yt-1) De (8.3): (9.2) E(Yt) = Y0 Varianza: (10) V(Yt) = ∑var(et) = tσ2 SENDA ALEATORIA CON DRIFT (11) Yt = β + Yt-1 + et (12) E(∆Yt) = β + E(et) = β Depende del signo de β el drift. Proceso integrado: (13.1) Yt = Yt-1 + β (13.2) Yt = Yt-2 + 2β + et + et-1 (13.3) Yt = Yt-3 + 3β + et + et-1 + et-2 …. (13.4) Yt = Y0 + βt + ∑t-1et-i SENDA ALEATORIA CON DRIFT Media. (14.1) E(Yt) = Y0 + βt + E(∑t-1et-i) = Y0 + βt Varianza: (14.2) V(Yt) = tσ2 Características de las sendas aleatorias: 1. Los shocks son permanentes. 2. No existe reversión a la media. TENDENCIAS EN LAS SERIES: (15) Yt = Y0 + βt + ∑t-1et-i DT = Y0 + βt ST = ∑t-1et-i Modelo general: (16.1) Yt = α + βt + φYt-1 + et Caso 1: Tendencia estocástica : β = 0 y φ=1. (16.2) Yt = α + Yt-1 + et (16.3) ∆Yt = α + et → DSP TENDENCIAS EN LAS SERIES: Caso 2: Tendencia estocástica : β ≠ 0 y φ=0. (16.4) Yt = α + βt + et → TSP Caso 3: Combinación de tendencia determinística y estocástica: β ≠ 0 y φ = 1: Yt-1 + et (16.5) Yt = α + βt + φYt-1 + et Para distinguir entre DSP y TSP utilizar DF. GRÁFICAS DE UNA SENDA ALEATORIA 1. Una senda aleatoria implica que la mejor propuesta de Yt+1 es Yt. • No puede predecirse pero una vez que toma una tendencia la mantiene. 2. La primera diferencia de una senda aleatoria es ∆Yt = et. • Pasa de positivo a negativo y la varianza se mantiene constante. 3. La senda aleatoria con drift esta dominada por el drift y parece tendencia. GRÁFICAS DE UNA CASI SENDA ALEATORIA Un casi senda aleatoria: Yt = 0.95Yt-1 + et. • Valores positivos están seguidos de valores positivos y después lo inverso. • Tiene tendencia por un período y luego cae. La primera diferencia de una casi senda aleatoria: (17.1) ∆Yt = (0.95 – 1)Yt-1 + et. (17.2) ∆Yt = vt + et. (17.3) ∆Yt = -0.05Yt-1 + et Ruido blanco coloreado: parece ruido blanco pero existe una pequeña tendencia desviarse de cero con signo opuesto cada vez. AUTOCORRELACIONES Y RAÍZ UNITARIA Función de autocorrelación: (18.1) ρ k = γ γ = k 0 cov(Y t ,Y t + k ) var(Y t ) -1<ρk<1. Función de autocorrelación muestral: γ (18.2) ρ = γ ∑ (Y − Y )(Y − Y = ∑ (Y − Y ) m k k 0 t t m 2 m ) t La gráfica de ρk contra k es el correlograma muestral. AUTOCORRELACIONES Y RAÍZ UNITARIA Serie estacionaria: Regla de dedo: El correlograma cae (RW cae hasta .7). Prueba de Barlett (1946): Los coeficientes de autocorrelación muestral siguen una distribución normal con media cero y varianza igual a 1/n (n es la muestra). La hipótesis de autocorrelación individual es: Ho: ρk = 0 si |ρk| < tα/2 1/(n)1/2 → serie estacionaria. Ha: ρk = 0 si |ρk| > tα/2 1/(n)1/2 → serie no estacionaria. AUTOCORRELACIONES Y RAÍZ UNITARIA Ejemplo: n = 36 → 1/(36)1/2 = 0.167 Con α = 0.05 tα/2 = 1.96 → tα/2 (1/(36)1/2) = 0.327. No se rechaza Ho. AUTOCORRELACIONES Y RAÍZ UNITARIA Box y Pierce (1970): Estadístico Q (Prueba de autocorrelación de coeficientes conjunta): (19.1) Q = n∑k =1 ρ ≈ m 2 k X 2 ( m) Donde n=muestra y m=número de rezagos. No es válida en muestras pequeñas. AUTOCORRELACIONES Y RAÍZ UNITARIA Ljung Box (1978): (19.2) 2 ⎛ ⎞ ⎜ ρk ⎟ LB = n(n + 2)∑k =1 ⎜ ⎟≈ ⎜n−k⎟ ⎝ ⎠ m X 2 ( m) Ho: Todos ρk = 0 si LB<X2(m) → serie estacionaria. Ha: No todos ρk = 0 si LB<X2(m) → no serie estacionaria. Sargan y Bhargava (1983): Xt = α + et. IDW debajo de (0.5) → Serie no estacionaria. IDW cerca de 2 → Series estacionaria. ∑ (y − y IDW = t ∑ ⎛⎜⎝ yt − ) 2 t −1 y m 2 t Intuitivamente: ⎞⎟ ⎠ yt-1 representa aproximadamente el pronosticado de yt bajo el supuesto de que yt = β1yt-1 → β1=1 valor FLUCTUACIONES (1) Yt = α + ut La dependencia temporal puede representarse de dos formas: 1. Suponiendo que el error es un promedio ponderado de ruido blanco (MA): (2) ut = et – φ1et-1 2. Suponiendo que el error depende de su valor anterior (AR) : (3) ut = θ1ut-1 + ee FLUCTUACIONES Las fluctuaciones alrededor de una media con MA o AR: Para el MA: Substituyendo (2) en (1): (4) Yt = α + et + φ1et-1 FLUCTUACIONES Para el AR: Substituyendo (3) en (1): (5) Yt = α + θ1ut-1 + et Utilizando que Yt - α = ut (6) Yt = α + θ1 (Yt-1 – α) + et Reordenando: (7) Yt = α(1-θ1) + θ1Yt-1 + et FLUCTUACIONES Propiedades de MA y AR: 1. Los shocks son temporales. 2. Existe reversión a la media. ARMA (1) Yt = α + ut ARMA: (2) ut – φ1ut-1 -…- φqut-q = et + θ1et-1 +…+ θqet-q ARMA : (3) yt – φ0 - φ1yt-1 -…- φqyt-q = et + θ1et-1 +…+ θqet-q Características: 1. Los shocks son temporales. 2. Existe reversión a la media. TENDENCIAS Tasa de crecimiento: (1) Yt = (1+g)Yt-1 El coeficiente de la pendiente es la tasa de crecimiento continua. Tres formas: 1. Substituyendo recursivamente: (2) Yt = Y0(1+g)t En logaritmos: (3) log Yt = log Y0 + log(1+g)t = α + βt El coeficiente de la pendiente representa la tasa de crecimiento en un modelo con una tenencia determinística. Ejemplo: g=0.05, β = log(1+g) = log 1.05 = 0.04879 TENDENCIAS 2. Otra forma de interpretarlo es: (4) log Yt – logYt-1 = βt – β(t-1) (5) ∆logYt = β Así, el coeficiente multiplicado por 100 de la tasa de crecimiento. TENDENCIAS 3. Otra forma es: (6.1) logYt = β + logYt-1 (6.2) logYt = β + (β + logYt-2) (6.3) logYt = 2β + (β + logYt-3) …. (6.4) logYt = βt + logY0 TENDENCIAS La introducción de elementos estocásticos en el modelo de crecimiento tiene dos opciones: 1. Tendencia determinística: Suponer a Yt generada por variables aleatorias en torno a una tendencia. Incluir un ARMA: (7) log Yt = α + βt + ut 2. Tendencia estocástica: Suponer que la tasa de crecimiento g es aleatoria (8) ∆logYt = β + ut TSP Y DSP Ejemplo TSP: (9) Yt = α + βt + ut Propiedades: 1. Los shocks son temporales. 2. La variable tiene reversión a la media. TSP Y DSP Ejemplo DSP: (10) ∆Yt = β + ut El proceso es integrado: (11.1.) Yt = β + Yt-1 + ut (11.2) Yt = β + (β + Yt-2 + ut-1) + ut (11.3) Yt = 2β + (β + Yt-3 + ut-2) + ut-1 + ut … (11.4) Yt = βt + Y0 + ∑t-1ut-j TSP Y DSP La media es: (12) E(Yt) = βt + Y0 + E(∑t-1ut-j) = βt + Y0 Varianza: V(Y) = V(∑t-1ut-j) Propiedades: 1. Los shocks son permanentes. 2. Las variables no tienen reversión a la media. REFERENCIAS Patterson, K. (2000), An introduction to applied econometrics. A time series approach, St. Martins Press. Seedingi, H.R., K.A. Lawler y A.V. Katos (2000), Econometrics: a practical approach, Routledge.
© Copyright 2024