Introducción a las raíces unitarias

INTRODUCCIÓN A LAS RAÍCES UNITARIAS
DR LUIS MIGUEL GALINDO
RUIDO BLANCO
Proceso estocástico (Xt): Una familia de variables aleatorias
X1,X2,..Xn.
Ruido blanco es un proceso estocástico alrededor de una media:
(1)
Yt – iid(α,σ2)
(2)
Yt = α + et
et – iid(0,σ2)
RUIDO BLANCO
Tres definiciones de ruido blanco:
1. Ruido blanco en su forma débil (et-wn(0,σ2):
Cov(et,et-1)=0
wn= white noise
2. Ruido blanco independiente:
et – iid(0,σ2)
RUIDO BLANCO
3. Ruido blanco gaussiano :
et – nid(0,σ2) → et es una serie estacionaria por definición.
Distribución normal.
RUIDO BLANCO
Propiedades del ruido blanco:
1. Los shocks son temporales.
2. La variable regresa a su media (reversión a la media).
MEDICIONES DE DEPENDENCIA TEMPORAL
Función de autocovarianzas:
(3)
γj = cov(Yt,Yt-j)
La autocovarianza cero es la varianza.
MEDICIONES DE DEPENDENCIA TEMPORAL
Función de autocorrelación (ACF):
(4)
ρ j = cor (Y t ,Y t − j ) =
cov(Y t ,Y t − j )
V (Y t )
=
γj
γ
0
La ACF normaliza la función de autocovarianzas.
La SACF es la ACF muestral.
RUIDO BLANCO
Correlograma:
• Estima la varianza, bajo ruido blanco, como 1/n.
• Es válido con series estacionarias.
Portmanteu tests:
Ho: ρ1=ρ2=…ρk = 0
Donde r2j son las correlaciones muestrales.
Box Pierce: Q = n∑nr2j
Ljung Box:
Q = n(n + 2)∑ j =1
Es común reportar varios k.
k
r
2
j
n− j
SERIES ESTACIONARIAS
Forma débil: media, varianza y covarianza son invariantes en el
tiempo.
Una serie es débil estacionaria si:
1. E(Xt) = µ
2. var (Xt) = E(Xt – µ)2 = σ2
3. Covarianza (Xt,Xt+k) = E(Xt – µ)(Xt-k – µ) = γk (es constante).
SERIES ESTACIONARIAS
• Serie estacionaria débil conocida como serie estacionaria en
covarianzas o de segundo orden.
• Forma fuerte: Es covarianza estacionaria y además la función
de distribución es estacionaria.
• Ergodicidad.
TREND STATIONARY PROCESS
(5)
Yt = α + βt + et
Et –wn(0,σ2)
Media :
E(Yt) = α + βt
→ Serie no estacionaria: análisis quitar la tendencia.
Características:
1. Shocks son temporales.
2. Las variables tiene reversión a la “media”.
SENDA ALEATORIA
Proceso estocástico determinado por:
(6)
Yt = Yt-1 + et
(7)
∆Yt = et
→ Serie estacionaria diferenciable.
(8.1)
Yt = Yt-2 + et + et-1
(8.2)
Yt = Yt-3 + et + et-1 + et-2
SERIES ESTACIONARIAS
….
(8.3)
Yt = Y0 + ∑t-1et-j
Yt puede verse como una variable con un valor inicial Y0 y shocks
aleatorios acumulativos.
Senda aleatoria es una variable integrable y muestra tendencia
expost.
La condición de la varianza no se cumple → no es estacionaria.
La primera diferencia es estacionaria porque ∆Yt = et y et por
definición es estacionaria.
SERIES ESTACIONARIAS
Media:
(9.1)
E(Yt) = E(Yt-1) + E(et) = E(Yt-1)
De (8.3):
(9.2)
E(Yt) = Y0
Varianza:
(10)
V(Yt) = ∑var(et) = tσ2
SENDA ALEATORIA CON DRIFT
(11)
Yt = β + Yt-1 + et
(12)
E(∆Yt) = β + E(et) = β
Depende del signo de β el drift.
Proceso integrado:
(13.1)
Yt = Yt-1 + β
(13.2)
Yt = Yt-2 + 2β + et + et-1
(13.3)
Yt = Yt-3 + 3β + et + et-1 + et-2
….
(13.4)
Yt = Y0 + βt + ∑t-1et-i
SENDA ALEATORIA CON DRIFT
Media.
(14.1)
E(Yt) = Y0 + βt + E(∑t-1et-i) = Y0 + βt
Varianza:
(14.2)
V(Yt) = tσ2
Características de las sendas aleatorias:
1. Los shocks son permanentes.
2. No existe reversión a la media.
TENDENCIAS EN LAS SERIES:
(15)
Yt = Y0 + βt + ∑t-1et-i
DT = Y0 + βt
ST = ∑t-1et-i
Modelo general:
(16.1) Yt = α + βt + φYt-1 + et
Caso 1: Tendencia estocástica : β = 0 y φ=1.
(16.2) Yt = α + Yt-1 + et
(16.3) ∆Yt = α + et
→ DSP
TENDENCIAS EN LAS SERIES:
Caso 2: Tendencia estocástica : β ≠ 0 y φ=0.
(16.4) Yt = α + βt + et
→ TSP
Caso 3: Combinación de tendencia determinística y estocástica:
β ≠ 0 y φ = 1: Yt-1 + et
(16.5) Yt = α + βt + φYt-1 + et
Para distinguir entre DSP y TSP utilizar DF.
GRÁFICAS DE UNA SENDA ALEATORIA
1. Una senda aleatoria implica que la mejor propuesta de Yt+1 es Yt.
• No puede predecirse pero una vez que toma una tendencia la
mantiene.
2. La primera diferencia de una senda aleatoria es ∆Yt = et.
• Pasa de positivo a negativo y la varianza se mantiene
constante.
3. La senda aleatoria con drift esta dominada por el drift y parece
tendencia.
GRÁFICAS DE UNA CASI SENDA ALEATORIA
Un casi senda aleatoria: Yt = 0.95Yt-1 + et.
• Valores positivos están seguidos de valores positivos y
después lo inverso.
• Tiene tendencia por un período y luego cae.
La primera diferencia de una casi senda aleatoria:
(17.1)
∆Yt = (0.95 – 1)Yt-1 + et.
(17.2)
∆Yt = vt + et.
(17.3)
∆Yt = -0.05Yt-1 + et
Ruido blanco coloreado: parece ruido blanco pero existe una
pequeña tendencia desviarse de cero con signo opuesto cada vez.
AUTOCORRELACIONES Y RAÍZ UNITARIA
Función de autocorrelación:
(18.1) ρ k =
γ
γ
=
k
0
cov(Y t ,Y t + k )
var(Y t )
-1<ρk<1.
Función de autocorrelación muestral:
γ
(18.2) ρ =
γ
∑ (Y − Y )(Y − Y
=
∑ (Y − Y )
m
k
k
0
t
t
m 2
m
)
t
La gráfica de ρk contra k es el correlograma muestral.
AUTOCORRELACIONES Y RAÍZ UNITARIA
Serie estacionaria:
Regla de dedo: El correlograma cae (RW cae hasta .7).
Prueba de Barlett (1946): Los coeficientes de autocorrelación
muestral siguen una distribución normal con media cero y varianza
igual a 1/n (n es la muestra).
La hipótesis de autocorrelación individual es:
Ho: ρk = 0 si |ρk| < tα/2 1/(n)1/2 → serie estacionaria.
Ha: ρk = 0 si |ρk| > tα/2 1/(n)1/2 → serie no estacionaria.
AUTOCORRELACIONES Y RAÍZ UNITARIA
Ejemplo: n = 36 → 1/(36)1/2 = 0.167
Con α = 0.05 tα/2 = 1.96 → tα/2 (1/(36)1/2) = 0.327.
No se rechaza Ho.
AUTOCORRELACIONES Y RAÍZ UNITARIA
Box y Pierce (1970): Estadístico Q (Prueba de autocorrelación de
coeficientes conjunta):
(19.1)
Q = n∑k =1 ρ ≈
m
2
k
X
2
( m)
Donde n=muestra y m=número de rezagos.
No es válida en muestras pequeñas.
AUTOCORRELACIONES Y RAÍZ UNITARIA
Ljung Box (1978):
(19.2)
2
⎛
⎞
⎜ ρk ⎟
LB = n(n + 2)∑k =1 ⎜
⎟≈
⎜n−k⎟
⎝
⎠
m
X
2
( m)
Ho: Todos ρk = 0 si LB<X2(m) → serie estacionaria.
Ha: No todos ρk = 0 si LB<X2(m) → no serie estacionaria.
Sargan y Bhargava (1983): Xt = α + et.
IDW debajo de (0.5) → Serie no estacionaria.
IDW cerca de 2 → Series estacionaria.
∑ (y − y
IDW =
t
∑ ⎛⎜⎝ yt −
)
2
t −1
y
m 2
t
Intuitivamente:
⎞⎟
⎠
yt-1
representa
aproximadamente
el
pronosticado de yt bajo el supuesto de que yt = β1yt-1 → β1=1
valor
FLUCTUACIONES
(1) Yt = α + ut
La dependencia temporal puede representarse de dos formas:
1. Suponiendo que el error es un promedio ponderado de ruido
blanco (MA):
(2)
ut = et – φ1et-1
2. Suponiendo que el error depende de su valor anterior (AR) :
(3)
ut = θ1ut-1 + ee
FLUCTUACIONES
Las fluctuaciones alrededor de una media con MA o AR:
Para el MA: Substituyendo (2) en (1):
(4) Yt = α + et + φ1et-1
FLUCTUACIONES
Para el AR: Substituyendo (3) en (1):
(5) Yt = α + θ1ut-1 + et
Utilizando que Yt - α = ut
(6) Yt = α + θ1 (Yt-1 – α) + et
Reordenando:
(7) Yt = α(1-θ1) + θ1Yt-1 + et
FLUCTUACIONES
Propiedades de MA y AR:
1. Los shocks son temporales.
2. Existe reversión a la media.
ARMA
(1) Yt = α + ut
ARMA:
(2) ut – φ1ut-1 -…- φqut-q = et + θ1et-1 +…+ θqet-q
ARMA :
(3) yt – φ0 - φ1yt-1 -…- φqyt-q = et + θ1et-1 +…+ θqet-q
Características:
1. Los shocks son temporales.
2. Existe reversión a la media.
TENDENCIAS
Tasa de crecimiento:
(1) Yt = (1+g)Yt-1
El coeficiente de la pendiente es la tasa de crecimiento continua.
Tres formas:
1. Substituyendo recursivamente:
(2) Yt = Y0(1+g)t
En logaritmos:
(3) log Yt = log Y0 + log(1+g)t = α + βt
El coeficiente de la pendiente representa la tasa de crecimiento en un
modelo con una tenencia determinística.
Ejemplo: g=0.05, β = log(1+g) = log 1.05 = 0.04879
TENDENCIAS
2. Otra forma de interpretarlo es:
(4) log Yt – logYt-1 = βt – β(t-1)
(5) ∆logYt = β
Así, el coeficiente multiplicado por 100 de la tasa de crecimiento.
TENDENCIAS
3. Otra forma es:
(6.1) logYt = β + logYt-1
(6.2) logYt = β + (β + logYt-2)
(6.3) logYt = 2β + (β + logYt-3)
….
(6.4) logYt = βt + logY0
TENDENCIAS
La introducción de elementos estocásticos en el modelo de
crecimiento tiene dos opciones:
1. Tendencia determinística:
Suponer a Yt generada por variables aleatorias en torno a una
tendencia.
Incluir un ARMA:
(7) log Yt = α + βt + ut
2. Tendencia estocástica:
Suponer que la tasa de crecimiento g es aleatoria
(8) ∆logYt = β + ut
TSP Y DSP
Ejemplo TSP:
(9) Yt = α + βt + ut
Propiedades:
1. Los shocks son temporales.
2. La variable tiene reversión a la media.
TSP Y DSP
Ejemplo DSP:
(10) ∆Yt = β + ut
El proceso es integrado:
(11.1.) Yt = β + Yt-1 + ut
(11.2) Yt = β + (β + Yt-2 + ut-1) + ut
(11.3) Yt = 2β + (β + Yt-3 + ut-2) + ut-1 + ut
…
(11.4) Yt = βt + Y0 + ∑t-1ut-j
TSP Y DSP
La media es:
(12) E(Yt) = βt + Y0 + E(∑t-1ut-j) = βt + Y0
Varianza:
V(Y) = V(∑t-1ut-j)
Propiedades:
1. Los shocks son permanentes.
2. Las variables no tienen reversión a la media.
REFERENCIAS
Patterson, K. (2000), An introduction to applied econometrics. A
time series approach, St. Martins Press.
Seedingi, H.R., K.A. Lawler y A.V. Katos (2000), Econometrics: a
practical approach, Routledge.