Regresión con datos de series de tiempo: Variables no ... · Regresión con datos de series de...
Transcript of Regresión con datos de series de tiempo: Variables no ... · Regresión con datos de series de...
Regresión con datos de series de tiempo: Variables no estacionarias En estas notas se desarrollan los aspectos teóricos y prácticos del capítulo 12 de los libros de texto de R. Carter Hill, William E. Griffiths y Guay C. Lim (2012) Principles of Econometrics, 4a.ed. (POE4) y de Lee C. Adkins y R. Carter Hill (2012) Using Stata for Principles of Econometrics (USPOE4).
Variables estacionarias y no estacionarias Inspección visual use "C:\POE4\usa.dta", clear
generate date = q(1984q1) + _n-1
format date %tq
tsset date
tsline gdp, name(gdp, replace) ylabel(2000(2000)16000,angle(horizontal)) xlabel(,labsize(small)) title("Real US
gross domestic product (GDP)", size(medium)) ytitle("") saving("C:\POE4\g12_1.gph",replace)
tsline D.gdp, name(dgdp, replace) yline(0) ylabel(-300(100)300,angle(horizontal)) xlabel(,labsize(small))
title("Change in GDP", size(medium)) ytitle("") saving("C:\POE4\g12_2.gph",replace)
graph combine gdp dgdp, saving("C:\POE4\g12_C1.gph",replace)
tsline inf, name(inf, replace) ylabel(0(2)14,angle(horizontal)) xlabel(,labsize(small)) title("Inflation rate",
size(medium)) ytitle("") saving("C:\POE4\g12_3.gph",replace)
tsline D.inf, name(dinf, replace) yline(0) ylabel(-2(1)2,angle(horizontal)) xlabel(,labsize(small))
title("Change in the inflation rate", size(medium)) ytitle("") saving("C:\POE4\g12_4.gph",replace)
graph combine inf dinf, saving("C:\POE4\g12_C2.gph",replace)
tsline f, name(f, replace) ylabel(0(2)12,angle(horizontal)) xlabel(,labsize(small)) title("Federal funds rate",
size(medium)) ytitle("") saving("C:\POE4\g12_5.gph",replace)
tsline D.f, name(df, replace) yline(0) ylabel(-3(1)1,angle(horizontal)) xlabel(,labsize(small)) title("Change
in the federal funds rate", size(medium)) ytitle("") saving("C:\POE4\g12_6.gph",replace)
graph combine f df, saving("C:\POE4\g12_C3.gph",replace)
tsline b, name(b, replace) ylabel(0(2)14,angle(horizontal)) xlabel(,labsize(small)) title("Three-year bond
rate", size(medium)) ytitle("") saving("C:\POE4\g12_7.gph",replace)
tsline D.b, name(db, replace) yline(0) ylabel(-1.6(0.4)1.6,angle(horizontal)) xlabel(,labsize(small))
title("Change in the bond rate", size(medium)) ytitle("") saving("C:\POE4\g12_8.gph",replace)
graph combine inf dinf, saving("C:\POE4\g12_C4.gph",replace)
graph combine gdp dgdp inf dinf, cols(2) saving("C:\POE4\g12_A1.gph",replace)
graph combine f df b db, cols(2) saving("C:\POE4\g12_all_A2.gph",replace)
Algunas series de tiempo de la economía norteamericana
2000
4000
6000
8000
10000
12000
14000
16000
1985q1 1990q1 1995q1 2000q1 2005q1 2010q1
date
Real US gross domestic product (GDP)
-300
-200
-100
0
100
200
300
1985q1 1990q1 1995q1 2000q1 2005q1 2010q1
date
Change in GDP
0
2
4
6
8
10
12
14
1985q1 1990q1 1995q1 2000q1 2005q1 2010q1date
Inflation rate
-2
-1
0
1
2
1985q1 1990q1 1995q1 2000q1 2005q1 2010q1date
Change in the inflation rate
0
2
4
6
8
10
12
1985q1 1990q1 1995q1 2000q1 2005q1 2010q1
date
Federal funds rate
-3
-2
-1
0
1
1985q1 1990q1 1995q1 2000q1 2005q1 2010q1
date
Change in the federal funds rate
0
2
4
6
8
10
12
14
1985q1 1990q1 1995q1 2000q1 2005q1 2010q1date
Three-year bond rate
-1.6
-1.2
-.8
-.4
0
.4
.8
1.2
1.6
1985q1 1990q1 1995q1 2000q1 2005q1 2010q1date
Change in the bond rate
Estadística descriptiva
summarize gdp inf f b D.gdp D.inf D.f D.b if tin(1984q2,1996q4)
summarize gdp inf f b D.gdp D.inf D.f D.b if tin(1997q1,)
Propiedades de una serie estacionaria
𝐸(𝑦𝑡) = 𝜇 Media constante (12.1a)
𝑉𝑎𝑟(𝑦𝑡) = 𝜎2 Varianza constante (12.1b)
𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡+𝑠) = 𝐶𝑜𝑣(𝑦𝑡 , 𝑦𝑡−𝑠) = 𝛾𝑠 Covarianza depende de 𝑠, no de 𝑡 (12.1c)
La exploración visual no es suficiente. Es necesaria una prueba formal de estacionariedad.
Modelo AR(1)
Es un modelo útil para explicar la diferencia entre una serie estacionaria y una serie no estacionaria
𝑦𝑡 = 𝜌𝑦𝑡−1 + 𝑣𝑡, |𝜌| < 1 (12.2a)
El supuesto |𝜌| < 1 implica que 𝑦𝑡 es estacionaria.
El proceso AR(1) muestra que cada realización de la variable aleatoria 𝑦𝑡 contiene una proporción 𝜌 del valor del periodo
pasado más un error que sigue una distribución con media cero y varianza 𝜎𝑣2.
Ejemplos, con datos artificiales:
𝑦𝑡 = 0.7𝑦𝑡−1 + 𝑣𝑡
clear
set obs 500
gen t=_n
tsset t
gen y=0 in 1
for num 2/500:replace y=0.7*L.y+rnormal(0,1) in X
tsline y, ylabel(-6(1)6) yline(0)
𝑦𝑡 = 1 + 0.7𝑦𝑡−1 + 𝑣𝑡
clear
set obs 500
gen t=_n
tsset t
gen y=0 in 1
for num 2/500:replace y=1+0.7*L.y+rnormal(0,1) in X
tsline y, ylabel(-2(1)10) yline(0)
𝑦𝑡 = 1 + 0.01𝑡 + 0.7𝑦𝑡−1 + 𝑣𝑡
clear
set obs 500
gen t=_n
tsset t
gen y=0 in 1
for num 2/500:replace y=1+0.01*t+0.7*L.y+rnormal(0,1) in X
tsline y, ylabel(0(4)24)
𝑦𝑡 = 𝑦𝑡−1 + 𝑣𝑡
clear
set obs 500
gen t=_n
tsset t
gen y=0 in 1
for num 2/500:replace y=L.y+rnormal(0,1) in X
tsline y, ylabel(-8(4)16) yline(0)
𝑦𝑡 = 0.1 + 𝑦𝑡−1 + 𝑣𝑡
clear
set obs 500
gen t=_n
tsset t
gen y=0 in 1
for num 2/500:replace y=0.1+L.y+rnormal(0,1) in X
tsline y, ylabel(0(10)60)
𝑦𝑡 = 0.1 + 0.01𝑡 + 𝑦𝑡−1 + 𝑣𝑡
clear
set obs 500
gen t=_n
tsset t
gen y=0 in 1
for num 2/500:replace y=0.1+0.01*t+L.y+rnormal(0,1) in X
tsline y, ylabel(0(200)1400)
-6-5
-4-3
-2-1
01
23
45
6y
0 100 200 300 400 500t
-2-1
01
23
45
67
89
10
y
0 100 200 300 400 500t
04
812
16
20
24
y
0 100 200 300 400 500t
-8-4
04
812
16
y
0 100 200 300 400 500t
010
20
30
40
50
60
y
0 100 200 300 400 500t
0
20
040
060
080
010
00
12
00
14
00
y
0 100 200 300 400 500t
En general AR(p) incluye los rezagos desde 𝑦𝑡 hasta 𝑦𝑡−𝑝.
en t=1
𝑦1 = 𝜌𝑦0 + 𝑣1
en t=2
𝑦2 = 𝜌𝑦1 + 𝑣2 = 𝜌(𝜌𝑦0 + 𝑣1) + 𝑣2 = 𝜌2𝑦0 + 𝜌𝑣1 + 𝑣2
en t=3
𝑦3 = 𝜌𝑦2 + 𝑣3 = 𝜌(𝜌2𝑦0 + 𝜌𝑣1 + 𝑣2) + 𝑣3 = 𝜌3𝑦0 + 𝜌2𝑣1 + 𝜌𝑣2 + 𝑣3
⋮
en t
𝑦𝑡 = 𝜌𝑡𝑦0 + 𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡
En cada término que contiene 𝜌 y 𝑣, el exponente de 𝜌 es 𝑡 − 𝑗 y el subíndice de 𝑣 es 𝑗. Así, por ejemplo, para el
último término de la expresión anterior el exponentes de 𝜌 es 𝑡 − 𝑗 = 0 y el subíndice de 𝑣 es 𝑗 = 𝑡. Reordenando
términos
𝑦𝑡 = 𝑣𝑡 + 𝜌𝑣𝑡−1 + 𝜌2𝑣𝑡−2 + ⋯ + 𝜌𝑡−2𝑣2+𝜌𝑡−1𝑣1 + 𝜌𝑡𝑦0
La media de 𝑦𝑡 es
𝐸(𝑦𝑡) = 𝐸(𝜌𝑡𝑦0 + 𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡)
𝐸(𝑦𝑡) = 𝐸(𝜌𝑡𝑦0) + 𝐸(𝜌𝑡−1𝑣1) + 𝐸(𝜌𝑡−2𝑣2) + ⋯ + 𝐸(𝜌2𝑣𝑡−2) + 𝐸(𝜌𝑣𝑡−1) + 𝐸(𝑣𝑡)
𝐸(𝑦𝑡) = 𝜌𝑡𝑦0 + 𝜌𝑡−1𝐸(𝑣1) + 𝜌𝑡−2𝐸(𝑣2) + ⋯ + 𝜌2𝐸(𝑣𝑡−2) + 𝜌𝐸(𝑣𝑡−1) + 𝐸(𝑣𝑡)
𝐸(𝑦𝑡) = 𝜌𝑡𝑦0
para 𝑡 grande y dado que |𝜌| < 1
lim𝑡→∞
𝐸(𝑦𝑡) = lim𝑡→∞
𝜌𝑡𝑦0 = 𝑦0 lim𝑡→∞
𝜌𝑡 = 0
Por lo tanto la media de 𝑦𝑡 es 𝐸[𝑦𝑡] = 0.
La varianza de 𝑦𝑡 es
𝑉𝐴𝑅(𝑦𝑡) = 𝐸[𝑦𝑡 − 𝐸[𝑦𝑡]]2
= 𝐸[𝑦𝑡]2
es decir
𝑉𝐴𝑅(𝑦𝑡) = 𝐸[𝜌𝑡𝑦0 + 𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡 − 𝐸(𝜌𝑡𝑦0 + 𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡)]2
𝑉𝐴𝑅(𝑦𝑡) = 𝐸[𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡]2
Desarrollando el polinomio al cuadrado y considerando que el valor esperado de los términos cruzados en 𝑣 es cero a
partir del supuesto de no correlación entre las innovaciones, es decir 𝐶𝑂𝑉(𝑣𝑡 , 𝑣𝑡−𝑠) = 𝐸[(𝑣𝑗 − 𝐸[𝑣𝑗])(𝑣𝑘 − 𝐸[𝑣𝑘])] =
𝐸[𝑣𝑗𝑣𝑘] = 0 para todo 𝑗 ≠ 𝑘, se tiene
𝑉𝐴𝑅(𝑦𝑡) = 𝐸[𝜌𝑡−1𝑣1]2 + 𝐸[𝜌𝑡−2𝑣2]2 + ⋯ + 𝐸[𝜌2𝑣𝑡−2]2 + 𝐸[𝜌𝑣𝑡−1]2 + 𝐸[𝑣𝑡]2
𝑉𝐴𝑅(𝑦𝑡) = (𝜌2)𝑡−1𝐸[𝑣12] + (𝜌2)𝑡−2𝐸[𝑣2
2] + ⋯ + (𝜌2)2𝐸[𝑣𝑡−22 ] + (𝜌2)𝐸[𝑣𝑡−1
2 ] + 𝐸[𝑣𝑡2]
𝑉𝐴𝑅(𝑦𝑡) = (𝜌2)𝑡−1𝑉𝐴𝑅[𝑣1] + (𝜌2)𝑡−2𝑉𝐴𝑅[𝑣2] + ⋯ + (𝜌2)2𝑉𝐴𝑅[𝑣𝑡−2] + (𝜌2)𝑉𝐴𝑅[𝑣𝑡−1] + 𝑉𝐴𝑅[𝑣𝑡]
𝑉𝐴𝑅(𝑦𝑡) = (𝜌2)𝑡−1𝜎𝑣2 + (𝜌2)𝑡−2𝜎𝑣
2 + ⋯ + (𝜌2)2𝜎𝑣2 + (𝜌2)𝜎𝑣
2 + 𝜎𝑣2
𝑉𝐴𝑅(𝑦𝑡) = 𝜎𝑣2[1 + 𝜌2 + (𝜌2)2 + ⋯ + (𝜌2)𝑡−2 + (𝜌2)𝑡−1]
para 𝑡 grande y dado que |𝜌| < 1
1 + 𝜌2 + (𝜌2)2 + ⋯ + (𝜌2)𝑡−2 + (𝜌2)𝑡−1 =1
1 − 𝜌2
Por lo tanto, la varianza de 𝑦𝑡 es
𝑉𝐴𝑅(𝑦𝑡) = 𝜎𝑣2 1
1 − 𝜌2=
𝜎𝑣2
1 − 𝜌2
La covarianza entre dos errores 𝑒𝑡 y 𝑒𝑡−𝑠 que están distantes 𝑠 periodos es
𝛾𝑠 = 𝐶𝑂𝑉(𝑒𝑡, 𝑒𝑡−𝑠) = 𝐸[(𝑒𝑡 − 𝐸[𝑒𝑡])(𝑒𝑡−𝑠 − 𝐸[𝑒𝑡−𝑠])] = 𝐸[𝑒𝑡𝑒𝑡−𝑠]
Sustituyendo (9B.4) y el rezago de 𝑒 a 𝑠 periodos de (9B.4) se tiene
𝛾𝑠 = 𝐸[(𝑣𝑡+𝜌𝑣𝑡−1 + 𝜌2𝑣𝑡−2 + 𝜌3𝑣𝑡−3 + ⋯ + 𝜌𝑠−1𝑣𝑡−(𝑠−1) + 𝜌𝑠𝑣𝑡−𝑠 + 𝜌𝑠+1𝑣𝑡−(𝑠+1) + 𝜌𝑠+2𝑣𝑡−(𝑠+2) + 𝜌𝑠+3𝑣𝑡−(𝑠+3)
+ ⋯ )(𝑣𝑡−𝑠+𝜌𝑣𝑡−(𝑠+1) + 𝜌2𝑣𝑡−(𝑠+2) + 𝜌3𝑣𝑡−(𝑠+3) + ⋯ )]
Los términos cruzados de 𝑣 originarán términos de covarianza entre 𝑣𝑡 y 𝑣𝑠 que serán cero, de acuerdo con el
supuesto 𝐶𝑂𝑉(𝑣𝑡, 𝑣𝑠) = 0 para 𝑡 ≠ 𝑠 hecho en (9.31). Así, el resultado anterior se simplifica a
= 𝐸[𝜌𝑠𝑣𝑡−𝑠2 + 𝜌𝑠+2𝑣𝑡−(𝑠+1)
2 + 𝜌𝑠+4𝑣𝑡−(𝑠+2)2 + ⋯ ]
= 𝐸[𝜌𝑠𝑣𝑡−𝑠2 ] + 𝐸[𝜌𝑠+2𝑣𝑡−(𝑠+1)
2 ] + 𝐸[𝜌𝑠+4𝑣𝑡−(𝑠+2)2 ] + ⋯
= 𝜌𝑠𝐸[𝑣𝑡−𝑠2 ] + 𝜌𝑠+2𝐸[𝑣𝑡−(𝑠+1)
2 ] + 𝜌𝑠+4𝐸[𝑣𝑡−(𝑠+2)2 ] + ⋯
= 𝜌𝑠𝜎𝑣2 + 𝜌𝑠+2𝜎𝑣
2 + 𝜌𝑠+4𝜎𝑣2 + ⋯ = 𝜌𝑠𝜎𝑣
2(1 + 𝜌2 + 𝜌4 + ⋯ )
𝐶𝑂𝑉(𝑒𝑡 , 𝑒𝑡−𝑠) = 𝜌𝑠𝜎𝑣2
1
1 − 𝜌2=
𝜌𝑠𝜎𝑣2
1 − 𝜌2
Así, el modelo AR(1) expresado en (12.2a) es un ejemplo clásico de un proceso estacionario con media cero.
Los datos del mundo real difícilmente tendrán media cero. Ahora se introduce el caso de una media 𝜇 distinta de cero,
reemplazando 𝑦𝑡 en (12.2a) por 𝑦𝑡 − 𝜇 como sigue
(𝑦𝑡 − 𝜇) = 𝜌(𝑦𝑡−1 − 𝜇) + 𝑣𝑡
despejando 𝑦𝑡
𝑦𝑡 = 𝜇(1 − 𝜌) + 𝜌𝑦𝑡−1 + 𝑣𝑡
que puede expresarse como
𝑦𝑡 = 𝛼 + 𝜌𝑦𝑡−1 + 𝑣𝑡 , |𝜌| < 1 (12.2b)
siendo
𝛼 =𝜇
1 − 𝜌
Por recursividad se tiene
𝑦1 = 𝛼 + 𝜌𝑦0 + 𝑣1
𝑦2 = 𝛼 + 𝜌𝑦1 + 𝑣2 = 𝛼 + 𝜌(𝛼 + 𝜌𝑦0 + 𝑣1) + 𝑣2 = 𝛼(1 + 𝜌) + 𝜌2𝑦0 + 𝜌𝑣1 + 𝑣2
𝑦3 = 𝛼 + 𝜌𝑦2 + 𝑣3 = 𝛼 + 𝜌(𝛼 + 𝛼𝜌 + 𝜌2𝑦0 + 𝜌𝑣1 + 𝑣2) + 𝑣3 = 𝛼(1 + 𝜌 + 𝜌2) + 𝜌3𝑦0 + 𝜌2𝑣1 + 𝜌𝑣2 + 𝑣3
generalizando en 𝑡
𝑦𝑡 = 𝛼 + 𝜌𝑦𝑡−1 + 𝑣𝑡 = 𝛼(1 + 𝜌 + 𝜌2 + ⋯ + 𝜌𝑡−1) + 𝜌𝑡𝑦0 + 𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡
Media
𝐸[𝑦𝑡] = 𝐸[𝛼(1 + 𝜌 + 𝜌2 + ⋯ + 𝜌𝑡−1) + 𝜌𝑡𝑦0 + 𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡]
𝐸[𝑦𝑡] = 𝐸 [𝛼1
1 − 𝜌] + 𝐸[𝜌𝑡𝑦0] + 𝐸[𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡]
𝐸[𝑦𝑡] =𝛼
1 − 𝜌= 𝜇
Varianza
𝑉𝐴𝑅[𝑦𝑡] = 𝑉𝐴𝑅[𝛼(1 + 𝜌 + 𝜌2 + ⋯ + 𝜌𝑡−1) + 𝜌𝑡𝑦0 + 𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡]
𝑉𝐴𝑅[𝑦𝑡] = 𝑉𝐴𝑅[𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡]
𝑉𝐴𝑅[𝑦𝑡] = 𝐸[𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡 − 𝐸[𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡]]2
𝑉𝐴𝑅[𝑦𝑡] = 𝐸[𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡]2
𝑉𝐴𝑅(𝑦𝑡) = 𝐸[𝜌𝑡−1𝑣1]2 + 𝐸[𝜌𝑡−2𝑣2]2 + ⋯ + 𝐸[𝜌2𝑣𝑡−2]2 + 𝐸[𝜌𝑣𝑡−1]2 + 𝐸[𝑣𝑡]2
𝑉𝐴𝑅(𝑦𝑡) = (𝜌2)𝑡−1𝐸[𝑣12] + (𝜌2)𝑡−2𝐸[𝑣2
2] + ⋯ + (𝜌2)2𝐸[𝑣𝑡−22 ] + (𝜌2)𝐸[𝑣𝑡−1
2 ] + 𝐸[𝑣𝑡2]
𝑉𝐴𝑅(𝑦𝑡) = (𝜌2)𝑡−1𝑉𝐴𝑅[𝑣1] + (𝜌2)𝑡−2𝑉𝐴𝑅[𝑣2] + ⋯ + (𝜌2)2𝑉𝐴𝑅[𝑣𝑡−2] + (𝜌2)𝑉𝐴𝑅[𝑣𝑡−1] + 𝑉𝐴𝑅[𝑣𝑡]
𝑉𝐴𝑅(𝑦𝑡) = (𝜌2)𝑡−1𝜎𝑣2 + (𝜌2)𝑡−2𝜎𝑣
2 + ⋯ + (𝜌2)2𝜎𝑣2 + (𝜌2)𝜎𝑣
2 + 𝜎𝑣2
𝑉𝐴𝑅(𝑦𝑡) = 𝜎𝑣2[1 + 𝜌2 + (𝜌2)2 + ⋯ + (𝜌2)𝑡−2 + (𝜌2)𝑡−1]
para 𝑡 grande y dado que |𝜌| < 1
1 + 𝜌2 + (𝜌2)2 + ⋯ + (𝜌2)𝑡−2 + (𝜌2)𝑡−1 =1
1 − 𝜌2
Por lo tanto, la varianza de 𝑦𝑡 es
𝑉𝐴𝑅(𝑦𝑡) = 𝜎𝑣2 1
1 − 𝜌2=
𝜎𝑣2
1 − 𝜌2
De acuerdo con lo anterior, se describe la variable desviada de la media 𝑦𝑡 − 𝜇, como estacionaria alrededor de cero, o
bien la variable 𝑦𝑡 como estacionaria alrededor de su valor medio 𝜇 =𝛼
1−𝜌.
Ejemplo: el proceso
𝑦𝑡 = 1 + 0.7𝑦𝑡−1 + 𝑣𝑡
en el que
𝐸(𝑦𝑡) = 𝜇 =𝛼
1 − 𝜌=
1
1 − 0.7=
1
0.3=
10
3= 3.33
Otra extensión de (12.2a) es considerar un modelo AR(1) que fluctúe en torno a una tendencia lineal 𝜇 + 𝛿𝑡 . En este
caso, la serie sin tendencia en forma autorregresiva es
𝑦𝑡 − 𝜇 − 𝛿𝑡 = 𝜌(𝑦𝑡−1 − 𝜇 − 𝛿(𝑡 − 1)) + 𝑣𝑡 , |𝜌| < 1
desarrollando los términos, agrupando y despejando a 𝑦𝑡 se obtiene
𝑦𝑡 = 𝜇 + 𝛿𝑡 + 𝜌𝑦𝑡−1 − 𝜌𝜇 − 𝜌𝛿(𝑡 − 1) + 𝑣𝑡
𝑦𝑡 = 𝜇(1 − 𝜌) + 𝜌𝛿 + 𝛿𝑡 + 𝜌𝑦𝑡−1 − 𝜌𝛿𝑡 + 𝑣𝑡
𝑦𝑡 = 𝜇(1 − 𝜌) + 𝜌𝛿 + 𝛿(1 − 𝜌)𝑡 + 𝜌𝑦𝑡−1 + 𝑣𝑡
que puede expresarse como
𝑦𝑡 = 𝛼 + 𝜌𝑦𝑡−1 + 𝜆𝑡 + 𝑣𝑡 (12.2c)
donde
𝛼 = 𝜇(1 − 𝜌) + 𝜌𝛿
𝜆 = 𝛿(1 − 𝜌)
Por recursividad se tiene
𝑦1 = 𝛼 + 𝜌𝑦0 + 𝜆 + 𝑣1
𝑦2 = 𝛼 + 𝜌𝑦1 + 2𝜆 + 𝑣2 = 𝛼 + 𝜌(𝛼 + 𝜌𝑦0 + 𝜆 + 𝑣1) + 2𝜆 + 𝑣2 = 𝛼(1 + 𝜌) + 𝜌2𝑦0 + 𝜆(2 + 𝜌) + 𝜌𝑣1 + 𝑣2
𝑦3 = 𝛼 + 𝜌𝑦2 + 3𝜆 + 𝑣3 = 𝛼 + 𝜌[𝛼(1 + 𝜌) + 𝜌2𝑦0 + 𝜆(2 + 𝜌) + 𝜌𝑣1 + 𝑣2] + 3𝜆 + 𝑣3 = 𝛼(1 + 𝜌 + 𝜌2) + 𝜌3𝑦0 + 𝜆(3 + 2𝜌 + 𝜌2) + 𝜌2𝑣1 + 𝜌𝑣2 + 𝑣3
generalizando en 𝑡
𝑦𝑡 = 𝛼 + 𝜌𝑦𝑡−1 + 𝑡𝜆 + 𝑣𝑡
= 𝛼 + 𝜌[𝛼(1 + 𝜌 + 𝜌2 + ⋯ ) + 𝜌𝑡−1𝑦0 + 𝜆{(𝑡 − 1) + (𝑡 − 2)𝜌 + ⋯ + 2𝜌𝑡−3 + 𝜌𝑡−2} + 𝜌𝑡−2𝑣1 + 𝜌𝑡−3𝑣2 + 𝜌𝑡−4𝑣3 + ⋯ + 𝜌𝑣𝑡−2 + 𝑣𝑡−1] + 𝑡𝜆 + 𝑣𝑡
= 𝛼(1 + 𝜌 + 𝜌2 + ⋯ ) + 𝜌𝑡𝑦0 + 𝜆{𝑡 + (𝑡 − 1)𝜌 + (𝑡 − 2)𝜌2 + ⋯ + 3𝜌𝑡−3 + 2𝜌𝑡−2 + 𝜌𝑡−1} + 𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + 𝜌𝑡−3𝑣3 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡
Media
𝐸[𝑦𝑡] = 𝐸[𝛼(1 + 𝜌 + 𝜌2 + ⋯ ) + 𝜌𝑡𝑦0 + 𝜆{𝑡 + (𝑡 − 1)𝜌 + (𝑡 − 2)𝜌2 + ⋯ + 3𝜌𝑡−3 + 2𝜌𝑡−2 + 𝜌𝑡−1} + 𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + 𝜌𝑡−3𝑣3 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡]
𝐸[𝑦𝑡] = 𝛼𝐸[1 + 𝜌 + 𝜌2 + ⋯ ] + 𝐸[𝜌𝑡𝑦0] + 𝜆𝐸[𝑡 + (𝑡 − 1)𝜌 + (𝑡 − 2)𝜌2 + ⋯ + 3𝜌𝑡−3 + 2𝜌𝑡−2 + 𝜌𝑡−1] + 𝐸[𝜌𝑡−1𝑣1 + 𝜌𝑡−2𝑣2 + 𝜌𝑡−3𝑣3 + ⋯ + 𝜌2𝑣𝑡−2 + 𝜌𝑣𝑡−1 + 𝑣𝑡]
𝐸[𝑦𝑡] = 𝛼(1 + 𝜌 + 𝜌2 + ⋯ ) + 𝜆{𝑡 + (𝑡 − 1)𝜌 + (𝑡 − 2)𝜌2 + ⋯ + 3𝜌𝑡−3 + 2𝜌𝑡−2 + 𝜌𝑡−1} + 𝜌𝑡−1𝐸[𝑣1] + 𝜌𝑡−2𝐸[𝑣2] + 𝜌𝑡−3𝐸[𝑣3] + ⋯ + 𝜌2𝐸[𝑣𝑡−2] + 𝜌𝐸[𝑣𝑡−1] + 𝐸[𝑣𝑡]
𝐸[𝑦𝑡] = 𝛼(1 + 𝜌 + 𝜌2 + ⋯ ) + 𝜆{𝑡(1 + 𝜌 + 𝜌2 + ⋯ ) − (𝜌 + 2𝜌2 + 3𝜌3 + ⋯ + 3𝜌𝑡−3 + 2𝜌𝑡−2 + 𝜌𝑡−1)}
𝐸[𝑦𝑡] = 𝛼(1 + 𝜌 + 𝜌2 + ⋯ ) + 𝜆𝑡(1 + 𝜌 + 𝜌2 + ⋯ ) − 𝜆𝜌(1 + 2𝜌 + 3𝜌2 + 4𝜌3 + ⋯ + 3𝜌𝑡−4 + 2𝜌𝑡−3 + 𝜌𝑡−2)
𝐸[𝑦𝑡] = 𝛼1
1 − 𝜌+ 𝜆𝑡
1
1 − 𝜌− 𝜆𝜌
1
(1 − 𝜌)2=
𝛼
1 − 𝜌−
𝜌𝜆
(1 − 𝜌)2+
𝜆
1 − 𝜌𝑡
haciendo
𝛿 =𝜆
1 − 𝜌
𝜇 =𝛼
1 − 𝜌−
𝜌
(1 − 𝜌)
𝜆
(1 − 𝜌)=
𝛼
1 − 𝜌−
𝜌𝛿
1 − 𝜌=
𝛼 − 𝜌𝛿
1 − 𝜌
se obtiene
𝐸[𝑦𝑡] =𝛼 − 𝜌𝛿
1 − 𝜌+
𝜆
1 − 𝜌𝑡 = 𝜇 + 𝛿𝑡
Varianza
Se deja como ejercicio desarrollar 𝑉𝐴𝑅[𝑦𝑡] para obtener un punto adicional en la evaluación final.
Un ejemplo de este tipo de series es el proceso
𝑦𝑡 = 1 + 0.01𝑡 + 0.7𝑦𝑡−1 + 𝑣𝑡
en el que
𝜆 = 𝛿(1 − 𝜌) = 0.01(1 − 0.7) = 0.003
𝜇 =𝛼 − 𝜌𝛿
1 − 𝜌=
1 − 0.7 ∗ 0.01
1 − 0.7= 3.31
Modelos de caminata aleatoria
Considerando el caso especial de 𝜌 = 1 en el modelo AR(1) de la expresión (12.2a)
𝑦𝑡 = 𝑦𝑡−1 + 𝑣𝑡 (12.3a)
La solución por recursividad
en t=1
𝑦1 = 𝑦0 + 𝑣1
en t=2
𝑦2 = 𝑦1 + 𝑣2 = (𝑦0 + 𝑣1) + 𝑣2 = 𝑦0 + ∑ 𝑣𝑠2𝑠=1
⋮
generalizando en t
𝑦𝑡 = 𝑦𝑡−1 + 𝑣𝑡 = 𝑦0 + ∑ 𝑣𝑠𝑡𝑠=1
Media
𝐸[𝑦𝑡] = 𝑦0 + 𝐸[𝑣1 + 𝑣2 + ⋯ + 𝑣𝑡] = 𝑦0 + 𝐸[𝑣1] + 𝐸[𝑣2] + ⋯ + 𝐸[𝑣𝑡] = 𝑦0
Varianza
𝑉𝐴𝑅[𝑦𝑡] = 𝑉𝐴𝑅[𝑣1 + 𝑣2 + ⋯ + 𝑣𝑡] = 𝐸[𝑣12] + 𝐸[𝑣2
2] + ⋯ + 𝐸[𝑣𝑡2] = 𝑡𝜎𝑣
2
La media es constante y la varianza no es constante, por lo que la serie de caminata aleatoria es no estacionaria.
Un ejemplo de este tipo de caminata aleatoria es el proceso
𝑦𝑡 = 𝑦𝑡−1 + 𝑣𝑡
en el que 𝜌 = 1 y no hay tendencia determinística.
En la descomposición de 𝑦𝑡 = 𝑦0 + ∑ 𝑣𝑠𝑡𝑠=1 , el término ∑ 𝑣𝑠
𝑡𝑠=1 es denominado tendencia estocástica.
Caminata aleatoria con drift o deriva
Considerando el caso especial de 𝜌 = 1 en el modelo AR(1) de la expresión (12.2a) con un intercepto 𝛼
𝑦𝑡 = 𝛼 + 𝑦𝑡−1 + 𝑣𝑡 (12.3b)
La solución por recursividad
en t=1
𝑦1 = 𝛼 + 𝑦0 + 𝑣1
en t=2
𝑦2 = 𝛼 + 𝑦1 + 𝑣2 = 𝛼 + (𝛼 + 𝑦0 + 𝑣1) + 𝑣2 = 2𝛼 + 𝑦0 + ∑ 𝑣𝑠2𝑠=1
⋮
generalizando en t
𝑦𝑡 = 𝛼 + 𝑦𝑡−1 + 𝑣𝑡 = 𝑡𝛼 + 𝑦0 + ∑ 𝑣𝑠𝑡𝑠=1
Media
𝐸[𝑦𝑡] = 𝐸[𝛼𝑡 + 𝑦0 + ∑ 𝑣𝑠𝑡𝑠=1 ] = 𝛼𝑡 + 𝑦0 + 𝐸[∑ 𝑣𝑠
𝑡𝑠=1 ] = 𝛼𝑡 + 𝑦0 + ∑ 𝐸[𝑣𝑠]𝑡
𝑠=1 = 𝛼𝑡 + 𝑦𝑜
Varianza
𝑉𝐴𝑅[𝑦𝑡] = 𝑉𝐴𝑅[𝑣1 + 𝑣2 + 𝑣3 + ⋯ + 𝑣𝑡] = 𝐸[𝑣12] + 𝐸[𝑣2
2] + ⋯ + 𝐸[𝑣𝑡2] = 𝑡𝜎𝑣
2
La media y la varianza no son constantes, dependen de 𝑡, por lo que la serie de caminata aleatoria con drift es no
estacionaria.
Un ejemplo de este tipo de caminata aleatoria es el proceso 𝑦𝑡 = 0.1 + 𝑦𝑡−1 + 𝑣𝑡 .
Caminata aleatoria con drift y tendencia
Considerando el caso especial de 𝜌 = 1 en el modelo AR(1) de la expresión (12.2a) con un intercepto 𝛼 y tendencia 𝑡
𝑦𝑡 = 𝛼 + 𝛿𝑡 + 𝑦𝑡−1 + 𝑣𝑡 (12.3c)
La solución por recursividad
en t=1
𝑦1 = 𝛼 + 𝛿 + 𝑦0 + 𝑣1
en t=2
𝑦2 = 𝛼 + 𝛿2 + 𝑦1 + 𝑣2 = 𝛼 + 2𝛿 + (𝛼 + 𝛿 + 𝑦0 + 𝑣1) + 𝑣2 = 2𝛼 + 3𝛿 + 𝑦0 + ∑ 𝑣𝑠
2
𝑠=1
⋮
generalizando en t
𝑦𝑡 = 𝛼 + 𝛿𝑡 + 𝑦𝑡−1 + 𝑣𝑡 = 𝑡𝛼 + (𝑡(𝑡+1)
2) 𝛿 + 𝑦0 + ∑ 𝑣𝑠
𝑡𝑠=1
En el resultado anterior se toma en cuenta el resultado aplicable a la progresión geométrica
1 + 2 + 3 + ⋯ + 𝑡 =𝑡(𝑡 + 1)
2
Se deja como ejercicio desarrollar 𝐸[𝑦𝑡] y 𝑉𝐴𝑅[𝑦𝑡] para obtener dos puntos adicionales en la evaluación final.
Es claro que para este proceso que la media y la varianza no son constantes, dependen de 𝑡, por lo que el proceso de
caminata aleatoria con drift 𝛼 y tendencia 𝑡 es no estacionaria.
Regresiones espurias
Detectar si una serie de tiempo 𝑦𝑡 es estacionaria o no, antes de realizar el análisis econométrico es importante para no
incurrir en el riesgo de obtener resultados aparentemente significativos a partir de datos no relacionados al emplear
series no estacionarias. Estas regresiones son espurias.
Para ilustrar este problema consideremos dos series independientes de caminata aleatoria
𝑟𝑤1: 𝑦𝑡 = 𝑦𝑡−1 + 𝑣1𝑡
𝑟𝑤2: 𝑥𝑡 = 𝑥𝑡−1 + 𝑣2𝑡
donde 𝑣1𝑡 y 𝑣2𝑡 son errores independientes 𝑁(0,1). Las series se generan independientemente, de manera que una no
tiene relación con la otra.
A continuación, un caso ilustrativo
use "C:\poe4\spurious.dta", clear
gen time = _n
tsset time
regress rw1 rw2
estat bgodfrey
tsline rw1 rw2, name(g1, replace)
scatter rw1 rw2, name(g2, replace)
𝑟𝑤1�̂� = 17.818 + 0.842𝑟𝑤2𝑡, 𝑅2 = 0.70 (𝑡 = 40.837)
020
40
60
RW
pro
ce
ss
0 200 400 600 800time
RW process RW process
020
40
60
RW
pro
ce
ss
0 20 40 60RW process
Cuando se estima un modelo de regresión con series de tiempo no estacionarias, los resultados pueden indicar
espuriamente una relación significativa, cuando ésta no existe. Típicamente, los residuales de estas regresiones se
muestran altamente correlacionados. En estos casos, los estimadores de mínimos cuadrados ordinarios no cumplen con
las propiedades usuales y los estadísticos 𝑡 no son confiables. En virtud de este problema latente, ¿cómo probar
estacionariedad en una serie de tiempo? y ¿cómo manejar el análisis de regresión con datos no estacionarios?
Pruebas Dickey-Fuller de raíces unitarias para estacionariedad
La manera formal de probar estacionariedad es examinando el valor de 𝜌 en el modelo AR(1).
Casos
1. Proceso AR(1) sin constante y sin tendencia
A partir de
𝑦𝑡 = 𝜌𝑦𝑡−1 + 𝑣𝑡 (12.4)
donde 𝑣𝑡 es independiente con media cero y varianza constante 𝜎𝑣2.
Restando 𝑦𝑡−1 en ambos lados de la igualdad
𝑦𝑡 − 𝑦𝑡−1 = 𝜌𝑦𝑡−1 − 𝑦𝑡−1 + 𝑣𝑡
se obtiene la ecuación de prueba
∆𝑦𝑡 = (𝜌 − 1)𝑦𝑡−1 + 𝑣𝑡
o equivalentemente
∆𝑦𝑡 = 𝛾𝑦𝑡−1 + 𝑣𝑡 (12.5a)
donde 𝛾 = 𝜌 − 1 y ∆𝑦𝑡 = 𝑦𝑡 − 𝑦𝑡−1.
El contraste de hipótesis es 𝐻𝑜 ∶ 𝜌 = 1 para no estacionariedad contra 𝐻𝑎 ∶ |𝜌| < 1 para estacionariedad. Entonces, la
hipótesis puede plantearse en términos de 𝜌 o de 𝛾 :
𝐻0 ∶ 𝜌 = 1 ⟺ 𝐻0 ∶ 𝛾 = 0
𝐻1 ∶ 𝜌 < 1 ⟺ 𝐻1 ∶ 𝛾 < 0
Si no se rechaza 𝐻0 la serie corresponde a un proceso no estacionario, 𝛾 = 0, es decir 𝜌 − 1 = 0, que equivale a 𝜌 = 1.
Si se rechaza 𝐻0 la serie corresponde a un proceso estacionario.
2. Proceso AR(1) con constante y sin tendencia
A partir de
𝑦𝑡 = 𝛼 + 𝜌𝑦𝑡−1 + 𝑣𝑡
donde 𝑣𝑡 es independiente con media cero y varianza constante 𝜎𝑣2.
Restando 𝑦𝑡−1 en ambos lados de la igualdad
𝑦𝑡 − 𝑦𝑡−1 = 𝛼 + 𝜌𝑦𝑡−1 − 𝑦𝑡−1 + 𝑣𝑡
se obtiene la ecuación de prueba
∆𝑦𝑡 = 𝛼 + (𝜌 − 1)𝑦𝑡−1 + 𝑣𝑡
o equivalentemente
∆𝑦𝑡 = 𝛼 + 𝛾𝑦𝑡−1 + 𝑣𝑡 (12.5b)
donde 𝛾 = 𝜌 − 1 y ∆𝑦𝑡 = 𝑦𝑡 − 𝑦𝑡−1.
El contraste de hipótesis es 𝐻𝑜 ∶ 𝜌 = 1 para no estacionariedad contra 𝐻𝑎 ∶ |𝜌| < 1 para estacionariedad. Entonces, la
hipótesis puede plantearse en términos de 𝜌 o de 𝛾 :
𝐻0 ∶ 𝜌 = 1 ⟺ 𝐻0 ∶ 𝛾 = 0
𝐻1 ∶ 𝜌 < 1 ⟺ 𝐻1 ∶ 𝛾 < 0
Si no se rechaza 𝐻0 la serie corresponde a un proceso no estacionario, 𝛾 = 0, es decir 𝜌 − 1 = 0, que equivale a 𝜌 = 1.
Si se rechaza 𝐻0 la serie corresponde a un proceso estacionario.
3. Proceso AR(1) con constante y con tendencia
A partir de
𝑦𝑡 = 𝛼 + 𝜌𝑦𝑡−1 + λt + 𝑣𝑡
donde 𝑣𝑡 es independiente con media cero y varianza constante 𝜎𝑣2.
Restando 𝑦𝑡−1 en ambos lados de la igualdad
𝑦𝑡 − 𝑦𝑡−1 = 𝛼 + 𝜌𝑦𝑡−1 − 𝑦𝑡−1 + λt + 𝑣𝑡
se obtiene la ecuación de prueba
∆𝑦𝑡 = 𝛼 + (𝜌 − 1)𝑦𝑡−1 + λt + 𝑣𝑡
o equivalentemente
∆𝑦𝑡 = 𝛼 + 𝛾𝑦𝑡−1 + λt + 𝑣𝑡 (12.5c)
donde 𝛾 = 𝜌 − 1 y ∆𝑦𝑡 = 𝑦𝑡 − 𝑦𝑡−1.
El contraste de hipótesis es 𝐻𝑜 ∶ 𝜌 = 1 para no estacionariedad contra 𝐻𝑎 ∶ |𝜌| < 1 para estacionariedad. Entonces, la
hipótesis puede plantearse en términos de 𝜌 o de 𝛾 :
𝐻0 ∶ 𝜌 = 1 ⟺ 𝐻0 ∶ 𝛾 = 0
𝐻𝑎 ∶ 𝜌 < 1 ⟺ 𝐻𝑎 ∶ 𝛾 < 0
Si no se rechaza 𝐻0 la serie corresponde a un proceso no estacionario, 𝛾 = 0, es decir 𝜌 − 1 = 0, que equivale a 𝜌 = 1.
Si se rechaza 𝐻0 la serie corresponde a un proceso estacionario.
Los valores críticos de la prueba Dickey-Fuller
El estadístico calculado para la prueba Dickey-Fuller es denominado estadístico 𝜏 y su valor debe ser comparado con el
correspondiente valor crítico 𝜏𝑐 a un nivel de significancia dado. La regla de decisión: si 𝜏 ≤ 𝜏𝑐 se rechaza la hipótesis
nula de no estacionariedad. Si 𝜏 > 𝜏𝑐 no se rechaza la hipótesis nula.
Si el término de error está autocorrelacionado, se tiene la ecuación con intercepto extendida en un número suficiente
de términos de rezago que capturan la dinámica completa del proceso. Dicha ecuación es
∆𝑦𝑡 = 𝛼 + 𝛾𝑦𝑡−1 + ∑ 𝑎𝑠∆𝑦𝑡−𝑠 + 𝑣𝑡𝑚𝑠=1 (12.6)
donde ∆𝑦𝑡−1 = 𝑦𝑡−1 − 𝑦𝑡−2, ∆𝑦𝑡−2 = 𝑦𝑡−2 − 𝑦𝑡−3, … Se agregarán tantos términos de rezago de la primera diferencia
como sean necesarios que aseguren que los residuales no estén correlacionados. También se puede considerar incluir
rezagos de la variable dependiente. El número de rezagos necesario puede determinarse examinando la función de
autocorrelación (ACF) de los residuales 𝑣𝑡 o la significancia de los coeficientes estimados de los rezagos de primera
diferencia 𝑎𝑠. Con base en (12.6) las pruebas de raíces unitarias y sus variantes (sin intercepto o con tendencia) son
conocidas como pruebas Dickey-Fuller aumentadas.
En la práctica se utilizan las pruebas Dickey-Fuller aumentadas (en lugar de la versión no aumentada) para asegurar que
los errores son no correlacionados. En todo caso son empleados los valores críticos de la siguiente tabla presentada en
el texto de R. Carter Hill, William E. Griffiths y Guay C. Lim (2012)
Procedimientos para la prueba Dickey-Fuller
Los valores críticos de las pruebas Dickey-Fuller se derivan de las siguientes simulaciones
Proceso verdadero Ecuación de prueba
𝑦𝑡 = 𝑦𝑡−1 + 𝑣𝑡 𝑣𝑡~𝑁(0, 𝜎2) 𝑦𝑡 = 𝜌𝑦𝑡−1 + 𝑣𝑡
𝑦𝑡 = 𝑦𝑡−1 + 𝑣𝑡 𝑣𝑡~𝑁(0, 𝜎2) 𝑦𝑡 = 𝛼 + 𝜌𝑦𝑡−1 + 𝑣𝑡
𝑦𝑡 = 𝛿 + 𝑦𝑡−1 + 𝑣𝑡 𝑣𝑡~𝑁(0, 𝜎2) 𝑦𝑡 = 𝛼 + 𝜌𝑦𝑡−1 + 𝜆𝑡 + 𝑣𝑡
Primero, elaborar la gráfica de la serie de tiempo de la variable y seleccionar la prueba Dickey-Fuller adecuada con base
en una inspección visual de la gráfica.
i) Si la serie fluctúa en torno a una media muestral de cero, emplear la prueba para el modelo sin constante y
sin tendencia.
ii) Si la serie fluctúa en torno a una media muestral diferente de cero, emplear la prueba para el modelo con
constante y sin tendencia.
iii) Si la serie fluctúa en torno a una tendencia lineal, emplear la prueba para el modelo con constante y con
tendencia.
Segundo, proceder con una de las prueba de raíz unitaria tomando en cuenta que es importante la elección correcta de
los valores críticos de acuerdo con la ecuación de prueba estimada, la cual, depende de la ausencia o presencia de los
términos constante y de tendencia.
Las pruebas Dickey-Fuller: ejemplo
Considere dos series de tiempo de tasas de interés: la tasa de rendimiento de fondos federales 𝐹𝑡 y la tasa de
rendimiento de un bono a tres años 𝐵𝑡. En las gráficas respectivas de primeras diferencias se observa una media distinta
de cero, por lo que se realizará la prueba con la ecuación con constante y sin tendencia. El modelo (12.6) con los rezagos
requeridos de acuerdo a su significancia es
para 𝐹𝑡
∆𝐹𝑡 = 𝛼 + 𝛾𝐹𝑡−1 + ∑ 𝑎𝑠∆𝐹𝑡−𝑠 + 𝑣𝑡
𝑚
𝑠=1
para 𝐵𝑡
∆𝐵𝑡 = 𝛼 + 𝛾𝐵𝑡−1 + ∑ 𝑎𝑠∆𝐵𝑡−𝑠 + 𝑣𝑡
𝑚
𝑠=1
En Stata
use "C:\poe4\usa.dta", clear
gen date = q(1984q1) + _n - 1
format %tq date
tsset date
* Augmented Dickey Fuller Regressions with built in functions
dfuller f, regress lags(1)
dfuller b, regress lags(1)
∆𝐹�̂� = 0.173 − 0.045𝐹𝑡−1 + 0.561∆𝐹𝑡−1
(𝑡𝑎𝑢) (−2.505)
∆𝐵�̂� = 0.237 − 0.056𝐵𝑡−1 + 0.290∆𝐵𝑡−1
(𝑡𝑎𝑢) (−2.703)