Regresi on simple: introducci on ... - Gabriel Montes simple.pdf · Gabriel V. Montes-Rojas Gabriel...
Transcript of Regresi on simple: introducci on ... - Gabriel Montes simple.pdf · Gabriel V. Montes-Rojas Gabriel...
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Regresión simple
Gabriel V. Montes-Rojas
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Regresión simple
Un modelo de regresión simple es un estudio de la relación entre dos variables(llamadas una dependiente y la otra independiente, x escalar) a través de la siguienteforma:
yi = β0 + β1xi + ui , i = 1, 2, ..., n
Elementos básicos:
1 Muestra o datos {xi , yi}ni=1 = {(x1, y1), (x2, y2), ..., (xn, yn)}, muestra detamaño n.
2 Modelo lineal y = β0 + β1x
y variable dependiente, lo que queremos explicar.x variable independiente/de control/explicativa, cómo vamos a explicar lavariable dependiente.β0 intercepto, valor de y cuando x = 0
β1 =∆y∆x pendiente, cuánto se incrementa y al incrementarse x por 1
unidad.
3 u error o residuo, aquello que no podemos observar pero que afecta y .
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Modelo de función lineal
x
y
β0
∆x
∆y
β0 + β1x
β1 =∆y∆x
β0 = β0 + β10
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Modelo de regresión yi = β0 + β1xi + ui
x
y
E [y |x ] = β0 + β1x
�
ui
(xi , yi )
xi
β0 + β1xi
yi
·
·
··
·
·
·
·
·
·
·
·
·
·
·
·
·
··
·
··
··
··
···
·
··
··
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Regresión simple
Democracia y crecimiento.
Datos de n páıses.
y variable dependiente, PBI per capita.
x variable independiente, ı́ndice de democracia.
β0 intercepto, valor de y cuando x = 0.
β1 =∆y∆x pendiente, cuánto se incrementa y al incrementarse x por 1 unidad.
u error o residuo, aquello que no podemos observar pero que afecta y .
PBIpercapi = β0 + β1Democraciai + ui , i = 1, 2, ..., n
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Regresión simple
Educación y salarios.
Datos de n individuos.
y variable dependiente, salario.
x variable independiente, años de educación.
β0 intercepto, valor de y cuando x = 0.
β1 =∆y∆x pendiente, cuánto se incrementa y al incrementarse x por 1 unidad.
u error o residuo, aquello que no podemos observar pero que afecta y .
Salarioi = β0 + β1Educi + ui , i = 1, 2, ..., n
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Regresión simple
Una forma de ver los modelos de regresión es la siguiente. Notemos que
β1 =cov (y , x)
var (x),
bajo el supuesto de que cov (x , u) = 0, o sea que la variable explicativa no tienerelación con los errores.
La prueba es sencilla:
cov (y , x)
var (x)=
cov (β0 + β1x + u, x)
var (x)=
β1cov (x , x) + cov (x , u)
var (x)
(dado que cov (., .) se puede distribuir linealmente ycov (cte, variable aleatoria) = 0)
= β1 +cov (x , u)
var(x)= β1
(porque cov (x , x) = var (x) y cov (u, x) = 0) esto significa que β1 mide cuantoy se relaciona (covaŕıa) con x , estandarizado por la varianza de x .
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Ḿınimos cuadrados ordinarios
¿Cómo estimamos β0 and β1?
Tomemos los residuos (recordar que son no observables...), ui ≡ yi − β0 − β1xi ,i = 1, 2, ..., n.
Ahora....Cuadrados..: ∑ni u
2i = ∑
ni (yi − β0 − β1xi )2
+Mı́nimos...: β0 y β1 que minimiza ∑ni (yi − β0 − β1xi )2+Ordinarios... puede ser más complicado...= Ḿınimos cuadrados ordinarios (MCO)OLS en inglés: Ordinary Least Squares
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Método de los momentos: Ḿınimos cuadrados ordinarios
Momentos en la población Momentos en la muestra
E [u] = E [y − β0 − β1x ] = 0 n−1 ∑ni=1(yi − β̂0 − β̂1xi ) = 0E [xu] = E [x(y − β0 − β1x)] = 0 n−1 ∑ni=1 xi (yi − β̂0 − β̂1xi ) = 0
Sistema de 2 ecuaciones y 2 incógnitas... se puede resolver.
β es un parámetro, β̂ un estimador. β es un valor fijo (no lo sabemos...), β̂ unavariable aleatoria (depende de cada muestra...).
Conceptos a repasar: esperanza o valor esperado E [·]. Esperanza incondicionalvs. esperanza condicional.
Notación: ∑ni=1 xi = x1 + x2 + x3 + ... + xn (sumatoria); n−1 ∑ni=1 xi (promedio).
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Consideremos las dos condiciones de primer orden, derivadas de ∑ni (yi − β0 − β1xi )2con respecto a β0 and β1:
n−1n
∑i=1
(yi − β̂0 − β̂1xi ) = 0 (1)
n−1n
∑i=1
xi (yi − β̂0 − β̂1xi ) = 0 (2)
De la primera ecuación
ȳ = β̂0 + β̂1x̄ (demostrar )
Notación: x̄ = n−1 ∑ni=1 xi = n−1(x1 + x2 + x3 + ... + xn) (promedio)
Entonces,
β̂0 = ȳ − β̂1x̄ .
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
De la segunda ecuación
n
∑i=1
xi [yi − (ȳ − β̂1x̄)− β̂1xi ] = 0
⇒n
∑i=1
xi (yi − ȳ ) = β̂1n
∑i=1
xi (xi − x̄)
Finalmente,
β̂1 =∑ni=1 xi (yi − ȳ )∑ni=1 xi (xi − x̄)
=∑ni=1(xi − x̄)(yi − ȳ )
∑ni=1(xi − x̄)2
El siguiente resultado lo vamos a usar muchas veces:
n
∑i=1
ai (bi − b̄) =n
∑i=1
bi (ai − ā) =n
∑i=1
(ai − ā)(bi − b̄)
(¡demostrar!)
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Resumiendo:
β̂1 =∑ni=1(xi − x̄)(yi − ȳ )
∑ni=1(xi − x̄)2
β̂0 = ȳ − x̄∑ni=1(xi − x̄)(yi − ȳ )
∑ni=1(xi − x̄)2
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Modelo sin intercepto
Supongamos un modelo que satisface yi = βxi + ui , para i = 1, 2, ..., n conE (ui |xi ) = 0.
Graficar una muestra {yi , xi}ni=1 con estas condiciones. ¿Qué restricciones tieneeste modelo con respecto al modelo general? Este modelo también se llama deordenada al origen.
Plantear el estimador de MCO sin intercepto como una minimización y mostrarque
β̂ =∑ni=1 xiyi∑ni=1 x2i
¿Qué debeŕıa encontrar si el modelo generador de datos es este pero se estimael modelo con intercepto?
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Teorema de Gauss-Markov
Supuesto 1: Lineal en los parámetros y se relaciona con x atraves de una función lineal, yi = β0 + β1xi + ui .
Supuesto 2: Muestra aleatoria {(yi , xi )}ni=1 es una muestraaleatoria del modelo del Supuesto 1.
Supuesto 3: Variación muestral en x : ∑ni=1(xi − x̄)2 6= 0Supuesto 4: Media condicional cero E (u|x) = 0.
MCO es insesgado Si los Supuestos 1-4 se cumplen, entoncesE (β̂0|x) = β0 and E (β̂1|x) = β1
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Teorema de Gauss-Markov
Supuesto 5: Homoscedasticidad Var(u|x) = σ2
Teorema de Gauss-Markov: Si los Supuestos 1-5 se cumplen, elestimador MCO β̂0, β̂1 es el mejor estimador insesgado de β0, β1.Nota: MEJOR= menor varianza (repasar concepto de varianzaV [·]). Se llama EFICIENTE a un estimador que cumple estapropiedad.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Insesgadez
Los estimadores MCO β̂0 y β̂1 son insesgados.Esto es, E [β̂0|x ] = β0 y E [β̂1|x ] = β1.La prueba se puede hacer en pocos pasos.... a continuación.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Insesgadez
Para simplificar la notación escribimos E (.) en vez de E (.|x), o sea que las esperanzasincondicionales son en realidad esperanzas condicionales.
E [β̂1] = E
[∑ni=1(xi − x̄)(yi − ȳ )
∑ni=1(xi − x̄)2
]= E
[∑ni=1(xi − x̄)(yi )
∑ni=1(xi − x̄)2
]por la propiedad ∑ni=1(xi − x̄)(yi − ȳ ) = ∑ni=1(xi − x̄)yi .
... = E
[∑ni=1(xi − x̄)(β0 + β1xi + ui )
∑ni=1(xi − x̄)2
]by Supuesto 1: Lineal en los parámetros y se relaciona con x a través de una funciónlineal. O sea, y = β0 + β1x + u.
... =∑ni=1(xi − x̄)(β0 + β1xi + E [ui ])
∑ni=1(xi − x̄)2
por propiedades de la esperanza. (Notemos que E [ui ] es en realidad E [ui |x ].)E [∑ni=1(.)] = ∑
ni=1 E [(.)]
E [β0 + β1xi + ui ] = β0 + β1xi + E [ui ]
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Insesgadez
Por el Supuesto 4: Media Condicional Cero E (u|x) = 0.
... =∑ni=1(xi − x̄)(β0 + β1xi + 0)
∑ni=1(xi − x̄)2
Luego de algo de álgebra...
... =∑ni=1(xi − x̄)β0∑ni=1(xi − x̄)2
+∑ni=1(xi − x̄)β1xi
∑ni=1(xi − x̄)2= 0 + β1
∑ni=1(xi − x̄)2
∑ni=1(xi − x̄)2= β1
Entonces probamos que E [β̂1] = β1
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Sesgo
Probar que E [β̂0|x ] = β0 es más fácil.De la primera condición de momento de MCO
β̂0 = ȳ − β̂1x̄Usando esperanzas en los dos lados,
E [β̂0] = E [ȳ ]− E [β̂1x̄ ]Sabemos que E [ȳ ] = E [β0 + β1x̄ + ū] = β0 + β1x̄ + E [ū] = β0 + β1x̄ y queE [β̂1x̄ ] = E [β̂1]x̄ = β1x̄ . Aśı obtenemos,
E [β̂0] = β0.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Predicción
ŷi = β̂0 + β̂1xi es el valor de predicción de y dado xi , esto es, un estimador deE (y |xi ).ûi = yi − ŷi es el residuo de la regresión o error de predicción para laobservación i, o sea un estimador de yi − β0 − β1xi .Usar gráficos para distinguir claramente yi , ŷi , ui , ûi .
Demostrar que ∑ni=1 ûi = 0 y ∑ni=1 xi ûi = 0. ¿Qué implica?
Demostrar que E [ûi |x ] = 0 y E [xi ûi |x ] = 0 ∀i . ¿Qué implica?Demostrar que ȳ = ¯̂y = 1n ∑
ni=1 ŷi . ¿Qué implica?
Demostrar que E [ŷi |x ] = yi ∀i . ¿Qué implica?
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
x
y
E [y |x ] = β0 + β1x
Ê [y |x ] = β̂0 + β̂1x
�
ui
(xi , yi )
xi
β0 + β1xi
yi
�
ûi
(xi , ŷi )β̂0 + β̂1xi = ŷi
·
·
··
·
·
·
·
·
·
·
·
·
·
·
·
·
··
·
··
··
··
···
·
··
··
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
¡¡Todo estimador se merece su varianza!!
Var(β̂1|x) =σ2
∑ni=1(xi − x̄)2
Prueba...
Var(β̂0|x) =σ2n−1 ∑ni=1 x2i∑ni=1(xi − x̄)2
Prueba...
Pregunta: Var(β1|x)=??
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Var (β̂1|x) =σ2
∑ni=1(xi − x̄)2
Prueba: (para simplificar la notación var(.) corresponde a var(.|x))
Var (β̂1) = Var
[∑ni=1(xi − x̄)yi∑ni=1(xi − x̄)2
]= Var
[∑ni=1(xi − x̄)(β0 + β1xi + ui )
∑ni=1(xi − x̄)2
]
= Var
[∑ni=1(xi − x̄)β0∑ni=1(xi − x̄)2
]+Var
[∑ni=1(xi − x̄)β1xi
∑ni=1(xi − x̄)2
]+Var
[∑ni=1(xi − x̄)ui∑ni=1(xi − x̄)2
]
=Var [∑ni=1(xi − x̄)ui ](∑ni=1(xi − x̄)2)
2=
∑ni=1(xi − x̄)2Var [ui ](∑ni=1(xi − x̄)2)
2
=∑ni=1(xi − x̄)2σ2
(∑ni=1(xi − x̄)2)2=
σ2
∑ni=1(xi − x̄)2
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Usamos
Supuesto 1: Modelo lineal en los parámetros y se relacionacon x por una función lineal.
O sea, y = β0 + β1x + u.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Var(β̂1) =σ2
∑ni=1(xi − x̄)2
Prueba:
Var(β̂1) = Var
[∑ni=1(xi − x̄)yi∑ni=1(xi − x̄)2
]= Var
[∑ni=1(xi − x̄)(β0 + β1xi + ui )
∑ni=1(xi − x̄)2
]
= Var
[∑ni=1(xi − x̄)β0∑ni=1(xi − x̄)2
]+ Var
[∑ni=1(xi − x̄)β1xi
∑ni=1(xi − x̄)2
]+ Var
[∑ni=1(xi − x̄)ui∑ni=1(xi − x̄)2
]
=Var [∑ni=1(xi − x̄)ui ](∑ni=1(xi − x̄)2)
2=
∑ni=1(xi − x̄)2Var [ui ](∑ni=1(xi − x̄)2)
2
=∑ni=1(xi − x̄)2σ2
(∑ni=1(xi − x̄)2)2=
σ2
∑ni=1(xi − x̄)2
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Usamos
Propiedad de la varianza: Var [aX + bY ] =a2 × Var [X ] + b2 × Var [Y ] + 2ab× Cov [X ,Y ], dondeCov [X ,Y ] = E [XY ]− E [X ]E [Y ]Propiedad de la covarianza: Cov [a,Y ] = 0, donde a es unaconstante y Y una variable aleatoria (también Cov [a, b] = 0,donde tanto a como b son constantes...)
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Var(β̂1) =σ2
∑ni=1(xi − x̄)2
Prueba:
Var(β̂1) = Var
[∑ni=1(xi − x̄)yi∑ni=1(xi − x̄)2
]= Var
[∑ni=1(xi − x̄)(β0 + β1xi + ui )
∑ni=1(xi − x̄)2
]
= Var
[∑ni=1(xi − x̄)β0∑ni=1(xi − x̄)2
]+ Var
[∑ni=1(xi − x̄)β1xi
∑ni=1(xi − x̄)2
]+ Var
[∑ni=1(xi − x̄)ui∑ni=1(xi − x̄)2
]
= 0 + 0 +Var [∑ni=1(xi − x̄)ui ](∑ni=1(xi − x̄)2)
2=
∑ni=1(xi − x̄)2Var [ui ](∑ni=1(xi − x̄)2)
2
=∑ni=1(xi − x̄)2σ2
(∑ni=1(xi − x̄)2)2=
σ2
∑ni=1(xi − x̄)2
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Usamos
Propiedad de la varianza: Var [a] = 0 donde a es unaconstante.
Las X’s son consideradas como constantes.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Var(β̂1) =σ2
∑ni=1(xi − x̄)2
Prueba:
Var(β̂1) = Var
[∑ni=1(xi − x̄)yi∑ni=1(xi − x̄)2
]= Var
[∑ni=1(xi − x̄)(β0 + β1xi + ui )
∑ni=1(xi − x̄)2
]
= Var
[∑ni=1(xi − x̄)β0∑ni=1(xi − x̄)2
]+ Var
[∑ni=1(xi − x̄)β1xi
∑ni=1(xi − x̄)2
]+ Var
[∑ni=1(xi − x̄)ui∑ni=1(xi − x̄)2
]
=Var [∑ni=1(xi − x̄)ui ](∑ni=1(xi − x̄)2)
2=
∑ni=1(xi − x̄)2Var [ui ](∑ni=1(xi − x̄)2)
2
=∑ni=1(xi − x̄)2σ2
(∑ni=1(xi − x̄)2)2=
σ2
∑ni=1(xi − x̄)2
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Usamos
Supuesto 2: Muestreo aleatorio {(yi , xi )}ni=1 es una muestraaleatoria del modelo dado en el Supuesto 1.
Hacemos Var [∑ni=1 ui ] = ∑ni=1 Var [ui ] + ∑
ni=1 ∑
nj=1,j 6=i Cov [ui , uj ].
Pero, por la propiedad de muestreo aleatorio Cov [ui , uj ] = 0, i 6= jEntonces, Var [∑ni=1 ui ] = ∑
ni=1 Var [ui ].
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Var(β̂1) =σ2
∑ni=1(xi − x̄)2
Prueba:
Var(β̂1) = Var
[∑ni=1(xi − x̄)yi∑ni=1(xi − x̄)2
]= Var
[∑ni=1(xi − x̄)(β0 + β1xi + ui )
∑ni=1(xi − x̄)2
]
= Var
[∑ni=1(xi − x̄)β0∑ni=1(xi − x̄)2
]+ Var
[∑ni=1(xi − x̄)β1xi
∑ni=1(xi − x̄)2
]+ Var
[∑ni=1(xi − x̄)ui∑ni=1(xi − x̄)2
]
=Var [∑ni=1(xi − x̄)ui ](∑ni=1(xi − x̄)2)
2=
∑ni=1(xi − x̄)2Var [ui ](∑ni=1(xi − x̄)2)
2
=∑ni=1(xi − x̄)2σ2
(∑ni=1(xi − x̄)2)2=
σ2
∑ni=1(xi − x̄)2
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Usamos
Supuesto 5: Homoscedasticidad Var(u|x) = σ2
donde Var [ui ] = Var [ui |x ] = σ2 for all i = 1, 2, ..., n
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Varianza de los estimadores MCO
Var(β̂0) =σ2n−1 ∑ni=1 x2i∑ni=1(xi − x̄)2
Prueba:
Var(β̂0) = Var[ȳ − x̄ β̂1
]= Var [ȳ ] + Var
[x̄ β̂1
]− 2Cov
[ȳ , x̄ β̂1
]=
σ2
n+ x̄2Var
[β̂1]− 2 x̄
n ∑ni=1(xi − x̄)2Cov
[n
∑i=1
yi ,n
∑i=1
(xi − x̄)yi
]
=σ2
n+ x̄2
σ2
∑ni=1(xi − x̄)2− 2 x̄
n ∑ni=1(xi − x̄)2σ2
n
∑i=1
(xi − x̄)
=σ2
n
∑ni=1(xi − x̄)2
∑ni=1(xi − x̄)2+ x̄2
σ2
∑ni=1(xi − x̄)2
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Inferencia
¡β̂0 y β̂1 son variables aleatorias!
Supuesto 6: Normalidad u es independiente de x y u ∼ N(0, σ2).
Distribución normal: Bajo los supuestos 1-6,
β̂0 ∼ N(β0,Var [β̂0])
β̂1 ∼ N(β1,Var [β̂1])
Entonces,(β̂0 − β0)/se(β̂0) ∼ N(0, 1)
(β̂1 − β1)/se(β̂1) ∼ N(0, 1)
donde se() =√
Var () es el error estándar (s.e.).
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Inferencia
Prueba de normalidad de β̂1.De la prueba de la varianza más arriba usamos el siguiente resultado algebraico
β̂1 = β1 +∑ni=1(xi − x̄)ui∑ni=1(xi − x̄)2
.
Entonces, la distribución de β̂1 depende de la suma de variables aleatorias normales
(xi − x̄)ui : la suma de normales es normal ergo β̂1 va a ser normal. Notar queE [(xi − x̄)ui |x ] = 0 y Var [(xi − x̄)ui |x ] = (xi − x̄)2σ2. Por el Supuesto 2 (muestraaleatoria) Cov (ui , uj ) = 0, i 6= j . De los resultados de la media E [β̂1] = β1 y de lavarianza se puede probar que Var
[∑ni=1(xi−x̄)ui∑ni=1(xi−x̄)2
]= Var [β̂1].
Aśı, β̂1 ∼ N(β1,Var [β̂1]).
β1β̂1
fβ̂1
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Contrastes de hipótesis (tests)
Los estimadores de MCO son variables aleatorias. Dependiendo de la muestra lo queestimamos podŕıa estar cerca o lejos de los parámetros de la población. Lo importantees cuán cerca o lejos.Consideremos la hipótesis nula
H0 : β1 = β10,
y contrastemos con la hipótesis alternativa
HA : β1 > β10 o HA : β1 < β10 o HA : β1 6= β10
(una dirección, dos direcciones)Un ejemplo muy usado es H0 : β1 = 0. ¿Hay relación de x con y? Si la pendiente escero entonces no hay relación. Esto corresponde a analizar la significatividad de lavariable x .En la práctica tenemos que hacer inferencia acerca de si H0 es verdad o no usando β̂1.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Contrastes de hipótesis (tests)
Si H0 es verdad, entonces β̂1 debeŕıa estar cerca de β10. Pero ¿por cuánto? ¿Cuáncerca es cerca?
Bajo H0 : β1 = β10 y asumiendo que u tiene distribución normal N(0, σ2), tenemos elsiguiente resultado importante
β̂1 − β10ŝe(β̂1)
∼ tn−2
donde se(.) son los errores estándar (standard errors) y tn−2 es la distribución “t deestudiante” (t-Student) con n− 2 grados de libertad. Por otro lado
ŝe(β̂1) =
√V̂ar (β̂1) es el estimador del error estándar.
Nota: Para obtener Var (β̂1) necesitamos estimar σ2, la varianza del error. Usamos σ̂2.
σ̂2 =∑ni=1 û
2i
n− 2
El número 2 de los grados de libertad dice cuántos parámetros estamos estimando.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Contrastes de hipótesis (tests)
Paso 1: ¿Qué hipótesis?
En general queremos ver la significatividad estad́ıstica (statistical significance)de un coeficiente de regresión. O sea, H0 : β1 = 0 en el modeloy = β0 + β1x + u.
También puede haber hipótesis nulas compuestas H0 : β2 = 0, β3 = 0 en elmodelo (ver más adelante)
y = β0 + β1x1 + β2 x2 + β3 x3 + u
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Contrastes de hipótesis (tests)
Paso 2: Nivel de significancia, α. En general, se aceptan estos valores:α = .1, α = .05, α = .01Cuanto mas pequeño es α mas confianza se tiene en los resultados. Estosniveles se eligen de acuerdo a los usos y costumbres del area de estudio. α = .05es el más usado.
En Estad́ıstica se llama Error de Tipo I al error de rechazar H0 cuando es verdadera.Dado que estamos trabajando con variables aleatorias siempre podemos cometererrores. α es este error.
Bajo H0, S = β̂1 − β10 debeŕıa estar cercano a 0. Entonces, la evidencia de queesto no es cierto debeŕıa estar asociado a un alto valor de S. Llamemos a Sα oSα/2 a los valores cŕıticos.- Modelo en una dirección: HA : β1 > β10 (o HA : β1 < β10). Entonces tenemosP [S > Sα] = α (o P [S < Sα] = α).- Modelo en dos direcciones: HA : β1 6= β10. Entonces tenemos dos valorescŕıticos tal que P [S > S1α/2 > 0] = α/2 y P [S < S
2α/2 < 0] = α/2. Si la
distribución de S es simétrica, S1α/2 = −S2α/2.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Modelo en una dirección: H0 : β1 = β10, Z =β̂1−β10√̂̂β1
HA : β1 > β10 HA : β1 < β10P [Z > zα] = α P [Z < −zα] = α
zα�
0
fZ
−zα�
0
fZ
El nivel de significancia (para el caso de rechazo en una dirección) corresponde al areanaranja. En este caso α es la probabilidad en una cola de la distribución.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Modelo en dos direcciones: H0 : β1 = β10, HA : β1 6= β10, Z = β̂1−β10√̂̂β1 ,P [|Z | > zα/2] = α
zα/2−zα/2��
0
fZ
El nivel de significancia (para el caso de rechazo en dos direcciones) corresponde alarea naranja. En este caso α es la probabilidad en las colas de la distribución.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Contrastes de hipótesis (tests)
Paso 3: Mirar el p − valor .El p-valor (para hipótesis en dos direcciones) es P [|β̂1 − β10| > |β̂obs1 − β10|]bajo la hipótesis nula, donde β̂obs1 es el valor observado, es decir, en la muestra,
y β̂1 la variable aleatoria dada por el estimador.
Intuitivamente nos dice que probabilidad hay de encontrar un valor que nos demás evidencia de rechazo que el realmente observado. Si esta probabilidad espequeña, entonces tenemos un valor muy distinto al que se asume en H0.REGLA:
Si p − valor < α entonces rechazar la hipótesis nula.Si p − valor ≥ α entonces aceptar (propiamente dicho no rechazar) la hipótesisnula.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Modelo en dos direcciones: H0 : β1 = β10, HA : β1 6= β10, Z = β̂1−β10√̂̂β1 ,P [|Z | > zα/2] = α, zobs =
β̂obs1 −β10√̂̂β1|zobs | > zα/2 |zobs | < zα/2
zα/2−zα/2�� ··
0
fZ
zα/2−zα/2�� ··
0
fZ
El p-valor corresponde al area azul en cada figura, P [|Z | > |zobs |] = p − valor . En lafigura derecha se rechaza la hipótesis nula, en la figura izquierda no.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Contrastes de hipótesis (tests)
Ejemplo: Si la hipótesis nula es H0 : β1 = 0 en el modelo y = β0 + β1x + u,entonces
Si p − valor < α, rechazar ⇒ β1 6= 0, x tiene un efecto lineal sobre y . Se diceque x es estad́ısticamente signficativa.
Si p − valor ≥ α, aceptar ⇒ β1 = 0, x no tiene efecto lineal sobre y . Se diceque x no es estad́ısticamente signficativa.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Contrastes de hipótesis (tests)
Si la hipótesis es H0 : β2 = 0, β3 = 0 para modelos de regresión múltiple (vermás adelante) y = β0 + β1x1 + β2 x2 + β3 x3 + u, entonces
Si p− valor < α, rechazar ⇒ β2 6= 0 o β3 6= 0, x2 y x3 tienen conjuntamente unefecto lineal sobre y . Se dice que x2 y x3 son estad́ısticamente signficativas.
Si p − valor ≥ α, aceptar ⇒ β2 = 0 y β3 = 0, x2 y x3 no tienen un efecto linealsobre y . Se dice que x2 y x3 no son estad́ısticamente signficativas.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Teorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
Contrastes de hipótesis (tests)
Paso 3 (alternativo): Mirar el estimador dividido el error estándar.Muchos trabjos emṕıricos reportan los coeficientes estimados y los errores
estándar de esos estimadores. La idea es queβ̂1
ŝe(β̂1)tiene aproximadamente una
distribución normal, y para un α = 0.05 el valor cŕıtico es 2 (en una variablealeatoria Z ∼ N(0, 1), P [Z > 1.96] = 0.025.REGLA:
Siβ̂1
se(β̂1)> 2 entonces rechazar la hipótesis nula. Se dice que x es
estad́ısticamente signficativa.
Siβ̂1
se(β̂1)≤ 2 entonces aceptar la hipótesis nula. Se dice que x no es
estad́ısticamente signficativa.
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Ejemplo: Retornos a la educación
wage = β0 + β1educ + u
1976 Current Population Survey (CPS) de los Estados Unidos
use http://fmwww.bc.edu/ec-p/data/wooldridge/wage1, clear(para abrir la base de datos)
reg wage educ (para correr la regresión)
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Ejemplo: Retornos a la educación
wage = −.905+ .541∗∗∗educ(.685) (.053)
< 0.187 > < 0.000 >
[−1.321] [10.2]
(errores estándar); < p − valor >; [t − valor ]; * significancia 10%; ** significancia 5%; *** significancia 1%;
¿Qué significa β̂1 = .541? cada año de educación incrementa el salario horarioen promedio 54 centavos de dólar.
¿Es estad́ısticamente significativo? Ver el p-valor.Esto tiene impĺıcita la hipótesis H0 : β1 = 0. se(β̂1) = .053,
β̂1se(β̂1)
= .541.053 = 10.2. Rechazar con el p-valor de 0.000.
¿Qué significa β̂0 = −.905? ¿Es significativo?
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
¿Cómo aparecen los resultados en STATA?
http://fmwww.bc.edu/gstat/examples/wooldridge/wooldridge2.html
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Otros comandos en STATA
Para obtener estad́ısticos de la base de datos tipear:
summ
(reporta para todas las variables: nro. de observaciones, promedio, desviacionesestándar, ḿınimo, máximo)summ wage educ
(sólo para las variables especificadas)
Más información para una variable (mediana, cuantiles, asimetŕıa, curtosis)
summ VARIABLE, detail
(en VARIABLE va la variable de interés)
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Otros comandos en STATA
Valor predicho, ŷ , de una regresión,
predict NEWNAME
(en NEWNAME va el nombre que se le quiere dar a la nuevavariable, por ejemplo ypred)(nota: antes hay que correr la regresión)
Residuos de la regresión, û = y − ŷpredict NEWNAME, resid
(en NEWNAME va el nombre que se le quiere dar a la nuevavariable, por ejemplo upred)
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Gráficos en STATA
Nube de puntosscatter YVAR XVAR
(YVAR es la variable del eje vertical, XVAR es la variable deleje horizontal)
Ĺınea (conecta los puntos)sort XVAR
line YVAR XVAR
(YVAR es la variable del eje vertical, XVAR es la variable deleje horizontal)
Gabriel Montes-Rojas Regresión simple
-
Regresión simple: introducciónPropiedades estad́ısticas de MCO
STATA
Ejemplo:predict wage hat (para predecir los salarios, ŵage = β̂0 + β̂1educ)scatter wage educ || line wage hat educ, xline(12.57) yline(5.90)(hace un gráfico con la nube de puntos y la ĺınea de regresión)
Gabriel Montes-Rojas Regresión simple
Regresión simple: introducciónPropiedades estadísticas de MCOTeorema de Gauss-MarkovInsesgadezInferenciaContrastes de hipótesis
STATA