clase4-regresion k variables
TRANSCRIPT
-
8/18/2019 Clase4-Regresion k Variables
1/34
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Clases 4
Econometŕıa I
Javiera Vásquez
Javiera Vásquez Clases 4 Econometŕıa I
-
8/18/2019 Clase4-Regresion k Variables
2/34
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Contenidos
1 Modelo de Regresíon con k variablesRepresentación Matricial del Modelo de Regresión LinealEstimador Ḿınimo Cuadrados Ordinarios
2 Propiedades del estimador MCO
Propiedad BLUE o MELITeorema de Gauss-Markov
3 Bondad de Ajuste y Análisis de VarianzaModelo de Regresión Lineal en Desv́ıos
Análisis de VarianzaBondad de Ajuste: R 2 y R̃ 2
4 EjemploModelo de Capital Humano: ecuación de MincerEstimación de ecuación de Mincer en STATA
Javiera Vásquez Clases 4 Econometŕıa I
-
8/18/2019 Clase4-Regresion k Variables
3/34
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Modelo de Regresión con k variables
Ahora abandonemos la simplificación de solo usar dos variables, deahora en adelante generalizaremos el modelo de regresión linealpara que pueda tener hasta k variables explicativas.
Aclaración: haremos un pequeño cambio de notación, cadaobservación i de la variable dependiente será denotada por y i ycada observación i de una variable explicativa, por ejemplo X 1,será denotada por x 1i . Ahora las variables en minúscula no significaque están en desv́ıos.
El Modelo de Regresión Poblacional en este caso es:
y i = β 1 + β 2x 2i + ... + β k x ki + u i i = 1, ..., n
Javiera Vásquez Clases 4 Econometŕıa I
-
8/18/2019 Clase4-Regresion k Variables
4/34
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Modelo de Regresión con k variables
El modelo con k variables explicativas puede ser expresado ennotación matricial. En efecto, cada variable explicativa x j , con j=1,..., k, es un vector columna de dimensión n, al igual que la
variable dependiente y el término de error. De este modo, elmodelo puede ser reescrito de la siguiente forma:
y 1y 2
...y n
=
11
...1
β 1 +
x 21x 22
...x 2n
β 2 + .. +
x k 1x k 2
...x kn
β k +
u 1u 2
...u n
Javiera Vásquez Clases 4 Econometŕıa I
M d l d R i´ k i bl
-
8/18/2019 Clase4-Regresion k Variables
5/34
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Modelo de Regresión con k variables
Donde las variables explicativas se pueden agrupar en una solamatriz de dimensión n×k, que denotaremos simplemente como X,de esta manera el modelo se expresa de la siguiente forma:
y 1y 2
...y n
=
1 x 21 x 31 · · · x k 11 x 22 x 32 · · · x k 2...
... ...
. . . ...
1 x 2n x 3n · · · x kn
·
β 1β 2
...β k
+
u 1u 2
...u n
⇒ Y = X β + u
donde Y es un vector de dimensión n×1, X es la matriz devariables explicativas de dimensión n×k y u es un vectorcorrespondiente al término de error con dimensión n×1.
Javiera Vásquez Clases 4 Econometŕıa I
M d l d R i´ k i bl
-
8/18/2019 Clase4-Regresion k Variables
6/34
Modelo de Regresion con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Modelo de Regresión con k variables
Ahora debemos expresar la distribución del término de error entérminos matriciales:
E (u ) =
E (u 1)E (u 2)
..
.E (u n)
= 0
n×1
E (uu ) =
E (u 21 ) E (u 1u 2) · · · E (u 1u n)E (u 2u 1) E (u
22 ) · · · E (u 2u n)
......
. . ....
E (u nu 1) E (u nu 2) · · ·
E (u 2
n)
=
σ2 0 · · · 00 σ2 · · · 0...
.... . .
...0 0 · · · σ2
= σ
2I
n×n
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variables
-
8/18/2019 Clase4-Regresion k Variables
7/34
Modelo de Regresion con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Modelo de Regresión con k variables
De los supuestos 3, 4 y 5, tenemos entonces que el término deerror tiene la siguiente distribución:
u ∼
0n×1
, σ2 I n×n
(1)
El método de MCO, plantea que los parámetros del modelopueden ser estimados minimizando la suma de los errores alcuadrado (S E (β̂ )), la que en términos matriciales equivale a:
S E (β̂ ) =n
i =1
û 2i = û û
donde û = Y − X β̂ . Entonces el problema de minimizar la suma de
los errores al cuadrado se expresa de la siguiente forma:Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variables
-
8/18/2019 Clase4-Regresion k Variables
8/34
Modelo de Regresion con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Modelo de Regresión con k variables
ḿınβ̂
S E (β̂ ) = ḿınβ̂
(Y − X β̂ )(Y − X β̂ )
= ḿın
β̂ Y Y − 2β̂ X Y + β̂ X X β̂
∂ S E (β̂ )
∂ β̂ = −2X Y + 2X X β̂ = 0
⇒ β̂ = (X
X )−1
X
Y (2)
De (10) tenemos:
X (Y − X β̂ ) = 0 ⇒ X û = 0 (3)
y esta es la condición de ortogonalidad.Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variables
-
8/18/2019 Clase4-Regresion k Variables
9/34
Modelo de Regresion con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Modelo de Regresión con k variables
De esta forma, el vector de parámetros estimados β̂ se obtiene deresolver el siguiente sistema de ecuaciones normales:
X X β̂ = X Y ⇔
1 1 1 · · · 1
x 2,1 x 2,2 · · · x 2,n...
... ...
. . . ...
x k ,1 x k ,2 · · · x k ,n
1 x 2,1 x 3,1 · · · x k ,11 x 2,2 x 3,2 · · · x k ,2...
... ...
. . . ...
1 x 2,n x 3,n · · · x k ,n
β̂ 1β̂ 2...
β̂ k
=
1 1 1 · · · 1
x 2,1 x 2,2 · · · x 2,n...
... ...
. . . ...
x k ,1 x k ,2 · · · x k ,n
y 1y 2...
y n
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variables
-
8/18/2019 Clase4-Regresion k Variables
10/34
Modelo de Regresion con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Modelo de Regresión con k variables
⇔
nn
i =1 x 2,i · · · n
i =1 x k ,i
ni =1 x 2,i
ni =1 x
22,i · · ·
ni =1 x 2,i x k ,i
ni =1 x 3,i ni =1 x 3,i x 2,i · · · ni =1 x 3,i x k ,i ... ... ... . . . ...ni =1 x k ,i
ni =1 x k ,i x 2,i · · ·
ni =1 x
2k ,i
β̂ 1β̂ 2ˆβ 3...
β̂ k
=
ni =1 y i
ni =1 y i x 2,i ni =1 y i x 3,i
...ni =1 y i x k ,i
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variables
-
8/18/2019 Clase4-Regresion k Variables
11/34
gPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Modelo de Regresión con k variables
Es importante recordar que el estimador MCO esta definido solocuando la matriz (X’X) es invertible, lo que ocurre siempre ycuando:
1 Las k columnas de la matriz X sean linealmente
independientes.2 Se disponga al menos de tantas observaciones como variables
explicativas, es decir: n≥ k .(Supuesto 7)
Pongamos atención en el segundo supuesto, cuando n=k la matriz
X tiene dimensión k×k, por lo tanto salvo que no se cumpla elsupuesto 8, X es invertible, y de esta forma (X X )−1 = X −1(X )−1
y por lo tanto:
β̂ = (X X )−1X Y = X −1(X )−1X Y = X −1Y (4)
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variables
-
8/18/2019 Clase4-Regresion k Variables
12/34
gPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Modelo de Regresión con k variables
el vector de residuosû = Y − X β̂ = Y − X (X −1Y ) = Y − Y = 0n, de esta forma elajuste es perfecto, ya que todos los residuos son cero, la sumaresidual de igual forma toma el ḿınimo valor posible, cero.
Sin embargo, esta no es una caracteŕıstica deseable, el ajusteperfecto ocurre porque tenemos una muestra muy reducida. Estotrae como consecuencia poco robustez e imprecisión en lasestimaciones. ¿Qué pasa con σ̃2?
Necesitamos tener un número de observaciones notablementesuperior al de las variables explicativas. La diferencia n-k se conocecomo el número de grados de libertad de la estimación.
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variables
-
8/18/2019 Clase4-Regresion k Variables
13/34
gPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaEjemplo
Propiedad BLUE o MELITeorema de Gauss-Markov
Propiedades del estimador MCO
Notemos que el vector β̂ es un vector aleatorio, ya que depende delvector de errores:
β̂ = (X X )−1X Y = (X X )−1X (X β + u ) = β + (X X )−1X u
E (β̂ ) = E (β ) + E [(X X )−1X u ]
= β + (X X )−1X E (u )
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesP i d d d l i d MCO P i d d BLUE MELI
-
8/18/2019 Clase4-Regresion k Variables
14/34
Propiedades del estimador MCOBondad de Ajuste y Análisis de Varianza
Ejemplo
Propiedad BLUE o MELITeorema de Gauss-Markov
Propiedades del estimador MCO
La esperanza de β es el mismo par‡metro, ya que este es unconstante (valor poblacional), y por supuestos 2 y 3 el segundotérmino de la expresión anterior es cero,
⇒ E (β̂ ) = β (5)
Es decir, el estimador MCO es insesgado, tal como lo hab́ıamosmostrado anteriormente.
Luego, podemos definir el error de estimaci´ on como:
β̂ − β = (X X )−1X u
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesP i d d d l ti d MCO P i d d BLUE MELI
-
8/18/2019 Clase4-Regresion k Variables
15/34
Propiedades del estimador MCOBondad de Ajuste y Análisis de Varianza
Ejemplo
Propiedad BLUE o MELITeorema de Gauss-Markov
Propiedades del estimador MCO
Ahora calculemos la varianza de β̂ : Necesitamos obtener lavarianza de un vector, para eso necesitamos la esperanza de lasiguiente forma cuadrática
var (β̂ ) = E [(β̂ − E (β̂ )) · (β̂ − E (β̂ ))
]= E [(β̂ − β ) · (β̂ − β )]
= E [(X X )−1X uu X (X X )−1]
= (X X )−1X E (uu )X (X X )−1
= (X X )−1X (σ2I n)X (X X )−1
= σ2(X X )−1 (6)
Para poder estimar la varianza de β̂ necesitamos reemplazar σ2 en(5) por su estimador insesgado:
σ2 = u u Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO Propiedad BLUE o MELI
-
8/18/2019 Clase4-Regresion k Variables
16/34
Propiedades del estimador MCOBondad de Ajuste y Análisis de Varianza
Ejemplo
Propiedad BLUE o MELITeorema de Gauss-Markov
Propiedad BLUE
Se dice que β̂ , es el mejor estimador lineal insesgado (MELI oBLUE) de β si se cumple lo siguiente:
1 El lineal, es decir, es una función lineal de una variablealeatoria, como la variable y en el modelo de regresión.
2 Es insesgado, es decir, su valor esperado, E (β̂ ), es igual a elverdadero valor, β .
3 Tiene varianza ḿınima dentro de la clase de todos losestimadores lineales insesgados; un estimador insesgado comovarianza ḿınima es conocido como un estimador eficiente.
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO Propiedad BLUE o MELI
-
8/18/2019 Clase4-Regresion k Variables
17/34
Propiedades del estimador MCOBondad de Ajuste y Análisis de Varianza
Ejemplo
Propiedad BLUE o MELITeorema de Gauss-Markov
Gauss-Markov
Proposición: El estimador MCO es el estimador lineal insesgadoóptimo, en el sentido de que cualquier otro estimador lineal einsesgado tiene una matriz de covarianza mayor que la delestimador MCO. Es decir, el estimador MCO es MELI (BLUE).
Demostración: Sea β = Ay un estimador lineal de β , donde A esuna matriz k×n. Denotemos A = A − (X X )−1X , de modo que:
β = [A + (X X )−1X ]Y
= [A + (X X )−1X ](X β + u )
= AX β + β + [A + (X X )−1X ]u
Aplicando esperanza a la expresión anterior:
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO Propiedad BLUE o MELI
-
8/18/2019 Clase4-Regresion k Variables
18/34
Propiedades del estimador MCOBondad de Ajuste y Análisis de Varianza
Ejemplo
Propiedad BLUE o MELITeorema de Gauss-Markov
Gauss-Markov
E (β ) = AX β + β + [A + (X X )−1X ]E (u )= AX β + β
El estimador β será insesgado solo si la matriz A es tal queAX=0k ×k . De esta forma:β = β + [A + (X X )−1X ]u y su matriz de covarianza será:
cov (β ) = E [(β − β )(β − β )]= E {([A + (X X )−1X ]u )([A + (X X )−1X ]u )}
= σ2AA + σ2(X X )−1
cov (β̂ )Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO Propiedad BLUE o MELI
-
8/18/2019 Clase4-Regresion k Variables
19/34
Propiedades del estimador MCOBondad de Ajuste y Análisis de Varianza
Ejemplo
Propiedad BLUE o MELITeorema de Gauss-Markov
Gauss-Markov
Como la matriz AA
es semidefinida positiva, se concluye ladiferencia entre la covarianza de β y β̂ es una matriz semidefinidapositiva, con lo que la covarianza de β es mayor o igual a lacovarianza de β̂
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
Modelo de Regresión Lineal en Desvı́osA ´li i d V i
-
8/18/2019 Clase4-Regresion k Variables
20/34
p COBondad de Ajuste y Análisis de Varianza
Ejemplo
Análisis de VarianzaBondad de Ajuste: R 2 y R̃ 2
Modelo de Regresión Lineal en Desv́ıos
Sea el modelo poblacional usual con k variables:
y i = β 1 + β 2x 2i + β 3x 3i + · · · + β k x ki + u i (7)
donde i = 1 . . . n y cuya contraparte estimada es:
y i = β̂ 1 + β̂ 2x 2i + β̂ 3x 3i + · · · + β̂ k x ki + û i (8)
Luego, si sumamos para todas las observaciones y dividimos aambos lados por el tamaño muestral n, tenemos:
Ȳ = β̂ 1 + β̂ 2x̄ 2 + β̂ 3x̄ 3 + · · · + β̂ k x̄ k (9)
por lo cual:
β̂ 1 = Ȳ − β̂ 2x̄ 2 + β̂ 3x̄ 3 + · · · + β̂ k x̄ k (10)
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
Modelo de Regresión Lineal en Desvı́osAnálisis de Varianza
-
8/18/2019 Clase4-Regresion k Variables
21/34
pBondad de Ajuste y Análisis de Varianza
Ejemplo
Analisis de VarianzaBondad de Ajuste: R 2 y R̃ 2
Modelo de Regresión Lineal en Desv́ıos
La ecuación (11) muestra que la constante de una regresión quedadeterminado por el resto de los k-1 coeficientes involucrados.Finalmente, note que restando las ecuaciones (9) y (10)
obtenemos:
y i − Ȳ = β̂ 2(x 2i − x̄ 2) + β̂ 3(x 3i − x̄ 3) + · · · + β̂ k (x ki − x̄ k ) + û i
la cual es una expresión similar a (9), excepto por dos importantes
diferencias. Primero, el modelo no posee constante y segundo, lasvariables se encuentran expresadas en desv́ıos con respecto a lamedia. A pesar de ello, note que los coeficientes y los residuos sonlos mismos en ambos modelos.
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
Modelo de Regresión Lineal en Desvı́osAnálisis de Varianza
-
8/18/2019 Clase4-Regresion k Variables
22/34
Bondad de Ajuste y Análisis de VarianzaEjemplo
Analisis de VarianzaBondad de Ajuste: R 2 y R̃ 2
Modelo de Regresión Lineal en Desv́ıos
Sea i un vector de unos de 1 × n y M 0 una matriz de n × n,definida como:
M 0 = I n×n
− ii
n =
1 0 · · · 00 1 · · · 0...
... . . .
...0 0 · · · 1
− 1n
1 1 · · · 11 1 · · · 1...
... . . .
...1 1 · · · 1
=
1 − 1
n
− 1
n
· · · − 1
n− 1n
1 − 1n
· · · − 1n
... ...
. . . ...
− 1n
− 1n
· · · 1 − 1n
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
Modelo de Regresión Lineal en Desvı́osAnálisis de Varianza
-
8/18/2019 Clase4-Regresion k Variables
23/34
Bondad de Ajuste y Análisis de VarianzaEjemplo
Analisis de VarianzaBondad de Ajuste: R 2 y R̃ 2
Modelo de Regresión Lineal en Desv́ıos
Dicha matriz es singular, simétrica (M 0’=M 0) e idempotente(M 0M 0=M 0). En general, M 0 es conocida como matriz de desv́ıos , ya que resta a cada columna de la matriz involucrada, su
media aritmética. Por ejemplo, es fácil comprobar que:
M 0Y = Y − 1
nii Y =
y 1y 2...y n
−
1
n
ni =1 y i ni =1 y i
..
.ni =1 y i
=
y 1 − Ȳ y 2 − Ȳ
..
.y n − Ȳ
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
B d d d Aj A ´li i d V i
Modelo de Regresión Lineal en Desvı́osAnálisis de Varianza
-
8/18/2019 Clase4-Regresion k Variables
24/34
Bondad de Ajuste y Análisis de VarianzaEjemplo
Analisis de VarianzaBondad de Ajuste: R 2 y R̃ 2
Modelo de Regresión Lineal en Desv́ıos
Por lo tanto, nuestro modelo expresado en matrices, puede serexpresado en términos de desv́ıo con respecto a la media como:
M 0Y = M 0X β + M 0u (11)
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
B d d d Aj t A ´li i d V i
Modelo de Regresión Lineal en Desvı́osAnálisis de Varianza
-
8/18/2019 Clase4-Regresion k Variables
25/34
Bondad de Ajuste y Analisis de VarianzaEjemplo
Bondad de Ajuste: R 2 y R̃ 2
Análisis de Varianza
Suponga entonces el siguiente modelo poblacional:
Y = X β + u
Buscamos entonces definir la variación de la variable dependiente
(Suma de los cuadrados totales = TSS) como:
TSS =n
i =1
(Y i − Ȳ )2 (12)
Para encontrar entonces una expresión para (13), de la ecuación(12) tenemos que nuestro modelo estimado en desv́ıos conrespecto a la media es:
M 0Y = M 0X β̂ + M 0û
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de Varianza
Modelo de Regresión Lineal en Desvı́osAnálisis de Varianza
2 ˜ 2
-
8/18/2019 Clase4-Regresion k Variables
26/34
Bondad de Ajuste y Analisis de VarianzaEjemplo
Bondad de Ajuste: R 2 y R̃ 2
Análisis de Varianza
con lo cual, al particionar nuestra matriz X en X = [i X 2],nuestro vector de parámetros en β = [β 1 β 2] y considerando queM 0i = 0 y que M 0û = û , tenemos que:
M 0Y = M 0i β̂ 1 + M 0X 2β̂ 2 + M
0û
= M 0X 2β̂ 2 + û (13)
Luego, para formar la TSS de la ecuación (13), multiplicamos porY’ la ecuación (14):
Y M 0Y = Y (M 0X 2β̂ 2 + û )
= (X β̂ + û )(M 0X 2β̂ 2 + û )
= β̂ X M 0X 2β̂ 2 + β̂ X û + û M 0X 2β̂ 2 + û
û
Y M 0Y = β̂ 2X
2M 0X 2β̂ 2 + û
û (14)
TSS = ESS + RSS (15)
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de Varianza
Modelo de Regresión Lineal en Desvı́osAnálisis de Varianza
2 ˜ 2
-
8/18/2019 Clase4-Regresion k Variables
27/34
Bondad de Ajuste y Analisis de VarianzaEjemplo
Bondad de Ajuste: R 2 y R̃ 2
Bondad de Ajuste: R 2 y R̃ 2
Definimos entonces la bondad de ajuste del modelo a través delsiguiente estad́ıgrafo llamado también coeficiente de determinación:
R 2 = ESS TSS (16)
es decir, como la proporción de la varianza de Y que es explicadapor la varianza de la regresión. Alternativamente:
R 2 = 1 − RSS TSS
(17)
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de Varianza
Modelo de Regresión Lineal en Desvı́osAnálisis de VarianzaB d d d A R2 R̃2
-
8/18/2019 Clase4-Regresion k Variables
28/34
Bondad de Ajuste y Analisis de VarianzaEjemplo
Bondad de Ajuste: R 2 y R 2
Bondad de Ajuste: R 2 y R̃ 2
Note que:
1 El coeficiente de determinación es siempre menor a 1. Elloporque RSS ≤ TSS y por lo tanto RSS
TSS ≤ 1.
2 El análisis de varianza anterior fue derivado bajo el supuestoque el modelo inclúıa una constante (por ello utilizábamos lamatriz M 0). En dicho caso, necesariamente R 2 ≥ 0. En casode que el modelo no incluya una constante, se debe utilizar lafórmula (17) utilizando TSS=Y’Y (sin desv́ıos).
3 Al agregar regresores al modelo, el R 2 nunca decrecerá (semantendrá constante o aumentará)
4 No es claro cuan bueno sea como predictor de ajuste.
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de Varianza
Modelo de Regresión Lineal en Desvı́osAnálisis de VarianzaB d d d Aj R2 R̃2
-
8/18/2019 Clase4-Regresion k Variables
29/34
Bondad de Ajuste y Analisis de VarianzaEjemplo
Bondad de Ajuste: R 2 y R 2
Bondad de Ajuste: R 2 y R̃ 2
¿Por qué sucede esto?, ya que al incluir regresores, la suma de losresiduos necesariamente decrece (o en el mejor de los casos semantiene), mientras que la suma de los cuadrados totales
permanece constante. Por esta razón se creo que coeficiente dedeterminación ajustado el que corrige el R 2 original por los gradosde libertad del numerador y denominador. Entonces, definimos
R 2-ajustado (R 2
) como:
R 2 = 1 − û
û /(n − k )Y M 0Y /(n − 1)
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaModelo de Capital Humano: ecuación de MincerEstimación de ecuación de Mincer en STATA
-
8/18/2019 Clase4-Regresion k Variables
30/34
j yEjemplo
Ejemplo: Capital Humano
La teoŕıa de capital humano predice que los individuos con mayorcapital humano serán más productivos, con lo cual recibiránmayores ingresos. En los años 60, Jacob Mincer derivó la siguiente
ecuación:
log (ingreso ) = β 0 + β 1esc + β 2exp + β 3exp 2 + u (18)
donde esc es la escolaridad de la persona medida en años y exp esla experiencia laboral de la persona. Esta es una de las ecuacionesmás estimadas en la literatura emṕırica.
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCO
Bondad de Ajuste y Análisis de VarianzaModelo de Capital Humano: ecuación de MincerEstimación de ecuación de Mincer en STATA
-
8/18/2019 Clase4-Regresion k Variables
31/34
j yEjemplo
Ejemplo: Capital Humano
Estimaremos esta ecuación de Mincer utilizando los datos de laEncuesta de Protección Social (2004), que hasta el momento es laúnico encuesta de representatividad nacional que permite construirexperiencia laboral efectiva (desde 1980) a través de módulo dehistoria laboral. Las encuesta que no tienen este tipo deinformación (por ejemplo la Encuesta CASEN) deben aproximarexperiencia a través de:
exp = edad − escolaridad − 6
lo que se conoce como experiencia potencial. Se puede utilizarsimplemente la edad de la persona.
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCOBondad de Ajuste y Análisis de Varianza
Modelo de Capital Humano: ecuación de MincerEstimación de ecuación de Mincer en STATA
-
8/18/2019 Clase4-Regresion k Variables
32/34
Ejemplo
Estimación en STATA
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCOBondad de Ajuste y Análisis de Varianza
Ej l
Modelo de Capital Humano: ecuación de MincerEstimación de ecuación de Mincer en STATA
-
8/18/2019 Clase4-Regresion k Variables
33/34
Ejemplo
Relación predicha entre lyph y esc
Dado un nivel de experiencia se puede graficar la relación entreescolaridad y logaritmo del salario por hora predicho por el modelo
5 . 5
6
6 . 5
7
7 . 5
p_
e x p_
5
0 5 10 15 20
esc04
Javiera Vásquez Clases 4 Econometŕıa I
Modelo de Regresión con k variablesPropiedades del estimador MCOBondad de Ajuste y Análisis de Varianza
Ej l
Modelo de Capital Humano: ecuación de MincerEstimación de ecuación de Mincer en STATA
-
8/18/2019 Clase4-Regresion k Variables
34/34
Ejemplo
Relación predicha entre lyph y experiencia
Dado un nivel de educación (10 años) se puede graficar la relaciónentre experiencia y logaritmo del salario por hora predicho por elmodelo
6 . 4
6 . 5
6 . 6
6 . 7
p_
e s c_
1 0
0 5 10 15 20 25exp
Javiera Vásquez Clases 4 Econometŕıa I