Saltar al contenido principal

Prerrequisitos recomendados

Siguiente en la ruta

Regresión Múltiple

Modelo OLS con múltiples variables explicativas, multicolinealidad y test F

Continuar

Conceptos formales

Ver glosario completo

Consistencia del Estimador

Econometria

Un estimador $\hat{\theta}_n$ es consistente para $\theta_0$ si converge en probabilidad a $\theta_0$ cuando el tamanio de la muestra tiende a infinito: $\hat{\theta}_n \xrightarrow{p} \theta_0$. La consistencia es una propiedad asintotica fundamental distinta de la insesgadez en muestra finita. Un estimador puede ser sesgado en muestras finitas y aun asi ser consistente, siempre que el sesgo desaparezca conforme $n \to \infty$.

\hat{\theta}_n \xrightarrow{p} \theta_0 \iff \forall \varepsilon > 0, \; \lim_{n \to \infty} P(|\hat{\theta}_n - \theta_0| > \varepsilon) = 0

Error Estandar

Econometria

Desviacion estandar de la distribucion muestral de un estimador; mide la precision con que el estimador aproxima el parametro poblacional. Para el estimador MCO en regresion multiple, el error estandar de $\hat{\beta}$ es la raiz cuadrada de los elementos diagonales de la matriz de varianza-covarianza $\sigma^2 (X'X)^{-1}$. En presencia de heteroscedasticidad o autocorrelacion, deben usarse errores estandar robustos (HC o HAC).

\text{SE}(\hat{\beta}_j) = \sqrt{\hat{\sigma}^2 [(X'X)^{-1}]_{jj}}

Intervalo de Confianza

Econometria

Rango de valores construido a partir de la muestra tal que contiene el parametro poblacional con probabilidad $(1-\alpha)$ si el procedimiento se repitiera infinitas veces bajo el mismo diseno muestral. Para el coeficiente MCO con errores normales, el intervalo al $(1-\alpha)\%$ es $\hat{\beta}_j \pm t_{n-k,\alpha/2} \cdot \text{SE}(\hat{\beta}_j)$. La interpretacion frecuentista no asigna probabilidad al parametro en si, sino al procedimiento de construccion.

IC_{1-\alpha}(\beta_j) = \left[\hat{\beta}_j \pm t_{n-k,\,\alpha/2}\cdot \text{SE}(\hat{\beta}_j)\right]

Minimos Cuadrados Ordinarios (MCO)

Econometria

Metodo de estimacion que minimiza la suma de los residuos al cuadrado para obtener $\hat{\beta} = (X'X)^{-1}X'y$. Es el estimador lineal insesgado de menor varianza (BLUE) bajo los supuestos de Gauss-Markov. La formula analitica de MCO existe en forma cerrada siempre que $X'X$ sea invertible (rango completo de columnas). Su interpretacion geometrica es la proyeccion ortogonal del vector $y$ sobre el espacio columna de $X$.

\hat{\beta}_{OLS} = (X'X)^{-1}X'y, \quad \text{minimize} \sum_{i=1}^n \hat{u}_i^2

Coeficiente de Determinacion (R cuadrado)

Econometria

Proporcion de la varianza total de la variable dependiente que es explicada por los regresores del modelo. Toma valores en $[0,1]$: un $R^2 = 1$ indica ajuste perfecto; $R^2 = 0$ indica que el modelo no mejora a predecir con la media. El $R^2$ ajustado penaliza la inclusion de variables adicionales: $\bar{R}^2 = 1 - (1-R^2)(n-1)/(n-k-1)$. Un $R^2$ alto no implica causalidad ni ausencia de problemas de especificacion.

R^2 = 1 - \frac{\sum_i \hat{u}_i^2}{\sum_i (y_i - \bar{y})^2} = \frac{\text{SCE}}{\text{SCT}}

Regresion Lineal

Econometria

Modelo estadistico que aproxima la relacion entre una variable dependiente $y$ y uno o mas regresores $x$ mediante una funcion lineal en los parametros: $y = X\beta + u$. La linealidad se refiere a los parametros, no necesariamente a las variables (que pueden ser transformaciones no lineales de los datos originales). Es el punto de partida del analisis econometrico por su interpretabilidad, propiedades analiticas y fundamentos asintoticos bien establecidos.

y = \beta_0 + \beta_1 x_1 + \cdots + \beta_k x_k + u = X\beta + u

Regresion Simple

Econometria

Modelo de regresion lineal con un solo regresor: $y_i = \beta_0 + \beta_1 x_i + u_i$. El estimador MCO de la pendiente es $\hat{\beta}_1 = \text{Cov}(x,y)/\text{Var}(x)$, que resume la asociacion lineal muestral entre $x$ e $y$ neta del intercepto. Aunque es el caso mas simple, sus propiedades geometricas y algebraicas ilustran los principios fundamentales del analisis de regresion.

\hat{\beta}_1 = \frac{\sum_{i=1}^n (x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=1}^n (x_i - \bar{x})^2}

Significancia Estadistica

Econometria

Un estimador es estadisticamente significativo al nivel $\alpha$ si se rechaza la hipotesis nula $H_0: \beta = 0$ con un estadistico de prueba que supera el valor critico correspondiente, equivalente a un valor-p menor que $\alpha$. La significancia estadistica no implica significancia economica: con muestras grandes, efectos triviales pueden resultar significativos. La interpretacion correcta requiere considerar tambien el tamanio del efecto y los intervalos de confianza.

t = \frac{\hat{\beta}_j}{\text{SE}(\hat{\beta}_j)} \sim t_{n-k-1} \quad \text{bajo } H_0: \beta_j = 0

Supuestos de Gauss-Markov

Econometria

Conjunto de supuestos sobre el modelo de regresion lineal bajo los cuales MCO es BLUE: (MLR.1) linealidad en parametros, (MLR.2) muestra aleatoria, (MLR.3) no colinealidad perfecta, (MLR.4) exogeneidad media $E[u|X]=0$, (MLR.5) homocedasticidad $\text{Var}(u|X)=\sigma^2$. Para la inferencia exacta se anade (MLR.6) normalidad de $u$. El supuesto MLR.4 es el mas critico: su violacion produce inconsistencia en MCO.

E[u|X] = 0 \;\text{(MLR.4)}, \quad \text{Var}(u|X) = \sigma^2 \;\text{(MLR.5)}

Teorema de Gauss-Markov

Econometria

Bajo los supuestos clasicos de regresion lineal (linealidad, exogeneidad estricta $E[u|X]=0$, homocedasticidad $\text{Var}(u|X)=\sigma^2 I$, y no multicolinealidad perfecta), el estimador MCO es el mejor estimador lineal insesgado (BLUE). 'Mejor' se refiere a que tiene la menor varianza dentro de la clase de estimadores lineales insesgados. No requiere normalidad de los errores para este resultado.

\hat{\beta}_{OLS} = (X'X)^{-1}X'y \text{ es BLUE si } E[u|X] = 0, \; \text{Var}(u|X) = \sigma^2 I

Prueba de Hipotesis

Econometria

Procedimiento estadistico para tomar una decision sobre si los datos son compatibles con una hipotesis nula $H_0$ sobre parametros poblacionales. Se construye un estadistico de prueba cuya distribucion bajo $H_0$ es conocida, y se rechaza $H_0$ si el estadistico cae en la region critica de tamano $\alpha$. Errores posibles: Tipo I (rechazar $H_0$ verdadera, probabilidad $\alpha$) y Tipo II (no rechazar $H_0$ falsa, probabilidad $\beta$). El poder de la prueba es $1-\beta$.

\text{Rechazar } H_0 \iff |t| > t_{\alpha/2, n-k} \iff p\text{-valor} < \alpha

Valor-p (p-valor)

Econometria

Probabilidad de obtener un estadistico de prueba igual o mas extremo que el observado, dado que la hipotesis nula es verdadera. Un valor-p pequenio (tipicamente menor que 0.05 o 0.01) proporciona evidencia en contra de $H_0$. El valor-p no mide la probabilidad de que $H_0$ sea verdadera, ni la magnitud del efecto; su mal uso e interpretacion mecanica son fuente de reproducibilidad deficiente en ciencias empiricas (see: Wasserstein & Lazar, 2016).

p = P(|T| \geq |t_{obs}| \mid H_0) = 2\,P(T \geq |t_{obs}|) \quad \text{(prueba bilateral)}

Pregunta Central

¿Cómo funciona el método de mínimos cuadrados ordinarios y qué miden β̂₀, β̂₁ y R²?

🕸️ Mapa de Conexiones

📚 Ruta de Aprendizaje

Sugerimos estudiar estos modelos en orden para una comprensión completa.

💡 Conceptos Clave

📐Regresión

Método estadístico para estimar la relación entre variables dependientes e independientes

🔍Inferencia

Proceso de sacar conclusiones sobre una población a partir de una muestra de datos

📐Estimación

Proceso de obtener valores numéricos de parámetros desconocidos a partir de datos

También en:

📐 Ecuaciones Fundamentales

Modelo
Línea de regresión estimada
\hat{Y} = \hat{\beta}_0 + \hat{\beta}_1 X
Pendiente OLS
Estimador de la pendiente por mínimos cuadrados
\hat{\beta}_1 = \frac{\sum(x_i - \bar{x})(y_i - \bar{y})}{\sum(x_i - \bar{x})^2}
Proporción de varianza explicada
R^2 = 1 - \frac{SSE}{SST}

Aplicaciones

  • Exploración visual de relaciones entre variables
  • Comprensión intuitiva de residuos y ajuste
  • Base para toda la econometría aplicada

⚠️ Limitaciones

  • Solo dos variables (dependiente e independiente)
  • Asume relación lineal
  • Sensible a outliers

Sobre la Regresion Lineal Simple

La regresion lineal simple es la piedra angular de la econometria. Permite cuantificar la relacion entre una variable dependiente (Y) y una unica variable independiente (X) usando el metodo de Minimos Cuadrados Ordinarios (OLS). La idea central es encontrar la recta que minimiza la suma de los cuadrados de las distancias verticales entre los puntos observados y la linea ajustada.

El Metodo OLS

OLS encuentra los coeficientes que minimizan la Suma de Cuadrados de los Errores (SSE). Busca la recta que, en conjunto, esta lo mas cerca posible de todos los puntos observados.

  • - Minimiza la distancia vertical entre cada punto y la recta
  • - Produce estimadores insesgados bajo los supuestos clasicos (Gauss-Markov)
  • - Es el mejor estimador lineal insesgado (BLUE: Best Linear Unbiased Estimator)

Supuestos de Gauss-Markov

Para que OLS tenga propiedades estadisticas optimas, se requieren estos supuestos clasicos:

  • - Linealidad en los parametros
  • - Muestra aleatoria de n observaciones
  • - Media condicional cero: E(e|X) = 0
  • - Homocedasticidad: Var(e|X) = constante
  • - No autocorrelacion de los errores

Formulas Fundamentales

Estimador de la Pendiente

b1 = Cov(X,Y) / Var(X)

Estimador del Intercepto

b0 = Y_media - b1 * X_media

Coeficiente de Determinacion

R2 = 1 - SSE / SST

Estadistico t

t = b_j / SE(b_j)

Interpretacion de los Resultados

  • Intercepto (b0): Es el valor esperado de Y cuando X = 0. En muchos contextos economicos, este valor puede no tener una interpretacion practica directa (por ejemplo, ingreso cuando los anos de educacion son cero).
  • Pendiente (b1): Mide el cambio esperado en Y por cada unidad adicional de X, ceteris paribus. Este es generalmente el coeficiente de mayor interes.
  • R cuadrado: Proporcion de la variabilidad total de Y explicada por el modelo. Un R2 de 0.85 indica que el 85% de la variacion en Y es capturada por la relacion lineal con X.
  • Estadistico t: Mide cuantos errores estandar esta el coeficiente estimado alejado de cero. Si |t| > 2 (aproximadamente), rechazamos la hipotesis nula de que el coeficiente es cero al 5% de significancia.

Aplicaciones en Economia

  • Retornos a la educacion: Estimar cuanto aumenta el salario por cada ano adicional de educacion (ecuacion de Mincer).
  • Funcion de consumo: Cuantificar la propension marginal a consumir: que fraccion de cada peso adicional de ingreso se destina al consumo.
  • Curvas de demanda: Estimar la relacion entre precio y cantidad demandada con datos de mercado.
  • Evaluacion de politicas: Medir el efecto de intervenciones (por ejemplo, subsidios o impuestos) sobre variables de resultado.

Limitaciones del Modelo

  • Asume una relacion estrictamente lineal entre X e Y, lo cual puede no capturar relaciones mas complejas
  • Con una sola variable explicativa, es altamente susceptible al sesgo de variable omitida
  • Los resultados son sensibles a valores atipicos (outliers) que pueden distorsionar la pendiente
  • Correlacion no es causacion: una relacion estadistica no implica necesariamente una relacion causal
  • Los intervalos de confianza y pruebas t asumen normalidad de los errores (o muestras grandes por el TLC)

Conceptos Relacionados