Prerrequisitos recomendados
Siguiente en la ruta
Optimización con Lagrange
Método de multiplicadores de Lagrange para optimización con restricciones de igualdad
Conceptos formales
Concavidad y Convexidad
Mat.Una funcion f: R^n → R es concava si para todo x, y en su dominio y todo t ∈ [0,1] se cumple f(tx + (1-t)y) ≥ tf(x) + (1-t)f(y); es convexa si la desigualdad se invierte. En R, concavidad equivale a f'' ≤ 0. Para funciones diferenciables, la concavidad es equivalente a que el Hessiano sea semidefinido negativo (convexidad: semidefinido positivo). Las funciones concavas tienen maximos globales bien definidos bajo condiciones de cuasi-concavidad, propiedad central en la teoria del consumidor y del productor.
Condiciones de Karush-Kuhn-Tucker (KKT)
Mat.Condiciones necesarias (y bajo convexidad-concavidad, tambien suficientes) para optimalidad en problemas de optimizacion con restricciones de desigualdad. Para max f(x) s.a. g_j(x) ≤ 0, las condiciones KKT exigen: (i) factibilidad primal, (ii) factibilidad dual (mu_j ≥ 0), (iii) condicion de complementariedad holgazana (mu_j · g_j(x) = 0) y (iv) estacionariedad (∇f = Σ mu_j ∇g_j). Generalizan las condiciones de Lagrange al caso de desigualdades y constituyen el nucleo del calculo de variaciones y la programacion matematica.
Condiciones de Primer Orden (CPO)
Mat.Condiciones necesarias para un extremo interior de una funcion diferenciable: en dimension uno, f'(x*) = 0; en dimension n, ∇f(x*) = 0. Para problemas con restricciones de igualdad se obtienen igualando a cero las derivadas parciales del Lagrangiano. Las CPO identifican candidatos a optimo (puntos criticos) pero no garantizan optimalidad; se requieren adicionalmente condiciones de segundo orden o hipotesis de concavidad/convexidad global.
Condiciones de Segundo Orden (CSO)
Mat.Condiciones que determinan la naturaleza de un punto critico (maximo, minimo o punto de silla). Para funciones de una variable: f''(x*) < 0 indica maximo local, f''(x*) > 0 minimo local. Para funciones de varias variables: se analiza el signo del Hessiano evaluado en el punto critico. En problemas con restricciones, se utiliza el Hessiano orlado: el signo de los menores principales bordeados determina si el punto es un maximo o minimo condicionado.
Matriz Definida Positiva / Negativa
Mat.Una matriz simetrica A de orden n x n es definida positiva si x'Ax > 0 para todo vector no nulo x ∈ R^n; es definida negativa si x'Ax < 0. Equivalentemente, A es definida positiva si y solo si todos sus valores propios son estrictamente positivos (negativa: todos negativos). El criterio de Sylvester establece que A es definida positiva si y solo si todos sus menores principales son positivos. Esta propiedad determina si el Hessiano de una funcion en un punto critico corresponde a un minimo (DP) o un maximo (DN).
Derivada Parcial
Mat.Derivada de una funcion de varias variables respecto a uno de sus argumentos, manteniendo constantes todos los demas. Para f: R^n → R, la derivada parcial respecto a x_i es ∂f/∂x_i = lim_{h→0} [f(x + h·e_i) - f(x)] / h, donde e_i es el i-esimo vector unitario. Mide la sensibilidad de f ante variaciones marginales en x_i. El vector de todas las derivadas parciales forma el gradiente. En economia, las derivadas parciales modelan el producto marginal de cada factor, la utilidad marginal de cada bien, o la respuesta de una variable a cambios en sus determinantes.
Forma Cuadratica
Mat.Polinomio homogeneo de grado dos en n variables que puede escribirse como Q(x) = x'Ax, donde A es una matriz simetrica de coeficientes. Las formas cuadraticas clasifican los puntos criticos de funciones diferenciables dos veces: si la segunda diferencial d²f = dx'Hf(x*)dx es definida negativa (positiva) en el punto critico x*, entonces x* es un maximo (minimo) local. Las formas cuadraticas indefinidas corresponden a puntos de silla. La firma de una forma cuadratica (numero de valores propios positivos, negativos y cero) es invariante ante cambios de base no singulares.
Gradiente
Mat.Vector de todas las derivadas parciales de primer orden de una funcion diferenciable f: R^n → R. El gradiente ∇f(x) apunta en la direccion de maximo crecimiento de f en el punto x, y su magnitud es la tasa de cambio en esa direccion. En optimizacion sin restricciones, el gradiente nulo es condicion necesaria para un extremo interior (CPO). En el teorema de la envolvente, el gradiente del Lagrangiano respecto a los parametros mide como cambia el valor optimo. El metodo del gradiente (steepest ascent/descent) es un algoritmo iterativo fundamental para maximizacion/minimizacion numerica.
Hessiano
Mat.Matriz cuadrada de las derivadas parciales de segundo orden de una funcion dos veces diferenciable f: R^n → R. El elemento (i,j) del Hessiano es ∂²f/∂x_i∂x_j. Por el teorema de Schwarz, el Hessiano es simetrico cuando las derivadas cruzadas son continuas. En el contexto de optimizacion sin restricciones, el signo del Hessiano evaluado en un punto critico determina si este es un maximo (Hessiano definido negativo), minimo (definido positivo) o punto de silla (indefinido). El Hessiano es la segunda diferencial de f y generaliza el concepto escalar de segunda derivada.
Lagrangiano
Mat.Funcion auxiliar utilizada en optimizacion con restricciones de igualdad. Incorpora las restricciones al objetivo mediante multiplicadores lambda denominados precios sombra o multiplicadores de Lagrange. L(x, lambda) = f(x) - Σ lambda_j g_j(x). Las condiciones de primer orden del Lagrangiano (igualar a cero todas las derivadas parciales respecto a x y lambda) caracterizan los candidatos a optimos interiores. Los multiplicadores tienen interpretacion economica directa: lambda_j mide el incremento en el valor optimo de la funcion objetivo ante una relajacion marginal (dε) de la j-esima restriccion, conectando con el teorema del sobre.
Optimizacion
Mat.Disciplina matematica que estudia los procedimientos para encontrar los valores de variables de decision que maximizan o minimizan una funcion objetivo, posiblemente sujeta a restricciones. El problema canonico es: max f(x) s.a. g_j(x) ≤ 0 (j=1,...,m), h_k(x) = 0 (k=1,...,p). La distincion entre problemas convexos (donde CPO son suficientes para optimo global) y no convexos (multiples optimos locales) es fundamental. En economia, la optimizacion modela la maximizacion de utilidad del consumidor, la maximizacion de beneficios del productor y la minimizacion de costos, constituyendo el microfundamento de toda la teoria economica moderna.
Teorema del Sobre (Envelope Theorem)
Mat.Resultado que describe como cambia el valor optimo de un problema de optimizacion parametrico cuando varian los parametros exogenos. Para V(alpha) = max f(x, alpha) s.a. g(x, alpha) = 0, el teorema establece que dV/dalpha = ∂L/∂alpha evaluado en el optimo (x*(alpha), lambda*(alpha)), sin necesidad de calcular dx*/dalpha. En microeconomia, implica que el efecto de precios sobre la funcion de gasto es la demanda hicksiana (Shephard's Lemma), que la derivada de la funcion de beneficios respecto al precio del producto es la oferta optima (Hotelling's Lemma), y que los multiplicadores de Lagrange miden precios sombra de las restricciones.
Costo de Oportunidad
GeneralEl valor de la mejor alternativa sacrificada al tomar una decision. Incorpora tanto costos explicitos (desembolsos monetarios) como costos implicitos (beneficios no percibidos de usos alternativos de los recursos). El costo de oportunidad es el verdadero costo economico de cualquier accion y no esta necesariamente registrado en la contabilidad financiera. Es el fundamento conceptual de la escasez y la eleccion racional: en cada decision, el agente economico compara el valor de lo que obtiene con el valor de lo que renuncia.
Escasez
GeneralCondicion fundamental de la economia que resulta de que los recursos disponibles (trabajo, capital, tierra, tiempo) son finitos mientras que las necesidades y deseos humanos son ilimitados. La escasez implica que toda decision de usar recursos en un fin conlleva un costo de oportunidad: esos recursos no pueden usarse simultaneamente en otra actividad. La escasez no es un fenomeno subjetivo ni relativo a la riqueza —afecta a todos los agentes economicos en todos los niveles de ingreso— y es la razon de ser de la economia como disciplina cientifica.
Pregunta Central
¿Cómo se encuentran los máximos y mínimos de una función usando derivadas?
🕸️ Mapa de Conexiones
📚 Ruta de Aprendizaje
Sugerimos estudiar estos modelos en orden para una comprensión completa.
🔗 Modelos Relacionados
💡 Conceptos Clave
📐 Ecuaciones Fundamentales
✅ Aplicaciones
- •Maximización de beneficios de la firma
- •Minimización de costos de producción
- •Precio óptimo de monopolio
⚠️ Limitaciones
- •Asume funciones suaves y diferenciables
- •No maneja restricciones (para eso se usa Lagrange)
Sobre Optimización sin Restricciones
La optimización libre busca máximos y mínimos de funciones sin restricciones externas. Las condiciones de primer orden (CPO) igualan las derivadas parciales a cero para encontrar puntos críticos, mientras que las condiciones de segundo orden (CSO) — basadas en la matriz Hessiana — determinan si esos puntos son máximos, mínimos o puntos de silla. Este marco es la base del análisis de decisiones de firmas y consumidores.
Conceptos Clave
- Condiciones de primer orden (CPO): Igualar las derivadas parciales a cero identifica los candidatos a óptimo. En economía, esto equivale a la regla de "ingreso marginal igual a costo marginal" para maximización de beneficios.
- Condiciones de segundo orden (CSO): La matriz Hessiana y sus menores principales determinan la naturaleza del punto crítico — concavidad garantiza un máximo, convexidad un mínimo.
- Funciones cóncavas y convexas: Las funciones de utilidad cóncavas aseguran que el CPO es suficiente para un máximo global, simplificando el análisis de elección del consumidor.