









Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
Una serie de ejercicios resueltos sobre optimización de funciones de varias variables. Se abordan conceptos como máximos y mínimos locales, puntos de silla, restricciones de igualdad y desigualdad, y el método de lagrange. Los ejemplos ilustran la aplicación de los conceptos teóricos a problemas prácticos.
Tipo: Apuntes
1 / 15
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
May 4, 2012 CAP´ITULO 5: OPTIMIZACI ´ON
1.1. Condiciones Necesarias de Primer Orden.
Proposici´on 1.1. Sea f : D → R diferenciable. Si p ∈ D es un m´aximo o un m´ınimo local de f en D, entonces
∇f (p) = 0
Demostraci´on Fijemos i = 1... , n y consideremos la curva
g(t) = f (p + tei)
donde {e 1... , en} es la base can´onica de Rn. Observamos que g es una funci´on diferenciable de 1-variable que tiene un m´aximo local en t 0 = 0. As´ı,
g′(0) = 0
Pero,
g′(0) =
d dt
t=
f (p + tei) = lim x→ 0
f (p + tei − f (p) t
∂f ∂xi
(p)
Definici´on 1.2. Sea f : D → R se dice que p ∈ D es un punto cr´ıtico si f no es diferenciable en p o si ∇f (p) = 0
Observaci´on 1.3. Si p es un extremo local de f , entonces p es un punto cr´ıtico de f.
Definici´on 1.4. Si ∇f (p) = 0, pero p no es un extremo local de f , entonces p es un punto de silla.
1.2. Condiciones Necesarias de Segundo Orden.
Proposici´on 1.5. Sea f : D → R de clase C^2 (D). Dado un punto p ∈ D.
(1) Si p es un m´aximo local de f en D, entonces la matriz Hessiana de H f (p) es semidefinida negativa o definida negativa. (2) Si p es un m´ınimo local de f en D, entonces la matriz Hessiana de H f (p) es semidefinida positiva o definida positiva.
1.3. Condiciones Suficientes de Segundo Orden.
Proposici´on 1.6. Sea f : D → R de clase C^2 (D). Sea p ∈ D y supongamos que
∇f (p) = 0. (1) Si H f (p) es definida negativa , entonces p es un m´aximo local (estricto) de f. (2) Si H f (p) es definida positiva, entonces p es un m´ınimo local (estricto) de f. (3) Si H f (p) es indefinida, entonces p es un punto de silla. 1
Ejemplo 1.7. Consideremos la funci´on,
f (x, y) = x^2 y + y^2 x
Entonces, ∇f (x, y) = (2xy + y^2 , 2 xy + x^2 ) y el ´unico punto cr´ıtico es (0, 0). Para determinar si es un m´aximo, m´ınimo o punto de silla calculamos la matriz Hessiana,
H f (0, 0) =
2 y 2 x + 2y 2 x + 2y 2 x
x=y=
Las derivadas de segundo orden no aportan ninguna informaci´on. Pero dado que f (x, x) = 2x^3 , entonces (0, 0) es un punto de silla. La gr´afica de f es la siguiente
Ejemplo 1.8. Consideremos la funci´on,
f (x, y) = (x − 1)^4 + (y − 1)^2
Entonces,
∇f (x, y) = (4(x − 1)^3 , 2(y − 1))
y el ´unico punto cr´ıtico es (1, 1). Para determinar si es un m´aximo, m´ınimo o punto de silla calculamos la matriz Hessiana,
H f (1, 1) =
ComoH f (1, 1) es semidefinido positivo las condiciones de segundo orden no aportan ninguna informaci´on. Pero dado que f (x, y) ≥ 0 = f (1, 1), entonces (1, 1) es un m´ınimo global. La gr´afica de f es la siguiente
x = 1
(t + 1, 0)
Ejemplo 1.10. Consideremos la funci´on,
f (x, y) = x^2 + y^2 (x + 1)^3
El gradiente es ∇f (x, y) =
2 x + 3y^2 (x + 1)^2 , 2 y(x + 1)^3
y existe un ´unico punto cr´ıtico en (0, 0). Para clasificarlo, calculamos la matriz Hessiana,
H f (0, 0) =
2 + 6y^2 (x + 1) 6 y(x + 1)^2 6 y(x + 1)^2 2(x + 1)^3
x=y=
que es definida positiva. As´ı, (0, 0) es un m´ınimo local (estricto). Pero no es m´ınimo global, porque f (− 2 , y) = 4 − y^2 puede hacerse arbitrariamente peque˜no al tomar valores grandes de y.
Observaci´on 1.11 (Una justificaci´on intuitiva de las condiciones de segundo orden). Recordemos que el polinomio de Taylor de orden 2 de f en el punto p es
P 2 (x) = f (p) + ∇f (p) · (x − p) +
(x − p) H f (p)(x − p)
Recordemos tambi´en que si f es de clase C^2 entonces
lim x→ 0
R 2 (x) ‖x − p‖^2
donde R 2 (x) = f (x) − P 2 (x)
es el error cometido al aproximar la funci´on f por el polinomio de Taylor de orden 2. Supongamos ahora que p es un punto cr´ıtico de f y, por tanto ∇f (p) = 0. Entonces
f (x) − f (p) =
(x − p) H f (p)(x − p) + R 2 (x)
y para x cercano a p el t´ermino R 2 (x) es ‘peque˜no’. Por tanto si, por ejemplo, sabemos que el t´ermino (x − p) H f (p)(x − p) > 0
entonces f (x) − f (p) > 0 para todo x 6 = p ‘suficientemente cercano’ a p y el punto p deber´ıa ser un m´ınimo local. Pero la condici´on (x − p) H f (p)(x − p) > 0 para todo x 6 = p se verifica si H es definido positivo.
max (resp. min) f (x) s.a. g 1 (x) = 0
(2.1) g 2 (x) = 0
.. . gm(x) = 0
Definici´on 2.1. Un punto p ∈ Rn^ es una soluci´on del problema 2.1 si
(1) Satisface todas las restricciones, g 1 (p) = g 2 (p) = · · · = gm(p) = 0 y (2) f (p) ≥ f (x) (resp. f (p) ≤ f (x)) para cualquier otro punto x ∈ Rn^ que tambi´en satisfaga las restricciones g 1 (x) = g 2 (x) = · · · = gm(x) = 0.
Observaci´on 2.2 (Condici´on de regularidad). Para poder aplicar los m´etodos que vamos a estudiar a continuaci´on es necesario comprobar primero que se verifica la siguiente condici´on de regularidad. Sea
(2.2) M = {x ∈ Rn^ : g 1 (x) = g 2 (x) = · · · = gm(x) = 0}
el conjunto factible del problema (P). Definimos la funci´on g : Rn^ → Rm^ como
g(x) = (g 1 (x), g 2 (x), · · · , gm(x))
La condici´on de regularidad es la siguiente:
(2.3) rg (D g(p)) = m, para todo punto p ∈ M.
Intuitivamente, la condici´on de regularidad significa que el conjunto M es una ‘superficie’ en Rn^ de dimensi´on n−m y que en cada punto p ∈ M es posible calcular el plano tangente TpM a la superficie M como el subconjunto
(2.4) p + {v ∈ Rn^ : D g(p)v = 0} = {p + v : v ∈ Rn, D g(p)v = 0}
2.1. Condiciones de Primer Orden.
Proposici´on 2.3 (M´etodo de Lagrange). Supongamos que las funciones f , g 1 ,... gm son de clase C^1 y que se verifica la condici´on de regularidad 2.3. Si p es una soluci´on del problema 2.1, entonces existen λ 1 ,... , λm ∈ R tales que
∇L(p) = 0
donde L(x) = f (x) + λ 1 g 1 (x) +... , λmgm(x)
es la funci´on de Lagrange asociada al problema 2.1.
tal que maximiza su utilidad sujeto a la restricci´on presupuestaria , p · x = t. La funci´on de Lagrange es
L = u(x) + λ(t − px)
y las ecuaciones de Lagrange son
∇u = λp px = t
Por lo que si x∗^ es una soluci´on del problema, entonces ∇u(x∗) es perpendicular al plano p · x = t.
u(x)*
u = cte.
x*
p x = t
Por otra parte, vemos que las ecuaciones 2.5 son equivalente a las ecuaciones
RMSij (x) =
pi pj px = t
donde
RMSij =
∂u /∂xi ∂u /∂xj
es la relaci´on marginal entre el bien i y el bien j.
Ejemplo 2.6 (La condici´on de regularidad). Este es un ejemplo que ilustra que si la condici´on de regularidad 2.3 no se verifica, las ecuaciones de Lagrange pueden no determinar el ´optimo. Consideremos el problema
max = x s.a. x^3 + y^2 = 0
El conjunto {(x, y) ∈ R^2 : x^3 + y^2 = 0} est´a representado en la siguiente figura
2
4
Claramente, la soluci´on es x = 0. Pero si escribimos el Lagrangiano L = x + λ(x^3 + y^2 )
las ecuaciones de Lagrange son
1 − 3 λx^2 = 0 − 2 λy = 0 x^3 + y^2 = 0
La primera ecuaci´on implica que x 6 = 0 (¿por qu´e?). Usando la tercera obtenemos que y =
−x^3 6 = 0. Como y 6 = 0 la segunda ecuaci´on implica que λ = 0. Pero al sustituir λ = 0 obtenemos una contradicci´on. Por tanto, este sistema formado por las ecuaciones de Lagrange no tiene soluci´on. ¿Qu´e es lo que falla? El Jacobiano de g es D g(x, y) = (3x^2 , 2 y)
El punto (0, 0) verifica la restricci´on del problema, pero
rg (D g(0, 0)) = rg (0, 0) = 0
por lo que la condici´on de regularidad no se verifica.
2.2. Condiciones de Segundo Orden. Recordemos la definici´on del conjunto factible 2.2 para el problema 2.
M = {x ∈ Rn^ : g 1 (x) = g 2 (x) = · · · = gm(x) = 0}
y la definici´on de espacio tangente 2.4 a M en un punto p ∈ M ,
TpM = p + {v ∈ Rn^ : D g(p)v = 0}
Observamos ahora que un vector v pertenece al conjunto {v ∈ Rn^ : D g(p)v = 0} si y s´olo si v verifica las ecuaciones siguientes
(2.6) ∇g 1 (p) · v = ∇g 2 (p) · v = · · · = ∇gm(p) · v = 0
Las condiciones suficientes de segundo orden se expresan utilizando el Hessiano de la funci´on de Lagrange y las ecuaciones anteriores.
Por tanto
(t, − p 1 p 2
t) · H L(x∗, y∗)
t − p p^12 t
= (t, − p 1 p 2
t) ·
t − p p^12 t
p 1 p 2
t^2 < 0
si t 6 = 0. Por lo tanto, (^) ( m 2 p 1
m 2 p 2
es un m´aximo.
Ejemplo 2.9. Vamos a resolver el problema
max x^2 + y^2 s.a. xy = 4 Sea f (x, y) = x^2 + y^2 , g(x, y) = xy. Entonces ∇g(x, y) = 2(y, x) que es no nulo en el conjunto M = {(x, y) ∈ R^2 : xy = 4}. Por tanto, se verifica la condici´on de regularidad. Construimos el lagrangiano
L(x) = x^2 + y^2 + λxy.
Las ecuaciones de Lagrange son
2 x + λy = 0 2 y + λx = 0 xy = 4.
Este sistema tiene dos soluciones
x = y = 2, λ = − 2 x = y = − 2 , λ = − 2.
El hessiano de L es en el punto (2, 2; −2) es
H L(2,2) =
2 λ λ 2
λ=
Por otra parte,
T(2,2)M = {v ∈ R^2 : ∇g(2, 2) · v = 0} = {(v 1 , v 2 ) ∈ R^2 : (2, 2) · (v 1 , v 2 ) = 0} = {(t, −t) ∈ R^2 : t ∈ R}
Por tanto
(t, −t) · H L(2,2)
t −t
= (t, −t) ·
t −t
= 8t^2
por lo que H L(2,2) es definida positiva sobre T(2,2)M de donde se concluye que (2, 2) es un m´ınimo.
Corolario 2.10. Supongamos que las funciones f , g 1 ,... gm son de clase C^2 y que se verifica la condici´on de regularidad 2.3. Supongamos que hemos encontrado unos multiplicadores de Lagrange λ 1... , λm ∈ R y un punto p ∈ Rn^ de manera que si
L(x) = f (x) + λ 1 g 1 (x) +... λmgm(x)
es la funci´on de Lagrange asociada al problema 2.1. se verifica que
Entonces tenemos que,
(1) Si H L(p) es definida negativa, entonces p es un m´aximo local (estricto) de f. (2) Si H L(p) es definida positiva, entonces p es un m´ınimo local (estricto) de f.
(3.1) max f (x)
s.a. g 1 (x) ≥ 0 g 2 (x) ≥ 0 .. . gm(x) ≥ 0
Definici´on 3.1. Dado un punto p ∈ Rn^ decimos que la restricci´on k = 1, 2 ,... , m es activa (o efectiva, o que se satura) en el punto p para el problema 3.1 si gk(p) = 0. Si se verifica que gk(p) > 0 decimos que la restricci´on k es inactiva (o no efectiva o que no se satura) para el punto p.
Al problema de optimizaci´on 3.1 le asociamos el Lagrangiano
(3.2) L(x) = f (x) + λ 1 g 1 (x) + · · · λmgm(x)
Proposici´on 3.2 (M´etodo de Kuhn-Tucker). Supongamos que las funciones f , g 1 ,... gm son de clase C^1 y que se verifica la condici´on de regularidad 2.3. Si p es una soluci´on del problema 3.1, entonces existen λ 1 ,... , λm ∈ R tales que
(1) ∇L(p) = 0, (2) λ 1 g 1 (p) = 0, · · · , λmgm(p) = 0, (3) λ 1 ≥ 0 ,... , λm ≥ 0, donde L(x) es la funci´on de Lagrange o Lagrangiano definida en 3.2.
Observaci´on 3.3. Las ecuaciones
(1) ∇L(p) = 0, (2) λ 1 g 1 (p) = 0, · · · , λmgm(p) = 0, (3) λ 1 ≥ 0 ,... , λm ≥ 0, (4) g 1 (p) ≥ 0 ,... , gm(p) ≥ 0.
son las ecuaciones de de Kuhn-Tucker del problema 3.1.
Ejemplo 3.4 (sustitutos perfectos). Supongamos que la renta de un agente es 5 y que su funci´on de utilidad sobre dos bienes de consumo es u(x, y) = 2x + y. Si los precios de los bienes son p 1 = 3, p 2 = 1 ¿cu´al es la demanda de cada bien? El problema de maximizaci´on de la utilidad del agente es max 2 x + y s.a. 3 x + y ≤ 5 x ≥ 0 y ≥ 0
max f (x) s.a. g 1 (x) = α 1 (L2) g 2 (x) = α 2 .. . gm(x) = αm
Supongamos que la soluci´on x(α 1... , αm) del problema anterior es ´unica y satisface las ecuaciones de Lagrange. Es decir, x = x(α 1... , αm), es un punto cr´ıtico del Lagrangiano,
L(x) = f (x) + λ 1 (α 1 − g 1 (x)) + · · · λm(αm − gm(x))
Los multiplicadores de Lagrange λ 1 ,... , λm tambi´en dependen de los par´ametros α 1... , αm, pero esto no lo escribimos expl´ıcitamente. Consideremos la funci´on
F (α 1... , αm) = f (x(α 1... αm))
Entonces, para cada i = 1,... , n,
(4.1)
∂αi = λi
Observaci´on 4.1. Vamos a justificar la ecuaci´on 4.1 para el caso en que s´olo hay una restricci´on
max f (x) s.a. g(x) = α
Llamamos λ al multiplicador de Lagrange y x(α) a la soluci´on de este problema. Entonces las ecuaciones de Lagrange son
∂f ∂xk
= λ
∂g ∂xk
k = 1,... , n
Por una parte, como x(α) verifica la restricci´on tenemos que
g (x(α)) = α
y derivando esta ecuaci´on impl´ıcitamente obtenemos que
∑^ n
k=
∂g ∂xk
(x(α))
∂xk ∂α
(α) = 1
Por otra parte, usando la regla de la cadena
∂f (x(α)) ∂α
∑^ n
k=
∂f ∂xk
(x(α))
∂xk ∂α
(α) = λ
∑^ n
k=
∂g ∂xk
(x(α))
∂xk ∂α
(α) = λ
Observaci´on 4.2. La ecuaci´on 4.1 tambi´en es v´alida cuando las restricciones son de desigualdad.
Ejemplo 4.3 (Utilidad Indirecta). Consideremos el problema,
max u(x, y) sujeto a: p 1 x + p 2 y = m
Dados los precios (p 1 , p 2 ), el consumidor escoge una cesta de consumo (x, y) sujeto a los restricciones, el coste es p 1 x + p 2 y = m y la renta del agente es m. Para resolver este problema consideramos la funci´on de Lagrange,
L(x) = u(x) + λ(m − p 1 x − p 2 y)
Sea x(p 1 , p 2 , m), y(p 1 , p 2 , m) la soluci´on (consideremos que es ´unica). Sea,
V (p 1 , p 2 , m) = u(x(p 1 , p 2 , m))
la funci´on Indirecta de Utilidad. Entonces,
∂m
= λ
Por lo que λ es la utilidad marginal de la renta.
(1) La funci´on f : D → R es c´oncava en D y estudiamos el problema
max x∈D f (x)