Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Optimización de Funciones de Varias Variables: Ejercicios Resueltos, Apuntes de Matemáticas Aplicadas

Una serie de ejercicios resueltos sobre optimización de funciones de varias variables. Se abordan conceptos como máximos y mínimos locales, puntos de silla, restricciones de igualdad y desigualdad, y el método de lagrange. Los ejemplos ilustran la aplicación de los conceptos teóricos a problemas prácticos.

Tipo: Apuntes

2019/2020

Subido el 09/11/2024

ramon-sanchez-15
ramon-sanchez-15 🇦🇷

7 documentos

1 / 15

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
May 4, 2012
CAP´
ITULO 5: OPTIMIZACI ´
ON
1. Optimizaci´
on Sin Restricciones
En toda esta secci´on Ddenota un subconjunto abierto de Rn.
1.1. Condiciones Necesarias de Primer Orden.
Proposici´on 1.1. Sea f:DRdiferenciable. Si pDes un aximo o un
m´ınimo local de fen D, entonces
f(p)=0
Demostraci´on Fijemos i= 1 ...,n y consideremos la curva
g(t) = f(p+tei)
donde {e1...,en}es la base can´onica de Rn. Observamos que ges una funci´on
diferenciable de 1-variable que tiene un aximo local en t0= 0. As´ı,
g0(0) = 0
Pero,
g0(0) = d
dt
t=0
f(p+tei) = lim
x0
f(p+teif(p)
t=∂f
∂xi
(p)
Definici´on 1.2. Sea f:DRse dice que pDes un punto cr´ıtico si fno es
diferenciable en po si
f(p)=0
Observaci´on 1.3.Si pes un extremo local de f, entonces pes un punto cr´ıtico de
f.
Definici´on 1.4. Si f(p) = 0, pero pno es un extremo local de f, entonces pes
un punto de silla.
1.2. Condiciones Necesarias de Segundo Orden.
Proposici´on 1.5. Sea f:DRde clase C2(D). Dado un punto pD.
(1) Si pes un aximo local de fen D, entonces la matriz Hessiana de H f(p)
es semidefinida negativa o definida negativa.
(2) Si pes un m´ınimo local de fen D, entonces la matriz Hessiana de H f(p)
es semidefinida positiva o definida positiva.
1.3. Condiciones Suficientes de Segundo Orden.
Proposici´on 1.6. Sea f:DRde clase C2(D). Sea pDy supongamos que
f(p)=0.
(1) Si Hf(p) es definida negativa , entonces pes un aximo local (estricto) de
f.
(2) Si H f(p) es definida positiva, entonces pes un m´ınimo local (estricto) de
f.
(3) Si H f(p) es indefinida, entonces pes un punto de silla.
1
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff

Vista previa parcial del texto

¡Descarga Optimización de Funciones de Varias Variables: Ejercicios Resueltos y más Apuntes en PDF de Matemáticas Aplicadas solo en Docsity!

May 4, 2012 CAP´ITULO 5: OPTIMIZACI ´ON

  1. Optimizaci´on Sin Restricciones En toda esta secci´on D denota un subconjunto abierto de Rn.

1.1. Condiciones Necesarias de Primer Orden.

Proposici´on 1.1. Sea f : D → R diferenciable. Si p ∈ D es un m´aximo o un m´ınimo local de f en D, entonces

∇f (p) = 0

Demostraci´on Fijemos i = 1... , n y consideremos la curva

g(t) = f (p + tei)

donde {e 1... , en} es la base can´onica de Rn. Observamos que g es una funci´on diferenciable de 1-variable que tiene un m´aximo local en t 0 = 0. As´ı,

g′(0) = 0

Pero,

g′(0) =

d dt

t=

f (p + tei) = lim x→ 0

f (p + tei − f (p) t

∂f ∂xi

(p)

Definici´on 1.2. Sea f : D → R se dice que p ∈ D es un punto cr´ıtico si f no es diferenciable en p o si ∇f (p) = 0

Observaci´on 1.3. Si p es un extremo local de f , entonces p es un punto cr´ıtico de f.

Definici´on 1.4. Si ∇f (p) = 0, pero p no es un extremo local de f , entonces p es un punto de silla.

1.2. Condiciones Necesarias de Segundo Orden.

Proposici´on 1.5. Sea f : D → R de clase C^2 (D). Dado un punto p ∈ D.

(1) Si p es un m´aximo local de f en D, entonces la matriz Hessiana de H f (p) es semidefinida negativa o definida negativa. (2) Si p es un m´ınimo local de f en D, entonces la matriz Hessiana de H f (p) es semidefinida positiva o definida positiva.

1.3. Condiciones Suficientes de Segundo Orden.

Proposici´on 1.6. Sea f : D → R de clase C^2 (D). Sea p ∈ D y supongamos que

∇f (p) = 0. (1) Si H f (p) es definida negativa , entonces p es un m´aximo local (estricto) de f. (2) Si H f (p) es definida positiva, entonces p es un m´ınimo local (estricto) de f. (3) Si H f (p) es indefinida, entonces p es un punto de silla. 1

Ejemplo 1.7. Consideremos la funci´on,

f (x, y) = x^2 y + y^2 x

Entonces, ∇f (x, y) = (2xy + y^2 , 2 xy + x^2 ) y el ´unico punto cr´ıtico es (0, 0). Para determinar si es un m´aximo, m´ınimo o punto de silla calculamos la matriz Hessiana,

H f (0, 0) =

2 y 2 x + 2y 2 x + 2y 2 x

x=y=

Las derivadas de segundo orden no aportan ninguna informaci´on. Pero dado que f (x, x) = 2x^3 , entonces (0, 0) es un punto de silla. La gr´afica de f es la siguiente

Ejemplo 1.8. Consideremos la funci´on,

f (x, y) = (x − 1)^4 + (y − 1)^2

Entonces,

∇f (x, y) = (4(x − 1)^3 , 2(y − 1))

y el ´unico punto cr´ıtico es (1, 1). Para determinar si es un m´aximo, m´ınimo o punto de silla calculamos la matriz Hessiana,

H f (1, 1) =

ComoH f (1, 1) es semidefinido positivo las condiciones de segundo orden no aportan ninguna informaci´on. Pero dado que f (x, y) ≥ 0 = f (1, 1), entonces (1, 1) es un m´ınimo global. La gr´afica de f es la siguiente

x = 1

(t + 1, 0)

Ejemplo 1.10. Consideremos la funci´on,

f (x, y) = x^2 + y^2 (x + 1)^3

El gradiente es ∇f (x, y) =

2 x + 3y^2 (x + 1)^2 , 2 y(x + 1)^3

y existe un ´unico punto cr´ıtico en (0, 0). Para clasificarlo, calculamos la matriz Hessiana,

H f (0, 0) =

2 + 6y^2 (x + 1) 6 y(x + 1)^2 6 y(x + 1)^2 2(x + 1)^3

x=y=

que es definida positiva. As´ı, (0, 0) es un m´ınimo local (estricto). Pero no es m´ınimo global, porque f (− 2 , y) = 4 − y^2 puede hacerse arbitrariamente peque˜no al tomar valores grandes de y.

Observaci´on 1.11 (Una justificaci´on intuitiva de las condiciones de segundo orden). Recordemos que el polinomio de Taylor de orden 2 de f en el punto p es

P 2 (x) = f (p) + ∇f (p) · (x − p) +

(x − p) H f (p)(x − p)

Recordemos tambi´en que si f es de clase C^2 entonces

lim x→ 0

R 2 (x) ‖x − p‖^2

donde R 2 (x) = f (x) − P 2 (x)

es el error cometido al aproximar la funci´on f por el polinomio de Taylor de orden 2. Supongamos ahora que p es un punto cr´ıtico de f y, por tanto ∇f (p) = 0. Entonces

f (x) − f (p) =

(x − p) H f (p)(x − p) + R 2 (x)

y para x cercano a p el t´ermino R 2 (x) es ‘peque˜no’. Por tanto si, por ejemplo, sabemos que el t´ermino (x − p) H f (p)(x − p) > 0

entonces f (x) − f (p) > 0 para todo x 6 = p ‘suficientemente cercano’ a p y el punto p deber´ıa ser un m´ınimo local. Pero la condici´on (x − p) H f (p)(x − p) > 0 para todo x 6 = p se verifica si H es definido positivo.

  1. Optimizaci´on con Restricciones de igualdad: M´etodo de Lagrange En esta secci´on consideramos problemas del siguiente tipo

max (resp. min) f (x) s.a. g 1 (x) = 0

(2.1) g 2 (x) = 0

.. . gm(x) = 0

Definici´on 2.1. Un punto p ∈ Rn^ es una soluci´on del problema 2.1 si

(1) Satisface todas las restricciones, g 1 (p) = g 2 (p) = · · · = gm(p) = 0 y (2) f (p) ≥ f (x) (resp. f (p) ≤ f (x)) para cualquier otro punto x ∈ Rn^ que tambi´en satisfaga las restricciones g 1 (x) = g 2 (x) = · · · = gm(x) = 0.

Observaci´on 2.2 (Condici´on de regularidad). Para poder aplicar los m´etodos que vamos a estudiar a continuaci´on es necesario comprobar primero que se verifica la siguiente condici´on de regularidad. Sea

(2.2) M = {x ∈ Rn^ : g 1 (x) = g 2 (x) = · · · = gm(x) = 0}

el conjunto factible del problema (P). Definimos la funci´on g : Rn^ → Rm^ como

g(x) = (g 1 (x), g 2 (x), · · · , gm(x))

La condici´on de regularidad es la siguiente:

(2.3) rg (D g(p)) = m, para todo punto p ∈ M.

Intuitivamente, la condici´on de regularidad significa que el conjunto M es una ‘superficie’ en Rn^ de dimensi´on n−m y que en cada punto p ∈ M es posible calcular el plano tangente TpM a la superficie M como el subconjunto

(2.4) p + {v ∈ Rn^ : D g(p)v = 0} = {p + v : v ∈ Rn, D g(p)v = 0}

2.1. Condiciones de Primer Orden.

Proposici´on 2.3 (M´etodo de Lagrange). Supongamos que las funciones f , g 1 ,... gm son de clase C^1 y que se verifica la condici´on de regularidad 2.3. Si p es una soluci´on del problema 2.1, entonces existen λ 1 ,... , λm ∈ R tales que

∇L(p) = 0

donde L(x) = f (x) + λ 1 g 1 (x) +... , λmgm(x)

es la funci´on de Lagrange asociada al problema 2.1.

tal que maximiza su utilidad sujeto a la restricci´on presupuestaria , p · x = t. La funci´on de Lagrange es

L = u(x) + λ(t − px)

y las ecuaciones de Lagrange son

∇u = λp px = t

Por lo que si x∗^ es una soluci´on del problema, entonces ∇u(x∗) es perpendicular al plano p · x = t.

u(x)*

u = cte.

x*

p x = t

Por otra parte, vemos que las ecuaciones 2.5 son equivalente a las ecuaciones

RMSij (x) =

pi pj px = t

donde

RMSij =

∂u /∂xi ∂u /∂xj

es la relaci´on marginal entre el bien i y el bien j.

Ejemplo 2.6 (La condici´on de regularidad). Este es un ejemplo que ilustra que si la condici´on de regularidad 2.3 no se verifica, las ecuaciones de Lagrange pueden no determinar el ´optimo. Consideremos el problema

max = x s.a. x^3 + y^2 = 0

El conjunto {(x, y) ∈ R^2 : x^3 + y^2 = 0} est´a representado en la siguiente figura

  • 3.0 - 2.5 - 2.0 - 1.5 - 1.0 - 0.
    • 4
    • 2

2

4

Claramente, la soluci´on es x = 0. Pero si escribimos el Lagrangiano L = x + λ(x^3 + y^2 )

las ecuaciones de Lagrange son

1 − 3 λx^2 = 0 − 2 λy = 0 x^3 + y^2 = 0

La primera ecuaci´on implica que x 6 = 0 (¿por qu´e?). Usando la tercera obtenemos que y =

−x^3 6 = 0. Como y 6 = 0 la segunda ecuaci´on implica que λ = 0. Pero al sustituir λ = 0 obtenemos una contradicci´on. Por tanto, este sistema formado por las ecuaciones de Lagrange no tiene soluci´on. ¿Qu´e es lo que falla? El Jacobiano de g es D g(x, y) = (3x^2 , 2 y)

El punto (0, 0) verifica la restricci´on del problema, pero

rg (D g(0, 0)) = rg (0, 0) = 0

por lo que la condici´on de regularidad no se verifica.

2.2. Condiciones de Segundo Orden. Recordemos la definici´on del conjunto factible 2.2 para el problema 2.

M = {x ∈ Rn^ : g 1 (x) = g 2 (x) = · · · = gm(x) = 0}

y la definici´on de espacio tangente 2.4 a M en un punto p ∈ M ,

TpM = p + {v ∈ Rn^ : D g(p)v = 0}

Observamos ahora que un vector v pertenece al conjunto {v ∈ Rn^ : D g(p)v = 0} si y s´olo si v verifica las ecuaciones siguientes

(2.6) ∇g 1 (p) · v = ∇g 2 (p) · v = · · · = ∇gm(p) · v = 0

Las condiciones suficientes de segundo orden se expresan utilizando el Hessiano de la funci´on de Lagrange y las ecuaciones anteriores.

Por tanto

(t, − p 1 p 2

t) · H L(x∗, y∗)

t − p p^12 t

= (t, − p 1 p 2

t) ·

t − p p^12 t

p 1 p 2

t^2 < 0

si t 6 = 0. Por lo tanto, (^) ( m 2 p 1

m 2 p 2

es un m´aximo.

Ejemplo 2.9. Vamos a resolver el problema

max x^2 + y^2 s.a. xy = 4 Sea f (x, y) = x^2 + y^2 , g(x, y) = xy. Entonces ∇g(x, y) = 2(y, x) que es no nulo en el conjunto M = {(x, y) ∈ R^2 : xy = 4}. Por tanto, se verifica la condici´on de regularidad. Construimos el lagrangiano

L(x) = x^2 + y^2 + λxy.

Las ecuaciones de Lagrange son

2 x + λy = 0 2 y + λx = 0 xy = 4.

Este sistema tiene dos soluciones

x = y = 2, λ = − 2 x = y = − 2 , λ = − 2.

El hessiano de L es en el punto (2, 2; −2) es

H L(2,2) =

2 λ λ 2

λ=

Por otra parte,

T(2,2)M = {v ∈ R^2 : ∇g(2, 2) · v = 0} = {(v 1 , v 2 ) ∈ R^2 : (2, 2) · (v 1 , v 2 ) = 0} = {(t, −t) ∈ R^2 : t ∈ R}

Por tanto

(t, −t) · H L(2,2)

t −t

= (t, −t) ·

t −t

= 8t^2

por lo que H L(2,2) es definida positiva sobre T(2,2)M de donde se concluye que (2, 2) es un m´ınimo.

Corolario 2.10. Supongamos que las funciones f , g 1 ,... gm son de clase C^2 y que se verifica la condici´on de regularidad 2.3. Supongamos que hemos encontrado unos multiplicadores de Lagrange λ 1... , λm ∈ R y un punto p ∈ Rn^ de manera que si

L(x) = f (x) + λ 1 g 1 (x) +... λmgm(x)

es la funci´on de Lagrange asociada al problema 2.1. se verifica que

  • el punto p satisface las restricciones g 1 (p) = g 2 (p) = · · · = gm(p) = 0,
  • el punto p verifica las ecuaciones de Lagrange, ∇L(p) = 0.

Entonces tenemos que,

(1) Si H L(p) es definida negativa, entonces p es un m´aximo local (estricto) de f. (2) Si H L(p) es definida positiva, entonces p es un m´ınimo local (estricto) de f.

  1. Optimizaci´on con restricciones de desigualdad: M´etodo de Kuhn-Tucker Ahora vamos a estudiar problemas de optimizaci´on con restricciones de desigual- dad

(3.1) max f (x)

s.a. g 1 (x) ≥ 0 g 2 (x) ≥ 0 .. . gm(x) ≥ 0

Definici´on 3.1. Dado un punto p ∈ Rn^ decimos que la restricci´on k = 1, 2 ,... , m es activa (o efectiva, o que se satura) en el punto p para el problema 3.1 si gk(p) = 0. Si se verifica que gk(p) > 0 decimos que la restricci´on k es inactiva (o no efectiva o que no se satura) para el punto p.

Al problema de optimizaci´on 3.1 le asociamos el Lagrangiano

(3.2) L(x) = f (x) + λ 1 g 1 (x) + · · · λmgm(x)

Proposici´on 3.2 (M´etodo de Kuhn-Tucker). Supongamos que las funciones f , g 1 ,... gm son de clase C^1 y que se verifica la condici´on de regularidad 2.3. Si p es una soluci´on del problema 3.1, entonces existen λ 1 ,... , λm ∈ R tales que

(1) ∇L(p) = 0, (2) λ 1 g 1 (p) = 0, · · · , λmgm(p) = 0, (3) λ 1 ≥ 0 ,... , λm ≥ 0, donde L(x) es la funci´on de Lagrange o Lagrangiano definida en 3.2.

Observaci´on 3.3. Las ecuaciones

(1) ∇L(p) = 0, (2) λ 1 g 1 (p) = 0, · · · , λmgm(p) = 0, (3) λ 1 ≥ 0 ,... , λm ≥ 0, (4) g 1 (p) ≥ 0 ,... , gm(p) ≥ 0.

son las ecuaciones de de Kuhn-Tucker del problema 3.1.

Ejemplo 3.4 (sustitutos perfectos). Supongamos que la renta de un agente es 5 y que su funci´on de utilidad sobre dos bienes de consumo es u(x, y) = 2x + y. Si los precios de los bienes son p 1 = 3, p 2 = 1 ¿cu´al es la demanda de cada bien? El problema de maximizaci´on de la utilidad del agente es max 2 x + y s.a. 3 x + y ≤ 5 x ≥ 0 y ≥ 0

max f (x) s.a. g 1 (x) = α 1 (L2) g 2 (x) = α 2 .. . gm(x) = αm

Supongamos que la soluci´on x(α 1... , αm) del problema anterior es ´unica y satisface las ecuaciones de Lagrange. Es decir, x = x(α 1... , αm), es un punto cr´ıtico del Lagrangiano,

L(x) = f (x) + λ 1 (α 1 − g 1 (x)) + · · · λm(αm − gm(x))

Los multiplicadores de Lagrange λ 1 ,... , λm tambi´en dependen de los par´ametros α 1... , αm, pero esto no lo escribimos expl´ıcitamente. Consideremos la funci´on

F (α 1... , αm) = f (x(α 1... αm))

Entonces, para cada i = 1,... , n,

(4.1)

∂F

∂αi = λi

Observaci´on 4.1. Vamos a justificar la ecuaci´on 4.1 para el caso en que s´olo hay una restricci´on

max f (x) s.a. g(x) = α

Llamamos λ al multiplicador de Lagrange y x(α) a la soluci´on de este problema. Entonces las ecuaciones de Lagrange son

∂f ∂xk

= λ

∂g ∂xk

k = 1,... , n

Por una parte, como x(α) verifica la restricci´on tenemos que

g (x(α)) = α

y derivando esta ecuaci´on impl´ıcitamente obtenemos que

∑^ n

k=

∂g ∂xk

(x(α))

∂xk ∂α

(α) = 1

Por otra parte, usando la regla de la cadena

∂f (x(α)) ∂α

∑^ n

k=

∂f ∂xk

(x(α))

∂xk ∂α

(α) = λ

∑^ n

k=

∂g ∂xk

(x(α))

∂xk ∂α

(α) = λ

Observaci´on 4.2. La ecuaci´on 4.1 tambi´en es v´alida cuando las restricciones son de desigualdad.

Ejemplo 4.3 (Utilidad Indirecta). Consideremos el problema,

max u(x, y) sujeto a: p 1 x + p 2 y = m

Dados los precios (p 1 , p 2 ), el consumidor escoge una cesta de consumo (x, y) sujeto a los restricciones, el coste es p 1 x + p 2 y = m y la renta del agente es m. Para resolver este problema consideramos la funci´on de Lagrange,

L(x) = u(x) + λ(m − p 1 x − p 2 y)

Sea x(p 1 , p 2 , m), y(p 1 , p 2 , m) la soluci´on (consideremos que es ´unica). Sea,

V (p 1 , p 2 , m) = u(x(p 1 , p 2 , m))

la funci´on Indirecta de Utilidad. Entonces,

∂V

∂m

= λ

Por lo que λ es la utilidad marginal de la renta.

  1. Optimizaci´on de funciones convexas (c´oncavas) Sea D un subconjunto abierto y convexo de Rn. Consideremos cualquiera de los siguientes problemas:

(1) La funci´on f : D → R es c´oncava en D y estudiamos el problema

max x∈D f (x)