You are on page 1of 169

UNIVERSIDAD NACIONAL DEL CALLAO

FACULTAD DE CIENCIAS NATURALES Y MATEM

ATICA
OPTIMIZACI

ON CONTINUA
ERIK ALEX PAPA QUIROZ
Agosto de 2011
CALLAO - PER

U
Gracias por tu paciencia.
ii

Indice
1 Preliminares 3
1.1 Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Resultados de Analisis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 El Problema de Optimizacion 11
2.1 Problema General de Optimizacion . . . . . . . . . . . . . . . . . . . . . 12
2.2 Clasicacion de Problemas de Optimizacion . . . . . . . . . . . . . . . . 14
2.3 Ejemplos de Problemas de Optimizacion . . . . . . . . . . . . . . . . . . 16
3 Existencia de Puntos de Mnimo Global 33
3.1

Optimos Globales y Locales . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Resultados de Existencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.3 Ejemplos de Existencia de Puntos

Optimos . . . . . . . . . . . . . . . . . 40
3.4 Ejercicios Resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.5 Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4 Condiciones de Optimalidad de Problemas Diferenciables 50
4.1 Problemas sin Restricciones . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2 Restricciones Arbitrarias . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3 Restricciones de Igualdad . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.4 Restricciones de Desigualdad . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.5 Restricciones Mixtas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.6 Ejercicios Resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
iii
4.7 Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5 Elementos de Convexidad 108
5.1 Elementos de Convexidad . . . . . . . . . . . . . . . . . . . . . . . . . . 108
5.2 El Teorema de la Proyeccion . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.3 Separacion de Conjuntos Convexos . . . . . . . . . . . . . . . . . . . . . 116
5.4 Funciones convexas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.5 Continuidad de Funciones Convexas . . . . . . . . . . . . . . . . . . . . . 129
5.6 Derivada Direccional de Funciones Convexas . . . . . . . . . . . . . . . . 132
5.7 Subdiferenciabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
5.8 Funciones Convexas Diferenciables . . . . . . . . . . . . . . . . . . . . . 143
5.9 Ejercicios Resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
5.10 Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
6 Optimizacion Convexa 149
6.1 Minimizacion Convexa Irrestricta . . . . . . . . . . . . . . . . . . . . . . 151
6.2 Minimizacion Convexa Restricta . . . . . . . . . . . . . . . . . . . . . . . 152
6.3 Convexidad Generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
6.4 Ejercicios Resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
6.5 Ejercicios Propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
Referencias Bibliogracas 163
iv
Introduccion
El material de la presente edicion trata del estudio formal del problema de encontrar
los puntos de maximos y/o mnimos de una funcion sin restricciones o sujeta a algunas
restricciones sobre su dominio. Esta funcion, llamada funcion objetivo, puede representar
diversos fenomenos en estudio dependiendo del campo de aplicacion, por ejemplo, puede
representar la temperatura, la energa, el benecio de una empresa, el costo de produccion
de terminados productos, etc, es por eso que el tema tiene gran interes en las diversas
lneas de investigacion en ciencias e ingenieras.
El area que estudia de manera rigurosa el problema de encontrar los puntos de
maximos y/o mnimos de una funcion es llamada optimizacion matematica y esta a su
vez, dependiendo cual sea la naturaleza del problema, se divide en optimizacion continua,
combinatoria, entera, dinamica, estocastica, entre otras.
El tema que presentare en esta edicion es la optimizacion continua en espacios eu-
clidianos que es la base para el estudio de las otras subareas de la optimizacion y que
en esencia estudia problemas de optimizacion cuando las variables que denen el prob-
lema no son discretas, esto es, pueden tomar cualquier valor dentro del conjunto de las
restricciones.
Despues de presentar algunos problemas de optimizacion encontrados en las aplica-
ciones, estudiaremos las condiciones sucientes para garantizar la existencia de soluciones
optimas, para luego estudiar las condiciones necesarias y sucientes para caracterizar
optimos de funciones sucientemente regulares. Finalizaremos el trabajo con el estudio
de la convexidad de conjuntos, funciones convexas y problemas de optimizacion convexa.
Debo aclarar que no existe un aporte innovador en la teora presentada pero lo que si
encontraremos, a diferencia de otros textos, es la variedad de ejemplos, contraejemplos y
1
ejercicios resueltos para que la teora quede bien sustentada y entendida.
El material esta motivado por las lecturas de algunos libros de optimizacion que
se encuentran en las referencias bibliogracas y que a lo largo de estos a nos he leido
cuidadosamente, es por eso, que algunos de los ejercicios propuestos en esos libros fueron
aqu desarrollados. Tambien, algunos ejemplos de problemas de optimizacion fueron
tomados de recientes trabajos de investigacion que he tenido la oportunidad de revisar
en algunas revistas cientcas y otros como por ejemplo los problemas de optimizacion
semidenida de algunas investigaciones que he realizado con algunos co-autores.
Este trabajo esta dividido en 6 captulos: El primer captulo da algunos preliminares
matematicos usados a lo largo del texto. El segundo captulo presenta el problema general
de optimizacion y algunos ejemplos de problemas en diversos campos de las ciencias que
pueden ser modelados como problemas de optimizacion. El tercer captulo trata sobre la
existencia de soluciones optimas de problemas denidos en espacios euclidianos. El cuarto
captulo presenta las condiciones de optimalidad necesarias y sucientes de problemas de
optimizacion para funciones diferenciables. El quinto captulo trata de la convexidad de
conjuntos, los teoremas de separacion, as como tambien, de las principales propiedades
de las funciones convexas y el sexto captulo trata de problemas de optimizacion convexa.
Para nalizar debo resaltar que este material formo parte del curso de Seminario
de Tesis I, disciplina del noveno ciclo, realizado en la Facultad de Ciencias Naturales y
Matematica de la Universidad Nacional del Callao a nivel de Pre-Grado y por ende me
gustara agradecer a las autoridades de esta institucion por la invitacion para formar
parte de la plana docente, al profesor Runo Moya Calderon por la motivacion indirecta
para continuar este trabajo cuando las fuerzas se desvanecian, al personal Administrativo
que me ha dado toda la comodidad suciente para realizar un trabajo sin contratiempos,
a los colegas por la armoniosa y amigable convivencia en todo este tiempo y agradecer
especialmente a los alumnos que con sus preguntas y sugerencias hicieron nacer la idea
de preparar este texto. A cada uno de ustedes que colaboraron directa e indirectamente
con el presente trabajo un sincero agradecimiento.
Bellavista, 3 de Agosto del 2011
Erik Alex Papa Quiroz.
2
Captulo 1
Preliminares
En este captulo presentamos las notaciones utilizadas a lo largo del texto como
tambien los resultados basicos de analisis real necesarios para el buen entendimiento
de la teora presentada.
1.1 Notaciones
En el decorrer de este libro, adoptaremos las siguientes notaciones:
R
n
= x = (x
1
, x
2
, . . . , x
n
) : x
i
R, para todo i = 1, . . . , n.
R
n
++
= x = (x
1
, x
2
, . . . , x
n
) R
n
: x
i
> 0, para todo i = 1, . . . , n.
R
+
: el conjunto de los n umeros reales no negativos.
R
++
: el conjunto de los n umeros reales positivos.
Dados x, y R
n
, x
T
y =

n
i=1
x
i
y
i
.
Dado x R
n
, |x| :=

x
T
x: la norma euclidiana.
(0, 1) := z R : 0 < z < 1.
Dado X R
n
,

X denotara la clausura topologica de X.
Dado X R
n
, Front(X) es la frontera de X.
Dado X R
n
, int(X) es el interior de X.
x XY signica que x X y x / Y.
x
k
x, denota lim
k+
x
k
= x.
3
f : el gradiente de f.
B( x, ) = x R
n
: |x x| < : la bola abierta de centro x y radio .
Dado x = (x
1
, x
2
, . . . , x
n
) R
n
, x 0 signica que x
i
0, para todo i = 1, . . . , n.

2
f(x) denota la matriz hessiana de f en el punto x.
Ker(h

(x)) denota el n ucleo de la matriz h

(x).
Im h

(x)
T
= v R
n
: v = h

(x)
T
.
Dado A R
nn
, A
T
denota la transpuesta de A.
Dado A R
nn
, A 0 signica que A es denida positiva.
Dado A R
nn
, A _ 0 signica que A es semidenida positiva.
o
n
= X R
nn
: X = X
T
: el espacio de las matrices simetricas.
Dado X o
n
, tr(X) denota la traza de la matriz X.
Dado X o
n
, X Y := tr(XY ): produto interno en o
n
.
Sea un abierto de R
n
, C
k
() = F : U R
m
: f es k veces diferenciable en U.
C

() = F : R
m
: F es una funcion innitamente diferenciable en .
liminf
k+
f(x
k
) = sup
n
inf
kn
f(x
k
).
limsup
k+
f(x
k
) = inf
n
sup
kn
f(x
k
).
L
2
() =
_
f : C, medible en el sentido de Lebesgue y
_

[f[
2
<
_
.
H
1
0
() = u L
2
() : u

L
2
() u(x) = 0 , x Front().
Dado g : X R
n
R, x argmaxg(y) : y X, denota g(x) g(y), para todo
y X.
Dado g : X R
n
R, z argming(y) : y X, denota g(z) g(y), para todo
y X.
ln z denota el logaritmo neperiano de z.
F
c
= R
n
F denota el complemento del conjunto F.
1.2 Resultados de Analisis
Consideremos el espacio R
n
= x = (x
1
, . . . , x
n
) : x
i
R y denamos dos operaciones:
+ : R
n
R
n
R
n
: +(x, y) := (x
1
+ y
1
, . . . , x
n
+y
n
),
4
: R R
n
R
n
: (, x) := (x
1
, . . . , x
n
).
Por simplicidad denotaremos +(x, y) = x + y, y (, x) = x. Observe que R
n
con
estas dos operaciones forma un espacio vectorial sobre el cuerpo de los n umeros reales R.
As, hemos dotado a R
n
con propiedades algebraicas.
Como en todo espacio es necesario medir magnitudes, calcular errores, etc, dotaremos
a R
n
de una metrica, para ello denimos:
d : R
n
R
n
R : d(x, y) :=
n

i=1
(x
i
y
i
)
2
.
Se puede vericar que d cumple las siguientes propiedades:
d
1
: Para todo x, y R
n
, d(x, y) 0, d(x, y) = 0 si, y solo si, x = y.
d
2
: Para todo x, y R
n
, d(x, y) = d(y, x).
d
3
: Para todo x, y, z R
n
, d(x, z) d(x, y) + d(y, z).
La funcion d se llama metrica euclidiana y el espacio vectorial R
n
con esta metrica es
llamado epacio euclidiano.
En el espacio euclidiano R
n
, denamos
|.| : R
n
R : |x| := d(x, 0) =
n

i=1
x
2
i
.
Esta funcion es llamada norma euclidiana o norma 2 y satisface:
n
1
: |x| 0, para todo x R
n
; [[x[[ = 0 si, y solo si, x = 0.
n
2
: |x| = [[[[x[[, para todo x R
n
, para todo R.
n
3
: |x + y| |x| +|y|, para todo x, y R
n
.
En el espacio euclidiano tambien es posible introducir un producto interno que per-
mitira denir posteriormente el concepto de angulo entre dos puntos
, ) : R
n
R
n
R : x, y) :=
n

i=1
x
i
y
i
.
El producto interno x, y) sera denotado tambien por x
T
y.
5
Observacion 1.1 De las deniciones dadas obtenemos las siguientes igualdades:
d(x, y) = [[x y[[ =
_
(x y)
T
(x y).
Dado x R
n
y > 0 denamos
B( x, ) = x R
n
: [[x x[[ < .
Denicion 1.1 Un conjunto A R
n
es abierto en R
n
si para todo x A, existe
x
> 0
tal que B(x,
x
) A.
Un conjunto F R
n
es cerrado en R
n
si para toda sucesi on x
k
F tal que x
k
x se
tiene que x F.
Denicion 1.2 Dado X R
n
, un punto x R
n
es llamado punto adherente de X si
para todo > 0, B( x, ) X ,= .
Un punto x R
n
es llamado punto de acumulacion de X si para todo > 0, B( x, )
X x ,= .
Denicion 1.3 Dado X R
n
, la clausura de X, denotado por

X, es el conjunto de
todos los puntos adherentes.
Teorema 1.1 Sea F R
n
. F es cerrado en R
n
si y solo si F
C
= R
n
F es abierto en
R
n
.
Demostracion. Ver [11], Teorema 17, pagina. 40.
Denicion 1.4 Un conjunto C R
n
es llamado acotado si existe M > 0 tal que [[c[[
M, para todo c C.
Teorema 1.2 Si x
k
R
n
es una sucesi on limitada, entonces existe una subsucesi on
x
k
j
de x
k
convergente.
Demostracion. Ver [11], Teorema 5, pagina. 17.
Denicion 1.5 Sea un conjunto K R
n
. K es compacto si y s olo si K es cerrado y
acotado.
6
Denicion 1.6 Dado una matriz A R
nn
, A es llamada matriz semidenida positiva,
denotado por A _ 0, si d
T
Ad 0, para todo d R
n
. A es denida positiva si d
T
Ad > 0,
para todo d R
n
0 .
Denicion 1.7 Sea f : A R
m
una funcion donde A R
n
. Se dice que f es continua
en x A si para cada > 0, existe > 0 tal que si [[x x[[ < , con x A, entonces
[[f(x) f( x)[[ < .
Decimos que f es continua en A si f es continua para cada punto x A.
Teorema 1.3 Sea f : A R
m
una funcion donde A R
n
. f es continua en x si, y s olo
si, para toda sucesi on x
k
tal que x
k
x se tiene que f(x
k
) f( x).
Demostracion. Ver [11], Teorema 13, pagina. 26.
Denicion 1.8 Sea f : A R una funcion denida en el conjunto abierto A R
n
,
x A y v R
n
. La derivada direccional de f en el punto x, en la direccion de v, se
dene como el limite
f

( x, v) = lim
t0
f( x + tv) f( x)
t
,
cuando este limite existe.
Si tomamos v = e
i
= (0, 0, ..., 0, 1, 0, ..., 0) (con valor de 1 en la posicion i) entonces la
derivada direccional en esta direccion, si existe el limite, es llamada derivada parcial y
denotaremos por
f
x
i
( x), esto es,
f
x
i
( x) = lim
t0
f( x + te
i
) f( x)
t
Denicion 1.9 Sea f : A R una funcion denida en el conjunto abierto A R
n
y
x A. Decimos que la funcion f es diferenciable en x si existen las derivadas parciales
f
x
1
( x),
f
x
2
( x), ...,
f
x
n
( x) y ademas para todo vector v = (v
1
, v
2
, ..., v
n
) tal que x + v A
se tiene:
f( x +v) = f( x) +
n

i=1
f
x
i
( x)v
i
+ o(v), (1.1)
donde
lim
v0
o(v)
[[v[[
= 0.
7
Denicion 1.10 Sea f : A R una funcion denida en el conjunto abierto A R
n
,
con derivada direccional en el punto x A. La diferencial de f en el punto x es una
aplicaci on df( x) : R
n
R denida por df( x)(v) = f

( x, v).
Denicion 1.11 Dada una funcion f : A R diferenciable en el conjunto abierto
A R
n
, denimos el gradiente de f en el punto x A como el vector f( x) tal que
f( x), v) = df( x)(v),
para todo v R
n
.
Observemos de la denicion anterior, que si tomamos v = e
i
entonces tenemos:
f( x), e
i
) = df( x)(e
i
) =
f
x
i
( x),
es por eso que el gradiente queda expresado en las base canonica como
f( x) =
_
f
x
1
( x), ...,

x
n
f( x)
_
.
Luego (1.1) queda expresado por:
f( x +v) = f( x) +f( x), v) + o(v),
donde
lim
v0
o(v)
[[v[[
= 0.
Sea f : A R una funcion denida en el conjunto abierto A R
n
y x A.
Denotamos

x
i
(
f
x
j
)( x) por

2
f
x
i
x
j
( x) y

x
i
(
f
x
i
)( x) por

2
f
x
2
i
( x) respectivamente.
Denicion 1.12 Sea f : A R una funcion denida en el conjunto abierto A R
n
y
x A. Denimos la matriz Hesiana de f en x, el cual ser a denotado por
2
f( x), como

2
f( x) =
_

2
f
x
2
1
( x)

2
f
x
1
x
2
( x) . . .

2
x
1
x
n
( x)

2
f
x
2
x
1
( x)

2
f
x
2
1
( x) . . .

2
f
x
2
x
n
( x)
. . . . . . . . .

2
f
x
n
x
1
( x)

2
f
x
n
x
2
( x) . . .

2
f
x
2
n
( x)
_

_
8
Denicion 1.13 Sea f : A R una funcion denida en el conjunto abierto A R
n
y
x A. Decimos que la funcion f es dos veces diferenciable en x si existen las derivadas
parciales de segundo orden

2
f
x
i
x
j
( x) para todo i, j = 1, ..., n, y ademas para todo vector
v R
n
tal que x +v A se tiene:
f( x + v) = f( x) +f( x), v) +
1
2
v,
2
f( x)v) + o(v
2
), (1.2)
donde
lim
v0
o(v
2
)
[[v[[
2
= 0.
Teorema 1.4 (Teorema del Valor Medio en R)
Si g : [a, b] R es derivable en (a, b) y continua en [a, b], entonces existe c (a, b) tal
que
g(b) g(a)
b a
= g

(c).
Demostracion. Ver [3], pagina 224.
Teorema 1.5 (Teorema del Valor Medio en R
n
) Sea f : R
n
R diferenciable en todos
los puntos del segmento de recta (a, a+v) y continua en [a, a +v] R
n
. Entonces existe
(0, 1) tal que: f(a +v) f(a) = f(a + v), v) .
Demostracion. Ver [3], pagina 398.
Teorema 1.6 (Teorema de la funcion implcita). Supongamos dado un conjunto de
m ecuaciones y n variables, m < n: g
i
(x) = 0, para todo i = 1, 2, . . . , m. Sea x
0
=
(x
0
1
, . . . , x
0
m
, x
0
m+1
, . . . , x
0
n
) R
n
satisfaciendo las propiedades:
i) Existe una vecindad V
0
de x
0
y p 1 tal que las funciones g
i
C
p
(V
0
)
ii) g
i
(x
0
) = 0, para todo i = 1, . . . , m.
iii) La matriz Jacobiana de orden m:
J
g
(x
0
) =
_

_
g
1
x
1
(x
0
)
g
1
x
2
(x
0
) . . .
g
1
x
m
(x
0
)
g
2
x
1
(x
0
)
g
2
x
2
(x
0
) . . .
g
2
x
m
(x
0
)
. . . . . . . . .
g
m
x
1
(x
0
)
g
m
x
2
(x
0
) . . .
g
m
x
m
(x
0
)
_

_
9
es no singular. Entonces, existe una vecindad |
0
de (x
0
m+1
, x
0
m+2
, . . . , x
0
n
) R
nm
tal que para cada x = (x
m+1
, x
m+2
, . . . , x
n
) |
0
existen funciones
i
: |
x

R
nm
R
m
, donde |
x
es una vecindad de x tal que:
a)
i
C
p
(|
x
)
b) x
0
i
=
i
(x
0
m+1
, x
0
m+2
, . . . , x
0
n
), para todo i = 1, 2, . . . m
c) g
i
(
1
( x),
2
( x), . . . ,
m
( x), x) = 0, para todo i = 1, 2, . . . m
Demonstracion. Ver [11], pagina 164.
10
Captulo 2
El Problema de Optimizacion
En las diversas aplicaciones de las ciencias e ingenieras a menudo es necesario conocer
los valores maximos o mnimos que pueden alcanzar ciertos objetos en estudio, por ejem-
plo la maxima o mnima temperatura de un determinado cuerpo, el mnimo costo en la
distribucion de la energa electrica, la maxima ganancia o el mnimo costo de produccion
de un determinado producto. Todos estos problemas, como veremos a lo largo de este
texto, pueden ser modelados matematicamente y estudiados de un punto de vista formal
dentro del campo de la Optimizacion.
La Optimizacion es una de las areas de la Matematica Aplicada que estudia el prob-
lema de minimizar o maximizar una funcion sujeta generalmente a restricciones sobre
su dominio. Si bien es cierto que algunas sub-areas de la Optimizacion eran conocidas
siglos atras, por ejemplo el Calculo de Variaciones, la Optimizacion surgio entre los a nos
treinta y cuarenta del siglo anterior en Inglaterra dentro del campo de la Investigacion de
Operaciones cuando un grupo de cientcos entre matematicos y fsicos fueron reclutados
para idear estrategias optimas de ataque y defensa contra las tropas alemanas. Debido al
gran exito de estas estrategias, estas fueron usadas tambien por los americanos durante
la segunda guerra mundial cumpliendo un papel decisivo en el descenlace de esta guerra.
Al conocerse que las estrategias de Investigacion de Operaciones eran aplicables
tambien a la Economia, Administracion y Finanzas, la Optimizacion tubo un gran apoyo
economico por parte de las empresas privadas para realizar investigaciones en esta area.
As, se fundaron sociedades de Investigacion de Operaciones en los principales paises
11
desarrollados como por ejemplo: Operational Research Society en Inglaterra, Oper-
ational Research American Society y The Institute of Management Sciences en los
Estados Unidos y La Societe Fran caise de Recherche Operationelle en Francia, entre
otros. Paralelamente se crearon diversas Revistas Cientcas dedicadas a la publicacion
de los diversos trabajos de investigacion en Optimizacion y sus aplicaciones.
Actualmente la Optimizacion con ayuda del avance de la Computacion Cientca
conoce aplicaciones en diferentes areas, por ejemplo en Economia, Administracion, Fsica-
Matematica, Ingenieras: Qumica, Biologica, Civil, Ambiental, Electrica, Mecanica, etc,
y se ha convertido en una de las cuatro lneas de investigacion mas estudiadas en el
ambito de las ciencias e ingenieras.
Antes de denir que es un problema de optimizacion es necesario introducir los conceptos
de mnimo y maximo de una funcion.
Denicion 2.1 (Mnimo y maximo global). Sea M un conjunto arbitrario y f : X
M R una funcion denida sobre X.
Un punto x X es llamado punto de mnimo global de f sobre X si
f( x) f(x), x X.
Un punto x

X es llamado punto de maximo global de f sobre X si


f(x

) f(x), x X.
2.1 Problema General de Optimizacion
Dado una funcion f : X M R, el problema general de optimizacion consiste en
resolver el siguiente modelo matematico
opt f(x) : x X (2.1)
que signica encontrar un punto de mnimo o maximo global de f sobre X, f es llamada
funcion objetivo y X el conjunto de restricciones del problema, ver guras 2.1 y 2.2.
Si el objetivo es encontrar un punto de mnimo global de f, el problema sera denotado
12
f(x

)
f( x)
f
x

x
M aximo global
Mnimo global
Figura 2.1: Puntos unicos de mnimo y maximo global
por min f(x) : x X. Analogamente, si el objetivo es encontrar un punto de maximo
global entonces denotaremos max f(x) : x X.
Observando el hecho que encontrar un punto de maximo de g es equivalente a encon-
trar un mnimo de f = g, ver Figura 2.3, podemos concluir que todo problema de
maximizacion puede ser transformado en uno de minimizacion. As, sin perdida de gen-
eralidad, podemos estudiar el problema
minf(x) : x X (2.2)
Denicion 2.2 Dos problemas de optimizacion (P
1
) : minf(x) : x X y (P
2
) :
ming(x) : x Z son equivalentes si tienen el mismo conjunto de soluciones, es decir,
x resuelve (P
1
) si, y s olo si, x resuelve (P
2
).
Ejemplo 2.1 El problema minx
2
: x R es equivalente a min[x[ : x R.
13
Puntos de maximo
global
Puntos de mnimo global
global
Figura 2.2: Puntos de mnimo y maximo global
Figura 2.3: x es un punto de maximo de g y punto mnimo de f = g.
2.2 Clasicacion de Problemas de Optimizacion
Existen diversas maneras de clasicar los problemas de optimizacion, presentaremos
a seguir algunas de ellas.
a) Por sus restricciones, los problemas pueden ser restrictos o irrestrictos. Si X = M,
entonces el problema (2.2) es llamado problema de minimizacion sin restricciones
o problema irrestricto y escribiremos
minf(x) : x M.
Si X es un subconjunto propio de M entonces el problema (2.2) es llamado problema
14
de minimizacion con restricciones o restricto. Un ejemplo tpico de X es
X = x M ; h
i
(x) = 0, g
j
(x) 0, para todo i = 1, . . . , m y para todo j = 1, . . . , p,
donde h
i
: M R y g
j
: M R son funciones dadas.
En este caso, el problema de minimizacion tambien sera denotado por:
_

_
min f(x)
h
i
(x) = 0, para i = 1, 2, ..., m
g
j
(x) 0 para j = 1, 2, ..., p
o tambien,
_

_
min f(x)
h(x) = 0
g(x) 0
donde h : M R
m
y g : M R
p
son funciones tales que h(x) = (h
1
(x), ..., h
m
(x))
y g(x) = (g
1
(x), ..., g
p
(x)).
b) Por la funcion objetivo y las propiedades de sus restricciones, los problemas pueden
ser lineales o no lineales.
Si f en (2.2) es lineal y X es un conjunto denido por funciones anes ( una funcion
f : R
n
R es afn si para todo x, y R
n
y R se tiene que f(x +(1 )y) =
f(x)+(1)f(y),), entonces el problema se llama problema de optimizacion lineal.
La forma padron de un problema de optimizacion lineal en el espacio euclidiano es:
minc
T
x : Ax = b, x 0,
donde c R
n
, b R
m
, A R
mn
y x R
n
es la incognita. Observe que en este
problema la funcion f denida por f(x) = c
T
x es lineal y las funciones h(x) = Axb
y g(x) = x son anes.
Si f no es lineal o alguna de las funciones que denen el conjunto X no es afn,
entonces el problema de optimizacion es no lineal.
c) Por la naturaleza del problema, los problemas pueden ser discretos, continuos o
mixtos.
15
Si X es un conjunto nito o enumerable entonces el problema es denominado
problema de optimizacion discreta y las variables que denen las restricciones son
llamadas variables discretas. Un ejemplo particular es el siguiente problema:
minx
2
: x
i
0, 1, para cada i = 1, ..., n;
aqu las variables x
i
son llamadas variables discretas. Mas ejemplos de estos prob-
lemas se pueden encontrar dentro de la optimizacion entera y optimizacion combi-
natoria.
Si X es innito no enumerable entonces el problema es llamado problema de op-
timizacion continua y sus variables son llamadas variables continuas. Un ejemplo
particular es:
minx
2
: x
i
R, para cada i = 1, ..., n;
en este caso las variables x
i
son llamadas variables continuas.
Si el problema de optimizacion tiene variables discretas y continuas, entonces el
problema es llamado problema de optimizacion con variables mixtas. Un ejemplo
es
minf(x
1
, x
2
, t) = x
2
1
+ x
2
2
t
2
: x
i
0, 1, para i = 1, 2 y t R
+
.
2.3 Ejemplos de Problemas de Optimizacion
Con el objetivo de mostrar la versatilidad del modelo de optimizacion presentamos a
seguir algunos ejemplos de problemas de optimizacion como aplicacion en diversas areas
de las ciencias e ingenieras. Obviamente, estos problemas a un no seran estudiados pero
lo retomaremos en los siguientes captulos.
Ejemplo 2.2 (Funcionamiento de un sistema de produccion de energa electrica).
Sea un sistema de produccion de energa electrica aislada compuesta de n centrales
termicas unidas por lneas de transmision al nodo de concentraci on de la carga, (ver
Figura 2.4). El problema consiste en distribuir la energa producida por las centrales de
16
Central
Central
Central
Central
Central
Energa
Energa
Energa
Energa
Energa
Energa
Central
nodo
n
n 1
n 2
1
2
3
x
n
x
n1
x
n2
x
1
x
2
x
3
Figura 2.4: Central de produccion de energa electrica.
tal manera que se minimice el costo de combustible utilizado para producir la cantidad de
energa requerida.
Designamos por: x
i
=la energa producida por la i-esima central, i = 1, 2, . . . , n. Para
cada i = 1, . . . , n, la energa x
i
varia entre
i
y
i
, lmites denidos para las cargas, esto
es,

i
x
i

i
.
Ademas, es necesario respetar las condiciones de la balanza energetica: la cantidad
total de energa producida debe ser igual a la cantidad total de energa consumida E
c
,
adicionando las perdidas totales E
p
en las lneas de transmision. As tenemos
n

i=1
x
i
= E
c
+ E
p
.
La cantidad de conbustible necesaria para producir la energa x
i
es dada por una
funcion T
i
(x
i
) denida sobre el segmento [
i
,
i
]. Por lo tanto, obtenemos el siguiente
problema de optimizacion:
min
_
n

i=1
T
i
(x
i
) :
n

i=1
x
i
= E
c
+ E
p
,
i
x
i

i
, i = 1, . . . , n
_
.
El modelo anterior es el mas simple problema de minimizaci on de un sistema de
produccion de energa electrica. En una situacion mas real, la carga es concentrada en
varios puntos, as, es necesario considerar m nodos.
17
Por otro lado, las perdidas de un sistema no son constantes, ellos son denidos por
la intensidad de energa transmitida y los parametros de las lneas de transmision. De
esta manera, para una aproximaci on mas real del modelo se debe examinar el problema
cuando E
p
es una funcion bilineal de x
ij
, donde x
ij
denota la energa transmitida de la
iesima central al jesimo nodo. As, obtenemos el siguiente problema de optimizacion:
min
_
_
_
m

j=1
n

i=1
T
ij
(x
ij
) :
m

j=1
n

i=1
x
ij
= E
c
+ E
p
(x
ij
),
ij
x
ij

ij
, i = 1, . . . , n, j = 1, . . . , m
_
_
_
.
Ejemplo 2.3 (Problema de ajuste de curvas). Una clase de problemas no lineales
es la eleccion de la mejor curva dentro de una famlia de curvas para ajustar los datos
provistos por alg un experimento o alg un muestreo.
Supongamos que m datos de espectro solar y
1
, y
2
, . . . , y
m
fueron tomados por un
satelite en tiempos t
1
, t
2
, . . . , t
m
respectivamente y la teora existente arma que cualquiera
de los m puntos (t
1
, y
1
), (t
2
, y
2
), . . . , (t
m
, y
m
), pueden ser ajustados por la curva:
g(x
1
, x
2
, x
3
, x
4
, t) = x
1
+ x
2
e

(t+x
3
)
2
x
4
. (2.3)
En la practica, sin embargo, existi o errores experimentales como muestra la gura 2.5.
Para establecer conclusiones sobre los datos deseamos encontrar la curva mas cercana a
y
x
t
1
t
2
t
3
. . . . . .
t
m1
t
m
Figura 2.5: Datos experimentales tomandos por un satelite
los m puntos. Desde que la ecuaci on general de la curva en estudio es dado por (2.3),
18
esto signica que debemos escoger x
1
, x
2
, x
3
, x
4
que minimice la discrepancia (error) entre
los datos y la curva. La discrepancia es dada por:
r
i
(x) := g(x
1
, x
2
, x
3
, x
4
, t
i
) y
i
, i = 1, . . . , m.
La medida mas utilizada es la suma de cuadrados, obteniendo el siguiente problema
de optimizacion sin restricciones
min
_
f(x) =
m

i=1
r
i
(x)
2
=
m

i=1
_
x
1
+x
2
e

(t
i
+x
3
)
2
x
4
y
i
_
2
: (x
1
, x
2
, x
3
, x
4
) R
4
_
.
Observemos que tambien pueden ser utilizados otros tipos de medida para la funci on
objetivo, por ejemplo
f
1
(x) =
m

j=1
[r
i
(x)[ ,
f

(x) = max
i=1,...,m
[r
i
(x)[ .
La ventaja de la funcion f es que esta es continuamente diferenciable y eso favorece en
la eleccion de un metodo que use derivadas parciales para resolver el problema planteado.
Ejemplo 2.4 (Problema de seleccion de carteras de inversi on). El problema
de la seleccion de cartera consiste en la inversi on apropiada de un capital en un grupo
de acciones de tal manera que al mismo tiempo se tenga un gran rendimiento y un
riesgo peque no de perdida de la inversi on. Debido que en la realidad estas dos metas son
contradict orias es necesario estudiar un metodo para satisfazer estos dos requerimientos.
Un rendimiento puede ser interpretado de la siguiente manera: supongamos que una
inversi on de d
i
soles se aplica al activo i y suponga que durante alg un periodo de tiempo
especicado estos d
i
soles se convierten en 1.5d
i
. En este caso diremos que el rendimiento
durante ese periodo de tiempo es de
1.5d
i
d
i
d
i
= 0.5.
El concepto de riesgo es medido usualmente mediante la varianza del rendimiento de
la cartera. Ya que el inversionista busca un equilibrio entre alto rendimiento y bajo riesgo,
una forma de abarcar el problema es minimizar el riesgo sujeto a un limite inferior del
19
rendimiento esperado. Tambien puede existir algunas restricciones sobre la parte de la
cartera dedicada a acciones individuales en particular.
Para obtener el modelo de optimizacion denimos:
x
i
: la proporcion de la cartera invertida en la accion i.

2
i
: la varianza de los rendimientos anuales de la accion i.
R
i
: rendimiento anual esperado de la accion i.
G : lmite inferior sobre el rendimiento anual esperado de la inversi on total.
S
i
: lmite superior sobre la inversi on en la accivn i.

ij
: la covarianza de los rendimientos anuales de las acciones i y j (es un n umero que
describe el grado hasta donde los rendimientos de las dos acciones i y j ascienden o
descienden juntos).
El rendimiento anual de la cartera se dene por

n
i=1
x
i
R
i
. La varianza del rendimiento
de la cartera (o riesgo de la cartera) que es obtenido por procedimientos estadsticos es
denido por:
f(x) = f(x
1
, . . . , x
n
) =
n

i=1
x
2
i

2
i
+ 2
n1

i=1
n

j=i+1
x
i
x
j

ij
.
Luego obtenemos el problema de optimizacion
min
_
f(x) :
n

i=1
x
i
= 1, G
n

i=1
x
i
R
i
, 0 x
i
S
i
, i = 1, . . . , n
_
.
Por ejemplo si n = 3 y si tenemos los siguientes valores:

2
1
= 0.09
2
2
= 0.06
2
3
= 0.04
12
= 0.02
13
= 0.01

23
= 0.02 G = 0.03 S
1
= 0.75 S
2
= 0.9 S
3
= 0.8
R
1
= 0.02 R
2
= 0.03 R
3
= 0.07;
entonces, el problema de optimizacion es:
_

_
min f(x) = 0.09x
2
1
+ 0.06x
2
2
+ 0.04x
2
3
+ 2(0.02x
1
x
2
+ 0.01x
1
x
3
+ 0.02x
2
x
3
)
0.02x
1
+ 0.03x
2
+ 0.07x
3
= 1
0 x
1
0.75
0 x
2
0.9
0 x
3
0.8
20
Para resolver el modelo general los valores de
2
i
,
ij
, y R
i
deben ser conocidos (como
mostramos en el ejemplo particular para n = 3), esto es, si en los datos del problema
estos no son dados entonces deben ser estimados con datos hist oricos.
Por ejemplo, si se cuenta con m periodos de datos (en a nos) el activo i tendra
un rendimiento hist orico real R
t
i
relacionado con cada periodo t 1, 2, . . . , m. El
rendimiento esperado del activo i se estima con:
R
i
=
1
m
m

t=1
R
t
i
.
Los rendimientos hist oricos periodicos tambien son utiles patra estimar las varianzas
y las covarianzas, dadas por:

2
i
=
1
m
m

t=1
(R
t
i
R
i
) y
ij
=
1
m
m

t=1
(R
t
i
R
i
)(R
t
j
R
j
).
Ejemplo 2.5 (Problema de la mochila). Un viajante debe visitar n ciudades dis-
tintas, comenzando y terminando su viaje en la misma ciudad. Cada ciudad debe ser
visitada una sola vez. El problema es encontrar un viaje de longitud mnima. Sea
C = 1, 2, . . . , n el conjunto de ciudades. Supongamos que el viaje comienza y ter-
mina en la ciudad 1. Puede ser probado que todas las posibilidades para encontrar el
viaje optimo es dado por (n1)!, luego resulta imposible vericar todas las opciones para
resolver el problema cuando n es grande. A seguir modelamos el problema de la mochila
como un problema de optimizacion. Denamos
d
ij
: la distancia entre las ciudades i y j, (d
ii
= 0)
x
ij
=
_

_
1, si el viajante va de i a j
0, caso contrario.
Cada recorrido implica partir de la ciudad i, esto es,
n

j=1
x
ij
= 1, para todo i = 1, 2, . . . , n.
Cada recorrido implica llegar a la ciudad j
n

i=1
x
ij
= 1, para todo j = 1, 2, . . . , n.
21
La longitud del viaje es:
f(x
11
, x
12
, . . . , x
ij
, . . . , x
nn
) =
n

j=1
n

i=1
d
ij
x
ij
.
As, el problema de optimizacion es:
min
_
n

j=1
n

i=1
d
ij
x
ij
:
n

j=1
x
ij
= 1,
n

i=1
x
ij
= 1, x
ij
0, 1
_
.
Por ejemplo, si n = 3, entonces usando el hecho que x
ii
= 0 (no hay viaje de la ciudad i
a la ciudad i) y d
ii
= 0 tenemos que el problema de optimizacion es:
_

_
min f(x) = d
12
x
12
+ d
13
x
13
+ d
21
x
21
+ d
23
x
23
+ d
31
x
31
+ d
32
x
32
x
12
+ x
13
= 1
x
21
+ x
23
= 1
x
31
+ x
32
= 1
x
21
+ x
31
= 1
x
12
+ x
32
= 1
x
13
+ x
23
= 1
x
12
, x
13
, x
21
, x
23
, x
31
, x
32
0, 1
d
2
1
d
1
2
d
13
d
31
d
2
3
d
3
2
1
2
3
n=3
Figura 2.6: (3-1)!= 2 viajes posibles: (d
12
, d
23
, d
31
) y (d
13
, d
32
, d
21
)
22
d
2
1
d
1
2
d
42
d
3
2
d
2
3
d
31
d
4
1
d
4
1
d
13
d
3
4
d
4
3
1
2
3
4
n=4
Figura 2.7: (4-1)!=6 viajes posibles
Ejemplo 2.6 (Problema de la dieta). Supongamos que un centro (Colegio, Univer-
sidad, Hospital, etc.) se plantea el problema de dise nar una dieta a partir de n alimentos
que cuestan c
i
por unidad, i = 1, 2, . . . , n, de tal manera que resulte lo mas barato posible
y se satisfagan las necesidades nutricionales que aconsejan las organizaciones de salud.
Se precisa ingerir de m nutrientes basicos al menos b
j
unidades diarias de cada uno de
ellos. Por otra parte, se conoce que entre los alimentos disponibles, una unidad de ali-
mento i contiene a
ij
unidades del nutriente j, donde i = 1, 2, . . . , n y j = 1, 2, . . . , m. El
problema es determinar las cantidades apropiadas de cada alimento que deben incluirse
en la dieta, para que su costo sea mnimo. Sean
x
i
= la cantidad a ingerir del alimento i-esimo,
c
i
= el precio (unitario) del alimento i-esimo.
Entonces el problema es:
min
_
n

i=1
c
i
x
i
:
n

i=1
a
ij
b
j
(j = 1, 2, . . . , m), x
i
0
_
.
23
Ejemplo 2.7 (Problema de transporte). Considere el problema de transportar una
mercancia de m puntos de origen a n puntos de destino. Se considera que en los pun-
tos de origen 1, 2, . . . , m se tienen respectivamente las cantidades a
1
, a
2
, . . . , a
m
de un
determinado bien. Sean los puntos de destino 1, 2, . . . , n a los que deben de llegar las
cantidades b
1
, b
2
, . . . , b
n
, ver Figura 2.8.
Supondremos que existe un equilibrio entre la oferta y la demanda, esto es,
O
R
I
G
E
N
E
S
1 2 3
x
11
x
12
x
1n
x
21 x
22
x
2n
1
2
x
m1 x
m2
x
mn
b
1 b
2
b
n
m
a
1
a
2
a
m
DESTINOS
...
...
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Figura 2.8: Problema de Transporte.
m

i=1
a
i
=
n

j=1
b
j
.
Sean
c
ij
: el costo unitario de enviar una unidad del origen i al destino j.
x
ij
: cantidad a enviar del origen i al destino j.
Se deben satisfacer las siguientes condiciones:
i. Para cada origen i se debe cumplir que la suma de las cantidades desde i hacia los
diferentes destinos deben coincidir con la cantidad a
i
que hay en el origen, esto es,
n

j=1
x
ij
= a
i
.
24
ii. Para cada destino j, se debe vericar que la suma de las cantidades que llegan a j
es igual a la cantidad b
j
, esto es,
m

i=1
x
ij
= b
j
,
Luego el problema a resolver es:
min
_
n

j=1
n

i=1
c
ij
x
ij
:
n

j=1
x
ij
= a
i
,
m

i=1
x
ij
= b
j
, x
ij
0
_
.
Ejemplo 2.8 (Problema geometrico de Euclides). Este problema aparecio en el
primer libro de geometra de Euclides (300 A.C). Dado un tri angulo ABC, se desea
inscribir un paralelogramo ADEF de tal manera que EF//AC y DE//AB tal que el
area de este paralelogramo sea maxima, vea la gura 2.9
C
D
A B
E
x
F
b
b x
h(altura)
Figura 2.9: Primer problema de optimizacion encontrado en el libro de Euclides
Puede probarse que el problema consiste en resolver
max
_
xh(b x)
b
: 0 < x < b
_
,
donde h es la altura del tri angulo, b es la medida de la base del tri angulo y x es la base
del parelogramo.
Ejemplo 2.9 ( Calculo de variaciones). Los problemas variacionales son una famlia
particular de problemas de optimizacion. Ellos se caracterizan por estar denidos en
25
espacios de funciones de dimensi on innita y por el hecho que la funci on objetivo es un
operador integral. Los problemas variacionales cl asicos pueden expresarse como
min
_
I(u) :=
_
b
a
L(t, u(t), u

(t))dt ; u X
_
,
donde L : [a, b] RR R es una funcion dada, u : [a, b] R es la funci on inc ognita
y X es un subconjunto del espacio C
1
[a, b].
Las restricciones usuales son:
1. Condici on de contorno: u(a) = y u(b) = .
2. Restriccion Lagrangeana: g(t, u(t), u

(t)) = 0, con g : [a, b] R R R una


funcion dada.
3. Restriccion isoperimetrica:
_
b
a
g(t, u(t), u

(t))dt = c, donde g : [a, b] R R R


es una funcion dada.
A modo de ilustraci on mostraremos el problema cl asico de la Braquistocrona (del griego
brachystos-mnimo, chronos-tiempo).
En 1696 Johann Bernoulli propuso el siguiente problema: Sean P
0
y P
1
dos puntos dados
sobre un plano vertical. Se debe encontrar una curva uniendo esos puntos de tal forma
que un punto partiendo de P
0
que la recorra, sobre la inuencia solamente de su propio
peso, alcance P
1
en el menor tiempo posible. Considere ademas la velocidad inicial v
0
dada. Tal problema fue formulado inicialmente por Galileo en 1638, quien crea que la
solucion del problema era un arco de circunferencia. Bernoulli dio al problema el nombre
de Braquistocrona y usando el principio de refraccion de Fermat obtuvo la siguiente
formulacion:
min
_
_
b
a
_
1 +u

(t)
2
2gu(t) +c
_
1/2
dt ; u C
1
[a, b], u(a) = , u(b) =
_
,
donde g es la constante gravitacional y c es la energa total del cuerpo (cinetica+potencial)
en el instante inicial.
Ejemplo 2.10 (Problema de autovalores). Dado una matriz A R
nn
. Decimos
que es un autovalor de A si existe un vector no nulo x R
n
, llamado autovector de
26
A, tal que Ax = x. El problema de hallar los autovalores y autovectores de A pude ser
formulado como el problema de optimizacion:
min f(x, ) = |Ax x| : (x, ) R
n
R, x ,= 0 ,
donde |.| es la norma euclidiana. Observemos que si el problema tiene solucion y su
valor optimo es cero entonces resolvemos el problema de hallar un autovalor de A y su
correspondiente autovector.
Para obtener el menor autovalor de A, bajo algunas condiciones sobre la matriz (ver
Ejercicio 6.3), es suciente resolver el modelo:
min
_
1
2
x
T
Ax : |x| = 1
_
.
De forma analoga para encontrar el mayor autovalor de A es suciente, bajo algunas
condiciones sobre la matriz, resolver:
max
_
1
2
x
T
Ax : |x| = 1
_
.
Ejemplo 2.11 (Solucion de sistemas de ecuaciones lineales). Dados A R
nn
una matriz simetrica denida positiva y b R
n
. El problema de resolver un sistema de
ecuaciones lineales consiste en encontrar un punto x R
n
tal que: Ax = b. Resolver el
problema dado es equivalente a resolver el problema de optimizacion (ver Ejercicio 6.1):
min
_
1
2
(x
T
Ax) b
T
x : x R
n
_
.
Este abordaje de optimizacion es utilizado principalmente cuando la matriz A es esparsa
y de dimensi on grande.
Ejemplo 2.12 (Teora economica de la decision). Los modelos matematicos en la
teora economica de la decisi on consisten en la eleccion optima de un agente economico
(una empresa, un gobierno, un estado, etc.) dentro de todas las posibles alternativas a
escoger. Hay tres elementos que caracterizan el problema de decisi on del agente:
El conjunto de eleccion, que nos dice cual es el universo de alternativas.
27
El criterio de valorizacion, que estudia la manera en la que el agente eval ua las
diferentes alternativas que se le ofrecen. Este criterio se dene mediante una
relacion binaria reexiva y transitiva , interpretada economicamente como es
al menos tan preferible que reeja sus preferencias sobre el conjunto de eleccion.
En economa esta relacion es llamada preferencia.
Las restricciones, que delimitan el conjunto de oportunidades sobre el cual el agente
puede efectivamente elegir.
Dado el conjunto de eleccion X, decimos que : X R es una funci on de utilidad para
si para todo x, y X
y x, si y s olo si (y) (x) .
Las preferencias bajo ciertas condiciones sobre X pueden representarse por una funci on
de utilidad . As, elegir la mejor alternativa se convierte en encontrar una alternativa
que maximice la funcion . Por lo tanto concluimos que resolver el problema de decisi on
del agente es equivalente a resolver el problema de maximizaci on:
max(x) : x X.
Un tipo particular de funcion de utilidad es la funcion cuasi-c oncava, esto es, satisface:
(x + (1 )y) min(x), (y), para todo x, y X; y [0, 1].
Se puede probar que esta funcion est a ntimamente relacionada a la hip otesis de convexi-
dad de la preferencia. Recordemos que es convexa si dados x, y X con x y y x z
en X y 0 1 entonces
x y + (1 ) z.
En terminos economicos esta denicion se interpreta como la tendencia natural del
agente a diversicar su eleccion entre todas las mejores posibles, esto es, si z e y son dos
alternativas al menos tan preferibles que x, entonces es natural pensar que la combinacion
y + (1 ) z, para todo [0, 1], continua siendo al menos tan preferible que x.
La condici on de convexidad de la preferencia y algunas otras condiciones apropiadas
permiten garantizar la existencia de una funcion de utlidad cuasi-c oncava y por lo tanto
28
tener un problema de optimizacion cuasi-c oncavo (problemas donde la funci on objetivo
es cuasi-c oncava y las funciones que denen las restricciones son cuasi-c oncavas).
Ejemplo 2.13 (El problema de la produccion). Considere que una empresa puede
producir n productos en cantidades x
1
, x
2
, . . . , x
n
, siendo sus costos de produccion (por
unidad) respectivamente igual a p
1
, p
2
, . . . ., p
n
, donde p
i
> 0, para todo i = 1, 2, . . . , n.
Si se tiene un capital de b soles para realizar la produccion y una funci on continua f
que representa la utilidad de produccion de los n productos, el problema de conocer una
utilidad mnima o maxima es expresado por
optf(x) : p
T
x b, x
i
0.
Ejemplo 2.14 (Teora de la decision proximal, ver [18]). Sea el estado X = R
n
+
,
interpretado economicamente como el conjunto de alternativas, ejecuciones, acciones,
decisiones, etc. El termino agente ser a referido a una persona, empresa o institucion
encargada de la toma de decisiones. Un agente tiene una funcion objetivo g : X R,
que representa la ganancia por unidad de tiempo (utilidad, pago, ingreso, benecio).
Consideremos x X alg un estado inicial dado y supongamos que el supremo de este
objetivo es nito, esto es, g = sup g(x), x X < +. Supongamos que el agente
comienza de alg un estado inicial x
0
= x X, conoce el supremo de g y el valor inical
g(x) = g(x
0
). As, el conoce cuan lejos est a del supremo. Esta diferencia o llamada
tambien salto es denida por
n(x) = g g(x).
La manera mas natural de que el agente alcance su meta es encontrar el objetivo de
manera progresiva dividiendolo por periodos que detallamos a continuacion.
Fase Exploratoria El agente explora en un entorno de x, denotado por:
E(x, r(x)) X,
durante alg un tiempo > 0, para descubrir y E(x, r(x)) X.
Fase Desplazamiento El agente se desplaza de x X al nuevo estado y X en un
tiempo > 0.
29
Fase Explotacion El agente debe beneciarse al obtener un nuevo estado mejorado.

El
escoge explotar su benecio en un tiempo > 0.
Es as que del estado x X descubrimos un nuevo estado y X mejorado, tal que
g(y) > g(x), de modo que n(y) < n(x).
En cada periodo k IN, se considera la funcion ganancia proximal
P
k
(x
k
, y) = g(y)
k
C(x
k
, y, )
donde x
k
, y E(x
k
, r(x
k
)),
k
=
1

k
, C(x
k
, y, ) es el costo de desplazamiento satisfa-
ciendo C(x
k
, x
k
, 0) = 0.
Asumiremos por simplicidad que E(x
k
, r(x
k
)) = X, k IN. As, el agente tratar a
de maximizar su ganancia proximal resolviendo para cada k
x
k+1
argmaxP
k
(x
k
, y) : y X,
el cual es equivalente a: x
k+1
argminn(y) +
k
C(x
k
, y, ); y X.
El objetivo de este modelo es generar una sucesion
_
x
k
_
tal que en el lmite se obtenga
la meta propuesta.
Ejemplo 2.15 (Suma de los mayores autovalores). Recientemente Overton y Wom-
ersley [14] (Teorema 3.4, pagina 329), presentaron la siguiente caracterizaci on para la
suma de los primeros k mayores autovalores de una matriz simetrica

1
(A) + . . . +
k
(A) = maxA X: TrX = k, 0 _ X _ I,
donde
j
(A), j = 1, . . . , k, denota el j-esimo mayor autovalor de A y A X denota la
traza de AX. El problema dado pertenece a una clase especial de problemas de opti-
mizaci on llamados problemas de optimizacion semidenida (las variables son matrices
semidenidas positivas) y cuyo formato general para el caso acotado es
min
XS
n
f(X) : /X = b, 0 _ X _ I (2.4)
donde f : o
n
R es una funcion real, o
n
es el espacio vectorial de las matrices
simetricas, I o
n
es la matriz identidad, el operador / : o
n
R
m
es denido por
/X := (A
i
X)
m
i=1
R
m
, con A
i
o
n
; X o
n
; X _ 0 signica que X es semidenida
positiva, y X _ I signica que I X _ 0.
30
Ejemplo 2.16 (Mnimo de la suma de los mayores autovalores, ver [15]). Con-
sideremos el problema de minimizar la suma de los primeros k mayores autovalores de
una matriz simetrica:
min
1
(A(y)) + . . . +
k
(A(y)) : y R
m

donde A(y) = A
0
+
m

i=1
y
i
A
i
. Puede ser probado (ver Alizadeh [1], Teorema 4.3), que el
dual de este problema es
maxA
0
X : TrX = k, A
j
X = 0 para j = 1, . . . , m, 0 _ X _ I. (2.5)
Note que podemos expresar (2.5) como
maxA
0
X ; /X = b, 0 _ X _ I,
donde /X = (I X, A
1
X, . . . , A
m
X)
T
y b = (k, 0, 0, . . . 0) R
m+1
. Por tanto, este
problema tiene la forma de (2.4).
Ejemplo 2.17 (Minimizacion de la suma ponderada de los autovalores). Con-
sidere el siguiente problema:
minm
1

1
(A) + . . . +m
k

k
(A), donde m
1
. . . m
k
> 0. (2.6)
Donath y Homan en [6] reformularon esta suma como sigue:
m
1

1
+. . . +m
k

k
= (m
1
m
2
)
1
+(m
2
m
3
)(
1
+
2
) +. . . +(m
k1
m
k
)(
1
+. . . +
k
),
donde por simplicidad usamos la notacion
i
=
i
(A). Para cada suma parcial de auto-
valores del lado derecho de la igualdad podemos usar la formulacion del ejemplo anterior,
obteniendo
min (m
1
m
2
)X
1
A + (m
2
m
3
)X
2
A + . . . +m
k
X
k
A
s.a: Tr(X
i
) = i para i = 1, . . . , k
0 _ X
i
_ I.
Observe que este problema puede ser expresado en la forma (2.4), donde f(X) = CX, con
X = diag(X
1
, X
2
, . . . , X
n
), C = diag((m
1
m
2
)A
1
, . . . , , (m
k1
m
k
)A
k
), /(X) = I X,
y b = (1, 2, . . . , k)
T
. As, (2.6) es un caso particular de (2.4).
31
Ejemplo 2.18 (El problema de particion de un grafo). Un importante caso del
problema de particion de un grafo, ver [1], es formulado como:
minC X; X
ii
= k/n, 0 _ X _ I. (2.7)
Podemos expresar (2.7) como (2.4) usando f(X) = CX, A
1
= diag(1, 0, . . . , 0), A
2
=
diag(0, 1, 0, . . . , 0), . . . , A
n
= (0, 0, . . . , 0, 1) y b = (k/n, k/n, . . . , k/n) R
n
.
32
Captulo 3
Existencia de Puntos de Mnimo
Global
El espacio euclidiano donde estudiaremos las condiciones de existencia y caracteri-
zacion de las soluciones optimas de problemas de optimizacion es un espacio bien natural
para modelar problemas de optimizacion. Incluso si el problema se encuentra en uno de
dimension innita los diversos metodos de discretizacion permiten transformar el prob-
lema original en un problema denido en un espacio euclidiano.
3.1

Optimos Globales y Locales
En Optimizacion existen dos tipos de optimos: locales y globales, que pasamos a denir.
Denicion 3.1 (Mnimo local y mnimo global) Sea f : X R
n
R una funci on
denida sobre X. Un punto x X es llamado un punto de mnimo local de f sobre X
si existe > 0 tal que f( x) f(x), para todo x X B( x, ).
El punto x X es llamado punto de mnimo global de f sobre X si f( x) f(x), para todo x
X.
Observacion 3.1 La relacion inmediata de estas dos deniciones es que todo mnimo
global es un mnimo local, pero la viceversa, evidentemente, no es verdadera.
Analogamente, tenemos la siguiente denicion.
33
Denicion 3.2 (Maximo local y maximo global) Sea f : X R
n
R una funci on
denida sobre X. Un punto x X es llamado un punto de maximo local de f sobre X
si existe > 0 tal que f( x) f(x), para todo x X B( x, ).
El punto x X es llamado punto de maximo global de f sobre X si f( x) f(x), para
todo x X.
Figura 3.1:

Optimos locales y globales.
Observacion 3.2 Desde que todo problema de maximizaci on puede ser transformado
en uno de minimizacion, a partir de ahora consideraremos para el analisis solamente
problemas de minimizacion.
3.2 Resultados de Existencia
Considere el problema
minf(x) : x X,
donde f : X R
n
R es una funcion denida sobre X. Una pregunta natural es
saber si existe un punto que resuelva el problema planteado. Veremos que para ello sera
necesario imponer algunas condiciones sobre f y X.
34
Una condicion necesaria para probar la existencia de un punto de mnimo global es que
la funcion f sea acotada inferiormente, esto es, inff(x) : x X > . Observemos
que esta condicion no es suciente, considere por ejemplo la funcion exponecial f(x) = e
x
,
donde x R. Esta funcion es acotada inferiormente por cero pero no existe un punto de
mnimo global como se muestra en la gura 3.2.
y
x
1
e
x
Figura 3.2: La funcion exponencial tiene nmo pero no mnimo.
Un resultado clasico para garantizar la existencia de puntos de mnimo global es el
conocido Teorema de Bolzano-Weierstrass, aplicado a funciones continuas sobre conjun-
tos compactos. En este libro consideraremos una hipotesis mas debil, la condicion de
semicontinuidad inferior, que pasamos a denir.
Denicion 3.3 Dada una funcion f : X R
n
R. f es semicontinua inferior en
x X, si para toda sucesi on x
k
de X convergente en x se tiene que
liminf
k+
f(x
k
) f( x),
donde liminf
k+
f(x
k
) := sup
nN
inf
kn
f(x
k
). Si f es semicontinua inferior para todo
x X, entonces decimos que f es semicontinua inferior en X.
Resulta claro de la denicion que toda funcion continua es semicontinua inferior pero el
recproco no es verdad como muestra el siguiente ejemplo.
35
Ejemplo 3.1 La funcion f : [1, 2] R tal que
f(x) =
_

_
(x + 1)
2
, si x (1, 2],
1, si x = 1,
es semicontinua inferior en x = 1 pero no es continua en x = 1 (ver gura 3.3). En
efecto, es obvio que la funcion no es continua en 1, probemos que es semicontinua inferior
en este punto. Sea x
k
[1, 2] tal que x
k
1, como la funcion es creciente para n IN
tenemos que inf
kn
f(x
k
) = 4, por lo tanto sup
nN
inf
kn
f(x
k
) = 4 > 1 = f(1).
Figura 3.3: La funcion f es semicontinua inferior pero no es una funcion continua.
Teorema 3.1 Dada una funcion f : X R
n
R. Si f es semicontinua inferior en un
conjunto no vacio y compacto X entonces existe un punto de mnimo global.
Demostracion. Probemos inicialmente que f es acotada inferiormente. Por con-
tradiccion, supongamos que existe una sucesion x
k
X tal que
lim
k+
f(x
k
) = . (3.1)
Como x
k
X y X es un conjunto compacto, entonces esta sucesion contiene una
subsucesion x
k
j
convergente en X, esto es, existe x X tal que lim
j+
x
k
j
= x.
36
Debido que f es semicontinua inferior tenemos:
f( x) liminf
j+
f(x
k
j
).
Ya que f(x
k
j
) es una subsucesion de f(x
k
) y por (3.1) obtenemos que f( x) ,
lo cual es una contradiccion. Por lo tanto, f es limitada inferiormente en X. As, existe
R tal que
= inff(x) : x X,
esto implica que existe una sucesion x
l
X tal que lim
l+
f(x
l
) = . Por la
compacidad de X existe una subsucesion x
l
j
y x X tal que lim
j+
x
l
j
= x. Debido
a la semicontinuidad inferior
f( x) lim
j+
f(x
l
j
) = .
De esta ultima desigualdad obtenemos que f( x) = y por lo tanto f( x) f(x), para
todo x X, esto es, x es un mnimo global de f en X.
Ejemplo 3.2 Considere la funcion f denida en el Ejemplo 3.1, como esta es semicon-
tinua inferior y [1, 2] es compacto, entonces usando el teorema anterior concluimos que
para f existe un mnimo global en [1, 2].
Corolario 3.1 Dada una funcion f : X R
n
R. Si X es no vacio y compacto y f
es continua en X, entonces existe un punto de mnimo global.
Prueba. Si f es continua entonces es semicontinua inferior y aplicando el teorema
precedente obtenemos el resultado.
Observacion 3.3 La condici on de compacidad de X es muy fuerte para garantizar la
existencia de un mnimo global. En efecto, considere el problema
minx
2
: x R (3.2)
Aqu X = R no es compacto pero existe el mnimo global.
Para debilitar la hipotesis de compacidad de X, denamos, para R, el conjunto
L
f
() := x X : f(x) , llamado conjunto de nivel inferior de f (Ver gura 3.4).
37
Figura 3.4: Graco del conjunto de nivel inferior.
Corolario 3.2 Sea una funcion f : X R
n
R. Si L
f
() es no vacio y compacto para
alg un R y f es semicontinua inferior en L
f
(), entonces existe un punto de mnimo
global de f en X.
Prueba. Consideremos el siguiente problema de optimizacion
minf(x) : x L
f
().
Como f es semicontinua inferior en L
f
() y L
f
() es no vacio y compacto, entonces
por el Teorema 3.1, existe x L
f
() tal que f( x) f(x), para todo x L
f
().
Tomemos x como candidato para mnimo global de f sobre X. Sea x X (arbitrario) y
consideremos dos casos:
i). Si x L
f
(), por el resultado anterior tenemos f( x) f(x).
ii). Si x / L
f
(), entonces f(x) > f( x). As, f( x) < f(x).
De ambos casos obtenemos que x es un mnimo global de f sobre X.
Corolario 3.3 Sea una funcion f : X R
n
R. Si X es cerrado y L
f
() es no vacio
y acotado para alg un R, con f semicontinua inferior en L
f
(), entonces existe un
punto de mnimo global de f en X.
Prueba. Similar al corolario anterior.
38
Observacion 3.4 En el corolario anterior la condici on de cerradura de X es fundamen-
tal. En efecto, considere por ejemplo X = (1, 1] (conjunto no cerrado) y f(x) = (x+1)
2
.
Aqu para todo R
++
se tiene que L
f
() = (1,

1] es no vacio, acotado y f es
continua pero no existe el mnimo global de f en X.
Para debilitar mas a un las condiciones de existencia de mnimos globales deniniremos
el concepto de funcion coerciva.
Denicion 3.4 Decimos que una sucesi on x
k
en X es crtica (en relacion al conjunto
X) si: lim
k+
|x
k
| = + lim
k+
x
k
= x

XX, donde la notacion x

XX
signica que x

X y x / X.
La funcion f : X R
n
R es llamada coerciva en X si para toda sucesi on crtica
x
k
se tiene:
limsup
k+
f(x
k
) = +,
donde limsup
k+
f(x
k
) := inf
nN
sup
kn
f(x
k
).
Ejemplo 3.3 Dado x
0
R
n
jo, f : R
n
R tal que f(x) = |x x
0
|, es una funci on
coerciva en R
n
.
Corolario 3.4 Dada una funcion f : X R
n
R. Si f es coerciva y semicontinua
inferior en un conjunto no vacio X, entonces existe un punto de mnimo global de f en
X.
Prueba. Como X ,= , existe R tal que L
f
() ,= (X ,= , entonces existe x X,
as podemos tomar = f( x)). Probaremos que L
f
() es acotado. Por contradiccion,
supongamos que L
f
() no es acotado, entonces existe una sucesion x
k
L
f
() tal que
lim
k+
|x
k
| = +,
luego x
k
es una sucesion crtica en L
f
(). Como x
k
L
f
(), se tiene f(x
k
) ,
tomando lmite superior cuando k + y usando la coercividad de f tenemos que
limsup
k+
f(x
k
) = + , lo que es una contradiccion. Por lo tanto L
f
() es
acotado.
39
Probaremos ahora que L
f
() es cerrado. Sea x
k
L
f
() una sucesion tal que x
k
x
y supongamos que x / L
f
(), esto es, x / X o f( x) > .
Si x / X entonces x
k
es una sucesion crtica y por la coercividad de f se tiene que:
+ = limsup
k+
f(x
k
) , lo que es una contradiccion.
Si f( x) > , entonces por la semicontinuidad inferior se tiene que
< f( x) liminf
k+
f(x
k
) ,
lo que es una contradiccion. Por lo tanto x L
f
() y as L
f
() es cerrado.
Finalmente, usando el Corolario 3.2 obtenemos el resultado deseado.
3.3 Ejemplos de Existencia de Puntos

Optimos
Ejemplo 3.4 (Existencia de soluciones de problemas de maximizaci on). Considere el
problema de maximizaci on
maxf(x) : x X (3.3)
donde f : X R
n
R y X denota el conjunto de las restricciones. Decimos que f es
semicontinua superior (s.c.s.) en x X, si para toda sucesi on x
k
X tal que x
k
x
se tiene que limsup
k+
f(x
k
) f( x).
Usando los resultados del Teorema 3.1 se puede probar facilmente que si f : X R
n
R
es s.c.s en X, no vacio y compacto, entonces existe un maximo global.
Consideremos ahora el conjunto de nivel superior U
f
() := x X : f(x) . Usando
el Corolario 3.2 se puede probar que si f es s.c.s en X y U
f
() es no vacio y compacto,
para alg un , entonces existe un punto de maximo global de f en X.
Ademas, usando el Corolario 3.4 se tiene que si f es coerciva y s.c.s en un conjunto
no vacio X, entonces existe un punto de maximo global de f en X.
Ejemplo 3.5 Dados p = (p
1
, ..., p
n
), con p
i
> 0, i = 1, ..., n, y b R
++
. El problema de
la utilidad mnima y maxima del Ejemplo 2.13 consiste en resolver
optf(x) : p
T
x b, x 0
40
donde recordamos que opt signica minimizar o maximizar f y x 0 signica que cada
componente x
i
0, para todo i = 1, ..., n.
Estudiaremos si el problema dado tiene mnimo y maximo global. Denamos
X =
_
x R
n
: p
T
x b, x 0
_
.
Armamos que X es compacto. En efecto, dado x X, entonces
p
1
x
1
+p
2
x
2
+ .... + p
n
x
n
b.
Como los x
i
0 y p
i
> 0, entonces x
i

b
p
i
, para todo i = 1, ..., n.
Denamos M = minp
i
, i = 1, ..., n > 0. Elevando al cuadrado la desigualdad anterior
y tomando sumatoria tenemos: |x|
2

nb
2
M
2
, esto es, |x|

nb
M
.
Si f es semicontinua inferior, entonces el problema tiene un mnimo global y si f es semi-
continua superior el problema tiene maximo global. Ademas, si f es continua entonces
concluimos que el problema tiene mnimo y maximo global.
Ejemplo 3.6 El problema del funcionamiento de un sistema de produccion de energa
electrica consista en resolver:
min
_
n

i=1
T
i
(x
i
) :
n

i=1
x
i
= E
c
+ E
p
,
i
x
i

i
_
.
Es facil probar que X =
_
x :
n

i=1
x
i
= E
c
+E
p
,
i
x
i

i
_
es compacto y que f(x) =
n

i=1
T
i
(x
i
) es semicontinua inferior, entonces usando el Teorema 3.1, se tiene que el prob-
lema dado tiene un mnimo global.
Ejemplo 3.7 El problema de minimizacion cuadratica consiste en resolver
min
_
f(x) =
1
2
x
T
Ax b
T
x + c : x R
n
_
,
donde A R
nn
, b R
n
y c es un n umero real. Si se cumple que A 0, entonces existe
un punto de mnimo global. En efecto, probaremos que la funcion f es coerciva en R
n
.
Por contradiccion, supongamos que f no lo sea, entonces existe
_
x
k
_
tal que
_
_
x
k
_
_
+, pero f(x
k
) M, para todo k IN,
41
para alg un M R. Tenemos por lo tanto que:
1
2
x
k
T
Ax
k
b
T
x
k
+ c M. Para k
sucientemente grande se tiene que x
k
,= 0 y
1
2
_
x
k
T
|x
k
|
_
A
_
x
k
|x
k
|
_
b
T
_
x
k
|x
k
|
2
_
+
c
|x
k
|
2

M
|x
k
|
2
.
Tomando una subsucesi on si es necesario, existe z ,= 0 tal que
z
k
=
x
k
|x
k
|
z.
Pasando al lmite en la ultima desigualdad y multiplicando por 2 se obtiene z
T
Az 0, lo
que contradice la hip otesis de que A es denida positiva. As, f(x) =
1
2
x
T
Axb
T
x+c es
continua y coerciva y por lo tanto, usando el Corolario 3.4, se tiene que existe un mnimo
global de f.
Ejemplo 3.8 (El problema de la mnima distancia). Dado un subconjunto X de R
n
. El
problema de la mnima distancia de y a X es
min f(x) = |x y| : x X .
Si X es cerrado, entonces existe el mnimo global del problema. En efecto, analisemos
dos casos
i.) Si X es acotado, entonces X es compacto y como f es continua, el mnimo global
existe.
ii.) Si X no es acotado, entonces existe
_
x
k
_
tal que lim
k+
|x
k
| = +. Como X
es cerrado, entonces
_
x
k
_
es una sucesi on crtica, y como f(x
k
) +, se tiene
que f es coerciva en X.
Como f es continua y coerciva entonces existe el mnimo global.
3.4 Ejercicios Resueltos
Ejercicio 3.1 Probar que el problema
_
_
_
min f(x, y) = x
2
+ y +
1
x+y
sujeto a : x + y > 0
tiene una solucion global.
42
Solucion. Consideremos el conjunto X = (x, y) R
2
: x + y > 0, que no es cerrado
ni acotado, la idea entonces es probar que el conjunto de nivel
L
f
(c) =
_
(x, y) X : x
2
+ y +
1
x + y
c
_
es compacto para alg un c R.
Probemos que L
f
(c) es acotado.
Supongamos que L
f
(c) no es acotado, entonces existe
_
(x
k
, y
k
)
_
L
f
(c) tal que |(x
k
, y
k
)|
+, entonces:
(x
k
)
2
+ (y
k
)
2
+ (3.4)
Desde que
_
(x
k
, y
k
)
_
L
f
(c), tenemos tambien que:
_
x
k

1
2
_
2

1
4
< (x
k
)
2
+ (y
k
) < (x
k
)
2
+ (y
k
) +
1
x
k
+ y
k
c (3.5)
Entonces
_
x
k
_
es acotado y por la ecuacion (3.4), (y
k
)
2
+, cuando k +, luego
se tiene que y
k
+, cuando k + (si y
k
, de la condicion x
k
+y
k
> 0 y de
la limitacion de x
k
se tendra que 0).
De la ecuacion (3.5) se tiene que + c, lo que es una contradiccion, entonces L
f
(c) es
acotado.
Probemos que L
f
(c) es cerrado.
Por contradiccion, supongamos que L
f
(c) no es cerrado, entonces existe
_
(x
k
, y
k
)
_
L
f
(c) : (x
k
, y
k
) (x, y)

XX.
As x + y = 0. Usando nuevamente la ecuacion (3.5) se tiene (x
k
)
2
+ (y
k
) +
1
x
k
+y
k
c.
Tomando lmite tenemos que + c, lo que es una contradiccion.
De ambos resultados concluimos que L
f
(c) es compacto y como f es continua en X
entonces existe un mnimo global.
Ejercicio 3.2 Diga si la funcion f(x
1
, x
2
) = x
4
1
+ x
4
2
32x
2
2
es o no es coerciva.
Solucion. La funcion f puede ser expresada como f(x
1
, x
2
) = x
4
1
+ (x
2
2
16)
2
16
2
.
Probaremos que f es coerciva. Para ello sea (x
k
1
, x
k
2
) una sucesion tal que
lim
k
[[(x
k
1
, x
k
2
)[[ = +.
De aqu se tiene que lim
k
[x
k
1
[ = + o lim
k
[x
k
2
[ = +.
43
Si lim
k
[x
k
1
[ = +y como f(x
1
, x
2
) x
4
1
16
2
, se tiene que lim
k
f(x
k
1
, x
k
2
) = +
Si lim
k
[x
k
2
[ = +y como f(x
1
, x
2
) (x
2
2
16)
2
16
2
, se tiene que lim
k
f(x
k
1
, x
k
2
) =
+.
As queda probado que la funcion f es coerciva.
Ejercicio 3.3 Vericar si las siguientes funciones son o no coercivas:
a) f(x
1
, x
2
, x
3
) = x
6
1
+ 5x
4
2
+x
3
3x
1
x
2
x
2
3
.
b) f(x
1
, x
2
, x
3
) = e
x
2
1
+ e
x
2
2
+ e
x
2
3
x
100
1
x
100
2
x
100
3
.
Solucion.
a) La funcion f(x
1
, x
2
, x
3
) = x
6
1
+ 5x
4
2
+x
3
3x
1
x
2
x
2
3
, no es coerciva.
En efecto, tome la sucesion x
k
, donde x
k
= (0, 0, k), entonces tenemos que
[[x
k
[[ + pero lim
k+
f(x
k
) = lim
k+
k = .
b) La funcion f(x
1
, x
2
, x
3
) = e
x
2
1
+ e
x
2
2
+ e
x
2
3
x
100
1
x
100
2
x
100
3
es coerciva desde que
lim
r+
e
r
2
r
100
= +.
Ejercicio 3.4 Sean X
1
y X
2
subconjuntos de R
n
tales que X
2
X
1
y f : R
n
R una
funcion dada, pruebe que inf
xX
1
f(x) inf
xX
2
f(x). Ademas, si x es un minimizador
de f sobre X
1
tal que x X
2
entonces x es un minimizador de X
2
.
Solucion. Si f no es acotada inferiormente en X
1
entonces inf
xX
1
f(x) = inf
xX
2
f(x)
y el ejercicio queda probado.
Sea f acotada inferiormente en X
1
entonces existe el nmo de f en concescuencia
inf
xX
1
f(x) := m f(x), para todo x X
1
. Como X
1
X
2
, en particular tenemos:
m f(x), para todo x X
2
, de aqu, f es acotada inferiormente en X
2
y as existe el
nmo de f en X
2
y m inf
xX
2
f(x). Sustituyendo el valor de m se obtiene
inf
xX
1
f(x) inf
xX
2
f(x).
Si x es minimizador de f sobre X
1
, entonces f( x) f(x) para todo x X
1
. En particular
se tiene f( x) f(x), para todo x X
2
, luego, como por hipotesis x X
2
se tiene que
este punto es un minimizador de f sobre X
2
.
44
Ejercicio 3.5 Supongamos que el problema de minimizacion irrestricta de una funci on
continua en R
n
tiene un mnimo global. Responder si eso implica que f tiene un mini-
mizador global sobre cualquier conjunto cerrado de R
n
. Si no lo fuera dar un contraejem-
plo.
Solucion. No implica. En efecto, considere la funcion:
f(x) =
_
_
_
e
x
, x (, 0];
(1 x)
2
, x (0, +)
f es continua en R y tiene un minimizador global en x = 1. Considerando el conjunto
cerrado (, 0] (pues el complemento (0, +) es abierto) se tiene que f no tiene mnimo
(, 0].
Ejercicio 3.6 Sea f : R
n
R continua. Pruebe que x es un minimizador global de f
en R
n
si y s olo si todo x R
n
tal que f(x) = f( x) es un minimizador local.
Solucion.
Si x es un minimizador global de f entonces todo x tal que f(x) = f( x) es un minimizador
global y por lo tanto local.
Supongamos ahora que todo x R
n
tal que f(x) = f( x) es un minimizador local.
Probaremos que x es un minimizador global. Por contradiccion, supongamos que existe
R
n
tal que f() < f( x) y 0 < f( x) f() tomando = (f( x) f())/2 y usando la
denicion de continuidad de f en , existe > 0 tal que, para todo x B(, ) se tiene:
[f(x) f()[ <
f( x) f()
2
.
Tomando x B(, ) tal que f(x) = f( x) entonces tenemos [f(x) f()[ <
f( x)f()
2
, lo
que es una contradiccion.
Ejercicio 3.7 Sea f una funcion continua y limitada inferiormente. Seja u un min-
imizador de f, esto es, f(u) inf
xR
nf(x) + Dado > 0 considere g(x) := f(x) +

|x u|. Muestre que la funcion g tiene un minimizador irrestrito y que si v es un


minimizador irrestricto entonces:
_

_
f(v) f(u)
|v u|
f(v) f(x) +

|x u|, para todo x R


n
.
45
Solucion.
i. Probaremos que g tiene un mnimo global. Para ello, debido a la continuidad de g,
es suciente probar que g es coerciva (ver Corolario 3.4). Sabemos que:
inf
xR
n
f(x) +

|x|

|u| inf
xR
n
f(x) +

|x u| f(x) +

|x u|
Como

|x u| es coerciva tenemos que, si |x| + entonces:


inf
xR
n
f(x) +

(|x| |u|) +
As, g(x) +. Luego g es coerciva.
ii. Si v es un minimizador de g entonces g(v) g(x), para todo x R
n
. En particular
tomando x = u resulta f(v) +|v u| f(u) y as f(v) f(u).
iii. Como f(v) +|v u| f(u) y por hipotesis f(u) inf
xR
n
f(x) + , se tiene que:
f(v) +

|v u| f(u) inf
xR
n
f(x) + f(v) + ,
lo que implica que |v u| .
iv. Como v es un minimizador irrestricto de g, entonces:
f(v) +

|v u| f(x) +

|x u|
f(x) +

|x v| +

|x v|.
De la desigualdad anterior obtenemos que f(v) f(x) +

|x u|, para todo


x R
n
.
Ejercicio 3.8 Sea f : R
n
R una funcion dada. Pruebe que f es semicontinua inferior
en R
n
si y s olo si, L
f
() = x R
n
: f(x) es cerrado para todo R.
Solucion. Probemos inicialmente que si f es semicontinua inferior en R
n
, entonces
L
f
() = x R : f(x) es cerrado para todo R. Sea x L
f
(), entonces existe
una sucesion x
k
L
f
() tal que x
k
x, k + y como f es s.c.i entonces:
f(x) liminf
k
f(x
k
). (3.6)
46
Ya que x
k
L
f
() entonces f(x
k
) , luego tomando limite inferior tenemos
liminf
k
f(x
k
) liminf
k
= ,
esto es,
liminf
k
f(x
k
) . (3.7)
Ahora de (3.6) y (3.7) concluimos que f(x) y as, x L
f
(). Por lo tanto, L
f
() es
cerrado.
Reciprocamente, si L
f
() = x R
n
: f(x) es cerrado para todo R, probaremos
que f es semicontinua inferior en R
n
.
Por contradiccion, supongamos que existe una sucesion x
k
que satisface x
k
x y
f(x) > liminf
k
f(x
k
), entonces existe R tal que:
f(x) > > liminf
k
f(x
k
). (3.8)
De aqu se deduce que > liminf
k
f(x
k
) := sup
nIN
_
inf
kn
f(x
k
)
_
, pero esto im-
plica que > inf
kn
f(x
k
), para todo n IN, y en consecuencia > inf
kn
f(x
k
), para
todo n IN.
As existe una subsucesion x
k
l
de x
k
tal que f(x
k
l
) . De aqu,
x
k
l
L
f
() y x
k
l
x.
Ademas, como L
f
() es cerrado se tiene que x L
f
() y as f(x) . De lo anterior
y de (3.8) tenemos que f(x) > f(x), lo que es una contradiccion. Por lo tanto f es
semicontinua inferior.
Ejercicio 3.9 Estudie la coercividad de la funcion f(x) = a
T
x, donde a R
n
.
Solucion. estudiaremos dos casos:
i) Si a = 0, entonces la funcion es f(x) = 0, para todo x R
n
y as esta no es coerciva.
ii) Si a ,= 0, entonces existe i
0
1, 2, ..., n tal que a
i
0
,= 0. Sin perdida de generalidad,
supongamos que a
i
0
> 0, entonces podemos denir la sucesion x
k
, tal que x
k
=
47
(0, 0, ..., k, 0, ..., 0), donde el valor de k corresponde a la componente i
0
, y obtener
que [[x
k
[[ +. Luego, se tiene que
lim
k+
f(x
k
) = lim
k+
a
T
x
k
= lim
k+
a
i
0
k = .
De ambos casos, concluimos que la funcion f no es coerciva.
Ejercicio 3.10 Estudie la coercividad de f(x) = a
T
x + [[x[[
2
, donde > 0 y x R
n
Solucion. Por la desigualdad de Cauchy-Schwartz se tiene que f(x) ([[x[[ [[a[[)[[x[[.
Sea x
k
una sucesion tal que lim
k
[[x
k
[[ = +. De aqu y de la desigualdad anterior
se tiene que lim
k
f(x
k
) = +.
3.5 Ejercicios Propuestos
1. El problema de la cartera de inversion del Ejemplo 2.4 consiste en resolver
min
_
f(x) :
n

i=1
x
i
= 1, G
n

i=1
x
i
R
i
, 0 x
i
S
i
_
,
donde f(x) = f(x
1
, ..., x
n
) =

n
i=1
x
2
i

2
i
+ 2

n1
i=1

n
j=i+1
x
i
x
j

ij
. Vericar si el
problema tiene solucion.
2. El problema de transporte del Ejemplo 2.7 consiste en resolver:
min
_
n

j=1
n

i=1
c
ij
x
ij
:
n

j=1
x
ij
= a
i
,
m

i=1
x
ij
= b
j
, x
ij
0
_
.
Vericar si el problema tiene solucion.
3. Considere el problema:
opt
_
x
T
Ax : |x| = 1
_
.
Vericar si el problema tiene maximos y mnimos.
4. Estudie la existencia de soluciones del problema:
min
_
f(x
1
, x
2
) = ln(x
2
1
+ x
2
2
) : (x
1
, x
2
) R
2
_
.
48
5. Una empresa produce dos bienes en competencia perfecta, siendo p
1
y p
2
sus precios
respectivamente. La funcion de costo de la empresa biene dado por:
c(x
1
, x
2
) = 2x
2
1
+ x
1
x
2
+ 2x
2
2
,
donde x
1
, x
2
son las cantidades producidas por el bien 1 y 2 respectivamente. El
objetivo es maximizar la funcion benecio:
b(x
1
, x
2
) = Ingresos Costos = (p
1
x
1
+ p
2
x
2
) (2x
2
1
+ x
1
x
2
+ 2x
2
2
).
As el problema de optimizacion es
maxf(x
1
, x
2
) = (p
1
x
1
+ p
2
x
2
) (2x
2
1
+ x
1
x
2
+ 2x
2
2
) ; x
1
0, x
2
0.
Analizar si el problema tiene solucion.
6. Se quiere construir una cisterna metalica abierta para agua, con un triangulo
rectangulo como base y lados verticales. Si el volumen de la cisterna debe ser
de 2m
3
, obtener el problema de optimizacion tal que la cisterna tenga la menor
area. El problema tiene solucion?
49
Captulo 4
Condiciones de Optimalidad de
Problemas Diferenciables
4.1 Problemas sin Restricciones
Apesar de que en la practica la gran mayoria de problemas de optimizacion son restric-
tos, el estudio de tecnicas para optimizacion irrestricta es importante por varias razones,
una de ellas es que la mayora de algoritmos resuelven problemas restrictos transfor-
mandolos en una sucesion de problemas irrestrictos, la segunda es que las tecnicas de
optimizacion irrestricta pueden ser extendidas de manera natural para resolver proble-
mas con restricciones.
En esta seccion consideraremos el problema irrestricto de optimizacion
minf(x) : x R
n
(4.1)
donde f es una funcion denida en el espacio euclidiano R
n
.
Teorema 4.1 (Condicion Necesaria de Primer Orden) Sea f : R
n
R una funci on
diferenciable en x

. Si x

es un punto de mnimo local del problema (4.1), entonces


f(x

) = 0.
Demostracion. Supongamos que d = f(x

) ,= 0. Denamos h(t) = f(x(t)), donde


50
x(t) = x

td. Ya que f es diferenciable en x

se tiene que h es diferenciable en 0 y


h(t) = h(0) +th

(0) +o(t),
donde lim
t0
o(t)
t
= 0. Como x

es un mnimo local de f, entonces t

= 0 es mnimo
local de h, as, existe > 0 tal que h(t) h(0) 0, para todo t (, ). Usando
este resultado en la ecuacion anterior, obtenemos h

(0) +
o(t)
t
0, para todo t (0, ).
Tomando lmite cuando t converge para cero se obtiene que h

(0) 0. Usando la regla de


la cadena concluimos que, 0 > |f(x

)|
2
= f(x

)
T
d 0, implicando que 0 > 0,
lo que es una contradiccion. Por lo tanto obtenemos el resultado deseado.
Ejemplo 4.1 Sea f : R
2
R tal que f(x
1
, x
2
) = x
2
1
+ x
2
2
, el punto x

= (0, 0) es un
mnimo global y cumple f(x

) = 0.
Observacion 4.1 La condici on f(x) = 0 es necesaria pero no suciente para carac-
terizar mnimos de f pues existen funciones donde el gradiente de la funci on se anula en
alg un punto sin embargo tal punto no es un mnimo global ni local. En efecto, considere
la funcion f(x
1
, x
2
) = x
2
1
x
2
2
, el punto x = (0, 0) cumple f( x) = 0 pero este no es
mnimo global ni local ya que en cualquier vecindad de x la funcion f toma valores may-
ores y menores que 0 = f(0, 0) (ver Figura 4.1). Para otro ejemplo, considere la funci on
f(x
1
, x
2
) = x
2
1
x
2
2
, el punto x

= (0, 0) satisface la condici on f(x

) = 0 pero x

no
es un mnimo (es maximo global).
Denicion 4.1 Dado f : R
n
R, un punto x R
n
es llamado punto crtico o esta-
cionario si f( x) = 0.
Observacion 4.2 Del Teorema 4.1 concluimos que los candidatos a mnimos del pro-
blema irrestricto se obtienen resolviendo el sistema f(x) = 0.
Teorema 4.2 (Condicion Necesaria de Segundo Orden) Sea f : R
n
R una
funcion dos veces diferenciable en x

. Si x

es un punto de mnimo local del problema


(4.1), entonces f(x

) = 0 y
2
f(x

) es semidenida positiva.
51
x
3
x
2
x
1
f(x
1
, x
2
) = x
2
1
x
2
1
Figura 4.1: El punto x = (0, 0) satisface f( x) = 0 pero no es mnimo ni maximo.
Demostracion. Que f(x

) = 0 es consecuencia del Teorema 4.1, por eso solo probare-


mos que para todo d R
n
:
d
T

2
f(x

)d 0.
La desigualdad es obvia si d = 0. Por eso, sea d ,= 0 y denamos h(t) = f(x(t)), donde
x(t) = x

td. Ya que f es dos veces diferenciable en x

, tenemos que h es dos veces


diferenciable en 0 y por la aproximacion de Taylor de segundo orden tenemos
h(t) = h(0) +th

(0) +
t
2
2
h

(0) +o(t
2
),
donde lim
t0
o(t
2
)
t
2
= 0. Como x

es un mnimo local, t

= 0 es mnimo local de h, as,


existe > 0 tal que h(t) h(0) 0, para todo t (, ). Usando este resultado en la
ecuacion anterior resulta
th

(0) +
t
2
2
h

(0) +o(t
2
) 0, para todo t (, ).
Como h

(0) = f(x

)
T
d = 0 y h

(0) = d
T

2
f(x

)d, tenemos que


d
T

2
f(x

)d + 2
o(t
2
)
t
2
0, para todo t (0, ).
Tomando lmite cuando t converge para cero tenemos el resultado deseado.
Ejemplo 4.2 Apliquemos el resultado del teorema anterior a la funci on f(x
1
, x
2
) =
x
2
1
x
2
2
. El punto x = (0, 0) cumple f( x) = 0 sin embargo la hessiana
2
f(x

) no es
52
semidenida positiva, por lo tanto usando el Teorema 4.2 tenemos que x no es un punto
de mnimo local.
Observacion 4.3 La condicion dada en el Teorema 4.2 es s olo necesaria y no suciente.
En efecto, considere la funcion f(x) = x
3
, el punto x = 0 satisface f

( x) = 0 y
f

( x) = 0 0 pero no es mnimo local y por lo tanto tampoco es mnimo global.


Para dar una condicion suciente de mnimo local necesitamos la siguiente denicion.
Denicion 4.2 (Mnimo local estricto) Sea f : R
n
R una funci on. Un punto
x R
n
es un punto de mnimo local estricto de f si existe > 0 tal que f( x) < f(x),
para todo x B( x, ), x ,= x.
Teorema 4.3 (Condicion Suciente de Segundo Orden) Sea f : R
n
R una
funcion dos veces diferenciable en x

. Si f(x

) = 0 y
2
f(x

) es denida positiva
entonces, x

es un punto de mnimo local estricto del problema (4.1).


Demostracion. Por contradiccion, supongamos que x

no es un punto de mnimo local


estricto, entonces existe una susecion x
k
, x
k
,= x

, tal que x
k
x

y f(x
k
) f(x

),
para todo k IN. De la aproximacion de Taylor de segundo orden y de la desigualdad
anterior tenemos
0 f(x
k
) f(x

) = f(x

)
T
(x
k
x

) +
1
2
(x
k
x

)
T

2
f(x

)(x
k
x

) +o(|x
k
x

|
2
),
donde lim
x
k
x

o(x
k
x

2
)
x
k
x

2
= 0. Usando la primera hipotesis del teorema (f(x

) = 0) y
dividiendo por |x
k
x

|
2
tenemos
0
1
2
_
x
k
x

|x
k
x

|
_
T

2
f(x

)
_
x
k
x

|x
k
x

|
_
+
o(|x
k
x

|
2
)
|x
k
x

|
2
. (4.2)
Observemos que la sucesion
d
k
=
_
x
k
x

|x
k
x

|
_
es acotada, de aqu existe una subsucesion d
k
j
que converge a un punto z ,= 0. Tomando
en particular k = k
j
en (4.12) y haciendo tender j + tenemos
0 z
T

2
f(x

)z,
lo que contradice la segunda hipotesis del teorema.
53
Ejemplo 4.3 Consideremos el problema
minf(x
1
, x
2
) = x
2
1
+ x
1
x
2
+
3
2
x
2
2
2x
1
x
2
+ 2 : (x
1
, x
2
) R
2
.
Para hallar los puntos de mnimo usaremos las condiciones de primer y segundo orden.
Usando la condici on de primer orden tenemos
2x
1
+ x
2
= 2
x
1
+ 3x
2
= 1.
Puede vericarse facilmente que x
1
= 1 y x
2
= 0 resuelven el sistema lineal, as x

= (1, 0)
es el unico candidato a solucion del problema. La matriz hessiana de f es

2
f(x
1
, x
2
) =
_
_
2 1
1 3
_
_
la cual es simetrica y denida positiva para todo (x
1
, x
2
) R
2
, en particular para
x

= (1, 0), luego usando el Teorema 4.3 obtenemos que x

es un mnimo local estricto.


Por otro lado, podemos garantizar tambien que x

es un mnimo global ( unico). En


efecto, la funcion objetivo f puede ser expresado como
f(x
1
, x
2
) =
1
2
x
T
Ax b
T
x + c,
donde
A =
_
_
2 1
1 3
_
_
, b =
_
_
2
1
_
_
, c = 2.
Visto que la matriz A es simetrica y denida positiva, usando el Ejemplo 3.7, obtenemos
que x

es un mnimo global.
Ejemplo 4.4 Considere el problema
minf(x
1
, x
2
) =
x
3
1
3
+
x
2
1
2
+
x
2
2
2
: (x
1
, x
2
) R
2
.
Usando la condici on necesaria de primer orden tenemos
f
x
1
= x
2
1
+ x
1
= 0
f
x
1
= x
2
= 0.
54
Luego los candidatos a solucion son (0, 0) y (1, 0). Usaremos ahora la condici on de
segundo orden. La matriz hessiana de f es

2
f(x
1
, x
2
) =
_
_
2x
1
+ 1 0
0 1
_
_
.
Evaluando en los puntos candidatos a solucion tenemos:

2
f(0, 0) =
_
_
1 0
0 1
_
_
0, entonces por el Teorema 4.3, x

= (0, 0) es un mnimo
local estricto.

2
f(1, 0) =
_
_
1 0
0 1
_
_
0 entonces por el Teorema 4.2, x

= (1, 0) no es
un mnimo local y por lo tanto no es mnimo global.
Observacion 4.4 El recproco del teorema anterior es falso. En efecto, considere por
ejemplo f(x) = x
4
y x = 0. El punto x es un mnimo global estricto de f pero f

( x) = 0.
Observacion 4.5 Consideremos ahora el problema de maximizaci on
maxf(x) : x R
n
.
Como vimos anteriormente este problema es equivalente a
minf(x) : x R
n
.
Usando los resultados obtenidos para el problema de minimizacion tenemos que las condi-
ciones para el problema de maximizaci on son:
1. Condici on necesaria de primer orden: si f : R
n
R es diferenciable en un punto
de maximo local x

, entonces f(x

) = 0.
2. Condici on necesaria de segundo orden: si f : R
n
R es dos veces diferenciable en
un punto de maximo local x

, entonces
2
f(x

) _ 0.
3. Condici on suciente de segundo orden: si el punto x satiface f( x) = 0 y tambien

2
f( x) 0, entonces, x es un punto de maximo local estricto de f.
55
4.2 Restricciones Arbitrarias
Consideremos el problema de optimizacion
minf(x) : x X (4.3)
donde f : X R
n
R. Dado una funcion : R R
n
denotamos C
k
[a, b], si
existe un intervalo abierto U de R tal que [a, b] U y C
k
(U).
Denicion 4.3 Dado x

X, llamamos una curva en X de clase C


k
partiendo de x

a
una funcion : [0, ] X, tal que (0) = x

y C
k
[0, ].
Teorema 4.4 (Condicion Necesaria de Primer Orden) Si x

X es un minimizador
local de (4.3), : [0, ] R
n
es una curva en X de clase C
1
partiendo de x

y f es
diferenciable en x

, entonces f(x

)
T

(0) 0.
Demostracion. Denamos la funcion : [0, ] R tal que (t) = f((t)). Como x

es un minimizador local, existe > 0 tal que


f(x

) f(x), para todo x B(x

, ) X. (4.4)
Por la conexidad de la bola, existe
1
(0, ) tal que (t) B(x

, ) X, para todo
t [0,
1
]. As, de (4.4) tenemos que (0) (t), para todo t [0,
1
). En particular,
(0) (t), para todo t (0,
1
). Luego,
(t)(0)
t
0, para todo t (0,
1
). Como es
derivable en cero tomando lmite cuando t va para cero y usando la regla de la cadena
tenemos f(x

)
T

(0) =

(0) 0.
Corolario 4.1 Si x

es un punto interior de X tal que x

es un minimizador local de
(4.3) y f es diferenciable en x

, entonces f(x

) = 0.
Prueba. Por contradiccion, supongamos que f(x

) ,= 0. Como x

es un punto interior,
existe > 0 tal que B(x

, ) X. Sea
1
= /(2 |f(x

)|) y deniendo : [0,


1
] R
n
tal que (t) = x

tf(x

), tenemos que (0) = x

(0) = f(x

) y (t) B(x

, )
X. As, es una curva en X de clase C
1
pasando por x

y como x

es un mnimo local
entonces por el Teorema 4.4 tenemos f(x

)
T
f(x

) 0. Esto implica que


0 f(x

)
T
f(x

) = |f(x

)|
2
< 0,
56
lo que es una contradiccion. Por lo tanto obtenemos el resultado deseado.
Ejemplo 4.5 Considere el problema minf(x) : x > 0 donde f : R
n
R es diferencia-
ble en R
n
. Por la caracterstica del problema el punto de mnimo local o global, si existe,
es un punto interior de R
n
++
, entonces por Corolario 4.1 la condici on de primer orden es
f(x

) = 0.
Observacion 4.6 Si el punto de mnimo local no es un punto interior, el resultado del
Corolario 4.1 puede ser falso. En efecto, considere por ejemplo la funci on f(x) = (x+2)
2
y X = [0, 1], el punto x

= 0 es un mnimo global (no es un punto interior de X) y


f

(0) = 4 ,= 0.
Observacion 4.7 La condici on del Corolario 4.1 no es suciente. En efecto, considere
la funcion f(x) = x
3
y X = [1, 1]. El punto x

= 0 pertenece al interior de X y
satisface f

(0) = 0 pero no es un mnimo local.


Teorema 4.5 (Condicion Necesaria de Segundo Orden) Sea x

un minimizador
local de (4.3) y f dos veces diferenciable en x

.
1. Para cada curva : [0, ] X de clase C
1
partiendo de x

se obtiene
f(x

)
T

(0) =

(0) 0,
donde (t) = f((t)).
2. Si : [0, ] X es una curva en X de clase C
2
partiendo de x

(0) = 0,
entonces

(0) 0.
Demostracion. El item 1 es dado por el Teorema 4.4.
Probaremos el item 2. Cuando

(0) = 0 tenemos por el desarrollo de Taylor


(t) = (0) +
1
2

(0)t
2
+ o(t
2
),
donde lim
t0
o(t
2
)
t
2
= 0. Como x

es un minimizador local existe


1
(0, ) tal que
(t) (0) =
1
2

(0)t
2
+ o(t
2
) 0, para todo t (0,
1
).
Dividiendo por t
2
y tomando lmite cuando t va para cero tenemos nuestro resultado.
57
Denicion 4.4 Dado x

X, diremos que es una curva en X de clase C


k
pasando
por x

si : [, ] X, > 0, (0) = x

y C
k
[, ].
Lema 4.1 Si x

X es un minimizador local de (4.3), es una curva en X de clase


C
1
pasando por x

y f diferenciable en x

, entonces f(x

)
T

(0) = 0.
Prueba. Denamos las siguientes curvas
1
: [0, ] X y
2
: [0, ] X dadas por

1
(t) = (t) y
2
(t) = (t). As obtenemos que
1
y
2
parten de x

y como x

es un
mnimo local, usando el Teorema 4.4 tenemos
f(x

)
T

(0) = f(x

)
T

1
(0) 0,
f(x

)
T
(

(0)) = f(x

)
T

2
(0) 0.
De ambas desigualdades obtenemos el resultado deseado.
Corolario 4.2 Si f es dos veces diferenciable en x

, x

es un punto interior de X y un
minimizador local de (4.3), entonces f(x

) = 0 y
2
f(x

) es semidenida positiva.
Prueba. La primera parte fue probado en el Corolario 4.1, probaremos la segunda
parte. Como x

es un punto interior de X, existe > 0 tal que B(x

, ) X. Sea
d R
n
(arbitrario) diferente de cero y denamos la curva :
_

2d
,

2d
_
R
n
tal que
(t) = x

+td. Tenemos que es una curva de clase C


1
pasando por x

y que (t) X.
Por el lema 4.1 tenemos que

(0) = f(x

)
T
d = 0, donde (t) = f((t)). Usando ahora
el Teorema 4.5 tenemos que d
T

2
f(x

)d =

(0)
2
f(x

(0) =

(0) 0, esto es lo que


deseabamos probar.
Observacion 4.8 El recproco del Corolario 4.2 es falso. En efecto, considere la funci on
f(x) = x
3
y X = (1, 1), el punto x

= 0 satisface f

(0) = 0 y f

(0) = 0 0, pero no
es un punto de mnimo local.
Denicion 4.5 (Mnimo local estricto) Sea f : X R
n
R una funci on. Un
punto x R
n
es un mnimo local estricto de f sobre X si existe > 0 tal que f( x) < f(x),
para todo x B( x, ) X, x ,= x.
58
Teorema 4.6 (Condicion Suciente de Segundo Orden) Si f : X R es una
funcion dos veces diferenciable en un punto interior x

de X, tal que f(x

) = 0 y

2
f(x

) es denida positiva, entonces x

es un minimizador local estricto del problema


(4.3).
Demostracion. Analogo al caso irrestricto.
Observacion 4.9 El recproco del teorema anterior es falso. En efecto, considere la
funcion f(x) = x
4
y X = (2, 2), el punto x

= 0 es un punto interior de mnimo global


estricto sin embargo se tiene que f

(0) = 0 no es positivo.
Observacion 4.10 Consideremos el siguiente problema
minf(x) : x U,
donde U es un conjunto abierto de R
n
. Usando los corolarios anteriores tenemos las
siguientes condiciones de optimalidad para problemas restrictos a conjuntos abiertos:
1. Condici on necesaria de primer orden sobre abiertos: si x

es un mnimo local de f
en U y f es diferenciable en x

entonces f(x

) = 0.
2. Condici on necesaria de segundo orden sobre abiertos: si x

es un mnimo local de
f en U y f es dos veces diferenciable en x

, entonces
2
f(x

) _ 0.
3. Condici on suciente de segundo orden sobre abiertos: si el punto x U satiface
f( x) = 0 y
2
f( x) 0, entonces, x es un punto de mnimo local estricto de f
sobre U.
Concluimos que las condiciones de optimalidad de problemas restrictos sobre conjuntos
abiertos son identicas a las condiciones de optimalidad de problemas sin restricciones.
4.3 Restricciones de Igualdad
Consideremos el problema de optimizacion con restricciones de igualdad
(p) minf(x) : h(x) = 0
59
donde h : R
n
R
m
es una funcion tal que h(x) = (h
1
(x), h
2
(x), . . . , h
m
(x)), con h
i
:
R
n
R. Poniendo en el formato general tenemos que X = x R
n
: h(x) = 0.
Denicion 4.6 Sea x X, llamamos conjunto tangente a X en el punto x (denotado
por T
x
X) al conjunto de los vectores tangentes a las curvas en X pasando por x, es decir,
T
x
X = v R
n
: existe : [, ] X, C

([, ]) tal que (0) = x y

(0) = v
T
x
X
X

0
x = (0)
(0) = v
(t)
Figura 4.2: Graco del conjunto tangente de X.
Usaremos la siguiente notacion
h

(x) =
_

_
h
1
x
1
(x)
h
1
x
2
(x) . . .
h
1
x
n
(x)
h
2
x
1
(x)
h
2
x
2
(x) . . .
h
2
x
n
(x)
.
.
.
.
.
.
.
.
.
.
.
.
h
m
x
1
(x)
h
m
x
2
(x) . . .
h
m
x
n
(x)
_

_
=
_

_
h
1
(x)
T
h
2
(x)
T
.
.
.
h
m
(x)
T
_

_
,
donde h
i
(x)
T
denota la transpuesta del vector columna h
i
(x).
Podemos relacionar T
x
X con el n ucleo del Jacobiano de h, denotado por Ker(h

(x)).
Lema 4.2 Para todo x X, T
x
(X) Ker(h

(x)).
Prueba. Sea v T
x
X, entonces existe : [, ] X tal que (0) = x y

(0) = v.
Como (t) X, para todo t [, ], entonces, h((t)) = 0. Derivando usando la regla
de la cadena, tenemos que h

((t))

(t) = 0. Evaluando en t = 0 y usando

(0) = v
tenemos que h

(x)v = 0. As, v Ker(h

(x)).
60
Observacion 4.11 El recproco del lema anterior no es verdadero. En efecto, consider-
emos por ejemplo h(x
1
, x
2
) = x
1
x
2
, entonces X = (x
1
, x
2
) R
2
: h(x
1
, x
2
) = x
1
x
2
= 0.
Tomando x = (0, 0) se tiene T
(0,0)
X = (v
1
, v
2
) R
2
: v
1
v
2
= 0. En efecto, sea v
T
(0,0)
X entonces existe : [, ] X tal que (0) = (0, 0) y

(0) = v. De aqu se
tiene que
1
(t)
2
(t) = 0, para todo [, ]. Lo anterior implica

1
(t) = 0 o

2
(t) = 0,
para todo t (, ).
Tomando en particular para t = 0 obtenemos

1
(0)

2
(0) = v
1
v
2
= 0, es decir que

1
(0)

2
(0) = 0. Recprocamente, sea v = (v
1
, v
2
) R
2
tal que v
1
v
2
= 0. Dado > 0 de-
namos : [, ] R
2
: (t) = (0, 0) +t(v
1
, v
2
), entonces (0) = (0, 0),

(0) = (v
1
, v
2
)
y
1
(t)
2
(t) = (tv
1
)(tv
2
) = 0. As, (t) X y por lo tanto v = (v
1
, v
2
) T
(0,0)
X.
Por otro lado, Ker(h

((0, 0))) = (v
1
, v
2
) R
2
: 0v
1
+ 0v
2
= 0 = R
2
. As obtenemos
que Ker(h

((0, 0))) , T
(0,0)
X.
Para tener la igualdad necesitamos introducir algunas hipotesis sobre h.
Denicion 4.7 Decimos que x X = x R
n
: h(x) = 0 es un punto regular, si el
rango de h

(x) es igual a m (h
1
(x), . . . , h
m
(x) es linealmente independiente).
Lema 4.3 Sea A R
mn
, m < n, con rango m entonces, AA
T
es invertible.
Prueba. Sea v = (v
1
, v
2
, . . . v
n
) R
m
tal que (AA
T
)v = 0, probaremos que v =
0. Como (AA
T
)v = 0, entonces A
T
v Ker(A). Usando el resultado (de

Algebra
Lineal) Ker(A) = (Im(A
T
))

, tenemos A
T
v
_
Im(A
T
)
_

. Luego, obtenemos que


(A
T
v)
T
(A
T
v) = 0. Denotando A como sigue
A =
_

_
A
T
1
A
T
2
.
.
.
A
T
m
_

_
,
tenemos que A
T
v = v
1
A
1
+ v
2
A
2
+ . . . + A
m
v
m
= 0. Como A
1
, . . . , A
m
son linealmente
independientes se tiene que v = 0.
Teorema 4.7 Sean X = x R
n
: h(x) = 0, h C
k
(R
n
), x X un punto regular,
entonces T
x
X = Ker(h

(x)).
61
Demostracion. La inclusion T
x
X Ker(h

(x)) (sin la hipotesis de punto regular)


fue probado en el lema 4.2. Probaremos ahora la otra inclusion. Sea v Ker(h

(x)),
entonces
h

(x)v = 0. (4.5)
Consideremos el siguiente sistema de ecuaciones (en general no lineal)
(t, u) = h(x + tv + h

(x)
T
u) = 0
Para x y v jos, este sistema es de m ecuaciones y m + 1 incognitas y cumplen las
siguientes condiciones
i)
i
C
k
(R R
m
), i = 1, . . . , m, donde
i
(t, u) = h
i
(x + tv +h

(x)
T
u).
ii) Tomando (

t, u) = (0, ), donde denota el vector nulo, tenemos que


(0, ) = h(x) = 0
iii) La matriz Jacobiana de (con respecto a u) evaluado en el punto (0, ) es

(0, ) = h

(x)h

(x)
T
,
el cual es no singular ya que h

(x) tiene rango m (ver Lema 4.3).


Luego por el teorema de la funcion implcita (ver Teorema 1.6), existe C
k
denido
en [, ] tal que (0) = , y (t) = (t, (t)) = h
_
x + tv + h

(x)
T
(t)
_
= 0, para todo
t [, ].
Derivando y evaluando en t = 0, tenemos

(0) = h

(x)(v + h

(x)
T

(0)) = 0. Usando
(4.5), la ecuacion anterior se reduce a h

(0) = (h

(x)h

(x)
T
)

(0) = 0. Como h

(x)h

(x)
T
es invertible se tiene que

(0) = . Ahora denamos : [, ] R


n
tal que (t) =
x+tv +h

(x)
T
(t). De la denicion anterior tenemos que (0) = x, (t) X y

(0) = v.
As, v T
x
X y de esta manera Ker(h

(x)) T
x
X, por lo tanto se obtiene el resultado.
Teorema 4.8 Si x

es un minimizador local regular del problema


minf(x) : h(x) = 0,
entonces f(x

)Ker(h

(x

)).
62
Demostracion. Sea v Ker(h

(x

)) (arbitrario). Como x

es un punto regular, por


Teorema 4.7 tenemos que v T
x
X y as existe : [, ] X tal que (0) =
x

(0) = v. Aplicando el Lema 4.1 tenemos f(x

)
T
v = 0. As obtenemos que
f(x

)Ker(h

(x

)).
Denicion 4.8 Considere el problema con restricciones de igualdad
(p) minf(x) : h(x) = 0.
Denimos la funcion de Lagrange o funcion Lagrangeana, con respecto al problema (p),
como L : R
n
R
m
R dado por L(x, ) = f(x) +

m
i=1

i
h
i
(x), donde
1
, . . . ,
m
R
son llamados multiplicadores de Lagrange.
Denotaremos

x
L(x, ) = f(x) +
m

i=1

i
h
i
(x)

2
xx
L(x, ) =
2
f(x) +
m

i=1

2
h
i
(x)
Teorema 4.9 (Condicion Necesaria de Lagrange) Si x

R
n
es un mnimo local
regular del problema (p), entonces existen unicos

1
,

2
, . . . ,

m
R tal que
x
L(x

) =
0.
Demostracion. Probemos la existencia de los multiplicadores de Lagrange. Como x

es un mnimo local regular, por el Teorema 4.8 obtenemos f(x

)Ker(h

(x

)). Del re-


sultado de

Algebra Lineal, Ker(h

(x

)) = (Imh

(x

)
T
)

, tenemos f(x

) Imh

(x

)
T
.
Luego existen

1
,

2
, . . . ,

m
R tal que
f(x

) = h

(x

)
T

=
m

i=1
h
i
(x

i
. (4.6)
Deniendo

i
=

i
, para todo i = 1, 2 . . . , m, obtenemos
x
L(x

) = f(x

) +

m
i=1

i
h
i
(x

) = 0. Ahora probaremos la unicidad. Supongamos que existe otro vector

,=

tal que
f(x

) = h

(x

)
T

. (4.7)
63
De (4.6) y (4.7) tenemos h

(x

)
T
(

) = 0, esto es,

m
i=1
(

i
)h
i
(x

) = 0. Como
h
i
(x

) son linealmente independientes obtenemos que


i
=

i
para todo i = 1, . . . , n,
lo que es una contradiccion. Por lo tanto

es unico.
Observacion 4.12 Sin la hip otesis de regularidad del punto de mnimo local tambien es
posible probar la existencia de los multiplicadores de Lagrange para una clase especial de
problemas de optimizacion como veremos en el siguiente resultado.
Teorema 4.10 Si x

es un mnimo local del problema


minf(x) : Ax = b,
entonces, existen

1
,

2
, . . . ,

m
R tal que
x
L(x

) = f(x

) + A
T
= 0.
Demostracion. Sean v Ker(A) y > 0. Denamos la curva (t) = x

+ tv, con
t [, ]. Tenemos que A((t)) = A(x

+ tv) = Ax

+ tAv = b, esto es, (t) X =


x R
n
: Ax = b. Como (0) = x

(0) = v, podemos decir que es una curva que


pasa por x

de clase C
1
. As por lema 4.1, tenemos f(x

)
T
v = 0. Como v es arbitrario
entonces f(x

)Ker(A). Debido que Ker(A) = (ImA


T
)

tenemos f(x

) ImA
T
.
Luego existen
1
,
2
, . . . ,
m
R tal que f(x

) = A
T
. Deniendo

i
=
i
, para todo
los i = 1, 2 . . . , m, obtenemos
x
L(x

) = f(x

) + A
T

.
Observacion 4.13 Los resultados de los teoremas 4.10 y 4.9, nos dice que para obtener
candidatos a solucion del problema de minimizacion con restricciones de igualdad debemos
resolver el siguiente sistema (m +n) (m + n)
_

x
L(x, ) = f(x) +
m

i=1

i
h
i
(x) = 0
h(x) = 0.
Los puntos que resuelven esta ecuaci on son llamados puntos crticos o estacionarios o
candidatos a solucion del problema (p).
Ejemplo 4.6 Considere el problema minf(x
1
, x
2
) = x
2
1
+
1
2
x
2
2
: x
2
1
+x
2
2
= 1. La funci on
objetivo f es continua y el conjunto que dene las restricciones del problema es compacto,
64
as el problema tiene un mnimo global. Usando la observacion anterior hallaremos los
candidatos a solucion. La funcion Lagrangeana es L(x
1
, x
2
, ) = (x
2
1
+
1
2
x
2
2
)+(x
2
1
+x
2
2
1)
y su gradiente con respecto a las variables (x
1
, x
2
) es

x
L(x
1
, x
2
, ) =
_
_
2x
1
+ 2x
1
x
2
+ 2x
2
_
_
As, para obtener los candidatos a solucion debemos resolver el siguiente sistema
_

_
x
1
+ x
1
= 0
x
2
+ 2x
2
= 0
x
2
1
+ x
2
2
= 1.
Si x
1
,= 0 y x
2
,= 0 entonces de la primera y segunda ecuaci on, respectivamente, = 1
y =
1
2
, lo que no puede suceder, as x
1
= 0 x
2
= 0. Si x
1
= 0, entonces de la tercera
ecuaci on x
2
= 1, lo que implica que =
1
2
. Si x
2
= 0, entonces de la tercera ecuaci on
x
1
= 1, lo que implica que = 1, por lo tanto los puntos candidatos a solucion son
(0, 1), (0, 1), (1, 0), (1, 0),
donde los dos primeros puntos es con respecto al multiplicador =
1
2
y los dos ultimos
con respecto a = 1, ver Figura 4.3. Observemos tambien que estos puntos son regu-
lares, as el mnimo global es uno de estos puntos. Debido que los puntos candidatos
forman un conjunto nito podemos inmediatamente encontrar el mnimo global sim-
plemente evaluando la funcion objetivo f y comparando sus valores. En efecto, como
f(0, 1) =
1
2
, f(0, 1) =
1
2
, f(1, 0) = 1 y f(1, 0) = 1, se tiene que los puntos de mnimo
global son (0, 1) y (0, 1), ver Figura 4.4.
Teorema 4.11 Supongamos que f : R
n
R y h : R
n
R
m
son funciones dos veces
diferenciables en un minimizador local regular x

del problema (p) y

1
,

2
, . . . ,

m
R
son los multiplicadores de Lagrange dado en el Teorema 4.9, entonces v
T

2
xx
L(x

)v
0, para todo v Ker(h

(x

)).
65
(0, 1)
(1, 0)
(1, 0)
(0, 1)
Figura 4.3: Puntos candidatos a mnimo.
Demostracion. Del Teorema 4.9 tenemos que f(x

) + h

(x

)
T

= 0. Tomemos un
v Ker(h

(x

)), por el Teorema 4.7 existe una curva en X de clase C


2
pasando por
x

((0) = x

) tal que

(0) = v, as tenemos

(0) Ker(h

(x

)). Denamos ahora


(t) = f((t)). Por el Lema 4.1 se tiene

(0) = f(x

)
T

(0) = 0, luego usando el


Teorema 4.5

(0) =

(0)
T

2
f(x

(0) +f(x

)
T

(0) 0. (4.8)
Como (t) X se tiene
i
(t) :=
i

h
i
((t)) = 0. Tenemos as para todo t (, +)

i
(t) =
i

h
i
((t))
T

(t) = 0, y

i
(t) =
i

(t)
T

2
h
i
((t))

(t) +
i

h
i
((t))
T

(t) = 0
Sumando de i = 1 hasta m y evaluando en t = 0 tenemos
m

i=1

i
(0) =

(0)
T
m

i=1

2
h
i
(x

(0) +
T
h

(x

(0) = 0 (4.9)
Sumando (4.8) y (4.9) se sigue

(0)
T
_

2
f(x

) +
m

i=1

2
h
i
(x

)
_

(0) +
_
f(x

) + h

(x

)
T

(0) 0
Finalmente, usando la condicion que f(x

) + h

(x

)
T

= 0 tenemos el resultado.
66
(0, 1)
(0, 1)
Figura 4.4: Puntos de mnimo global.
Teorema 4.12 Supongamos que f : R
n
R y h : R
n
R
m
son funciones dos veces
diferenciables en x

. Si x

X = x R
n
: h(x) = 0 entonces
i.
x
L(x

) = 0, para algunos

1
,

2
, . . . ,

m
R.
ii. v
T

2
xx
L(x

)v > 0, para todo v Ker(h

(x

)), v ,= 0.
entonces x

es un mnimo local estricto de f en X.


Demostracion. Por contradiccion, supongamos que x

no es un punto de mnimo local


estricto de f en X, entonces existe una susecion x
k
X, x
k
,= x

, tal que x
k
x

y
f(x
k
) f(x

), para todo k IN.


De la aproximacion de Taylor de segundo orden y de la desigualdad anterior tenemos
0 f(x

)
T
(x
k
x

) +
1
2
(x
k
x

)
T

2
f(x

)(x
k
x

) + o(|x
k
x

|
2
), (4.10)
donde lim
x
k
x

o(x
k
x

2
)
x
k
x

2
= 0.
De forma analoga para cada h
i
, i = 1, ..., m, se tiene
0 = h
i
(x
k
) h
i
(x

) = h
i
(x

)
T
(x
k
x

) +
1
2
(x
k
x

)
T

2
h
i
(x

)(x
k
x

) +(|x
k
x

|
2
),
67
donde lim
x
k
x

(x
k
x

2
)
x
k
x

2
= 0. Multiplicando por

i
la igualdad anterior y sumando de
i = 1 hasta m la ecuacion anterior obtenemos
0 =
m

i=1

i
h
i
(x

)
T
(x
k
x

)+
m

i=1
1
2
(x
k
x

)
T

2
h
i
(x

)(x
k
x

)+o(|x
k
x

|
2
) (4.11)
Sumando (4.10) y (4.11), usando la hipotesis i del teorema y dividiendo por |x
k
x

|
2
tenemos
0
1
2
_
x
k
x

|x
k
x

|
_
T

2
xx
L(x

)
_
x
k
x

|x
k
x

|
_
+
O(|x
k
x

|
2
)
|x
k
x

|
2
. (4.12)
Observemos que la sucesion
d
k
=
_
x
k
x

|x
k
x

|
_
es acotada, de aqu existe una subsucesion d
k
j
que converge a un punto

d ,= 0. Tomando
en particular k = k
j
en (4.12) y haciendo tender j + tenemos

d
T

2
xx
L(x

d 0 (4.13)
Por otro lado, como x
k
, x

X, x
k
,= x

y por la aproximacion de primer orden se tiene


0 = h
i
(x

)
T
d
k
+
o(|x
k
x

|)
|x
k
x

|
, i = 1, ..., m
Tomando k = k
j
y j tenemos que h
i
(x

)
T

d = 0, i = 1, 2, ..., m; esto es,

d
Ker(h

(x

)).
Finalmente, de lo anterior y de (4.13) llegamos a una contradiccion con la hipotesis ii
del teorema.
Ejemplo 4.7 Vimos en el Ejemplo 4.6 que los puntos candidatos a solucion del problema
dado eran (0, 1), (0, 1), (1, 0), (1, 0), donde los dos primeros puntos es con respecto al
multiplicador =
1
2
y los dos ultimos con respecto a = 1. Como la unica restriccion
es h(x
1
, x
2
) = x
2
1
+x
2
2
1 tenemos que h

(x
1
, x
2
) = 2(x
1
x
2
). Entonces podemos vericar
que Ker(h

(x
1
, x
2
)) = (v
1
, v
2
) R
2
: x
1
v
1
+x
2
v
2
= 0 y la matriz hessiana de la funci on
de Lagrange est a dado por

2
xx
L(x
1
, x
2
, ) =
_
_
2 + 2 0
0 1 + 2
_
_
Analizaremos en cada punto candidato a solucion.
68
i. Para x = (0, 1) con multiplicador =
1
2
tenemos
Ker(h

(0, 1)) = (v
1
, v
2
) R
2
: v
2
= 0,

2
xx
L(0, 1, ) =
_
_
1 0
0 0
_
_
Luego, para todo v = (v
1
, v
2
) Ker(h

(0, 1)), v ,= (0, 0), tenemos que v


1
,= 0 y as
v
T

2
xx
L(0, 1, )v = v
2
1
> 0,
y aplicando el Teorema 4.12 concluimos que el punto (0, 1) es un mnimo local
estricto.
ii. Para x = (0, 1) con multiplicador =
1
2
tenemos en forma analoga al caso
anterior que (0, 1) es un mnimo local estricto.
iii. Para x = (1, 0) con multiplicador = 1 tenemos
Ker(h

(1, 0)) = (v
1
, v
2
) R
2
: v
1
= 0,

2
xx
L(1, 0, ) =
_
_
0 0
0 1
_
_
As, para todo v = (v
1
, v
2
) Ker(h

(1, 0)), v ,= (0, 0), tenemos que v


2
,= 0 y se
tiene
v
T

2
xx
L(0, 1, )v = v
2
2
< 0,
luego aplicando el Teorema 4.11 y siendo (1, 0) un punto regular concluimos que
(1, 0) no es un mnimo local.
iv. Similar al caso anterior.
Observacion 4.14 Consideremos el problema de maximizaci on:
(P

) maxf(x) : h(x) = 0
Como vimos anteriormente este problema es equivalente a
(P

) minf(x) : h(x) = 0
69
La funcion de Lagrange y sus derivadas son

L(x, ) = f(x) +
T
h(x)

L(x, ) = f(x) +
m

i=1

i
h
i
(x)

2
xx

L(x, ) =
2
f(x) +
m

i=1

2
h
i
(x)
Usando los teoremas 4.9, 4.11, 4.12, se tiene que las condiciones de optimalidad para
el problema (P

) son:
1. Condici on necesaria de primer orden: Si x es un maximo local regular de (P

)
entonces existen unicos
1
,
2
, . . . ,
m
R tal que f( x) +
m

i=1

i
h
i
( x) = 0.
En efecto, como x es un maximo local regular, entonces x es un mnimo local
regular de (P

). De aqu, usando el Teorema 4.9, existen


1
,

2
, . . . ,

m
R tal
que f( x) +
m

i=1

i
h
i
( x) = 0. Deniendo
i
=

i
, tenemos el resultado.
2. Condici on necesaria de segundo orden: Si x es un maximo local regular de (P

)
entonces existen unicos
1
,
2
, . . . ,
m
R tal que la matriz
2
f( x) +
m

i=1

i

2
h
i
( x)
es semidenida negativa sobre Ker(h

( x)). En efecto, si x es un maximo local


regular de (P

) entonces x es un mnimo local regular de (P

) entonces, por Teorema


4.11 aplicado al problema (P

), la matriz
2
f( x) +
m

i=1

2
h
i
( x), es semidenida
positiva sobre Ker(h

( x)), y por tanto


2
f( x) +
m

i=1

2
h
i
( x), es semidenida
negativa sobre Ker(h

( x)). Deniendo
i
=

i
, para i = 1, . . . , m se tiene el
resultado.
3. Condici on suciente de segundo orden: Si x X = x R
n
: h(x) = 0 satisface
(a) estacionaridad del Lagrangiano
x
L( x, ) = f( x) +
m

i=1

i
h
i
( x) = 0.
(b) la Hessiana de la funcion de Lagrange
2
xx
L( x, ) =
2
f( x) +
m

i=1

2
h
i
( x),
es denida negativa sobre el Ker(h

( x))0.
entonces, x es un maximo local estricto de f sobre X. En efecto, de (a) y (b)
tenemos que f( x)+
m

i=1
(
i
)h
i
( x) = 0, y la matriz
2
f( x)+
m

i=1
(
i
)
2
h
i
( x)
70
es denida positiva sobre Ker(h

( x))0, luego aplicando el Teorema 4.12, tenemos


que x es un mnimo local estricto de f, lo que es equivalente a x es un maximo
local estricto de f en X.
Observacion 4.15 Basados en la observacion anterior y la Observaci on 4.13, con-
cluimos que para obtener candidatos de mnimo y maximo de un modelo de optimizacion
con restricciones de igualdad debemos resolver el siguiente sistema (m+ n) (m +n)
_

x
L(x, ) = f(x) +
m

i=1

i
h
i
(x) = 0
h(x) = 0.
Ejemplo 4.8 Como una aplicaci on de los resultados previos, considere el problema
optf(x
1
, x
2
) = x
2
1
+
1
2
x
2
2
: x
2
1
+ x
2
2
= 1.
Por el Ejemplo 4.6 y la observacion anterior obtenemos que los candidatos a mnimo
y maximo son (0, 1), (0, 1), (1, 0), (1, 0), donde los dos primeros puntos est an aso-
ciados al multiplicador =
1
2
y los dos ultimos a = 1. Ya vimos en el ejemplo
4.7 que (0, 1) y (0, 1) son los unicos mnimos locales estrictos y como tienen el mismo
valor entonces, estos son mnimos globales. Ademas podemos probar, usando las condi-
ciones sucientes de segundo orden para maximizaci on, que los puntos (1, 0) y (1, 0)
son maximos locales estrictos y como tienen el mismo valor objetivo, entonces ellos son
maximos globales.
Ejemplo 4.9 Considere el problema de optimizacion
minf(x
1
, x
2
, x
3
) = x
2
1
+
1
2
x
2
2
+
1
3
x
2
3
: x
2
1
+ x
2
2
+ x
2
3
= 1, x
1
x
2
= 0
El problema tiene solucion pues f es continua y el conjunto que dene las restricciones
es compacto. Hallaremos la solucion usando las condiciones de optimalidad de primer y
segundo orden. La funcion de Lagrange es
L(x
1
, x
2
, x
3
,
1
,
2
) = x
2
1
+
1
2
x
2
2
+
1
3
x
2
3
+
1
(x
2
1
+x
2
2
+x
2
3
1) +
2
x
1
x
2
71
Las ecuaciones de primer orden que debe satisfacer el punto de mnimo son
_

_
2x
1
+ 2
1
x
1
+
2
x
2
= 0
x
2
+ 2
1
x
2
+
2
x
1
= 0
(2/3)x
3
+ 2
1
x
3
= 0
x
2
1
+x
2
2
+x
2
3
= 1.
x
1
x
2
= 0.
Si x
2
,= 0, entonces x
1
= 0 y las ecuaciones se reducen a
_

2
x
2
= 0
1 + 2
1
= 0
(2/3)x
3
+ 2
1
x
3
= 0
x
2
2
+ x
2
3
= 1.
de donde obtenemos los puntos (0, 1, 0) y (0, 1, 0) con
1
=
1
2
y
2
= 0. Si x
1
,= 0,
entonces x
2
= 0 y las ecuaciones se reducen a
_

_
1 +
1
= 0

2
x
1
= 0
(1/3)x
3
+
1
x
3
= 0
x
2
1
+ x
2
3
= 1.
Resolviendo el sistema, obtenemos los puntos (1, 0, 0) y (1, 0, 0) con
1
= 1 y
2
= 0.
Si x
1
= x
2
= 0, entonces x
3
= 1 x
3
= 1, con
1
=
1
3
y
2
R. Luego los puntos
candidatos a solucion para este caso son (0, 0, 1) y (0, 0, 1) con
1
=
1
3
y
2
R. De
los tres casos analizamos concluimos que los puntos candidatos a mnimo del problema
son
i) (0, 1, 0) y (0, 1, 0) con
1
=
1
2
y
2
= 0.
ii) (1, 0, 0) y (1, 0, 0) con
1
= 1 y
2
= 0.
iii) (0, 0, 1) y (0, 0, 1) con
1
=
1
3
y
2
R.
72
Como segunda etapa, analizaremos la condici on de segundo orden. La matriz hessiana
de la funcion de Lagrange es

2
xx
L(x
1
, x
2
, x
3
,
1
,
2
) =
_
_
_
_
_
2 + 2
1

2
0

2
1 + 2
1
0
0 0
2
3
+ 2
1
_
_
_
_
_
y
Ker(h

(x)) =
_
_
_
(v
1
, v
2
, v
3
) :
x
1
v
1
+ x
2
v
2
+ x
3
v
3
= 0
x
2
v
1
+ x
1
v
2
= 0
_
_
_
Analizaremos todos los puntos candidatos a solucion.
a. x = (0, 1, 0) con
1
=
1
2
y
2
= 0. En este caso tenemos

2
xx
L( x,
1
,
2
) =
_
_
_
_
_
1 0 0
0 0 0
0 0
1
3
_
_
_
_
_
;
y Ker(h

(0, 1, 0)) = (0, 0, v


3
) : v
3
R. Sea v = (0, 0, v
3
) con v
3
,= 0, entonces
v
T

2
xx
L( x,
1
,
2
)v =
1
3
v
2
3
< 0, luego por el Teorema 4.11, (0, 1, 0) y (0, 1, 0) no
son mnimos del problema.
b.

x = (1, 0, 0) con
1
= 1 y
2
= 0. En este caso tenemos

2
xx
L(

x,
1
,
2
) =
_
_
_
_
_
0 0 0
0 1 0
0 0
4
3
_
_
_
_
_
;
y Ker(h

(1, 0, 0)) = (0, 0, v


3
) : v
3
R. Sea v = (0, 0, v
3
) con v
3
,= 0, entonces
v
T

2
xx
L( x,
1
,
2
)v =
4
3
v
2
3
< 0, luego por la condici on necesaria de segundo orden,
Teorema 4.11, (1, 0, 0) y (1, 0, 0) no son mnimos del problema.
c. x

= (0, 0, 1) con
1
=
1
3
y
2
cualquier n umero real, en este caso tenemos:

2
xx
L(x

,
1
,
2
) =
_
_
_
_
_
4
3

2
0

2
1
3
0
0 0 0
_
_
_
_
_
y
73
Ker(h

(0, 0, 1)) = (v
1
, v
2
, 0) : v
1
, v
2
R = R
2
Tomando en particular
2
=
1
3
tenemos que la matriz
2
xx
L(x

,
1
,
2
) es denida
positiva sobre R
2
, por lo tanto por la condici on suciente de segundo orden, Teorema
4.12, los puntos (0, 0, 1) y (0, 0, 1) son mnimos locales estrictos del problema
(observe que estos puntos no son puntos regulares es por eso que
2
no es unico).
4.4 Restricciones de Desigualdad
Consideremos el problema de optimizacion con restricciones de desigualdad
(pd) minf(x) : g(x) 0
donde f : R
n
R es una funcion con valor real, g : R
n
R
p
es una funcion tal que
g(x) = (g
1
(x), g
2
(x), . . . , g
p
(x)), con g
i
: R
n
R y la notacion g(x) 0 signica que
g
i
(x) 0, para todo i = 1, 2, . . . , p.
Denicion 4.9 Para cada x X = x R
n
: g(x) 0, g
i
es llamada restriccion activa
en x si g
i
( x) = 0. An alogamente llamamos a g
i
restriccion inactiva en x si g
i
( x) < 0.
Dado x denotaremos
I( x) = i 1, 2, . . . , p : g
i
( x) = 0 .
Ejemplo 4.10 Consideremos el problema
minx
1
2x
2
: 2x
1
+ x
2
6; x
1
+ x
2
4; x
1
0; x
2
0.
La region viable es dada por X = (x
1
, x
2
) : 2x
1
+ x
2
6; x
1
+ x
2
4; x
1
0; x
2
0,
cuya graca se muestra en la Figura 4.5. En este problema g
1
(x
1
, x
2
) = 2x
1
+ x
2
6,
g
2
(x
1
, x
2
) = x
1
+ x
2
4, g
3
(x
1
, x
2
) = x
1
y g
4
(x
1
, x
2
) = x
2
. Dado x = (3, 0), tenemos
que g
1
(3, 0) = 0, g
2
(3, 0) = 1, g
3
(3, 0) = 3, g
4
(3, 0) = 0. As g
1
y g
4
son restricciones
activas para (3, 0) y I(3, 0) = 1, 4. Si tomamos x = (0, 4) entonces se puede vericar
facilmente que I(0, 4) = 2, 3.
74
6
(0, 0)
(3, 0)
(4, 0)
(2, 2)
(0, 4)
X
Figura 4.5: Region viable.
Denicion 4.10 Un punto x X = x R
n
: g(x) 0 es llamado punto regular del
problema (pd) si g
i
( x)
iI( x)
existen y son linealmente independientes.
Lema 4.4 Si x

es un minimizador local del problema (pd), entonces x

es un mini-
mizador local del problema
minf(x) : g
i
(x) = 0, i I(x

).
Prueba. Inmediato de la denicion de mnimo local.
Lema 4.5 Si x

es un minimizador local regular de (pd) entonces para cada i I(x

),
existen unicos

i
R tal que f(x

) +

iI(x

i
g
i
(x

) = 0.
Prueba. Analogo al Teorema 4.9.
Observacion 4.16 El Lema anterior nos dice que en un punto de mnimo local regular el
f(x

) es combinacion lineal de los gradientes de las restricciones activas. El siguiente


resultado muestra que la combinacion dada es una combinacion conica (combinacion
lineal donde los escalares son no negativos).
Teorema 4.13 (Condicion de Karush-Kuhn-Tucker) Si x

es un mnimo local reg-


ular del problema (pd), f y g
i
, i I(x

), son diferenciables en x

y g
i
, i / I(x

), son
75
continuas en x

, entonces existen unicos

i
R, para todo i I(x

), tal que
_

_
f(x

) +

iI(x

i
g
i
(x

) = 0

i
0, para todo i I(x

).
Demostracion. Por el lema anterior existen unicos

i
R tal que
f(x

) +

iI(x

i
g
i
(x

) = 0. (4.14)
Probaremos que

i
0, para todo i I(x

). Por contradiccion, supongamos que existe


k I(x

) tal que

k
< 0. Denamos X
I(x

)
= x R
n
: g
i
(x) = 0, i I(x

), y
X
k
= x R
n
: g
i
(x) = 0, i I(x

), i ,= k
y sean T
x
X
I(x

)
y T
x
X
k
sus respectivos conjuntos tangentes. Por la regularidad de
x

, g
k
(x

) no es combinacion lineal de los otros gradientes de restricciones activas en


x

. Por lo tanto existe y T


x
(X
k
) tal que g
k
(x

)
T
y < 0. Ahora, sea (t) una
curva en X
k
pasando por x

con

(0) = y. Para t sucientemente peque no se tiene,


(t) x R
n
: g(x) 0. Sea (t) = f((t)) entonces

(0) = f(x

)
T
y . Luego de
(4.14) tenemos

T
f(x

)y =

iI(x

i
g
i
(x

)
T
y
=

k
g
k
(x

)
T
y

iI(x

i
g
i
(x

)
T
y
=

k
g
k
(x

)
T
y.
Entonces

(0) < 0, lo que es una contradiccion.


Ejemplo 4.11 Consideremos el problema del Ejemplo 4.10 y estudiemos la condici on
necesaria del teorema anterior. Para x = (3, 0), tenemos que los gradientes son f(3, 0) =
(1, 2), g
1
(3, 0) = (2, 1), g
4
(3, 0) = (0, 1), respectivamente podemos vericar
facilmente (como se ve en la graca de la Figura 4.7) que f(3, 0) no puede ser expre-
sado como una combinacion conica de g
1
(3, 0) y de g
4
(3, 0). Luego, x = (3, 0) no es
un punto de mnimo.
76
g
3
g
1
g
4
g
2
g
3
g
4
f( x)
Figura 4.6: Interpretacion geometrica de las condiciones de KKT.
Ahora consideremos x = (0, 4), entonces resulta que los gradientes g
2
(0, 4) = (1, 1),
g
3
(0, 4) = (1, 0), f(0, 4) = (1, 2). Es facil probar, como se observa en la graca
de la Figura 4.8, que el punto x = (0, 4) satisface las condiciones necesarias de KKT y
as este es un punto candidato para resolver el problema dado.
Ejemplo 4.12 Considere el problema
min(x
1
5)
2
+ (x
2
5)
2
: x
2
1
x
2
6, x
1
+ 3x
2
12, x
1
0, x
2
0
La graca de la region viable se muestra en la Figura 4.9. Veremos que en x = (3, 3)
se cumplen las condiciones de primer orden. En efecto, en nuestro problema f(x
1
, x
2
) =
(x
1
5)
2
+(x
2
5)
2
y las restricciones son g
1
(x
1
, x
2
) = x
2
1
x
2
6; g
2
(x
1
, x
2
) = x
1
+3x
2
12;
g
3
(x
1
, x
2
) = x
1
; g
4
(x
1
, x
2
) = x
2
. As tenemos que I(3, 3) = 1, 2. El gradiente de la
funcion objetivo y de las restricciones activas en (3, 3) son, respectivamente, f(3, 3) =
(4, 4), g
1
(3, 3) = (6, 1), g
2
(3, 3) = (1, 3). Se puede vericar facilmente que
f(3, 3) =

1
g
1
(3, 3) +

2
g
2
(3, 3),
donde

1
= 8/19 y

2
= 28/19 (ver el graco de la Figura 4.10). As, x = (3, 3)
satisface las condiciones de primer orden del Teorema. Ademas, como el problema tiene
77
1
f(3, 0) = (1, 2)
g
1
(3, 0) = (2, 1)
g
4
(3, 4) = (0, 1)
1
2
2
Figura 4.7: Graca de las condiciones de KKT en el punto x = (3, 0).
solucion (la funcion objetivo es continua y el conjunto de restricciones forma un conjunto
compacto y aplicando el Corolario 3.1) podemos concluir que (3, 3) es un mnimo global
del problema.
Observacion 4.17 Las condiciones del Teorema 4.13 s olo son necesarias y no su-
cientes, i.e, existen soluciones viables que verican las condiciones de KKT pero, sin
embargo, no son soluciones optimas. Considere, por ejemplo, el problema
minf(x
1
, x
2
) : x
2
1
x
2
6, x
1
+ 3x
2
12, x
1
0, x
2
0,
donde f(x
1
, x
2
) = (x
1
2)
2
(x
2
5)
2
. El punto x = (2, 0) satisface las condiciones
de primer orden pero no es mnimo local. En efecto, dado > 0 y deniendo el punto
(x
1
, x
2
) = (2+, 0) donde (0,

62) (0, ) tenemos que (x


1
, x
2
) B( x, ) y ademas
f(2 +, 0) = (2 + 2)
2
(x
2
5)
2
< f( x)
Corolario 4.3 Con las hip otesis del teorema anterior y si ademas g
i
son diferenciables
i / I(x

), entonces existen unicos

i
0, para todo i = 1, 2, . . . , m tales que
_

_
f(x

) +
p

i=1

i
g
i
(x

) = 0

i
g
i
(x

) = 0, i = 1, 2 . . . , p

i
0, i = 1, 2 . . . , p.
78
2
1
f
(
0, 4) = (2, 1)
g
2
(0, 4) = (1, 1)
1 g
3
(0, 4) = (1, 0)
Figura 4.8: Graca de las condiciones de KKT en el punto x = (0, 4).
Prueba. Inmediato del teorema previo.
Observacion 4.18 El resultado anterior nos ofrece un metodo para obtener los can-
didatos a solucion mediante la solucion del sistema que denominaremos condiciones de
optimalidad de KKT (Karush-Kuhn-Tucker)
_

_
f(x) +

p
i=1

i
g
i
(x) = 0
g
i
(x) 0, i = 1, 2 . . . , p

i
g
i
(x) = 0, i = 1, 2 . . . , p

i
0, i = 1, 2 . . . , p.
Los puntos x que resuelven el sistema son llamados puntos de KKT.
Ejemplo 4.13 Consideremos el problema dado en el Ejemplo 4.10, esto es,
minx
1
2x
2
: 2x
1
+ x
2
6; x
1
+ x
2
4; x
1
0; x
2
0
Usaremos el metodo para encontrar los candidatos a soluci on. La funci on de Lagrange
es
L(x
1
, x
2
,
1
,
2
,
3
,
4
) = x
1
2x
2
+
1
(2x
1
+ x
2
6) +
2
(x
1
+ x
2
4)
3
x
1

4
x
2
El gradiente de la funcion de Lagrange es

x
L(x
1
, x
2
,
1
,
2
,
3
,
4
) = (1 + 2
1
+
2

3
, 2 +
1
+
2

4
)
79
4
X
6
3
(3, 3) 3
(0, 0)
Figura 4.9: Graca de la region viable del Ejemplo 4.12.
Luego el sistema KKT queda establecido por
_

_
1 + 2
1
+
2

3
= 0
2 +
1
+
2

4
= 0

1
(2x
1
+ x
2
6) = 0

2
(x
1
+ x
2
4) = 0

3
x
1
= 0

4
x
2
= 0
2x
1
+x
2
6
x
1
+ x
2
4
x
1
, x
2
0

1
,
2
,
3
,
4
0
De la tercera ecuaci on tenemos que
1
= 0 2x
1
+ x
2
6 = 0. Si 2x
1
+ x
2
6 = 0,
llegamos a una contradiccion con el sistema dado, por lo tanto debemos tener que
1
= 0.
De aqu, la primera y segunda ecuaci on se reducen, respectivamente, a

3
= 1 (4.15)

4
= 2 (4.16)
80
f(3, 3)
g
2
(3, 3) = (1, 3)
g
1
(3, 3) = (6, 1)
Figura 4.10: Graca de la combinacion conica.
De ambas ecuaciones se tiene que
2
,= 0 (Si
2
= 0 entonces
3
< 0 el cual contradice
la condici on de no negatividad de la variable). Luego de la cuarta ecuaci on del sistema
se tiene que
x
1
+ x
2
= 4 (4.17)
Tambien se tiene que
3
,= 0 (pues de lo contrario de (4.15) tendriamos
2
= 1 y de
(4.16),
4
= 1 < 0 lo que es una contradiccion). As de la quinta ecuaci on del sistema
se obtiene que x
1
= 0 y de (4.17), x
2
= 4. Usando este resultado en la sexta ecuaci on
del sistema obtenemos
4
= 0 y substituyendo en (4.16) se tiene
2
= 2. Finalmente de
(4.15), obtenemos
3
= 1. Concluimos as que el unico candidato a solucion del problema
es (0, 4) con los multiplicadores
1
=
4
= 0,
2
= 2 y
3
= 1.
Teorema 4.14 Si f, g
i
, i I(x

), son dos veces diferenciables en x

, g
i
, i / I(x

), son
continuas en x

y x

es un punto de mnimo local regular del problema (pd), entonces


existen unicos puntos

i
0, i = 1, ..., m, tal que
1. f(x

) +

iI(x

i
g
i
(x

) = 0.
2. v
T

2
xx
L(x

)v 0, para todo v R
n
: g
i
(x

)
T
v = 0, y todo i I(x

),
81
donde L(x, ) = f(x) +

p
i=1

i
g
i
(x).
Demostracion. La parte 1 es una consecuencia del Teorema 4.13. Probemos la parte
2. Del Lema 4.4 y del Teorema 4.11 tenemos que
v
T
_
_

2
f(x

) +

iI(x

i

2
g
i
(x

)
_
_
v 0, v R
n
: g
i
(x

)
T
v = 0, i I(x

).
Deniendo

= 0, i / I(x

) obtenemos que
v
T

2
xx
L(x

)v 0, v R
n
: g
i
(x

)
T
v = 0, i I(x

).
Teorema 4.15 Sean f, g
i
, i I(x

), dos veces diferenciables en x

. Si x

X =
x R
n
: g(x) 0 satisface:
i. f(x

) +

iI(x

i
g
i
(x

) = 0, para algunos

i
0, i I(x

)
ii. v
T
_

2
f(x

) +

iI(x

i

2
g
i
(x

)
_
v > 0, para todo v R
n
, v ,= 0 : g
i
(x

)
T
v =
0, y todo i I(x

).
Entonces x

es un mnimo local estricto de f en X.


Demostracion. Por contradiccion, supongamos que x

no es un punto de mnimo local


estricto de f en X, entonces existe una susecion x
k
X, x
k
,= x

, tal que x
k
x

y
f(x
k
) f(x

), para todo k IN.


De la aproximacion de Taylor de segundo orden y de la desigualdad anterior tenemos
0 f(x

)
T
(x
k
x

) +
1
2
(x
k
x

)
T

2
f(x

)(x
k
x

) + o(|x
k
x

|
2
), (4.18)
donde lim
x
k
x

o(x
k
x

2
)
x
k
x

2
= 0.
De forma analoga para cada g
i
, i I(x

), se tiene
0 g
i
(x
k
) g
i
(x

) = g
i
(x

)
T
(x
k
x

) +
1
2
(x
k
x

)
T

2
g
i
(x

)(x
k
x

) +(|x
k
x

|
2
),
donde lim
x
k
x

(x
k
x

2
)
x
k
x

2
= 0. Multiplicando por

i
la desigualdad anterior y sumando
para todo i I(x

) obtenemos
0

iI(x

i
g
i
(x

)
T
(x
k
x

) +
1
2

iI(x

)
(x
k
x

)
T

2
g
i
(x

)(x
k
x

) + o(|x
k
x

|
2
)
(4.19)
82
Sumando (4.18) y (4.19), usando la hipotesis i del teorema y dividiendo por |x
k
x

|
2
tenemos
0
1
2
_
x
k
x

|x
k
x

|
_
T
_
_

2
f(x

) +

iI(x

i

2
g
i
(x

)
_
_
_
x
k
x

|x
k
x

|
_
+
O(|x
k
x

|
2
)
|x
k
x

|
2
.
(4.20)
Observemos que la sucesion
d
k
=
_
x
k
x

|x
k
x

|
_
es acotada, de aqu existe una subsucesion d
k
j
que converge a un punto

d ,= 0. Tomando
en particular k = k
j
en (4.20) y haciendo tender j + tenemos

d
T
_
_

2
f(x

) +

iI(x

i

2
g
i
(x

)
_
_
d 0 (4.21)
Por otro lado, como x
k
,= x

y por la aproximacion de primer orden se tiene


0 g
i
(x
k
) = g
i
(x

)
T
d
k
+
o(|x
k
x

|)
|x
k
x

|
, i I(x

)
Tomando k = k
j
y j tenemos que
g
i
(x

)
T

d 0, i I(x

) (4.22)
Tambien de la aproximacion de primer orden para f tenemos
0 f(x
k
) f(x

) = f(x

)
T
(x
k
x

) + +o(|x
k
x

|)
Dividiendo por [[x
k
x

[[, tomando k = k
j
y tendiendo j obtenemos:
0 f(x

)
T

d.
De la hipotesis i se tiene que
f(x

)
T

d =

iI(x

i
g
i
(x

)
T

d,
de aqu
g
i
(x

)
T

d 0, i I(x

) (4.23)
De (4.22) y (4.23) se tiene que g
i
(x

)
T

d = 0, i I(x

). Finalmente, de (4.21) llegamos


a una contradiccion con la hipotesis ii del teorema.
83
Ejemplo 4.14 Considere el problema
min(x
1
5)
2
+ (x
2
5)
2
: x
2
1
x
2
6, x
1
+ 3x
2
12, x
1
0, x
2
0
Vimos en el ejemplo 4.12 que el punto x

= (3, 3) satisface la condici on i del Teorema


4.15. Como I(x

) = 1, 2, entonces tenemos que

2
f(x

) +

iI(x

i

2
g
i
(x

) =
_
_
5 + 2

1
0
0 5
_
_
donde

1
= 8/19, el cual es una matriz denida positiva en todo R
2
en particular en el
conjunto v R
2
: v ,= 0, g
i
(x

)
T
v = 0, i = 1, 2. As se cumple tambien la condici on
ii del Teorema 4.15 y por lo tanto x

= (3, 3) es un mnimo local estricto.


4.5 Restricciones Mixtas
Finalmente consideremos el problema de optimizacion no lineal
(PNL)
_

_
min f(x)
h(x) = 0
g(x) 0
donde h : R
n
R
m
y g : R
n
R
p
son funciones dadas.
Podemos establecer condiciones analogas al Teorema 4.13 para el problema (PNL).
De manera similar a los casos anteriores, denimos punto regular del conjunto viable como
un punto donde los gradientes de las restricciones activas son linealmente independientes.
Las demostraciones son simples extensiones de los casos vistos anteriormente es por eso
se deja como ejercicio para el lector.
Teorema 4.16 Si x

es un minimizador local de (PNL) y ademas es un punto regular,


esto es,
h
1
(x

), . . . , h
m
(x

) g
i
(x

) , i I(x

)
es un conjunto linealmente independiente donde I(x

) = i 1, . . . , p : g
i
(x

) = 0 ,
entonces existen unicos
1
, . . . ,
m
R y
i
0 para todo i I(x

) tal que
f(x

) +
m

i=1

i
h
i
(x

) +v

iI

i
g
i
(x

) = 0.
84
Corolario 4.4 Asuma las condiciones del teorema anterior y que g
i
son funciones difer-
enciables en x, i I( x), entonces existen unicos
1
, . . . ,
m
R y
i
0 para todo
i = 1, . . . , p tal que
f(x

) +
m

i=1

i
h
i
(x

) +
p

i=1

i
g
i
(x

) = 0.
Observacion 4.19 El corolario anterior nos da un metodo para encontrar los puntos
candidatos a solucion del problema (PNL). Un punto candidato a solucion es un punto
x tal que para algunos escalares (, ) se satisface
f(x) +
m

i=1

i
h
i
(x) +
p

i=1

i
g
i
(x) = 0 (4.24)
h(x) = 0 (4.25)

i
g
i
(x) = 0, i = 1, . . . , m (4.26)

i
0, i = 1, . . . , m
g
i
(x) 0, j = 1, . . . , q
Las n + m + p ecuaciones (4.24) - (4.26) forman un sistema no lineal en las inc ognitas
x R
n
, R
m
y R
p
. Los puntos que resuelven este sistema son llamados puntos
estacionarios de (PNL).
Teorema 4.17 Si x

es un punto regular y minimizador local de (PNL), A es la matriz


cuyas las son los gradientes de las restricciones activas en x

excluyendo los gradientes


de aquellas restricciones de desigualdad cuyo multiplicador es cero, entonces
y
T

2
xx
l(x

, , )y 0 para todo y ^(A),


donde y son los vectores de multiplicadores de Lagrange dados en el Teorema 4.16 y
l(x, , ) = f(x) +
m

i=1

i
h
i
(x) +
p

i=1

i
g
i
(x).
Teorema 4.18 Si existen (x

) satisfaciendo la condici on necesaria de primer or-


den para (PNL) y ademas
y
T

2
xx
(x

)y > 0,
85
para todo y ^(A), y ,= 0, donde A es la matriz cuyas las son los gradientes de las
restricciones activas en x

excluyendo los gradientes de aquellas restricciones de desigual-


dad cuyo multiplicador es cero, entonces x

es minimizador local estricto del problema


(PNL).
Ejemplo 4.15 Considere el problema
minf(x
1
, x
2
, x
3
) = x
2
1
+
1
2
x
2
2
+
1
3
x
2
3
: x
2
1
+x
2
2
+ x
2
3
1, x
1
+ x
2
+ x
3
= 1/2
El problema tiene solucion pues f es continua y el conjunto que dene las restricciones
es compacto. Hallaremos la solucion usando las condiciones de optimalidad de primer y
segundo orden. La funcion de Lagrange es
l(x
1
, x
2
, x
3
,
1
,
2
) = x
2
1
+
1
2
x
2
2
+
1
3
x
2
3
+
1
(x
1
+ x
2
+ x
3
1/2) +
1
(x
2
1
+ x
2
2
+ x
2
3
1)
El sistema de primer orden que debe satisfacer el punto de mnimo son
_

_
2x
1
(1 +
1
) +
1
= 0
x
2
(1 + 2
1
) +
1
= 0
x
3
((2/3) + 2
1
) +
1
= 0
x
1
+ x
2
+x
3
= 1/2
x
2
1
+ x
2
2
+x
2
3
1.

1
(x
2
1
+ x
2
2
+ x
2
3
1) = 0

1
0.
Resolviendo el sistema obtenemos que el unico punto candidato a solucion es x =
(1/2, 1/6, 1/4) con

1
= 1/6 y
1
= 0. Analizaremos ahora la condici on de segundo
orden.
De las dos restricciones, tenemos que la unica restriccion activa para el punto crtico
es h(x) = x
1
+ x
2
+ x
3
1/2 y por lo tanto A = h(x)
T
= (1 1 1). y as
^(A) = v R
3
: v
1
+ v
2
+ v
3
= 0
86
La matriz hessiana de la funcion de Lagrange es

2
xx
l(x
1
, x
2
, x
3
,
1
,
1
) =
_
_
_
_
_
2 + 2
1
0 0
0 1 + 2
1
0
0 0
2
3
+ 2
1
_
_
_
_
_
Evaluando en el punto x = (1/2, 1/6, 1/4) con

1
= 1/6 y
1
= 0, tenemos

2
xx
l( x,

1
,
1
) =
_
_
_
_
_
2 0 0
0 1 0
0 0
2
3
_
_
_
_
_
,
que es una matriz denida positiva en todo R
3
y as en particular sobre ^(A). Por lo
tanto x == (1/2, 1/6, 1/4) es un mnimo local estricto.
Ejemplo 4.16 Considere el problema
minf(x
1
, x
2
) = 5x
2
1
2x
1
x
2
+ 5x
2
2
: x
1
+ x
2
= 1, x
1
0, x
2
0
Hallaremos los puntos de mnimo. La funcion de Lagrange es
l(x
1
, x
2
,
1
,
1
,
2
) = 5x
2
1
2x
1
x
2
+ 5x
2
2
+
1
(x
1
+ x
2
1)
1
x
1

2
x
2
,
y las condiciones de KKT son
_

_
10x
1
2x
2
+
1

1
= 0
2x
1
+ 10x
2
+
1

2
= 0
x
1
+ x
2
= 1
x
1
0
x
2
0

1
x
1
= 0

2
x
2
= 0

1
0

2
0
87
Resolviendo el sistema tenemos que el unico punto candidato a solucion es x =
(1/2, 1/2) con
1
= 4,
1
= 0 y
2
= 0. Analicemos la condici on de segundo orden. La
matriz hessiana de la funcion de Lagrange es

2
xx
l( x,

1
,
1
,
2
) =
_
_
10 2
2 10
_
_
Observamos que la unica restriccion activa es h(x) = x
1
+ x
2
1 entonces tenemos
que la matriz A = h(x)
T
= (1 1), luego ^(A) = v R
2
: v
1
+ v
2
= 0. Ahora, sea
v ^(A), v ,= 0, de aqu tenemos que
v
T

2
xx
lv =
_
v
1
v
2
_
_
_
10 2
2 10
_
_
_
_
v
1
v
2
_
_
= 24v
2
1
> 0,
por lo tanto x = (1/2, 1/2) es un punto mnimo global estricto.
4.6 Ejercicios Resueltos
Ejercicio 4.1 Considere el problema
min
_
f(x
1
, x
2
, x
3
) = x
1
+
x
2
2
4x
1
+
x
2
3
x
2
+
2
x
3
: x
1
, x
2
, x
3
> 0
_
Probar que f es coerciva en el conjunto de restricciones y encontrar las soluciones
globales del problema.
Solucion. Sea X = (x
1
, x
2
, x
3
) : x
i
> 0, para todo i = 1, 2, 3, entonces el problema es
_

_
min f(x)
s.a:
x X
Probemos que f es coerciva. Por contradiccion, supongamos que f no es coerciva,
entonces existe una sucecion crtica x
k
X tal que lim
k
f(x
k
) ,= +, esto es,
existe c > 0 siempre que f(x
k
) c, para todo k IN. Usando la denicion de f tenemos
x
k
1
+
(x
k
2
)
2
4x
k
1
+
(x
k
3
)
2
x
k
2
+
2
x
k
3
c. (4.27)
88
Entonces, x
k
es limitada (ya que cada 0 < x
k
i
c) y como x
k
es crtica, entonces
existe x FrontX tal que x
k
x = (x
1
, x
2
, x
3
). Luego, existe i 1, 2, 3 tal que
x
i
= 0, lo que implica, x
k
i
0, y de (4.27) tenemos que + c, que contradice la
suposicion, por lo tanto f es coerciva en X.
Como f es coerciva y continua en X entonces por Corolario 3.4 existe un mnimo global.
Hallemos los puntos candidatos a solucion (f(x) = 0). Derivando con respecto a las
variables x
1
, x
2
, x
3
tenemos
f
x
1
= 1
x
2
2
4x
2
1
= 0,
f
x
2
=
x
2
2x
1

x
3
x
2
= 0,
f
x
3
=
2x
3
x
2

2
x
2
3
= 0.
De la primera, segunda y tercera ecuacion obtenemos respectivamente
_
x
2
x
1
_
2
= 4. (4.28)
x
2
2x
1
=
_
x
3
x
2
_
2
(4.29)
x
3
x
2
=
1
x
2
3
(4.30)
De (4.28) y considerando que x
1
, x
2
> 0, tenemos
x
2
x
1
= 2 (4.31)
Sustituyendo la ecuacion (4.31) en (4.29) da 1 =
_
x
3
x
2
_
2
, lo que implica que
x
3
= x
2
. (4.32)
Sustituyendo (4.32) en (4.30) tenemos x
2
3
= 1 y as x
3
= 1. Sustituyendo en (4.32) y
(4.31) obtenemos que el unico punto candidato es x = (
1
2
, 1, 1) y como existe un mnimo
global este es el unico mnimo global del problema.
Ejercicio 4.2 Demostrar que la funcion f(x
1
, x
2
) = (x
2
x
2
1
)
2
+x
5
1
tiene un unico punto
estacionario que no es maximizador ni minimizador de f en R
n
.
89
Solucion.
i) Hallemos los puntos estacionarios. Las derivadas parciales son
f
x
1
= 2(x
2

x
2
1
)(2x
1
) + 4x
4
1
= 4x
1
(x
2
x
2
1
) + 4x
4
1
y
f
x
2
= 2(x
2
x
2
1
)(1) = 2(x
2
x
2
1
).
Para hallar los puntos crticos formamos la ecuacion
_
_
_
4x
1
(x
2
x
2
1
) + 4x
4
1
= 0
(x
2
x
2
1
) = 0
Se verica facilmente que el unico punto que resuelve las ecuaciones es x = (0, 0).
As, la funcion f(x
1
, x
2
) = (x
2
x
2
1
)
2
+ x
5
1
tiene un unico punto estacionario.
ii) Veamos si x es un punto de mnimo, maximo o punto de silla. Las derivadas de
segundo orden son

2
f
x
2
1
= 4(x
2
x
2
1
)+(4x
1
)(2x
1
)+16x
3
1
,

2
f
x
2
2
= 2,

2
f
x
2
x
1
= 4x
1
y

2
f
x
1
x
2
= 4x
1
. De aqu tenemos que

2
f(0, 0) =
_
_
0 0
0 2
_
_
Vemos que la matriz no es semidenida negativa concluyendo que x = (0, 0) no es
punto de maximo ni local ni global. Tambien, como esta matriz es solo semidenida
positiva el criterio de segundo orden no nos dice nada del punto obtenido.
Por otro lado, observemos que en cualquier vecindad de x = (0, 0) existen puntos donde
los valores de la funcion son negativos, tome por ejemplo x
1
< 0 y x
2
= x
2
1
. Por lo tanto
el punto x = (0, 0) no es tampoco mnimo local ni global. Concluimos por tanto que
x = (0, 0) no es maximizador ni minimizador de f en R
n
.
Ejercicio 4.3 Estudie la existencia de soluciones del problema
opt
_
f(x
1
, x
2
) = x
2
1
x
2
2
: (x
1
, x
2
) R
2
_
Solucion. Es facil ver que el punto crtico es x = (0, 0). Ademas, en cualquier vecindad
de x podemos tomar x
1
= 0 y x
2
,= 0 obteniendo f(0, x
2
) < 0, as como tambien, x
1
,= 0
y x
2
= 0 obteniendo f(x
1
, 0) > 0. Por lo tanto x = (0, 0) no tiene mnimo ni maximo.
90
Ejercicio 4.4 Encontrar todos los valores del parametro R para los cuales el problema
de minimizacion irrestricta de la funcion f(x
1
, x
2
) = x
2
1
+ 4x
1
x
2
+ 4x
2
2
+x
1
+x
2
, tiene
solucion local.
Solucion.
i) Hallemos los puntos crticos usando f(x) = 0.
_
_
_
f
x
1
= 2x
1
+ 4x
2
+ 1 = 0
f
x
2
= 4x
1
+ 8x
2
+ 1 = 0
Sumando las dos ecuaciones tenemos (2 2)x
1
+
1
2
= 0 y de aqu, x
1
=
1
4(1)
.
Sustituyendo en la primera ecuacion tenemos que x
2
=
2
8
. Luego los puntos
crticos son (x
1
, x
2
) =
_
1
4(1)
,
2
8
_
, ,= 1.
ii) Calculemos la hessiana de f. Derivando parcialmente obtenemos

2
f
x
2
1
= 2,

2
f
x
1
x
2
=
4,

2
f
x
2
x
1
= 4,

2
f
x
2
2
= 8. Luego

2
f(x) =
_
_
2 4
4 8
_
_

2
f(x) 0 > 0 16 16 > 0
> 0 1 > 0
Luego, los valores para los cuales el parametro hace que la funcion tenga un
mnimo es (1, +).
Ejercicio 4.5 Sea f : (a, b) R, a, b R, continua en (a, b). Pruebe que, si x es un
mnimo local de f entonces f

( x) = 0 o f

( x) no existe.
Solucion. Si f derivable en x entonces por la condicion necesaria de primer orden dada
en el Teorema 4.1 se tiene que f

( x) = 0. Si f no es derivable entonces no existe f

( x).
Ejercicio 4.6 Sea n 2 y f(x
1
, x
2
) = (1 +x
n
)
3
n1

i=1
x
2
i
+ x
2
n
. Muestre que
i) x = 0 es el unico punto estacionario de f en R
n
.
91
ii) x = 0 es un mnimo local estricto pero no es mnimo global.
Solucion.
i) Hallemos los puntos crticos
f
x
i
= 2(1 +x
n
)
3
x
i
= 0, para todo i = 1, . . . (n 1). (4.33)
f
x
n
= 3(1 +x
n
)
2
n1

i=1
x
2
i
+ 2x
n
= 0. (4.34)
De (4.33) tenemos (1 + x
n
) = 0 x
i
= 0, para todo i = 1, . . . , n 1, esto es,
x
n
= 1 x
i
= 0, para todo i = 1, . . . , n 1. Si x
n
= 1, entonces de (4.34)
tenemos que x
n
= 1 = 0, lo que es una contradiccion. Por lo tanto, x
i
= 0,
para todo i = 1, . . . , n 1. Sustituyendo en (4.34) resulta que x
n
= 0, luego
x = (0, 0, . . . , 0) es un punto crtico.
ii) Probemos que x es un mnimo local estricto. Como

2
f
x
2
i
= 2(1 +x
n
)
3
,

2
f
x
i
x
n
= 6(1 +x
n
)
2
x
i
,

2
f
x
2
n
= 6(1 +x
n
)
n1

i=1
x
2
i
+ 2,
tenemos que

2
f( x) =
_
_
_
_
_
_
_
_
2 0 0 0
0 2 0 0
.
.
.
0 0 0 2
_
_
_
_
_
_
_
_
0.
Usando la condicion suciente de segundo orden dado por el Teorema 4.2 tenemos
que x = 0 es mnimo local estricto con valor objetivo f(0) = 0. Ahora probemos que
x no es mnimo global. Consideremos el caso n = 2, entonces tenemos f(x
1
, x
2
) =
(1 + x
2
)
3
x
2
1
+ x
2
2
, aqu tomamos los puntos x
1
= 4, y x
2
= 2, as tenemos que
f(4, 2) = 16 + 4 = 12 < 0 = f(0), as x = 0 no es mnimo global.
Ejercicio 4.7 Sea A = A
T
y x

un punto crtico del problema


_

_
min
1
2
Ax, x) b, x) + c
s.a.
x R
n
92
Pruebe que:
1. Si A _ 0 entonces x

es un mnimo global de f.
2. Si A 0 entonces x

es el unico mnimo global de f.


Solucion. Como x

es un punto crtico entonces por el Teorema 4.1


f(x

) = Ax

b = 0
luego, para cada x R
n
f(x) =
1
2
Ax, x) b, x) + c
=
1
2
A(x x

), x x

) + f(x

)
As tenemos para cada x R
n
f(x) = f(x

) +
1
2
A(x x

), x x

)
1. Si A _ 0 entonces f(x) f(x

), pata todo x R
n
.
2. Si A 0 entonces f(x) > f(x

), para todo x ,= x

. Por lo tanto, x

es el unico
mnimo global.
Ejercicio 4.8 En el problema anterior, muestre que si x es un mnimo local entonces
A x = b y A _ 0.
Solucion. Solo usar las condiciones de optimalidad dado por los teoremas 4.1 y 4.2.
Ejercicio 4.9 Sea f : R
n
R una funcion diferenciable en x. Muestre que si f( x) ,= 0
entonces x no es mnimo ni maximo local de f sobre R
n
.
Solucion. Usar la negacion del Teorema 4.1.
Ejercicio 4.10 Demostrar que la funcion f(x, y) = (1+e
x
) cos xye
y
tiene una innidad
de maximos pero no tiene mnimos.
93
Solucion. Hallemos los puntos estacionarios de f
f
x
= (1 +e
y
)senx = 0 (4.35)
f
y
= e
y
cosx e
y
ye
y
= e
y
(cosx 1 y) = 0 (4.36)
De (4.35) tenemos que sin x = 0, y del resultado anterior cumple para todos los x tal
que x = k, para todo k ZZ (conjunto de n umeros enteros). Reemplazando en (4.36)
tenemos que para todo k ZZ : y = cosk 1, esto implica que
y =
_

_
0, si k es par o k = 0
2, si k es impar
Entonces los puntos estacionarios son
(x, y) =
_

_
(k, 0), si k = 0 o k es par
(k, 2), si k es impar
Hallemos la matriz
2
f
a).

2
f
x
2
= (1 +e
y
)cosx
b).

2
f
xy
= sin xe
y
c).

2
f
yx
= sin xe
y
d).

2
f
y
2
= e
y
(cosx 2 y)
Evaluando en los puntos estacionarios tenemos, si k=0 o k es par

2
f
x
2
(k, 0) = (1 +e
0
) = 2

2
f
yx
(k, 0) = senke
0
= 0

2
f
xy
(k, 0) = senke
0
= 0

2
f
y
2
(k, 0) = e
0
(cosk 2 0) = 1
As, para el caso donde k = 0 o k es par la matriz hessiana es

2
f(x, y) =
_
_
2 0
0 1
_
_
94
Si k es impar

2
f
x
2
(k, 2) = (1 +e
2
)cosk = (1 +e
2
) = 1 +
1
e
2

2
f
yx
(k, 2) = senke
2
= 0

2
f
xy
(k, 2) = senke
2
= 0

2
f
y
2
(k, 2) = e
2
(cosk 2 y) = e
2
(3 y) =
3
e
2

y
e
2
.
Entonces, si k es impar tenemos

2
f(k, 0) =
_

_
1
1
e
2
0
0
3
e
2

y
e
2
_

_
En ambos casos para k tenemos que la matriz obtenida es denida negativa (pues sus
autovalores que son las diagonales son negativas), por lo tanto todos los puntos crticos
(x, y) =
_

_
(k, 0), si k = 0 o k es par
(k, 2), si k es impar
son puntos de maximo y como k puede tomar cualquier n umero entero entonces tenemos
una innidad de puntos de maximo. Ahora supongamos que existe un punto (x
0
, y
0
) de
mnimo local o global, entonces por la condicion de segundo orden, Teorema 4.2, se debe
tener que la matriz hessiana en este punto es semidenida positiva, lo que es imposible
ya que todas las matrices Hesianas en los puntos crticos son denidas negativas.
Ejercicio 4.11 Encontrar los mnimos y maximos de
_

_
opt
x
3
1
3
+ x
2
s.a.
(x
1
, x
2
) X = (x
1
, x
2
) : x
2
1
+ x
2
2
= 2
Solucion.
i) Probemos la existencia, f(x
1
, x
2
) =
x
3
1
3
+x
2
es continua en R
n
, en particular en X,
y X es compacto entonces, existe puntos de mnimo y maximo global.
95
ii) f, h C

(R
n
), donde h(x
1
, x
2
) = x
2
1
+ x
2
2
2; ademas
h(x
1
, x
2
) =
_
_
_
_
_
2x
1
2x
2
_
_
_
_
_
es l.i para todo (x
1
, x
2
) X. Por tanto todo punto de mnimo o maximo es un
punto crtico.
iii) Hallemos los puntos crticos. Siguiendo la observacion 4.13 formamos el siguiente
sistema
_

x
L(x
1
, x
2
, ) = 0
x
2
1
+ x
2
2
2 = 0.
donde L(x
1
, x
2
, ) =
x
3
1
3
+x
2
+(x
2
1
+x
2
2
2). Hallando el gradiente de L tenemos
que el sistema anterior queda establecido por
x
2
1
+ 2x
1
= 0 (4.37)
1 + 2x
2
= 0 (4.38)
x
2
1
+ x
2
2
2 = 0 (4.39)
De (4.37) tenemos que x
1
(x
1
+ 2) = 0 si y solo si x
1
= 0 x
1
= 2. Ahora, si
x
1
= 0, de (4.39) tenemos x
2
=

2 y sustituyendo en (4.37) resulta


=
1
2x
2
=
1
2(

2)
=
1
2

2
=

2
4
Luego x = (0,

2), con

=

2
4
y

x = (0,

2), con

2
4
. Por otro lado,
si x
1
= 2, de (4.38) tenemos x
2
=
1
2
. Sustituyendo en (4.39) obtenemos
=
1
2
. Luego x
1
= 2(
1
2
) = 1 y tambien x
2
=
1
2
=
1
2
(
1

1
2
) = 1. As
tenemos, x = (1, 1), con

=
1
2
,

x = (1, 1) y

=
1
2
. As tenemos que los
puntos crticos son
(a) x = (0,

2) con

=

2
2
, entonces f( x) =

2 = 1.414.
(b)

x = (0,

2) con

=

2
2
, entonces f(

x) =

2 = 1.414.
(c) x = (1, 1) con

=
1
2
, entonces f( x) =
1
3
1 =
4
3
= 1.333 . . ..
96
(d)

= (1, 1) con

=
1
2
, entonces f(

x) =
1
3
+ 1 =
4
3
= 1.333 . . ..
Comparando los valores objetivos, y sabiendo por i) que los valores optimos globales
existen, tenemos que x = (0,

2) es un maximo global y

x = (0,

2) es un mnimo
global.
iv) Evaluaremos las condiciones de 2
do
orden para saber si los demas puntos son
optimos locales.

2
xx
L(x, ) =
_
_
2x
1
+ 2 0
0 2
_
_
Ker(h

(x)) = (d
1
, d
2
)/h

(x)d = 0
=
_
_
_
(d
1
, d
2
) : 2(x 1, x
2
)
_
_
d
1
d
2
_
_
= 0
_
_
_
= (d
1
, d
2
) : x
1
d
1
+ x
2
d
2
= 0
Para x = (1, 1) tenemos
Ker(h

(1, 1)) = (d
1
, d
2
) : d
1
d
2
= 0 = (d
1
, d
2
) : d
2
= d
1

Luego, para todo d Ker(h

(1, 1)), tenemos

2
xx
L( x,

)d, d) =
_
d
1
d
1
_
_
_
2(1) + 2(1/2) 0
0 2(1/2)
_
_
_
_
d
1
d
1
_
_
=
_
d
1
d
1
_
_
_
1 0
0 1
_
_
_
_
d
1
d
1
_
_
= d
2
1
+ d
2
1
= 0
Luego x solo satisface la condicion necesaria de segundo orden. As el criterio
no nos dice nada si es un mnimo o maximo local.
Para

x = (1, 1) tenemos

2
xx
L(

x,

)d, d) =
_
d
1
d
1
_
_
_
2 + 2(1/2) 0
0 2(1/2)
_
_
_
_
d
1
d
2
_
_
= 0
Luego

x solo satisface la condicion necesaria de segun orden, por lo tanto el
criterio no nos da mas informacion.
97
Ejercicio 4.12 Sea p = (p
1
, p
2
, p
3
) R
3
y L = a + td/ t R una recta en R
3
donde
a = (a
1
, a
2
, a
3
), (d
1
, d
2
, d
3
) R
3
. Si p , L, entonces el problema de la mnima distancia
de p a L puede ser formulado con
_

_
min |x p|
2
s.a.
x L
Responda la siguiente pregunta, existe la solucion del problema? Si no existe justique.
Caso contrario, hallar el punto de mnimo.
Solucion. El problema tiene solucion pues L es un conjunto cerrado y as podemos usar
el resultado dado en el ejemplo 3.8. Hallemos el punto de mnimo. x = (x
1
, x
2
, x
3
) L
x = a +td, para algun t R, as podemos expresar
_

_
x
1
= a
1
+ td
1
x
2
= a
2
+ td
2
x
3
= a
3
+ td
3
Luego, el problema puede ser formulado por
_

_
min (x
1
p
1
)
2
+ (x
2
p
2
)
2
+ (x
3
p
3
)
2
s.a.
x
1
= a
1
+ td
1
x
2
= a
2
+ td
2
x
3
= a
3
+ td
3
Sustituyendo el valor de x
_

_
min (a
1
+ td
1
p
1
)
2
+ (a
2
+ td
2
p
2
)
2
+ (a
3
+ td
3
p
3
)
2
s.a.
t R
98
As obtenemos un problema irrestricto de una sola variable, donde
f(t) = (a
1
+ td
1
p
1
)
2
+ (a
2
+ td
2
p
2
)
2
+ (a
3
+ td
3
p
3
)
2
Hallemos los puntos crticos
f

(t) = 2(a
1
+td
1
p
1
)d
1
+ 2(a
2
+ td
2
p
2
)d
2
+ 2(a
3
+ td
3
p
3
)d
3
= 0
Aplicando la propiedad distributiva y asosiando convenientemente tenemos
a
1
d
1
+ td
2
1
p
1
d
1
+a
2
d
2
+ td
2
2
p
2
d
2
+ a
3
d
3
+ td
2
3
p
3
d
3
= 0
t(d
2
1
+ d
2
2
+ d
2
3
) + (a
1
d
1
+ a
2
d
2
+a
3
d
3
) (p
1
d
1
+ p
2
d
2
+ p
3
d
3
) = 0
t|d|
2
+a p, d) = 0
t =
a p, d)
|d|
2
Luego el unico punto de mnimo del problema es
x = a +
_
p a, d)
|d|
2
_
d
Ejercicio 4.13 Sea A R
nn
una matriz simetrica. Pruebe que los puntos crticos del
problema
_

_
opt
1
2
Ax, x)
s.a :
|x| = 1
son los autovectores de la matriz A. Cuales son los autovalores?
Solucion.
i) f(x) =
1
2
Ax, x) es continua y X = x R
n
: |x| = 1 es compacto, entonces
existen puntos de mnimo y maximo globales.
ii) f y h(x) = |x| 1 =
_
x, x) 1 son diferenciables en R
n
. Ademas,
h(x) =
1
2
2x
_
x, x)
=
x
_
x, x)
= x, x X
luego todo punto de mnimo y maximo es punto de silla.
99
iii) Hallemos los puntos crticos, L(x, ) = Ax, x) + (|x| 1). Los puntos crticos
son obtenidos resolviendo
_

x
L(x, ) = 0
h(x) = 0
esto es, Ax +
x

x,x
= 0 y |x| = 1. Entonces se tiene Ax = x. Denotando
= , obtenemos que los puntos crticos satisfacen Ax = x. As, los puntos
crticos son los autovectores de la matriz A y los autovalores son el inverso aditivo
de los multiplicadores de Lagrange.
Ejercicio 4.14 Considerando que la funcion de utilidad de un comerciante es
f(x, y) = 18
1
2
x
2
1
x
2
2
donde x
1
e x
2
representa las cantidades de carne y verduras que vende (en kilos). Supong-
amos que el capital del comerciante es de 12 soles (el cual est a obligado a inertirlo total-
mente en los dos productos) y los precios de x
1
y x
2
son 2 y 3 soles respectivamente.
a) Formular el problema de optimizacion.
b) Resolver el problema.
Solucion.
a) La formulacion del modelo es
max18
1
2
x
2
1
x
2
2
: 2x
1
+ 3x
2
= 12, x
1
> 0, x
2
> 0
b) El problema dado es equivalente a
min18 +
1
2
x
2
1
+ x
2
2
: 2x
1
+ 3x
2
= 12, x
1
> 0, x
2
> 0
i) Hallemos el lagrangiano,
L(x
1
, x
2
, s, p, q) = 18 +
x
2
1
2
+ x
2
2
+ s(2x
1
+ 3x
2
12) px
1
qx
2
de donde

x
L =
_
_
x
1
+ 2s p
2x
2
+ 3s q
_
_
.
100
El sistema queda establecido como
_

_
x
1
+ 2s p = 0,
2x
2
+ 3s q = 0,
2x
1
+ 3x
2
= 12,
x
1
> 0,
x
2
> 0,
px
1
= 0,
qx
2
= 0,
p, q 0
Como x e y son positivos, entonces p = 0 y q = 0 luego el sistema se reduce a
_

_
x
1
+ 2s = 0,
2x
2
+ 3s = 0,
2x
1
+ 3x
2
= 12,
x
1
> 0,
x
2
> 0,
De la primera y segunda ecuacion tenemos que x
2
= (3/4)x
1
. Sustituyendo en
la tercera ecuacion obtenemos x
1
=
48
17
y x
2
=
36
17
. Reemplazando en la primera
ecuacion da s =
24
17
. Luego el unico punto crtico es (x
1
, x
2
) = (
48
17
,
36
17
) con
s =
24
17
.
ii) Hallemos la matriz Hessiana de la funcion de Lagrange. Derivando parcial-
mente L obtenemos

2
xx
L =
_
_
1 0
0 2
_
_
Esta matriz es denida positiva en todo R
2
, en particular en el Ker(h

(x, y)),
luego usando el Teorema 4.12 obtenemos que el punto es mnimo local estricto.
Ademas como la funcion objetivo es convexa, entonces tal mnimo es global y
por lo tanto solucion del problema de optimizacion.
101
Ejercicio 4.15 Si f(x) =
1
2
x
T
Ax b
T
x +c, donde A R
nn
, A = A
T
y A _ 0. Pruebe
o de un contraejemplo de la siguiente proposicion f tiene un mnimo globbal sobre R
n

Solucion. La proposicion es falsa. En efecto, considere


A =
_
_
1 1
1 1
_
_
y
b =
_
_
2
3
_
_
Supongamos que existe un mnimo global x = ( x
1
, x
2
) R
2
, por la condicion necesaria
de primer orden se tiene que Ax = b, lo cual equivale a
_
_
1 1
1 1
_
_
_
_
x
1
x
2
_
_
=
_
_
2
3
_
_
de aqu se deduce que x
1
+ x
2
= 2 y x
1
+ x
2
= 3 pero esto es, 2 = 3, lo que es una
contradiccion.
Ejercicio 4.16 Considere el problema
min[[ Ax b [[
2
: x R
n

donde A R
mn
, m n, b R
m
, rango de A = n.
a) Pruebe que el problema tiene solucion global.
b) Escribe la condici on necesaria de primer orden de optimalidad.Es una condici on
suciente?.
c) Encuentre la solucion optima.
Solucion.
a) La funcion f se puede expresar como:
f(x) = [[Ax b[[
2
= Ax b, Ax b)
=

A
T
Ax, x
_
2

A
T
b, x
_
+[[b[[
2
.
102
As f puede ser expresada como f(x) = x
T
(A
T
A)x 2(A
T
b)
T
x +[[b[[
2
.
Sea B = A
T
A y b

= A
T
b entonces, f(x) = x
T
Bx 2(b

)
T
x + [[b[[
2
. Como
B
T
= (A
T
A)
T
= A
T
A = B (B es simetrica) y para todo z ,= 0 z
T
Bz = z
T
(A
T
A)z
= z
T
(A
T
A)
1/2
(A
T
A)
1/2
z = ((A
T
A)
1/2
z)((A
T
A)
1/2
z) > 0 (B es denida positiva),
concluimos que este problema es un caso particular del Ejemplo 3.7. Por lo tanto,
f es coerciva y as el problema tiene solucion global.
Ejercicio 4.17 Considere el siguiente problema
max18
1
2
x
2
y
2
: 2x + 3y 12, x 0, y 0
i) El problema tiene solucion?
ii) Hallar las condiciones de KKT.
iii) Si existe la solucion del problema, hallarla.
Solucion.
i) El problema es equivalente a
min
1
2
x
2
+ y
2
18 : 2x + 3y 12, x 0, y 0
La funcion f(x) =
1
2
x
2
+y
2
18 es continua y
X = (x, y) : 2x + 3y 12, x 0, y 0
es compacto, entonces el problema tiene solucion.
ii) L(x, y, s
1
, s
2
, s
3
) =
1
2
x
2
+ y
2
18 +s
1
(2x + 3y 12) s
2
x s
3
y, as

(x,y)
L(x, y, s
1
, s
2
, s
3
) =
_
_
x + 2s
1
s
2
2y + 3s
1
s
3
_
_
103
Las condiciones de KKT son
_

x
L(x, s) = 0
viabilidad
s 0

_
x + 2s
1
s
2
= 0,
2y + 3s
1
s
3
= 0,
2x + 3y 12,
x 0,
y 0
s
1
(2x + 3y 12) = 0,
s
2
x = 0,
s
3
y = 0,
s
1
, s
2
, s
3
0.
iii) Debemos resolver
_

_
x + 2s
1
s
2
= 0
2y + 3s
1
s
3
= 0
2x + 3y 12,
s
2
x = 0,
s
3
y = 0,
s
1
(2x + 3y 12) = 0,
x, y, s
1
, s
2
, s
3
0.
de donde, s
2
x = 0 si y solo si s
2
= 0 x = 0.
Si s
2
= 0 entonces x + 2s
1
= 0, como x 0 y s
1
0
x = 0 s
1
= 0.
2y = s
3
.
y 4
2y.y = 0
y = 0
Por tanto, el punto (0, 0, 0, 0, 0) satisface las condiciones de KKT.
Si x = 0 entonces 2s
1
= s
2
s
3
y = 0 s
3
= 0 y = 0
104
Si y = 0 3s
1
= s
3
s
1
= 0
Luego, el punto es(0, 0, 0, 0, 0).
Si s
3
= 0 2y + 3s
1
= 0
y = 0 s
1
= 0
s
1
= 0
(0, 0, 0, 0, 0) satisface las condiciones de KKT.
Luego, el unico punto que satisface las condiciones de KKT es (0, 0), y usando el
tem i, concluimos que (0, 0) es el optimo del problema.
Ejercicio 4.18 Hallar los puntos crticos del problema
minc
T
x +
1
2
x
T
Bx : Ax = b,
donde c R
n
, B R
nn
simetrica, invertible y A R
mn
de rango m < n.
Solucion.
i) La funcion de Lagrange es: L(x, ) = c
T
x +
1
2
x
T
Bx
T
(Ax b), y como B es
simetrica entonces
x
_
1
2
x
T
Bx
_
= Bx, luego tenemos que
x
L(x, ) = c + Bx
A
T
.
ii) Las condiciones de KKT son
_

x
L(x, ) = 0,
Ax = b.
de donde se deduce
A
T
Bx = c (4.40)
Ax = b, (4.41)
105
Multiplicando (4.40) por B
1
y por A, usando (4.41) resulta AB
1
A
T
b = AB
1
c.
Como A es de rango m entonces AB
1
A
T
es invertible, as se tiene
= (AB
1
A
T
)
1
(b + AB
1
c). (4.42)
De (4.40) tenemos que x = B
1
A
T
B
1
c, y de la ecuacion (4.42), tenemos
x = B
1
A
T
(AB
1
A
T
)
1
b +BA
T
(AB
1
A
T
)
1
AB
1
c B
1
c. Por lo tanto, el unico
punto crtico es x = B
1
A
T
(AB
1
A
T
)
1
(b + AB
1
c) B
1
c.
Ejercicio 4.19 hallar las condiciones de optimalidad de KKT del siguiente problema
minf(x)
m

i=1
ln(g
i
(x)) : g
i
(x) 0, h
j
(x) = 0
donde f, g
i
, i = 1, . . . , m y h
j
, j = 1, . . . , p son funciones diferenciables sobre R
n
y > 0
es un parametro jo.
Solucion. Por la naturaleza del problema, este es equivalente a
minf(x)
m

i=1
ln(g
i
(x)) : h
j
(x) = 0
Formamos la funcion lagrangiana, L(x, ) = f(x)

m
i=1
ln(g
i
(x))

p
j=1

j
h
j
(x).
i) Hallamos el gradiente de la funcion de Lagrange

x
L(x, ) = f(x)
x
_
m

i=1
ln(g
i
(x))
_

T
h(x). (4.43)
Sea (x) =

m
i=1
ln(g
i
(x)) = ln g
1
(x) + ln g
2
(x) + + ln g
n
(x), entonces
(x)
x
i
=
g
1
(x)
x
i
g
1
(x)
+
g
2
(x)
x
i
g
2
(x)
+ +
g
m
(x)
x
i
g
m
(x)
.
As,

x
_
m

i=1
ln g
i
(x)
_
= (x) =
g
1
(x)
g
1
(x)
+
g
2
(x)
g
2
(x)
+. . . +
g
m
(x)
g
m
(x)
=
m

i=1
g
i
(x)
g
i
(x)
Sustituyendo esta expresion en (4.43) tenemos

x
L(x, ) = f(x)
m

i=1
g
i
(x)
g
i
(x)

T
h(x).
106
ii) Luego, las condiciones de KKT son
_

x
L(x, ) = 0
h(x) = 0
g
i
(x) > 0

_
f(x)

m
i=1
g
i
(x)
g
i
(x)

T
h(x) = 0
h(x) = 0
g
i
(x) > 0.
4.7 Ejercicios Propuestos
1. Considere el problema
min(x
1

1
2
)
2
+ (x
2
5)
2
: 2x
1
+ x
2
6; x
1
+ x
2
4; x
1
0; x
2
0
. Obtenga los puntos candidatos a solucion.
107
Captulo 5
Elementos de Convexidad
En este captulo presentaremos los elementos basicos de convexidad que nos permitiran
abordar posteriormente los problemas de optimizacion convexa que tienen un gran campo
de aplicaciones en diferentes areas de las ciencias e ingenieras.
5.1 Elementos de Convexidad
Denicion 5.1 Un conjunto C R
n
es llamado convexo si C = o para todo x, y C
y todo [0, 1] se tiene x + (1 )y C. Un conjunto A R
n
es llamado an, si
para todo x, y A y todo t R, tx + (1 t)y A. Un subconjunto K R
n
es un cono
si, para todo d K y t 0, td K.
x
y
C
Figura 5.1: Graca de un conjunto convexo.
Ejemplo 5.1 Ejemplos de conjuntos convexos son:
108
y
x
C
Figura 5.2: Graca de un conjunto que no es convexo.
El espacio euclidiano R
n
.
La bola abierta B( x, ), donde x R
n
y > 0.
El ortante no negativo R
n
+
.
El semiespacio x R
n
: Ax b, donde A R
mn
, b R
m
.
El hiperplano x R
n
: a, x) = , donde a R
n
y R.
Ejemplos de conjuntos que no son convexos son:
R
n
0.
La esfera unitaria S(0, 1) = x R
n
: [[x[[ = 1.
Ejemplo 5.2 Las rectas, los planos son espacios anes.
Ejemplo 5.3 R
n
+
, o
n
+
son conos convexos.
Denicion 5.2 Dado X R
n
, la cerradura conica de X, denotado por cono(X) es el
menor cono que contiene a X.
Proposicion 5.1 Si X es convexo entonces cono(X) = x : x X; 0.
Prueba.
Denicion 5.3 Un punto x R
n
es una combinacion convexa de puntos x
1
, . . . , x
p
si
existen
i
0, i = 1, . . . , p, tal que

p
i=1

i
= 1 y se satisface x =

p
i=1

i
x
i
.
109
R
2
+
Figura 5.3: R
2
+
es conjunto convexo.
y
x
C
Figura 5.4: R
2
+
R
2
+
no es un conjunto convexo.
Teorema 5.1 Un subconjunto C R
n
es convexo si y solamente si para cualquier
n umero p IN, x
i
C,
i
0, i = 1, 2, . . . , p, con

p
i=1

i
= 1, se tiene

p
i=1

i
x
i
C.
Demostracion. Sea C convexo, probaremos por induccion que la combinacion convexa
esta contenida en C. Si p = 1, el resultado es inmediato. Supongamos que la hipotesis
es verdadera para p = n (hipotesis inductiva), probaremos que es valida para p = n + 1.
Veamos; sea x
1
, x
2
, . . . , x
n
, x
n+1
C y
1
,
2
, . . . ,
n
,
n+1
0, tal que

n+1
i=1

i
= 1,
entonces

n+1
i=1

i
x
i
=

n
i=1

i
x
i
+
n+1
x
n+1
. Si
n+1
= 1 entonces el resultado es ver-
dadero (similar al caso p = 1).
Sea
n+1
,= 1, esto es, 1
n+1
,= 0, entonces
n+1

i=1

i
x
i
= (1
n+1
)
n

i=1
_

i
1
n+1
_
x
i
+
n+1
x
n+1
(5.1)
110
Como

n+1
i=1

i
= 1, se tiene,

n
i=1

i
= 1
n+1
, esto es,

n
i=1
_

i
1
n+1
_
= 1, donde
la relacion

i
1
n+1
0, para todo i = 1, 2, . . . , n.
Como x
1
, x
2
, . . . , x
n
C y

n
i=1
_

i
1
n+1
_
= 1. Aplicando hipotesis inductiva,

n
i=1
_

i
1
n+1
_
x
i
C. Usando este resultado en la ecuacion (5.1) y por la hipotesis
general (convexidad de C) tenemos que

n+1
i=1

i
x
i
C. El recproco es inmediato
tomando en particular p = 2.
Teorema 5.2 (de Caratheodory) Si x R
n
es una combinacion convexa de puntos
de X R
n
, entonces existen x
i
X y
i
R
+
, i = 1, 2, . . . , n + 1, satisfaciendo

n+1
i=1

i
= 1 y x =

n+1
i=1

i
x
i
.
Demostracion. Si x es una combinacion convexa de X, entonces existe p IN tal que
X =
p

i=1

i
x
i
,
p

i=1

i
= 1.
Mostraremos que si p > n + 1, entonces podemos eliminar un punto de la combi-
nacion convexa. Si existe
i
0

1
, . . . ,
p
, tal que
i
0
= 0, entonces podemos elim-
inar el punto x
i
0
obteniendo el objetivo deseado. Sea
i
> 0, para todo i = 1, . . . , p.
Como p > n + 1 entonces p 1 > n, por un resultado de algebra lineal, el conjunto
x
1
x
p
, x
2
x
p
, . . . , x
p1
x
p
es linealmente dependiente, entonces existen
1
, . . . ,
p1

no todos nulos tal que

p1
i=1

i
(x
i
x
p
) = 0.
Sea
p
=

p1
i=1

i
, entonces

p
i=1

i
= 0. Ademas,
p

i=1

i
x
i
=
p1

i=1

i
(x
i
x
p
) = 0. (5.2)
Sea j
0
1, 2, . . . , p tal que

j
0

j
0
= max
1kp
_

k

k
_
. Como existe
i
,= 0 entonces,
si
i
> 0, tenemos

j
0

j
0
> 0, caso contrario, si
i
< 0, de la igualdad

n
i=1

i
= 0, existe

j
> 0 y as

j
0

j
0
> 0. De ambos casos tenemos

j
0

j
0
> 0.
111
Denamos q
i
=
i


j
0

j
0

i
, para todo i = 1, . . . , p. De aqu tenemos que q
i
0 y
q
j
0
= 0, ademas,
p

i=1
q
i
=
p

i=1


j
0

j
0
p

i=1

i
= 1.
Luego,
x =
p

i=1

i
x
i
=
p

i=1
q
i
x
i
+

j
0

j
0
p

i=1

i
x
i
0
=
p

i=1
q
i
x
i
,
donde la ultima igualdad se obtiene de (5.2). Como q
j
0
= 0, entonces concluimos que
x =

p
i=1
i=j
0
q
i
x
i
. As, x es una combinacion convexa de p 1 puntos. Repitiendo el
proceso p (n + 1) veces obtenemos la combinacion convexa de n + 1 puntos.
Denicion 5.4 Sea X R
n
un conjunto arbitrario. La envoltura o cerradura convexa
de X, denotado por Conv(X) es denido como la interseccion de todos los conjuntos
convexos que contienen a X, esto es,
Conv(X) =

XC
C
Cconvexo
.
Observacion 5.1 Puede probarse que la envoltura convexa Conv(X) es un conjunto con-
vexo y que si X es convexo, entonces Conv(X) = X.
Ejemplo 5.4 Conv (x R
n
: |x| = 1) = x R
n
: |x| 1.
Ejemplo 5.5 Dados x, y R
n
, entonces
Conv (x, y) = z : z = x + (1 )y, [0, 1] .
Proposicion 5.2 Sea X un conjunto arbitrario de R
n
. La envoltura convexa Conv(X)
es el conjunto de todas las conbinaciones convexas de puntos de X, esto es,
Conv(X) =
_
y R
n
: y =
p

i=1

i
x
i
, x
i
X,
i
0,
p

i=1

i
= 1, donde p IN
_
.
Prueba. Sea
C = x =
p

i=1

i
x
i
donde x
i
X,
i
0, i = 1, . . . , p y
p

i=1

i
= 1, p IN.
112
Conv(X) es convexo, entonces por el Teorema 5.1, contiene todas las combinaciones
convexas de puntos de Conv(X) y en particular de X, esto es, C Conv(X).
Por otro lado, si X C entonces Conv(X) Conv(C). Si probamos que C es convexo
entonces Conv(C) = C y por tanto tendramos Conv(X) C. Sean x, y C, entonces
x + (1 )y =
_
p
1

i=1

i
x
i
_
+ (1 )
_
p
2

j=1

j
y
j
_
=
p
1

i=1
(
i
)x
i
+
p
2

j=1
[(1 )
j
] y
j
.
Como
p
1

i=1

i
+
p
2

j=1
(1 )
j
=
p
1

i=1

i
+ (1 )
p
2

j=1

j
= (1) + (1 )(1) = 1,
se tiene que, x + (1 )y es una combinacion convexa de puntos
_
x
i

p
1
i=1
x
j

p
2
j=1
_
.
Por lo tanto, C es convexo.
Corolario 5.1 Sea X un conjunto arbitrario de R
n
. La envoltura convexa Conv(X) es
el conjunto de todas las combinaciones convexas de n + 1 puntos de X, esto es,
Conv(X) =
_
y R
n
: y =
n+1

i=1

i
x
i
, x
i
X,
i
0,
n+1

i=1

i
= 1
_
.
Prueba. Usando el teorema anterior y el Teorema 5.2 (teorema de Caratheodory) obten-
emos el resultado.
5.2 El Teorema de la Proyeccion
El teorema de la proyeccion da condiciones sucientes para garantizar la existencia
de una mnima distancia de un punto a un conjunto dado.
Denicion 5.5 Sea C un subconjunto de R
n
y y C, decimos que P
C
( y) C es la
proyeccion de y sobre C si P
C
( y) resuelve el problema de min[[ y x[[ : x C. Esta
ultima condici on tambien puede ser denotada por:
P
C
( y) arg min [[ y x[[ : x C
113
x
P
C
( y)
y
Teorema 5.3 Sea C R
n
un conjunto convexo no vacio. Dado y / C, las siguientes
armaciones son equivalentes:
a) P
C
( y) C y P
C
( y) es la proyeccion de y sobre C.
b) P
C
(y) C verica y P
C
( y), x P
C
( y)) 0, para todo x C.
x
P
C
( y)
y
90

Demostracion. Mostremos que a) implica b). Sea x C, (0, 1], entonces de la


convexidad de C, tenemos z() = P
C
( y) + (x P
C
( y)) C. Usando la hipotesis a)
tenemos
[[ y P
C
( y)[[
2
[[ y z()[[
2
= [[ y P
C
( y) (x P
C
( y))[[
2
= [[ y P
C
( y)[[
2
+
2
[[x P
C
( y)[[
2
2 y P
C
( y), x P
C
( y))
entonces
2 y P
C
( y), x P
C
( y))
2
[[P
C
( y) x[[
2
Diviendo por se tiene
y P
C
( y), x P
C
( y)) (/2)[[P
C
( y) x[[
2
.
114
Tomando el nmo para los valores de , tenemos
y P
C
( y), x P
C
( y))
_
inf
(0,1]

_
[[P
C
( y) x[[
2
entonces,
y P(y), x P(y)) 0.
Ahora probemos que b) implica a). Sea x C, luego
[[ y x[[
2
= [[( y P
C
( y)) + (P
C
( y) x)[[
2
= [[ y P
C
( y)[[
2
+[[P
C
( y) x[[
2
2 y P
C
( y), x P
C
( y))
Por hipotesis, y P
C
( y), x P
C
( y)) 0, entonces
[[ y x[[
2
[[ y P
C
( y)[[
2
+[[P
C
( y) x[[
2
[[ y P
C
( y)[[
2
.
De aqu obtenemos que [[ y x[[ [[ y P
C
( y)[[ y as P
C
( y) es la proyeccion de y sobre
C.
Teorema 5.4 (De la proyeccion) Sea C R
n
un conjunto convexo no vacio y cer-
rado. Sea y / C, entonces existe una unica proyeccion P
C
( y) de y sobre C.
x
x
y
C
Demostracion. Como la funcion |.| es coerciva y C es cerrado, entonces existe P
C
( y)
C, tal que min
xC
[[ y x[[ = [[ y P
C
( y)[[. Para probar la unicidad, supongamos que
existe otra proyeccion P

C
( y) de y sobre C.
Del Teorema 5.3 tenemos
y P
C
( y), P

C
( y) P
C
( y)) 0 y (5.3)
115
P

C
( y) y, P

C
( y) P
C
( y)) 0. (5.4)
Sumando las desigualdades (5.3) y (5.4) tenemos
P

C
( y) P
C
( y), P

C
( y) P
C
( y)) 0,
esto es, [[P

C
( y) P
C
( y)[[
2
0. Por propiedad de norma concluimos que P
C
( y) = P

C
( y).
5.3 Separacion de Conjuntos Convexos
Denicion 5.6 Un hiperplano H es un subconjunto de R
n
de la forma
H = x R
n
: p, x) = ,
donde p ,= 0 y es un n umero real.
Observacion 5.2 Un hiperplano H dene dos semiespacios (cerrados o abiertos o semi-
abiertos) de la forma:
H
+
= x R
n
; p, x) y H

= x R
n
: p, x) .
H
++
= x R
n
; p, x) > y H

= x R
n
: p, x) < .
H
++
= x R
n
; p, x) > y H

= x R
n
: p, x) .
H
+
= x R
n
; p, x) y H

= x R
n
: p, x) < .
Denicion 5.7 (Hiperplano separador de dos conjuntos.) Sean X
1
y X
2
dos con-
juntos no vacios de R
n
. Sea H un hiperplano dado por H = x R
n
: p, x) = , donde
p ,= 0 y es un n umero real.
1. Se dice que H separa X
1
y X
2
si p, x
1
) p, x
2
), para todo x
1
X
1
y todo
x
2
X
2
.
2. Se dice que H separa X
1
y X
2
estrictamente si p, x
1
) < < p, x
2
), para todo
x
1
X
1
y todo x
2
X
2
.
116
3. Se dice que H separa X
1
y X
2
fuertemente si existe > 0 tal que p, x
1
) <
+ p, x
2
), para todo x
1
X
1
y todo x
2
X
2
.
Teorema 5.5 (Separacion de un punto a un conjunto convexo.) Sea C R
n
un
conjunto convexo no vacio y cerrado. Si y / C entonces existe p ,= 0, p R
n
, y R
tal que p, x) < p, y), para todo x C.
Demostracion. Como C es convexo y cerrado, entonces por el Teorema 5.4 (teorema
de la proyeccion) y del Teorema 5.3, existe P
C
( y) C tal que
x P
C
( y), y P
C
( y)) 0,
para todo x C. Denamos p = y P
C
( y). Como y / C se tiene que p ,= 0. De la
desigualdad anterior p, x) p, P
C
( y)), para todo x C.
Deniendo = p, P
C
( y)) R, tenemos
p, x) , para todo x C. (5.5)
Ademas,
p, y) = p, p +P
C
( y)) = [[ p[[
2
+ .
Como p ,= 0, entonces [[ p[[ > 0 de aqu
p, y) > . (5.6)
De (5.5) y (5.6) tenemos p, x) < p, y), para todo x C.
Corolario 5.2 Sea C R
n
un conjunto convexo no vacio y cerrado, entonces C es la
interseccion de todos los semiespacios que contienen a C, esto es,
C =

CH

,
donde H

es un semiespacio para cada I (conjunto arbitrario de parametros).


Prueba.
i) La inclusion C

CH

, es inmediata.
117
ii) Probaremos que

CH

C. Sea y

CH

y supongamos que y / C. Como


C es convexo, cerrado e y / C, entonces por el Teorema 5.5, existe p ,= 0, R
tal que
p, x) < p, y), para todo x C, (5.7)
esto es, existe un hiperplano H = z R
n
: p, z) = que separa y y C. Por
la primera desigualdad de (5.7), C H

, y por la segunda desigualdad y / H

.
Juntando ambos tenemos que y / H

y C H

, lo que es una contradiccion con


la hipotesis. As el resultado es obtenido.
Corolario 5.3 Sea X R
n
un conjunto arbitrario y y / Cl(Conv(X)), entonces existe
un hiperplano que separa fuertemente y de X.
Prueba. Como Conv(X) es convexo entonces Cl(Conv)(X)) es convexo y cerrado.
Ademas, como y / Cl(conv(X)) entonces por Teorema 5.5 existen p ,= 0 y R
tal que
p, x) < p, y), para todo x Cl(Conv(X)). (5.8)
Deniendo =
p,y
2
> 0, tenemos
+ =
+ p, y)
2
<
p, y) + p, y)
2
De aqu se tiene:
+ < p, y) (5.9)
De (5.8) tenemos en particular p, x) bar < p, y), para todo x X. De (5.9),
< + < p, y). As, obtenemos p, x) < + p, y), para todo x X.
Lema 5.1 (Lema de Farkas) Sea A R
mn
y c R
n
entonces solamente uno de los
dos sistemas tiene solucion:
Sistema 1 Existe x R
n
tal que Ax 0 y c
T
x > 0.
Sistema 2 Existe y R
m
satisfaciendo A
T
y = c, con y 0.
118
Prueba. Supongamos que el Sistema 2 tiene solucion, entonces existe y R
m
tal que
A
t
y = c, y y 0. Sea x R
n
arbitrario, tal que Ax 0, entonces
c
T
x = (A
T
y)
T
x = y
T
Ax 0,
por lo tanto el Sistema 1 no tiene solucion.
Supongamos ahora que el sistema 2 no tiene solucion. Denamos el conjunto
S = x R
n
/x = A
t
y, y 0.
Es facil probar que S es un conjunto no vacio, convexo y cerrado, ademas c / S. Por el
Teorema 5.5 (teorema de separacion), existe p ,= 0, R tal que p, x) < p, c),
para todo x S. Esto es,
p
T
x < c
T
p, para todo x S. (5.10)
Como y 0, se puede tomar y = 0 y as 0 S. Aplicando x = 0 en (5.10), se tiene
0 < c
T
p, y de aqu
c
T
p > 0. (5.11)
Tambien, de (5.10) se tiene
p
T
x = (A p)
T
y para todo y 0 (5.12)
De aqu se obtiene que
(A p) 0 (5.13)
En efecto, si no se cumple entonces existe i
0
1, 2, ..., m tal que (A p)
i
0
> 0. Tomando
y = t(A p)
i
0
e
i
0
, donde t > 0 y e
i
0
es el vector canonico de todos los elementos iguales a
cero excepto la componente i
0
, en (5.12) obtenemos que t(A p)
i
0
y tomando t
llegamos a +, lo que es una contradiccion. Por lo tanto, A p 0. Finalmente de
(5.11) y (5.13) se concluye que el sistema 1 tiene solucion.
Denicion 5.8 (Soporte de conjuntos) Sea X un subconjunto no vacio de R
n
, p
R
n
con p ,= 0 y y Front(X). El hiperplano
H = z R
n
: p, z y) = 0
es llamado plano soporte de X en el punto y si satisface una de las siguientes inclusiones:
119
X z R
n
: p, z y) 0.
X z R
n
: p, z y) 0.
Observacion 5.3 De la denicion anterior podemos concluir que
1. Un hiperplano soporte de X en el punto y no es necesariamente unico.
2. Un hiperplano puede ser soporte para mas de un punto en la frontera.
3. Un hiperplano soporte puede contener a todo X.
Teorema 5.6 (Soporte a un conjunto convexo) Sea C ,= un conjunto convexo en
R
n
y y Front(C), entonces existe un hiperplano que soporta a C en y.
Demostracion. Como y Front(C), entonces existe una sucesion de puntos y
k
, y
k
/
Cl(C), tal que lim
k
y
k
= y. Por el Teorema 5.5 (teorema de separacion), para cada
k IN, existe p
k
,= 0 tal que p
k
, x) < p
k
, y), para todo x Cl(C).
Como p
k
,= 0, entonces [[p
k
[[ > 0 y de aqu tenemos
_
p
k
||p
k
||
, x
_
<
_
p
k
||p
k
||
, y
_
, para todo
x Cl(C). La sucesion
_
p
k
||p
k
||
_
es limitada, entonces existe p R
n
y una subsucesion
_
p
k
j
||p
k
j
||
_
tal que lim
j+
p
k
j
||p
k
j
||
= p ,= 0.
Considerando k = k
j
en la desigualdad anterior, tenemos
_
p
k
j
||p
k
j
||
, x
_
<
_
p
k
j
||p
k
j
||
, y
_
, para
todo x Cl(C). Tomando j +, obtenemos p, x) p, y), esto es, p, x y) 0,
para todo x Cl(C).
Corolario 5.4 (Separacion de un conjunto convexo no cerrado) Sea C ,= un
conjunto convexo en R
n
y y / int(C), entonces existe p R
n
, p ,= 0, tal que p, x y) 0,
para todo x Cl(C)
Prueba. Como y / int(C), puede suceder 2 casos:
i) Si y / Cl(C) entonces por el Teorema 5.5 (teorema de separacion), existe p R
n
,
p ,= 0, tal que p, x) < p, y), para todo x Cl(C). Entonces p, x y) < 0, para
todo x Cl(C).
120
ii) Si y Cl(C) entonces y Front(C), ya que y / int(C), de donde, por el Teorema
5.6, existe p R
n
, p ,= 0, tal que p, x y) 0, para todo x Cl(C).
Corolario 5.5 Sea X ,= un conjunto de R
n
y y / int(Conv(X)), entonces existe un
hiperplano que separa X y y.
Prueba. Usando el corolario anterior para C = Conv(X) obtenemos que existe p ,= 0
tal que p, x y) 0, para todo x Cl(conv(X)). Como X Cl(conv(X)) entonces
p, x y) 0, para todo x X.
Corolario 5.6 Sea X ,= un conjunto de R
n
y y Front(X)

Front(Conv(X)) en-
tonces existe un hiperplano que separa X y y.
Prueba. Inmediato.
Teorema 5.7 (Separacion de dos conjuntos convexos) Sean C
1
,= y C
2
,= dos
conjuntos convexos en R
n
tal que C
1
C
2
= . Entonces, existe un hiperplano que separa
C
1
y C
2
, esto es, existe un vector p ,= 0 tal que sup p, x), x C
1
inf p, y), y C
2
.
Demostracion. Denamos C = C
1
C
2
= x = x
1
x
2
tal que x
1
C
1
, x
2
C
2
. C
es convexo. Ademas 0 / C entonces 0 / int(C), luego por corolario 5.4 existe un vector
p R
n
, p ,= 0, tal que p, x 0) 0, para todo x Cl(C). En particular, p, x 0) 0,
para todo x C.
De la denicion de C tenemos que p, x
1
) p, x
2
), para todo x
1
C
1
y todo x
2
C
2
.
Tomando supremo e nmo obtenemos el resultado.
5.4 Funciones convexas
Denicion 5.9 Sea C un conjunto convexo no vacio y f : C R
n
R una funci on.
La funcion f es llamada convexa si satisface
f(x
1
+ (1 )x
2
) f(x
1
) + (1 )f(x
2
),
para todo x
1
, x
2
C y todo [0, 1]. f es estrictamente convexa en C si la desigualdad
anterior es estricta para todo x
1
, x
2
C, x
1
,= x
2
y (0, 1).
121
f(y)
f(x)
x
x +(1 )y
y

f
(
x
)
+
(
1

)
f
(
y
)
f
(

x
+
(
1

)
y
)
f
Figura 5.5: Graca de una funcion convexa
Denicion 5.10 Sea C un conjunto convexo no vacio y f : C R
n
R una funci on.
La funcion f es llamada fuertemente convexa con modulo > 0 si
f(x + (1 )y) f(x) + (1 )f(y) (1 ) |x y|
2
,
para todo x, y C y [0, 1].
Observacion 5.4 Observemos que de las deniciones anteriores tenemos que si f es
fuertemente convexa entonces f es estrictamente convexa y esto implica que f es convexa,
pero los recprocos no son necesariamente verdaderos como mostramos en el siguiente
ejemplo.
Ejemplo 5.6 A seguir presentamos algunos ejemplos de funciones convexas, estricta-
mente convexas y fuertemente convexas.
1. f(x) = x
2
es fuertemente convexa en R.
2. f(x) = e
x
es estrictamente convexa en R (pero no es fuertemente convexa).
3. f(x) = x es convexa en R (pero no es estrictamente convexa).
122
f(a) + (1 z)f(b)
f(a) + (1 z)f(b)
a b
Figura 5.6: Graca de una funcion que no es estrictamente convexa
Denicion 5.11 Sea C un conjunto convexo no vacio y f : C R
n
R una funci on.
La funcion f es llamada concava (estrictamente concava) si f es convexa (estrictamente
convexa).
Denicion 5.12 Sea C un conjunto convexo no vacio y f : C R
n
R una funci on.
La funcion f es llamada fuertemente concava si f es fuertemente convexa en C.
Denicion 5.13 Una funcion f : R
n
R es afn si para todo x, y R
n
y R se
tiene que
f(x + (1 )y) = f(x) + (1 )f(y),
Teorema 5.8 Sea C ,= un conjunto convexo. f : C R, es una funci on convexa si y
s olo si el conjunto Epi(f) := (x, r) C R : f(x) r es convexo en R
n
R.
Demostracion. Sea f convexa, probaremos que Epi(f) es convexo. Sean (x, ) y
(y, ) Epi(f) entonces f(x) y f(y) . Por la convexidad de f se tiene que para
todo [0, 1] se cumple
f(x + (1 )y) f(x) + (1 )f(y) + (1 ),
esto implica que (x + (1 )y, + (1 )) Epi(f), para todo [0, 1], esto es
(x, ) + (1 )(y, ) Epi(f), para todo [0, 1].
123
f(a) + (1 z)f(b)
f(a) + (1 z)f(b)
a b
Figura 5.7: Graca de una funcion Convexa
As Epi(f) es convexo.
Recprocamente, probaremos que si Epi(f) es convexo, entonces f es convexa en C. Sea
x, y C, esto implica que (x, f(x)), (y, f(y)) Epi(f). Como Epi(f) es convexo, se tiene
que (x, f(x)) + (1 )(y, f(y)) Epi(f), para todo [0, 1], esto es,
f(x + (1 )y) f(x) + (1 )f(y), para todo [0, 1],
As obtenemos que f es convexa.
Teorema 5.9 Sea C ,= un conjunto convexo, y f : C R, una funci on convexa.
Entonces el conjunto de nivel L
f
() := x C : f(x) es convexo en R
n
para todo
R.
Demostracion. Sean x, y L
f
(), entonces f(x) y f(y) . Como f es convexa
se tiene que
f(x + (1 )y) f(x) + (1 )f(y) + (1 ) = ,
para todo [0, 1]. Esto implica que x + (1 )y L
f
(), para todo [0, 1]. De
aqu, L
f
() es convexo para todo R.
Observacion 5.5 El recproco del Teorema 5.9 no es verdadero, considere por ejemplo
la funcion f(x) = ln x, la cual no es convexa pero el conjunto de nivel L
f
() es convexo
para todo R.
124

f
(
a
)
+
(
1

z
)
f
(
b
)
a
b
Figura 5.8: Graca de una funcion Convexa
Proposicion 5.3 Sea f : R
n
R. Entonces f es convexa si, y solamente si, para todo
x R
n
, d ,= 0, g(t) = f(x +td) es convexa en R.
Prueba. Sea f convexa y sean t
1
, t
2
R, entonces para todo [0, 1]
g(t
1
+ (1 )t
2
) = f (x + (t
1
+ (1 )t
2
)d)
= f ((x + t
1
d) + (1 )(x + t
2
d))
f(x + t
1
d) + (1 )f(x + t
2
d)
= g(t
1
) + (1 )g(t
2
),
donde la primera igualdad es por la denicion de g, la segunda es un reacomodo de x, la
primera desigualdad es obtenida por la convexidad de f y la ultima igualdad nuevamente
por la denicion de g.
Recprocamente, asumamos que para todo x R
n
y todo d R
n
, d ,= 0, se tiene que
g(t) = f(x + td) es convexa. Probaremos que f es convexa. Sean x, y R
n
, entonces
para todo [0, 1]
f(x + (1 )y) = f(y + (x y))
125
a
b
Figura 5.9: Graca de una funcion no Convexa
= g()
= g(.1 + (1 )0)
g(1) + (1 )g(0)
= f(x) + (1 )f(y),
donde la desigualdad es dada por la convexidad de g. As, f es convexa.
Lema 5.2 (Desigualdad de Jensen) Sea f : C R una funcion convexa. Para cada
x
1
, x
2
, . . . , x
m
C y
1
,
2
, . . . ,
m
, n umeros no negativos tal que

m
i=1

i
= 1, se tiene
f
_
m

i=1

i
x
i
_

i=1

i
f(x
i
).
Prueba. Si m = 1 o 2, entonces el resultado es inmediato de la denicion de convexidad
de f. Supongamos que el resultado es valido para m = n. Probaremos que es valido para
m = n +1. Sean x
1
, x
2
, . . . , x
n
, x
n+1
C y
1
,
2
, . . . ,
n
,
n+1
0 tal que

n+1
i=1

i
= 1.
La combinacion convexa de los puntos lo podemos expresar como
n+1

i=1

i
x
i
=
n

i=1

i
x
i
+
n+1
x
n+1
.
126
f
Epi(f)
Figura 5.10: El Epi(f) de una funcion convexa es un conjunto convexo
Si
n+1
= 1 entonces
1
=
2
= =
n
= 0, esto es,

n+1
i=1

i
x
i
= x
n+1
. As,
f
_
m

i=1

i
x
i
_
= f(x
n+1
) = 0f(x
1
) + 0f(x
2
) + . . . +
n+1
f(x
n+1
) =
m

i=1

i
f(x
i
).
Si
n+1
,= 1, tenemos que
n+1

i=1

i
x
i
= (1
n+1
)
n

i=1

i
(1
n+1
)
x
i
+
n+1
x
n+1
C.
f es convexa luego
f
_
n+1

i=1

i
x
i
_
(1
n+1
)f
_
n

i=1
_

i
1
n+1
_
x
i
_
+
n+1
f(x
n+1
).
Como
n

i=1

i
(1
n+1
)
=
1
1
n+1
n

i=1

i
=
1
n+1
1
n+1
= 1;
y usando la hipotesis inductiva tenemos de la desigualdad anterior
f
_
n+1

i=1

i
x
i
_
(1
n+1
)
n

i=1

i
1
n+1
f(x
i
) +
n+1
f(x
n+1
)
=
n+1

i=1

i
f(x
i
).
127
Corolario 5.7 Sea f : C R una funcion convexa y sea x C una combinacion
convexa de puntos x
1
, x
2
, . . . , x
m
C entonces f(x) max
i=1,...,m
f(x
i
).
Prueba. Como x es una combinacion convexa de m puntos entonces, x =

m
i=1

i
x
i
, y

i
0

m
i=1

i
= 1. Tomando f y usando el Lema 5.2 tenemos
f(x) = f
_
m

i=1

i
x
i
_

i=1

i
f(x
i
)
m

i=1

i
max
1xm
f(x
i
) = max
1xm
f(x
i
)
Corolario 5.8 Sea f : R
n
R una funcion convexa y C = Conv(x
1
, x
2
, . . . , x
m
),
entonces f(x) max
i=1,...,m
f(x
i
).
Prueba. Inmediato del Corolario anterior.
Teorema 5.10 Sea C un conjunto convexo, entonces f : C R es una funci on convexa
si y solamente si para todo x, y C y 0 tal que y (x y) C se tiene
f(y (x y)) f(y) (f(x) f(y)).
Demostracion. Supongamos que f es convexa y sea x, y C, 0 tal que y (x
y) C. Denamos z = y (x y), as y =
1
1+
z +

1+
x. De la convexidad de f
tenemos,
f(y)
1
1 +
f(z) +

1 +
f(x).
Multiplicando por 1 +,
(1 +)f(y) f(z) + f(x),
entonces
f(z) (1 +)f(y) f(x)
= f(y) (f(x) f(y))
Recprocamente, supongamos que para todo x, y C, 0 tal que y (x y) C se
tiene
f(y (x y)) f(y) (f(x) f(y)).
128
Sea x, y C y (0, 1]. Denamos
=
1

0 y = x + (1 )y
de donde,
x =
1

( (1 )y) = + ( y).
De la hipotesis tenemos f(x) = f( (y )) f() (f(y) f()). Usando la
denicion dada para , f(x) (1+)f() f(y) =
1

f()
_
1

_
f(y). Multiplicando
por se tiene,
f(x) f() (1 )f(y).
De aqu,
f() f(x) + (1 )f(y),
esto es,
f(x + (1 )y) f(x) + (1 )f(y).
5.5 Continuidad de Funciones Convexas
Lema 5.3 Sea f : C R es una funcion convexa y x
0
int(C), entonces f es acotada
superiormente en una vecindad de x
0
.
Prueba. Sea x
0
int(C) y > 0 tal que x
0
e
i
int(C), donde e
i
= (0, . . . , 1, 0, . . . , 0)
con 1 en la posicion iesima. Denotemos por
X = convx
0
e
i
, i = 1, . . . , n.
Probaremos que B
_
x
0
,

n
_
X. Sea x B
_
x
0
,

n
_
, entonces
y = x x
0
B
_
0,

n
_
.
De aqu,
x = x
0
+ y, y B
_
0,

n
_
,
129
y por tanto,
x = x
0
+
n

i=1
y
i
e
i
,

_
n

i=1
y
2
i
<

n
. (5.14)
Podemos asumir que y
i
0, para i = 1, . . . , n. Si y
i
0
< 0, para alg un i
0
, entonces
podemos elegir e
i
0
como e
i
0
en (5.14).
Como x
0
=
1
2
(x
0
+ e
i
) +
1
2
(x
0
e
i
), para todo i = 1, . . . , n, tenemos que x
0
X.
Denamos ahora, =

n
i=1
y
i
0. As tenemos, =

n
i=1
y
i
= [[y[[
1
n[[y[[
2
<
n
_

n
_
= , de donde

< 1. Ademas, de la denicion de , la

n
i=1
_
y
i

_
= 1. Denamos,
y
i
=
y
i

entonces,

n
i=1
y
i
= 1De aqu,
x = x
0
+
n

i=1
y
i
e
i
= x
0

x
0
+

x
0
+
n

i=1
y
i
e
i
=
_
1

_
x
0
+

i=1
y
i
x
0
+

i=1
y
i
e
i
,
=
_
1

_
x
0
+

_
n

i=1
( y
i
)(x
0
+ e
i
)
_
.
Como x
0
X y

n
i=1
y
i
(x
0
+ e
i
) X, por ser combinacion convexa de x
0
+e
i
, se
garantiza que x X.
Por lo tanto, al ser x combinacion convexa de x
0
+e
i
, se tiene
x =
2n

i=1

i
(x
0
+e
i
) :
2n

i=1

i
= 1 ,
i
0,
aplicabdo f
f(x) = f
_
2n

i=1

i
(x
0
+e
i
)
_
,
y por la convexidad de f,
f(x)
2n

i=1

i
f(x
0
+e
i
)
=
2n

i=1

i
max
i=1,...,2n
f(x
0
+e
i
)
= max
i=1,...,2n
f(x
0
+e
i
),
130
es decir, existe M = max
i=1,...,2n
f(x
0
+e
i
) tal que f(x) M, para todo x
B
_
x
0
,

n
_
.
Observacion 5.6 Es facil ver que una funcion convexa puede ser discontinua en la
frontera de un conjunto cerrado. Por ejemplo, considere la funcion f : R
+
R denida
por
f(x) =
_

_
x
2
, si x > 0
1, si x = 0
Se puede vericar facilmente que f es una funcion convexa en R
+
pero no es continua
en x = 0.
El siguiente teorema nos permitira armar luego que toda funcion convexa es continua
en el interior de su dominio.
Teorema 5.11 Sea f : C R una funcion convexa y x
0
int(C), entonces f es
localmente Lipschitziana en x
0
.
Demostracion. Por el Lema 5.3, existe > 0 tal que f(x) M, para todo x B(x
0
, ).
Considere x B(x
0
,

2
) tal que x ,= x
0
. Sean:
=
2

[[x x
0
[[ > 0 (As, 0 < < 1)
z = x
0
+
1

(x x
0
),
entonces, x = z + (1 )x
0
. Es claro que [[z x
0
[[ =
1

[[x x
0
[[ =

2
< luego,
z B(x
0
, ).
Por la convexidad de f se tiene,
f(x) f(z) + (1 )f(x
0
)
= f(x
0
) +(f(z) f(x
0
))
f(x
0
) +(M f(x
0
))
= f(x
0
) +
2

(M f(x
0
))[[x x
0
[[
entonces, f(x) f(x
0
)
2

(M f(x
0
))[[x x
0
[[. Deniendo k(x
0
, ) =
2

(M f(x
0
)).
tenemos
f(x) f(x
0
) K
_
_
x x
0
_
_
.
131
Por otro lado, sea u = x
0
+
1

(x
0
x). de donde, [[u x
0
[[ =
1

[[x
0
x[[ < , entonces
u B(x
0
, ). Tambien , x = x
0
+(x
0
u), luego aplicando el Teorema 5.10 tenemos,
f(x) f(x
0
) + (f(x
0
) f(u))
f(x
0
) + (f(x
0
) M)
= f(x
0
) +
2

(f(x
0
) M)[[x x
0
[[
entonces, f(x) f(x
0
)
2

(Mf(x
0
))[[x x
0
[[. Por lo tanto se tiene, [f(x) f(x
0
)[
k(, x
0
)[[x x
0
[[, para todo x B(x
0
, /2).
Corolario 5.9 Sea C un conjunto convexo y f : C R una funci on convexa, si x
int(C), entonces f es continua en x.
Prueba. Como f es localmente Lipschitziana en x int(C), entonces esta es continua
en x.
Corolario 5.10 Sea f : R
n
R una funcion convexa, entonces f es continua en R
n
.
Prueba. Como int(R
n
) = R
n
, el resultado se obtiene inmediatamente.
5.6 Derivada Direccional de Funciones Convexas
Denicion 5.14 Sean C un conjunto convexo y f : C R una funci on. Dado x C y
d R
n
, d ,= 0, si el siguiente limite
f

(x, d) = lim
0
>0
f(x + d) f(x)

,
existe, entonces f

(x, d) es llamada la derivada direccional de f en la direcion d en el


punto x.
Dado x int(C), entonces existe > 0 tal que B(x, ) C. Para d R
n
, d ,= 0,
denimos la funcion :
_
0,

||d||
_
R tal que
() =
f(x +d) f(x)

.
132
Teorema 5.12 Sean C un conjunto convexo con int(C) ,= y f : C R una funci on
convexa, entonces para x int(C) y d R
n
, d ,= 0, se tiene que:
i. La funcion es no decresciente
ii. La derivada direccional f

(x, d) existe.
Demostracion.
i. Sea dom tal que , luego existe t (0, 1] tal que = (1 t)0 +t = t.
Denamos la funcion :
_
0,

||d||
_
R tal que () = f(x + d). Por la convexidad de
f se tiene que es convexa, as
() = ((1 t)0 +t)
(1 t)(0) +t().
Restando a ambos lados (0) y dividiendo por obtenemos
() (0)


(1 t)(0) +t() (0)

=
t(() (0))

=
t(() (0))
t
,
entonces
() (0)


() (0)

,
es decir,
f(x + d) f(x)


f(x + d) f(x)

Por lo tanto () ().


ii. Probemos ahora la existencia de f

(x, d).
La funcion f es convexa en x int(C), entonces por Teorema 5.11, para sucientemente
peque no, existe K > 0 tal que
[f(x +d) f(x)[ K[[d[[
entonces, K[[d[[ <
f(x+d)f(x)

, y as K[[d[[ < () Luego, es acotada inferiormente


para sucientemente peque no.
133
Como es acotada inferiormente para sucientemente peque no y no decreciente, ver
tem i., entonces existe,
lim
0
>0
f(x + d) f(x)

= f

(x, d)
Observacion 5.7 Como decresce a medida que toma valores peque nos tenemos que:
f

(x, d) = inf
>0
f(x + d) f(x)

.
Lema 5.4 Sean C un conjunto convexo, f : C R una funcion convexa y x int(C),
entonces f

(x, .) : R
n
R es homogenea de grado 1, convexa y para todo y C:
f(y) f(x) + f

(x, y x).
Prueba. La homogeneidad y convexidad son inmediatos, por eso solo probaremos la
desigualdad f(y) f(x) + f

(x, y x).
Por la convexidad de f, y todo [0, 1]
f(y + (1 )x) f(y) + (1 )f(x).
En particular para (0, 1]:
f(x + (y x)) f(x) + (f(y) f(x)),
luego
f(x + (y x)) f(x)

f(y) f(x),
tomando lmite cuando 0 y de la existencia de la derivada direccional tenemos que
f

(x, y x) f(y) f(x).


5.7 Subdiferenciabilidad
Denicion 5.15 Sea C un conjunto convexo de R
n
y f : C R una funci on. El punto
s R
n
es un subgradiente de f en x C si
f(y) f( x) +s, y x), para todo y C.
134
El conjunto de todos los subgradientes de f en x es llamado el subdiferencial de f en x
y es denotado por f( x), esto es,
f( x) = s R
n
: f(y) f( x) +s, y x) para todo y C.
Ejemplo 5.7 Sea f : R R denida por f(x) = [x[ (ver Figura 5.11) entonces
Figura 5.11: La funcion valor absoluto.
f(x) =
_

_
[1, 1] , si x = 0,
+1, si x > 0,
1, si x < 0.
En efecto, consideremos los siguientes casos:
i) Sea x = 0, entonces
f(0) = s R : [y[ [0[ +s.y, y R .
Observamos que:
Si y = 0 entonces s puede tomar cualquier valor real, esto es s R.
135
Si y > 0 entonces y s.y, implicando que s (, 1]
Si y < 0 entonces y .y, se tiene s [1, +).
Interceptando los conjuntos tenemos que s [1, 1] y por lo tanto
f(0) = [1, 1] .
ii) Sea x > 1, entonces
f(x) = s R : [y[ x + s. (y x) , y R .
Si y = 0, entonces 0 x(1 s), lo que implica que s [1, +).
Si y > 0 y y ,= x, tenemos que y x > 0 y x < 0
Si y x < 0 tenemos que y x s (y x) lo que implica que s [1, +).
Si y x > 0 tenemos que y x s (y x) , y esto implica que s (, 1].
De ambos casos obtenemos que s = 1.
Si y > 0 y y = x observamos que la desigualdad y x s (y x) se cumple
trivialmente para cualquier s R. En particular para s = 1.
Finalmente si y < 0, se tiene que y x +s(y x), lo que es verdad para s = 1.
Por lo tanto,
f(x) = 1, x > 0.
iii) Para x < 0, se procede de manera similar al caso del item anterior, obteniendo
f(x) = 1, x < 0.
Ejemplo 5.8 Sea f : R R denida por
f(x) =
_
_
_
1 x; x < 1
x
2
1, x 1.
136
Figura 5.12: Graca de la funcion del Ejemplo 5.8.
La graca de la funcion es dada por la Figura 5.12. Hallaremos el subdiferencial en cada
punto de R.
Como la dimension es n = 1, entonces:
f(x) = s R : f(y) f(x) + s(y x), y R
i) Si x < 1, entonces f(x) = 1 x. Estudiaremos los siguientes casos:
i.1) Si y < 1, entonces f(y) = 1 y. Reemplazando en la desigualdad del subd-
iferencial tenemos 1 y 1 x +s(y x), lo que es equivalente a:
(y x) s(y x). (5.15)
Si (y x) > 0, simplicando (5.15) se tiene 1 s, entonces s
(, 1].
Si (y x) < 0, de (5.15) se tiene que 1 s, y de aqu s [1, +).
Si y = x simplicando (5.15), se tiene: 0 s.0, lo que es verdad para
todo s R.
Interceptando los conjuntos tenemos que la unica posibilidad para que se
cumpla la desigualdad en la denicion del subdiferencial es que s = 1
137
i.2) Si y = 1, entonces f(y) = 0, reemplazando en la desigualdad de la denicion
del subdiferencial se tiene que 0 1 x +s(1 x), lo que es equivalente a
s(1 x) (1 x). Observemos que esta ultima desigualdad se cumple para
s = 1.
i.3) Si y > 1, entonces f(y) = y
2
1, reemplazando en la desigualdad del sub-
diferencial se obtiene y
2
1 1 x + s(y x). Tomando s = 1 se tiene
(y1)(y+1) 1x+(1)(yx) lo que equivale a (y1)(y+1) 1xy+x
simplicando se tiene y 2 lo que es verdadero.
Luego de (i.1), (i.2) y (i.3) tenemos f(x) = 1.
ii) Si x = 1, entonces f(x) = 0.
ii.1) Si y < 1 entonces f(y) = 1 y, luego la desigualdad del subdiferencial es
1 y 0 + s(y 1), lo que es equivalente a 1 s y de aqu s [1, +).
ii.2) Si y 1, entonces f(y) = y
2
1 y de aqu la desigualdad del subdiferencial es
(y 1)(y + 1) s(y 1) lo que equivale a (y + 1) s. Tomando lim
y1
f(y),
se tiene que s 2 luego s , 2] .
De (ii.1) y (ii.2) se tiene que
f(x) = [1, 2].
iii) Si, x > 1, entonces f(x) = x
2
1. Se tiene los siguientes casos:
iii.1 Si y 1 entonces f(y) = y
2
1, tenemos de la denicion:

c
f(x) = s R : f(y) f(x) + s(y x), y R
Como: (y x)
2
0, desarrollando el binomio tenemos
y
2
+ x
2
2xy, lo que es equivalente a:
y
2
1 x
2
1 + 2xy 2x
2
,
lo que tambien es equivale a:
y
2
1 x
2
1 + 2x(y x).
De la desigualdad anteriore se tiene que: s = 2x.
138
iii.2 Si y < 1 entonces f(y) = 1 y, veriquemos que la siguiente desigualdad
1 y (x
2
1) + 2x(y x), x > 1.
es verdadera.
La desigualdad anterior es equivalente a:
1 y x
2
1 + 2xy
lo que equivale a: 0 x
2
2 + y(1 + 2x)...()
tenemos los siguientes casos:
Si y 0 la desigualdad () es verdadera.
Si 0 < y < 1 tenemos lo siguiente:
y(1+2x) < (1+2x)lo que equivale a: x
2
2+y(1+2x) < x
2
1+2x
lo que equivale a: x
2
2 + y(1 + 2x) < (x
2
2x + 1)
lo que equivale a: x
2
2 + y(1 + 2x) < (x 1)
2
< 0 es verdadero
de (a) y (b) tenemos:
c
f(x) = 2x.
Lema 5.5 Sea C un conjunto convexo, f : C R una funcion y x C, entonces f(x)
es convexo y cerrado.
Prueba. Probemos inicialmente la convexidad.
Sean s
1
, s
2
f(x), entonces para todo [0, 1] se tiene f(y) f(x) +s
1
, y x),
para todo y C, esto es (1 )f(y) (1 )f(x) +(1 )s
2
, y x), para todo y C.
Sumando ambas desigualdades tenemos
f(y) f(x) +s
1
+ (1 )s
2
, y x)
para todo y C, esto implica que s
1
+ (1 )s
2
f(x), para todo [0, 1].
Ahora probemos la cerradura.
Sea
_
s
k
_
una sucesion en f(x) tal que lim
k
s
k
= s. Como s
k
f(x) entonces
f(y) f(x) +s
k
, y x), para todo y C. Tomando lmite cuando k va para el innito
y usando la continuidad del producto interno , ) tenemos f(y) f(x) +s, y x), para
todo y C. As, s f(x). De ambos resultados obtenemos que f(x) es convexo y
cerrado.
139
Lema 5.6 Sea C un conjunto convexo y f : C R una funcion. Si para todo x C se
tiene f(x) ,= , entonces f es convexa.
Prueba. Sean x, y C y [0, 1]. Como C es convexo entonces x + (1 )y C,
luego por hipotesis f(x + (1 )y) ,= . Sea s f(x + (1 )y), entonces
f(y) f(x + (1 )y) +s, y (x + (1 )y)).
Multiplicando la desigualdad anterior por 1 y respectivamente tenemos
(1 )f(y) (1 )f(x + (1 )y) +s, (1 )y (1 )(x + (1 )y)),
f(x) f(x + (1 )y) +s, x (x + (1 )y)).
Sumando ambas desigualdades, tenemos que
f(x + (1 )y) f(x) + (1 )f(y).
Observacion 5.8 La funcion puede ser convexa y tener su subdiferencial igual al vacio
en alg un punto. En efecto, considere por ejemplo la funcion f : [1, 1] R tal que
f(x) =

1 x
2
.
i) Convexidad de f.
La funcion g(x) = 1 x
2
es concava en R y h(z) =

z es creciente y concava en
R
+
, entonces la funcion (ho g)(x) =

1 x
2
es concava en [1, 1]. As la funci on
f(x) =

1 x
2
= (ho g)(x) es convexa en [1, 1].
ii) f(x) = en [x[ = 1.
Considere el punto x = 1 y supongamos que existe s f(1), entonces
_
1 y
2

s(y 1), y [1, 1], lo que es equivalente a


(1 y)(1 +y) s
2
(1 y)(1 y), y [1, 1].
Considerando y < 1, en la anterior desigualdad se tiene que (1 + y) s
2
(1 y).
Finalmente, tomando y 1 obtenemos que 2 0, lo que es una contradiccion.
140
Ahora consideremos el punto x = 1 y supongamos que existe s f(1), entonces

_
1 y
2
s(y + 1), esto es,
_
1 y
2
(s)(y + 1), lo que es equivalente a
(1 y) (s)
2
(1 +y), y [1, 1].
Tomando y 1 se tiene 2 0, lo que es una contradiccion.
El siguiente resultado muestra que el subdiferencial de una funcion convexa en cualquier
punto interior es no vacio y acotado.
Teorema 5.13 Sea C un conjunto convexo y f : C R una funci on convexa y x
int(C) entonces f( x) es no vacio y acotado.
Demostracion.
Probemos inicialmente que f( x) es no vacio.
Note que ( x, f( x)) Front(Epi(f)) entonces por el Teorema 5.6 (teorema del plano
soporte), existe p := (p, ) R
n
R tal que (p, ), (x, ) ( x, f( x))) 0, para todo
(x, ) Epi(f), esto es,
p, x x) ( f( x)) 0, (x, ) Epi(f), (5.16)
y de aqu,
p, x) f( x) +p, x), (x, ) Epi(f), (5.17)
Como p ,= 0, podemos asumir que [[ p[[
R
n
R
= 1, esto es, [[p[[
2
+
2
= 1.
Desde que para todo f( x), el punto ( x, ) Epi(f) y en (5.17) obtenemos que
0 ( f( x)) y as 0.
Por otro lado, por el Teorema 5.11 existe > 0 y M > 0 tal que B( x, ) C y
f(x) f( x) M[[x x[[, x B( x, ). Usando este resultado en (5.16) obtenemos que
para todo x B( x, ) se tiene
p, x x) (f(x) f( x)) M[[x x[[ (5.18)
Considere el punto x = x +

2
p y como [[x x[[ =

2
[[p[[

2
(usando [[p[[
2
+
2
= 1)
entonces x B( x, ). Reemplazando este valor en (5.18) se tiene que
[[p[[
2
M[[p[[.
141
De esta ultima desigualdad se concluye que > 0 y usando este hecho en (5.16) obten-
emos que

p, x x) f( x), (x, ) Epi(f).


Deniendo s :=
1

p y tomando (x, f(x)) Epi(f) se tiene que f(x) f( x) + s, x x),


para todo x C, esto es s f( x) y de aqu f( x) ,= .
Ahora probemos que f( x) es acotado.
Sea s ,= 0y considere x = x +

2
s
||s||
y as x B( x, ). Aplicando este punto en (5.18)
tenemos que [[s[[ M.
Corolario 5.11 . Sea C un conjunto convexo y f : C R una funci on convexa,
semicontinua inferior y x int(C) entonces f( x) es no vacio, convexo y compacto.
Prueba. Simple aplicacion del Teorema anterior y del Lema 5.5
Proposicion 5.4 Sea C un conjunto convexo, f : C R una funci on convexa y x
int(C). Si f es diferenciable en x, entonces f( x) = f( x).
Prueba. Por el Corolario anterior, f( x) ,= . Sea s f( x) y supongamos que f( x)
s ,= 0, entonces por denicion de subgradiente se tiene que
f(y) f( x) +s, y x), y C. (5.19)
Por otro lado, como f es diferenciable en x entonces f(y) = f( x) + f( x), y x) +
o([[y x[[), donde
lim
y x
o([[y x[[)
[[y x[[
= 0.
Reemplazando el valor de f(y) en la desigualdad (5.19) obtenemos
f( x) s, y x) + o([[y x[[) 0
Tomando en particular y = x t(f( x) s), con t > 0 se tiene
f( x) s, f( x) s) +
o(t)
t
0.
Finalmente, tomando t 0 obtenemos que [[f( x)s[[ = 0, lo que es una contradiccion.
Por lo tanto se tiene que s = f( x).
142
5.8 Funciones Convexas Diferenciables
Teorema 5.14 Sea C un conjunto convexo y abierto de R
n
y f : C R una funci on
diferenciable en C. Entonces, f es convexa si, y s olo si, f(x) f(y) + f(y), x y),
para todo x, y C.
Demostracion. Sea f convexa y x, y C, entonces en particular (0, 1] se tiene que
f(y + (x y)) f(y) + (f(x) f(y)), luego
f(y +(x y)) f(y)

f(x) f(y).
Tomando lmite cuando 0 y por la diferenciabilidad de f tenemos f(y), x y)
f(x) f(y), esto es, f(x) f(y) +f(y), x y).
Recprocamente, supongamos que se satisface la desigualdad
f(x) f(y) +f(y), x y) , para todo x, y C. (5.20)
Probaremos que f es convexa. Sean x, y C y [0, 1]. Tomando los puntos x y
x + (y x) en (5.20) y multiplicando por (1 ) se tiene
(1 )f(x) (1 )f(x + (y x)) (1 )f(x + (y x)), y x) . (5.21)
Analogamente, tomando ahora los puntos y y x+(y x) en (5.20) y multiplicando por
se tiene
f(y) f(x + (y x)) +(1 ) f(x + (y x)), y x) . (5.22)
Sumando (5.21) y (5.22) obtenemos:
f(y) + (1 )f(x) f(x + (y x)) + (1 )f(x +(y x))
= f(x + (y x)),
por lo tanto f(y + (1 )x) f(y) + (1 )f(x).
Teorema 5.15 Sea C un conjunto convexo abierto de R
n
y f : C R una funci on dos
veces continuamente diferenciable en C. Entonces, f es convexa si y s olo si
2
f(x) _ 0,
para todo x C.
143
f
f
(
x
)
+

f
(
x
)
T (
y

x
)
x
Figura 5.13: Graca de una funcion convexa
Demostracion. Sea x C y d R
n
un vector arbitrario no nulo. Como C es abierto
entonces existe > 0 tal que x + d C, para todo (0, ). Usando el Teorema 5.14
se tiene
f(x +d) f(x) f(x), d) 0.
Usando la aproximacion de segundo orden de Taylor, tenemos

2
2

2
f(x)d, d) + o(
2
) 0,
dividiendo por
2
y tomando lmite cuando va para cero tenemos df(x), d) 0.
Recprocamente, supongamos que
2
f(x) _ 0, para todo x C. Probaremos que f es
convexa, en efecto, sea x, y C; por el teorema del valor medio, existe (0, 1) tal que
f(y) f(x) f(x), y x) =
1
2

2
f(x +(y x))(y x), y x) 0.
Esto implica que f(y) f(x) f(x), y x) 0. Por el Teorema 5.14 se tiene que f
es convexa.
5.9 Ejercicios Resueltos
Ejercicio 5.1 Las siguientes funciones son convexas?
i) f(x) =

n
i=1
(2x
i
1)(ln x
i
ln(1 x
i
)), x
i
(0, 1).
144
ii) f(x) = ln(e
x
1
+ e
x
2
+ e
x
3
).
Solucion.
i) Como f(x) =

n
i=1
f
i
(x
i
), donde f
i
(x
i
) = (2x
i
1)(ln x
i
ln(1 x
i
)). As, la
funcion f es separable con terminos de la misma forma, por tanto, para hallar la
Hessiana de f es suciente analizar la funcion
g(t) = (2t 1)(ln t ln(1 t)), t (0, 1).
Hallando la primera y segunda derivada tenemos respectivamente
g

(t) = 2(ln t ln(1 t)) + (2t 1)(


1
t
+
1
1 t
)
g

(t) =
1
t
2
(1 t)
2
> 0
luego

2
f(x) =
_
_
_
_
_
_
_
_
1
x
2
1
(1x
1
)
2
0 0
0
1
x
2
2
(1x
2
)
2
0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
1
x
2
n
(1x
n
)
2
_
_
_
_
_
_
_
_
,
de donde se deduce
2
f(x) 0, as tenemos que f es estrictamente convexa y en
particular convexa.
ii) f(x
1
, x
2
, x
3
) = ln(e
x
1
+ e
x
2
+ e
x
3
). Las derivadas de primer y segundo orden de f
son
f
x
i
=
e
x
i
e
x
1
+ e
x
2
+ e
x
3
, para todo i = 1, 2, 3.

2
f
x
2
i
=
e
x
i
(e
x
1
+ e
x
2
+ e
x
3
) e
x
i
e
x
i
(e
x
1
+ e
x
2
+ e
x
3
)
2
, para todo i = 1, 2, 3

2
f
x
1
x
2
=
e
x
1
e
x
2
(e
x
1
+ e
x
2
+ e
x
3
)
2
,

2
f
x
1
x
3
=
e
x
1
e
x
3
(e
x
1
+ e
x
2
+ e
x
3
)
2
,

2
f
x
2
x
3
=
e
x
2
e
x
3
(e
x
1
+ e
x
2
+ e
x
3
)
2
.
145
Luego, la matriz hessiana es

2
f(x) =
_
_
_
_
_

1
e
x
1
e
x
2
e
x
1
e
x
3
e
x
1
e
x
2

2
e
x
2
e
x
3
e
x
1
e
x
3
e
x
2
e
x
3

3
_
_
_
_
_
,
donde =
1
(e
x
1+e
x
2+e
x
3)
2
y
i
= e
x
i
(e
x
1
+e
x
2
+e
x
3
)e
x
i
e
x
i
,, i = 1, 2, 3. Sea z = (e
x
1
,
e
x
2
, e
x
3
) y e = (1, 1, 1), entonces

2
f(x) =
1
(e
T
z)
2
_

_
e
T
z
_
_
_
_
_
z
1
0 0
0 z
2
0
0 0 z
3
_
_
_
_
_
zz
T
_

_
Sea v R
3
, veamos si se cumple v
T

2
f(x)v 0.
v
T

2
f(x)v =
1
(e
T
z)
2
_
e
T
z
3

i=1
v
2
i
z
i
(v
T
z)z
T
v
_
=
1
(e
T
z)
2
_
(
3

i=1
z
i
)(
3

i=1
v
2
i
z
i
) (
3

i=1
z
i
v
i
)
2
_
.
Deniendo a
i
=

z
i
, b
i
= v
i

z
i
, para todo i = 1, 2, 3, tenemos
v
T

2
f(x)v = (
3

i=1
a
2
i
)(
3

i=1
b
2
i
) (
3

i=1
a
i
b
i
)
2
0,
donde la desigualdad anterior es obtenida por la desigualdad de Cauchy-Schwartz, por
lo tanto, la funcion f es convexa.
Ejercicio 5.2 Sea C un conjunto convexo y x C. Pruebe que si C = R
n
+
, la desigual-
dad f(x), y x) 0, para todo y C se reduce a
_

_
f(x) 0
x
i
f(x)
x
i
= 0
x
i
0
Solucion.
i) De la hipotesis x
i
0 pues x C.
146
ii) Probemos que f(x) 0. Para ello, denamos para cada i = 1, . . . , n
y = x +e
i
=
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
+
_
_
_
_
_
_
_
_
0
1
.
.
.
0
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
x
1
1 + x
2
.
.
.
x
n
_
_
_
_
_
_
_
_
luego se tiene que
y x =
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
1
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
.
Reemplazando en la desigualdad tenemos para cada i = 1, . . . , n
f(x), y x) =
f(x)
x
i
0,
por lo tanto f(x) 0.
iii) Probemos que x
i
f(x)
x
i
= 0.
f(x)
T
(y x) =
n

i=1
f(x)
x
i
(y
i
x
i
) 0, para todo y R
n
+
.
Ahora tomando y = 0 obtenemos
n

i=1
f(x)
x
i
(x
i
) 0.
Usando los items i) y ii) se obtiene que
f(x)
x
i
x
i
= 0, para todo i = 1, 2, . . . , n.
Ejercicio 5.3 Si h es una funcion afn y diferenciable pruebe que
h(x) = h( x) +h( x), x x)
Solucion. De la Decion 5.13 se tiene que h en particular es convexa, luego aplicando
el Teorema 5.14 se tiene que
h(x) h( x) +h( x), x x), x R
n
(5.23)
147
Tambien, de la Denicion 5.13 se tiene que h es concava, esto es, h es convexa, aplicando
de nuevo el Teorema 5.14 para h obtenemos
h(x) h( x) +h( x), x x), x R
n
(5.24)
Finalmente de (5.23) y (5.24) obtenemos el resultado.
5.10 Ejercicios Propuestos
148
Captulo 6
Optimizacion Convexa
El problema de optimizacion convexa consiste en resolver el siguiente problema de opti-
mizacion:
optf(x) : x X R
n

donde f : X R
n
R es una funcion convexa y X es un conjunto convexo.
Ejemplo 6.1 El problema de optimizacion lineal
minc, x) : Ax = b, x 0,
donde A R
mn
, b R
m
, c R
n
, es un problema de optimizacion convexa.
Ejemplo 6.2 El problema de optimizacion
min
_
1
2
Qx, x) c, x) : Ax = b, x 0
_
,
donde Q es una matriz simetrica y semidenida positiva, es un problema de optimizacion
convexa.
Una de las propiedades importantes de la minimizacion convexa es que los mnimos
locales son globales como muestra el siguiente resultado.
Teorema 6.1 Si f : X R
n
R es una funcion convexa denida en el subconjunto
convexo X, entonces todo mnimo local es global.
149
Demostracion. Sea x un punto de mnimo local de f, entonces existe (0, 1) tal que
f( x) f(x), para todo x B( x, ) X. (6.1)
Sea y X tal que y ,= x. Por la convexidad de X tenemos que para todo t (0, 1)
z(t) = ty + (1 t) x X.
Por la convexidad de f se tiene
f(z(t)) tf(y) + (1 t)f( x), para todo t (0, 1). (6.2)
Observe que
z(t) B( x, ) X, para todo t
_
0,

[[y x[[
_
,
luego usando (6.1) para x = z(t) y (6.2) tenemos que f( x) f(y). As x es un mnimo
global de f sobre X.
Teorema 6.2 Considere el problema de minimizacion convexa
minf(x) : x X R
n
.
Entonces, el conjunto de las soluciones optimas del problema, X

, es convexo.
Demostracion. Sean x

, y

, entonces f(x

) = f(y

) = f

f(x), para todo


x X. Sea (0, 1) entonces f(x

+(1 )y

) f(x

) +(1 )f(y

) = f

f(x),
para todo x X. As, x

+ (1 )y

.
Teorema 6.3 Si f : X R
n
R es una funcion estrictamente convexa denida en el
subconjunto convexo X y x es un mnimo de f, entonces x es el unico mnimo global.
Demostracion. Supongamos que exista otro mnimo global y ,= x, as f( y) = f( x).
De la convexidad de X tenemos
1
2
x +
1
2
y X. Como y es mnimo global y usando la
estricta convexidad de f, se tiene
f( y) f
_
1
2
x +
1
2
y
_
<
1
2
f( x) +
1
2
f( y) = f( x).
De esta desigualdad obtenemos f( y) < f( x), lo que es una contradiccion. Por lo tanto
el mnimo x es unico.
150
Teorema 6.4 Si f : X R
n
R es una funcion convexa denida en el subconjunto
convexo X. Si x es un mnimo local estricto entonces x es el unico mnimo global.
Demostracion. Analogo a la demostracion anterior.
6.1 Minimizacion Convexa Irrestricta
Teorema 6.5 Considere el problema de minimizacion
minf(x) : x X R
n

donde f : X R
n
R es convexa en el conjunto convexo X ,= y diferenciable en R
n
entonces, x es un mnimo global si y solo si f( x), x x) 0, para todo x X.
Demostracion. Sea x un mnimo de f en X y x X un punto arbitrario, entonces por
la convexidad de X se tiene que x + (x x) X, para todo (0, 1). Luego
f( x + (x x)) f( x)

0.
Por la diferenciabilidad de f en x se tiene que
f( x), x x) +
o()

0.
Tomando lmite cuando converge para cero se tiene que f( x), x x) 0.
Recprocamente, supongamos que f( x), x x) 0, para todo x X. Como f es
convexa en x se tiene para todo x X que f(x) f( x) +f( x), x x). Ahora, usando
la hipotesis obtenemos que x es un mnimo global de f en X.
Corolario 6.1 Considere el problema de minimizacion sin restricciones
minf(x) : x R
n
,
donde f es una funcion diferenciable en R
n
. Entonces, x es un mnimo global si, y solo
si, f( x) = 0.
Prueba. Si x es un mnimo local, tenemos del Teorema 6.5 f( x), x x) 0, para todo
x R
n
. Tomando en particular x = xf( x), se tiene que f( x) = 0. Recprocamente,
si f( x) = 0, del Teorema 6.5 concluimos que x es un mnimo global.
151
6.2 Minimizacion Convexa Restricta
En esta seccion probaremos que si el problema de minimizacion es un problema convexo
donde las funciones que denen las restricciones de igualdad son anes entonces las
condiciones de KKT dadas en el captulo anterior son tambien sucientes. Consideremos
el problema de optimizacion no lineal
(PNL)
_

_
min f(x)
s.a. : h(x) = 0
g(x) 0
donde h : R
n
R
m
y g : R
n
R
p
.
Teorema 6.6 Si en el problema (PNL), f, g
j
son convexas, h
i
son funciones anes
(h
i
(x+(1)y) = h
i
(x) +(1)h
i
(y), para todo R) y x satisface las condiciones
de KKT :
f( x) +
m

i=1

i
h
i
( x) +
q

j=1

i
g
i
( x) = 0
h
i
( x) = 0 i = 1, . . . , m (6.3)
g
j
( x) 0, j = 1, . . . , q (6.4)

j
g
j
( x) = 0, i = 1, . . . , m (6.5)

j
0, i = 1, . . . , m
para algunos

i
y
j
, entonces x es un minimizador global del (PNL).
Demostracion. Sea X = x R
n
; h(x) = 0, g(x) 0 y consideremos x X tal que
x ,= x. De la convexidad de f en x y de la viabilidad del punto x tenemos
f(x) f( x) +f( x)
T
(x x) +
m

i=1

i
h
i
(x) +
q

j=1

i
g
i
(x).
Usando la denicion de funcion afn de h
i
y de la convexidad de g
j
en x se tiene
f(x) f( x)+f( x)
T
(x x)+
m

i=1

i
h
i
( x)+

i
h
i
( x)
T
(x x)+
q

j=1

i
g
i
( x)+
i
g
i
( x)
T
(x x).
152
De (6.3) y (6.5), la desigualdad anterior se reduce a
f(x) f( x) +f( x)
T
(x x) +
m

i=1

i
h
i
( x)
T
(x x) +
q

j=1

i
g
i
( x)
T
(x x).
Asociando los gradientes de f, h
i
y g
j
tenemos
f(x) f( x) +
_
f( x) +
m

i=1

i
h
i
( x) +
q

j=1

i
g
i
( x)
_
T
(x x).
Usando (??), nalmente obtenemos f(x) f( x).
Ejemplo 6.3 Considere el problema
minx
1
2x
2
: 2x
1
+ x
2
6; x
1
+ x
2
4; x
1
0; x
2
0.
Vimos en el ejemplo 4.13 que el unico candidato a solucion del problema es (0, 4).
Ahora, como el problema es un problema de optimizacion convexa entonces aplicando el
Teorema 6.6 tenemos que (0, 4) es un unico mnimo global.
Ejemplo 6.4 Considere el problema lineal
(PL) minc
T
x : Ax = b, x 0,
donde A R
mn
, b R
m
, c R
n
. La funcion objetivo f(x) = c
T
x es lineal y as
convexa, la funcion h(x) = Ax b es una funcion afn y g(x) = x es lineal y de aqu
convexa, entonces del Teorema 6.6 tenemos que la condici on necesaria y suciente para
obtener los puntos de mnimo global son
_

_
A
T
+ s = c
Ax = b
x
i
s
i
= 0
x
i
, s
i
0
Ejemplo 6.5 Considere el problema
(PC) min
_
1
2
x
T
Qx c
T
x : Ax = b, x 0
_
,
153
donde Q R
nn
es una matriz simetrica y semidenida positiva, A R
mn
, b R
m
,
c R
n
. La funcion objetivo f(x) =
1
2
x
T
Qx c
T
x es convexa, la funci on h(x) = Ax b
es una funcion afn y g(x) = x es lineal y de aqu convexa, entonces del Teorema 6.6
tenemos que la condici on necesaria y suciente para obtener los puntos de mnimo global
son:
_

_
A
T
+ s = Qx + c
Ax = b
x
i
s
i
= 0
x
i
, s
i
0
6.3 Convexidad Generalizada
Denicion 6.1 Una funcion diferenciable f : R
n
R es pseudoconvexa si, para todo
par de puntos distintos x, y tenemos
f(x), y x) 0, entonces f(y) f(x).
Denicion 6.2 Sea C un conjunto convexo y f : C R una funci on real. f es llamada
cuasi-convexa en C si para todo x, y C, t [0, 1], se cumple que
f(tx + (1 t)y) maxf(x), f(y).
Teorema 6.7 Sea C un conjunto convexo y f : C R una funcion. f es cuasi-convexa
en C si, y solamente si, para cada c R el conjunto de nivel de f, L
f
(c) = x C :
f(x) c, es convexo.
Demostracion. Supongamos que f es cuasi-convexa y sea c R. Probaremos que L
f
(c)
es convexo. Sea x, y L
f
(c), entonces f(x) c, f(y) c y por tanto maxf(x), f(y)
c. Usando la cuasi-convexidad de f y el resultado previo, tenemos que
f(tx + (1 t)y) maxf(x), f(y) c.
De la desigualdad anterior obtenemos que L
f
(c) es convexo. Recprocamente, supong-
amos que L
f
(c) es convexo para cada c R. Probaremos que f es cuasi-convexa en C.
154
Sea x, y C y denamos c := maxf(x), f(y). De lo anterior tenemos inmediatamente
que x, y L
f
(c) y como L
f
(c) es convexo, esto implica que
tx + (1 t)y L
f
(c).
Finalmente, por la denicion de L
f
(c) obtenemos nuestro resultado.
Teorema 6.8 Sea f : R
n
R una funcion diferenciable y cuasi-convexa y sea x, y R
n
.
Si f(x) f(y) entonces f(y), x y) 0.
Demostracion. Sea t (0, 1). Por la aproximacion de primer orden de una funcion
diferenciable tenemos f(y+t(xy)) = f(y)+tf(y), xy)+o(t), donde lim
t0
o(t)
t
= 0.
Como f es cuasi-convexa, esto implica que
f(y) + tf(y), x y) +o(t) maxf(x), f(y).
Usando la hipotesis de que f(x) f(y) y dividiendo por t obtenemos
f(y), x y) +
o(t)
t
0.
Tomando lmite cuando t converge a cero, obtenemos el resultado.
6.4 Ejercicios Resueltos
Ejercicio 6.1 Sea A R
nn
una matriz simetrica y semidenida positiva. Pruebe que
los siguientes problemas son equivalentes
1. Resolver el sistema lineal Ax = b.
2. minf(x) =
1
2
x
T
Ax b
T
x : x R
n
.
Solucion. Observemos inicialmente que f es convexa ya que
2
f(x) = A es semidenida
positiva y por el uso del Teorema 5.15.
Sea x solucion del sistema lineal Ax = b. Probaremos que x es mnimo global de f.
Como f( x) = A x b = 0, f es convexa y por el Corolario 6.1 se tiene que x es un
mnimo global de f.
155
Reciprocamente, supongamos que x es un mnimo global de f. Probaremos que x resuelve
el sistema lineal Ax = b.
Como f es convexa y x es un mnimo global de f se tiene por Corolario 6.1 (tambien
puede usar el Teorema 4.1 del Captulo 4) que f( x) = A x b = 0, esto es, x resuelve
el sistema lineal.
Ejercicio 6.2 Sean las funciones
f(x
1
, x
2
) = x
2
1
+ x
2
2
; g(x
1
, x
2
) = (x
1
1)
2
x
2
2
.
(a) Determinar todos los puntos que puedan ser extremos locales de la funci on f sujeta
a la restriccion g(x
1
, x
2
) = 0.
(b) Determinar si los puntos obtenidos en item anterior dan maximos o mnimos de f
con la restriccion establecida.
Solucion.
(a) Hallemos los candidatos a solucion. La funcion lagrangiana es L(x
1
x
2
, ) = x
2
1
+
x
2
2
+ ((x
1
1)
2
x
2
2
) donde

x
L(x
1
x
2
, ) = (2x
1
+ 2(x
1
1), 2x
2
2x
2
).
Luego, las condiciones de optimalidad son
x
1
+ (x
1
1) = 0 (6.6)
(1 )x
2
= 0
(x
1
1)
2
x
2
2
= 0. (6.7)
Si x
2
= 0 entonces de (6.7) x
1
= 1, esto contradice (6.6). As x
2
,= 0 y = 1, esto
implica que x
1
= 1/2 y x
2
= 1/2. Luego, los puntos candidatos a solucion con
= 1 son
(1/2, 1/2) y (1/2, 1/2).
156
Como la unica restriccion es g(x
1
, x
2
) = (x
1
1)
2
x
2
2
y su gradiente es g

(x
1
, x
2
) =
(2(x
1
1), 2x
2
) entonces
Ker(g

(x
1
, x
2
)) = (v
1
, v
2
) [ v
1
(x
1
1) x
2
v
2
= 0
y la matriz hessiana del lagrangiano esta dado por

2
xx
L(x
1
, x
2
, ) =
_
_
2 + 2 0
0 2 2
_
_
.
Analicemos en cada punto candidato a solucion. Para x = (
1
2
,
1
2
), = 1 se tiene
Ker(g

(1/2, 1/2)) = (v
1
, v
2
) [ v
1
= v
2

2
xx
L
_
1
2
,
1
2
, 1
_
=
_
_
4 0
0 0
_
_
.
As, para todo v = (v
1
, v
2
) Ker(g

(
1
2
,
1
2
)), v ,= (0, 0) tenemos que
v
T

2
xx
L(1/2, 1/2, 1)v = 4v
2
1
> 0,
luego aplicando la condicion suciente de segundo orden concluimos que el punto
(1/2, 1/2) es un mnimo local estricto. Para el punto x = (1/2, 1/2), = 1,
tenemos
Ker(g

(1/2, 1/2)) = (v
1
, v
2
) [ v
1
= v
2

2
xx
L
_
1
2
,
1
2
, 1
_
=
_
_
4 0
0 0
_
_
.
As, para todo v = (v
1
, v
2
) Ker(g

(
1
2
,
1
2
)), v ,= (0, 0) tenemos que
v
T

2
xx
L(1/2, 1/2, 1)v = 4v
2
1
> 0.
Luego aplicando la condicion suciente de segundo orden concluimos que el punto
(1/2, 1/2) es un mnimo local estricto.
157
(b) Para ver que (1/2, 1/2), (1/2, 1/2) son mnimos globales tenemos que ver si f es
convexa y g es afn. En efecto, es claro que f es convexa, pues la matriz hessiana
de f,

2
f(x) =
_
_
2 0
0 2
_
_
,
es denida positiva. Pero la funcion g no es convexa, entonces no podemos armar
que (1/2, 1/2), (1/2, 1/2) sean mnimos globales.
Ejercicio 6.3 Sea A R
nn
una matriz simetrica. Pruebe que resolver el problema
minf(x) =
1
2
x
T
Ax : [[x[[ = 1 implica hallar el menor autovalor de A.
Solucion. Observemos inicialmente que el problema tiene solucion ya que la funcion
objetivo es continua y el conjunto de las restricciones es compacto (ver Corolario 3.1).
Sea h(x) = [[x[[ 1 =
_
x, x) 1, entonces se tiene que
h(x) =
1
2
2x
_
x, x)
=
x
[[x[[

2
h(x) =
[[x[[I x
_
x
T
||x||
_
[[x[[
2
=
1
[[x[[
_
I
xx
T
[[x[[
2
_
.
Ademas, como para todo x tal que [[x[[ = 1 se tiene que h(x) = x ,= 0, entonces todo
punto viable es regular.
Sea x una solucion del problema de optimizacion entonces usando el Teorema 4.9 se tiene
que existe un unico

R tal que
x
L( x,

) = 0, donde L(x, ) =
1
2
x
T
Axh(x). Como

x
L(x, ) = Ax x se tiene que
A x =

x,
esto es,

es un autovalor de A y x es su respectivo autovector.
Probaremos nalmente que

es el menor autovalor de A. Como x es un punto de mnimo
de f(x) =
1
2
x
T
Ax sobre [[x[[ = 1, entonces
x
T
A x x
T
Ax. (6.8)
Sea un autovalor de A, luego existe x R
n
tal que [[x[[ = 1 satisfaciendo Ax = x.
Reemplazando esta ultima expresion en (6.8) se tiene que

, as

es el menor
autovalor de A.
158
Ejercicio 6.4 Sea f : R
n
R una funcion semicontinua inferior y limitada inferior-
mente. Dados p R
n
+
y > 0, pruebe que el problema:
minf(x) +
n

i=1
(x
i
ln(
x
i
p
i
) + p
i
x
i
) : x R
n
+

tiene solucion.
Solucion. Es suciente probar que la funcion h(x) =

n
i=1
(x
i
ln(
x
i
p
i
) + p
i
x
i
), es
coerciva en R
n
+
. Sea x
k
una sucesion crtica entonces |x
k
| +, es decir, (x
k
1
)
2
+
(x
k
2
)
2
+ ... + (x
k
n
)
2
+, as existe un ndice i
0
1, 2, ..., n tal que [x
k
i
0
[ +, por
la restriccion del problema se tiene x
k
i
0
+.Recordemos que la funcion g(z) = z ln z
es convexa en R
+
, entonces
g(z) g(t) + g

(t)(z t).
Tomemos z =
x
i
p
i
y t = 1, entonces
x
i
p
i
ln
x
i
p
i

x
i
p
i
1 lo cual equivale a x
i
ln
x
i
p
i
x
i
+p
i
0.
As, h(x) x
i
ln
x
i
p
i
x
i
+ p
i
, para todo i = 1, 2, ..., n.
En particular se tiene
h(x
k
) x
i
0
k
ln
x
i
0
k
p
i
0
x
i
0
k
+ p
i
0
de aqu se deduce que h(x
k
) x
i
0
k
(ln x
i
0
k
ln p
i
0
1) +p
i
0
como x
i
0
k
+, entonces
x
i
0
k
(ln x
i
0
k
ln p
i
0
1) +. Por lo tanto, h es coerciva.
Ejercicio 6.5 Sea S abierto y convexo en R
n
.
h : S R
n
R es llamada frontera coerciva si para todo y
k
R
n
tal que y
k
y
Front(S), se tiene que lim
k+
h(y
k
), x y
k
) = , x S. Pruebe que h(x) =

n
i=1
x
i
ln x
i
es frontera coerciva en R
n
+
.
Solucion. Sea h
i
(x
i
) = x
i
ln x
i
, entonces h

i
(x
i
) = ln x
i
+ 1. As
h(y
k
) =
_
_
_
_
_
_
_
_
ln y
k
1
+ 1
ln y
k
2
+ 1
.
.
.
ln y
k
n
+ 1
_
_
_
_
_
_
_
_
159
Luego, se tiene que
h(y
k
), x y
k
) =
n

i=1
(ln y
k
i
+ 1)(x
i
y
k
i
).
Sea y
k
una sucesion tal que y
k
y Front(R
n
+
), entonces existira un i
0
1, ..., n
tal que y
k
i
0
0. Tomando limite cuando k + al producto interno
h(y
k
), x y
k
) =
n

i=1
y
k
i
ln y
k
i
+ x
i
ln y
k
i
y
k
i
+x
i
, k +.
Ejercicio 6.6 (Mnimos cuadrados). Dados los puntos: P
1
= (x
1
, y
1
), P
2
= (x
2
, y
2
),
. . . , P
n
= (x
n
, y
n
) del plano, queremos encontrar la recta y = mx + b tal que la suma de
los cuadrados de las distancias verticales de estos puntos a la recta sea mnima, esto es,
queremos minimizar
f(m, b) =
n

i=1
(y
i
mx
i
b)
2
.
Demuestre que el mnimo ocurre cuando:
_

_
n

i=1
x
2
i
m +
n

i=1
x
i
b =
n

i=1
x
i
y
i
n

i=1
x
i
m +nb =
n

i=1
y
i
.
Solucion. Tenemos que f(m, b) =
n

i=1
(y
i
mx
i
b)
2
es convexa, (por ser suma de
funciones convexas), y esta denida en R
2
que es un conjunto convexo. Entonces el
problema de minimizar f es un problema convexo, as bastara resolver f(m, b) = (0, 0)
para encontrar los puntos de mnimo global.
En efecto:
f(m, b) = (2
n

i=1
(y
i
mx
i
b)(x
i
), 2
n

i=1
(y
i
mx
i
b)(1)) = (0, 0)
entonces:
_

_
n

i=1
(y
i
mx
i
b)x
i
= 0
n

i=1
(y
i
mx
i
b) = 0
160
luego se tiene
_

_
n

i=1
x
i
y
i
m
n

i=1
x
2
i
b
n

i=1
x
i
= 0
n

i=1
y
i
m
n

i=1
x
i
nb = 0
o equivalentemente,
_

_
n

i=1
x
2
i
m +
n

i=1
x
i
b =
n

i=1
x
i
y
i
n

i=1
x
i
m +nb =
n

i=1
y
i
.
Ejercicio 6.7 Encuentre la recta de mnimos cuadrados (ver el problema anterior) para
los datos: (3, 2), (4, 3), (5, 4), (6, 4) y (7, 5).
1 2 3 4
5 6 7
1
2
3
4
5
6
7
p
1
p
2
p
3 p
4
p
5
Figura 6.1:
Solucion. Del ejercicio anterior tenemos:
_

_
n

i=1
x
2
i
m +
n

i=1
x
i
b =
n

i=1
x
i
y
i
n

i=1
x
i
m +nb =
n

i=1
y
i
.
161
Por dato tenemos los puntos P
1
= (3, 2), P
2
= (4, 3), P
3
= (5, 4), P
4
= (6, 4) y P
5
= (7, 5).
Reemplazando los puntos en las ecuaciones anterior se tiene
_
_
_
(9 + 16 + 25 + 36 + 49)m + (3 + 4 + 5 + 6 + 7)b = (3)(2) + (4)(3) + (5)(4) + (6)(4) + (7)(5)
(3 + 4 + 5 + 6 + 7)m + 5b = 2 + 3 + 4 + 4 + 5
As debemos resolver el sistema
_
_
_
135m + 25b = 97
25m + 5b = 18
Resolviendo tenemos que m =
7
10
y b =
1
10
. Por lo tanto la recta es 10y = 7x + 1.
l
:
1
0
y
=
7
x
+
1
1 2 3 4
5 6 7
1
2
3
4
5
6
7
Figura 6.2: La recta 10y = 7x + 1 es la recta mas proxima a los puntos dados
6.5 Ejercicios Propuestos
162
Bibliografa
[1] Alizadeh, F. Interior Point Methods in Semidenite Programming with Applica-
tions to Combinatorial Optimization, SIAM J. Optimization, v. 5, n. 1, pp.13-51,
1995.
[2] Barbolla R., Cerda E., Sanz P., Optimizacion: cuestiones, ejercicios y aplicaciones
a la economa, Prentice Hall, Espa na, 2001.
[3] Bartle R.G., Introduccion al Analisis Matematico, LIMUSA, Mexico, 1980.
[4] R.S. Burachik, L.M. Gra na Drummond, A.N. Iusem and B.F. Svaiter, Full conver-
gence of the steepest descent method with inexact line searches, Optimization, v.
32, pp. 137-146, 1995.
[5] Cauchy, A., Methode Generale pour la Resolution des Systemes dEquations Si-
multanees, Comptes Rendus de Academie des Sciences, Paris, v. 25, pp. 536-538,
1847.
[6] Donath, W.E., Homan, A.J., Lower Bounds for the Partitioning of Graphs, IBM
J. Res. and Devel., v. 17, pp. 420-425, 1973.
[7] O. Guler, On the convergence of the proximal point algorithm for convex mini-
mization, SIAM J. Crontrol and Optimization, v. 29(2), pp. 403-419, 1991.
[8] A.N. Iusem and B.F. Svaiter, A proximal regularization of the steepest descent
method, RAIRO Recherche Operationelle/Operation Reseach, v. 29 (2), pp. 123-
130, 1995.
163
[9] Izmailov A. and Solodov M., Otimiza cao Volume 1, IMPA, Rio de Janeiro, Brazil,
2005.
[10] K. Kiwiel and K. Murty, Convergence of the steepest descent method for mini-
mization quasiconvex functions, JOTA Journal of Optimization Theory and Appli-
cations, v. 89 (1), pp. 221-226, 1996.
[11] Lages Lima, E., Curso de Analise, v. 2, IMPA, Rio de Janeiro, 2005.
[12] B. Martinet, Regularization, dinequations variationelles par approximations suc-
cessives, Revue Francaise qInformatique et de Recherche Operationelle, pp. 154-
159, 1970.
[13] Martinez J.M. and Santos S. A., Metodos Computacionais de Otimiza cao, 20 Colo-
quio Brasileiro de Matematica, IMPA, 1995.
[14] Overton, M.L., Womersley, R.S., Optimality Conditions and Duality Theory for
Minimizing Sums of the Largest Eigenvalues of Symmetric Matrices, Math. Pro-
gramming, v. 62, pp. 321-357, 1993.
[15] Papa Quiroz E.A, Oliveira P.R., A New Barrier for a Class of Semidenite Opti-
mization, RAIRO Operations Research, v. 40, p. 303-323, 2006.
[16] E.A. Papa Quiroz E.M. Quispe, and P. Roberto Oliveira, Steepest descent method
for quasiconvex minimization on Riemannian manifolds, Submmited, 2006.
[17] Papa Quiroz, E. A. and Oliveira, P. R. (2006), Classic and logarithmic-
quadratic proximal point method for quasiconvex minimization. Optimization On-
line, Preprint.
[18] Souza S., Oliveira P.R., Cruz Neto J.X. and Soubeyran A., A proximal Point Al-
gorithm with Bregman Distances for Quasiconvex Optimization over the Positive
Orthant. Por aparecer en la revista European Journal of Operational Research.
Preprint, 2006.
164
[19] R.T. Rockafellar, Monotone operators and the proximal point algorithm, SIAM J.
Control and Optimization, 14 (5) 1976, 877-898.
[20] R.T. Rockafellar and R. Wets, Variational Analysis. Grundlehren der Mathematis-
chen, Wissenschaften, 317, Springer, 1998.
165

You might also like