You are on page 1of 140

eines 52

Teora de estabilidad y control


Isaac A. Garca
Seminari de Sistemes Dinmics
Departament de Matemtica
Universitat de Lleida

ISBN: 978-84-8409-422-7
Edicions de la Universitat de Lleida, 2005
El autor
Maquetacin:
Servei de Publicacions (UdL)
Diseo cubierta:
cat & cas
Impresin:
Cargraphics
La reproduccin total o parcial de esta obra por cualquier procedimiento, incluidos la repro-
grafa y el tratamiento informtico, y la distribucin de ejemplares mediante alquiler o prsta-
mo pblico, queda rigurosamente prohibida sin la autorizacin de los titulares del copyright, y
ser sometida a las sanciones establecidas por la ley.
EINES es una colleccin del Institut de Cincies de lEducaci de la Universitat de
Lleida.






A mi mujer Susanna y a mi hija Nadia

Indice general
1. Introduccion y Ejemplos 1
1.1. Breve historia de control automatico . . . . . . . . . . . . . . . . 1
1.2. Algunos ejemplos fsicos . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1. Partcula en movimiento unidimensional . . . . . . . . . . 3
1.2.2. Termostato y transferencia de calor . . . . . . . . . . . . . 3
2. Control Clasico y Transformada de Laplace 5
2.1. El problema clasico de control . . . . . . . . . . . . . . . . . . . . 5
2.2. Transformada de Laplace y funci on de transferencia . . . . . . . 5
3. Solucion de Sistemas Lineales 7
3.1. Solucion espectral de sistemas lineales . . . . . . . . . . . . . . . 7
3.1.1. La matriz exponencial . . . . . . . . . . . . . . . . . . . . 8
3.1.2. El teorema de Cayley-Hamilton y la matriz exponencial . 11
3.2. Solucion de sistemas controlados . . . . . . . . . . . . . . . . . . 12
3.2.1. Existencia y unicidad de la soluci on . . . . . . . . . . . . 13
3.3. Relacion entre espacio de estados y el control clasico . . . . . . . 13
3.4. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 16
4. Sistemas de Control Lineal 23
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.2. Controlabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.3. Equivalencia Algebraica . . . . . . . . . . . . . . . . . . . . . . . 31
4.4. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 32
5. Observabilidad 37
5.1. Observabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.2. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 40
6. Realimentacion Lineal 43
6.1. Denicion y preliminares . . . . . . . . . . . . . . . . . . . . . . . 43
6.1.1. Realimentacion y funci on de transferencia . . . . . . . . . 46
6.2. Realimentacion frente a control precalculado . . . . . . . . . . . . 46
6.2.1. Sensibilidad a las condiciones iniciales . . . . . . . . . . . 48
Prologo
IX
VII

INDICE GENERAL
6.2.2. Sensibilidad a perturbaciones externas . . . . . . . . . . . 48
6.3. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 49
7. Estabilidad 53
7.1. Introduccion y deniciones . . . . . . . . . . . . . . . . . . . . . . 53
7.2. Estabilidad en sistemas lineales . . . . . . . . . . . . . . . . . . . 54
7.3. Teora de Liapunov de la estabilidad . . . . . . . . . . . . . . . . 56
7.3.1. Aplicacion a sistemas lineales . . . . . . . . . . . . . . . . 58
7.3.2. Estabilidad mediante linearizaci on . . . . . . . . . . . . . 59
7.4. Estabilidad y control . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.4.1. Estabilidad entradasalida . . . . . . . . . . . . . . . . . . 61
7.4.2. Estabilizacion por realimentaci on lineal . . . . . . . . . . 63
7.4.3. Linealizacion de sistemas de control no lineales . . . . . . 63
7.5. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 64
8. Calculo de Variaciones 75
8.1. Un ejemplo: braquistocrona . . . . . . . . . . . . . . . . . . . . . 75
8.2. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
8.3. Ecuaciones de EulerLagrange . . . . . . . . . . . . . . . . . . . 77
8.3.1. Lema fundamental del calculo de variaciones . . . . . . . 77
8.3.2. Ecuaciones de EulerLagrange . . . . . . . . . . . . . . . 78
8.3.3. Integrales primeras en casos simples . . . . . . . . . . . . 80
8.4. Extremos con restricciones . . . . . . . . . . . . . . . . . . . . . . 81
8.5. Apendice: Multiplicadores de Lagrange . . . . . . . . . . . . . . . 82
8.5.1. Problemas isoperimetricos . . . . . . . . . . . . . . . . . . 82
8.6. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 85
9. Control

Optimo 95
9.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
9.2. Control optimo: metodo hamiltoniano . . . . . . . . . . . . . . . 97
9.3. El regulador lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 99
9.4. Teora de Pontryagin . . . . . . . . . . . . . . . . . . . . . . . . . 101
9.5. Problemas resueltos . . . . . . . . . . . . . . . . . . . . . . . . . 103
10.Practicas 115
10.1. Control de la temperatura de una c amara . . . . . . . . . . . . . 115
10.1.1. Realizacion de la practica . . . . . . . . . . . . . . . . . . 116
10.2. Dinamica de satelites de comunicacion . . . . . . . . . . . . . . . 117
10.2.1. Un modelo matematico para la din amica de satelites . . . 117
10.2.2. Realizacion de la practica . . . . . . . . . . . . . . . . . . 119
10.3. El pendulo doble invertido . . . . . . . . . . . . . . . . . . . . . . 119
10.3.1. Realizacion de la practica . . . . . . . . . . . . . . . . . . 120
10.4. Estabilidad en el pendulo conico . . . . . . . . . . . . . . . . . . 121
10.4.1. Realizacion de la practica . . . . . . . . . . . . . . . . . . 122
10.5. Un modelo de gr ua con servomecanismo y regulador . . . . . . . 123
10.5.1. Realizacion de la practica . . . . . . . . . . . . . . . . . . 123
10.6. El regulador centrfugo de Watt . . . . . . . . . . . . . . . . . . . 125
10.6.1. Realizacion de la practica . . . . . . . . . . . . . . . . . . 126
VIII
Prologo
El presente libro de teora y problemas corresponde a los temas basicos de un
primer curso de introducci on al la teora de control y estabilidad en variables de
ca Industrial aunque el libro es igualmente recomendable para estudiantes de
otras titulaciones tecnicas.
El objetivo principal es que el alumno disponga de un material preliminar
para el curso, con los resultados principales y algunas demostraciones de estos.
Ademas es interesante que el alumno pueda seguir paso a paso la resolucion
de numerosos problemas de los temas mencionados como ejemplicacion de los
conceptos y resultados teoricos, complementando as los realizados en clase. Se
ha procurado presentar las soluciones en la forma m as practica y directa.
Me gustara que este libro facilitase el aprendizaje de la asignatura y, agrade-
cera cualquier sugerencia o comentario que pueda mejorarlo dirigiendose a la
siguiente direccion electronica: garcia@matematica.udl.es.
Dr. Isaac A. Garca, Septiembre de 2004
estado. El autor imparte dicha asignatura en la titulaci on de Ingeniera Tecni-
IX
Captulo 1
Introduccion y Ejemplos
1.1. Breve historia de control automatico
En este captulo introductorio revisaremos, en primer lugar, una breve in-
troduccion historica de la teora del control automatico.
El llamado control por retroalimentaci on es un mecanismo basico a traves
del cual sistemas de naturaleza muy diferente (mecanicos, electricos, biologi-
cos, etc...) mantienen su equilibrio. Por ejemplo, un cambio en la temperatura
corporal de 1 grado es, en general, una se nal de alg un tipo de enfermedad.
De hecho, de la teora de la evoluci on de las especies de Darwin se desprende
que la retroalimentaci on sobre largos periodos temporales es responsable de tal
evolucion.
Se puede denir el control por retroalimentaci on como el uso de diferentes
se nales, determinadas a partir de la comparaci on del estado actual del sistema y
del estado deseado, para controlar el sistema. Un ejemplo cotidiano de sistema
controlado por retroalimentaci on es el control de la velocidad de un coche me-
diante el uso de la diferencia entre la velocidad actual y la deseada para variar el
ujo de gasolina. El hecho de que la salida del sistema sea usada para regular la
entrada del sistema da lugar a lo que se llama sistema de control en lazo cerrado.
El control por retroalimentaci on es una disciplina de la ingeniera y, co-
mo tal, esta estrechamente relacionada con diversos problemas aplicados que la
humanidad ha querido resolver a lo largo de su historia. M as concretamente,
existio una epoca muy importante para el desarrollo de la teora de control que
se comprende entre la Revolucion Industrial y la primera y segunda Guerra
Mundial. El control necesit o adquirir el lenguaje de las matematicas para poder
expresarse correctamente. De este modo J.C. Maxwell introdujo el analisis ri-
guroso de la teora de control en 1868. Existen diversos periodos remarcables:
epoca primitiva desde 18681900; epoca clasica desde 19001960; epoca moderna
desde 1960 hasta la actualidad.
1
2 Introduccion y Ejemplos
La Revolucion Industrial en Europa introdujo nuevas m aquinas que no se
podan regular con la mano. De este modo se iniciaron los primeros dispositivos
de control automatico. Algunos de ellos son los reguladores de temperatura, de
presion, de velocidad, etc...
En 1840, el astronomo G.B. Airy desarroll o un sistema de retroalimentacion
para colocar su telescopio mediante un control de la velocidad con el n de
compensar la rotacion terrestre. Airy descubrio que un dise no poco adecuado del
sistema de lazo cerrado de retroalimentacion produca oscilaciones indeseables en
el sistema. De este modo introdujo el concepto de inestabilidad y la herramienta
de las ecuaciones diferenciales en su analisis.
J.C. Maxwell (1868) fue el primero en linearizar las ecuaciones diferenciales
del movimiento para hallar la ecuaci on caracterstica del sistema y analizar los
efectos de los parametros del sistema en su estabilidad.
En 1877, E.J. Routh muestra una tecnica numerica para determinar cuando
una ecuacion caracterstica tiene races estables. Ese mismo a no, I.I. Vishnegrad-
sky analizo la estabilidad de los reguladores usando ecuaciones diferenciales.
En 1892, A.M. Liapunov introdujo un trabajo b asico en teora de control,
estudiando la estabilidad de sistemas no lineales usando una generalizaci on del
concepto de energa.
Entre los a nos 18921898, O. Heaviside invent o el calculo operacional e in-
trodujo la llamada actualmente funci on de transferencia.
La teora de control clasica usa basicamente tecnicas de dominio frecuen-
cial en el plano complejo. Se basa en metodos de transformadas y es aplicable
principalmente a sistemas lineales autonomos. Los metodos de Nyquist y Bode
analizan la magnitud y la fase de la respuesta en frecuencia del sistema. Tiene
la gran ventaja de que la respuesta en frecuencia del sistema puede ser medida
experimentalmente y se puede pues calcular la funcion de transferencia. No se
necesita bajo este punto de vista una descripcion interna exacta del sistema en
el dominio temporal, es decir, solo es importante el comportamiento entrada
salida del sistema.
Sin embargo esta teora de control clasica es difcil de aplicar a sistemas con
varias entradas y m ultiples salidas. La teora de control moderna es fundamen-
talmente una teora de dise no en el dominio temporal (a diferencial de la cl asica
que es en el dominio frecuencial). Se requiere un modelo en el espacio de estados
del sistema que se desea controlar. Esta vision moderna es la que se dara en este
libro.
1.2 Algunos ejemplos fsicos 3
1.2. Algunos ejemplos fsicos
1.2.1. Partcula en movimiento unidimensional
Consideremos una partcula que se mueve en una recta y sea s(t) su distancia
al origen en funci on del tiempo. Supongamos que sobre la partcula act ua una
fuerza por unidad de masa u
1
(t) que le produce una aceleracion pero tambien
act ua una fuerza de rozamiento u
2
(t) por unidad de masa. Si las unicas canti-
dades cinematicas de interes son la posicion de la partcula x
1
(t) = s(t) y su
velocidad x
2
(t) = s(t), aplicando las leyes de la mecanica clasica, el estado de
la partcula (x
1
(t), x
2
(t)) verica el sistema de ecuaciaciones diferenciales
x
1
= x
2
, x
2
= u
1
(t) u
2
(t) .
Por supuesto, este sistema se puede escribir en notacion matricial de la forma
x = Ax +Bu , (1.1)
siendo
x =
_
x
1
x
2
_
, u =
_
u
1
u
2
_
, A =
_
0 1
0 0
_
, B =
_
0 0
1 1
_
.
Se puede preguntar c omo puede llegar la partcula a un cierto punto jo en
el menor tiempo posible o bien con un consumo mnimo de una cierta variable.
Matematicamente se trata de determinar las variables de control u
1
(t) y u
2
(t)
con un cierto objetivo.
1.2.2. Termostato y transferencia de calor
La temperatura interior T
i
de un horno se quiere controlar variando la entra-
da de calor u en las paredes. Denamos las capacidades calorcas de la pared
y del interior del horno como c
p
y c
i
respectivamente. Denotemos por A
i
y A
e
las areas interiores y exteriores de la pared del horno y por R
i
y R
e
los coe-
cientes de radiacion de las supercies interior y exterior del horno. Ignorando
otros efectos, si las temperaturas de la pared y del exterior del horno son T
p
y
T
e
, se tiene, tomando T
i
> T
p
> T
e
, para la pared
c
p

T
p
= A
e
R
e
(T
p
T
e
) A
i
R
i
(T
p
T
i
) +u ,
y para el interior del horno
c
i

T
i
= A
i
R
i
(T
p
T
i
) .
Suponiendo T
e
constante, si denimos las variables de estado x
1
= T
p
T
e
y
x
2
= T
i
T
e
se tiene
x
1
=

T
p


T
e
=

T
p
=
1
c
p
A
e
R
e
x
1

1
c
p
A
i
R
i
(x
1
x
2
) +
u
c
p
,
x
2
=

T
i


T
e
=

T
i
=
1
c
i
A
i
R
i
(x
1
x
2
) .
4 Introduccion y Ejemplos
Estas ecuaciones se pueden escribir de la forma x = Ax + bu, siendo x =
(x
1
, x
2
)
T
,
A =
_
(A
e
R
e
+A
i
R
i
)/c
p
(A
i
R
i
)/c
p
(A
i
R
i
)/c
i
(A
i
R
i
)/c
i
_
, b =
_
1/c
p
0
_
.
El objetivo puede ser analizar un controlador que regule, mediante una v alvu-
la por ejemplo, la cantidad de calor u(t) que se debe suministrar dependiendo
de la temperatura que marquen los termometros.
Captulo 2
Control Clasico y
Transformada de Laplace
2.1. El problema clasico de control
La teora de control clasica estudia sistemas con una entrada escalar u(t) R
y una salida escalar z(t) R. Si se requiere que z(t) este lo mas cerca posible
(en un cierto sentido) de una cierta se nal de referencia r(t), el sistema de control
se llama servomecanismo. Un caso particular es cuando r es constante, entonces
el sistema de control se llama regulador.
El modelo de la teora de control clasica es una ecuacion diferencial lineal de
orden n a coecientes constantes, es decir, z(t) verica la ecuacion
z
(n)
+k
1
z
(n1)
+ +k
n1
z

+k
n
z =
0
u
(m)
+
1
u
(m1)
+ +
m
u , (2.1)
donde los suprandices indican derivadas respecto de la variable independiente
t y k
i
y
i
son constantes.
2.2. Transformada de Laplace y funci on de trans-
ferencia
Denicion 1. Sea z : R
+
R una funcion real y continua a trozos. Se dene
la transformada de Laplace z(s) de z(t) de la forma
z(s) = Lz(t) =
_

0
z(t) exp(st) dt . (2.2)
Algunas de las propiedades de esta transformaci on son las siguientes:
Linealidad: L

n
i=1
c
i
z
i
(t) =

n
i=1
c
i
Lz
i
(t) para todo c
i
R.
5
6 Control Clasico y Transformada de Laplace
Derivacion:
Lz
(j)
(t) = s
j
z s
j1
z(0) s
j2
z
(1)
(0) sz
(j2)
(0) z
(j1)
(0) .
(2.3)
Tomando transformadas de Laplace en ambos miembros de la ecuacion (2.1)
y teniendo en cuenta la propiedad (2.3) se tiene k(s) z(s) = (s) u(s), siendo los
polinomios
k(s) = s
n
+k
1
s
n1
+ +k
n1
s +k
n
, (2.4)
(s) =
0
s
m
+
1
s
m1
+ +
m1
s +
m
. (2.5)
Es habitual presentarlo de la forma
z(s) = g(s) u(s) , (2.6)
siendo
g(s) =
(s)
k(s)
, (2.7)
una funci on racional conocida como funci on de transferencia.
Es preciso resaltar que este metodo solo es aplicable a sistemas lineales
con coecientes constantes. Nosotros seguiremos ideas diferentes para atacar
los problemas basicos del control.
Captulo 3
Soluci on de Sistemas
Lineales
3.1. Soluci on espectral de sistemas lineales
Consideraremos sistemas lineales sin variables de control, es decir, sistemas
del tipo
x = Ax , (3.1)
con A /
n
(R) una matriz cuadrada de orden n y x R
n
. Tomaremos un pro-
blema de valor inicial o de Cauchy, de este modo impondremos que x(0) = x
0
.
Supondremos que todos los valores propios
i
con i = 1, . . . , n, de la matriz A
son distintos
1
. Sean w
i
, con i = 1, . . . , n los vectores propios de A asociados a los
valores propios
i
, es decir, Aw
i
=
i
w
i
. Puesto que
i
,=
j
con i ,= j, se sabe
que el conjunto de vectores propios w
1
, . . . , w
n
son linealmente independientes
y en particular forman base de R
n
. En consecuencia se puede expresar la solucion
de (3.1) de la forma
x(t) =
n

i=1
c
i
(t)w
i
,
siendo c
i
(t) funciones escalares del tiempo. Derivando respecto de t la ecuacion
anterior y sustituyendo en (3.1) se obtiene
n

i=1
c
i
(t)w
i
= A
n

i=1
c
i
(t)w
i
=
n

i=1

i
c
i
(t)w
i
.
1
Esta no es una restriccion fuerte en los sistemas que aparecen en las aplicaciones reales
puesto que una peque na perturbacion en los coecientes a
ij
de la matriz A es suciente para
separar las races iguales del polinomio caracterstico de A. Recordemos que, habitualmente
dichos coecientes provienen de medidas experimentales y son, por lo tanto, conocidos hasta
un cierto grado de precision.
7
8 Solucion de Sistemas Lineales
Puesto que el conjunto de vectores propios w
1
, . . . , w
n
son linealmente inde-
pendientes, se obtiene
c
i
=
i
c
i
, i = 1, . . . , n ,
cuya solucion es
c
i
(t) = exp(
i
t) c
i
(0) , i = 1, . . . , n .
Se tiene, en denitiva, que
x(t) =
n

i=1
c
i
(0) exp(
i
t)w
i
. (3.2)
Sin embargo, interesa dar la soluci on x(t) en funcion de x(0). Para ello, de-
namos la matriz
W = [w
1
, . . . , w
n
] /
n
(R)
cuyas columnas son los vectores w
i
. Sea W
1
la matriz inversa de W, que
siempre existe puesto que rangW = n, y denamos sus las como los vectores
la v
i
con i = 1, . . . , n, es decir,
W
1
=
_

_
v
1
.
.
.
v
n
_

_
/
n
(R) .
Puesto que W
1
W = I
n
, siendo I
n
la matriz identidad de orden n, se verica
v
i
w
i
= 1 y v
i
w
j
= 0 si i ,= j. Multiplicando la ecuaci on (3.2) por la izquierda
por el vector v
j
y tomando nalmente t = 0 se obtiene v
j
x(0) = c
j
(0). De este
modo, la solucion de (3.1) viene dada por
x(t) =
n

i=1
(v
i
x(0)) exp(
i
t)w
i
. (3.3)
Esta expresion se conoce como la forma espectral de la solucion de (3.1).
3.1.1. La matriz exponencial
Veamos en esta seccion una forma alternativa para obtener la soluci on de
(3.1). Esta nueva forma evita el calculo de los vectores propios w
i
de la matriz
A necesarios en la forma espectral (3.3) de la solucion de (3.1).
La idea se basa en generalizar el caso escalar n = 1, con lo cual A es un
escalar en (3.1) y su solucion viene dada por
x(t) = exp(At)x
0
. (3.4)
Para conseguir dicha generalizacion, denamos la matriz exponencial
exp(At) =

k=0
t
k
k!
A
k
= I
n
+tA+
t
2
2!
A
2
+ . (3.5)
3.1 Solucion espectral de sistemas lineales 9
Esta serie innita de matrices es convergente
2
para cualquier A /
n
(R) y
para todo t R debido al hecho de que exp(zt) converje para cualquier pareja
de escalares nitos z y t. Es claro que, a partir de su denici on (3.5), se tiene
exp(O) = I
n
siendo O la matriz nula de orden n. Ademas, derivando termino a
termino (3.5) respecto de t se verica
d
dt
exp(At) = A+tA
2
+
1
2!
t
2
A
3
+ = A
_
I
n
+tA+
1
2!
t
2
A
2
+
_
= Aexp(At) ,
con lo cual
d
dt
exp(At) = Aexp(At) ,
de modo que podemos concluir que (3.4) representa la soluci on de (3.1).
La solucion del problema de Cauchy
x = Ax , x(t
0
) = x
0
, (3.6)
se encuentra, en la literatura de control, de la forma
x(t) = (t, t
0
)x
0
, (3.7)
donde
(t, t
0
) = exp[A(t t
0
)] , (3.8)
es una matriz cuadrada de orden n llamada matriz de transici on de estados. Es
facil demostrar que dicha matriz verica las siguientes propiedades:
d
dt
(t, t
0
) = A(t, t
0
) , (3.9)
(t, t) = I
n
, (3.10)
(t
0
, t) =
1
(t, t
0
), (3.11)
(t, t
0
) = (t, t
1
)(t
1
, t
0
). (3.12)
Observar que, en particular, la propiedad (3.11) implica
(exp(At))
1
= exp(At) . (3.13)
Resumimos a continuacion algunas de las propiedades m as importantes de
la matriz exponencial.
A y exp(A) conmutan, es decir, Aexp(A) = exp(A)A.
2
Una sucesion de matrices {A
k
} converge hacia A si lm
k
A
k
A = 0 para cualquier
norma matricial. La serie matricial

k=0
A
k
converge si la sucesion de sumas parciales {S
n
}
con S
n
=
n
k=0
A
k
converge cuando n . Si la funcion escalar f(z) se puede representar
por una serie de potencias f(z) =

k=0
c
k
x
k
convergente para |z| < R entonces la funcion
matricial f(A) =

k=0
c
k
A
k
converge si todos los valores propios
i
de la matriz cuadrada
A verican |
i
| < R.

10 Solucion de Sistemas Lineales


exp(O
n
) = I
n
, siendo O
n
e I
n
las matrices nulas e identidad de orden n.
Si Ay B conmutan, es decir, AB = BAentonces exp(AB) = exp(A) exp(B).
(exp(A))
1
= exp(A).
(exp(A))
T
= exp(A
T
).
d exp(tA)/dt = Aexp(tA).
Sea P una matriz no singular tal que B = P
1
AP. Entonces exp(B) =
P
1
exp(A)P.
Si D = diag
1
, . . . ,
n
es una matriz diagonal con elementos
i
en la
diagonal principal, entonces exp(D) = diagexp(
1
), . . . , exp(
n
) es una
matriz diagonal con elementos exp(
i
) en la diagonal principal.
Las dos ultimas propiedades permiten calcular de forma ecaz la exponencial
de una matriz A diagonalizable. En efecto, si A es diagonalizable existe una
matriz de cambio de base P no singular tal que D = P
1
AP, siendo D una
matriz diagonal con los valores propios de A en la diagonal principal.
Metodos para calcular la matriz exponencial
(i) Si todos los valores propios
i
de A son distintos, la formula de Sylvester
viene dada por
exp(At) =
n

k=1
Z
k
exp(
k
t) , (3.14)
siendo
Z
k
=
n

j=1
j=k
A
j
I
n

k

j
, (3.15)
matrices constantes que solo dependen de A y de sus valores propios
j
, pero no
de sus vectores propios w
i
. Notar la semejanza entre la formula de Sylvester y la
formula de interpolaci on polinomial de Lagrange utilizada en metodos numeri-
cos.
(ii) Otro metodo alternativo para calcular la matriz exponencial de A cuando
todos sus valores propios
i
son diferentes es el siguiente.
exp(At) = r(A) , (3.16)
siendo r() un polinomio de grado menor o igual que n 1 cuyos coecientes
son funciones del tiempo t obtenidos de la forma
r(
i
) = exp(
i
t) , i = 1, . . . , n .
La demostracion de este hecho es una consecuencia de la siguiente seccion.
3.1 Solucion espectral de sistemas lineales 11
(iii) El calculo de la matriz exponencial es tedioso en muchas ocasiones, de
modo que los manipuladores algebraicos son de gran ayuda en dicho c alculo. Por
ejemplo, con el programa Mathematica, el comando MatrixExp[A] calcula la
matriz exponencial de la matriz A.
3.1.2. El teorema de Cayley-Hamilton y la matriz expo-
nencial
Sea A /
n
(R). En este metodo no es necesario suponer ni que los valores
propios de A son distintos ni que A diagonaliza.
En primer lugar, denotamos por k() el polinomio caracterstico de A, y sean

i
los valores propios de A con multiplicidad algebraica m
i
para i = 1, . . . , k,
siendo k n. Por el Teorema de Cayley-Hamilton se sabe que k(A) = 0.
Se efect ua la descomposicion en fracciones simples
1
k()
=
k

i=1
p
i
()
(
i
)
m
i
,
siendo p
i
() polinomios de grado menor o igual que m
i
1. Deniendo los
polinomios q
i
() = k()/(
i
)
m
i
, con i = 1, . . . , k, la anterior ecuacion se
reescribe de la forma
1 =
k

i=1
p
i
()q
i
() . (3.17)
Evaluando este polinomio en A se tiene la identidad
I
n
=
k

i=1
p
i
(A)q
i
(A) .
Por otra parte, observemos que
exp(At) = exp(
i
tI
n
) exp[(A
i
I
n
)t] = exp(
i
t)I
n
exp[(A
i
I
n
)t]
= exp(
i
t)

j=0
t
j
(A
i
I
n
)
j
j!
,
de modo que, multiplicando por la izquierda ambos miembros por q
i
(A) se
obtiene la siguiente igualdad con suma nita
q
i
(A) exp(At) = exp(
i
t)
m
i
1

j=0
t
j
q
i
(A)(A
i
I
n
)
j
j!
, (3.18)
donde se ha teniendo en cuenta el Teorema de Cayley-Hamilton de modo que
q
i
(A)(A
i
I
n
)
j
= k(A)(A
i
I
n
)
jm
i
= 0. Multiplicando nalmente la
12 Solucion de Sistemas Lineales
ecuacion (3.18) por la izquierda por p
i
(A), sumando para todo i desde 1 has-
ta k y teniendo en cuenta (3.17) se obtiene la siguiente expresion de la matriz
exponencial
exp(At) =
k

i=1
_
_
exp(
i
t)p
i
(A)q
i
(A)
m
i
1

j=0
t
j
(A
i
I
n
)
j
j!
_
_
. (3.19)
Nota 2. Observar que los grados de los polinomios p
i
y q
i
son m
i
1 y nm
i
respectivamente, de modo que, en el caso particular de que todos los valores
propios de A sean distintos, es decir, m
i
= 1, entonces exp(At) = r(A) siendo
r un polinomio de grado menor o igual que n 1 vericando ademas r(
i
) =
exp(
i
t) para i = 1, . . . , n.
3.2. Soluci on de sistemas controlados
Consideremos el sistema controlado
x = Ax +Bu , x(0) = x
0
, (3.20)
con A /
n
(R), B /
nm
(R) matrices constantes, x(t) R
n
y u(t)
R
m
. Multiplicando por la izquierda ambos miembros de (3.20) por la matriz
exp(At) se obtiene
exp(At) x exp(At)Ax = exp(At)Bu .
Utilizando ahora que las matrices exp(At) y A conmutan y teniendo en cuenta
la propiedad (3.9), es decir,
d
dt
[exp(At)] = Aexp(At) ,
se llega a que
d
dt
[exp(At)x] = exp(At)Bu .
Integrando dicha ecuacion respecto de t y teniendo en cuenta (3.13) se tiene
x(t) = exp(At)
_
x
0
+
_
t
0
exp(A)Bu() d
_
. (3.21)
Si se utiliza la condicion inicial x(t
0
) = x
0
, integrando entre t
0
y t se obtiene
x(t) = (t, t
0
)
_
x
0
+
_
t
t
0
(t
0
, )Bu() d
_
. (3.22)
3.3 Relacion entre espacio de estados y el control clasico 13
3.2.1. Existencia y unicidad de la soluci on
Presentamos a continuaci on un resultado sobre la existencia y unicidad del
problema de Cauchy asociado a una sistema lineal controlado por un control
continuo a trozos de gran utilidad en aplicaciones a la ingeniera.
Denicion 3. El control u(t) : [t
0
, t
1
] R
m
es continuo a trozos en el intervalo
[t
0
, t
1
] si existe una partici on nita de dicho intervalo t
0
= s
0
< s
1
< < s
h
=
t
1
, tal que la funci on u(t) es continua en cada subintervalo abierto (s
i1
, s
i
) para
i = 0, 1, . . . , h. Ademas, para cada i, lm
ts
+
i
u(t) existe y es nito si i ,= h y
lm
ts

i
u(t) existe y es nito si i ,= 0.
Denicion 4. Una solucion del problema de Cauchy x = Ax + Bu(t) con
x(t
0
) = x
0
y u(t) continua a trozos en el intervalo [t
0
, t
1
] es una funcion x(t) :
[t
0
, t
1
] R
n
continua y con derivada continua en [t
0
, t
1
] excepto en los puntos
de discontinuidad de u(t) que ademas verique x = Ax +Bu(t) donde exista.
Teorema 5. El problema de Cauchy x = Ax+Bu(t) con x(t
0
) = x
0
y u(t) con-
tinua a trozos en el intervalo [t
0
, t
1
] admite una unica solucion x(t) : [t
0
, t
1
]
R
n
que viene dada por (3.22).
3.3. Relaci on entre espacio de estados y el con-
trol clasico
Consideremos la ecuacion diferencial escalar lineal de orden n a coecientes
constantes que aparece en teora de control clasica
z
(n)
+k
1
z
(n1)
+ +k
n
z = u(t) , (3.23)
siendo u(t) R la variable de control. Realizando el cambio de variable
w
1
= z , w
2
= z , . . . , w
n
= z
(n1)
, (3.24)
y teniendo en cuenta que w
i
= w
i+1
para i = 1, . . . , n 1, la ecuacion (3.23) se
puede escribir de la forma canonica controlable
3
w = Cw +du , (3.25)
donde w = (w
1
, . . . , w
n
)
T
, d = (0, . . . , 0, 1)
T
and
C =
_
_
_
_
_
_
0 1 0 . . . 0
0 0 1 . . . .
. . . . . . .
. . . . . . .
k
n
k
n1
k
n2
. . . k
1
_
_
_
_
_
_
/
n
(R) , (3.26)
3
En el captulo siguiente (ver Teorema 14) se entendera mejor el nombre canonica con-
trolable.
14 Solucion de Sistemas Lineales
es la llamada matriz companion. Observar que el polinomio caracterstico k()
de C es
k() = det(I
n
C) =
n
+k
1

n1
+ +k
n
.
Notar que este polinomio caracterstico es justo el denominador de la funci on de
transferencia que se obtiene si se aplican transformadas de Laplace a la ecuacion
(3.23).
Hemos visto que la ecuacion escalar (3.23) se puede escribir en forma matri-
cial con las variables de estado. Es natural preguntarse si el inverso es siempre
posible, es decir, nos preguntamos si cualquier sistema lineal x = Ax + bu(t)
con u escalar se puede escribir en la forma clasica (3.23) mediante un cambio
de variables lineal. La respuesta la contiene el siguiente resultado.
Teorema 6. El sistema lineal x = Ax +bu con A /
n
(R) matriz constante,
b R
n
vector columna y u(t) R puede ser transformado mediante un cambio
lineal w = Tx con T /
n
(R) no singular en la forma can onica controlable
(3.25) si y solo si
rang[b, Ab, A
2
b, . . . , A
n1
b] = n . (3.27)
Demostracion. Demostremos la suciencia, es decir, supongamos que se ve-
rica (3.27) y veamos que existe la matriz T del enunciado.
Realizando el cambio de variables w = Tx en el sistema x = Ax + bu se
obtiene el sistema transformado
w = TAT
1
w +Tbu . (3.28)
Veamos que es posible construir la matriz T de modo que la ecuacion (3.28) sea
(3.25). Impongamos la siguiente forma de dicha T
T =
_

A
A
2
.
.
.
A
n1
_

_
/
n
(R) , (3.29)
siendo R
n
un vector la tal que T sea no singular. De momento supondremos
que tal existe. Denotemos por s
i
a la i-esima columna de la matriz T
1
, es
decir, sea T
1
= [s
1
, . . . , s
n
]. Consideremos la matriz
TAT
1
=
_
_
_
_
_
As
1
As
2
As
n
A
2
s
1
A
2
s
2
A
2
s
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
n
s
1
A
n
s
2
A
n
s
n
_
_
_
_
_
.
3.3 Relacion entre espacio de estados y el control clasico 15
Comparando los coecientes de esta matriz con los coecientes que se obtienen
de la identidad TT
1
= I
n
, es decir,
_
_
_
_
_
s
1
s
2
s
n
As
1
As
2
As
n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
n1
s
1
A
n1
s
2
A
n1
s
n
_
_
_
_
_
= I
n
,
se deduce que la i-esima la de la matriz TAT
1
coincide con la i +1-esima la
de la matriz identidad I
n
para i = 1, . . . , n 1. Por lo tanto, la matriz TAT
1
coincide con la matriz companion C dada en (3.26) con k
i
= A
n
s
ni+1
.
Para que (3.28) coincida con (3.25) s olo nos falta imponer que Tb = d.
Sustituyendo en esta igualdad la matriz (3.29) y teniendo en cuenta que d =
(0, . . . , 0, 1)
T
se obtiene
b = 0 , Ab = 0, . . . , A
n2
b = 0 , A
n1
b = 1 , (3.30)
o, de forma equivalente,
[b, Ab, . . . , A
n1
b] = d
T
. (3.31)
Observar que esta ecuacion tiene una unica solucion debido a la condici on de
rango maximo (3.27).

Unicamente falta por demostrar que la matriz T es, en efecto, no singular. Lo


probaremos mostrando que sus las son linealmente independientes. Realizamos
por lo tanto la combinaci on lineal de las las de T siguiente

1
+
2
A+ +
n
A
n1
= 0 ,
con ciertos escalares
i
. Multiplicando esta combinaci on lineal por la derecha
por b y usando (3.30) se tiene que
n
= 0. De forma analoga, es decir, multipli-
cando por la derecha por Ab, luego A
2
b y as sucesivamente y usando (3.30) se
llega a que
n1
= =
1
= 0. En resumen, T es no singular.
Demostremos ahora la necesidad, es decir, supongamos que existe la matriz T
no singular tal que el sistema (3.28) coincida con el sistema (3.25). En particular
se tiene Tb = d y TAT
1
= C.
Denamos r = rang[b, Ab, A
2
b, . . . , A
n1
b]. Queremos llegar a ver que r = n.
Puesto que T es no singular, es claro que r = rang[Tb, TAb, TA
2
b, . . . , TA
n1
b].
Reordenando se obtiene que r = rang[Tb, (TAT
1
)Tb, . . . , (TAT
1
)
n1
Tb].
Pero es claro que entonces r = rang[d, Cd, . . . , C
n1
d]. Teniendo en cuenta que
C tiene la forma dada en (3.26) y que d = (0, . . . , 0, 1)
T
por denici on, es facil
comprobar que la matriz U = [d, Cd, . . . , C
n1
d] tiene forma triangular. M as
concretamente, si denotamos por u
ij
a los elementos de la matriz U entonces
u
ij
=
_
1 si i = j ,
0 si i > j .
En particular el rango r de U es maximo, o sea r = n.
16 Solucion de Sistemas Lineales
Nota 7. Observar que la demostraci on del Teorema 6 es constructiva en el
sentido de que T se puede construir mediante (3.29) donde es la solucion de
(3.31).
3.4. Problemas resueltos
1. Hallar la soluci on general del sistema lineal
_
x
y
_
=
_
0 1
2 3
__
x
y
_
utilizando diferentes metodos:
(i) Mediante la forma espectral de la soluci on.
(ii) Calculando la matriz exponencial mediante la f ormula de Sylvester.
(iii) Calculando la matriz exponencial como un polinomio matricial ade-
cuado.
Solucion. (i) La forma espectral de la solucion general del sistema lineal
z = Az viene dado por
z(t) =
n

i=1
(v
i
z(0)) exp(
i
t)w
i
,
siendo
i
y w
i
los valores y vectores propios asociados a la matriz A.
Ademas, si W = colw
1
, . . . , w
n
, entonces W
1
= lv
1
, . . . , v
n
.
En nuestro caso se tiene
A =
_
0 1
2 3
_
,
de modo que, el polinomio caracterstico k() asociado a A es
k(A) = det(I
2
A) =

1
2 3

=
2
3 + 2 = ( + 1)( + 2) .
Entonces, los valores propios (races del polinomio caracterstico) de A son

1
= 1 ,
2
= 2 .
Los vectores propios w
i
verican Aw
i
=
i
w
i
o bien, de forma equivalente
(A
i
I
2
)w
i
= 0. Entonces se tiene
w
1
= (
1
,
1
) verica el sistema lineal homogeneo
_
1 1
2 2
__

1

1
_
=
_
0
0
_
,
cuya solucion es
1
+
1
= 0, de modo que, w
1
= (1, 1)
T
.
3.4 Problemas resueltos 17
Sea w
2
= (
2
,
2
). Entonces se verica el sistema lineal homogeneo
_
2 1
2 1
__

2

2
_
=
_
0
0
_
,
cuya solucion es 2
2
+
2
= 0, de modo que, w
2
= (1, 2)
T
.
Se tiene pues que
W =
_
1 1
1 2
_
,
por lo tanto su matriz inversa es
W
1
=
_
2 1
1 1
_
,
de lo que v
1
= (2, 1) y v
2
= (1, 1). Finalmente, aplicando la f ormula
de la solucion en forma espectral se obtiene
_
x(t)
y(t)
_
= v
1
_
x(0)
y(0)
_
exp(
1
t)w
1
+v
2
_
x(0)
y(0)
_
exp(
2
t)w
2
= (2, 1)
_
x(0)
y(0)
_
exp(t)
_
1
1
_
+
(1, 1)
_
x(0)
y(0)
_
exp(2t)
_
1
2
_
=
_
[2x(0) +y(0)] exp(t) [x(0) +y(0)] exp(2t)
[2x(0) +y(0)] exp(t) + 2[x(0) +y(0)] exp(2t)
_
.
(ii) Como todos los valores propios
i
de A son distintos, se puede utilizar
la formula de Sylvester (3.14) dada por
exp(At) =
n

k=1
Z
k
exp(
k
t) ,
siendo
Z
k
=
n

j=1
j=k
A
j
I
n

k

j
,
matrices constantes que solo dependen de A y de sus valores propios
j
.
En nuestro problema se tiene
exp(At) = Z
1
exp(t) +Z
2
exp(2t) ,
donde
Z
1
=
A+ 2I
2
1 + 2
=
_
2 1
2 1
_
,
Z
2
=
A+I
2
2 + 1
=
_
1 1
2 2
_
.
18 Solucion de Sistemas Lineales
De este modo, la solucion general del sistema lineal es
_
x(t)
y(t)
_
= exp(At)
_
x(0)
y(0)
_
,
siendo la matriz exponencial de A
exp(At) = exp(t)
_
2 1
2 1
_
+ exp(2t)
_
1 1
2 2
_
.
(iii) Otro metodo alternativo para calcular la matriz exponencial de A
cuando todos sus valores propios
i
son diferentes viene dado (3.16), es
decir, puesto que A /
2
(R) se tiene
exp(At) = r(A)
con r() un polinomio de grado menor o igual que 1 cuyos coecientes son
funciones del tiempo t obtenidos de la forma
r(
i
) = exp(
i
t) , i = 1, 2 .
Sea r() = r
0
(t) +r
1
(t). Entonces, la anterior condici on se escribe como
r
0
(t) r
1
(t) = exp(t) , r
0
(t) 2r
1
(t) = exp(2t) ,
cuya solucion es
r
0
(t) = 2 exp(t) exp(2t) , r
1
(t) = exp(t) exp(2t) .
En conclusion, la solucion general del sistema lineal es
_
x(t)
y(t)
_
= exp(At)
_
x(0)
y(0)
_
,
siendo la matriz exponencial de A
exp(At) = r
0
(t)I
2
+r
1
(t)A
= [2 exp(t) exp(2t)]
_
1 0
0 1
_
+
[exp(t) exp(2t)]
_
0 1
2 3
_
.
2. Demostrar que Lexp(At) = (sI
n
A)
1
, siendo A /
n
(R) y L. la
transformada de Laplace.
Solucion. Consideremos el problema de Cauchy x = Ax, x(0) = x
0
.
Tomando transformadas de Laplace L x = LAx y teniendo en cuenta
la condicion inicial x(0) = x
0
se obtiene
s x(s) x
0
= A x(s) ,
3.4 Problemas resueltos 19
de donde, despejando tenemos
x(s) = (sI
n
A)
1
x
0
.
Antitransformando en esta ecuacion se obtiene
x(t) = L
1
(sI
n
A)
1
x
0

Comparando esta expresion con la solucion x(t) = exp(At)x


0
del problema
de Cauchy x = Ax, x(0) = x
0
se concluye que Lexp(At) = (sI
n
A)
1
tal y como se quera probar.
3. Hallar la soluci on del problema de Cauchy
_
x
1
x
2
_
=
_
0 1
1 0
_ _
x
1
x
2
_
+
_
0
t
_
,
_
x
1
(0)
x
2
(0)
_
=
_
0
0
_
.
Solucion. El sistema del enunciado se puede escribir como x = Ax +Bu,
siendo x = (x
1
, x
2
)
T
R
2
,
A =
_
0 1
1 0
_
,
y donde el termino Bu se puede tomar de varias formas. Por ejemplo
B =
_
0
1
_
R
2
, u(t) = t R .
Teniendo en cuenta (3.22), la solucion del problema de Cauchy x = Ax +
Bu con x(0) = x
0
es
x(t) = (t, 0)
_
x
0
+
_
t
0
(0, )Bu() d
_
,
siendo (t, 0) = exp(At) la matriz de transicion de estados. Es facil com-
probar que dicha matriz es una matriz de rotaci on en el plano
(t, 0) =
_
cos t sin t
sin t cos t
_
,
siendo su inversa
(0, t) =
_
cos t sin t
sin t cos t
_
1
=
_
cos t sin t
sin t cos t
_
.
Se tiene pues que
x(t) =
_
cos t sin t
sin t cos t
___
0
0
_
+
_
t
0
_
cos sin
sin cos
__
0

_
d
_
,
de modo que, tras nalizar todos los calculos involucrados se obtiene
x(t) =
_
t sin t
1 cos t
_
.
20 Solucion de Sistemas Lineales
4. Sea u(t) la fuerza total por unidad de masa que act ua sobre una partcula.
Demostrar que la posici on en funcion del tiempo x(t) viene dada por
x(t) = x(0) + x(0)t +
_
t
0
(t )u() d .
Solucion. La ecuacion del movimiento es, seg un las leyes de la mecanica
clasica, x = u(t). Pasando a las variables de estado o variables de fase
y = x se tiene
x = y , y = u(t) .
Podemos escribir este sistema en forma matricial como
_
x
y
_
=
_
0 1
0 0
__
x
y
_
+
_
0
1
_
u(t) ,
es decir, deniendo z = (x, y)
T
, se tiene z = Az +bu, siendo
A =
_
0 1
0 0
_
, b =
_
0
1
_
.
La solucion z(t) viene expresada, seg un (3.21), por
z(t) = exp(At)
_
z
0
+
_
t
0
exp(A)bu() d
_
, (3.32)
siendo z(0) = z
0
.
Realizamos ahora un parentesis para calcular la matriz exp(A). Un
simple calculo por cualquiera de los metodos explicados en teora muestra
que
exp(At) = I
2
+At =
_
1 t
0 1
_
. (3.33)
En realidad, en este caso particular es facil ver que A
2
= O, es decir,
la matriz A es nilpotente. Por lo tanto, la expresi on dada de exp(At) se
sigue de la propia denici on de matriz exponencial (3.5) donde la serie es
truncada y se convierte en polinomial, es decir,
exp(At) =

k=0
t
k
k!
A
k
= I
2
+tA+
t
2
2!
A
2
+ = I
2
+tA .
Introduciendo (3.33) en (3.32) y teniendo en cuenta las expresiones de A
y b se tiene
z(t) =
_
x(t)
y(t)
_
=
_
1 t
0 1
___
x(0)
y(0)
_
+
_
t
0
_
1
0 1
__
0
1
_
u() d
_
.
3.4 Problemas resueltos 21
Finalmente, extrayendo de esta ecuacion la primera componente x(t) y
recordando que y = x se obtiene el resultado deseado
x(t) = x(0) + x(0)t +
_
t
0
(t )u() d .
5. Averiguar si el sistema lineal
_
x
1
x
2
_
=
_
1 3
4 2
__
x
1
x
2
_
+
_
1
1
_
u(t) ,
puede ser transformado en la forma can onica controlable mediante un cam-
bio lineal de coordenadas. Dar, si es posible, dicho cambio y la forma
canonica controlable asociada al sistema.
Solucion. El sistema del enunciado se puede escribir en forma compacta
como x = Ax +bu con las deniciones usuales, es decir,
A =
_
1 3
4 2
_
, b =
_
1
1
_
.
Puesto que A /
2
(R), recordemos que, la forma canonica controlable
(3.25) dada por w = Cw + du con w R
2
, d = (0, 1)
T
y C /
2
(R) la
matriz companion, no es mas que la expresion de un sistema lineal que
provenga mediante el cambio usual de una ecuaci on diferencial escalar de
segundo orden a coecientes constantes (3.23), es decir, z + k
1
z + k
2
z =
u(t).
Sabemos, por el Teorema 6, que existira un cambio de variables lineal
w = Tx con T /
2
(R) no singular que transformar a el sistema dado en
el enunciado a la forma canonica controlable si y solo si rang[b, Ab] = 2.
En nuestro problema se tiene
[b, Ab] =
_
1 2
1 6
_
,
de modo que se verica rang[b, Ab] = 2.
Una vez se sabe que existe la transformacion lineal w = Tx, solo falta
hallar la matriz T /
2
(R). Para ello recordemos la Nota 7, es decir, T
se puede construir mediante (3.29) donde es la solucion de (3.31). En
otras palabras,
T =
_

A
_
/
2
(R) ,
donde verica
[b, Ab] = d
T
.
22 Solucion de Sistemas Lineales
En nuestro problema, despejando de la anterior ecuacion se tiene
= d
T
[b, Ab]
1
= (0, 1)
_
1 2
1 6
_
1
=
1
8
(0, 1)
_
6 2
1 1
_
=
1
8
(1, 1) .
Finalmente, se tiene
T =
_

A
_
=
1
8
_
1 1
3 5
_
.
Sabemos que, ver (3.28), realizando el cambio de variables w = Tx en el
sistema x = Ax +bu se obtiene el sistema transformado
w = TAT
1
w +Tbu ,
con C = TAT
1
y Tb = d = (0, 1)
T
. Desarrollando se tiene
_
w
1
w
2
_
=
_
0 1
14 3
__
w
1
w
2
_
+
_
0
1
_
u(t) ,
que, obviamente, corresponde a una ecuacion escalar de segundo orden del
control clasico. Mas concretamente, deniendo z = w
1
= 1/8(x
1
+ x
2
)
se concluye que
z 3 z + 14z = u(t) .
Captulo 4
Sistemas de Control Lineal
4.1. Introducci on
En este captulo abordaremos algunos de los problemas propios del control.
Consideremos el sistema lineal controlado
x = Ax +Bu , (4.1)
con A /
n
(R) y B /
nm
(R) matrices constantes, x(t) R
n
y u(t) R
m
.
4.2. Controlabilidad
Denicion 8. El sistema (4.1) se dice que es completamente controlable si,
para cualquier t
0
, cualquier estado inicial x(t
0
) = x
0
y cualquier estado nal x
f
,
existe un tiempo nito t
1
con t
1
> t
0
y un control u(t) denido para t
0
t t
1
tal que x(t
1
) = x
f
.
El termino completamentesignica que la anterior denici on se satisface
para todox
0
y x
f
.
Nota 9. Es habitual suponer que el control u(t) es cotinuo a trozos, es decir,
continuo excepto en un n umero nito de tiempos del intervalo [t
0
, t
1
].
Nota 10. En la Denicion 8 se puede tomar el estado nal x
f
= 0 sin perdida
de generalidad. Ademas, puesto que A y B son matrices constantes (no dependen
del tiempo) tambien se puede elegir el origen de tiempos de modo que t
0
= 0.
La Nota 10 es debida a que, la solucion x(t) de (4.1) viene dada por (3.22),
es decir,
x(t) = (t, t
0
)
_
x
0
+
_
t
t
0
(t
0
, )Bu() d
_
.
De este modo se tiene
x
f
= (t
1
, t
0
)
_
x
0
+
_
t
1
t
0
(t
0
, )Bu() d
_
,
23
24 Sistemas de Control Lineal
que, reagrupando terminos, se puede escribir como
0 = (t
1
, t
0
)
_
x
0
(t
0
, t
1
)x
f
+
_
t
1
t
0
(t
0
, )Bu() d
_
,
puesto que la matriz (t
1
, t
0
) es no singular, siendo su inversa (t
0
, t
1
). Por lo
tanto se observa que, si el control u(t) transere el estado inicial x
0
en el estado
nal x
f
, entonces tambien transere el estado x
0
(t
0
, t
1
)x
f
al origen en el
mismo tiempo t
1
t
0
.
El siguiente resultado muestra un criterio algebraico que caracteriza a los
sistemas lineales (4.1) completamente controlables.
Teorema 11. El sistema x = Ax + Bu dado en (4.1) es completamente con-
trolable si y s olo si la matriz de controlabilidad
U = [B, AB, A
2
B, . . . , A
n1
B] /
nnm
(R) (4.2)
tiene rango maximo, es decir, rangU = n.
Demostracion. Probemos en primer lugar la necesidad. Suponemos pues que
el sistema (4.1) es completamente controlable (asumiendo t
0
= 0 y x
f
= 0
debido a la Nota 10) y queremos ver entonces que rangU = n. Utilizaremos una
demostracion por reduccion al absurdo, es decir, supondremos que rangU < n
y llegaremos a una contradicci on.
Si rangU < n entonces existe una combinacion lineal de las de U que da el
vector la nulo. Dicho de otro modo, existe un vector la q R
n
con q ,= 0 tal
que
qB = 0 , qAB = 0 , . . . , qA
n1
B = 0 . (4.3)
Utilizando la solucion (3.21) del sistema (4.1) con las condiciones x(0) = x
0
se
tiene
x(t) = exp(At)
_
x
0
+
_
t
0
exp(A)Bu() d
_
,
de modo que, tomando t = t
1
con x(t
1
) = 0 se obtiene
x
0
=
_
t
1
0
exp(A)Bu() d .
Teniendo en cuenta que exp(At) = r(A) con r un polinomio de grado menor
o igual que n 1, la anterior ecuacion queda de la forma
x
0
=
_
t
1
0
(r
0
()I
n
+r
1
()A+ +r
n1
()A
n1
)Bu() d ,
siendo r
i
(t) R los coecientes del polinomio r. Multiplicando esta ecuacion
por la izquierda por el vector la q y utilizando (4.3) se llega a que qx
0
= 0.
Como el sistema (4.1) es completamente controlable, el desarrollo efectuado an-
teriormente sirve para cualquier x
0
. Entonces la condicion qx
0
= 0 implica q = 0
4.2 Controlabilidad 25
en contradiccion con la hip otesis inicial rangU < n.
Probemos en segundo lugar la suciencia. Para ello supondremos que rangU =
n y hemos de demostrar que el sistema (4.1) es completamente controlable, es
decir, que existe una funci on de control u(t) denida en el intervalo de tiempo
0 t t
1
tal que x(t
1
) = 0.
Consideremos la siguiente matriz cuadrada
M =
_
t
1
0
exp(A)BB
T
exp(A
T
) d /
n
(R) . (4.4)
Es obvio que M es una matriz constante. Ademas M es simetrica puesto que
M
T
=
__
t
1
0
exp(A)BB
T
exp(A
T
) d
_
T
=
_
t
1
0
_
exp(A)BB
T
exp(A
T
)

T
d
=
_
t
1
0
[exp(A
T
)]
T
BB
T
[exp(A)]
T
d
=
_
t
1
0
exp(A)BB
T
exp(A
T
) d = M .
Vamos a probar que M es no singular demostrando que es, en realidad, una
matriz denida positiva. Sea R
n
un vector columna arbitrario y denamos el
vector la () =
T
exp(A)B. Asociamos a M la siguiente forma cuadr atica

T
M =
_
t
1
0
()
T
() d =
_
t
1
0
|()|
2
d 0 , (4.5)
de modo que M es semidenida positiva. Vamos a ver a continuaci on que M
es no singular por reducci on al absurdo. Se sabe que M es singular si y solo si
existe un vector columna, ,= 0 tal que
T
M = 0. Esto implica, teniendo en
cuenta (4.5), que

() =
T
exp(A)B 0 para todo 0 t
1
. Utilizando
la denicion de matriz exponencial, la anterior condici on se escribe como

T
_
I
n
A+

2
2!
A
2
+
_
B 0 , 0 t
1
.
Ello es equivalente a imponer que

T
B = 0 ,
T
AB = 0 ,
T
A
2
B = 0, . . . ,
de manera que
T
U = 0 siendo U la matriz de controlabilidad (4.2). Pero, como
por hip otesis U tiene rango maximo, es decir rango n, es imposible que existe
un vector ,= 0 vericando
T
U = 0.
Hemos llegado pues a una contradicci on y por lo tanto M es no singular.
Entonces es posible tomar el siguiente control
u() = B
T
exp(A
T
)M
1
x
0
, 0 t
1
. (4.6)
26 Sistemas de Control Lineal
Sustituyendo este control en la soluci on (3.21) dada por
x(t) = exp(At)
_
x
0
+
_
t
0
exp(A)Bu() d
_
,
del sistema (4.1) se tiene
x(t
1
) = exp(At
1
)
_
x
0

_
t
1
0
exp(A)BB
T
exp(A
T
)M
1
x
0
d
_
= exp(At
1
)
_
x
0
MM
1
x
0

= 0 ,
donde en el segundo paso se ha utilizado (4.4).
Nota 12. Debido al Teorema 11, es habitual hablar de la controlabilidad del par
[A, B] en lugar del sistema x = Ax +Bu.
Corolario 13. Si rangB = r entonces la condicion (4.2) del Teorema 11 se
reduce a la siguiente restricci on
rang[B, AB, A
2
B, . . . , A
nr
B] = n .
Demostracion. Denimos las siguientes matrices
U
k
= [B, AB, A
2
B, . . . , A
k
B] , k = 0, 1, 2, . . .
Observar que, si rangU

= rangU
+1
, entonces todas las columnas de la ma-
triz A
+1
B son linealmente dependientes con respecto a las columnas de U

.
Ademas, en este caso, se vericara tambien que todoas las columnas de A
+2
B,
A
+3
B, . . ., son tambien linealmente dependientes con respecto a las columnas
de U

. Se tiene pues que rangU

= rangU
+1
= rangU
+2
= .
De este modo se ve que el rango de U
k
aumenta al menos en 1 cuando k
aumenta en 1 hasta que el maximo rango de U
k
se alcanza para k = . Como
rangU
0
= rangB = r y ademas rangU
k
n se tiene que r + n y por lo tanto
n r.
El siguiente resultado relaciona el sistema de control clasico (3.25) con el
concepto de controlabilidad.
Teorema 14. El sistema lineal x = Ax+bu con A /
n
(R) matriz constante,
b R
n
vector columna y u(t) R puede ser transformado mediante un cambio
lineal en la forma can onica controlable (3.25) si y solo si es completamente
controlable.
Demostracion. Como b R
n
es un vector columna, es decir, estamos en
el caso m = 1, la matriz B reduce al vector b. Entonces, la condicion (4.2)
del Teorema 11 es exactamente igual a la condicion (3.27) del Teorema 6. El
teorema se demustra pues teniendo en cuenta el Teorema 11 y el Teorema 6.
4.2 Controlabilidad 27
Nota 15. Debido al Teorema 14, el sistema cl asico (3.25) se suele decir que
est a en la forma canonica controlable.
Observemos que el Teorema 11 es puramente existencial, es decir, a partir
de el se sabe que existe un vector control u(t) de modo que el sistema es com-
pletamente controlable. Sin embargo no determina cual es dicho control. Para
responder a esta pregunta se dispone del siguiente resultado.
Teorema 16. El sistema x = Ax + Bu es completamente controlable si y solo
si la matriz de controlabilidad simetrica
U(t
0
, t
1
) =
_
t
1
t
0
(t
0
, )BB
T

T
(t
0
, ) d /
n
(R) (4.7)
es no singular, siendo la matriz de transici on de estados denida en (3.8).
Ademas, en este caso el control u(t) denido para t
0
t t
1
que transere el
estado x(t
0
) = x
0
al estado x(t
1
) = x
f
viene dado por
u(t) = B
T

T
(t
0
, t)U
1
(t
0
, t
1
)[x
0
(t
0
, t
1
)x
f
] . (4.8)
Demostracion. Demostremos en primer lugar la suciencia. Asumimos pues
que U es no singular, de modo que el control dado por (4.8) existe. S olo falta por
ver que, aplicando dicho control, se obtiene x(t
1
) = x
f
. Para ello, recordemos
que la solucion (3.22) del sistema x = Ax+Bu con la condicion inicial x(t
0
) = x
0
viene dada por
x(t) = (t, t
0
)
_
x
0
+
_
t
t
0
(t
0
, )Bu() d
_
. (4.9)
Se tiene pues, sustituyendo el control u(t) dado en (4.8), que
x(t
1
) = (t
1
, t
0
) x
0
+
t
t
0
(t
0
, )B B
T

T
(t
0
, )U
1
(t
0
, t
1
)[x
0
(t
0
, t
1
)x
f
] d
= (t
1
, t
0
) x
0

t
1
t
0
(t
0
, )BB
T
(t
0
, ) d U
1
(t
0
, t
1
)(x
0
(t
0
, t
1
)x
f
)
= x
f
,
como se quera ver. Hemos tenido en cuenta que (t
1
, t
0
)(t
0
, t
1
) = I
n
y que
ademas, la expresion encerrada entre llaves . es justo la denicion de U(t
0
, t
1
).
Demostremos ahora la necesidad. Hemos de probar que, si el sistema x =
Ax +Bu es completamente controlable, entonces U(t
0
, t
1
) es no singular.
Como U(t
0
, t
1
) es una matriz simetrica, tomando un vector columna arbi-
trario R
n
podemos construir la forma cuadr atica

T
U(t
0
, t
1
) =
_
t
1
t
0

T
(, t
0
)(, t
0
) d =
_
t
1
t
0
|(, t
0
)|
2
d 0 , (4.10)


28 Sistemas de Control Lineal
donde se ha denido el vector columna (, t
0
) = B
T

T
(t
0
, ) R
n
. Se tiene
pues que U(t
0
, t
1
) es una matriz semidenida positiva.
Veamos por reduccion al absurdo que, en realidad, U(t
0
, t
1
) es una matriz
denida positiva y por lo tanto no singular. Supongamos pues que entonces que
existe un vector ,= 0 tal que
T
U(t
0
, t
1
) = 0. Teniendo en cuenta (4.10) con
= se tiene que
_
t
1
t
0
|

(, t
0
)|
2
d = 0
donde

(, t
0
) = B
T

T
(t
0
, ) R
n
. Por lo tanto, por las propiedades de la
norma, concluimos que

(, t
0
) 0 para t
0
t
1
.
Sin embargo, puesto que por hip otesis el sistema x = Ax +Bu es completa-
mente controlable, se sabe que existe un vector control u(t) R
n
de modo que
x(t
1
) = 0 cuando x(t
0
) = . Entonces, utilizando (4.9) con la condici on inicial
x(t
0
) = y la nal x(t
1
) = 0 se tiene
=
_
t
1
t
0
(t
0
, )B u() d .
De este modo
| |
2
=
T
=
_
t
1
t
0
u
T
()B
T
(t
0
, )
T
d =
_
t
1
t
0
u
T
()

(, t
0
) d = 0 ,
contradiciendo la hip otesis ,= 0.
Es importante observar que pueden haber, en general, otros controles u(t)
diferentes del control (4.8) que transeran el estado x(t
0
) = x
0
al estado x(t
1
) =
x
f
. Sin embargo veremos a continuaci on que el control (4.8) tiene una propiedad
especial que le conere optimabilidad respecto del resto de posibles controles.
Teorema 17. Consideremos el sistema x = Ax+Bu. Sea u(t) un vector control
que lleva el estado inicial x(t
0
) = x
0
al estado nal x(t
1
) = x
f
vericando
u(t) , u(t) para t
0
t t
1
, donde u() es el control (4.8). Entonces
_
t
1
t
0
| u()|
2
d >
_
t
1
t
0
|u()|
2
d .
Demostracion. Puesto que ambos controles u(t) y u(t) transeren el estado
inicial x(t
0
) = x
0
al estado nal x(t
1
) = x
f
, deben vericar, seg un (3.22),
x
f
= (t
1
, t
0
)
_
x
0
+
_
t
1
t
0
(t
0
, )B u() d
_
,
x
f
= (t
1
, t
0
)
_
x
0
+
_
t
1
t
0
(t
0
, )Bu() d
_
.
4.2 Controlabilidad 29
Restando estas expresiones se obtiene
0 =
_
t
1
t
0
(t
0
, )B[ u() u()] d .
Multiplicando esta ecuacion por la izquierda por
[x
0
(t
0
, t
1
)x
f
]
T
[U
1
(t
0
, t
1
)]
T
,
se llega a
0 =
_
t
1
t
0
_
[x
0
(t
0
, t
1
)x
f
]
T
[U
1
(t
0
, t
1
)]
T
(t
0
, )B
_
[ u() u()] d .
Teniendo en cuenta que u() es el control (4.8), es claro que la expresion dentro
de las llaves . es justo u
T
() de modo que
0 =
_
t
1
t
0
u
T
()[ u() u()] d . (4.11)
Por otra parte, utilizando las propiedades del producto escalar y de la norma
se tiene que (u u)
T
(u u) = |u|
2
+| u|
2
2u
T
u. Entonces,
_
t
1
t
0
|u() u()|
2
d =
_
t
1
t
0
[(u() u())
T
(u() u())
T
] d
=
_
t
1
t
0
[|u()|
2
+| u()|
2
2u
T
() u()] d
=
_
t
1
t
0
[| u()|
2
|u()|
2
] d ,
donde, en el ultimo paso, se ha utilizado (4.11). De aqu, nalmente obtenemos
_
t
1
t
0
| u()|
2
d =
_
t
1
t
0
[|u()|
2
+|u() u()|
2
] d >
_
t
1
t
0
|u()|
2
d
como se quera probar. Observar que en la ultima desigualdad se ha utilizado
que u(t) , u(t) en el intervalo t
0
t t
1
.
Nota 18. Dado un control u(t), en muchas aplicaciones fsicas se interpreta la
integral
_
t
1
t
0
|u()|
2
d como la energa o bien el consumo necesario para llevar
el sistema desde el estado inicial x(t
0
) = x
0
al estado nal x(t
1
) = x
f
. De este
modo, el Teorema 17 se interpreta de manera que, de todos los posibles controles
u(t) admisibles, el que minimiza la energa o el consumo es justo el control u(t)
dado por (4.8).
Si el sistema lineal x = Ax + Bu no es completamente controlable, no es
una buena terminologa llamarle incontrolable. Ello es bebido a que cuando no
se verica la Denicion 8 de sistema completamente controlable solo signica
30 Sistemas de Control Lineal
que hay ciertos estados nales x
f
que no pueden ser alcanzados con ning un
control. Para caracterizar si un estado nal x
f
es alcanzable con alg un control,
independientemente de si el sistema es completamente controlable o no y ademas
conocer que control u(t) es admisible se tiene el siguiente resultado.
Teorema 19. Si, para un cierto estado nal x
f
, existe un vector columna cons-
tante R
n
tal que
U(t
0
, t
1
) = x
0
(t
0
, t
1
)x
f
, (4.12)
entonces el control
u(t) = B
T
(t
0
, t) , (4.13)
transere el sistema x = Ax + Bu desde el estado inicial x(t
0
) = x
0
al estado
nal x(t
1
) = x
f
.
Demostracion. La solucion del sistema x = Ax +Bu con la condicion inicial
x(t
0
) = x
0
viene dada por (3.22), es decir,
x(t) = (t, t
0
)
_
x
0
+
_
t
t
0
(t
0
, )Bu() d
_
.
Sustitutendo en esta expresion el control u(t) dado en (4.13) y evaluando para
t = t
1
se obtiene
x(t
1
) = (t
1
, t
0
)
_
x
0

_
t
1
t
0
(t
0
, )BB
T
(t
0
, ) d
_
.
Teniendo en cuenta, seg un (4.7), la expresi on de la matriz de controlabilidad
U(t
0
, t
1
), la anterior ecuacion se reescribe como
x(t
1
) = (t
1
, t
0
) [x
0
U(t
0
, t
1
)] .
Imponiendo ahora la condici on (4.12) se obtiene
x(t
1
) = (t
1
, t
0
)(t
0
, t
1
)x
f
= x
f
,
como se quera probar.
Nota 20. Si el sistema x = Ax+Bu es completamente controlable, entonces, por
el Teorema 4.8, la matriz de controlabilidad U(t
0
, t
1
) es invertible y la expresi on
dada en (4.13) para el control u(t) reduce a la expresi on (4.8).
Nota 21. Se puede demostrar, ver por ejemplo la p agina 77 de [2], que el
recproco del Teorema 19 es cierto. De este modo, solo los estados nales x
f
para los cuales (4.12) se verique pueden ser alcanzados con alg un control.
Existe otra forma analoga al Teorema 19 demostrada en la pagina 167 de
[11] que es la siguiente.
Teorema 22. Un cierto estado inicial x(t
0
) = x
0
se puede transferir al estado
nal x
f
si ambos vectores x
0
y x
f
pertenecen al subespacio vectorial engendrado
por los vectores columnas de la matriz de controlabilidad U dada en (4.2).
4.3 Equivalencia Algebraica 31
4.3. Equivalencia Algebraica
Denicion 23. Sea P /
n
(R) una matriz no singular. El sistema lineal

x =

A x +

Bu obtenido a partir del sistema lineal x = Ax + Bu mediante el
cambio de variables x(t) = Px(t) se llama sistema algebraicamente equivalente.
Proposicion 24. Si los sistemas x = Ax +Bu y

x =

A x +

Bu son algebraica-
mente equivalentes mediante el cambio de variables x = Px entonces

A = PAP
1
,

B = PB . (4.14)
Demostracion. Derivando respecto de t la identidad x(t) = P(t)x(t) se ob-
tiene

x(t) =

Px +P x = P x = P(Ax +Bu) = PAx +PBu = PAP
1
x +PBu .
Identicando los anteriores terminos con los de

x =

A x +

Bu se obtiene el
resultado.
Proposicion 25. Sean (t, t
0
) y

(t, t
0
) las matrices de transici on de estados
de los sistemas algebraicamente equivalente x = Ax + Bu y

x =

A x +

Bu
respectivamente mediante el cambio de variables x(t) = Px(t). Entonces

(t, t
0
) = P(t, t
0
)P
1
. (4.15)
Demostracion. Recordemos que (t, t
0
) es la unica matriz no singular que
satisface

(t, t
0
) = A(t, t
0
) , (t
0
, t
0
) = I
n
.
Para demostrar que

(t, t
0
) es la matriz de transicion de estados del sistema

x =

A x +

Bu se ha de probar que

(t, t
0
) =

A

(t, t
0
) ,

(t
0
, t
0
) = I
n
.
Efectivamente,

(t, t
0
) = P

(t, t
0
)P
1
= PA(t, t
0
)P
1
= (PAP
1
)(P(t, t
0
)P
1
) =

A

(t, t
0
) ,
donde en el primer paso se ha utilizado (4.15) y en el ultimo (4.14). Ademas

(t
0
, t
0
) = P(t
0
, t
0
)P
1
= PP
1
= I
n
,
con lo cual queda demostrada la proposici on.
Teorema 26. En un sistema lineal, la propiedadad de ser completamente con-
trolable se preserva por equivalencia algebraica.
32 Sistemas de Control Lineal
Demostracion. Consideremos dos sistema lineales algebraicamente equiva-
lente x = Ax+Bu y

x =

A x+

Bu. Hemos de demostrar que si x = Ax+Bu es
completamente controlable entonces

x =

A x +

Bu tambien es completamente
controlable.
La matriz de controlabilidad

U(t
0
, t
1
) para el sistema

x =

A x +

Bu viene
dada, seg un (4.7), por

U(t
0
, t
1
) =
_
t
1
t
0

(t
0
, )

B

B
T

T
(t
0
, ) d .
Teniendo en cuenta (4.14) y (4.15),

B = PB y

(t, t
0
) = P(t, t
0
)P
1
, de modo
que

U(t
0
, t
1
) =
_
t
1
t
0
(P(, t
0
)P
1
)(PB)(B
T
P
T
)((P
1
)
T

T
(, t
0
)P
T
) d
=
_
t
1
t
0
P(, t
0
)BB
T

T
(, t
0
)P
T
d
= P
__
t
1
t
0
(, t
0
)BB
T

T
(, t
0
) d
_
P
T
.
Se verica pues la siguiente ecuacion

U(t
0
, t
1
) = PU(t
0
, t
1
)P
T
. (4.16)
En particular, la matriz de controlabilidad

U(t
0
, t
1
) es no singular puesto que,
por hip otesis, P y U(t
0
, t
1
) son no singulares. Utilizando el Teorema 4.8 se
concluye con el resultado deseado.
4.4. Problemas resueltos
1. Averiguar si el sistema x = Ax +bu, siendo x R
4
, u R,
A =
_
_
_
_
0 1 0 1
0 0 1 0
0 0 0 1
0 0 5 0
_
_
_
_
, b =
_
_
_
_
0
1
0
2
_
_
_
_
,
es completamente controlable.
Solucion. Puesto que A /
n
(R), la matriz de controlabilidad U del
sistema lineal del enunciado es
U = [b, Ab, A
2
b, A
3
b] =
_
_
_
_
0 1 0 8
1 0 2 0
0 2 0 10
2 0 10 0
_
_
_
_
.
Es facil ver que rang U = 4, de modo que, aplicando el Teorema 11, se
concluye que el sistema es completamente controlable.
4.4 Problemas resueltos 33
2. Consideremos un pendulo invertido cuya ecuaci on del movimiento es
ucos +

= g sin ,
siendo la longitud del pendulo, g la intensidad de campo gravitatorio,
el angulo que forma el pendulo respecto de la vertical y u la posici on
horizontal de la base del pendulo que es la variable de control.
(i) Demostrar que, si es inicialmente peque no entonces el sistema es
completamente controlable. Indicaci

on: Utilizar la variable x de


posicion horizontal del pendulo y demostrar que, para peque nas os-
cilaciones, se tiene x w
2
(x u), siendo w
2
:= g/.
(ii) Calcular la expresi on explcita de u(t) si se pretende llevar el pendulo
de peque nas oscilaciones desde el estado inicial (x(0), x(0)) = (1, 1)
hasta el estado nal (x(1), x(1)) = (0, 0) en una unidad de tiempo.
Solucion. (i) Para peque na se tiene cos 1, sin y ademas
sin = (x u)/, siendo x la posicion horizontal del pendulo.
Se tiene pues que la ecuacion del movimiento es aproximadamente
u +

= g sin . (4.17)
Por otra parte
x = sin +u ,
x =

cos + u

+ u ,
x

+ u .
Sustituyendo en la ecuacion (4.17) obtenemos el sistema linearizado
x = w
2
(x u) ,
siendo w
2
:= g/. Esta ecuacion se puede reescribir en la forma y =
Ay +bu, siendo y = (x, x)
T
,
A =
_
0 1
w
2
0
_
, b =
_
0
w
2
_
.
La matriz de controlabilidad U de este sistema lineal es
U = [b, Ab] =
_
0 w
2
w
2
0
_
,
de modo que rang U = 2 y, aplicando el Teorema 11, se concluye que el
sistema es completamente controlable.
(ii) Consideramos de nuevo el sistema y = Ay +bu, siendo y = (x, x)
T
,
A =
_
0 1
w
2
0
_
, b =
_
0
w
2
_
.
34 Sistemas de Control Lineal
Aplicaremos el Teorema 16 para calcular el control u(t). En primer lugar
calculamos la matriz de controlabilidad
U(0, 1) =
_
1
0
(0, )bb
T

T
(0, ) d ,
siendo la matriz de transicion de estados (0, ) = exp(A). Es facil
mostrar que
(0, ) =
_
cosh(w) sinh(w)/w
wsinh(w) cosh(w)
_
De este modo se obtiene
U(0, 1) =
_
1
0
_
w
2
sinh
2
(w) w
3
sinh(2w)/2
w
3
sinh(2w)/2 w
4
cosh
2
(w)
_
d
=
_
w(w sinh(w) cosh(w))/2 w
2
sinh
2
(w)/2
w
2
sinh
2
(w)/2 w
3
(w + sinh(w) cosh(w))/2
_
.
Como el sistema es totalmente controlable, esta claro que la matriz U(0, 1)
es no singular. De cualquier forma, se tiene que
det U(0, 1) =
1
8
w
4
[1 2w
2
+ cosh(2w)] ,
que es no nulo para todo w > 0.
Seg un el Teorema 16, el control que llevar a el sistema y = Ay + bu con
y = (x, x), desde el estado inicial y(0) = y
0
= (1, 1)
T
hasta el estado nal
y(1) = y
f
= (0, 0)
T
viene dado por
u(t) = b
T

T
(0, t)U
1
(0, 1)[y
0
(0, 1)y
f
] .
Realizando los calculos pertinentes se obtiene
u(t) =
2{wcosh[(2 + t)w] + 3wcosh[tw] + sinh[(2 + t)w] + (1 + 2w
2
) sinh[tw]}
w + 2w
3
wcosh(2w)
.
3. Consideremos un satelite de masa unidad en una orbita plana. Tomando
coordenadas polares (r, ), las ecuaciones del movimiento son
r = r

c
r
2
+u
r
,

=
2 r

r
+
1
r
u

,
siendo c un parametro de la orbita y u
r
y u

las componentes radial y


angular de la fuerza u ejercida por el motor del satelite que son tomadas
como variables de control. Notar que si se para el motor, es decir, u
r
=
u

= 0, entonces es posible una orbita circular uniforme (y por lo tanto


con r =

= 0) de radio R y velocidad angular

= w =
_
c/R
3
. Si la
4.4 Problemas resueltos 35
fuerza u del motor es peque na se pueden tomar las siguientes coordenadas
de perturbaci on: x
1
= r R, x
2
= r, x
3
= wt y x
4
=

w. Entonces
se tiene x Ax +Bu, siendo x = (x
1
, x
2
, x
3
, x
4
)
T
, u = (u
r
, u

)
T
,
A =
_
_
_
_
0 1 0 0
3w
2
0 0 2wR
0 0 0 1
0 2w/R 0 0
_
_
_
_
, B =
_
_
_
_
0 0
1 0
0 0
0 1/R
_
_
_
_
.
Demostrar que el sistema es completamente controlable.
Solucion. Utilizaremos el Teorema 4.2 para resolver la cuestion planteada.
En nuestro caso, la matriz de controlabilidad es
U = [B, AB, A
2
B, A
3
B]
=
0 0 1 0 0 2w w
2
0
1 0 0 2w w
2
0 0 2w
3
0 0 0 1/R 2w/R 0 0 4w
2
/R
0 1/R 2w/R 0 0 4w
2
/R 2w
3
/R 0
.
Es facil comprobar que rang U = 4, de modo que, aplicando el Teorema
4.2 se concluye que el sistema es completamente controlable.

Captulo 5
Observabilidad
Consideremos el sistema lineal controlado
x = Ax +Bu , (5.1)
con A /
n
(R) y B /
nm
(R) matrices constantes, x(t) R
n
y u(t) R
m
.
Ademas, supondremos que la salida y(t) R
r
del sistema es
y = Cx , (5.2)
con C /
rn
(R).
5.1. Observabilidad
La idea de observabilidad para un sistema controlable consiste en determinar,
si es posible, el estado x(t) de un sistema conociendo unicamente la salida y(t).
De forma mas precisa se tiene la siguiente denicion.
Denicion 27. El sistema (5.1) y (5.2) se dice que es completamente observ-
able si, para cualquier t
0
y cualquier estado inicial x(t
0
) = x
0
, existe un tiempo
nito t
1
con t
1
> t
0
tal que el conocimiento del control u(t) y la salida y(t) para
t
0
t t
1
es suciente para determinar x
0
de forma unica.
Nota 28. En la Denicion 27 se puede tomar el control u(t) 0 para t
0
t t
1
sin perdida de generalidad.
Teorema 29. El sistema (5.1) y (5.2) denido por x = Ax + Bu, y = Cx es
completamente observable si y solo si la matriz simetrica
V (t
0
, t
1
) =
_
t
1
t
0

T
(, t
0
)C
T
C(, t
0
) d , (5.3)
llamada matriz de observabilidad, es no singular.
37
38 Observabilidad
Demostracion. Demostremos en primer lugar la suciencia, es decir, supon-
dremos que V (t
0
, t
1
) es no singular y hemos de demostrar que el sistema es
completamente observable. Por la Nota 28 tomaremos el control u(t) 0 para
t
0
t t
1
. Entonces, la solucion del sistema x = Ax sujeta a la condicion
inicial x(t
0
) = x
0
viene dada por x(t) = (t, t
0
)x
0
. De este modo, la salida es
y(t) = C(t, t
0
)x
0
. Multiplicando esta ecuacion por la izquierda por
T
(t, t
0
)C
T
e integrando respecto de t se tiene
_
t
1
t
0

T
(, t
0
)C
T
y(t) d = V (t
0
, t
1
)x
0
.
Puesto que, por hip otesis, V (t
0
, t
1
) es no singular, se tiene de la anterior ecuacion
x
0
= V
1
(t
0
, t
1
)
_
t
1
t
0

T
(, t
0
)C
T
y() d , (5.4)
de modo que el sistema es completamente observable.
Demostremos ahora la necesidad. Suponemos que el sistema es completa-
mente observable y probaremos que V (t
0
, t
1
) es no singular. Sea R
n
un
vector columna arbitrario. Entonces, la forma cuadr atica

T
V (t
0
, t
1
) =
_
t
1
t
0

T
(, t
0
)C
T
C(, t
0
) d
=
_
t
1
t
0
(C(, t
0
))
T
(C(, t
0
)) d
=
_
t
1
t
0
|C(, t
0
)|
2
d 0 ,
de modo que la matriz de observabilidad V (t
0
, t
1
) es semidenida positiva.
Veamos que en realidad V (t
0
, t
1
) es denida positiva por reducci on al absurdo.
Supongamos entonces que existe un vector columna ,= 0 tal que
T
V (t
0
, t
1
) =
0. Entonces se tiene que C(t, t
0
) 0 para t
0
t t
1
. Entonces, la salida
y(t) con control nulo u(t) 0 para t
0
t t
1
cuando x
0
= viene dada por
y(t) = C(t, t
0
)x
0
= C(t, t
0
) 0 ,
para t
0
t t
1
. Esto implica que x
0
no puede determinarse de forma unica
a partir del conocimiento de y(t) ya que si x
0
= 0 ,= entonces tambien se
tiene y(t) = 0 para t
0
t t
1
. Se ha llegado pues a una contradicci on con
la hipotesis de que el sistema es completamente observable y, en consecuencia,
V (t
0
, t
1
) es denida positiva. En particular V (t
0
, t
1
) es no singular.
Nota 30. Observemos que, cuando el sistema x = Ax + Bu es completamente
observable, la ecuaci on (5.4) da una expresion explcita para el estado inicial x
0
independiente de la matriz B. Entonces, es habitual hablar de la observabilidad
del par [A, C] en lugar del sistema x = Ax +Bu, y = Cx.
5.1 Observabilidad 39
Nota 31. Como se observa de la demostraci on del Teorema 29, cuando u(t) 0,
el estado inicial x
0
dado por (5.4) es independiente del tiempo nal t
1
. Solo se
requiere t
1
> t
0
.
El siguiente resultado es muy util ya que permite deducir a partir de resul-
tados de controlabilidad el correspondiente de observabilidad y viceversa.
Teorema 32 (Dualidad). El sistema x = Ax +Bu, y = Cx es completamente
controlable si y s olo si el sistema dual
x = A
T
x +C
T
u , y = B
T
x (5.5)
es completamente observable.
Demostracion. Es facil demostrar que, si (t, t
0
) es la matriz de transicion de
estados para el sistema x = Ax, entonces
T
(t, t
0
) es la matriz de transicion de
estados para el sistema x = A
T
x. De este modo, comparando las expresiones
(4.7) y (5.3) de las matrices de controlabilidad U(t
0
, t
1
) y de observabilidad
V (t
0
, t
1
), es decir,
U(t
0
, t
1
) =
_
t
1
t
0
(t
0
, )BB
T

T
(t
0
, ) d
y
V (t
0
, t
1
) =
_
t
1
t
0

T
(, t
0
)C
T
C(, t
0
) d ,
se observa que la matriz de controlabilidad del par [A, B] es identica a la matriz
de observabilidad del par [A
T
, B
T
].
Ademas, la matriz de observabilidad del par [A, C] es identica a la matriz
de controlabilidad del par [A
T
, C
T
], con lo cual el teorema queda probado.
Una aplicacion inmediata del Teorema 32 de dualidad es el siguiente.
Teorema 33. El sistema x = Ax + Bu, y = Cx es completamente observable
si y solo si la matriz de observabilidad
V =
_

_
C
CA
CA
2
.
.
.
CA
n1
_

_
/
nrn
(R) (5.6)
tiene rango maximo, es decir, rangV = n.
Demostracion. Por el Teorema 32 de dualidad, el sistema x = Ax+Bu, y =
Cx es completamente observable si y solo si el sistema dual x = A
T
x +C
T
u,
y = B
T
x es completamente controlable. Utilizando ahora el Teorema 11 aplicado
al sistema dual se tiene el resultado deseado.
40 Observabilidad
5.2. Problemas resueltos
1. Consideremos un circuito RLC donde la resistencia R y el condensador de
capacidad C se han colocado en paralelo y la bobina de autoinducci on L en
serie. Si el circuito se conecta a una pila de potencial V , es facil demostrar
que la diferencia de potencial V
C
en los extremos del condensador y la
intensidad I
L
que circula por la bobina verican el sistema
_

V
C

I
L
_
=
_

2
RC
1
C

1
L
0
_ _
V
C
I
L
_
+
_
1
RC
1
L
_
V .
Supongamos que la salida del sistema es V
C
y el control V .
(i) Averiguar para que valores de R, L y C el circuito es completamente
controlable y completamente observable.
(ii) Es posible, cuando el sistema no es completamente observable, obten-
er V (t) de modo que, si el circuito tiene inicialmente (V
C
(0), I
L
(0)) =
(1, 5) pase a (V
C
(10), I
L
(10)) = (2, 3)?
Solucion. (i) El sistema se puede escribir de la forma x = Ax + bV ,
y = (x, donde x = (V
C
, I
L
)
T
y siendo
A =
_

2
RC
1
C

1
L
0
_
, b =
_
1
RC
1
L
_
, ( = (1, 0) .
Puesto que A /
2
(R), la matriz de controlabilidad U del sistema lineal
del enunciado es
U = [b, Ab] =
_
1
RC
1
LC

2
R
2
C
2
1
L

1
RLC
_
.
Como
det U =
1
R
2
LC
2

1
L
2
C
,
se tiene que si R =
_
L/C entonces det U = 0 y rang U = 1. Por el
contrario, si R ,=
_
L/C entonces det U ,= 0 y rang U = 2, de modo que,
aplicando el Teorema 11, se concluye que el sistema es completamente
controlable.
La matriz de observabilidad V es
V =
_
(
(A
_
=
_
1 0
2
RC

1
C
_
,
de modo que siempre tiene rango maximo, es decir, rang V = 2. En con-
clusion, aplicando el Teorema 33, el sistema es siempre completamente
observable.
5.2 Problemas resueltos 41
(ii) Para resolver esta cuestion aplicaremos el Teorema 19. Nos situamos
en el caso no completamente controlable, es decir, tomamos R =
_
L/C.
Es facil calcular la matriz de transicion de estados (0, t) = exp(At),
siendo esta
(0, t) = exp
_
_
L/Ct
L
_
_
_
L+

L/Ct
L

t
C
t
L
L

L/Ct
L
_
_
.
Entonces, la matriz de controlabilidad
U(0, 10) =
_
10
0
(0, )bb
T

T
(0, ) d
=
1 + exp
_
20

L/C
L
_
2L
_ _
L/C 1
1 1/
_
L/C
_
.
Por supuesto det U(0, 10) = 0 puesto que el sistema no es completamente
controlable. Sea x
0
= (1, 5)
T
y x
f
= (2, 3). Calculemos ahora el vector
x
0
(0, 10)x
f
=
_
_
_
_
1 + exp
_
10

L/C
L
__
2 +
30
C

20

L/C
L
_
5L + exp
_
10

L/C
L
_
203L+30

L/C
L
_
_
_
_
.
Es facil ver que el sistema lineal algebraico
U(0, 10) = x
0
(0, 10)x
f
,
es incompatible, es decir, no existe ning un vector R
2
que sea su solu-
cion. En denitiva, aplicando el Teorema 19 se concluye que no es posible
llevar el circuito desde el estado inicial x
0
= (V
C
(0), I
L
(0)) = (1, 5) al
estado nal x
f
= (V
C
(10), I
L
(10)) = (2, 3) en 10 unidades de tiempo.
2. Consideremos el sistema lineal x = Ax, siendo x = (x
1
, x
2
)
T
R
2
y
A =
_
1 1
2 4
_
,
donde la salida viene dada por y(t) = x
1
(t) + 2x
2
(t). Es posible ha-
llar el estado inicial del sistema x(0) sabiendo que la salida es y(t) =
20 exp(3t) + 21 exp(2t)? En caso de respuesta positiva, hallar x(0).
Solucion. Se tiene el sistema x = Ax con salida y = Cx, siendo C = (1, 2).
La matriz de observabilidad V asociada al sistema es
V =
_
C
CA
_
=
_
1 2
3 9
_
,
42 Observabilidad
que tiene rango maximo, es decir, rang V = 2. Entonces, aplicando el Teo-
rema 33, el sistema es siempre completamente observable. Ello signica que
siempre es posible hallar el estado inicial del sistema x(0) conociendo la
salida y(t).
Como el sistema es completamente observable y ademas el control es
u(t) 0, se sabe, ver (5.4), que el estado inicial x(0) = x
0
viene dado
por
x
0
= V
1
(0, t
1
)
_
t
1
0

T
(, t
0
)C
T
y(t) d ,
donde el tiempo nal t
1
no juega ning un papel esencial (ver la Nota 31)
de modo que, se toma t
1
= 1 sin perdida de generalidad. Aqu, la matriz
de observabilidad V (0, 1) viene dada, seg un (5.3), por
V (0, 1) =
_
1
0

T
(, 0)C
T
C(, 0) d ,
siendo (, 0) = exp(A) la matriz de transicion de estados. Es facil cal-
cular la matriz exponencial obteniendose
(, 0) = exp(3)
_
1 + 2 exp() 1 exp()
2[1 + exp()] 2 exp()
_
.
La matriz de observabilidad V (0, 1) es
V (0, 1) =
_
1
0
exp(6)
_
1 + 2 exp() 1 exp()
2[1 + exp()] 2 exp()
_
T
_
1
2
_
(1, 2)
_
1 + 2 exp() 1 exp()
2[1 + exp()] 2 exp()
_
d
=
1
6
_
7 +
25+18(43e)e
e
6
2 +
25+27(e2)e
e
6
2 +
25+27(e2)e
e
6
1
2
_
5 +
50+9(83e)e
e
6
_
_
.
Finalmente, teniendo en cuenta que la salida es y(t) = 20 exp(3t) +
21 exp(2t), se tiene
x
0
= V
1
(0, 1)
_
1
0

T
(, 0)C
T
y(t) d =
_
3
1
_
.
Captulo 6
Realimentaci on Lineal
6.1. Denici on y preliminares
Denicion 34. Al sistema x = Ax +Bu se le aplica una realimentacion lineal
si cada variable de control es una combinaci on lineal de las variables de estado,
es decir,
u(t) = Kx(t) , (6.1)
siendo K /
mn
(R) una matriz constante llamada matriz de ganancia. El
sistema resultante
x = (A+BK)x , (6.2)
se llama sistema de lazo cerrado.
En este captulo se utilizara la siguiente notacion.
Denicion 35.
n
=
1
, . . . ,
n
C denotara un conjunto arbitrario de n
n umeros complejos tales que cualquiera de ellos que no sea real aparece empare-
jado con su complejo conjugado.
El siguiente resultado, cuya demostracion general data del a no 1967 [13],
proporciona una nueva va de investigacion en control mediante el uso de reali-
mentacion lineal en terminos de variables de estado.
Teorema 36. Si el sistema x = Ax + Bu es completamente controlable en-
tonces existe una matriz real K tal que los valores propios de la matriz A+BK
pertenecen al conjunto
n
de la Denicion 35.
Nota 37. Sabemos que, la soluci on del sistema lineal de lazo cerrado x = (A+
BK)x depende de los valores propios de la matriz A+BK. Por lo tanto, si el par
[A, B] es completamente controlable, del Teorema 36 se desprende que, usando
realimentaci on lineal, es posible ejercer una gran inuencia sobre la evoluci on
temporal de las soluciones del sistema lineal de lazo cerrado.
43
44 Realimentacion Lineal
Demostracion del Teorema 36 con una unica variable de control (m = 1). Como
el sistema x = Ax+bu con A /
n
(R) matriz constante, b R
n
vector colum-
na y u(t) R es completamente controlable, por el Teorema 14, existe cambio
lineal de variables w = Tx con T /
n
(R) no singular que lo transforma en la
forma canonica controlable (3.25), es decir, w = Cw + du con C = TAT
1
y
d = Tb. En concreto d = (0, . . . , 0, 1)
T
y
C =
_
_
_
_
_
_
0 1 0 . . . 0
0 0 1 . . . .
. . . . . . .
. . . . . . .
k
n
k
n1
k
n2
. . . k
1
_
_
_
_
_
_
/
n
(R) .
Aqu, k
i
son los coecientes del polinomio caracterstico de A, es decir,
det(I
n
A) =
n
+k
1

n1
+ +k
n
.
Por otra parte, la realimentaci on lineal en el caso m = 1 que nos ocupa se
escribe de la forma u = w, con el vector la = (
n
,
n1
, . . . ,
1
) R
n
. De
este modo, el sistema en lazo cerrado que se obtiene es w = (C + d)w, siendo
la matriz
C +d =
_
_
_
_
_
_
0 1 0 . . . 0
0 0 1 . . . .
. . . . . . .
. . . . . . .
k
n
k
n1
k
n2
. . . k
1
_
_
_
_
_
_
+
_
_
_
_
_
_
_
0
0
.
.
.
0
1
_
_
_
_
_
_
_
(
n
,
n1
, . . . ,
1
)
=
_
_
_
_
_
_
0 1 0 . . . 0
0 0 1 . . . .
. . . . . . .
. . . . . . .
k
n
k
n1
k
n2
. . . k
1
_
_
_
_
_
_
+
_
_
_
_
_
_
0 0 0 . . . 0
0 0 0 . . . 0
. . . . . . .
. . . . . . .

n

n1

n2
. . .
1
_
_
_
_
_
_
=
_
_
_
_
_
_
0 1 0 . . . 0
0 0 1 . . . .
. . . . . . .
. . . . . . .

n

n1

n2
. . .
1
_
_
_
_
_
_
,
6.1 Denicion y preliminares 45
siendo

i
= k
i

i
, i = 1, . . . , n . (6.3)
Notemos que la matriz C +d tiene la misma forma que la matriz C excepto la
ultima la.
Puesto que los sistemas de lazo cerrado inicial x = (A + bK)x y nal w =
(C + d)w son algebraicamente equivalentes mediante la transformacion lineal
w = Tx, se tiene que C + d = T(A + bK)T
1
, de donde = KT
1
y por lo
tanto la matriz de ganancia K que se busca es
K = T , (6.4)
donde los elementos de estan denidos por (6.3) y los elementos
i
se calculan
imponiendo que los valores propios de la matriz A + bK (que son los mismos
que los de la matriz C +d) sean justo el conjunto
n
, es decir,

n
+
1

n1
+ +
n
=
n

i=1
(
i
) ,
con lo cual queda demostrado.
Nota 38. Observar que la demostraci on efectuada del Teorema 36 con una
unica variable de control (m = 1) es constructiva en el sentido de que existe
un algoritmo para calcular la matriz de ganancia K de la realimentaci on lineal
que nos permita tener un conjunto prejado de autovalores para la matriz del
sistema en lazo cerrado.
A partir del Teorema 36 y utilizando el Teorema 32 de dualidad, es f acil
deducir el siguiente resultado de observabilidad.
Corolario 39. Si el sistema x = Ax+Bu, y = Cx es completamente observable,
entonces existe una matriz real L tal que los valores propios de la matriz A+LC
pertenecen a un conjunto prejado
n
C.
Los metodos para controlar sistemas prejando los autovalores de la matriz
del sistema de lazo cerrado se llaman habitualmente tecnicas de control modal,
donde el nombre modoproviene de los terminos exp(
i
t)w
i
de la expresion
espectral (3.3) de la solucion de sistemas lineales, siendo
i
y w
i
valores y
vectores propios. Esta idea de control modal da lugar a una nueva denici on.
Denicion 40. El sistema x = Ax + Bu es modalmente completamente con-
trolable si existe una matriz de ganancia K tal que los valores propios de la
matriz de lazo cerrado A + BK pertenecen a un conjunto arbitrario
n
C
como el dado en la Denicion 35.
El Teorema 36 asegura que si el sistema x = Ax + Bu es completamente
controlable entonces tambien es modalmente completamente controlable. Se
puede de hecho demostrar tambien el recproco de manera que se tiene una
total equivalencia de las dos deniciones de controlabilidad establecidas tal y
como el siguiente teorema enuncia, ver por ejemplo [1].
Teorema 41. El sistema x = Ax + Bu es modalmente completamente contro-
lable si y s olo si es completamente controlable.
46 Realimentacion Lineal
6.1.1. Realimentaci on y funci on de transferencia
Es interesante relacionar el concepto de realimentacion lineal y el de funci on
de transferencia g(s) para el caso de una unica entrada (m = 1) y unica salida
(r = 1). Recordemos que, seg un la teora del control clasica, la funcion de
transferencia viene dada por la funci on racional (2.7), es decir,
g(s) =
(s)
k(s)
=

0
s
m
+
1
s
m1
+ +
m1
s +
m
s
n
+k
1
s
n1
+ +k
n1
s +k
n
.
Teorema 42. Si se tiene una unica entrada (m = 1) y unica salida (r = 1), la
realimentaci on lineal permite elegir de forma arbitraria en el plano complejo los
polos de la funcion de transferencia g(s) del sistema de lazo cerrado pero deja
sus ceros invariantes.
Demostracion. Es facil demostrar que
g(s) =

(sI
n
C)
1
d , (6.5)
siendo d = (0, 0, . . . , 0, 1)
T
y

= (
m
, . . . ,
1
,
0
, 0, . . . , 0). De este modo, g(s)
es la funcion de transferencia del sistema
x = Cx +du , y =

x .
Como vimos en la demostracion del Teorema 36 con una unica variable de
control (m = 1), la realimentaci on lineal solo afecta a la ultima columna de la
matriz C, la cual contiene los coecientes k
i
del denominador de la funci on de
transferencia g(s).
Nota 43. El Teorema 42 no es cierto si m > 1, puesto que en este caso los
ceros de la funcion de transferencia son afectados tambien por la realimentaci on
lineal.
6.2. Realimentaci on frente a control precalcula-
do
En esta seccion veremos, bajo la optica del clasico ejemplo del pendulo in-
vertido, las ventajas de tener una ley de control por realimentaci on u = Kx
frente a un control precalculado como una funci on del tiempo u(t).
Consideremos un pendulo de masa m, formando un angulo (t) con la vertical
para tiempo t. Sea u(t) un momento externo que act ua sobre el pendulo y
podemos modicar a voluntad, dicho de otro modo, u es nuestra variable de
control. Bajo la hip otesis de rozamiento despreciable y gravedad g constante, la
ecuacion del movimiento del pendulo viene dada, seg un las leyes de la mecanica
clasica de Newton, por la siguiente ecuacion diferencial no lineal de segundo
6.2 Realimentacion frente a control precalculado 47
orden m

+ mg sin = u(t). Tomemos las unidades de espacio y de tiempo de


forma que m = g = 1, con lo cual el sistema a estudiar es

+ sin = u(t) . (6.6)


Si u(t) 0, el punto de equilibrio (,

) = (, 0) es un punto inestable
puesto que una peque na desviacion de dicho punto provocara que el pendulo
no volviera al punto.
El problema de control que se pretende abordar consiste en actuar so-
bre el pendulo mediante el momento u(t) de modo que, para valores iniciales
((0),

(0)) cercanos al punto (, 0), la evoluci on del pendulo sea hacia (, 0).
En otras palabras se pretende hallar u(t) de modo que el punto de equilibrio
(, 0) sea estable.
Realizemos el cambio de variable = . Con este cambio, el punto crtico
que se ha de analizar es justo el origen (, ) = (0, 0). Ademas, sin = sin ,
de modo que la ecuacion a estudiar es
sin = u(t) . (6.7)
Supongamos, en primera aproximaci on, que se realizan peque nas oscila-
ciones, es decir, que (t) es un angulo peque no en valor absoluto. Realizando la
aproximaci on habitual sin , podemos sustituir la ecuacion no lineal (6.7)
por la siguiente ecuacion lineal
= u(t) . (6.8)
Se pretende dise nar una estrategia de control u(t) de modo que, para val-
ores iniciales ((0), (0)) no nulos pero peque nos, el sistema evolucione hacia
(, ) = (0, 0).
Supongamos que se pretende controlar el sistema linealizado (6.8) sabiendo
que parte de las condiciones iniciales
((0), (0)) = (1, 2) . (6.9)
Es facil comprobar que el control
u(t) = 3 exp(2t) , (6.10)
es adecuado para nuestros prop ositos puesto que la solucion de (6.8) es, en
este caso, (t) = exp(2t) de modo que esta claro que ((t), (t)) (0, 0)
cuando t .
Es facil mostrar que un control por realimentaci on del tipo
u(t) = (t) (t) , (6.11)
48 Realimentacion Lineal
con > 1 y > 0 tambien cumple nuestro proposito, es decir, las solu-
ciones de (6.8) con condiciones iniciales ((0), (0)) sucientemente cer-
canas a (0, 0) verican ((t), (t)) (0, 0) cuando t .
La demostracion de este hecho proviene del analisis del sistema en lazo
cerrado + +(1) = 0, con ecuacion caracterstica
2
++1 = 0
cuyas races son

= [
_

2
4( 1)]/2. Es obvio que la parte real
'(

) < 0 de modo que ((t), (t)) (0, 0) cuando t .


6.2.1. Sensibilidad a las condiciones iniciales
Veamos que ocurre si, como es habitual en la experimentacion, existen incer-
tidumbres en las medidas de las condiciones iniciales. Supongamos, por ejemplo,
que las nuevas condiciones iniciales son
((0), (0)) = (1, 2 +) , (6.12)
con ,= 0 y peque no en valor absoluto. En este caso, la solucion de (6.8) con el
control (6.10) es
(t) = exp(2t) +

2
[exp(t) exp(t)] ,
que verica
lm
t
(t) =
_
si > 0 ,
si < 0 ,
de modo que ahora el control u(t) no cumple nuestro prop osito.
6.2.2. Sensibilidad a perturbaciones externas
Supongamos ahora que, durante un cierto instante de tiempo, el control u(t)
que efect ua por ejemplo un motor, se perturba por cualquier motivo mediante
un valor > 0 peque no como puede ser una subida de tension en la red electrica.
Matematicamente podemos realizar la siguiente modelizacion de una situacion
similar
= u(t) +(t), (6.13)
siendo
(t) =
_
si t [1, 2] ,
0 si t , [1, 2] .
(6.14)
Vamos a probar que, si se toma el control (6.10) entonces, la solucion de
(6.13) diverge con lo cual no se verican nuestros prop ositos.
En efecto, la solucion de (6.13) con condiciones iniciales (6.9), es de-
cir, ((0), (0)) = (1, 2), es (t) = exp(2t) para t [0, 1]. Pos-
teriormente, se resuelve (6.13) con la condicion inicial ((1), (1)) =
6.3 Problemas resueltos 49
(exp(2), 2 exp(2)) durante el intervalo de tiempo t [1, 2]. Se ob-
tiene entonces
(t) = exp(2t) +
_
1 +
1
2
exp(1 t) +
1
2
exp(t 1)
_
.
Finalmente, se resuelve (6.13) con la condicion inicial
((2), (2)) =
_
e
4
+
_
1 +
1
2e
+
e
2
_
, 2e
4
+

2
_
e
1
e
__
durante el intervalo de tiempo t 2. Se obtiene entonces
(t) = e
2t
+
1
2
(e 1)
_
e
t2
e
1t

para t 2 ,
con lo que lm
t
(t) = .
De una forma similar se puede demostrar que, si se toma por control u(t)
la realimentacion (6.11), es decir, u(t) = (t) (t) con > 1 y
> 0, entonces la solucion de (6.13) no solo no diverege sino que todava
mantiene la propiedad asint otica deseada ((t), (t)) (0, 0) cuando t
.
6.3. Problemas resueltos
1. Es invariante la observabilidad de un sistema respecto de la realimentaci on
lineal de estados? Responder despues del estudio del sistema
x =
_
1 2
3 1
_
x +
_
0
1
_
u(t) ,
con salida y = (1, 2)x y realimentaci on u(t) = (3, 1)x.
Solucion. El sistema
x =
_
1 2
3 1
_
x +
_
0
1
_
u(t) ,
es completamente observable puesto que la matriz de observabilidad V es
V =
_
1 2
7 4
_
,
y tiene rango maximo.
Tras la realimentacion, el sistema en lazo cerrado es
x =
_
1 2
0 0
_
x , y = (1, 2)x ,
50 Realimentacion Lineal
siendo su matriz de observabilidad
V
K
=
_
1 2
1 2
_
.
Es claro que el rango de V
K
no es maximo de modo que el sistema de lazo
cerrado no es controlable.
La respuesta a la pregunta Es invariante la observabilidad de un sistema
respecto de la realimentacion lineal de estados? es NO.
2. Consideremos el sistema lineal
_
x
1
x
2
_
=
_
1 1
2 4
_ _
x
1
x
2
_
+
_
1
3
_
u(t) .
Averiguar si es posible realizar una realimentaci on lineal de modo que el
sistema en lazo cerrado tenga asociados los valores propios
1
= 4 y

2
= 5. En caso de que sea posible, hallarla.
Solucion. Nos basaremos en la demostracion constructiva del Teorema
36 con una unica variable de control (que es nuestro caso).
Sea x = (x
1
, x
2
)
T
R
2
. El sistema a estudiar es x = Ax +bu con
A =
_
1 1
2 4
_
/
2
(R) , b =
_
1
3
_
R
2
.
Si el sistema es completamente controlable, se sabe por el Teorema 36 que
existe una realimentacion lineal de modo que el sistema en lazo cerrado
tenga asociados los valores propios que deseemos de un conjunto
2
y por
lo tanto, en particular, los valores propios
1
= 4 y
2
= 5. Es facil ver
que el sistema del enunciado es completamente controlable.
Entonces, por el Teorema 14, existe un cambio lineal de variables w =
Tx con T /
2
(R) no singular que lo transforma en la forma can onica
controlable (3.25), es decir, w = Cw +du con d = (0, 1)
T
R
2
y
C =
_
0 1
k
2
k
1
_
/
2
(R) .
Aqu, k
i
son los coecientes del polinomio caracterstico de A, es decir,
det(I
2
A) =
2
+k
1
+k
2
=
2
+ 5 + 6 ,
de modo que
k
1
= 5 , k
2
= 6 .
La matriz de ganancia es K = T, siendo el vector la = (
2
,
1
) R
2
donde

i
= k
i

i
, i = 1, 2 , (6.15)
6.3 Problemas resueltos 51
y
i
se calcula imponiendo que

2
+
1
+
2
=
2

i=1
(
i
) ,
siendo
i
los valores propios que se desean en lazo cerrado. En concreto se
tiene

2
+
1
+
2
= ( + 4)( + 5) ,
de donde obtenemos

1
= 9 ,
2
= 20 .
Volviendo a (6.15) se tiene

1
= 5 9 = 4 ,
2
= 6 20 = 14 ,
de modo que = (14, 4).
Solo falta por calcular la matriz T. Para conseguirlo, recordemos la Nota
7, es decir, T se puede construir mediante (3.29) donde es la solucion de
(3.31). En otras palabras,
T =
_

A
_
/
2
(R) ,
donde verica
[b, Ab] = d
T
.
En nuestro problema, despejando de la anterior ecuacion se tiene
= d
T
[b, Ab]
1
= (0, 1)
_
1 4
3 10
_
1
= (0, 1)
_
5 2
3/2 1/2
_
=
1
2
(3, 1) .
Finalmente, se tiene
T =
_

A
_
=
1
2
_
3 1
5 1
_
.
Resumiendo, la realimentacion lineal sera del tipo u = Kx, siendo la
matriz de ganancia
K = T =
1
2
(14, 4)
_
3 1
5 1
_
= (11, 5) ,
es decir, el control por realimentacion lineal utilizado ser a
u = Kx = (11, 5)
_
x
1
x
2
_
= 11x
1
5x
2
.
52 Realimentacion Lineal
Para comprobar que todo es correcto se puede ver que los valores propios
de la matriz
A+bK =
_
10 6
35 19
_
asociada al sistema en lazo cerrado son
1
= 4 y
2
= 5.
Captulo 7
Estabilidad
7.1. Introducci on y deniciones
A diferencia de los captulos anteriores, los conceptos de este captulo pueden
ser aplicados a sistemas mas generales que los sistemas lineales.
Consideraremos pues un sistema (en general no lineal) de ecuaciones difer-
enciales de primer orden
x = f(x, t) , (7.1)
siendo x(t) = (x
1
(t), . . . , x
n
(t)) R
n
el vector de estados y
f(x, t) = (f
1
(x, t), . . . , f
n
(x, t)) R
n
satisfaciendo las condiciones del teorema de existencia y unicidad del problema
de Cauchy asociado para una condici on inicial x(t
0
) = x
0
dada. En particular,
si f
i
y f
i
/x
j
son funciones continuas en un entorno del punto (t
0
, x
0
) R
n+1
se verican dichas condiciones. El sistema (7.1) se llama autonomo si f no
depende explcitamente del tiempo, es decir, son sistemas del tipo x = f(x). En
caso contrario se llaman no autonomos. Si la funci on f es lineal y autonoma,
entonces se recuperan los sistemas lineales x = Ax estudiados anteriormente.
Denicion 44. El estado x

R
n
se llama punto crtico o punto singular o
estado estacionario del sistema (7.1) si verica f(x

, t) 0 para todo t.
Siempre supondremos que los puntos crticos son aislados, lo que signica
que no hay otros puntos crticos de (7.1) en un entorno de x

.
Nota 45. Supongamos que x

es un punto crtico del sistema (7.1). Entonces,


si x(t
0
) = x

, utilizando la ecuaci on (7.1) se deduce que x(t) = x

para todo
t t
0
. El hecho de que las soluciones de (7.1) que comiencen en x

permanezcan
en x

da el nombre de estado estacionario a x

.
Nota 46. Sin perdida de generalidad siempre se puede suponer que el punto
crtico x

es el origen, es decir x

= 0 R
n
. En caso de que que no lo sea, se
realiza el cambio de variables (traslaci on) z = x x

que lleva el punto x

al
origen.
53
54 Estabilidad
Intuitivamente, la estabilidad de un punto crtico x

de (7.1) medir a si las


soluciones x(t) de (7.1) que comiencen cercade x

permaneceran o no cer-
capara t > t
0
. No existe una unica denici on de estabilidad. Nosotros utilizare-
mos la siguiente denicion dada por Liapunov.
Denicion 47. Sea x

= 0 R
n
punto crtico del sistema (7.1). Entonces:
(i) 0 es estable si para todo > 0 existe un > 0 tal que |x(t
0
)| < implica
|x(t)| < para todo t t
0
.
(ii) 0 es asintoticamente estable si es estable y ademas lm
t
x(t) = 0.
(i) 0 es inestable si no es estable, es decir, existe un > 0 tal que para todo
> 0 existe un x(t
0
) vericando |x(t
0
)| < y |x(t
1
)| para alg un
t
1
> t
0
. Si ademas esto sucede para todo x(t
0
) con |x(t
0
)| < entonces 0
se llama completamente inestable.
Si se conoce la expresion explcita de la solucion general x(t) del sistema
(7.1) para cualquier condici on inicial x(t
0
) = x
0
entonces tambien se conoce la
estabilidad de sus puntos crticos. Por ejemplo, el sistema lineal x = Ax, siendo
A =
_
2 3
2 1
_
,
con la condicion inicial x(0) = (x
1
(0), x
2
(0)) tiene por solucion general (uti-
lizando los metodos anteriormente estudiados)
x
1
(t) = x
1
(0) exp
_
t
2
_
_
cos
_

15
2
t
_
+
3

15
sin
_

15
2
t
__

15
x
2
(0) exp
_
t
2
_
sin
_

15
2
t
_
,
con una expresion similar para x
2
(t). Obviamente, debido al termino exponen-
cial, lm
t
x
1
(t) = para cualquier valor inicial x(0) de modo que el origen
del sistema lineal es inestable.
Sin embargo, excepto para sistemas lineales y alg un otro tipo simple, no se
conocera a priori la soluci on general x(t) del sistema de modo que este metodo
no es de gran aplicacion.
7.2. Estabilidad en sistemas lineales
Consideremos otra vez el sistema lineal
x = Ax , (7.2)
7.2 Estabilidad en sistemas lineales 55
con x R
n
y A /
n
(R). Suponiendo que A sea no singular, es claro que
el unico punto crtico del sistema (7.2) es el origen, de modo que tiene senti-
do hablar de la estabilidad del sistema lineal (7.2) aunque nos reramos a la
estabilidad del origen de (7.2).
Denicion 48. Sean
k
C, con k = 1, . . . , n, los valores propios de la matriz
A /
n
(R). Denotemos por '(
k
) a la parte real de
k
. Entonces A se llama
matriz de estabilidad o bien de Hurwitz si '(
k
) < 0 para todo k = 1, . . . , n.
Teorema 49. Sean
k
, con k = 1, . . . , n, los valores propios de la matriz A. El
sistema (7.2) es:
(i) asintoticamente estable si y solo si A es una matriz de estabilidad.
(ii) inestable si existe alg un k tal que '(
k
) > 0.
(iii) completamente inestable si '(
k
) > 0 para todo k = 1, . . . , n.
Demostracion de (i). Solo probaremos la condicion suciente de (i) en el caso
de que todos los valores propios de A sean diferentes. La solucion del sistema
(7.2) con la condicion inicial x(0) = x
0
viene dada por
x(t) = exp(At)x
0
.
Utilizando las propiedades de las normas matriciales se tiene
|x(t)| | exp(At)| |x
0
| . (7.3)
Realizaremos la demostracion solo para el caso en que todos los valores
propios
k
de A son distintos. Entonces se puede aplicar la f ormula de Sylvester
(3.14), es decir,
exp(At) =
n

k=1
Z
k
exp(
k
t) ,
siendo Z
k
matrices constantes que solo dependen de A y de sus valores propios.
Tomando normas se tiene
| exp(At)|
n

k=1
|Z
k
| [ exp(
k
t)[ .
Como
k
= '(
k
) +i(
k
), siendo i =

1, se tiene que
exp(
k
t) = exp('(
k
)t) exp(i(
k
)t) ,
de modo que el modulo [ exp(
k
t)[ = exp('(
k
)t). Se tiene pues que
| exp(At)|
n

k=1
|Z
k
| exp('(
k
)t) . (7.4)
Supongamos que '(
k
) < 0 para todo k. Entonces, de (7.4) se deduce que
| exp(At)| 0 cuando t . Finalmente, teniendo en cuenta (7.3), se con-
cluye que |x(t)| 0 cuando t y por lo tanto el sistema (7.2) es asintotica-
mente estable.
56 Estabilidad
Nota 50. Observar que tras el Teorema 49, los casos difciles en el estudio de
la estabilidad del sistema (7.2) son aquellos en los que alg un valor propio
j
de
A sea o bien nulo o bien imaginario puro, es decir, '(
j
) = 0.
Es facil demostrar el siguiente resultado de gran utilidad en aplicaciones.
Proposicion 51. Sea el polinomio k() =
3
+ a
2
+ b + c R
3
[]. Todas
las races de k() tienen parte real negativa si y solo si a > 0, b > 0, c > 0 y
ab > c.
7.3. Teora de Liapunov de la estabilidad
En esta seccion estudiaremos la estabilidad de los puntos crticos de un
sistema (7.1) no necesariamente lineal pero si autonomo. Sin perdida de gener-
alidad se estudiara en muchas ocasiones la estabilidad del origen, ver la Nota
46. Por lo tanto, el ojetivo es estudiar la estabilidad del punto crtico x

en el
sistema
x = f(x) , f(x

) = 0 . (7.5)
La teora de Liapunov de la estabilidad para este tipo de sistemas consiste en
generalizar el concepto de energa V que aparece en los sistemas conservativos
en mecanica, donde es bien sabido que un punto crtico es estable si la energa
tiene un mnimo en dicho punto.
Denicion 52. Dada una funcion V : R
n
R de clase C
1
, se dene la
derivada orbital

V de V respecto del sistema (7.5) como la siguiente derivada
direccional

V =
dV
dt
=
n

i=1
V
x
i
x
i
= V.f .
Nota 53. Notese que, dada una solucion x(t) del sistema (7.5), se tiene

V (x(t)) =
dV (x(t))
dt
.
Denicion 54. La funcion V : D R
n
R con x

= 0 D es una funcion
de Liapunov para el sistema (7.5) si verica lo siguiente:
(i) V C
1
(D).
(ii) V es denida positiva, es decir, V (0) = 0 y V (x) > 0 para todo x D con
x ,= 0.
(iii)

V es semidenida negativa, es decir,

V (0) = 0 y

V (x) 0 para todo
x D.
El siguiente resultado es basico en esta teora y posee un fuerte caracter
geometrico.
7.3 Teora de Liapunov de la estabilidad 57
Teorema 55 (Liapunov). (i) El punto crtico x

= 0 del sistema (7.5) es es-


table si existe una funcion de Liapunov denida en un entorno D R
n
con 0 D.
(ii) El punto crtico x

= 0 del sistema (7.5) es asintoticamenete estable si


existe una funcion de Liapunov denida en un entorno D R
n
con 0 D
tal que

V es denida negativa, es decir,

V (0) = 0 y

V (x) < 0 para todo
x D con x ,= 0.
Demostracion. Daremos una prueba solo para el caso bidimensional, es decir
x = (x
1
, x
2
) R
2
.
En primer lugar exploremos algunos aspectos geometricos de las funciones
denidas positivas. Est a claro que, si V : R
2
R es denida positiva en un
entorno D R
2
del origen, entonces V tiene un mnimo aislado en el origen.
Esto implica que las curvas de nivel
V
1
(c) = x R
2
[ V (x) = c
en el plano de fases x
1
x
2
son curvas cerradas rodeando al origen para c R
positivo y peque no.
En el siguiente paso, queremos determinar como cruzan las soluciones x(t)
del sistema x = f(x) a las anteriores curvas de nivel de V . Para verlo, calculamos
la derivada orbital de V seg un el sistema x = f(x), es decir,

V (x(t)) =
V
x
1
(x(t)) x
1
+
V
x
2
(x(t)) x
2
.
Por supuesto, esta expresion coincide con la del producto escalar del vector
gradiente V (x) y del vector f(x) de modo que

V (x) = f(x).V (x) = |f(x)| |V (x)| cos ,


siendo el angulo formado por los vectores V (x) y f(x). Recordemos que el
vector V (x) es perpendicular a la curva de nivel de V que pasa por x y con
el sentido de maxima variaci on de V . De este modo, si

V (x) < 0, entonces el
angulo es obtuso con lo cual la orbita del sistema que pasa por x corta a la
curva de nivel desde la parte del plano no acotada (exterior de la curva de nivel)
hacia la parte acotada por la curva de nivel (interior de la curva de nivel). De
forma similar, si

V (x) > 0, la orbita del sistema que pasa por x corta a la curva
de nivel de V que pasa por x desde su interior hacia su exterior; si

V (x) = 0 la
orbita del sistema que pasa por x toca a la curva de nivel tangencialmente en
x.
Con todos estos preliminares vamos nalmente a demostrar el teorema.
(i) Sea > 0 sucientemente peque no de manera que el entorno del origen
consistente en los puntos x con |x| este contenido en D. Sea
m = mn
x=
V (x) > 0 .
58 Estabilidad
Recordemos que m existe puesto que el subconjunto de R
2
de puntos x con
|x| = es cerrado y acotado y por lo tanto compacto. Ahora tomemos un tal
que 0 < tal que V (x) < m para todo x con |x| . Dicho existe ya que
V es una funcion continua con V (0, 0) = 0.
Sea x(t) la solucion del sistema que pasa por el punto x
0
R
2
para tiempo
t = 0. Si se toma |x
0
| entonces |x(t)| para todo t 0 ya que

V (x(t)) 0 implica V (x(t) V (x


0
) para todo t 0. Hemos probado pues la
estabilidad del origen.
(ii) Se demuestra de manera similar.
Por supuesto, una de las principales dicultades que uno se encuentra cuando
quiere utilizar la teora de estabilidad de Liapunov consiste en buscar la fun-
cion de Liapunov. Una situaci on simple consiste en buscar formas cuadraticas
denidas positivas como funciones de Liapunov.
Lema 56. Una forma cuadratica V (x
1
, x
2
) = ax
2
1
+2bx
1
x
2
+cx
2
2
con a, b, c R
es denida positiva si y s olo si a > 0 y ac b
2
> 0.
Demostracion. Probaremos solo la necesidad (la suciencia sigue razonamien-
tos analogos). Supongamos pues que V es denida positiva. Entonces, como
V (x
1
, 0) > 0 para todo x
1
,= 0, se debe tener a > 0. Tomemos ahora un x
2
,= 0
jo de modo que V (x
1
, x
2
) > 0 para todo x
1
. As, el polinomio p(x
1
) = V (x
1
, x
2
)
no puede tener races reales. En consecuencia, su discriminante 4(b
2
ac) debe
ser negativo.
7.3.1. Aplicaci on a sistemas lineales
Consideremos de nuevo el sistema lineal
x = Ax , (7.6)
con x R
n
y A /
n
(R). En esta seccion mostraremos como se puede aplicar
a los sistemas lineales la teora de Liapunov. Para ello ensayaremos la siguiente
posiblefuncion de Liapunov denida mediante una forma cuadr atica
V = x
T
Px , (7.7)
siendo P /
n
(R) simetrica. La derivada orbital

V de V respecto del sistema
lineal (7.6) viene dada por

V = x
T
Px +x
T
P x = x
T
A
T
Px +x
T
PAx = x
T
(A
T
P +PA)x ,
de modo que, si denimos la matriz Q mediante la llamada ecuacion matricial
de Liapunov
A
T
P +PA = Q , (7.8)
se tiene que

V = x
T
Qx . (7.9)
7.3 Teora de Liapunov de la estabilidad 59
Es facil ver que Q es una matriz simetrica puesto que P lo es. Esto es debido a
que
Q
T
= (A
T
P +PA)
T
= (P
T
A+A
T
P
T
) = (PA+A
T
P) = Q .
Por lo tanto la expresi on de

V dada en (7.9) es una forma cuadr atica.
Es habitual jar

V , es decir, jar Q y calcular V o equivalentemente calcular
una solucion P de la ecuacion matricial de Liapunov (7.8).
Los siguientes teoremas son una herramienta teorica con grandes aplicaciones
en la teora de control optimo como veremos en captulos posteriores.
Teorema 57 (Liapunov). La ecuacion matricial de Liapunov (7.8) verica lo
siguiente:
(i) La ecuacion (7.8) tiene una unica solucion P simetrica para cada Q simetri-
ca jada si y s olo si para cada par de valores propios
i
y
j
de A se verica

i
+
j
,= 0.
(ii) Si A es una matriz de estabilidad, para cada Q denida positiva existe una
unica solucion de (7.8) que es denida positiva y viene dada de forma
explcita por
P =
_

0
exp(A
T
t)Qexp(At) dt . (7.10)
Nota 58. La formula (7.10) tiene interes teorico puesto que en muchas oca-
siones es mas simple resolver la ecuaci on matricial de Liapunov (7.8) direc-
tamenete que calcular mediante (7.10).
Teorema 59. La matriz A es una matriz de estabilidad si y s olo si para
cualquier matriz Q /
n
(R) simetrica y denida positiva, la matriz P
/
n
(R) soluci on de la ecuacion matricial de Liapunov (7.8) es tambien denida
positiva.
Demostracion. Consta de dos partes:
Si P y Q son ambas denidas positivas, entonces la V dada en (7.7) es
una funci on de Liapunov y adem as

V es denida negativa de modo que,
por el Teorema 55, el origen del sistema (7.6) es asintoticamente estable.
Si Q es denida positiva y P es denida negativa o indenida entonces en
ambos casos la V denida en (7.7) puede tomar valores negativos en un
entorno del origen. Entonces, el origen del sistema (7.6) es inestable.
7.3.2. Estabilidad mediante linearizaci on
La teora de estabilidad desarrollada para sistemas lineales puede ser aplica-
da en algunos casos a sistemas no lineales mediante el concepto de linearizaci on.
60 Estabilidad
Consideremos de nuevo la ecuacion no lineal (7.5) con el punto crtico x

R
n
,
es decir,
x = f(x) , f(x

) = 0 . (7.11)
Supongamos que f es sucientemente regular de modo que podemos realizar
el desarrollo de Taylor de f(x) en un entorno de x

, es decir, f(x) = Df(x

)(x
x

)+g(x), siendo la funci on g(x) la que contiene a los terminos de orden superior
a los lineales en el desarrollo efectuado y
Df(x

) =
_
_
_
_
_
_
f
1
x
1
(x

)
f
1
x
n
(x

)
f
2
x
1
(x

)
f
2
x
n
(x

)
.
.
.
.
.
.
.
.
.
f
n
x
1
(x

)
f
n
x
n
(x

)
_
_
_
_
_
_
/
n
(R) ,
la matriz jacobiana de f calculada en el punto x

.
Denicion 60. El sistema lineal
x = Df(x

)x , (7.12)
se llama la linearizacion del sistema no lineal x = f(x) en el punto singular x

.
Teorema 61 (Estabilidad por linearizaci on). Si el sistema lineal x = Df(x

)x
es asintoticamente estable o inestable, entonces el punto crtico x

del sistema
no lineal x = f(x) con f(x

) = 0 tiene la misma propiedad de estabilidad.


Demostracion. Demostraremos solo la primera parte del teorema relacionada
con la estabilidad asint otica. Supondremos ademas que x

= 0.
Consideremos la funcion V = x
T
Px donde la matriz P satisface la ecuacion
matricial de Liapunov
Df
T
(0)P +PDf(0) = Q ,
con Q una matriz arbitraria real simetrica y denida positiva.
Supongamos que el sistema linearizado x = Df(0)x es asintoticamente es-
table. Entonces P es denida positiva por el Teorema 59. Ademas, la derivada
orbital de V respecto del sistema x = f(x) = Df(0)x +g(x) es

V = x
T
Px +x
T
P x = [Df(0)x +g]
T
Px +x
T
P[Df(0)x +g]
= [x
T
Df
T
(0) +g
T
]Px +x
T
P[Df(0)x +g]
= x
T
[Df
T
(0)P +PDf(0)]x +g
T
Px +x
T
Pg
= x
T
Qx +g
T
Px +x
T
Pg .
Por otra parte
x
T
Pg = (Pg)
T
x = g
T
P
T
x = g
T
Px ,
7.4 Estabilidad y control 61
donde en el primer paso se ha utilizado la propiedad conmutativa del producto
escalar y en el ultimo el hecho de que P es simetrica. De este modo se tiene que

V = x
T
Qx + 2g
T
Px .
Puesto que g comienza en terminos de al menos grado 2, es claro que el segundo
termino 2g
T
Px de

V comienza con terminos de al menos grado 3. Entonces,
para x sucientemente cercano al origen domina el primer termino x
T
Qx en la
expresion de

V . Esto implica que, puesto que Q es una matriz denida positiva,
para todo x sucientemente cercano al origen se tiene

V < 0. Aplicando ahora
el Teorema 55, se concluye que el origen del sistema no lineal x = f(x) es
asintoticamente estable.
Nota 62. Observar que el Teorema 61 no aporta ninguna informaci on sobre
la estabilidad del punto crtico x

del sistema x = f(x) cuando el sistema lin-


earizado x = Df(x

)x es estable pero no es asintoticamente estable.


7.4. Estabilidad y control
Veamos alguna de las relaciones existentes entre los conceptos de estabilidad
y los de control. Consideremos de nuevo el sistema lineal controlado
x = Ax +Bu , (7.13)
con A /
n
(R) y B /
nm
(R) matrices constantes, x(t) R
n
y u(t) R
m
.
Ademas, supondremos que la salida y(t) del sistema es
y = Cx , (7.14)
con C /
rn
(R).
7.4.1. Estabilidad entradasalida
Cuando un sistema es controlado mediante una entrada, es decir un vector
de control u(t), es de gran utilidad pr actica denir un nuevo tipo de estabilidad.
Denicion 63. El sistema x = Ax + Bu, y = Cx, se dice que es entrada
acotadasalida acotada estable (o bien b.i.b.o) si cualquiere control de entrada
u(t) acotado produce una salida y(t) acotada. En otras palabras, independien-
temente del estado inicial x(t
0
), si |u(t)| < c
1
para todo t t
0
con c
1
una
constante entonces existe otra constante c
2
tal que |y(t)| < c
2
para todo t t
0
.
Nota 64. Es habitual en la literatura encontrar a los sistems con entrada
acotadasalida acotada estables mediante el nombre b.i.b.o provenientes de la
abreviatura del ingles bounded inputbounded output.
Teorema 65. Si el sistema lineal x = Ax es asintoticamente estable, entonces
el sistema x = Ax +Bu, y = Cx es b.i.b.o. estable.
62 Estabilidad
Demostracion. En primer lugar, recordemos que la soluci on del sistema x =
Ax+Bu con condicion inicial x(0) = x
0
viene dada seg un (3.21) por la f ormula
de variaci on de constantes
x(t) = exp(At)
_
x
0
+
_
t
0
exp(A)Bu() d
_
.
Tomando normas en la ecuacion y = Cx y utilizando sus propiedades se obtiene
|y(t)| |C| |x(t)|
|C|
_
| exp(At)||x
0
| +
_
t
0
| exp[A(t )]| |Bu()| d
_
. (7.15)
Por otra parte, si A es una matriz de estabilidad, entonces existen constantes
reales positivas K y de modo que
| exp(At)| K exp(t) K , t 0 . (7.16)
Esta propiedad, para el caso particular en que todos los valores propios
k
de
A son distintos, se deduce de tomar normas en la formula de Sylvester (3.14),
es decir,
| exp(At)| =
_
_
_
_
_
n

k=1
Z
k
exp(
k
t)
_
_
_
_
_

k=1
|Z
k
| | exp(
k
t)|


K
n

k=1
| exp(
k
t)| =

K
n

k=1
exp['(
k
)t]


K
n

k=1
exp[t] = n

K exp[t]
donde

K := max
1kn
|Z
k
| y := mn
1kn
'(
k
). Tomando K = n

K se
deduce (7.16).
Teniendo en cuenta que la entrada de control est a acotada, es decir |u(t)| <
c
1
, de las ecuaciones (7.15) y (7.16) se deduce la siguiente cota
|y(t)| |C|
_
K|x
0
| +c
1
|B|
_
t
0
| exp[A(t )]| d
_
|C|
_
K|x
0
| +c
1
|B|K
_
t
0
exp[(t )] d
_
= K|C|
_
|x
0
| +c
1
|B|
1

[1 exp(t)]
_
K|C|
_
|x
0
| +c
1
|B|
1

_
para todo t 0 .
En denitiva, |y(t)| esta acotada y por lo tanto el sistema es b.i.b.o estable.
7.4 Estabilidad y control 63
El recproco del Teorema 65 no es cierto en general. Sin embargo se dispone
del siguiente resultado demostrado en la p agina 53 de [12].
Teorema 66. Si el sistema lineal x = Ax + Bu, y = Cx es completamente
controlable, completamente observable y b.i.b.o. estable, entonces el sistema x =
Ax es asintoticamente estable.
7.4.2. Estabilizaci on por realimentaci on lineal
Supongamos que el sistema de lazo abierto x = Ax es inestable. Dicho de
otro modo, existe al menos un valor propio de la matriz A con parte real posi-
tiva (ver Teorema 49). En estos casos, un problema de gran aplicacion consiste
en averiguar si se puede aplicar alg un control u(t) de forma que el sistema
x = Ax +Bu se estabilice.
Sabemos que, si el sistema x = Ax + Bu es completamente controlable,
entonces existe una realimentacion lineal u = Kx de modo que el sistema de
lazo cerrado x = (A + BK)x es asintoticamente estable, ver Teorema 36. De
hecho existen innitas matrices de ganancia K diferentes que consiguen este
objetivo.
Sin embargo, cuando el sistema x = Ax + Bu no es completamente contro-
lable, entonces podemos denir una propiedad m as debil que esta. En concreto,
se dice que el sistema x = Ax + Bu es estabilizable si existe una matriz real K
tal que el sistema de lazo cerrado x = (A+BK)x es asintoticamente estable.
7.4.3. Linealizaci on de sistemas de control no lineales
Consideremos un sistema de control no lineal
x = f(x, u) , (7.17)
siendo x(t) R
n
las variables de estado y u(t) R
m
las variables de control.
Aqu no estamos suponiendo que la funci on vectorial f sea lineal. De hecho,
cuando se modeliza matematicamente un sistema fsico de control, habitual-
mente estos son no lineales. Sin embargo, existen algunos sistemas que son o
bien debilmente no lineales o bien sus caractersticas no lineales se dan bajo
ciertas restricciones de operacion. El hecho de que podamos aproximar este tipo
de sistemas no lineales mediante sistemas lineales nos brinda poder atacar el
sistema con toda la artillera de metodos analticos y exactos propios de este
tipo de sistemas.
Suponiendo f C
1
, describiremos a continuaci on un proceso de linearizacion
del sistema (7.17) en un entorno de una soluci on x

(t) correspondiente al control


u

(t). Usualmente, x

es un punto singular del sistema (7.17) correspondiente


a un cierto control constante u

, es decir, f(x

, u

) = 0 aunque no es necesario
que esto ocurra.
64 Estabilidad
Realizando una expansi on de Taylor de la funci on
f(x, u) = (f
1
(x, u), . . . , f
n
(x, u))
en un entorno del punto (x

, u

) = (x

1
, . . . , x

n
, u

1
, . . . , u

m
) y truncando a primer
orden se tiene
x
i
f
i
(x

, u

)+
n

j=1
f
i
x
j
(x

, u

)(x
j
x

j
)+
m

j=1
f
i
u
j
(x

, u

)(u
j
u

j
) , i = 1, . . . , n .
Puesto que se pretende estudiar el sistema en un entorno de (x

, u

), denimos
las variables
x
i
= x
i
x

i
, u
i
= u
i
u

i
. (7.18)
Como x
i
= x
i
x

i
= x
i
f
i
(x

, u

), se tiene
x
i
=
n

j=1
f
i
x
j
(x

, u

)x
j
+
m

j=1
f
i
u
j
(x

, u

)u
j
, i = 1, . . . , n .
Por supuesto, este sistema lineal se puede escribir en la forma matricial
x =

Ax +

Bu , (7.19)
siendo x = (x
1
, . . . , x
n
)
t
R
n
, u = (u
1
, . . . , u
m
)
t
R
m
,

A =
_
_
_
_
_
_
f
1
x
1
(x

, u

)
f
1
x
n
(x

, u

)
f
2
x
1
(x

, u

)
f
2
x
n
(x

, u

)
.
.
.
.
.
.
.
.
.
f
n
x
1
(x

, u

)
f
n
x
n
(x

, u

)
_
_
_
_
_
_
/
n
(R) ,

B =
_
_
_
_
_
_
f
1
u
1
(x

, u

)
f
1
u
m
(x

, u

)
f
2
u
1
(x

, u

)
f
2
u
m
(x

, u

)
.
.
.
.
.
.
.
.
.
f
n
u
1
(x

, u

)
f
n
u
m
(x

, u

)
_
_
_
_
_
_
/
nm
(R) .
7.5. Problemas resueltos
1. Consideremos un pendulo de longitud inmerso en un uido que le pro-
porciona un rozamiento proporcional a la velocidad. Es f acil ver que la
ecuacion del movimiento del pendulo viene dada por

+ 2c

+
2
sin = 0 ,
donde c > 0 es un coeciente de rozamiento y
2
= /g con g la gravedad
supuesta constante. Estudiar la estabilidad de sus puntos singulares.
7.5 Problemas resueltos 65
Solucion. Usando el cambio de variables habitual

= w se tiene el sistema

= w , w =
2
sin 2cw . (7.20)
Los puntos singulares del sistema en el plano de fases son (, w) = (n, 0),
con n Z.
Estudiemos a continuaci on la estabilidad del origen del sistema (7.20) por
linearizacion. La matriz Jacobiana de (7.20) es
Df(, w) =
_
0 1

2
cos 2c
_
,
de modo que, calculada en el origen es
Df(0, 0) =
_
0 1

2
2c
_
.
Los valores propios asociados a Df(0, 0) son

= c

c
2

2
. Debido
a que c > 0 y > 0 se tiene que '(

) < 0 (independientemente de si
c o no). Por lo tanto, utilizando una combinaci on del Teorema 49 y
del Teorema 61 se concluye que el origen (, w) = (0, 0) es asintoticamente
estable para el sistema (7.20).
Es facil demostrar que si n es par, las ecuaciones que se obtienen del estudio
de la estabilidad por linearizaci on de los puntos singulares (, w) = (n, 0)
son las mismas que para el origen. De este modo, el analisis realizado para
el origen se aplica de igual forma aqu. En denitiva se tiene que los puntos
singulares (, w) = (n, 0) son asintoticamente estables para el sistema
(7.20).
Por el contrario, si calculamos la matriz Jacobiana de (7.20) en los puntos
singulares (, w) = (n, 0) con n impar se obtiene
Df(n, 0) =
_
0 1

2
2c
_
.
Los valores propios asociados a Df(n, 0) con n impar son

= c

c
2
+
2
. Se tiene ahora que '(
+
) > 0 y '(

) < 0. Aplicando de
nuevo el Teorema 49 y el Teorema 61 se concluye que los puntos singulares
(, w) = (n, 0) con n impar son inestable para el sistema (7.20).
2. Consideremos el sistema no lineal siguiente obtenido mediante una per-
turbaci on de un oscilador armonico
x = y +x(x
2
+y
2
) , y = x +y(x
2
+y
2
) ,
con R0 un parametro.
(i) Es posible estudiar la estabilidad del origen del sistema por linearizaci on?
66 Estabilidad
(ii) Sea (x(t), y(t)) una solucion del sistema. Utilizar la funci on |(x(t), y(t)|
2
para estudiar la estabilidad del origen del sistema.
Solucion. (i) La matriz Jacobiana asociada al sistema y calculada en el
origen es
Df(0, 0) =
_
0 1
1 0
_
.
Los valores propios asociados a Df(0, 0) son

= i y por lo tanto ima-


ginarios puros. Puesto que '(

) = 0, no se puede aplicar el Teorema 61


y por lo tanto la linearizaci on no es suciente para analizar la estabilidad
del origen del sistema.
(ii) Sea V (t) = |(x(t), y(t)|
2
= x
2
(t) + y
2
(t). Calculamos la derivada
orbital de V y obtenemos

V = 2x x+2y y = 2x[y+x(x
2
+y
2
)]+2y[x+y(x
2
+y
2
)] = 2(x
2
+y
2
)
2
.
Esta claro que, excepto en el origen, el signo de

V coincide con el de .
De este modo, teniendo en cuenta el signicado geometrico de la funcion
V , concluimos que
Si < 0 entonces (x(t), y(t)) (0, 0) cuando t de manera
monotona. En particular, el origen del sistema es asint oticamente
estable. Notar que, aplicando el apartado (ii) del Teorema 55, se
puede deducir el resultado teniendo en cuenta que V es una funcion
de Liapunov y

V es denida negativa.
Si > 0 entonces todas las soluciones (x(t), y(t)) del sistema, excepto
el origen, escapan hacia el innito cuando t . En particular, el
origen del sistema es inestable.
3. Consideremos un pendulo de longitud y masa m. Se sabe que, despre-
ciando los efectos del rozamiento y tomando la gravedad g constante, la
ecuacion del movimiento viene dada por

+
g

sin = 0 ,
siendo el angulo que forma el pendulo con la vertical.
(i) Es posible estudiar la estabilidad del origen (,

) = (0, 0) del sistema
por linearizaci on?
(ii) Es posible utilizar la funci on V (,

) =
2
+

2
como funcion de
Liapunov en un entorno del origen?
(iii) Es posible utilizar la funci on energa E(,

) =
1
2
m
2

2
+ mg(1
cos ) como funcion de Liapunov en un entorno del origen?
7.5 Problemas resueltos 67
Solucion.
(i) Usando el cambio de variables habitual

= w se tiene el sistema

= w , w =
g

sin .
Los puntos singulares del sistema en el plano de fases son (, w) = (n, 0),
con n Z.
La matriz Jacobiana del sistema es
Df(, w) =
_
0 1

cos 0
_
,
de modo que, calculada en el origen es
Df(0, 0) =
_
0 1

0
_
.
Los valores propios

asociados a Df(0, 0) son imaginarios puros, de mo-


do que '(

) = 0 y no se puede concluir nada sobre la estabilidad del


origen por el metodo de linearizacion.
(ii) Sea V (, w) =
2
+ w
2
. La derivada orbital de V a lo largo de las
orbitas del sistema es

V = 2w
_

g

sin
_
.
Observemos que

V (, w) no tiene signo denido en ning un entorno del
origen. Una forma de verlo es la siguiente. El desarrollo de Taylor de sin
entorno del origen es sin = +O(
3
), de modo que

V (, w) = 2w
_

_
1
g

_
+O(
3
)
_
.
68 Estabilidad
De esta expresion se obtiene que el signo de

V viene dado por
sign [

V ] =
_
sign [1 g/] si w > 0, 0 < << 1 ,
sign [(1 g/)] si w < 0, 0 < << 1 ,
Se concluye que no es posible tomar V como funcion de Liapunov en un
entorno del (, w) = (0, 0).
(iii) Observar que la funci on E(,

) =
1
2
m
2

2
+mg(1cos ) es denida
positiva en un entorno sucientemente peque no del origen puesto que , m
y g son constantes positivas. Ademas, la derivada orbital

E 0. Entonces,
E es una funcion de Liapunov para el sistema y, aplicando la parte (i) del
Teorema 55, el origen es estable.
4. Considerar un oscilador amortiguado, es decir, un sistema del tipo
m x +c x +kx = 0 ,
con c > 0 y k > 0 las constantes de rozamiento y elastica respectiva-
mente. Demostrar, utilizando la energa mecanica total como funcion de
Liapunov, que el punto crtico (x, x) = (0, 0) es estable.
Solucion. En primer lugar escribimos el sistema en el plano de fases
x = y , y =
k
m
x
c
m
y .
La energa mecanica E del sistema es la suma de la energa potencial
elastica y de la energa cinetica, es decir,
E(x, y) =
1
2
my
2
+
1
2
kx
2
.
Puesto que m y k son constantes positivas, es obvio que E(x, y) > 0 para
todo (x, y) ,= 0 y que E(0, 0) = 0 de modo que la funci on E es denida
positiva. Ademas, su derivada orbital es

E =
E
x
x +
E
y
y
= kxy +my
_

k
m
x
c
m
y
_
= cy
2
0 ,
7.5 Problemas resueltos 69
por lo tanto

E es semidenida positiva. En denitiva E(x, y) es una funcion
de Liapunov para el sistema en un entorno del punto singular (x, y) =
(0, 0). Aplicando el apartado (i) del Teorema 55 se concluye que el punto
singular (x, y) = (0, 0) es estable
1
.
5. Estudiar la estabilidad de los puntos singulares del sistema
x = 2xy , y = x
2
y
3
,
utilizando una funci on de Liapunov del tipo V (x, y) = ax
2m
+ by
2n
con
constantes adecuadas a, b, m, n.
Solucion. Esta claro que la unica solucion del sistema de ecuaciones
0 = 2xy , 0 = x
2
y
3
,
es (x, y) = (0, 0). Por lo tanto el origen es el unico punto singular del
sistema.
La derivada orbital de V es

V =
V
x
x +
V
y
y = 2max
2m1
(2xy) + 2nby
2n1
(x
2
y
3
)
= [4max
2m
y + 2nbx
2
y
2n1
] 2nby
2n+2
.
Elejimos los valores de los parametros de manera que la expresion encerra-
da entre corchetes se anule. Por ejemplo, mediante simple inspeccion, una
eleccion es m = n = a = 1, b = 2. Se tiene entonces V (x, y) = x
2
+ 2y
2
que es denida positiva y

V (x, y) = 4y
4
que es semidenida negativa.
Concluimos que V es una funcion de Liapunov para el sistema y, apli-
cando el apartado (i) del Teorema 55 se concluye que el punto singular
(x, y) = (0, 0) es estable.
6. Considerar el sistema lineal x = Ax con x R
2
y
A =
_
1 2
0 3
_
.
(i) Demostrar que el sistema es asint oticamente estable.
(ii) Hallar una funcion de Liapunov cuadratica par el origen del sistema.
Solucion. (i) Aplicando la parte (i) del Teorema 49 se concluye que el
sistema es asintoticamente estable puesto que los valores propios de la
matriz A son
1
= 1 y
2
= 3 y por lo tanto todos tienen parte real
negativa.
(ii) Consideremos la siguiente posible funcion de Liapunov cuadr atica
V (x) = x
T
Px, siendo P /
2
(R) una matriz simetrica. Sabemos que,
1
De hecho es facil demostrar que el origen es asintoticamente estable aunque la funcion de
Liapunov E no nos permite detectarlo.
70 Estabilidad
si la derivada orbital de V respecto del sistema x = Ax es

V = x
T
Qx
entonces se verica (7.8) que es la llamada ecuacion matricial de Liapunov
A
T
P +PA = Q .
Observar que la matriz A es una matriz de estabilidad, ver el apartado
anterior donde se comprueba que todos sus valores propios tienen parte
real negativa. Entonces, por el apartado (ii) del Teorema 57, se sabe que,
para cada Q denida positiva existe una unica solucion de la ecuacion
matricial de Liapunov que es denida positiva. Sea pues
Q =
_
a 0
0 b
_
,
con a, b R
+
0. Obviamente Q es una matriz simetrica y denida pos-
itiva. Sea P = (p
ij
) /
2
(R) simetrica. Entonces, la ecuacion matricial
de Liapunov queda de la forma
_
1 0
2 3
__
p
11
p
12
p
12
p
22
_
+
_
p
11
p
12
p
12
p
22
__
1 2
0 3
_
=
_
a 0
0 b
_
.
De aqu se tiene el sistema lineal para las incognitas p
ij
siguiente
2p
11
= a , p
11
2p
12
= 0 , 2p
12
3p
22
= b ,
cuya solucion es p
11
= a/2, p
12
= a/4 y p
22
= (a + b)/6. En denitiva
obtenemos
P =
1
2
_
a a/2
a/2 (a +b)/3
_
.
Notese que P no solo es simetrica, tambien es denida positiva como puede
comprobarse aplicando, por ejemplo, el criterio de Sylvester y comproban-
do que todos los determinantes menores principales de P son positivos.
Por supuesto existe otra forma de calcular P basada en la expresion (7.10),
es decir
P =
_

0
exp(A
T
t)Qexp(At) dt .
Un simple calculo muestra que
P =
_

0
_
ae
2t
ae
t
[e
t
e
3t
]
ae
t
[e
t
e
3t
] be
6t
+ [e
t
e
3t
]
2
_
dt
=
1
2
_
a a/2
a/2 (a +b)/3
_
.
En denitiva, obtenemos la siguiente familia biparametrica de funciones
de Liapunov cuadr aticas para el sistema
V (x) = x
T
Px =
1
2
(x
1
, x
2
)
_
a a/2
a/2 (a +b)/3
__
x
1
x
2
_
=
1
6
[3a(x
2
1
+x
1
x
2
) + (a +b)x
2
2
] ,
7.5 Problemas resueltos 71
siendo a, b constantes reales positivas.
7. Considerar el sistema x = Ax, con x R
3
y
A =
_
_
1 1 0
1 1 2a
b 0 b
_
_
.
(i) Averiguar para que valores de los par ametros reales a y b el sistema
x = Ax es asintoticamente estable.
(ii) Supongamos que a = 1 y b = 2. Es b.i.b.o estable el sistema con-
trolado x = Ax + Bu, y = Cx para cualquier matriz constante B, C
adecuadas y vector control u(t)?
(iii) Supongamos que a = 1, b = 3. Averiguar si el sistema x = Ax+Bu,
y = Cx es b.i.b.o estable donde
B =
_
_
1 0
2 1
7 3
_
_
, C = (1, 5, 2) .
Solucion. (i) El polinomio caracterstico asociado a la matriz A es
k() = det(AI
3
) =
3
+ (2 +b) + 2b + 2ab .
Teniendo en cuenta la Proposicion 51, todas las races del polinomio k()
tienen parte real negativa si y solo si
b + 2 > 0 , b > 0 , a > 0 , b(2 +b) > ab ,
o, equivalentemente
b + 2 > 0 , b(b + 2 a) > 0 , ab > 0 .
(ii) Seg un el apartado anterior, para los valores de los par ametros a = 1
y b = 2 se verica que todos los valores propios de la matriz A tienen
parte real negativa, es decir el sistema x = Ax es asintoticamente estable.
Entonces, por el Teorema 65, se concluye que el sistema x = Ax + Bu,
y = Cx es b.i.b.o estable.
(iii) Con la nueva eleccion de parametros a1, b = 3 el sistema x = Ax no
es asintoticamente estable, ver apartado (i). En consecuencia no se puede
aplicar el Teorema 65 para estudiar si el sistema x = Ax +Bu, y = Cx es
b.i.b.o estable.
Estudiemos la controlabilidad y la observabilidad del sistema x = Ax+Bu,
y = Cx.
72 Estabilidad
La matriz de controlabilidad es
U = [B, AB, A
2
B] =
_
_
1 0 3 1 7 3
2 1 11 5 18 9
7 3 28 14 63 30
_
_
/
36
(R)
y es facil comprobar que su rango es 3 por ejemplo calculando el determi-
nante de orden tres formado por sus primeras tres columnas

1 0 3
2 1 11
7 3 28

= 2 ,= 0 .
Puesto que rang U = 3 es maximal se tiene, aplicando el Teorema 4.2, que
el sistema es completamente controlable.
La matriz de observabilidad V es
V =
_
_
C
CA
CA
2
_
_
=
_
_
1 5 2
2 6 16
30 18 36
_
_
.
Como det V = 1536 ,= 0 se tiene que V tiene rango maximo, es de-
cir, rang V = 3. En conclusion, aplicando el Teorema 33, el sistema es
completamente observable.
Finalmente, puesto que el sistema x = Ax + Bu, y = Cx es completa-
mente controlable y observable pero x = Ax no es asintoticamete estable,
aplicando el Teorema 66, se concluye que el sistema x = Ax+Bu, y = Cx
no es b.i.b.o estable.
8. Consideremos un pendulo de longitud sometido a una gravedad g con-
stante. Supongamos que se pretende controlar el pendulo aplicandole una
fuerza por unidad de masa u de modo que la ecuaci on del movimiento
es

= g sin + u. Suponiendo un pendulo de peque nas oscilaciones de
modo que sin y que se utiliza una realimentaci on del tipo u = k,
averiguar si es posible estabilizar a zero.
Solucion. Puesto que sin se tiene que las ecuaciones del movimiento
son aproximadamente

= g +u. En el plano de las fases w, siendo
w =

la velocidad angular, las ecuaciones del movimiento se escriben de
la forma x = Ax +bu, siendo x = (, w)
T
y
A =
_
0 1
g 0
_
, b =
_
0
1
_
.
Puesto que la realimentacion es del tipo u = k, se puede escribir de la
forma u = Kx, siendo K = (k, 0).
7.5 Problemas resueltos 73
El sistema en lazo cerrado es x = (A+bK)x, siendo la matriz del sistema
A+bK =
_
0 1
g 0
_
+
_
0
1
_
(k, 0) =
_
0 1
g k 0
_
,
que tiene valores propios

g k. Para estabilizar a zero,


se tiene que elegir k de manera que el sistema lineal en lazo cerrado sea
asintoticamente estable. Dicho de otro modo, se debera tomar cualquier
k tal que '(

) < 0. Por supuesto esto es imposible ya que si g


k > 0 entonces '(
+
) > 0; si g k 0 entonces '(

) = 0. Hemos
demostrado pues que con una realimentaci on del tipo u = k no es
posible estabilizar a zero en un pendulo de peque nas oscilaciones.
9. Consideremos un pendulo invertido montado en un carrito que se puede
desplazar sobre unos railes horizontalmente. El carro tiene masa M y
esta sujeto a una pared por un muelle de constante elastica k
2
. El pendulo
se ha montado sobre el carrito mediante un muelle de constante elastica
k
1
. La longitud del pendulo es 2 y su masa total m se supone distribuida
de forma homogenea a lo largo de su varilla. Sea u la fuerza de control
horizontal que se puede ejercer sobre el carro. Denotemos por z(t) la coor-
denada del centro de gravedad del carro respecto de su posici on de equilibrio
y sea (t) el angulo formado por el pendulo y la vertical que es la variable
que puede ser medida. Aplicando las leyes de la mec anica clasica es facil
ver que las ecuaciones del movimiento del sistema son:
(M +m) z +k
2
z +m cos

= m

2
sin +u ,
m cos z +
4
3
m
2

= mg sin k
1
.
Supondremos por simplicidad que M = m = = 1.
(i) Reescribir las ecuaciones del movimiento en la forma x = f(x, u),
siendo las variables de estado x = (z, z, ,

)
T
.
(ii) Si no act ua ninguna fuerza exterior sobre el carro y este esta en reposo
en su posici on natural con el pendulo tambien en reposo y en posicion
vertical esta el sistema en equilibrio?
(iii) Linealizar el sistema entorno del anterior punto crtico.
Solucion. (i) Es facil ver que, las ecuaciones del movimiento se reescriben
de la forma x = f(x, u), siendo las variables de estado
x = (x
1
, x
2
, x
3
, x
4
) = (z, z, ,

)
T
R
4
,
y la funcion f(x, u) = (f
1
(x, u), f
2
(x, u), f
3
(x, u), f
4
(x, u))
T
denida por
f(x, u) =
x
2
[4k
2
x
1
3k
1
x
3
cos x
3
4x
2
4
sin x
3
+ 3g cos x
3
sin x
3
4u]
x
4
[3k
2
x
1
cos x
3
+ 6k
1
x
3
6g sin x
3
+ 3x
2
4
cos x
3
sin x
3
+ 3ucos x
3
]
,

74 Estabilidad
siendo = 1/[3 cos
3
x
3
8].
(ii) Bajo las condiciones del enunciado el sistema se encuentra en el punto
x

= (0, 0, 0, 0) con u

= 0. Notemos que f(x

, u

) = (0, 0, 0, 0)
T
, de modo
que el sistema se encuentra en un estado de equilibrio, es decir un punto
crtico.
(iii) El sistema linealizado entorno del punto (x

, u

) = (0, 0) R
4
R
viene dado por
x =

Ax +

bu ,
siendo

A =
_
_
_
_
_
_
f
1
x
1
(x

, u

)
f
1
x
4
(x

, u

)
f
2
x
1
(x

, u

)
f
2
x
4
(x

, u

)
.
.
.
.
.
.
.
.
.
f
4
x
1
(x

, u

)
f
4
x
4
(x

, u

)
_
_
_
_
_
_
/
4
(R) ,

b =
_
_
_
_
_
f
1
u
(x

, u

)
f
2
u
(x

, u

)
.
.
.
f
4
u
(x

, u

)
_
_
_
_
_
R
4
.
En concreto se obtiene

A =
_
_
_
_
0 1 0 0
4k
2
/5 0 3(k
1
g)/5 0
0 0 0 1
3k
2
/5 0 6(g k
1
)/5 0
_
_
_
_
/
4
(R) ,

b =
_
_
_
_
0
4/5
0
3/5
_
_
_
_
R
4
.
Captulo 8
Calculo de Variaciones
8.1. Un ejemplo: braquistocrona
El nacimiento del calculo de variaciones se atribuye al problema de la braquis-
tocrona
1
o curva de descenso mas rapida, propuesto y resuelto por el eminente
matematico suizo Johann Bernoulli en 1696, aunque tambien dieron soluciones
otros contemporaneos suyos como Jacob Bernoulli, Leibniz y Newton. Dicho
problema consista en determinar cual, de entre todas las posibles trayectorias,
era la que llevaba a una partcula sin rozamiento en el menor tiempo posible,
desde un punto A hasta otro punto B en el mismo plano vertical, sujeta solo a
la accion de la gravedad. Para resolver este problema, se deben de considerar
todas las innitas curvas que pasan por A y B, de modo que, a cada una de ellas
se le asigna un tiempo (el invertido por el punto material en descender desde A
hasta B) y nos hemos de quedar con la curva con menor tiempo asociado.
Veamos como formularlo matematicamente. Consideremos el plano vertical
de coordenadas cartesianas x e y que contiene a los puntos A y B. Obviamente,
la curva solucion debe estar contenida en dicho plano. Tomemos el punto A como
el origen de coordenadas, el eje x de abscisas con sentido positivo hacia donde
apunta la gravedad y, sea B = (x
1
, y
1
) con x
1
> 0 e y
1
0. Consideremos
una curva en dicho plano arbitraria y descrita por la gr aca y = y(x) con
0 x x
1
. Supondremos que la curva es suave, es decir, es de clase C
1
en
su dominio. Ademas impondremos que los puntos inicial y nal de dicha curva
sean A y B respectivamente, es decir, y(0) = 0 e y(x
1
) = y
1
.
La masa m, en su descenso, conserva su energa mecanica puesto que no
hay rozamiento. Supondremos que parte con velocidad inicial nula del punto A.
Entonces, la energa mecanica en A vale E
A
= mgh
A
, siendo E
A
> 0 y h
A
la
altura a la que se encuentra el punto A. Conservando la energa mecanica en
cualquier otro punto de la trayectoria de la partcula se tiene
1
2
mv
2
+mgh = mgh
A
,
1
El nombre braquistocrona proviene del griego: braquistos mnimo y chronos tiempo.
75
76 Calculo de Variaciones
de modo que v
2
= 2g(h
A
h). Con el sistema de referencia tomado esta claro
que x = h
A
h, de modo que, la ecuacion diferencial que rige el movimiento de
la masa m es
v :=
ds
dt
=
_
2gx ,
siendo v el modulo de la velocidad que tiene la partcula cuando se encuentra en
un punto con coordenada (x, y(x)) y ds el elemento de longitud de la trayectoria.
Sabemos que, ds =
_
1 +y

(x)
2
dx, de modo que se obtiene
dt =
_
1 +y

(x)
2
dx

2gx
.
Integrado esta expresion se obtiene el tiempo total T que tarda la masa m en
recorrer la curva y = y(x) desde el punto A hasta el punto B. En concreto se
tiene que
T = J(y) =
1

2g
_
x
1
0
_
1 +y

(x)
2
x
dx .
Hallar la braquistocrona consiste en obtener, de entre todas las funciones y(x)
denidas para 0 x x
1
, con y(0) = 0 e y(x
1
) = y
1
, aquella que corresponda
al menor valor del funcional J(y).
Cabe destacar aqu que, la solucion de este problema viene dado por la
famosa curva llamada cicloide, cuya ecuacion parametrica es
x(t) =
1
k
2
(1 cos t) , y(t) =
1
k
2
(t sin t) ,
siendo k una constante adecuada, ver el Problema 1 de este captulo.
1 2 3 4 5 6
y
-2
-1.5
-1
-0.5
-x
Figura 8.1: Gr aca de la cicloide invertida con k = 1 para t [0, 2].
8.2 Introduccion 77
8.2. Introducci on
Sea E un espacio de funciones x(t) R
n
de clase C
1
[t
a
, t
b
]. Consideremos el
funcional J : E R, denido de la forma
J(x) =
_
t
b
t
a
F(x(t), x(t); t) dt , (8.1)
con F C
2
respecto de sus argumentos.
El problema fundamental del c alculo de variaciones consiste en hallar una
funci on vectorial x(t) E que sea un extremal (maximo o mnimo) del funcional
J(x) denido en (8.1). Por ejemplo, la funci on x

(t) minimiza al funcional J si se


verica J(x

) J(x) para todo x E. Por supuesto, el principal problema con


el que nos encontramos y que lo diferencia radicalmente de las tecnicas utilizadas
en los problemas clasicos de hallar maximos y mnimos de funciones de varias
variables es el hecho de que la dimension del espacio vectorial E es innita. Una
forma intuitiva de ver esto consiste en suponer que se puede representar x(t)
mediante la serie de Taylor x(t) =

i=0
a
i
t
i
, de modo que el funcional J(x) se
puede interpretar como una funci on de innitas variables J(a
0
, a
1
, . . . , a
j
, . . .).
8.3. Ecuaciones de EulerLagrange
En esta seccion hallaremos las llamadas ecuaciones de EulerLagrange que
son condiciones necesarias que ha de vericar una funci on x

(t) de clase C
2
para que de un extremo del funcional J. La existencia, unicidad y condiciones
sucientes de extremo se escapan a los objetivos de estas notas. Ver por ejemplo
[4]. Ademas, en muchas ocasiones se sabe diferenciar entre maximo y mnimo
por simples argumentos fsicos.
8.3.1. Lema fundamental del calculo de variaciones
En primer lugar damos un lema, conocido como el Lema Fundamental del
Calculo de Variaciones, que necesitaremos para obtener posteriormente las ecua-
ciones de EulerLagrange.
Lema 67. Sean t
a
< t
b
constantes reales jas y f(t) C[t
a
, t
b
] una funcion
dada. Si
_
t
b
t
a
(t)f(t) dt = 0 , (8.2)
para toda C
1
[t
a
, t
b
] vericando (t
a
) = (t
b
) = 0, entonces
f(t) = 0 para todo t [t
a
, t
b
] . (8.3)
78 Calculo de Variaciones
Demostracion. La demostracion se basa en mostrar la existencia de al menos
una funci on para la cual (8.2) no se satisface cuando (8.3) no se cumple.
Supongamos pues que (8.3) no se verica, es decir, existe un t

(t
a
, t
b
) para
el cual f(t

) ,= 0. Podemos suponer sin perdida de generalidad que f(t

) > 0.
Como f es una funcion continua, debe existir un entorno de t

, digamos el
intervalo [t

1
, t

2
] en el cual f(t) > 0 para toda t [t

1
, t

2
]. Pero entonces (8.2)
no se puede vericar para todo (t) admisible. Por ejemplo, consideremos la
funcion admisible
(t) =
_
_
_
0 si t [t
a
, t

1
] ,
(t t

1
)
2
(t t

2
)
2
si t [t

1
, t

2
] ,
0 si t [t

2
, t
b
] .
Obviamente C
1
[t
a
, t
b
] vericando (t
a
) = (t
b
) = 0. Sin embargo, la integral
(8.2) es
_
t
b
t
a
(t)f(t) dt =
_
t

2
t

1
(t t

1
)
2
(t t

2
)
2
f(t) > 0 ,
puesto que f(t) > 0 para toda t [t

1
, t

2
].
8.3.2. Ecuaciones de EulerLagrange
Sea x

(t) E una funci on que extremiza a J(x). Consideremos la siguiente


familia uniparametrica de funciones
x(t) = x

(t) +(t) ,
con R un par ametro y C
1
[t
a
, t
b
]. De este modo x(t) E.
La variacion de J sobre los miembros de esta familia viene dada por
dJ
d
=
_
t
b
t
a
d
d
F(x

(t) +(t), x

(t) +

(t); t) dt .
Obviamente, una condici on necesaria para que x

(t) sea un extremo del fun-


cional J es que
_
dJ
d
_
=0
= 0 .
Como
dx(t)
d
= (t) ,
d x(t)
d
=

(t) ,
se tiene que, aplicando la regla de la cadena,
dF
d
=
x
F(x

(t) +(t), x

(t) +

(t); t) (t)
+
x
F(x

(t) +(t), x

(t) +

(t); t)

(t) ,
8.3 Ecuaciones de EulerLagrange 79
donde el punto indica la operacion producto escalar ordinario en R
n
. Susti-
tuyendo esta expresion en el integrando de la expresi on dJ/d y realizando la
integracion por partes
_
t
b
t
a

x
F

(t) dt =
_

x
F (t)
_
t
b
t
a

_
t
b
t
a
d(
x
F)
dt
(t) dt ,
se obtiene que
_
dJ
d
_
=0
=
_

x
F (t)
_
t
b
t
a
+
_
t
b
t
a
_

x
F
d(
x
F)
dt
_
(t) dt = 0 , (8.4)
donde los gradientes estan evaluados sobre la curva x

(t). Se tiene a partir de


ahora dos casos diferenciados:
(i) Los puntos inicial y nal son jos: Supongamos que el conjunto E donde
buscamos soluciones sea el espacio de funciones x(t) de clase C
1
[t
a
, t
b
] que
ademas toman valores jos en los extremos, es decir, x(t
a
) = x
a
, x(t
b
) = x
b
con x
a
, x
b
R
n
jos.
Por supuesto en este caso se debe tener (t
a
) = (t
b
) = 0 de modo que
(8.4) adopta la forma
_
t
b
t
a
_

x
F
d(
x
F)
dt
_
(t) dt = 0 ,
para toda (t) C
1
[t
a
, t
b
] vericando (t
a
) = (t
b
) = 0. Entonces, por
el Lema Fundamental del Calculo de Variaciones, x

(t) debe vericar la


llamada ecuacion de EulerLagrange
d(
x
F)
dt

x
F = 0 ,
o, de forma escalar equivalente
d
dt
_
F
x
j
_

F
x
j
= 0 , j = 1, . . . , n. (8.5)
(ii) Solo el punto inicial es jo: Supongamos que el conjunto E donde
buscamos soluciones sea el espacio de funciones x(t) de clase C
1
[t
a
, t
b
]
tal que x(t
a
) = x
a
con x
a
R
n
jo. Se puede demostrar que, en este
caso, se deben de satisfacer tambien las ecuaciones de EulerLagrange
(8.5) pero se han de a nadir unas condiciones de transversalidad dadas por

x
F(x(t
b
), x(t
b
); t
b
) = 0, es decir,
_
F
x
j
_
t=t
b
= 0 , j = 1, . . . , n. (8.6)
80 Calculo de Variaciones
Para demostrar este hecho, notar que ahora solo se tiene (t
a
) = 0, de
modo que (8.4) adopta la forma

x
F

t=t
b
(t
b
) +
_
t
b
t
a
_

x
F
d(
x
F)
dt
_
(t) dt = 0 . (8.7)
Esta ecuacion debe ser valida para vericando (t
a
) = 0. En particular
debe ser cierta tambien para aquellas que ademas veriquen (t
b
) = 0.
Para estas segundas , aplicando el Lema Fundamental del C alculo de
Variaciones, la ecuacion (8.7) reduce a las ecuaciones de EulerLagrange
(8.5). De este modo, a partir de ahora, (8.7) reduce s olo a su primer
termino, es decir

x
F

t=t
b
(t
b
) = 0 .
Finalmente, las condiciones de transversalidad (8.6) provienen del hecho
de que la anterior ecuacion debe vericarse para todo (t
b
) R
n
, de modo
que,
x
F

t=t
b
= 0.
8.3.3. Integrales primeras en casos simples
Las ecuaciones de EulerLagrange (8.5) son un conjunto de n ecuaciones
diferenciales de segundo orden para las funciones x
i
(t), con i = 1, . . . , n. Por lo
tanto, en general no son resolubles de manera exacta y se requieren metodos
numericos. Sin embargo, existen casos especiales que ocurren a menudo en las
aplicaciones y son sencillos de tratar.
(a) Si F es independiente de x
j
para cierta j, entonces de (8.5) se tiene
F
x
j
= c , (8.8)
con c constante.
(b) Si F no depende explcitamente de t entonces se verica
x(t)
x
F F(x, x) = c , (8.9)
con c constante. Para demostrarlo, multipliquemos por x(t) las ecuaciones de
EulerLagrange (8.5) en forma vectorial
x(t)
d(
x
F)
dt
x(t)
x
F = 0 ,
que, reagrupando da
d( x(t)
x
F)
dt
x(t)
x
F x(t)
x
F = 0 .
Como
dF
dt
= x(t)
x
F + x(t)
x
F +
F
t
,
8.4 Extremos con restricciones 81
se tiene la siguiente forma alternativa de las ecuaciones de EulerLagrange
d
dt
[ x(t)
x
F F] +
F
t
= 0 .
Por supuesto de aqu se deduce que, si F no depende explcitamente de t, en-
tonces se verica (8.9).
8.4. Extremos con restricciones
Supongamos que se desea hallar un extremo del funcional
J(x) =
_
t
b
t
a
F(x(t), x(t); t) dt . (8.10)
pero ahora, la funci on x(t) esta sujeta a restricciones
2
.
Restricciones integrales: x(t) ha de vericar
K(x) =
_
t
b
t
a
G(x(t), x(t); t) dt = k , (8.11)
siendo k una cierta constante. Este problema se resuelve mediante el metodo
de los multiplicadores de Lagrange. En otras palabras, los extremos de (8.10)
sujetos a (8.11) se buscan como los extremos de
J(x) +K(x) =
_
t
b
t
a
F(x(t), x(t); t) +G(x(t), x(t); t) dt ,
para cierto multiplicador constante R. Dicho de otro modo, se tienen las
ecuaciones de EulerLagrange
d
dt
[
x
(F +G)]
x
(F +G) = 0 . (8.12)
Restricciones no integrales: x(t) ha de vericar
G(x(t), x(t); t) = 0 . (8.13)
Este problema se resuelve mediante el metodo de los multiplicadores de Lagrange
(t) ahora no constantes. En otras palabras, los extremos de (8.10) sujetos a
(8.13) se buscan como los extremos de
J

(x) =
_
t
b
t
a
F(x(t), x(t); t) +(t)G(x(t), x(t); t) dt .
2
La justicacion de los metodos empleados en esta seccion se puede ver en el Apendice al
nal de este captulo.
82 Calculo de Variaciones
Dicho de otro modo, se vuelven a tener las ecuaciones de EulerLagrange (8.12)
pero ahora se ha de tener en cuenta que = (t), es decir,
d
dt
[
x
(F +(t)G)]
x
(F +(t)G) = 0 . (8.14)
Este tipo de problemas de optimizacion con restricciones no integrales es fun-
damental en el captulo siguiente.
8.5. Apendice: Multiplicadores de Lagrange
Es bien conocido el siguiente resultado de an alisis.
Teorema 68 (Lagrange). Sean f, g : R
n
R funciones de clase C
1
tales
que f(x) tiene un extremo en el punto x
0
sobre la hipersupercie de ecuaci on
g(x) = c con c R. Entonces, si g(x
0
) ,= 0, existe un R (llamado
multiplicador de Lagrange) tal que f(x
0
) = g(x
0
).
Demostracion. Parametrizamos la hipersupercie de R
n
de ecuacion g(x) = c
de la forma r(t) = (x
1
(t), . . . , x
n
(t)) con x
i
(t) C
1
para i = 1, . . . , n. Restringi-
mos ahora la funcion f a los puntos de la anterior hipersupercie, es decir,
denimos la funci on h(t) = f(r(t)). Por ser x
0
R
n
un extremo de f sabemos
que existe un t
0
R que es extremo de h(t), siendo h(t
0
) = f(r(t
0
)). Esto
implica que

h(t
0
) = 0, de modo que, aplicando la regla de la cadena se tiene

h(t
0
) = f(x
0
) r(t
0
) = 0 .
Esto implica que los vectores f(x
0
) y r(t
0
) son ortogonales. Como ademas,
por las propiedades del vector gradiente, los vectores g(x
0
) y r(t
0
) tambien
son ortogonales, se deduce que los vectores f(x
0
) y g(x
0
) son paralelos, es
decir, existe un R tal que f(x
0
) = g(x
0
).
Nota 69. El Teorema 68 implica que los extremos de f(x) sujetos a la re-
stricci on g(x) = c son los extremos de la funci on F(x, ) = f(x) + g(x) sin
restricciones.
Nota 70. El Teorema 68 se puede generalizar de modo que los extremos de f(x)
sujetos a las restricciones g
i
(x) = c
i
con c
i
consantes reales para i = 1, . . . , m
son los extremos de la funci on F(x,
1
, . . . ,
m
) = f(x) +

m
i=1

i
g
i
(x) sin res-
tricciones.
8.5.1. Problemas isoperimetricos
Consideremos el problema de hallar un extremo del funcional
J(x) =
_
t
b
t
a
F(x(t), x(t); t) dt . (8.15)
8.5 Apendice: Multiplicadores de Lagrange 83
pero ahora, la funci on x(t) C
1
[t
a
, t
b
] ademas de tener los extremos jos, es
decir, x(t
a
) = x
a
y x(t
b
) = x
b
con x
a
y x
b
jos, esta sujeta a la restriccion
K(x) =
_
t
b
t
a
G(x(t), x(t); t) dt = k , (8.16)
siendo k una cierta constante. Supondremos que F y G son de clase C
2
.
Sea x

(t) C
1
[t
a
, t
b
] una funci on con x

(t
a
) = x
a
y x

(t
b
) = x
b
que ex-
tremiza a J con la restriccion K(x

) = k. Consideremos la siguiente familia


biparametrica de funciones
x(t) = x

(t) +
1

1
(t) +
2

2
(t) ,
con
i
R parametros y
i
C
1
[t
a
, t
b
]. Como los puntos inicial y nal son jos,
se debe tener
i
(t
a
) =
i
(t
b
) = 0 para i = 1, 2.
Para resolver el problema, utilizamos el metodo de los multiplicadores de
Lagrange, es decir, denimos la funci on
T(
1
,
2
; ) = J(x) +K(x) =
_
t
b
t
a
F(x(t), x(t); t) +G(x(t), x(t); t) dt ,
donde x(t) es la familia biparametrica introducida. Una condici on necesaria para
que x

(t) extremice a J(x) con la restriccion K(x) = k es


T

1
=
2
=0
= 0 , i = 1, 2,
T

1
=
2
=0
= 0 .
Desarrollando la primera anterior condici on se tiene
T

i
=
_
t
b
t
a
F

i
+
G

i
dt .
Como
x(t)

i
=
i
(t) ,
x(t)

i
=

i
(t) ,
se tiene que, aplicando la regla de la cadena,
F

i
=
x
F
i
(t) +
x
F

i
(t) ,
F

i
=
x
F
i
(t) +
x
F

i
(t) .
Sustituyendo estas expresiones en el integrando de T/
i
y realizando la inte-
gracion por partes
_
t
b
t
a

x
F

i
(t) dt =
_

x
F
i
(t)
_
t
b
t
a

_
t
b
t
a
d(
x
F)
dt

i
(t) dt ,
_
t
b
t
a

x
G

i
(t) dt =
_

x
G
i
(t)
_
t
b
t
a

_
t
b
t
a
d(
x
G)
dt

i
(t) dt ,
84 Calculo de Variaciones
se tiene que
T

i
=
_

x
F
i
(t)
_
t
b
t
a
+
_
t
b
t
a
_

x
F
d(
x
F)
dt
_

i
(t) dt +

_
_

x
G
i
(t)
_
t
b
t
a
+
_
t
b
t
a
_

x
G
d(
x
G)
dt
_

i
(t) dt
_
.
Como
i
(t
a
) =
i
(t
b
) = 0, se llega a
T

1
=
2
=0
=
_
t
b
t
a
_

x
(F +G)
d(
x
(F +G)
dt
_

i
(t) dt = 0 ,
para toda
i
(t) admisible y donde los gradientes estan evaluados sobre la curva
x

(t). Entonces, por el Lema Fundamental del C alculo de Variaciones, se debe


vericar la ecuacion
d(
x
(F +G))
dt

x
(F +G) = 0 ,
como se quera demostrar.
Recordemos el siguiente resultado.
Teorema 71 (Green). Sea D R
2
un dominio simplemente conexo (es decir,
sin huecos) y sean P, Q C
1
(D). Sea D una curva cerrada simple y
orientada en sentido antihorario que encierra un recinto R D. Entonces
_

P(x, y)dx +Q(x, y)dy =


_ _
R
_
Q
x

P
y
_
dxdy .
Sea A el area del recinto R. Entonces
A =
_ _
R
dxdy =
1
2
_ _
R
2dxdy =
1
2
_ _
R
_
Q
x

P
y
_
dxdy
=
1
2
_

xdy ydx ,
donde en el ultimo paso se ha utilizado el Teorema de Green.
Nota 72. El nombre Problemas isoperimetricosproviene del siguiente proble-
ma: hallar la curva cerrada plana de permetro p jado que encierre un area
maxima. Observar que, si suponemos que la curva es C
1
, es decir, sus puntos
admiten una parametrizaci on del tipo (x(t), y(t)) R
2
para t [t
0
, t
1
] con x, y
C
1
[t
0
, t
1
], entonces el problema planteado consiste en hallar la parametrizaci on
que maximiza el funcional area
A(x, y) =
1
2
_
t
1
t
0
(x y xy) dt ,
8.6 Problemas resueltos 85
sujeto a la restricci on
P(x, y) =
_
t
1
t
0
_
x
2
+ y
2
dt = p .
Se puede demostrar con las tecnicas utilizadas en este captulo que la soluci on
es una circunferencia de permetro p.
8.6. Problemas resueltos
1. Considerar una colecci on de n partculas de masa m moviendose en el
espacio. La localizaci on de las partculas para tiempo t viene dada por
el vector x(t) = (x
1
(t), . . . , x
3n
(t)) R
3n
. Supongamos que las fuerzas
que act uan sobre las partculas F(x; t) = (F
1
(x; t), . . . , F
3n
(x; t)) R
3n
provienen de un potencial V (x; t), es decir, F =
x
V . Demostrar que,
cuando el sistema evoluciona desde un estado inicial x(t
0
) = x
0
hasta un
estado nal x(t
f
) = x
f
jos, el camino que realiza x(t) es un extremal del
funcional
J(x) =
_
t
f
t
0
L(x(t), x(t); t) dt ,
conocido como accion donde la funcion L llamada lagrangiana es la resta
de energa cinetica menos potencial, es decir,
L(x(t), x(t); t) =
1
2
m| x|
2
V (x; t) .
Indicaci

on: Demostrar que minimizar J equivale a la segunda ley de


Newton.
Solucion. Sea x(t) una funci on de clase C
2
vericando x(t
0
) = x
0
y
x(t
f
) = x
f
y que haga J extremal. Entonces, x(t) debe vericar las ecua-
ciones de EulerLagrange (8.5), es decir,
d
dt
_
L
x
j
_

L
x
j
= 0 , j = 1, . . . , 3n.
Teniendo en cuenta que
L(x(t), x(t); t) =
1
2
m
3n

i=1
x
2
i
V (x; t) ,
se tiene
L
x
j
= m x
j
,
L
x
j
=
V
x
j
.
Entonces, las ecuaciones de EulerLagrange adoptan la forma
m x
j
=
V
x
j
,
86 Calculo de Variaciones
que no son mas que las ecuaciones de Newton de la mecanica clasica
teniendo en cuenta que F
j
= V/x
j
.
2. Teniendo en cuenta el ejemplo introductorio de este captulo, hallar la
curva de descenso mas rapida (braquistocrona) que pasa por los puntos de
coordenadas (0, 0), (x
1
, y
1
).
Solucion. Se ha visto en la introducci on de este captulo que se trata de
hallar la funci on y(x) denida para 0 x x
1
, con y(0) = 0 e y(x
1
) = y
1
que minimice el funcional
J(y) =
_
x
1
0
_
1 +y

(x)
2
x
dx .
El funcional J es de la forma
J(y) =
_
x
1
0
F(y(x), y

(x); x) dx ,
siendo
F(y(x), y

(x); x) =
_
1 +y

(x)
2
x
.
Notar que F es independiente de y(x) de modo que se vericara (8.9), es
decir, la ecuacion de Euler-Lagrange reduce a
F
y

= c ,
siendo c R una constante. En nuestro caso se tiene
y

(x)
_
x(1 +y

(x)
2
)
= c ,
para todo x (0, x
1
). Despejando se llega a
y

(x)
2
=
c
2
x
1 c
2
x
.
Una forma simple de resolver esta ecuacion diferencial consiste en usar la
parametrizacion
x(t) =
1
2c
2
(1 cos t) , (t) := y(x(t)) .
Entonces, (t) debe satisfacer

2
(t) = [y

(x) x]
2
=
c
2
x
1 c
2
x
x
2
=
1 cos t
1 + cos t
sin
2
t
4c
4
=
(1 cos t)
2
4c
4
,
de donde
(t) =
1 cos t
2c
4
.
8.6 Problemas resueltos 87
La condicion de contorno (0) = y(x(0)) = 0 y el hecho de que y 0
implica
(t) =
t sin t
2c
2
.
Nota: Para que la cicloide (x(t), (t)) sea la braquistocrona se ha de
vericar tambien que exista un t
0
tal que
x
0
= x(t
0
) =
1
2c
2
(1 cos t
0
) , y
0
= (t
0
) =
t
0
sin t
0
2c
2
.
3. Determinar la curva plana y(x) de clase C
1
con sus puntos frontera jos
(x
0
, y(x
0
)) y (x
1
, y(x
1
)) que, al girar alrededor del eje de abscisas forme
una supercie de area mnima.
Solucion. Sea (x, y(x)) la graca de la curva solucion.
Se sabe que el area de la supercie de revoluci on que genera dicha curva
viene dada por el funcional
J(y) = 2
_
x
1
x
0
y
_
1 +y
2
dx .
La ecuacion de EulerLagrange para este funcional es
d
dx
_
F
y

F
y
= 0 ,
88 Calculo de Variaciones
siendo F(y, y

; x) = y
_
1 +y
2
. Como F no depende de x explcitamente,
entonces se verica (8.9), es decir,
F y

F
y

= c ,
con c constante. En nuestro caso se tiene
y
_
1 +y
2

yy
2
_
1 +y
2
= c .
Simplicando se llega a
y
_
1 +y
2
= c . (8.17)
La forma mas sencilla de integrar esta ecuacion consiste en realizar el cam-
bio y

= sinh , de modo que, teniendo en cuenta la relaci on fundamental


de la trigonometra hiperb olica cosh
2
sinh
2
= 1, (8.17) se reescribe
como y = c cosh . Se tiene pues
dx =
dy
y

=
c sinh d
sinh
= c d ,
que integrando da lugar a
x() = c +c
1
,
con c
1
constante. Hemos llegado a que la ecuacion parametrica de la curva
solucion es
x() = c +c
1
, y() = c cosh .
Por supuesto, el par ametro se puede eliminar de las ecuaciones anteriores
y se llega a la ecuacion explcita de la curva
y(x) = c cosh
x c
1
c
,
que es una familia biparametrica de curvas conocidas como catenarias.
Nota: Por supuesto, las constantes c y c
1
se calculan imponiendo que la
curva pase por los puntos prejados (x
0
, y(x
0
)) y (x
1
, y(x
1
)). Se puede ver
que, seg un la disposicion en el plano de dichos puntos, existe una, dos o
ninguna soluci on.
4. Considerar todas las curvas planas que pasan por los puntos (0, 0) y (2, 0)
y que tengan longitud . Hallar la ecuaci on de la curva que encierra ma-
yor area con el eje de abscisas.
Solucion. Sea (x, y(x)) la graca de la curva buscada.
8.6 Problemas resueltos 89
0.5 1 1.5 2
x
0.2
0.4
0.6
0.8
1
y
El area encerrada viene dada por el funcional
A(y) =
_
2
0
F(y, y

; x) dx ,
de donde F(y, y

; x) = y. La longitud de la curva es
L(y) =
_
2
0
G(y, y

; x) dx ,
de donde G(y, y

; x) =
_
1 +y
2
. El problema consiste en hallar la fun-
cion y(x) que minimiza A sujeto a la restriccion L(y) = . Utilizando las
ecuaciones de EulerLagrange (8.12) se tiene
d
dx
_

y

(F +G)
_


y
(F +G) = 0 ,
es decir,
d
dx
_
y

_
1 +y

(x)
2
_
1 = 0 .
Integrando respecto de x se tiene
y

_
1 +y
2
= c +x , (8.18)
con c constante. Para simplicar, tomemos
y

(x) = cot , (8.19)


donde [
0
,
1
] cuando x [0, 2]. Sustituyendo en (8.18) se obtiene
cot
_
1 + cot
2

= c +x = cos = c +x ,
90 Calculo de Variaciones
de donde, teniendo en cuenta la condici on x(
0
) = 0, se llega a
x() = [cos cos
0
] .
Ahora, de (8.19) y aplicando la regla de la cadena se llega a
dy
d
=
dy
dx
dx
d
= cot (sin ) = cos ,
que integrando da lugar a
y() = [sin
0
sin ] , (8.20)
donde se ha tenido en cuenta la condici on y(
0
) = 0.
La restriccion L(y) = implica
=
_
2
0
_
1 + (y

)
2
dx =
_
2
0
1
sin
dx =
_

1

0
1
sin
dx
d
d
=
_

1

0
cos
sin
d = [
1

0
] .
Imponiendo las condiciones x(
1
) = 2 e y(
1
) = 0 en las expresiones de
x() e y() obtenidas anteriormente se tiene
2 = [cos
0
cos
1
] , sin
0
= sin
1
.
En denitiva se tiene el sistema de 3 ecuaciones con 3 incognitas siguiente
= [
1

0
] ,
2 = [cos
0
cos
1
] ,
sin
0
= sin
1
,
Estas ecuaciones se satisfacen para
0
= 0,
1
= y = 1. La curva
solucion es
x() = 1 cos , y() = sin , [0, ] ,
que no es mas que la semicircunferencia superior centrada en (1, 0) y de ra-
dio la unidad puesto que los puntos (x, y) de la curva verican la ecuacion
(x 1)
2
+y
2
= 1.
Observemos que la anterior curva resulta en un m aximo del area A y no
en un mnimo por consideraciones fsicas.
5. Hallar el control u(t) R de modo que se minimice el funcional
J(u, x) =
_
t
f
t
0
[u
2
(t) +x
2
(t)] dt , (8.21)
8.6 Problemas resueltos 91
con la restricci on
x = x(t) +u(t) , (8.22)
siendo x(t) R vericando x(t
0
) = x
0
con x
0
dado pero x(t
f
) no esta re-
stringido a ning un valor. Aqu, , R son par ametros constantes.
Solucion. Utilizaremos el metodo de los multiplicadores de Lagrange.
Utilizamos pues el funcional aumentado
J

(u, x) =
_
t
f
t
0
F(u, x, u, x; t) +(t)G(u, x, u, x; t) dt ,
siendo F(u, x, u, x; t) = u
2
(t) +x
2
(t) y G(u, x, u, x; t) = xx(t) u(t).
Las ecuaciones de EulerLagrange (8.14) son
d
dt
_

x
(F +(t)G)
_


x
(F +(t)G) = 0 ,
d
dt
_

u
(F +(t)G)
_


u
(F +(t)G) = 0 ,
que, en nuestro caso dan lugar a

2x + = 0 , (8.23)
2u = 0 . (8.24)
Por otra parte, la condici on de transversalidad (8.6) es
_
(F +(t)G)
x
_
t=t
f
= 0 ,
es decir, (t
f
) = 0. Por supuesto, debido a (8.24), tambien se tiene u(t
f
) =
0.
Eliminando del sistema (8.23) y (8.24) se tiene u = x u que, junto
con (8.22) da lugar al sistema diferencial lineal
_
x
u
_
=
_
1

_ _
x
u
_
,
con las condiciones iniciales x(t
0
) = x
0
, u(t
0
), que es facilmente resoluble.
Realizando el proceso pertinente se obtiene
u(t) = u(t
0
) cosh(wt) +
x
0
u(t
0
)
w
sinh(wt) ,
siendo w
2
:=
2
+
2
. Usando la condicion de transversalidad u(t
f
) = 0
eliminamos u(t
0
) y nalmente se tiene
u(t) =
x
0
sinh[w(t
f
t)]
sinh(wt
f
) wcosh(wt
f
)
.
92 Calculo de Variaciones
Nota: Existe otra forma de resolver el problema y consiste en sustituir
el valor de u en (8.21) del despeje de (8.21). De este modo el problema
se convierte en un problema de extremos del funcional J sin restricciones
donde el punto inicial es jo pero el nal no. Se aplican pues las ecuaciones
de EulerLagrange (8.5) con las condiciones de transversalidad (8.6).
6. Hallar el control u(t) R y la trayectoria x(t) R que minimice el
funcional
J(u, x) =
_

0
[x
2
(t) + 4u
2
(t)] dt , (8.25)
sujeto a las restricciones
x = x(t) +u(t) , (8.26)
con x(0) = 0, x(0) = 1 y lm
t
(x(t), x(t)) = (0, 0).
Solucion. Nos encontramos ante un problema de extremos de un funcional
con una restriccion (8.26) que es una ecuacion diferencial de segundo or-
den. Por lo tanto, antes de utilizar el metodo de los multiplicadores de La-
grange, convertiremos la restriccion (8.26) en dos restricciones (ecuaciones
diferenciales) de primer orden. Como es habitual en este procedimiento,
denimos x
1
(t) = x(t) y x
2
(t) = x(t), de modo que (8.26) se reescribe de
la forma
x
1
= x
2
(t) , x
2
= x
2
(t) +u(t) .
Utilizamos ahora el funcional aumentado
J

(u, x
1
, x
2
) =
_

0
F +
1
(t)G
1
+
2
(t)G
2
dt ,
siendo F(u, x
1
, x
2
, u, x
1
, x
2
; t) = x
2
1
(t) +4u
2
(t), G
1
(u, x
1
, x
2
, u, x
1
, x
2
; t) =
x
1
x
2
(t) y G
2
(u, x
1
, x
2
, u, x
1
, x
2
; t) = x
2
+x
2
(t) u(t).
Las ecuaciones de EulerLagrange (8.14) son, para j = 1, 2,
d
dt
_

x
j
(F +
1
(t)G
1
+
2
(t)G
2
)
_


x
j
(F +
1
(t)G
1
+
2
(t)G
2
) = 0 ,
d
dt
_

u
(F +
1
(t)G
1
+
2
(t)G
2
)
_


u
(F +
1
(t)G
1
+
2
(t)G
2
) = 0 ,
que, en nuestro caso dan lugar a

1
(t) 2x
1
(t) = 0 , (8.27)

2
(t) +
1
(t)
2
(t) = 0 , (8.28)
8u(t)
2
(t) = 0 . (8.29)
Eliminando de este sistema los multiplicadores de Lagrange
1
(t) y
2
(t)
y recordando que x
1
(t) = x(t) se llega a
4 u = 4 u x .
8.6 Problemas resueltos 93
Esta ecuacion junto con (8.26) resulta un sistema lineal resoluble. Reali-
zando el procedimiento habitual de resoluci on se obtiene
x(t) = Aexp(t/

2) +Bt exp(t/

2) +C exp(t/

2) +Dt exp(t/

2) .
Teniendo en cuenta las condiciones x(0) = 0, x(0) = 1 y lm
t
(x(t), x(t)) =
(0, 0) se llega a A = C = D = 0, B = 1. En denitiva se obtiene
x(t) = t exp(t/

2) , u(t) = (1

2)
_
1 +
1
2
t
_
exp(t/

2) .
Captulo 9
Control

Optimo
9.1. Introducci on
En este captulo se describira como controlar un sistema de forma que se
comporte de la mejor forma posible. Por supuesto, la estrategia del control
utilizado depender a de como se entienda mejor.
El sistema sera modelizado mediante una ecuacion diferencial de primer
orden, en general no lineal, de la forma
x = f(x, u, t) , x(t
0
) = x
0
, (9.1)
siendo x R
n
las variables de estado y u R
m
las de control. Supondremos
siempre suciente regularidad a la funci on f de modo que se verique la exis-
tencia y la unicidad de la soluci on x(t) de (9.1).
Denicion 73. Un ndice de actuacion J sera un funcional que a cada pareja
(x(t), u(t)) compatible con (9.1) le asigne un escalar real que proporciona una
medida a partir de la cual es posible juzgar si el sistema (9.1) se ha comportado
de la mejor forma posible.
Veamos algunos ejemplos.
Problemas de tiempo mnimo: Se ha de elegir el control u(t) de modo que el
sistema evolucione desde el estado inicial x(t
0
) = x
0
hasta un estado nal
x(t
1
) = x
f
en el menor tiempo posible, es decir, minimizando el ndice de
actuacion J = t
1
t
0
que escribiremos de la forma
J =
_
t
1
t
0
dt . (9.2)
Problemas de control terminal: Se ha de elegir el control u(t) de modo que
el estado nal x(t
1
) = x
f
este lo mas cerca posible de un cierto estado de
95
96 Control

Optimo
referencia deseado r(t
1
). En este caso, un planteamiento adecuado puede
ser minimizar el ndice de actuacion dado por la forma cuadr atica
J =
T
(t
1
)M(t
1
) , (9.3)
siendo (t) = x(t) r(t) y M /
n
(R) simetrica y denida positiva.
Observar que un caso particular de especial relevancia aparece cuando se
toma M = I
n
. En este caso se tiene J = |x(t
1
) r(t
1
)|
2
.
Problemas de esfuerzo mnimo: Elegir el control u(t) de modo que el estado
nal x(t
1
) = x
f
se alcance con el menor esfuerzoposible. Existen diversos
ndices de actuacion dependiendo de como se dena el esfuerzo. Por
ejemplo se pueden minimizar los ndices de actuacion siguientes:
J(u) =
_
t
1
t
0
_
m

i=1

i
[u
i
(t)[
_
dt , (9.4)
o bien
J(u) =
_
t
1
t
0
u
T
(t)Mu(t) dt , (9.5)
siendo M /
n
(R) simetrica y denida positiva.
Servomecanismos y reguladores: Si el control u(t) se elige de modo que el
objetivo es que el sistema siga lo mas cerca posible a un cierto estado de
referencia r(t) durante un cierto intervalo de tiempo t
0
t t
1
entonces
se habla de un servomecanismo. Un posible ndice de actuacion puede ser
J(x) =
_
t
1
t
0

T
(t)M(t) dt , (9.6)
siendo (t) = x(t)r(t) y M /
n
(R) simetrica y denida positiva. Para
el caso particular de que r(t) sea constante, los servomecanismos reciben
el nombre especial de reguladores.
Si el control u(t) no esta acotado, el problema de minimizar (9.6) puede
dar lugar a soluciones con alguna componente u
i
de u innita, lo cual no
es aceptable en problemas reales. Por este motivo y con el objetivo de
minimizar tambien el esfuerzo total realizado en el control efectuado, se
puede tomar el ndice de actuacion siguiente
J(u, x) =
_
t
1
t
0
[
T
(t)M(t) +u
T
(t)Pu(t)] dt , (9.7)
siendo (t) = x(t)r(t) y M, P /
n
(R) simetricas y denidas positivas.
Los ndices de actuacion (9.5), (9.6) y (9.7) se conocen como ndices de ac-
tuacion cuadraticos. De forma mas general, escribiremos unndices de actuacion
de la forma
J(u, x) = (x(t
1
), t
1
) +
_
t
1
t
0
F(x(t), u(t), t) dt , (9.8)
siendo las funciones escalares y F de clase C
1
.
9.2 Control optimo: metodo hamiltoniano 97
9.2. Control optimo: metodo hamiltoniano
Consideraremos el problema de minimizar el funcional ndice de actuacion
J(u) denido por (9.8) sujeto a la ecuaci on diferencial (9.1), es decir,
x = f(x, u, t) , x(t
0
) = x
0
, (9.9)
con u(t) R y x(t) R
n
. No supondremos en esta seccion que el control u(t)
esta sujeto a ninguna otra restricci on.
Denicion 74. El control u

(t) es un extremal y J(u) tiene un mnimo relativo


en u

si existe un > 0 tal que J(u) J(u

) 0 para todo u vericando


|u u

| < .
Una aplicacion del calculo de variaciones a la teora de control optimo es la
siguiente.
Teorema 75. Condiciones necesarias para que u

(t) R
m
sea un extremal del
funcional
J(u, x) =
_
t
1
t
0
F(x(t), u(t), t) dt ,
sujeto a la ecuaci on diferencial
x = f(x, u, t) , x(t
0
) = x
0
,
siendo x = (x
1
, . . . , x
n
)
T
y u = (u
1
, . . . , u
m
) C
1
([t
0
, t
1
]), son las siguientes:

=
x
H , (9.10)
siendo la funcion Hamiltoniana H asociada al funcional J,
H(x, u, , t) = (t) f(x, u, t) F(x, u, t) , (9.11)
donde (t) = (
1
(t), . . . ,
n
(t))
T
son multiplicadores de Lagrange y H verica
(
u
H)
u=u

= 0 , (9.12)
para todo t
0
t t
1
.
Demostracion. Consideramos el funcional
J(u, x) =
_
t
1
t
0
F(x(t), u(t), t) dt ,
con las n restricciones
x = f(x, u, t) .
Introducimos n multiplicadores de Lagrange
i
(t), con i = 1, . . . , n. Las variables
x
i
y
i
se llaman conjugadas. Denimos el vector (t) = (
1
(t), . . . ,
n
(t))
T
y el
funcional aumentado
J

(u, x) =
_
t
1
t
0
T(x(t), u(t), (t), x(t); t) dt ,
m
98 Control

Optimo
siendo T(x(t), u(t), (t), x(t); t) = F(x(t), u(t), t)+(t) [ xf(x, u, t)], donde el
punto indica el producto escalar ordinario en R
n
. Hemos de hallar un extremo
del funcional J

(u, x), pero antes de hallar las ecuaciones de EulerLagrange,


deniremos el Hamiltoniano
H(x, u, , t) = (t) f(x, u, t) F(x, u, t) ,
de modo que el funcional J

(u, x) se puede reescribir de la forma


J

(u, x) =
_
t
1
t
0
(t) x H(x, u, , t) dt .
Las ecuaciones de EulerLagrange (8.5) para este funcional son
d(
x
T)
dt

x
T = 0 ,
d(
u
T)
dt

u
T = 0 .
Como
x
[ x] = , las anteriores ecuaciones reducen a

=
x
H ,

u
H = 0 ,
y son conocidas como las ecuaciones de HamiltonPontryagin.
Nota 76. Es interesante resaltar que la ecuaci on de estado x = f(x, u, t) se
puede reescribir de la forma x =

H. Se tiene en denitiva el sistema hamil-


toniano
x =

H ,

=
x
H ,
de donde proviene el hecho de que sea la variable conjugada de x.
Nota 77. Si el problema de extremizar el funcional J(u, x) del Teorema 75 no
restringe el valor del punto nal x(t
1
), entonces al Teorema 75 hay que a nadirle
la condicion de transversalidad (
x
T)
t=t
1
= 0, es decir
(t
1
) = 0 . (9.13)
Si el funcional a extremizar J(u, x) viene dado por (9.8), entonces la anterior
condicion se modica de la forma
(t
1
) = (
x
)
t=t
1
(9.14)
Nota 78. La ecuacion de estado x = f(x, u, t) junto con la ecuaci on adjunta
(9.10) escrita en forma compacta como

=
x
H(x, u, , t), denen un sis-
tema de 2n ecuaciones diferenciales (no lineales en general) con condiciones de
contorno x(t
0
) y (t
1
) que no admite habitualmente solucion expresable medi-
ante funciones elementales. En estos casos, los metodos numericos son de gran
utilidad.
9.3 El regulador lineal 99
Nota 79. En muchos libros de texto, el Teorema 75 se utiliza con el hamilto-
niano (totalmente equivalente)
H(x, u, , t) = F(x, u, t) +(t) f(x, u, t) .
9.3. El regulador lineal
En la Nota 78 queda claro que, en general, es imposible expresar el control
optimo u

(t) mediante funciones elementales. Sin embargo, esto si es posible


cuando el sistema es lineal. Sea x(t) R
n
, u(t) R
m
, A /
n
(R) y B
/
mn
(R) y consideremos el sistema lineal
x = Ax +Bu , (9.15)
con un ndice de actuacion dado por el funcional cuadr atico
J(u, x) =
1
2
x
T
(t
1
)Mx(t
1
) +
1
2
_
t
1
t
0
[x
T
Qx +u
T
Ru] dt , (9.16)
siendo M, Q /
n
(R), R /
m
(R) matrices reales constantes simetricas y
denidas positivas. Los factores 1/2 han sido introducidos por conveniencia en
la notacion futura.
Proposicion 80. El ndice de actuacion cuadratico (9.16) sujeto al sistema
lineal (9.15) se minimiza mediante un control optimo por realimentaci on u

(t) =
R
1
B
T
P(t)x

(t), donde P(t) es una matriz simetrica que satisface la ecuaci on


diferencial matricial de Riccati

P = PBR
1
B
T
P A
T
P PAQ ,
con la condicion inicial P(t
1
) = M.
Demostracion. El Hamiltoniano asociado al problema de optimizaci on plantea-
do es, seg un la Nota 79,
H =
1
2
x
T
Qx +
1
2
u
T
Ru +
T
(Ax +Bu) .
La condicion (9.12) de optimabilidad (H/u
i
)
u=u
= 0, con i = 1, . . . , m se
escribe como (
u
H)
u=u
= 0 en forma vectorial mediante el operador gradiente.
En nuestro caso, teniendo en cuenta la forma del Hamiltoniano H y el hecho de
que R es simetrica, se obtiene
Ru

+B
T
= 0 ,
de modo que, puesto que R es invertible por ser denida positiva, el control
optimo viene dado por
u

(t) = R
1
B
T
(t) . (9.17)
100 Control

Optimo
Las ecuaciones adjuntas que han de vericar los multiplicadores de Lagrange
(t) son

=
x
H seg un (9.10), de modo que,

= Qx

A
T
. (9.18)
Sustituyendo (9.17) en (9.15) se tiene
x

= Ax

BR
1
B
T
.
Combinando esta expresion con (9.18) producimos el siguiente sistema de 2n
ecuaciones lineales
_
x

_
=
_
A BR
1
B
T
Q A
T
_ _
x

_
. (9.19)
Se tiene ademas la condicion de contorno (t
1
) = (
x
)
t=t
1
, ver la Nota 77.
Como en nuestro caso =
1
2
x
T
Mx, dicha condicion de contorno da lugar a
(t
1
) = Mx

(t
1
) . (9.20)
Utilizamos ahora la formula (3.7) que nos da la soluci on del sistema (9.19) con
la condicion inicial colocada en tiempo t
1
, es decir,
_
x

(t)
(t)
_
= (t, t
1
)
_
x

(t
1
)
(t
1
)
_
.
siendo (t, t
1
) = (
ij
) /
2n
(R) la matriz de transicion de estados del sistema
(9.19). Aqu se utiliza la notacion por bloques
ij
(t) /
n
(R) con i, j = 1, 2.
Se tiene pues que
x

(t) =
11
x

(t
1
) +
12
(t
1
) = (
11
+
12
M)x

(t
1
) .
Por otra parte
(t) =
21
x

(t
1
) +
22
(t
1
) = (
21
+
22
M)x

(t
1
)
= (
21
+
22
M)(
11
+
12
M)
1
x

(t) := P(t)x

(t) , (9.21)
donde se ha denido la matriz P(t) = (
21
+
22
M)(
11
+
12
M)
1
. Notese que,
se puede demostrar que la matriz
11
+
12
M es invertible para todo t t
0
.
En denitiva se ha demostrado que el control optimo u

(t) viene dado por una


realimentacion lineal del tipo
u

(t) = R
1
B
T
P(t)x

(t) , (9.22)
donde la matriz P(t) verica una ecuacion que a continuaci on deducimos. Derivan-
do (9.21) respecto del tiempo t se tiene

Px

+P x

= 0 .
9.4 Teora de Pontryagin 101
Sustituyendo aqu las expresiones de x

y de

obtenidas de (9.19) y (9.21)


respectivamente se tiene
(

P +PAPBR
1
B
T
P +Q+A
T
P)x

(t) = 0 .
Como esta ecuacion ha de ser cierta para todo t
0
t t
1
se tiene que P(t)
debe vericar la llamada ecuacion diferencial matricial de Riccati

P = PBR
1
B
T
P A
T
P PAQ , (9.23)
con la condicion inicial
P(t
1
) = M , (9.24)
que se obtienen de (9.20) y (9.21).
Nota 81. Como M es simetrica, de (9.24) se deduce que P(t) es simetrica
para todo t. De este modo, la ecuaci on diferencial matricial de Riccati (9.23)
representa n(n +1)/2 ecuaciones diferenciales cuadr aticas de primer orden que
se han de resolver, en general, utilizando metodos numericos.
Es importante en algunas aplicaciones el caso especial en el cual t
1
tiende
hacia innito y M = 0. Se demuestra que en este caso lmite la matriz P es
independiente del tiempo como muestra el siguiente resultado, ver por ejemplo
[6] para una demostracion.
Proposicion 82. Sea

Q la matriz de igual rango que Q tal que Q =

Q
T

Q. Si
el sistema lineal (9.15) es completamente controlable y el par [A,

Q] es comple-
tamente observable, entonces el ndice de actuacion cuadratico
J(x, u) =
_

0
[x
T
Qx +u
T
Ru] dt ,
sujeto al sistema lineal (9.15) se minimiza mediante un control optimo por real-
imentacion u

(t) = R
1
B
T
Px

(t), donde P es la unica matriz real simetrica


y denida positiva que satisface la ecuaci on matricial algebraica de Riccati
PBR
1
B
T
P A
T
P PAQ = 0 .
9.4. Teora de Pontryagin
Una gran variedad de procesos fsicos pueden ser controlados de m ultiples
formas, pero solo una forma es la mejor bajo un cierto criterio. Se trata pues
de averiguar cual es el control optimo del proceso en cuestion. Quizas interese
realizar el objetivo del proceso en el menor tiempo posible o bien con el mnimo
consumo de energa, etc...
Supondremos que el sistema esta gobernado por
x = f(x, u) , x(t
0
) = x
0
(9.25)
102 Control

Optimo
con x = (x
1
, . . . , x
n
)
T
las variables de estado o de fase, f = (f
1
, . . . , f
n
)
T

R
n
y u = (u
1
, . . . , u
m
)
T
las variables de control. Ademas suponemos que f
sucientemente regular de modo que, dado un control u(t) denido para t
0

t t
1
, la solucion x(t) de (9.25) existe y es unica en el intervalo t
0
t t
1
. En
particular, supondremos que f
i
y f
i
/x
j
son funciones continuas.
Consideremos el funcional
J(u, x) =
_
t
1
t
0
F(x, u) dt , (9.26)
de modo que, para cada control dado u(t) denido para t
0
t t
1
, se tiene
J(u, x) bien denido y tomando un valor real jado.
Fijados el estado inicial x
0
y nal x
f
del sistema, supongamos que existen
varios controles u(t) que transeren el sistema desde el estado inicial x(t
0
) = x
0
hasta el estado nal x(t
1
) = x
f
en tiempo t
1
t
0
. Nos preguntamos si, de
entre esos controles, existe uno u

tal que se minimize el funcional (9.26). Dicho


control u

(t) es llamado control optimo y la solucion x

(t) de (9.25) asociado al


control u

una trayectoria optima.


Notemos que, en el problema planteado, los valores de t
0
y de t
1
no estan
en general jados. Lo unico que se pide es que para tiempo t
0
el sistema se
encuentre en el estado x
0
y para tiempo t
1
en el estado x
f
.
Es importante notar que, en los problemas aplicados, muy a menudo se tiene
que las variables de control u
i
no pueden tomar valores arbitrarios si no que est an
acotadas y ademas pueden ser discontinuas. Entonces, solo tiene sentido tomar
controles u pertenecientes a un cierto dominio | R
m
.
As, diremos que el control u(t) es admisible si u(t) | para todo t
0
t t
1
y ademas es continuo a trozos en dicho intervalo. Dicho de otro modo, pueden
existir tiempos s
i
con t
0
< s
1
< s
2
< < s
n
< t
1
que corresponden a
discontinuidades de primera especie de u(t).
Un caso muy habitual de conjunto de controles admisibles | es el hipercubo
de R
m
siguiente
| = u = (u
1
, . . . , u
m
) : [u
i
[ u
max
i
, i = 1, . . . , m R
m
. (9.27)
Observemos que, al a nadir la condici on (9.27) al problema de optimizaci on
planteado se tiene un caracter radicalmente diferente del que se tena con la
condicion (9.12), es decir, (
u
H)
u=u
= 0 puesto que ahora el hamiltoniano H
puede ser no derivable respecto de u en todos los puntos ya que u(t) puede tener
puntos donde no exista la derivada.
El siguiente resultado fundamental, ver su demostraci on en [8] por ejemplo,
aporta condiciones necesarias que debe vericar un control optimo u

donde se
tiene en cuenta la condicion (9.27) sobre la acotacion de los controles admisibles .
Para conseguirlo, denimos la funci on de Hamilton H asociada al sistema (9.25)
y al funcional (9.26) de la forma
H(, x, u) =
T
f(x, u) F(x, u) , (9.28)
9.5 Problemas resueltos 103
siendo (t) = (
1
(t), . . . ,
n
(t))
T
R
n
un vector de multiplicadores de Lagrange
vericando

i
=
H
x
i
, i = 1, . . . , n . (9.29)
Teorema 83 (Principio del m aximo de Pontryagin). Sea u

(t) denido pa-


ra t
0
< t < t
1
un control admisible tal que la trayectoria x

(t) del sistema


(9.25) asociada verica x

(t
0
) = x
0
y x

(t
1
) = x
f
. Si u

(t) es optimo para


el funcional (9.26), entonces existe un vector de multiplicadores de Lagrange
(t) = (
1
(t), . . . ,
n
(t))
T
R
n
continuo y no nulo, vericando (9.29). Adem as,
para cualquier t
0
t t
1
, el hamiltoniano H((t), x(t), u) alcanza su m aximo
en u = u

(t) mirado como una funci on de los controles admisibles u |, es


decir,
H((t), x

(t), u

(t)) = sup
uU
H((t), x(t), u) . (9.30)
Nota 84. Si se trata de un problema de control en tiempo optimo, es decir,
F(x, u) 1 en el funcional (9.26), entonces es habitual tomar la funci on de
Hamilton
H(, x, u) =
T
f(x, u) , (9.31)
en la utilizaci on del Teorema 83.
9.5. Problemas resueltos
1. Minimizar el ndice de actuacion
J(u, x) =
_
T
0
(x(t)
2
+u
2
(t)) dt ,
sabiendo que x = ax + u(t) con x(0) = x
0
. Tomar a y T constantes
positivas.
Solucion. Utilizaremos el Teorema 75 para la resolucion del problema.
La funcion Hamiltoniana H asociada al funcional J(u, x) y al sistema
x = ax +u(t) viene dado, seg un (9.11), por
H(x, u, t) = (ax +u) (x
2
+u
2
) ,
donde el multiplicador de Lagrange (t) verica, teniendo en cuenta (9.10),
la ecuacion

= H/x, es decir,

= 2x

+a , (9.32)
donde se ha denotado por x

(t) a la trayectoria optima. Ademas, si u

es
el control optimo, la condicion (9.12), es decir, (H/u)
u=u
= 0 impone
en nuestro caso la restriccion
2u

+ = 0 . (9.33)
104 Control

Optimo
Introduciendo esta condicion en el sistema x

= ax

+u

se obtiene
x

= ax

+
1
2
. (9.34)
Teniendo en cuenta que el punto nal x(T) no esta jado se tiene la
condicion de transversalidad (9.14), es decir,
(T) = 0 .
Observar que, el sistema formado por las ecuaciones (9.32) y (9.34) es
un sistema lineal y puede, por lo tanto, ser resuelto con los metodos ya
estudiados anteriormente. En concreto, es facil demostrar que, la solucion
general del sistema (9.32) y (9.34) es
x

(t) = C
1
cosh(
_
1 +a
2
t)
1
2

1 +a
2
(2aC
1
+C
2
) sinh(
_
1 +a
2
t) ,
(t) = C
2
cosh(
_
1 +a
2
t) +
1

1 +a
2
(2C
1
+aC
2
) sinh(
_
1 +a
2
t) ,
siendo C
1
y C
2
constantes arbitrarias que se determinan con las condi-
ciones de contorno x

(0) = x
0
y (T) = 0. En concreto se obtiene
C
1
= x
0
, C
2
=
2x
0
a +

1 +a
2
coth(

1 +a
2
T)
.
En denitiva, el control optimo u

es, seg un (9.33), u

(t) = (t)/2, es
decir,
u

(t) =
x
0
sinh[

1 +a
2
(t T)]

1 +a
2
cosh[

1 +a
2
T] +a sinh[

1 +a
2
T]
.
2. Una partcula realiza un movimiento rectilneo sujeta a la acci on de una
fuerza por unidad de masa u(t). Supongamos que el esfuerzo realizado
cuando la partcula evoluciona desde tiempo cero hasta tiempo viene
medido por
J(u) =
_

0
u
2
(t) dt .
Averiguar la expresi on de u(t) de modo que la partcula sea transferida
desde el reposo en el origen de coordenadas (x = 0) hacia el reposo en
x = 1 en 1 unidad de tiempo y minimizando el esfuerzo realizado. Dar
tambien la posici on optima en funcion del tiempo.
Solucion. Utilizaremos el Teorema 75 para la resolucion del problema.
Sea x(t) la posicion de la partcula en funcion del tiempo. Seg un las leyes
de la mecanica clasica se tiene x = u(t), o de forma equivalente,
x = y , y = u(t) , (9.35)
9.5 Problemas resueltos 105
donde se ha denido y(t) como la velocidad de la partcula.
La funcion Hamiltoniana H asociada al sistema (9.35) y al funcional J(u)
dado por
J(u) =
_
1
0
u
2
(t) dt ,
es, seg un (9.11),
H(x, u, t) =
1
y +
2
u u
2
,
donde los multiplicador de Lagrange
i
(t) verican, teniendo en cuenta
(9.10), el sistema

1
= H/x,

2
= H/y, es decir,

1
= 0 ,

2
=
1
. (9.36)
La solucion del sistema (9.36) es

1
(t) = c
1
,
2
(t) = c
1
t +c
2
,
siendo c
i
constantes reales.
Si u

es el control optimo, la condicion (9.12), es decir, (H/u)


u=u
= 0
da lugar a
2u

+
2
= 0 . (9.37)
De este modo, el control optimo es
u

(t) =

2
(t)
2
=
c
1
t +c
2
2
.
Introduciendo este control en la segunda ecuacion (9.35) e integrando se
tiene
y

(t) =
_
u

(t) dt =
1
2
_
c
1
2
t
2
+c
2
t
_
+c
3
.
con c
3
constante. Puesto que la partcula se encuentra para tiempo 0 y 1
en reposo se tienen las condiciones y

(0) = y

(1) = 0, de donde obtenemos


c
3
= 0 y c
1
= 2c
2
. En denitiva
y

(t) =
c
2
2
_
t t
2
_
.
Integrando ahora la primera ecuaci on de (9.35) se tiene
x

(t) =
_
y

(t) dt =
c
2
2
_
t
2
2

t
3
3
_
+c
4
,
con c
4
constante. Puesto que la partcula se en cuentra para tiempo 0 y
1 en posiciones 0 y 1 respectivamente, es decir, x

(0) = 0 y x

(1) = 1
obtenemos c
4
= 0 y c
2
= 12. Entonces, la trayectoria optima es
(x

(t), y

(t)) =
_
6t
2
_
1
2

t
3
_
, 6t[1 t]
_
,
y el control optimo
u

(t) = 6(1 2t) .


106 Control

Optimo
3. Hallar un control u(t) por realimentaci on lineal que haga mnimo el fun-
cional
_

0
_
y
2
+
1
10
u
2
_
dt ,
sujeto a x = x +u(t), y = x.
Solucion. Utilizaremos la Proposicion 82 para solucionar el problema
planteado. El sistema lineal viene denido por
_
x
y
_
= A
_
x
y
_
+bu ,
siendo
A =
_
1 0
1 0
_
, B =
_
1
0
_
.
El funcional a minimizar se puede escribir de la forma
_

0
_
(x, y)Q
_
x
y
_
+u
T
Ru
_
dt ,
con las matrices simetricas
Q =
_
0 0
0 1
_
, R =
1
10
.
Utilizando la Proposici on 82, el control optimo por realimentaci on lineal
es
u

(t) = R
1
B
T
P
_
x
y
_
,
siendo la matriz simetrica
P =
_
p
11
p
12
p
12
p
22
_
,
solucion de la ecuacion matricial algebraica de Riccati
PBR
1
B
T
P A
T
P PAQ = 0 .
Es facil comprobar que dicha ecuacion es
_
2[p
11
+ 5p
2
11
p
12
] p
12
+ 10p
11
p
12
p
22
p
12
+ 10p
11
p
12
p
22
1 + 10p
2
12
_
=
_
0 0
0 0
_
,
dando lugar a la soluci on
P =
_
_
_
1
10
_
1 +
_
1 + 2

10
_
1

10
1

10
_
1
10
+
_
2
5
_
_
_
.
En denitiva, el control optimo por realimentaci on lineal es
u

(t) =
_
1
_
1 + 2

10
_
x

10y .
9.5 Problemas resueltos 107
4. Considerar un sistema regido por la ecuaci on x = u(t), con [u(t)[ 1.
Calcular la expresi on de u(t) que minimiza el tiempo T que tarda el sistema
en llegar al estado (x(T), x(T)) = (0, 0) y su interpretaci on geometrica
dependiendo de las condiciones iniciales x(0) y x(0).
Solucion. Pasamos la ecuacion de segundo orden x = u(t) a un sistema
de primer orden con el cambio habitual, es decir,
x = y , y = u(t) . (9.38)
Como se tiene un problema de tiempo optimo, para aplicar el Principio
del maximo de Pontryagin tomaremos el Hamiltoniano (9.31) dado por
H =
1
y +
2
u , (9.39)
donde
i
verican las ecuaciones (9.29), es decir,

1
= H/x,

2
=
H/y. En nuestro caso se tiene

1
= 0 ,

2
=
1
, (9.40)
de modo que, integrando estas ecuaciones respecto del tiempo se obtiene

1
(t) = c
1
,
2
(t) = c
2
c
1
t ,
siendo c
i
constantes reales.
Teniendo en cuenta que [u(t)[ 1, el control optimo u

(t) que verica la


condicion (9.30) de maximizar el Hamiltoniano (9.39) viene dado por la
funci on continua a trozos
u

(t) = sign
2
(t) =
_
1 si
2
< 0 ,
1 si
2
> 0 .
(9.41)
Este tipo de controles u

(t) se conocen en la literatura como bangbang


por motivos obvios. Como u

(t) = sign(c
2
c
1
t) es el signo de una fun-
cion lineal del tiempo, esta claro que como mucho el control optimo u

tendr a una discontinuidad en el intervalo 0 t T.


Estudiemos las trayectorias en el plano xy de las fases o de estados para
el sistema (9.38) dependiendo del control utilizado.
Si u(t) = 1, el sistema (9.38) es x = y, y = 1. Eliminando el tiempo
se tiene dx/dy = y que es una ecuacion de variables separables. Se
tiene en denitiva que las trayectorias del sistema vienen dadas por
las parabolas
x = y
2
/2 + , (9.42)
con una constante arbitraria. Adem as, como y = 1 > 0 esta claro
que y(t) es una funcion creciente y por lo tanto se sabe como se
recorre la parabola (9.42), ver Figura 9.1.
108 Control

Optimo
Figura 9.1: Trayectorias parab olicas con control u(t) = 1.
Si u(t) = 1, el sistema (9.38) es x = y, y = 1 o, equivalentemente
dx/dy = y. Integrando esta ecuacion se halla que las trayectorias
del sistema vienen dadas por las parabolas
x = y
2
/2 + , (9.43)
con una constante arbitraria. Adem as, como y = 1 < 0 se tiene
que y(t) es una funcion decreciente y, en consecuencia queda claro el
sentido en que se recorre la parabola (9.43), ver Figura 9.2.
Figura 9.2: Trayectorias parab olicas con control u(t) = 1.
9.5 Problemas resueltos 109
Se tienen pues las siguientes posibilidades en la secuencia de control a
aplicar dependiendo de las condiciones iniciales (x(0), y(0)) = (x
0
, y
0
)
R
2
del sistema.
Si el control optimo u

(t) tiene la secuencia temporal


u

(t) =
_
1 si 0 t t
1
< T ,
1 si t
1
< t T ,
la trayectoria optima (x

(t), y

(t)) R
2
con 0 t T que sigue
el sistema (9.38) viene dada por una porci on de la parabola (9.42)
que pase por el punto inicial (x
0
, y
0
) seguido de otra porcion de la
parabola (9.43) que pase por el origen de coordenadas, ver Figura
9.3.
Figura 9.3: Trayectorias parab olicas con control bangbang inicial u(t) = 1
y posterior u(t) = 1. La trayectoria optima con condicion inicial (x
0
, y
0
)
esta doblemente marcada.
Si el control optimo u

(t) tiene la secuencia temporal


u

(t) =
_
1 si 0 t t
1
< T ,
1 si t
1
< t T ,
la trayectoria optima (x

(t), y

(t)) R
2
con 0 t T que sigue
el sistema (9.38) viene dada por una porci on de la parabola (9.43)
que pase por el punto inicial (x
0
, y
0
) seguido de otra porcion de la
parabola (9.42) que pase por el origen de coordenadas, ver Figura
9.4.
110 Control

Optimo
Figura 9.4: Trayectorias parab olicas con control bangbang inicial u(t) = 1
y posterior u(t) = 1. La trayectoria optima con condicion inicial (x
0
, y
0
)
esta doblemente marcada.
Si el control optimo no tiene discontinuidades y es u

(t) = 1 sig-
nica que se ha dado la casualidad de que el punto inicial (x
0
, y
0
)
esta incluido en la semiparabola (9.42) que pasa por el origen de
coordenadas cuando el tiempo evoluciona, ver Figura 9.5.
Figura 9.5: Trayectoria parab olica con control u(t) = 1.
Si el control optimo es de la forma u

(t) = 1 signica que el punto


inicial (x
0
, y
0
) esta contenido en la semiparabola (9.43) que pasa por
el origen de coordenadas cuando avanza el tiempo, ver Figura 9.6.
Figura 9.6: Trayectoria parab olica con control u(t) = 1.
5. Consideremos un oscilador arm onico de frecuencia natural w
0
= 1 sobre
el que act ua una fuerza u(t) con [u(t)[ 1. Calcular la fuerza u(t) que
hay que aplicar de modo que el oscilador sea transferido al estado nal de
9.5 Problemas resueltos 111
posicion y velocidad nula en el mnimo tiempo posible. Interpretar geome-
tricamente el resultado en funci on de la posicion y velocidad inicial del
oscilador.
Solucion. Sea x(t) la posicion en funcion del tiempo del oscilador. Se sabe
que el sistema esta regido por la ecuacion de segundo orden x+w
2
0
x = u(t).
Tomando w
0
= 1 y pasando con el cambio habitual al plano de las fases
se tiene
x = y , y = x +u(t) . (9.44)
Como se tiene un problema de tiempo optimo, el Principio del m aximo de
Pontryagin sera aplicado con el Hamiltoniano (9.31) dado por
H =
1
y +
2
(x +u) , (9.45)
donde
i
verican las ecuaciones

1
= H/x,

2
= H/y. En nues-
tro caso se tiene

1
=
2
,

2
=
1
, (9.46)
de modo que las variables auxiliares
i
verican la ecuacion de un oscilador
armonico. Se tiene pues que

2
(t) = Asin(t ) ,
siendo A > 0 y constantes reales (la amplitud y la fase respectivamente).
Teniendo en cuenta que [u(t)[ 1, el control optimo u

(t) que maximiza


el Hamiltoniano (9.45) viene dado por la funci on continua a trozos
u

(t) = sign [
2
(t)] = sign [sin(t )] ,
o de forma equivalente
u

(t) =
_
1 si (2k + 1) t (2k + 2) , k N 0 ,
1 si 2k t (2k + 1) , k N 0 .
(9.47)
Se tiene pues un control u

(t) de tipo bangbang donde las discontinuidades


tienen lugar cada intervalo de tiempo .
Estudiemos las trayectorias en el plano xy de las fases o de estados para
el sistema (9.44) dependiendo del control u(t) = u

(t) utilizado.
Si u(t) = 1, el sistema (9.44) es x = y, y = x + 1. Eliminando
el tiempo se tiene dx/dy = y/(x + 1) que es una ecuacion de vari-
ables separables. Se tiene en denitiva que las trayectorias del sistema
vienen dadas por
(x 1)
2
+y
2
= R
2
, (9.48)
con R una constante arbitraria. Dicho de otro modo, las trayecto-
rias optimas son circunferencias de radio R centradas en el punto
112 Control

Optimo
0.5 1 1.5 2
X
-1
-0.5
0.5
1
Y
Figura 9.7: Trayectorias circulares (x 1)
2
+y
2
= R
2
con control u(t) = 1.
(x, y) = (1, 0). Ademas, es facil ver que las circunferencias (9.48) son
recorridas (seg un avanza el tiempo) en el sentido de las agujas del
reloj con un periodo de 2. En particular, una semicircunferencia se
recorre en el tiempo , ver Figura 9.7.
De forma totalmente analoga al caso anterior, si u(t) = 1, el sistema
(9.44) es x = y, y = x+1, es decir, dx/dy = y/(x1) de modo
que las trayectorias del sistema vienen dadas por
(x + 1)
2
+y
2
= R
2
, (9.49)
con R una constante arbitraria. As, las trayectorias optimas son
circunferencias de radio R centradas en el punto (x, y) = (1, 0).
Ademas, al igual que en el caso anterior, las circunferencias (9.49)
son recorridas en el sentido de las agujas del reloj, donde una semi-
circunferencia es recorrida en tiempo , ver Figura 9.8.
-2 -1.5 -1 -0.5
X
-1
-0.5
0.5
1
Y
Figura 9.8: Trayectorias circulares (x + 1)
2
+y
2
= R
2
con control u(t) = 1.
9.5 Problemas resueltos 113
Veamos como son las trayectorias optimas de este problema dependien-
do de las condiciones iniciales (x(0), y(0)) = (x
0
, y
0
) R
2
del sistema.
Tomaremos el tiempo t
1
de modo que el sistema se encuentre en el estado
nal, en nuestro caso (x(t
1
), y(t
1
)) = (0, 0).
Supongamos que el ultimo tramo del control optimo u

corresponde
al valor u

= 1. Geometricamente, durante este ultimo intervalo de


tiempo, el sistema evoluciona hacia el origen por la circunferencia
(9.48) de radio R = 1 partiendo de un punto que denotaremos por A
y esta localizado en el IV cuadrante. Por supuesto, como es el tramo
nal y por lo tanto u

ya no vuelve a cambiar, el sistema llega sobre


esa circunferencia al origen habiendo recorrido un arco inferior a la
semicircunferencia.
El sistema habra llegado al punto A desplazandose, durante un inter-
valo de tiempo y bajo la accion del control u

= 1, por la semi-
circunferencia (9.49) de extremo nal A. Llamemos B al extremo
inicial de dicha semicircunferencia que, obviamente, estar a en el II
cuadrante. Notar que, el punto B es el simetrico de A respecto del
punto (1, 0).
De forma analoga, la porcion de trayectoria optima anterior a la BA,
llamemosla CB, consiste en la semicircunferencia (9.48) que pasa
por el punto B y el sistema evoluciona en ella durante un tiempo .
Por supuesto, el punto C estara situado en el IV cuadrante y es el
simetrico de B respecto del punto (1, 0).
Esta construccion geometrica continua hasta que la trayectoria opti-
ma pase por el punto inicial (x
0
, y
0
), ver Figura 9.9.
-3 -2 -1 1 2
X
-4
-3
-2
-1
1
2
Y
Figura 9.9: Una trayectoria optima con el control nal u = 1, compuesta de tres
arcos de circunferencias
114 Control

Optimo
Supongamos ahora que el ultimo tramo del control optimo u

cor-
responde al valor u

= 1. Geometricamente, durante este ultimo


intervalo de tiempo, el sistema evoluciona hacia el origen por la cir-
cunferencia (9.49) de radio R = 1 partiendo de un punto que deno-
taremos por A

y esta localizado en el II cuadrante. Por supuesto,


como es el tramo nal y por lo tanto u

ya no vuelve a cambiar, el
sistema llega sobre esa circunferencia al origen habiendo recorrido un
arco inferior a la semicircunferencia.
El sistema habra llegado al punto A

desplazandose, durante un in-


tervalo de tiempo y bajo la accion del control u

= 1, por la semi-
circunferencia (9.48) de extremo nal A

. Llamemos B

al extremo
inicial de dicha semicircunferencia que, obviamente, estar a en el IV
cuadrante. Notar que, el punto B

es el simetrico de A

respecto del
punto (1, 0).
De forma analoga, la porcion de trayectoria optima anterior a la B

,
llamemosla C

, consiste en la semicircunferencia (9.49) que pasa


por el punto B

y el sistema evoluciona en ella durante un tiempo .


Por supuesto, el punto C

estara situado en el II cuadrante y es el


simetrico de B

respecto del punto (1, 0).


Esta construccion geometrica continua hasta que la trayectoria opti-
ma pase por el punto inicial (x
0
, y
0
), ver Figura 9.10.
-1 1 2 3
X
-2
-1
1
2
3
Y
Figura 9.10: Una trayectoria optima con el control nal u = 1, compuesta de
tres arcos de circunferencias
Captulo 10
Practicas
Este captulo esta compuesto de varias practicas propuestas donde se aplica
la teora introducida a lo largo del libro a problemas de diferente naturaleza.
10.1. Control de la temperatura de una camara
Consideremos el problema de controlar la temperatura T
c
en una camara. El
objetivo consiste en analizar un controlador que regule, mediante una v alvula,
la cantidad de calor que se debe introducir en la c amara conociendo la tem-
peratura de esta mediante un termometro de mercurio (Hg) introducido en la
camara y contenido en un tubo de cristal de vidrio. Por supuesto, la temperatu-
ra de la camara esta inuenciada por la temperatura ambiente T
a
del entorno.
Supongamos ademas que la variable que puede ser medida es la altura h de la
columna de Hg.
Denamos los siguientes ujos de calor:
q
a
es el ujo de calor de la camara al ambiente.
q
cr
es el ujo de calor de la camara al crital del termometro.
q
Hg
es el ujo de calor del cristal hacia el mercurio.
Denamos tambien las siguientes temperaturas:
T
c
es la temperatura de la camara.
T
a
es la temperatura ambiente.
T
cr
es la temperatura del cristal del termometro.
T
Hg
es la temperatura del mercurio del termometro.
Consideremos las siguientes magnitudes geometricas:
115
116 Practicas
A
cr
es el area interna del cristal del termometro.
V
cr
es el volumen del cristal del termometro.
V
Hg
es el volumen del mercurio.
Supongamos que la v alvula puede ser regulada mediante un control u(t) de
modo que, la cantidad de calor q(t) que se introduce en la camara viene dada
por
q(t) = a
0
u(t) .
Supongamos validas las siguientes ecuaciones de transferencia de calor
q
a
= a
1
(T
a
T
c
) , q
cr
= a
2
(T
c
T
cr
) , q
Hg
= a
3
(T
cr
T
Hg
) ,
dT
c
dt
= b
1
(q
a
+q) ,
dT
cr
dt
= b
2
(q
cr
q
Hg
) ,
dT
Hg
dt
= b
3
q
Hg
,
y las siguientes relaciones de proporcionalidad debidas a las dilataciones por las
temperaturas
A
cr
= c
1
T
2
cr
, V
cr
= c
2
T
3
cr
, V
Hg
= c
3
T
3
Hg
.
La altura h de la columna de mercurio viene dada por
h =
V
Hg
V
cr
A
cr
.
Se supone que los parametros a
i
, b
j
y c
j
con i = 0, 1, 2, 3 y j = 1, 2, 3
son constantes positivas que dependen de la geometra y las propiedades de los
materiales. Ademas, en un buen termometro se vericara c
2
> c
3
.
10.1.1. Realizaci on de la practica
1. Hallar las ecuaciones del sistema tomando como variables de estado T
c
T
a
,
T
cr
T
a
y T
Hg
T
a
, siendo la variable de control u y T
a
un par ametro
constante.
2. Demostrar que si no se ejerce ning un control sobre el sistema (es decir
u = 0), entonces el unico punto de equilibrio x

del sistema corresponde


al equilibrio termodin amico T
c
= T
cr
= T
Hg
= T
a
y ademas es asintotica-
mente estable en concordancia con el principio cero de la termodinamica.
3. Es el sistema completamente controlable para todo valor de a
i
, b
i
?
4. Hallar el control u(t) de modo que el sistema evolucione desde el estado
inicial (T
c
(0), T
cr
(0), T
Hg
(0)) = (10, 25, 15) hasta un estado nal dado por
(T
c
(10), T
cr
(10), T
Hg
(10)) = (20, 25, 25) minimizando la cantidad de calor
introducida en la c amara, es decir, minimizando
_
10
0
u
2
(t) dt.
Datos: T
a
= 20, a
0
= 1, a
1
= 2, a
2
= 3, a
3
= 4, b
1
= 1, b
2
= 2, b
3
= 3.
10.2 Dinamica de satelites de comunicacion 117
10.2. Dinamica de satelites de comunicaci on
El principal objetivo en la din amica de un satelite de comunicacion consiste
en que dicho satelite permanezca en una posicion que sea ja respecto de un
cierto punto estrategico de la Tierra. Este tipo de satelites se conocedn como
geoestacionarios. Se utilizan, por ejemplo, en comunicaci on telefonica, de tele-
vision, navegaci on de barcos y aviones, prediccion del tiempo, etc...
En un principio, una orbita geoestacionaria puede ser obtenida mediante la
fuerza que ejercen los motores instalados en el satelite. Sin embargo, de este
modo, el consumo energetico de estos motores sera continuo y no deseable.
Surgen de este modo las siguientes preguntas:
Existe una orbita geoestacionaria para el satelite aunque los motores
esten parados? Supondremos en este caso, para simplicar, que la unica
fuerza externa que act ua sobre el satelite es la gravitatoria que ejerce la
Tierra.
Es esta orbita estable?
Si no es estable dicha orbita, que controles mantienen el satelite en dicha
orbita?
Figura 10.1: La din amica de un satelite terrestre.
10.2.1. Un modelo matematico para la dinamica de satelites
Supondremos que sobre el satelite act uan las siguientes fuerzas:
La fuerza inercial

F
in
debida al sistema de referencia no inercial.
La fuerza gravitacional

F
g
debida a la atraccion de la Tierra.
La fuerza

F
m
ejercida por los motores. Esta sera la variable de control.
118 Practicas
La fuerzas perturbativas

F
p
ejercidas por la Luna, el Sol, el viento so-
lar, etc... Estas fuerzas son perturbativas y el objetivo de los controles
sera precisamente compensar sus efectos.
La posicion del satelite es descrita mediante las coordenadas esfericas (r, , ),
siendo r la distancia entre el centro de la Tierra y el centro de masas del satelite.
De este modo, si tomamos un sistema de coordenadas cartesianas (x, y, z) con
origen en el centro de la Tierra y siendo el plano x y el plano ecuatorial se
tiene
x = r cos cos , y = r cos sin , z = r sin .
Estudiaremos la din amica del satelite proyectada sobre el plano ecuatorial
x y. En dicho plano, denotamos por e
r
y e

a los vectores unitarios en las


direcciones radial y tangencial. De este modo r = re
r
. Se sabe que de
r
/dt =
d/dte

y de

/dt = d/dte
r
. De este modo
dr
dt
=
dr
dt
e
r
+r
d
dt
e

,
d
2
r
dt
2
=
_
d
2
r
dt
2
r
_
d
dt
_
2
_
e
r
+
_
r
d
2

dt
2
+ 2
dr
dt
d
dt
_
e

.
Aplicando las leyes de la din amica clasica de Newton, la fuerza inercial

F
in
viene
dada por
m
d
2
r
dt
2
= m
_
d
2
r
dt
2
r
_
d
dt
_
2
_
e
r
+m
_
r
d
2

dt
2
+ 2
dr
dt
d
dt
_
e

,
siendo m la masa del satelite. Por otra parte, la fuerza gravitacional

F
g
es

F
g
= k
m
r
2
e
r
,
siendo k = 4 10
4
m
3
/s
2
el producto de la masa de la Tierra y la constante de
gravitaci on universal. Ademas, denimos

F
p
= p
r
e
r
+p

,

F
m
= u
r
e
r
+u

,
siendo u
r
y u

las variables de control. En el sistema de referencia no inercial


solidario al satelite la fuerza total que act ua sobre el satelite es nula de manera
que
m
_
d
2
r
dt
2
r
_
d
dt
_
2
_
e
r
+m
_
r
d
2

dt
2
+ 2
dr
dt
d
dt
_
e

+k
m
r
2
e
r
=

F
m
+

F
p
.
Igualando las componentes tangencial y radial en la anterior igualdad se obtiene
d
2
r
dt
2
= r
_
d
dt
_
2

k
r
2
+
u
r
m
+
p
r
m
, (10.1)
d
2

dt
2
=
2
r
dr
dt
d
dt
+
u

rm
+
p

rm
. (10.2)
10.3 El pendulo doble invertido 119
10.2.2. Realizaci on de la practica
1. Supongamos que los motores estan parados y que se desprecia la fuerza
perturbativa

F
p
. Demostrar que existe una trayectoria circular geoesta-
cionaria para el satelite. Hallar el radio R de dicha trayectoria.
2. Introducir el cambio de variable (t) (t) = (t) t, siendo la
velocidad angular de la Tierra. Reescribir las ecuaciones del movimiento
(10.1) y (10.2) del satelite con las variables (r, ). Vericar que (r

) =
(R, 0) es un punto de equilibrio del sistema cuando los motores estan
parados y que se desprecia la fuerza perturbativa

F
p
.
3. Hallar el sistema de control lineal asociado al satelite en un entorno del
anterior punto equilibrio si se desprecia la fuerza perturbativa

F
p
.
4. Es el anterior sistema linearizado completamente controlable?
5. Supongamos que u

0, es decir, el motor solo puede actuar sobre el


satelite en la direccion radial. Es posible hallar, en el sistema lineariza-
do del apartado 3, un control por realimentaci on lineal de modo que el
conjunto de valores propios en lazo cerrado sea el que deseemos?
10.3. El pendulo doble invertido
Consideremos un pendulo doble invertido montado sobre el centro de masas
de un carrito que puede desplazarse sobre una recta horizontal. Denimos las
siguientes magnitudes.
m es la masa del carrito.
m
1
y m
2
son las masas de los dos pendulos.

1
y
2
son las longitudes de los dos pendulos.
Denimos las variables siguientes.
u es la fuerza externa horizontal que act ua sobre el carrito.
q es la posicion del centro de masas del carrito.

1
y
2
son los angulos de los dos pendulos respecto de la vertical.
Es facil demostrar que la energa cinetica K y la energa potencial U del
sistema viene dada por
K =
1
2
m x
2
+
1
2
m
1
_
_
q +
1

1
cos
1
_
2
+
_

1
sin
1
_
2
_
+
1
2
m
2
_
_
q +
1

1
cos
1
+
2

2
cos(
1
+
2
)
_
2
+
_

1
sin
1
+
2

2
sin(
1
+
2
)
_
2
_
,
U = m
1
g
1
cos
1
+m
2
g[
1
cos
1
+
2
cos(
1
+
2
)] .
120 Practicas
Figura 10.2: El pendulo doble invertido.
Utilizando el Lagrangiano del sistema L = KU, las ecuaciones del movimien-
to se obtienen mediante las ecuaciones de Euler-Lagrange
d
dt
L
q

L
q
= u ,
d
dt
L

1
= 0 ,
d
dt
L

2
= 0 .
Desarrollando estas ecuaciones se obtienen las siguientes ecuaciones del movi-
mento del doble pendulo invertido
u = (
1
m
1
+
1
m
2
)(

1
)
2
sin
1

2
m
2

2
sin(
1
+
2
)

2
m
2
(

2
)
2
sin(
1
+
2
) + (m+m
1
+m
2
) q (10.3)
+(
1
m
1
+
1
m
2
)

1
cos
1
+
2
m
2

2
cos(
1
+
2
) ,
0 = g
1
(m
1
+m
2
) sin
1
g
2
m
2
sin(
1
+
2
) +
2
m
2
q

2
sin(
1
+
2
)

2
m
2
(

2
)
2
sin
2
+ (
1
m
1
+
1
m
2
) q cos
1
+
2
1
(m
1
+m
2
)

1
(10.4)
+
1

2
m
2

2
cos
2
,
0 = g
2
m
2
sin(
1
+
2
)
2
m
2
q

1
sin(
1
+
2
) +
2
m
2
q cos(
1
+
2
)
+
1

2
m
2

1
cos
2
+
2
2
m
2

2
. (10.5)
10.3.1. Realizaci on de la practica
1. Utilizar las variables de estado
x = (x
1
, x
2
, x
3
, x
4
, x
5
, x
6
)
T
= (q,
1
,
2
, q,

1
,

2
)
T
R
6
y reescribir las ecuaciones del movimiento como un sistema de primer
orden de la forma x = f(x; u).
2. Demostrar que x

= (q

1
,

2
, q

1
,

2
) = (0, 0, 0, 0, 0, 0) es un punto
crtico del sistema para u = u

= 0. Darle un signicado fsico.


3. Obtener el sistema de control lineal asociado al pendulo doble invertido
en un entorno del punto crtico (x

; u

).
10.4 Estabilidad en el pendulo conico 121
4. Averiguar para que valores de los parametros m, m
1
, m
2
,
1
y
2
es el
anterior sistema linearizado completamente controlable.
5. Se pretende estabilizar el sistema linearizado usando realimentaci on lineal.
Hallar dicha realimentaci on de modo que los valores propios de la matriz
del sistema en lazo cerrado sean
i
= i, con i = 1, 2, 3, 4, 5, 6. Notar
que todos los valores propios tienen parte real negativa y por lo tanto se
estabiliza el sistema hacia x

.
10.4. Estabilidad en el pendulo conico
Consideremos un pendulo de masa m y longitud sometido a un campo
gravitatorio de intensidad constante g y suspendido de un punto jo O. La
posicion de la masa m queda determinada a traves de los angulos y .
es el angulo que forma el pendulo respecto de la vertical que pasa por el
punto O.
es un angulo formado por dos rectas contenidas en el plano horizontal
donde se encuentra la masa m. Una recta de referencia con direccion ja
y la recta que pasa por m y es perpendicular al eje vertical que pasa por
O.
Figura 10.3: (a) El pendulo conico con su masa realizando una trayectoria cir-
cular uniforme. (b) Otra trayectoria cercana a la anterior.
Es facil demostrar que la energa cinetica K y la energa potencial U del
sistema viene dada por
K =
1
2
m
2
[

2
+

phi
2
sin
2
] ,
U = mg[1 cos ] .
122 Practicas
Utilizando el Lagrangiano del sistema L = KU, las ecuaciones del movimiento
se obtienen mediante las ecuaciones de Euler-Lagrange
d
dt
L
q

L
q
= 0 , q = , .
Desarrollando estas ecuaciones se obtienen las siguientes ecuaciones del movi-
mento del pendulo conico

=
g

sin +

2
sin cos , (10.6)

= 2


cot . (10.7)
10.4.1. Realizaci on de la practica
1. Utilizar las variables de estado
x = (x
1
, x
2
, x
3
)
T
= (,

,

)
T
R
3
y reescribir las ecuaciones del movimiento como un sistema de primer
orden de la forma x = f(x).
2. Supongamos que la masa m describe un trayectoria circular en un plano
horizontal a velocidad angular w constante cuando el pendulo tiene un
angulo = constante. Averiguar que relacion deben vericarse entre w
y para que dicho movimiento sea posible.
3. Demostrar que x

= (,

,

) = (, 0, w) es un punto crtico del pendulo
conico si se verica la condicion obtenida en el apartado anterior.
4. Realizar una traslacion de coordenadas de modo que el punto crtico x

se traslade al punto crtico y

= 0 R
3
en las nuevas coordenadas. Es
posible estudiar la estabilidad del origen por linearizaci on bajo la condici on
del apartado 2?
5. Calculando derivadas orbitales, demostrar que el pendulo conico tiene las
siguientes constantes del movimiento
H
1
(y
1
, y
2
, y
3
) = [y
2
2
+ (y
3
+w)
2
sin
2
(y
1
+)]
2g

cos(y
1
+) ,
H
2
(y
1
, y
2
, y
3
) = (y
3
+w) sin
2
(y
1
+) .
Nota: Dichas constantes del movimiento provienen fsicamente de la con-
servacion de la energa y del momento angular.
6. Hallar un valor de la constante R de modo que la funci on
V (y
1
, y
2
, y
3
) = H
1
(y
1
, y
2
, y
3
) H
1
(0, 0, 0) +[H
2
(y
1
, y
2
, y
3
) H
2
(0, 0, 0)] ,
sea una funcion de Liapunov en un entorno del origen cuando se verica
la relacion del apartado 2. Que se puede concluir sobre la estabilidad del
movimiento del pendulo conico del apartado 2?
10.5 Un modelo de gr ua con servomecanismo y regulador 123
10.5. Un modelo de gr ua con servomecanismo y
regulador
Un modelo simple de gr ua consiste en tomar una masa m
1
realizando un
movimiento rectilneo que representa el punto de suspension de un pendulo sim-
ple de longitud y masa m
2
. Se requiere que el punto de suspensi on donde
esta m
1
se traslade desde su posicion inicial hasta su posicion nal de modo que
las oscilaciones del pendulo sean mnimas.
Tomemos las siguientes coordenadas del sistema gr ua con dos grados de
libertad:
x(t) R posicion en funcion del tiempo de la masa m
1
a lo largo de un
eje horizontal.
(t) sera el angulo respecto de la vertical en funci on del tiempo que forma
el pendulo.
Utilizando el Lagrangiano del sistema gr ua L = K U, siendo K y U la
energa cinetica y potencial del sistema respectivamente, es facil mostrar que
L(x, x, ,

) =
1
2
(m
1
+m
2
) x
2
+
1
2
m
2

2
cos
2
+m
2
x

cos +m
2
g cos .
Mediante las ecuaciones de Euler-Lagrange
d
dt
L
x

L
x
= u(t) ,
d
dt
L

= 0 ,
siendo u(t) la fuerza horizontal aplicada a la masa m
1
, se obtienen las siguientes
ecuaciones del movimento de la gr ua
u = (m
1
+m
2
) x +m
2
(

cos

2
sin ) , (10.8)
0 =

+ xcos +g sin . (10.9)


Si suponemos que el pendulo realiza peque nas oscilaciones, es decir, sin
y cos 1, y ademas su velocidad angular es peque na con lo cual

0, entonces
las ecuaciones del movimiento se linearizan de la forma
u = m
2

+
m
2

x , (10.10)
0 =

+ x +g , (10.11)
siendo := m
2
/(m
1
+m
2
).
10.5.1. Realizaci on de la practica
1. Escribir las ecuaciones (10.10) y (10.11) de la gr ua en la forma de sistema
de control lineal y = Ay + bu tomando como variables de estado y =
(,

, x, x)
T
R
4
.
124 Practicas
2. Se desea que el puente de la gr ua donde esta m
1
se desplace desde el
origen de coordenadas en el eje x hasta una distancia D en un tiempo
t
1
. Ademas, en el inicio y el n del movimiento se supone velocidad nula.
Suponiendo una ley polinomial para el movimiento de referencia z(t) de
m
1
, hallar un polinomio de grado mnimo adecuado.
3. El sistema de gr ua se compone de un servomecanismo (se desea que m
1
se mueva seg un x(t) siguiendo lo mas cerca posible a z(t)) y un regulador
(se quiere que el pendulo tenga mnima oscilacion de modo que se quiere
mantener y

tan pr oximo a cero como se pueda). De este modo, se
puede tomar la se nal de referencia r(t) para el sistema lineal del apartado
1 como r(t) = (0, 0, z(t), z(t))
T
R
4
y el siguiente ndice de actuacion
para minimizar
J(u, x) =
1
2

T
(t
1
)M(t
1
) +
1
2
_
t
1
0
[
T
(t)Q(t) +u
2
(t)] dt ,
siendo (t) = y(t) r(t) R
4
, R un par ametro, M, Q /
4
(R)
simetricas y denidas positivas. Calcular el control optimo u

(t) por real-


imentacion lineal y la trayectoria optima y

(t). Utilizar para las integra-


ciones numericas de ecuaciones diferenciales o bien el metodo RK4 con
longitud de paso h = 0,1 o directamente el comando NDSolve[] del pro-
grama Mathematica.
Datos: t
1
= 20, D = 6, = 10, m
1
= m
2
= 1. Tomar, para simplicar
calculos, las matrices identidad M = Q = I
4
y = 1.
4. A la vista de los resultados del apartado anterior, dar las gr acas del
control optimo u

(t), la de las superposiciones de la posicion x(t) y la


velocidad x(t) de m
1
con la se nal de referencia z(t) y z(t) y nalmemte la
del angulo (t).
5. Seg un las gracas del apartado anterior, decir si son verdaderas o falsas
las siguientes armaciones:
Esencialmente, se empuja a m
1
en la direccion positiva del eje x
durante la mitad del recorrido y se frena despues.
Durante la fase en que m
1
es acelerada, m
2
queda detr as y en la
segunda fase en que m
2
se frena entonces m
2
adelanta a m
1
.
6. Sea P(t) = (p
ij
) /
4
(R) la matriz que satisface la ecuacion diferencial
matricial de Riccati asociada al problema de optimizacion. Dada la norma
de P(t) denida como |P(t)| =
_

i,j
p
2
ij
(t), mostrar gracamente que
se mantiene practicamente constante durante una larga parte del recorri-
do optimo de la g ua. Esto justica que, en muchas ocasiones se sustituya
la ecuacion diferencial matricial de Riccati por la ecuaci on matricial al-
gebraica de Riccati aunque el proceso sea controlado durante un tiempo
nito.
10.6 El regulador centrfugo de Watt 125
10.6. El regulador centrfugo de Watt
El regulador centrfugo, ideado por Watt a nales del siglo XVIII para ser
utilizado en las maquinas de vapor, fue uno de los primeros mecanismos
utilizados para el control autom atico.
Figura 10.4: El regulador centrfugo de Watt.
El regulador centrfugo consiste en una barra vertical S que gira sobre
su propio eje. En su extremos superior hay dos varillas articuladas L
1
y
L
2
de la misma longitud y con una masa m de carga en cada uno de
sus extremos libres. L
1
y L
2
se encuentran en el mismo plano vertical
que S y solo pueden separarse de su posicion de equilibrio de forma si-
multanea y formando el mismo angulo respecto de la vertical S. En este
deslazamiento las varillas ponen en movimiento, mediante articulaciones,
un manguito M colocado sobre la barra S.
Consideremos una de las masas m. Seg un la geometra descrita anteri-
ormente, dicha masa se desplazara sobre una esfera de radio la longitud
de una varilla. Tomaremos dicha longitud como la unidad de longitud de
modo que, tomando el origen de coordenadas en el punto de uni on entre
la barra S y las varillas L
1
y L
2
, siendo el eje z en la direccion de la barra
S y con sentido positivo hacia abajo, la posici on en funcion del tiempo
(x(t), y(t), z(t)) de la carga m viene dada, en coordenadas esfericas, por
(1, (t), (t)), siendo
x = sin cos , y = sin sin , z = cos .
Las fuerzas que act uan sobre m son basicamente las siguientes:
El peso F
P
= mg siendo g la gravedad supuesta constante.
Una fuerza de tension F
T
que mantiene m sujeta a la varilla.
126 Practicas
Una fuerza de rozamiento F
r
debida a los engranajes de la varilla que
se opone a la variacion de angulo de modo que su modulo se puede
tomar F
r
= k siendo k una constante positiva.
Una fuerza, llamemosla F
B
, responsable del giro del regulador sobre
su eje.
Aplicando la segunda ley de Newton, es f acil ver que se verica la siguiente
ecuacion
m = m

2
sin cos mg sin k .
Por otra parte, la m aquina de vapor es, simplicando, un volante con un
momento de inercia J que se mueve debido a la fuerza del vapor y es capaz
de realizar un trabajo, por ejemplo mover un peso. Si denotamos por P
1
el momento que realizan las fuerzas del vapor sobre el volante y por P
el momento de dicho peso, utilizando las leyes de la mecanica clasica y
en particular las del solido rgido se tiene que J w = P
1
P, siendo w la
velocidad angular del volante.
El volante de la maquina esta conectado a la barra vertical S del reg-
ulador mendiante engranajes de modo que existe una relaci on constante

= nw entre las velocidades angulares



y w de la barra y el volante
respectivamente.
Ademas, el mangito M del regulador esta conectado a la valvula que
administra el vapor de modo que P
1
= F
1
+c cos , siendo F
1
y c constantes
positivas.
El momento P
1
depende de la obertura que tenga la v alvula que regula
la entrada de vapor. El regulador centrfugo funciona de la manera sigu-
iente: si la velocidad angular w del volante es muy alta, la barra S gira
muy r apido y, debido a la fuerza centrfuga, las varillas L
1
y L
2
se abren
un angulo superior lo cual hace que la obertura de la v alvula disminuya
y la cantidad de vapor que entra en la m aquina decrezca. Si, por el con-
trario, la velocidad angular del volante w disminuye el efecto contrario es
proporcionado.
Seg un lo descrito anteriormente, parece natural esperar que la velocidad
angular w del volante tienda a estabilizarse, y de hecho as ocurrio hasta
mediados del siglo XIX. No fue hasta que el ingeniero ruso Vichnegradski
(1876) solvento el problema de dicha inestabilidad en un trabajo te orico
que reproducimos a continuaci on.
10.6.1. Realizaci on de la practica
a) Tomar las variables de estado (, , w) con = y reescribir las
ecuaciones del movimiento del regulador como un sistema de primer
orden.
10.6 El regulador centrfugo de Watt 127
b) Si se desea que el regulador cumpla su mision debe funcionar lo m as
cercano posible de un punto crtico del sistema con =

constante.
Averiguar si existe dicho punto.
c) Con el paso del tiempo y gracias a las mejoras tecnicas, se fueron mod-
icando diversas magnitudes del regulador. Por un lado, el aumento
de la potencia de las maquinas requera valvulas mas pesadas con lo
que m aumento. La constante de rozamiento k disminuy o debido a
que las piezas estaban cada vez mas pulidas. Tambien se redujo el
tama no de los volantes y, en consecuencia, J disminuy o. Sin embargo,
paradojicamente, los reguladores funcionaron peor con dichas modi-
caciones. Averiguar la causa mediante un an alisis de la estabilidad
del punto crtico del apartado anterior.
Bibliografa
[1] S. Barnet & R.G. Cameron. Introduction to mathematical control the-
ory. Claredon Press. Oxford, 1985.
[2] R.W. Brockett. Finite dimensional linear systems. Wiley, New York,
Dover, 1970.
[3] E.J. Davison & S.H. Wang. I.E.E.E. Trans. Autom. Control, 20, 516.
[4] L. Elsgoltz. Ecuaciones diferenciales y c alculo variacional. Ed. Mir,
Moscou, 1992.
[5] B.C. Kuo. Sistemas de control automatico. Prentice Hall, 1996.
[6] H. Kwakernaak & R. Sivan. Linear optimal control theory. Wiley
Interscience, New York, 1972.
[7] L.S. Pontriaguin. Ecuaciones diferenciales ordinarias. Aguilar, Madrid,
1973.
[8] L.S. Pontriaguin, V. Boltianski, R. Gamkrelidze & E.
Michtchenko. The mathematical theory of optimal processes. Nueva
York: Wiley, 1962.
[9] J.W. Ponlderman & J.C. Willens. Introduction to mathematical sys-
tems theory. Texts in Applied Mathematics 26, Springer.
[10] B. Porter & R. Crossley. Modal control. Taylor and Francis, London,
1972.
[11] H.H. Rosenbrock. Statespace and multivariable theory. Nelson, Lon-
don, 1970.
[12] J.L. Willems. Stability theory of dynamical systems. Nelson. London,
1970.
[13] H.H. Wonham. Linear multivariable control: a geometric approach, 2nd
edn. Springer-Verlag. Berlin, 1979.
129

You might also like