You are on page 1of 7

1

Control Optimo

1.1

Introducci on

El control optimo es una rama del control moderno que se relaciona con el dise no de controladores para sistemas din amicos tal que se minimice una funci on de medici on que se denomina ndice de desempe no o costo del sistema. En t erminos mas formales, su objetivo principal de la teor a de control optimo es determinar las se nales de control que causan a un proceso el satisfacer las restricciones f sicas que se tengan y asimismo minimizar o maximizar segun sea el caso cierto criterio de desempe no deseado. La soluci on de algunos problemas de control no es posible obtenerla usando m etodos de control cl asicos. Esto puede ser ya sea debido a su complejidad, o que se requieran satisfacer ciertos par ametros relacionados con su desempe no. Un ejemplo t pico de esto es el dise no de un sistema de control de altitud para una nave espacial que minimice el gasto de combustible. El problema de control optimo se puede representar matematicamente en las siguientes partes: 1. La descripci on del proceso a controlar (modelo del sistema). 2. La descripci on de las restricciones f sicas. 3. La descripci on del objetivo buscado. 4. La descripci on de algun criterio para describir el desempe no optimo ( ndice de desempe no). Ejemplos b asicos de control optimo. Enunciado de control optimo.

1.1.1

Problema t pico de control optimo

Como se ha mencionado, hay tres partes principales que se deben considerar en un problema de control optimo. El modelo matem atico del sistema din amico, las restricciones a las que est a sujeto el sistema, y el ndice de desempe no que se desea evaluar. A continuaci on se estudia un problema particular analizando estas tres partes principales. Modelo Matem atico Descripci on matem atica sencilla o simplicada de un sistema f sico, que en forma adecuada describe la respuesta del sistema real a una o varias entradas. La siguiente es una representaci on de un modelo de un sistema din amico como ecuaciones diferenciales en t erminos de variables de estado: (t) = f (x(t), u(t), t); x Rn , u Rm x (1.1) x 1 (t) = f1 (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , um (t), t) x 2 (t) = f1 (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , um (t), t) . . . x n (t) = f1 (x1 (t), x2 (t), , xn (t), u1 (t), u2 (t), , um (t), t) (1.2) (1.3) (1.4) (1.5)

A continuaci on se presenta un ejemplo t pico de control optimo, el cual ilustra lo que representa una restricci on y de forma similar el ndice de desempe no. Ejemplo 1.1.1. Un automovil est a inicialmente en reposo. Despu es del tiempo inicial, este se pone en movimiento en linea recta hasta detenerse a una distancia e. Para identicar y denir los elementos del sistema de control optimo, el problema se puede plantear de la siguiente manera: Denir las variables del problema. Se sabe que y (t) es la distancia o desplazamiento recorrido del auto desde 0 en el tiempo t. De los conocimientos b asicos de f sica, es posible conocer que la derivada de la variable anterior y (t) = dy (t)/dt es la velocidad del auto en el tiempo actual t. As mismo, la aceleracin del auto se representa por la derivada de la velocidad, lo cual tambi en es la segunda derivada del desplazamiento dy (t)/dt = y (t) = d2 y (t)/dt2 . Simplicando el modelo podemos representar el automovil como una masa que puede acelerar o deacelerar utilizando el freno, lo cual se puede expresar por la siguiente ecuaci on diferencial: (t) = (t) + (t) d donde es la aceleraci on y a la desaceleraci on debido al frenado. Seleccionando variables de estado como posici on y velocidad tenemos: x1 (t) = d(t) (t) x2 (t) = d y el control est a dado como u1 (t) = (t) u2 (t) = (t) de donde u1 y u2 representa la aceleraci on y desaceleraci on, respectivamente. Las ecuaciones de estado x 1 (t) = x2 (t) x 2 (t) = u1 (t) + u2 (t) expresadas en forma matricial se representan como x (t) = 0 1 0 0 x(t) + 0 0 1 1 u(t); x(t) R2 , u(t) R2 (1.14) (1.12) (1.13) (1.10) (1.11) (1.8) (1.9) (1.7)

donde el vector de estados del sistema se dene como: u1 (t) x1 (t) u2 (t) x2 (t) x(t) = . , u(t) = . . . . . um (t) xn (t)

(1.6)

sabiendo de antemano que el intervalo de tiempo es t [t0 , tf ] 2

Denici on 1.1.1. La historia de valores de control de entrada durante el intervalo [t0 , tf ] se expresa como u y es llamado la historia de control. Denici on 1.1.2. La historia de valores de estado en el intervalo [t0 , tf ] es llamado una trayectoria de estado y se expresa como x. Restricciones f sicas De acuerdo al enunciado de nuestro ejemplo, sabemos que inicialmente el auto se encuentra en 0 y su posici on nal ser a el punto e, por lo tanto x1 (t0 ) = 0 x1 (tf ) = e (1.15) (1.16)

Adem as, como inicialmente se encuentra en reposo y asimismo se detiene en su estado nal, tenemos que x2 (t0 ) = 0 x2 (tf ) = 0 De forma matricial, estas condiciones de frontera se expresan como x(t0 ) = 0 0 , x(tf ) = e 0 (1.19) (1.17) (1.18)

Asumiendo que el automovil no puede ir en reversa, tenemos adem as la restricci on adicional: 0 x1 (t) e 0 x2 (t) (1.20) (1.21)

en otras palabras, esto signica que no puede haber velocidades negativas. Restricciones de aceleraci on impuesta en las entradas de control aceleraci on depende de la capacidad del motor del automovil. aceleraci on depende de los par ametros del sistema de frenado Si consideramos que la aceleraci on m axima y la desaceleraci on m axima son M1 y M2 respectivamente, los controles deben satisfacer las siguientes condiciones: 0 u1 (t) M1 M2 u2 (t) 0 (1.22) (1.23)

Asimismo, se debe considerar que el automovil comienza con una cantidad G de combustible y no hay forma de abastecerlo de m as combustible en el trayecto. El gasto de combustible de acuerdo a las es
tf

[k1 u1 (t) + k2 x2 (t)]dt G


t0

(1.24)

lo cual asume que la razon de gasto de combustible es proporcional a la aceleraci on y velocidad y sus constantes de proporcionalidad k1 y k2 . 3

Denici on 1.1.3. Una historia de control que satisface las restricciones de control en el intervalo de tiempo [t0 , tf ] se llama control admisible. El conjunto de controles admisibles es U y la expresion u U dene que la historia de control u es admisible. Denici on 1.1.4. Una trayectoria de estado que satisface las restricciones de variable de estado durante el intervalo de tiempo [t0 , tf ] se llama trayectoria admisible El conjunto de trayectorias de estado admisibles se expresa como X y x X representa que la trayectoria dada por x es admisible Algunos otros ejemplos de control optimo: 1. Cilindro de aluminio asumiendo que se tiene un volumen v = 100, se busca encontrar para qu e radio r y altura h se tiene la menor cantidad de material utilizado para construirlo. 2. Sistema de Ecuaciones Lineales En un sistema de ecuaciones: Ax = y, m < n y Rmn (1.25) (1.26)

tenemos menos ecuaciones que variables desconocidas por lo cual resulta en un n umero innito de soluciones. De todas las soluciones existentes para x, cu al debemos escojer? De todas las posibles soluciones para x, la soluci on correcta est a dada como la que tiene la menor norma. 3. En un sistema con incertidumbre o ruido, se puede presentar una restricci on en algunos de los estados y/o entradas del sistema. Por ejemplo, puede ser un conocimiento limitado de la variable de entrada tal como la corriente o voltaje en un circuito el ectrico, o tambi en en la salida como lo es en el caso de un problema en que se quiera que la velocidad no sobrepase un l mite superior. Otro punto de vista de ver esto es considerarlo desde un enfoque cuantitativo. Encontrar u para minimizar el tiempo en que se va de a a b. Tambi en, minimizar la energ a (este puede ser un problema de minimizaci on de combustible en el cual se trate de aprovechar al m aximo el combustible disponible. 4. Rob otica Robot redundante: esto quiere decir que el extremo del robot puede llegar de una posici on inicial a una nal mediante un n umero innito de posiciones. Aprovechar al m aximo la redundancia del sistema. Las tres cosas en com un que tenemos en estos ejemplos son: las restricciones que hay en el sistema. 4

el ndice de calidad o costo que se requeiere satisfacer para llegar a la soluci on. la parametrizaci on del modelo (un modelo con par ametros o entradas que se puedan tomar distinto valor) Ejemplo: Integrador. y =u Las condiciones iniciales y nales del sistema son: y (t0 ) = y0 y (tf ) = yf (1.28) (1.29) (1.27)

Se quiere llevar el estado del sistema y del estado inicial y0 al estado nal yf tan r apido como sea posible. Si utilizamos un control dado por el impulso u = (yf y0 ) (t t0 ) la integral de esta entrada u cambiar a el estado a la salida en forma instantanea. (1.30)

1.2

Deniciones importantes en control optimo


x = a(t, x, u) x(t0 ) = x0 (1.31) (1.32)

Considerando el modelo del sistema dado por:

Los siguientes son t erminos que se usar an en el estudio de control optimo: Trayectoria de Estado

Es la soluci on a las ecuaciones diferenciales del modelo las cuales describen el modelo del sistema din aico, en [t0 , tf ]

Control Admisible y Trayectoria Admisible

Un control admisible est a dado por una ley de control que satisface las restricciones en el intervalo [t0 , tf ].

Una trayectoria admisible es la trayectoria de estado que satisface las restricciones de variable de estado durante el intervalo de tiempo [t0 , tf ]. Conjunto objetivo

Regi on en el espacio X T donde se encuentra la trayectoria del sistema. Un caso mas concreto de este t ermino es la regi on hacia donde se dirige la trayectoria, por ejemplo en cierto caso se necesitar a que un sistema no tenga que llegar exactamente al origen, pero s a una vecindad del origen. 5

La dimensi on de la trayectoria se d a por la dimensi on del sistema. Por ejemplo, en un problema de movimiento, como lo es uno descrito por la Ley de Newton usando dos estados, posici on y velocidad. 2 guras Indice de Desempe no J Tiempo m nimo:
tf

J =
t0

dt

(1.33)

en donde tf es la variable a minimizar del sistema. Energ a m nima


tf

1 = 2
t0 tf

uT Rudt

(1.34)

1 = 2
t0

||u||2 R dt xT x

(1.35) (1.36)

||x|| =

donde 1.34 representa la forma cuadr atica que tambi en representa la norma Euclidiana con ganancia R y 1.35 representa el cuadrado de una norma de base dos. La matriz R debe ser denida positivamente para que le de un peso a cada coordenada del control. En general el ndice de desempe no se escribe como:
tf

J = h(r(tf ), x(tf ), tf ) +
t0

g (r(t), x(t), u(t), t)dt

(1.37)

donde h y g son funciones escalares. Dos condiciones sumamente importantes para poder ya sea controlar nuestro sistema, y/o estimar algunso de sus estados en base a ciertas mediciones que tengamos disponibles son la controlabilidad y observabilidad de nuestro modelo del sistema din amico. Denici on 1.2.1. Controlabilidad Sea el sistema x (t) = a(x(t), u(t), t); x(t) Rn , u(t) Rm para t t0 , el cual tiene un estado inicial x(t0 ) = x0 . 6

(1.38)

Si existe un tiempo nito t1 t0 y un control u(t), t [t0 , tf ], el cual lleve el estado inicial x0 hacia el origen en un instante de tiempo t1 se dice que el estado inicial x0 es controlable en el tiempo t1 . Si todos los valores de x0 son controlables para cualquier t0 , el sistema es completamente controlable. Al considerar problemas en que el objetivo es llevar el sistema de un estado inicial arbitrario al origen mientras se minimiza un ndice de desempe no, la controlabilidad del sistema es una condici on necesaria para la existencia de una soluci on. Un sistema lineal invariante en el tiempo es controlable si y solo si la matriz n mn . n1 . 2 . . .A B ] . . .AB. . AB . C = [B . tiene rango pleno (C ) = n. Denici on 1.2.2. Observabilidad. Si es posible determinar el estado x(t0 ) = x0 a partir de observar la salida y (t) durante el intervalo de tiempo nito [t0 , t1 ], el estado x0 se dice que es observable en el tiempo t0 . Si todos los estados x0 son observables para todo t0 , el sistema es llamado completamente observable. An alogo a la observabilidad, el sistema lineal e invariante en el tiempo 1.38 es observable si y solo si la matriz n qn . T n1 T . . T T . . (A ) C ] . . . (AT )2 C T . .A C . O = [C T . (1.40) (1.39)

tiene rango pleno (O) = n Estatuto general de control optimo Dados el modelo, las restricciones y el ndice, encontrar el control optimo u, y las trayectorias de estado mediante las cuales el ndice de desempe no J tome un valor m nimo. Antes de resolver un problema de control optimo, uno debe cuestionarse las siguientes preguntas: 1. Es posible pensar que exista un control optimo para el sistema? 2. Es u nico? 3. Puede encontrarse? (matem aticamente hay soluci on?) 4. El valor optimo J es m nimo global o local? 5. Es mediante un control de lazo abierto o lazo cerrado?

1.3

Optimizaci on num erica

La optimizaci on tiene varias formas de hacerse. 7

You might also like