You are on page 1of 49

Andrzej BANACHOWICZ

Katedra Metod Sztucznej Inteligencji i Matematyki Stosowanej






METODY OPTYMALIZACJI














Szczecin 2010




Treci ksztacenia:

- Tre i struktura zada optymalizacji.
- Ekstrema oraz warto najwiksza i najmniejsza.
- Ekstremum funkcji jednej zmiennej: warunki ekstremum, metody
poszukiwania ekstremw.
- Bezwarunkowe ekstremum funkcji wielu zmiennych: warunki ekstremum,
metody poszukiwania ekstremum (metoda Gaussa Seidela, metody
gradientowe, metoda Newtona).
- Ekstremum funkcji w zadaniach z ograniczeniami (warunkowe): metoda mnonikw
Lagrangea, warunki Kuhna Tuckera, metoda kary.
- Programowanie liniowe: metoda graficzna, metoda sympleks, minimalizacja
funkcjonaw.
- Programowanie nieliniowe.
- Zadania wariacyjne (ekstremum warunkowego).


Literatura podstawowa:

1. Chudy M.: Wybrane metody optymalizacji. Dom Wydawniczy Bellona,
Warszawa 2001.
2. Findeisen W., Wierzbicki A., Szymanowski J.: Teoria i metody
obliczeniowe optymalizacji. PWN, Warszawa 1980.
3. Popow O.: Metody optymalizacji. Informa, Szczecin 1999.
4. Stachurski A., Wierzbicki A.P.: Podstawy optymalizacji. Oficyna
Wydawnicza Politechniki Warszawskiej, Warszawa 2001.

Podstawy teoretyczne:

1. Bronsztejn I.N., Siemiendiajew K.A., Musiol G., Mhlig H.: Nowoczesne
kompendium matematyki. Wydawnictwo Naukowe PWN, Warszawa 2004.
2. Luenberger d.G.: Teoria optymalizacji. PWN, Warszawa 1974.
3. Syso M.M., Deo N., Kowalik J.S.: Algorytmy optymalizacji dyskretnej.
Wydawnictwo Naukowe PWN, Warszawa 1995.
4. Schaefer R.: Podstawy genetycznej optymalizacji globalnej. Wydawnictwo
Uniwersytetu Jagielloskiego. Krakw 2002.
5. Galas Z., Nykowski I., kiewski Z.: Programowanie wielokryterialne.
PWE, Warszawa 1987.
6. Gass S.I.: Programowanie liniowe. PWN, Warszawa 1980.
7. Martos B.: Programowanie nieliniowe. PWN, Warszawa 1983.
8. Roy B.: Wielokryterialne wspomaganie decyzji. WN-T, Warszawa 1990.





Zastosowania:

1. deGroot M.H.: Optymalne decyzje statystyczne. PWN, Warszawa 1981.

Zadania:

1. Galas Z., Nykowski I. (red.): Zbir zada z programowania matematycznego, cz. I
i II. PWE, Warszawa 1988.
2. Kusiak J., Danielewska-Tuecka A., Oprocha P.: Optymalizacja. Wybrane metody
z przykadami zastosowa. Wydawnictwo Naukowe PWN, Warszawa 2009.
3. Nowak A.: Optymalizacja. Teoria i zadania. Wydawnictwo Politechniki lskiej,
Gliwice 2007.
4. Seidler J., Badach A., Molisz W.: Metody rozwizywania zada optymalizacji.
WN-T, Warszawa 1980.
5. Stadnicki J.: Teoria i praktyka rozwizywania zada optymalizacji. WN-T,
Warszawa 2006.

































WSTP


Optymalizacja
1. Organizowanie jakich dziaa, procesw itp. w taki sposb, aby day jak najwiksze efekty
przy jak najmniejszych nakadach.
2. Poszukiwanie za pomoc metod matematycznych najlepszego, ze wzgldu na wybrane
kryterium, rozwizania danego zagadnienia gospodarczego, przy uwzgldnieniu okrelonych
ogranicze.
optymalizator komputer kierujcy procesem produkcyjnym w sposb zapewniajcy
najkorzystniejszy jego przebieg
optymalizm dno do uzyskania najkorzystniejszych wynikw w czym
optymalny najlepszy z moliwych w jakich warunkach

































OPTYMALIZACJA BEZWARUNKOWA

1. Ekstrema lokalne i globalne.
Kres grny i kres dolny.
Warto maksymalna i warto minimalna.
Porzdek.
Ekstremum.

Definicja minimum globalnego.
Mwimy, e funkcja wielu zmiennych f(x), x R
n
, ma minimum globalne w punkcie x
0

R
n
, jeli
x R
n
f (x
0
) f (x).

Definicja maksimum globalnego.
Mwimy, e funkcja wielu zmiennych f(x), x R
n
, ma maksimum globalne w punkcie x
0

R
n
, jeli
x R
n
f (x
0
) f (x).

Definicja minimum lokalnego.
Mwimy, e funkcja wielu zmiennych f(x), x R
n
, ma minimum lokalne w punkcie x
0

R
n
, jeli istnieje takie otoczenie tego punktu O(x
0
, o), e

x O(x
0
, o) f (x
0
) f (x).




Definicja maksimum lokalnego.
Mwimy, e funkcja wielu zmiennych f(x), x R
n
, ma maksimum lokalne w punkcie x
0

R
n
, jeli istnieje takie otoczenie tego punktu O(x
0
, o), e

x O(x
0
, o) f (x
0
) f (x).


Definicja funkcji wypukej.
Funkcj f(x) nazywamy funkcj wypuk (czasami: sabo wypuk) w zbiorze D c R
n
,
gdy

x
1
, x
2
R
n
f [o x
1
+ (1 o) x
2
] o f (x
1
) + (1 o) f (x
2
)

dla dowolnej liczby o [0, 1].
Jeli w powyszej nierwnoci wystpuje znak nierwnoci ostrej, to mwimy, e funkcja jest
cile wypuka.


Definicja funkcji wklsej.
Funkcj f(x) nazywamy funkcj wkls (czasami: sabo wkls) w zbiorze D c R
n
,
gdy

x
1
, x
2
R
n
f [o x
1
+ (1 o) x
2
] o f (x
1
) + (1 o) f (x
2
)

dla dowolnej liczby o [0, 1].
Jeli w powyszej nierwnoci wystpuje znak nierwnoci ostrej, to mwimy, e funkcja jest
cile wkls.


Definicja gradientu.
Gradientem funkcji f : R
n
R nazywamy nastpujcy wektor
grad f (x) =

.

Definicja rniczki zupenej.
Rniczk zupen funkcji f : R
n
R w punkcie x
0
nazywamy wyraenie
df (x
0
) =

dx
0
=

.

Definicja macierzy Jacobiego i jakobianu.
Macierz Jacobiego nazywamy macierz pierwszych pochodnych funkcji wektorowej
wielu zmiennych f : R
n
R
m
:

.
Jakobianem nazywamy wyznacznik macierzy Jacobiego.
Definicja macierzy Hessego.
Macierz Hessego nazywamy macierz drugich pochodnych funkcji wielu zmiennych
f : R
n
R:

.
Jest to macierz symetryczna. (Hesjanem bywa nazywany wyznacznik macierzy Hessego.)


Definicja rniczki zupenej rzdu drugiego.
Rniczk zupen rzdu drugiego funkcji f : R
n
R w punkcie x
0
nazywamy
wyraenie

.
Jeli d
2
f > 0 dla kadego x D, to mwimy, e rniczka ta jest dodatnio okrelona w
dziedzinie D funkcji f.

Jeli d
2
f < 0 dla kadego x D, to mwimy, e rniczka ta jest ujemnie okrelona w
dziedzinie D funkcji f.

Definicja formy kwadratowej.
Rzeczywist form kwadratow n zmiennych y o macierzy symetrycznej A nazywamy
wyraenie

.

Rniczka zupena rzdu drugiego jest form kwadratow.

Definicja o okrelonoci formy kwadratowej.
Form kwadratow y nazywamy dodatnio okrelon (ujemnie okrelon), jeli
przyjmuje ona wycznie wartoci dodatnie (ujemne) oraz warto zero dla
x
1
= x
2
= = x
n
= 0.

Form kwadratow y nazywamy dodatnio pokrelon (ujemnie pokrelon), jeli
przyjmuje ona wycznie wartoci nieujemne (niedodatnie). Warto zero moe by wwczas
przyjmowana rwnie dla niezerowych argumentw.

Analogicznie do formy kwadratowej y, odpowiadajc jej macierz symetryczn A nazywamy
dodatnio okrelon, ujemnie okrelon lub pokrelon.



Twierdzenie
(kryterium Sylvestera o dodatniej okrelonoci formy kwadratowej.
Forma kwadratowa y jest dodatnio okrelona wszystkie minory gwne macierzy
A formy s dodatnio okrelone:

a
11
> 0,

> 0, .

Jeli co najmniej jeden z minorw jest ujemny, to macierz A nie jest dodatni pokrelona.
Jeli kady A
i
0, dla kadego punktu x D, to macierz A jest dodatnio pokrelona.

Twierdzenie.
Forma kwadratowa jest ujemnie okrelona wszystkie minory gwne macierzy A
formy stopnia parzystego s dodatnio okrelone, natomiast wszystkie minory stopnia
nieparzystego s ujemnie okrelone, tj.

A
1
< 0, A
2
> 0, , (1)
n
A
n
> 0 dla n = 2k
oraz (1)
n
A
n
< 0 dla n = 2k + 1.

Forma kwadratowa jest ujemnie okrelona, gdy macierz A jest dodatnio okrelona.

Powysze twierdzenia umoliwiaj rozstrzygnicie problemu dodatniej lub ujemnej
okrelonoci rniczki zupenej rzdu drugiego, obliczanej z wykorzystaniem macierzy
Hessego.






2. Warunki konieczne i dostateczne istnienia ekstremum funkcji.

Warunkiem koniecznym istnienia ekstremum funkcji wielu zmiennych klasy C
2
w
punkcie x
0
jest znikanie (zerowanie si) gradientu funkcji w tym punkcie, tj.

grad f (x
0
) = 0 (czyli

).


Warunki wystarczajce okrela nastpujce twierdzenie.

Twierdzenie.
Niech f (x) C
2
, okrelona w przestrzeni R
n
i istnieje co najmniej jeden punkt x
0
, w
ktrym znika gradient, tj.

grad f (x
0
) = 0.

Funkcja posiada wwczas w tym punkcie minimum lokalne (lub globalne), jeli rniczka
zupena rzdu drugiego jest w tym punkcie dodatnio okrelona, czyli

d
2
f (x
0
) > 0

oraz maksimum lokalne (lub globalne), jeli rniczka zupena rzdu drugiego jest w tym
punkcie ujemnie okrelona, tj.

d
2
f (x
0
) < 0.

Twierdzenie to mona sformuowa przez warunki dodatniej lub ujemnej okrelonoci
macierzy Hessego H w punkcie x
0
.



Twierdzenie funkcja jednej zmiennej.

Jeli funkcja f jest klasy C
2
(tzn. jest dwukrotnie rniczkowalna i obie pochodne s
cige) w otoczeniu punktu x
0
i jeli

= ,

to funkcja f ma w punkcie x
0
ekstremum waciwe, przy czym jest to:
- minimum, jeli

,
- maksimum, jeli

.

Twierdzenie.
Jeli


oraz



i jeeli funkcja

jest ciga w pewnym otoczeniu punktu x


0
, to
1. jeeli

, to ma w punkcie

maksimum lokalne,
2. jeeli

, to ma w punkcie

minimum lokalne.




Twierdzenie funkcja dwch zmiennych.

Jeli funkcja f jest klasy C
2
(tzn. jest dwukrotnie rniczkowalna i obie pochodne s
cige) w otoczeniu punktu P
0
= (x
0
, y
0
) i jeli ma obie pochodne czstkowe 1 rzdu w tym
punkcie rwne zeru

,

a wyznacznik pochodnych czstkowych 2 rzdu funkcji f jest w tym punkcie dodatni

,

to funkcja ta ma w punkcie P
0
ekstremum waciwe. Charakter tego ekstremum zaley od
znaku drugich pochodnych czystych w punkcie P
0

.

Jeli s one dodatnie, to funkcja ma w punkcie P
0
minimum waciwe, a jeli ujemne, to
maksimum waciwe.





Twierdzenie.
Niech funkcja bdzie ciga wraz z wszystkimi pochodnymi w pewnym
otoczeniu punktu

. Jeli

,

to funkcja ma w punkcie

:
1. maksimum lokalne, gdy

,

2. minimum lokalne, gdy

,

3. punkt siodowy, gdy

,

4. jeli

, to musimy rozpatrzy wysze pochodne czstkowe.
















3. Wasnoci funkcji wypukych.

Rozwijajc funkcj nieliniow w szereg Taylora w punkcie x
0
i ograniczeniu si do
wyrazw liniowych, otrzymamy funkcj liniow:

L(x) = f (x
0
) +

(x x
0
)

lub nieliniow, przy uwzgldnieniu dwch pierwszych wyrazw:
f (x) f (x
0
) +

(x x
0
) +

(x x
0
)
T
H(x
0
) (x x
0
).


Twierdzenie.
Funkcja f (x) C
2
jest wypuka w przestrzeni R
n


x
0
, x R
n
f (x) f (x
0
) +

(x x
0
).

Twierdzenie.
Funkcja f (x) C
2
jest cile wypuka w przestrzeni R
n
w kadym punkcie x
macierz Hessego tej funkcji jest macierz dodatnio okrelon.

Twierdzenie.
Niech f(x) bdzie funkcj cile wypuk, okrelon na zbiorze wypukym X c R
n
.
Wtedy zbir rozwiza zagadnienia f(x) min. jest wypuky. Punkt bdcy minimum
lokalnym funkcji w zbiorze X jest minimum globalnym.

Twierdzenie.
Jeeli funkcja f (x) jest wypuka na zbiorze wypukym D, to kade minimum lokalne
jest minimum globalnym.

Twierdzenie Weierstrassa.
Jeeli funkcja f(x) jest ciga, a zbir rozwiza dopuszczalnych jest ograniczony i
domknity, to istnieje co najmniej jedno minimum globalne funkcji f (x) w zbiorze
X c R
n
.

Twierdzenie.
Dane s funkcje cile wypuke f : R
n
R, g : R R
m
, wtedy zoenie tych funkcji
h(x) = g[f (x)] jest funkcj wypuk. Kombinacja liniowa n funkcji wypukych

f (x) =

R.

jest funkcj wypuk.
















4. Metody gradientowe wyznaczanie ekstremum funkcji wielu zmiennych.

W metodach gradientowych poszukujemy ekstremum funkcji wielu zmiennych w
sposb iteracyjny, ktry polega na okreleniu w kadym kroku iteracji kierunku poszukiwa
(kierunku uytecznego), z wykorzystaniem gradientu funkcji celu.

Definicja.
Wektor d w punkcie x
0
okrela kierunek uyteczny dla minimalizacji funkcji f (x), gdy
istnieje parametr t > 0 (t R
+
) taki, e
f (x
0
+ t d) < f (x
0
).

Do najczciej wykorzystywanych metod gradientowych zaliczamy:
- metod najszybszego spadku (gradientu prostego GRAD),
- metod Newtona Raphsona,
- algorytm Fletchera Reevesa,
- algorytm Davidona Fletchera Powella,
- metod gradientw sprzonych Rosena.

Metody te maj wspln struktur algorytmu:
- przyjcie punktu startowego (pierwszego przyblienia) w obszarze wypukym x
0

oraz obliczenie wartoci funkcji celu w tym punkcie f (x
0
),
- ustalenie kierunku (wektora) poszukiwa d
k
(k = 1, 2, ), zgodnie z przyjt
szczegow metod gradientow,
- okrelenie nowego punktu (wektora) zmiennych decyzyjnych (otrzymanego w wyniku
przesunicia zgodnie z kierunkiem wektora d
k
o pewna odlego t), zalenego od
parametru t (okrelanego w nastpnym kroku algorytmu):
x
k
= x
k1
+

d
k
(t R
+
),
- w celu obliczenia wartoci

okrelamy funkcj uyteczn h w funkcji parametru t:


h(

) = f (x
k
) = f (x
k1
+

d
k
),
w tej funkcji wektory x
k1
oraz d
k
s staymi,


- obliczenie pochodnej funkcji h wzgldem t i wyznaczenie wartoci ekstremalnej
parametru t
extr
:

= 0 i przyjcie t
k
= t
extr
,
- skorygowanie punktu (wektora) zmiennych decyzyjnych oraz funkcji celu:
x
k
= x
k1
+ t
extr
d
k
,
czyli
x
k
= x
k1
+

d
k

h(

) = f (x
k
) = f (x
k1
+

d
k
),

- ustalenie nowego kierunku (wektora) poszukiwa w kroku k + 1: d
k+1
, z
wykorzystaniem nowej wartoci parametru t
k
, wedug regu przyjtej metody
gradientowej,
- zakoczenie algorytmu nastpuje, gdy modu gradientu funkcji celu bdzie mniejszy
od zaoonej dokadnoci :

< .













W metodzie najszybszego spadku wektor poszukiwa jest rwny gradientowi funkcji celu w
punkcie x
k
z przeciwnym znakiem, tj.
d
k
=

.

W metodzie Newtona Raphsona wektor kierunku poszukiwa jest iloczynem
odwrotnoci macierzy Hessego i gradientu funkcji celu w punkcie x
k
z przeciwnym znakiem,
tj.
d
k
=

.

W metodzie Fletchera Reevesa wektor kierunku poszukiwa jest ustalany na
podstawie zalenoci:
d
0
=

,
d
k+1
=

d
k
,
gdzie:

parametr skalujcy (waga)

,
czyli

.











5. Przykady optymalizacji bezwarunkowej.

Przykad 1.
Rozwiza zagadnienie:
f (x) =

min.
- warunek konieczny:
grad f (x
0
) = 0 (czyli

= 0

= 0

= 0

= 0

Po dodaniu stronami i odpowiednich obliczeniach otrzymamy:

x
0
= [ 1, 1]
T
, f ( 1, 1) = 6.


- warunek dostateczny obliczamy macierz Hessego:

= 2,

= 6,

= 2,

H( 1, 1) =


,
to h
11
= 2 > 0 oraz


= 8 > 0.

Jest to wic minimum: x
0
= [ 1, 1]
T
, f (x
0
) = 6.




Przykad 2.
Wyznaczy minimum nastpujcej funkcji celu:
f (x
1
, x
2
) =


metod najszybszego spadku.
- Przyjmujemy punkt pocztkowy (wektor startowy):
x
0
= [1, 0]
T
.
- Obliczamy gradient funkcji celu:

,
grad f (

) =

,
grad f ( ) =

.
- Wektor poszukiwa:
d
1
= grad f (x
0
) =

.
- Nowy wektor zmiennych, zaleny od parametru t:
x
1
= x
0
+ t
1
d
1
= [1, 0]
T
+ t
1

.
- Obliczamy funkcj uytecznoci oraz t
extr
:
h(t
1
) = f (x
1
) = (1 t
1
)
2
+ (2 t
1
)
2
(1 t
1
) 4t
1
+ 4 =

= 10t
1
5 = 0 t
extr
= t
1
=

.
- Obliczamy skorygowany wektor zmiennych
x
1
= x
0
+ t
1
d
1
= [1, 0]
T
+

.
- Gradient dla punktu x
1
:
grad f (

) =

.
Gradient grad f (x
1
) = 0 (znika). Jest wic to ekstremum.


- Zbadajmy hesjan tej funkcji

,

i



to jest to minimum waciwe.

























OPTYMALIZACJA WARUNKOWA

1. Punkt regularny.

Definicja punktu regularnego.
Punktem regularnym x
0
D R
n
nazywamy punkt, w ktrym dla dowolnego kierunku
(wektora) d istnieje krzywa gadka, o pocztku x
0
, styczna w tym punkcie do wektora d i
naleca do D.

Rozpatrzmy warunki ograniczajce w postaci ukadu nierwnoci i rwnoci:
g
i
(x) 0, i =

,
h
j
(x) = 0, j =

.

Warunki istnienia punktu regularnego dla niepustego, wypukego zbioru D R
n
okrela
ponisze twierdzenie.

Twierdzenie Karlina.
Jeli funkcje ograniczajce g
i
(x), h
j
(x) s liniowe, to kady punkt x
0
D jest punktem
regularnym.

Twierdzenie Slatera.
Jeli funkcje g
i
(x) s wypuke, a funkcje h
j
(x) s liniowe, to kady punkt zbioru D
jest punktem regularnym.

Twierdzenie.
Jeli w punkcie x
0
D gradienty grad g
i
(x), grad h
j
(x) ogranicze tworz ukad
wektorw niezalenych liniowo, to punkt ten jest punktem regularnym.


2. Funkcja Lagrangea i twierdzenie Kuhna Tuckera.

Rozwamy zadanie optymalizacji warunkowej z ograniczeniami o nastpujcej funkcji
celu:
f (x) min., x
0
D R
n
,
przy ograniczeniach
g
i
(x) 0, i =

,
h
j
(x) = 0, j =

.


Definicja funkcji Lagrangea.
Funkcj Lagrangea nazywamy nastpujc funkcj
L(x, , ) = f (x) +

,
gdzie: f funkcja celu, g
i
, h
j
warunki ograniczajce, , wektory mnonikw
Lagrangea.

Twierdzenie warunki Kuhna Tuckera.
Jeli punkt x
0
D jest minimum funkcji celu f i jest on punktem regularnym, to
istniej takie liczby
i
,
j
, e zachodz nastpujce warunki:
grad f (x
0
) +

= 0,
g
i
(x
0
) 0,
i
g
i
(x
0
) = 0, i =

,
h
j
(x
0
) = 0, j =

.






Warunek dostateczny istnienia minimum globalnego okrela ponisze twierdzenie.

Twierdzenie.
Jeli funkcja celu f jest wypuka, warunki ograniczajce g
i
te s funkcjami
wypukymi, a warunki h
j
sa funkcjami liniowymi, to kady punkt x
0
speniajcy warunki
twierdzenia Kuhna Tuckera jest punktem minimum globalnego.

Twierdzenie.
Jeli funkcje f, g
i
, h
j
C
2
oraz f, g
i
s funkcjami wypukymi oraz istniej mnoniki
Lagrangea
0
,
0
takie, e punkt (x
0
, (
0
,
0
)) spenia warunki Kuhna Tuckera oraz dla
dowolnego wektora d R
n
takiego, e

d = 0,

d = 0
oraz zachodzi nierwno
d
T

L(x
0
, (
0
,
0
))d 0,
to punkt x
0
jest punktem minimum lokalnego.
[Uwaga:

L(x
0
, (
0
,
0
)) macierz Hessego funkcji Lagrangea.]

Twierdzenie.
Jeli w punkcie x
0
istniej wektory
0
,
0
takie, e punkt (x
0
, (
0
,
0
)) spenia warunki
konieczne Kuhna Tuckera oraz dla dowolnego kierunku d = 0 zachodz warunki:

d = 0,
i
> 0,

d < 0,
i
= 0,

d = 0
oraz ponadto zachodzi
d
T

L(x
0
, (
0
,
0
)) d > 0,
to punkt x
0
jest minimum lokalnym.

3. Punkt siodowy funkcji Lagrangea.

Definicja.
Punkt (x
0
, (
0
,
0
)) X jest globalnym punktem siodowym funkcji Lagrangea,
gdy
x X R
n

0
,
0
R
s spenione nierwnoci
L(x
0
, (, )) L(x
0
, (
0
,
0
)) L(x, (
0
,
0
)).


Definicja.
Punkt (x
0
, (
0
,
0
)) X jest lokalnym punktem siodowym funkcji Lagrangea, gdy
> 0 , e dla x X K(x
0
, ) oraz wektora (
0
,
0
)
s spenione nierwnoci
L(x
0
, (, )) L(x
0
, (
0
,
0
)) L(x, (
0
,
0
)).

Twierdzenie Kuhna Tuckera.
Wektor x
0
jest minimum funkcji celu f (x) istnieje wektor (
0
,
0
) taki, e punkt (x
0
,
(
0
,
0
)) jest punktem siodowym.

Twierdzenie.
Dla x 0 warunki konieczne i wystarczajce istnienia punktu siodowego (x
0
, (
0
,
0
))
w klasie funkcji wypukych z wypukymi funkcjami ogranicze s nastpujce:
grad f (x
0
) +

0,
g
i
(x
0
) 0,
i
g
i
(x
0
) = 0,
i
> 0, i =

,
h
j
(x
0
) = 0, j =

= 0.

4. Zagadnienie dualne programowania nieliniowego.

Pierwotne zadanie programowania nieliniowego w zbiorze X polega na
wyznaczeniu supremum funkcji Lagrangea L(x) w podzbiorze , ktrego elementami s
wektory mnonikw (, ), a nastpnie minimum funkcji pierwotnej L
P
(x) w podzbiorze X:

L
P
(x
*
) = ,
,

,
L(x) = ,
,

.

Dualne zagadnienie programowania nieliniowego w zbiorze X polega na
wyznaczeniu infimum funkcji Lagrangea L(x) w podzbiorze X, a nastpnie maksimum
funkcji dualnej L
P
(x) w podzbiorze , ktrego elementami s wektory mnonikw (, ):

L
D
(x
*
) = ,

,
L(x) = ,

.


Twierdzenie o dualnoci.
Punkt (x
0
, (
0
,
0
)) jest punktem siodowym funkcji Lagrangea zachodzi relacja
dualnoci:

= L
P
(x
0
) = L
D

,
,

.





5. Przykady optymalizacji warunkowej.

Przykad 1.
Wyznaczy minimum globalne i lokalne funkcji dwch zmiennych, przy jednym
ograniczeniu:

,
g(x) =

0.
Utwrzmy funkcj Lagrangea:
L(x, ) =

+ (

).
Warunki konieczne istnienia ekstremum warunkowego:

= 0,

= 0,
g(x) =

= 0,
0.
Z dwch pierwszych warunkw otrzymamy:

+ = 0

= 1 ,

1 = 0

.

Przyjmujc = 0, otrzymamy minimum globalne:
x
01
= 1, x
02
= 1, f (1, 1) = 1.









PROGRAMOWANIE MATEMATYCZNE

Zadanie programowania matematycznego (PM) formuujemy nastpujco.
Dane s nastpujce funkcje:
f : D
0
R,
g
i
: D
i
R, i

,

gdzie: D
i
c R
n
,

= .

W zbiorze X okrelonym warunkami:
g
i
(x)

, (W.1)
0 m
1
m
2
m,
b = [b
1
, b
2
, , b
m
]
T
R
m
,
x = [x
1
, x
2
, , x
n
]
T
R
n
,
x
j

, (W.2)
0 n
1
n
2
n

wyznaczy taki punkt x, w ktrym:
funkcja f osignie minimum (lub maksimum). (W.3)






Odpowiada temu inna forma zapisu:
Min {f (x): x X}
Min {f (x): przy warunkach (W.1) i (W.2)}
f (x) min przy warunkach (W.1) i (W.2).

Min oznacza minimum funkcji f w PM, a min jej warto minimaln.


Funkcj f nazywamy funkcj celu. Warunek (W.3) nazywamy kryterium
optymalizacji, x wektor zmiennych decyzyjnych x
j
(

), b wektor ogranicze,
warunek (W.1) ograniczenia nieelementarne, warunek (W.2) ograniczenia elementarne
(ograniczenia znaku zmiennych decyzyjnych).
W zadaniu PM moe zachodzi D
i
= R
n
, i

.

Zbir X := {x R
n
: przy warunkach (W.1) i (W.2)} nazywamy zbiorem rozwiza
dopuszczalnych, a kady element x
dop
rozwizaniem dopuszczalnym (RD).

Zakada si, e X c

. Moe zachodzi rwnie X = . W przypadku, gdy D


i
= R
n
, i

, moe zaj X = R
n
.

Wektor x
opt
X taki, e
x X f (x
opt
) f (x) lub x X f (x
opt
) f (x)
nazywamy rozwizaniem optymalnym (RO) zadania PM z kryterium minimalizacji
(maksymalizacji), a f(x
opt
) wartoci optymaln funkcji celu, oznaczan jako f
min
(f
max
).





Dodatkowo przyjmujemy
f
min
= (f
max
= + ),
gdy X = i f jest nieograniczona z dou (z gry) na X,
f
min
= + (f
max
= ), gdy X =

Zbir wszystkich rozwiza optymalnych zadania PM oznaczamy przez X
opt
.

Uwaga.
x
opt1
, x
opt2
X
opt
f (x
opt1
) = f (x
opt2
) = f
min
(f
max
).

Zadanie PM nazywamy sprzecznym (niesprzecznym), gdy
X = (X = ).

Uwaga.
X = X
opt
= , ale moe rwnie zaj X = X
opt
= .

Nastpujce zadania PM maj ten sam zbir rozwiza optymalnych:
- Min {f (x): x X}, X zbir rozwiza dopuszczalnych,
- Min {h [f (x)]: x X}, h : Y R (f (X) c Y c R) jest dowoln funkcj rosnc na
zbiorze f (X); w szczeglnoci, gdy h [f (x)] = pf (x) + q [funkcja liniowa], p, q R, p > 0;
- Max {h [f (x)]: x X}, h : Y R (f (X) c Y c R) jest dowoln funkcj malejc na
zbiorze f (X); w szczeglnoci, gdy h [f (x)] = pf (x) + q, p, q R, p < 0.







Warunki (W.1) i (W.2) mona zapisa w cznej postaci:
h
l
(x)


h
i
(x) = g
i
(x) b
i
i

,
h
m+j
(x) = x
j
j

,
L
1
L
2
= L
1
L
3
= L
2
L
3
=
(rozczno zbiorw indeksw)
L
1
L
2
L
3
=

, p = m + n
2
.

Ta posta warunkw czsto jest dogodniejsza ze wzgldw numerycznych w
rozwizywaniu zada PM.

Warunek zadania PM nazywamy aktywnym lub napitym (nieaktywnym lub lunym) przy
rozwizaniu dopuszczalnym x
dop
wtedy i tylko wtedy, gdy dla x = x
dop
warunek ten jest
speniony jako rwno (nierwno ostra).

Warunek zadania PM nazywamy istotnym (nieistotnym) ze wzgldu na rozwizanie
dopuszczalne wtedy i tyko wtedy, gdy pominiecie tego warunku zmienia zbir (nie zmienia
zbioru) rozwiza dopuszczalnych X zadania.
Warunek zadania PM nazywamy istotnym (nieistotnym) ze wzgldu na rozwizanie
optymalne wtedy i tyko wtedy, gdy pominiecie tego warunku zmienia zbir (nie zmienia
zbioru) rozwiza optymalnych X
opt
zadania.
Jeli w zadaniu PM dany warunek jest nieistotny ze wzgldu na kade rozwizanie
dopuszczalne, to jest on rwnie nieistotny ze wzgldu na kade rozwizanie optymalne.
Twierdzenie odwrotne nie jest prawdziwe.
Pominicie w zadaniu PM warunkw nieistotnych upraszcza algorytm rozwizania, a w
przypadku duej liczby warunkw, umoliwia rozwizanie zadania. Jednake nie zawsze jest
proste wykrycie nieistotnoci warunkw.



Wrd zada PM wyrniamy dwa gwne:
- standardowe zadanie PM (PMS)
z kryterium minimalizacji
Min {f (x): g(x) = b, x 0};
z kryterium maksymalizacji
Max {f (x): g(x) = b, x 0};
- kanoniczne (klasyczne) zadanie PM (PMK)
z kryterium minimalizacji
Min {f (x): g(x) b, x 0};
z kryterium maksymalizacji
Max {f (x): g(x) b, x 0};
g przeksztacenie (odwzorowanie) R
n
R
m
okrelone przez ukad m funkcji g
i
: g
i
: D
i
R,
i

na zbiorze D =

= nastpujco:
x D g(x) = [g
1
(x) g
2
(x) g
m
(x)]
T
.

Kade zadanie PM mona sformuowa w postaci PMS (PMK), z tym samym lub
przeciwnym kryterium optymalizacji, stosujc, zalenie od potrzeby, niej wymienione
operacje.
I. Maksymalizacj (minimalizacj) funkcji celu f zastpi minimalizacj (maksymalizacj)
funkcji

= f.
II. Warunek g
i
(x)
i
(g
i
(x)
i
) zastpi warunkami:
g
i
(x) + x
n+i
=
i
, x
n+i
(g
i
(x) x
n+i
=
i
, x
n+i
). Wprowadzon zmienn x
n+i

nazywamy zmienn dodatkow niedoboru (nadmiaru). Do funkcji celu zmienne
dodatkowe wprowadza si ze wspczynnikiem 0, tzn. jeli wprowadza si p
dodatkowych zmiennych x
n+i
, i P
d
c

, to funkcj celu f : D
0
R, D
0
c R
n

zastpuje si funkcj

: D
0
R
p
R postaci

= f (x) + 0
T
x
d
, gdzie x
d
R
p

jest wektorem zmiennych dodatkowych.
III. Jeli x
j
0 (x
j
0), to podstawi x
j
=

, wwczas

0 (

0).
IV. Jeli brak ograniczenia znaku zmiennej x
j
, to podstawi
x
j
=

i doczy warunki

0,

0.
V. Rwnanie g
i
(x) =
i
zastpi ukadem nierwnoci
g
i
(x)
i
, g
i
(x)
i
(g
i
(x)
i
, g
i
(x)
i
).
Uwaga: Przy sprowadzaniu zadania PM do zadania PMS (PMK) moe zwikszy si liczba
warunkw lub zmiennych.


Postaci standardow zadania PMK (chodzi o przejcie od PMK do PMS)
Min {f (x): g(x) b, x 0}
jest zadanie PMS
Min {f (x): g(x) x
d
= b, x 0, x
d
0}
gdzie x
d
= [x
n+1
x
n+2
x
n+m
]
T
wektor zmiennych dodatkowych.


Postaci kanoniczn zadania PMS (chodzi o przejcie od PMS do PMK)
Min {f (x): g(x) = b, x 0}
jest zadanie PMK
Min {f (x): (x)

, x 0}

gdzie (x) =

.


Zadanie PM nazywamy zadaniem programowania nieliniowego (PNL), gdy cho
jedna z funkcji f , g
i
(i

) jest nieliniowa; w przeciwnym przypadku mamy do czynienia


z zadaniem programowania liniowego (PL).





W zadaniu PL
f (x) = c
T
x,
gdzie c = [c
1
c
2
c
n
]
T
nazywamy wektorem wspczynnikw funkcji celu,
g
i
(x) =

x, i

,
gdzie a
i
= [a
i1
a
i2
a
in
]
T
nazywamy wektorem wspczynnikw w i-tym warunku
nieelementarnym.

Przeksztacenie g : R
n
R
m
okrelone ukadem funkcji jest przeksztaceniem liniowym o
macierzy
A =

,
zwan macierz wspczynnikw ukadu warunkw nieelementarnych.

Zadaniem PL w postaci standardowej (PLS) jest
Min {c
T
x : Ax = b, x 0}.

Zadaniem PL w postaci kanonicznej (PLK) jest
Min {c
T
x : Ax b, x 0}.

Wrd zada programowania nieliniowego (PNL) szczegln rol odgrywa posta
standardow z nieliniow funkcj celu, ale liniowymi warunkami ograniczajcymi
Min {f (x) : Ax = b, x 0}.






Zadanie to nazywamy:
- programowaniem kwadratowym (PK), gdy
f (x) = x
T
Cx + p
T
x, x R
n
,
C macierz symetryczna stopnia n, p R
n
;
- zadaniem programowania z homograficzn (uamkowo-liniow) funkcj celu (PH),
gdy
f (x) =


, x R
n
,
c, d R
n
, d = 0, c
0
, d
0
R i wektory

oraz

s liniowo niezalene;
- minimaksowym zadaniem programowania matematycznego (MMPM), gdy
f (x) = max {

: t

}, x R
n
, c
t
= [c
t1
c
t2
c
tn
]
T
, c
t0
R.

Zadanie PM z dodatkowym warunkiem
x
j
D c R dla j P
D
c

, P
D
= ,
gdzie D dyskretny zbir liczb, nazywamy zadaniem programowania dyskretnego (PD), w
szczeglnoci zadaniem programowania cakowitoliczbowego (PC), gdy D = N {0};
zadaniem programowania binarnego albo zerojedynkowego (PB), gdy D = {0, 1}.

Zadania programowania matematycznego (ich metody) mog by stosowane do
rozwizywania takich problemw (ekonomicznych, transportowych, logistycznych i innych),
dla ktrych potrafimy zbudowa (opracowa) odpowiedni model matematyczny procesu
decyzyjnego wyboru optymalnej (z naszego punktu widzenia) decyzji spord decyzji
dopuszczalnych, o ile problemy te charakteryzuj si nastpujcymi waciwociami (s tzw.
optymalizacyjnymi problemami decyzyjnymi).
I. Kad decyzje mona przedstawi w postaci cigu ustalonych wartoci przyjtych na
n zmiennych x
1
, x
2
, , x
n
, zwanych zmiennymi decyzyjnymi. Kad decyzje
reprezentuje wic odpowiedni punkt x w przestrzeni R
n
.
II. Swoboda w wyborze decyzji jest ograniczona. Podstawowe ograniczenia dadz si
przedstawi w postaci (W.1) i (W.2) lub rwnowanych oraz ewentualnie innych
warunkw (np. cakowitoliczbowo dla pewnych zmiennych). Ukad ten okrela
zbir decyzji dopuszczalnych X.
III. Decyzje dopuszczalne speniaj okrelony cel, przy czym stopie jego realizacji przez
kad z decyzji mona wyrazi za pomoc funkcji rzeczywistej f zmiennych
decyzyjnych x
1
, x
2
, , x
n
, zwanej funkcj celu.
IV. Spord decyzji dopuszczalnych naley wybra decyzj optymaln, tj. tak, ktra
najlepiej realizuje cel na zbiorze decyzji dopuszczalnych. Tre rozpatrywanego
zagadnienia okrela kryterium optymalizacji, tzn. czy naley funkcj celu
minimalizowa, czy maksymalizowa.

Powok wypuk (uwypukleniem) zbioru A c R
n
nazywamy zbir wszystkich wypukych
kombinacji liniowych dowolnej skoczonej liczby punktw zbioru A. Powok wypuk
zbioru A oznaczamy conv A (convex = wypuky).

Powoka wypuka jest najmniejszym zbiorem wypukym zawierajcym zbir A, tzn. jest
przekrojem wszystkich zbiorw wypukych zawierajcych A.

Wypuko zbioru M jest rwnowana przynalenoci do M kadej wypukej kombinacji
liniowej dowolnej, skoczonej liczby punktw zbioru M, tj.
M jest zbiorem wypukym M = conv M.

Punkt x
w
nazywamy wierzchokiem (punktem ekstremalnym) zbioru wypukego M
wtedy i tylko wtedy, gdy x
w
M i M {x
w
} jest zbiorem wypukym.


















PROGRAMOWANIE LINIOWE

Po sformuowaniu zadania programowania liniowego sprawdzi jego poprawno:
- niesprzeczno kryteriw,
- czy ograniczenia tworz zbir wypuky (sympleks).


Posta oglna zagadnienia liniowego.

Liniowe zagadnienie optymalizacji ma nastpujc posta ogln:

Funkcja celu (FC):

f (x) = c
1
x
1
+ + c
i
x
i
+ c
i+1
x
i+1
+ + c
n
x
n
= opty. (max. lub min.) (1)


Warunki dodatkowe (wizy, warunki ograniczajce) (WD, WO):

a
1,1
x
1
+ + a
1,i
x
i
+ a
1,i+1
x
i+1
+ + a
1,n
x
n
b
1
,
. ,
a
k,1
x
1
+ + a
k,i
x
i
+ a
k,i+1
x
i+1
+ + a
k,n
x
n
b
k
, (2)
a
k+1,1
x
1
+ + a
k+1,i
x
i
+ a
k+1,i+1
x
i+1
+ + a
k+1,n
x
n
b
k+1
,
. ,
a
l,1
x
1
+ + a
l,i
x
i
+ a
l,i+1
x
i+1
+ + a
l,n
x
n
b
l
,
a
l+1,1
x
1
+ + a
l+1,i
x
i
+ a
l+1,i+1
x
i+1
+ + a
l+1,n
x
n
= b
l+1
,
. ,
a
m,1
x
1
+ + a
m,i
x
i
+ a
m,i+1
x
i+1
+ + a
m,n
x
n
= b
m
,
x
1
0, , x
i
0; x
i+1
, , x
n
dowolne.

W skrconym zapisie wektorowo-macierzowym moemy przedstawi to nastpujco:

FC: f (x) =

x
1
+

x
2
= opty (max. lub min.) (3)

WD:
A
11
x
1
+ A
12
x
2
b
1
,
A
21
x
1
+ A
22
x
2
b
2
, (4)
A
31
x
1
+ A
32
x
2
= b
3
,
x
1
0, x
2
dowolne,

gdzie:

c
1
= [c
1
, , c
i
]
T
, c
2
= [c
i+1
, , c
n
]
T
,
x
1
= [x
1
, , x
i
]
T
, x
2
= [x
i+1
, , x
n
]
T
, (5)
b
1
= [b
1
, , b
k
]
T
, b
2
= [b
k+1
, , b
l
]
T
,
b
3
= [b
l+1
, , b
m
]
T
,
A
11
=

, A
12
=

, (6)

A
21
=

, A
22
=

. (7)

A
31
=

, A
32
=

. (8)

Wizy: Jeli wystpuj wizy ze znakiem , to mnoc obustronnie przez ( 1), otrzymamy
wizy z .


Posta kanoniczna PL
Dla maksimum:
Funkcja celu: f (x) = c
T
x = max.
Warunki ograniczajce: Ax b,
Wszystkie zmienne decyzyjne x 0,
lub dla minimum:
f (x) =

x
1
+

x
2
= min.
Warunki ograniczajce: Ax b,
Wszystkie zmienne decyzyjne x 0.



Posta standardowa PL
Funkcja celu: f (x) = c
T
x = max. (lub min.)
Warunki ograniczajce: Ax = b,
Wszystkie zmienne decyzyjne x 0,

Od postaci kanonicznej do standardowej przechodzimy wprowadzajc tzw. zmienne
swobodne, ktre maj nastpujce cechy:
- s nieujemne,
- maj zerowe wagi w funkcji celu,
- s wprowadzane oddzielnie do kadej nierwnoci.

Zachodz dwa przypadki:
- Jeli wystpuje nierwno typu , to zmienna swobodna x
n+i
jest okrelona
nastpujco:

x
n+i
=

x b
i
.

- Jeli wystpuje nierwno typu , to zmienna swobodna x
n+i
jest okrelona
nastpujco:
x
n+i
= b
i

x.


Sprowadzamy wszystkie zmienne do pierwszego kwadrantu (do wartoci nieujemnych).
Jeli x
i
0, to przyjmujemy: x
i
=

.
Jeli znak zmiennej x
i
jest nieokrelony, to przyjmujemy:
x
i
=

.




Przykad 1.
Posta kanoniczna:
Funkcja celu:
18x
1
+ 15x
2
max,
Warunki ograniczajce:
8x
1
+ 4x
2
52
6x
1
+ 9x
2
69
x
1
, x
2
0.

Posta standardowa:
Funkcja celu:
18x
1
+ 15x
2
max,
Warunki ograniczajce:
8x
1
+ 4x
2
+ x
3
= 52 bo x
3
= 52 8x
1
4x
2

6x
1
+ 9x
2
+ x
4
= 69 bo x
4
= 69 6x
1
9x
2

x
1
, x
2
, x
3
, x
4
0.



Przykad 2.
Posta kanoniczna:
Funkcja celu:
3x
1
+ 2x
2
max,
Warunki ograniczajce:
x
1
+ 3x
2
45
2x
1
+ x
2
40
x
1
+ x
2
25
x
1
, x
2
0.


Posta standardowa:
Funkcja celu:
3x
1
+ 2x
2
max,
Warunki ograniczajce:
x
1
+ 3x
2
+ x
3
= 45
2x
1
+ x
2
+ x
4
= 40
x
1
+ x
2
+ x
5
= 25
x
1
, x
2
, x
3
, x
4
, x
5
0.




Przykad 3.
Posta kanoniczna:
Funkcja celu:
0,2x
1
+ 0,3x
2
min,
Warunki ograniczajce:
24x
1
+ 12x
2
720
10x
1
+ 45x
2
900
x
1
+ 1,5x
2
60
x
1
, x
2
0.

Posta standardowa:
Funkcja celu:
0,2x
1
+ 0,3x
2
min,
Warunki ograniczajce:
24x
1
+ 12x
2
x
3
= 720
10x
1
+ 45x
2
x
4
= 900
x
1
+ 1,5x
2
x
5
= 60
x
1
, x
2
, x
3
, x
4
, x
5
0.



Posta standardowa
Liniowa funkcja celu:

f (x) = c
T
x =

, (9)

przy liniowych ograniczeniach

Ax = b, (10)
x 0,
dim A = mn.


Naley wyznaczy (znale) rozwizanie optymalne x
*
(w sensie maksimum lub minimum)
funkcji celu (9), przy ograniczeniach (10).

Wykorzystuje si to tego trzy podstawowe metody:
1. punktw wierzchokowych,
2. geometryczn (graficzn, wykreln), stosowalno ktrej ogranicza si co najwyej
do trzech zmiennych decyzyjnych,
3. sympleks (tablicow).


Podstaw tych metod jest stwierdzenie, e rozwizanie optymalne zagadnienia liniowego jest
wierzchokiem zbioru D (sympleksu), otrzymanego z ogranicze nierwnociowych

Ax b, x 0. (11)

Lub rnych kombinacji niewikszy i niemniejszy.



Punktem wierzchokowym P
i
sympleksu nazywamy kady taki punkt, ktry jest kombinacj
liniow m wektorw bazowych [x
1
, x
2
, , x
m
, 0, 0, , 0] w przestrzeni R
m
uzupenionej o
(nm) wektorw zerowych, gdy n > m.

Twierdzenie.
Rozwizanie optymalne x
*
zadania programowania liniowego jest punktem wierzchokowym
sympleksu D ukadu ogranicze (3).



Definicja.
Rozwizaniem dopuszczalnym zagadnienia programowania liniowego jest wektor x
speniajcy warunki ograniczajce.

Definicja.
Rozwizaniem bazowym ukadu rwna standardowych nazywamy rozwizanie ukadu
powstaego z niego przez porwnanie do zera nm zmiennych przy zaoeniu, e wyznacznik
wspczynnikw wybranych m zmiennych jest niezerowy. Te m zmiennych nazywamy
zmiennymi bazowymi.





Definicja.
Rozwizaniem bazowym dopuszczalnym nazywamy rozwizanie bazowe, ktre spenia
warunek nieujemnoci zmiennych bazowych.

Niezdegenerowanym rozwizaniem bazowym dopuszczalnym nazywamy bazowe
rozwizanie dopuszczalne, w ktrym wszystkie zmienne bazowe s dodatnie.



Warunki ograniczajce w postaci standardowej mamy

Ax = b, x 0,

A macierz mn wymiarowa wspczynnikw,
x n wymiarowy wektor zmiennych decyzyjnych,
b m wymiarowy wektor wyrazw wolnych.
Macierz kwadratowa m-tego stopnia B, skadajca si z m liniowo niezalenych kolumn
macierzy A, nazywamy macierz bazow.


Z zaoenia (liniowa niezaleno kolumn) zachodzi jej nieosobliwo, tj.

det B = 0.

Kolumny macierzy bazowej nazywamy kolumnami bazowymi, a pozostae kolumny
macierzy A nazywamy kolumnami niebazowymi. Zmienne zwizane z kolumnami
bazowymi nazywamy zmiennymi bazowymi, a pozostae niebazowymi.


Z kad baz B ukadu Ax = b jest zwizane rozwizanie bazowe. Jeli ukad Ax = b jest
niesprzeczny oraz n > m, to ma on nieskoczenie wiele rozwiza, ale skoczon liczb
rozwiza bazowych.

Ukad m rwna z n niewiadomymi ma co najwyej



rozwiza bazowych.





Kadej bazie B odpowiada okrelony podzia zmiennych na bazowe i niebazowe.

Przy danej bazie B wektor zmiennych decyzyjnych x oraz macierz wspczynnikw A mona
przedstawi nastpujco:

x
(n1)
= [x
B(m1)
, x
N((n-m)1)
]
T
, A
(mm)
= [B
(mm)
, N
(m(n-m))
],

b
(m1)
= [b
1
, b
2
, , b
m
]
T
.



Ukad rwna Ax = b przyjmie wwczas posta:

B
(mm)
x
B(m1)
+ N
(m(n-m))
x
N((n-m)1)
= b
(m1)
.

Pommy lewostronnie lew i praw stron tego rwnania przez B
-1
, otrzymamy wwczas

B
-1
Bx
B
+ B
-1
Nx
N
= B
-1
b,

czyli

x
B
+ B
-1
Nx
N
= B
-1
b.

Wprowadmy oznaczenia: B
-1
N = W, B
-1
b = b
B
, to

x
B
+ Wx
N
= b
B
.

W definicji okrelono, e rozwizanie bazowe otrzymuje si po przyjciu zmiennych
niebazowych rwnych zeru, czyli x
N
= 0.

Std rozwizanie bazowe:

x
B
= B
-1
b = b
B
.

Jeli dla danej bazy B zachodzi, e x
B
= B
-1
b = b
B
> 0, po prostu x
B
> 0, to jest to rozwizanie
bazowe dopuszczalne.

Dwie bazy B i

nazywamy bazami ssiednimi, jeli rni si tylko jedn kolumn


macierzy A.
Dwa rozwizania bazowe nazywamy rozwizaniami ssiednimi, gdy rni si tylko jedn
zmienn bazow.



Przykad 4
Mamy ukad ogranicze (posta standardowa)

x
1
+ x
2
+ 2x
3
x
4
= 1,
x
1
+ 2x
2
x
3
+ 2x
4
= 2.

Std A =




, x = [x
1
, x
2
, x
3
, x
4
]
T
, b = [1, 2]
T
.

Przyjmijmy baz wzgldem zmiennych x
1
, x
4
:

B =


, N =


, x
B
=

, x
N
=

, b =

.

Obliczmy B
-1
: det B = 1, a B
-1
=


.

Dalej

W = B
-1
N =





=


, b
B
= B
-1
b =


,

x
B
+ Wx
N
= b
B
.

,

x
1
+ 4x
2
+ 3x
3


= 4,
3x
2
+ x
3
+ x
4
= 3,

x
B
= b
B
=

oraz x = [4, 0, 0, 3]
T
jest to rozwizanie bazowe dopuszczalne.

Wszystkie zmienne bazowe (x
1
, x
4
) s dodatnie, jest wic to rozwizanie niezdegenerowane.











Metoda graficzna

Algorytm:
1. wykrelamy ograniczenia,
2. wyznaczamy obszar dopuszczalnych rozwiza wynikajcy z ogranicze,
3. obieramy dowoln warto funkcji celu, np. f (x
1
, x
2
) = C
i przesuwamy jej wykres w kierunku wzrostu C
rozwizanie znajduje si w punkcie przecicia prostej celu
z granic obszaru dopuszczalnego (w wierzchoku).


Przykad 5.
Wyznaczy maksimum funkcji celu

f (x
1
, x
2
) = 2x
1
+ 2,5x
2
,

przy ograniczeniach

x
1
+ x
2
30,
3x
1
+ x
2
0,
x
1
, x
2
0.



Rys. 1. Graficzne rozwizanie zadania optymalizacji liniowej z przykadu 5.

Rozwizanie bazowe dla tego przykadu.

Wyznaczy maksimum funkcji celu

f (x
1
, x
2
) = 2x
1
+ 2,5x
2
,

przy ograniczeniach

x
1
+ x
2
+ x
3
= 30,
3x
1
+ x
2
+ x
4
= 0,
x
1
, x
2
, x
3
, x
4
0.

Mamy: A =




, b =

T
.

Obierzmy macierz bazow wzgldem zmiennych x
1
, x
2
: B =


, N =


,
std det B = 4, B
-1
=

, x
B
=

T
, x
N
=

T
,


W = B
-1
N =

, x
B
= B
-1
b =







Przykad 6.

Wyznaczy maksimum funkcji celu

f (x
1
, x
2
) = 20x
1
+ 10x
2
,

przy ograniczeniach

10x
1
x
2
30,
2,5x
1
+ x
2
25,
5x
1
+ 0,5x
2
25,
x
1
, x
2
0.



Rys. 2. Graficzne rozwizanie zadania optymalizacji liniowej z przykadu 6.


Rozwizanie bazowe dla tego przykadu.

Wyznaczy maksimum funkcji celu

f (x
1
, x
2
) = 20x
1
+ 10x
2
,

przy ograniczeniach

10x
1
x
2
+ x
3
= 30,
2,5x
1
+ x
2
+ x
4
= 25,
5x
1
+ 0,5x
2
+ x
5
= 25,
x
1
, x
2
, x
3
, x
4
, x
5
0.


Mamy: A =



, b =

T
.

Obierzmy macierz bazow wzgldem zmiennych x
1
, x
2
, x
3
:

B =



, N =



,


std det B = 3,75, B
-1
=



,

x
B
=

T
, x
N
=

T
,

W = B
-1
N =







=



,


x
B
= B
-1
b =










Przykad 7.

Wyznaczy maksimum funkcji celu

f (x
1
, x
2
) = x
1
+ 3x
2
,

przy ograniczeniach

x
1
+ 2x
2
20,
5x
1
+ x
2
10,
5x
1
+ x
2
27,
x
1
, x
2
0.


Rys. 3. Graficzne rozwizanie zadania optymalizacji liniowej z przykadu 7.


Rozwizanie bazowe dla tego przykadu.

Wyznaczy maksimum funkcji celu

f (x
1
, x
2
) = x
1
+ 3x
2
,

przy ograniczeniach

x
1
+ 2x
2
+ x
3
= 20,
5x
1
+ x
2
+ x
4
= 10,
5x
1
+ x
2
+ x
5
= 27,
x
1
, x
2
, x
3
, x
4
, x
5
0.


Mamy: A =



, b =

T
.




Obierzmy macierz bazow wzgldem zmiennych x
1
, x
2
, x
3
:

B
1
=



, N =



,

std

det B
1
= 10,

=



,

T
,

T
,

W =

N =







=



,

b =





wierzchoek 1: x
1
= 1,70; x
2
= 18,50;

You might also like