Professional Documents
Culture Documents
klasykatorów w komitety
ukasz Adamczewski
19 listopada 2010
1 Algorytm AdaBoost
Jedn¡ z wydajniejszych metod ª¡czenia klasykatorów w jeden wydajny zespóª jest algorytm Ad-
aBoost wywodz¡cy si¦ z algorytmów wzmacniaj¡cych Bosting, które sªu»¡ zwi¦kszaniu skuteczno±ci
dowolnego algorytmu uczenia. Nazwa algorytmu Adaptive Boosting rozumiana jako wzmocnienie
adaptacyjne polega w skrócie na trenowaniu w kolejnych t iteracjach t sªabych klasykatorów
na zbiorze przykªadów D ze zmienianymi wagami. Algorytm powstaª w 1995 roku jako owoc
prac Freund'a i Shapire'a
Mówi¡c sªaby klasykator mamy na my±li klasykator stosunkowo prosty o niezbyt du»ej sile
wyra»ania, potra¡cy klasykowa¢ dane testowe ze skuteczno±ci¡ wi¦ksz¡ ni» 50%.
Jedn¡ z gªównych idei algorytmu jest utrzymanie rozkªadu (lub wag elementów) dla zbioru
treningowego. Nale»y nadmieni¢, »e algorytm ten jako pierwszy z rodziny algorytmów wzmac-
niaj¡cych okazaª si¦ najbardziej u»yteczny w praktyce.
1.1 Idea
Na pocz¡tku algorymtu
1
AdaBoost inicjujemy wagi dla ka»dej obserwacji nadaj¡c im t¡ sam¡
warto±¢ . Nast¦pnie wykonujemy iteracyjnie kroki:
m
1. normalizowanie wag
2. wyznaczanie klasykatora
1
1.2 Algorytm 1 ALGORYTM ADABOOST
1
Iteracja ko«czy si¦ w momencie kiedy bª¡d klasykatora przekroczy warto±¢
2 lub, gdy numer it-
eracji jest równy danej staªej L czyli ustalonej maksymalnej liczbie iteracji. Ko«cowy klasykator
wyznaczany jest metod¡ gªosowania wi¦kszo±ciowego.
1.2 Algorytm
Zaªo»enia
Parametry wej±ciowe to:
S = {(xi , yi ) , i = 1, 2, . . . , m} , yi ∈ Y = {1, . . . , K}
xi − i − ta operacja
yi − klasa i − tej operacji
• algorytm ucz¡cy
2
1.2 Algorytm 1 ALGORYTM ADABOOST
Algorytm 1 AdaBoost
2. for l=1 to L do
4. hl := LEARN(S, pl )
P
5. εl = i pl (i) [[hl (xi ) 6= yi ]]
6. if ε l > 1
2 then
7. L := l − 1
8. goto12
9. βl := εl /(1 = εl )
1. inicjalizacja wag;
3. normalizacja wag;
1
7. wyznaczamy numero ostatniego klasykatora z bª¦dem nie wi¦kszym od
2;
3
2 PROGRAM
2 Program
2.1 Cele programu
Do wykonania zadania chciaªbym u»y¢ prostych klasykatorów liniowych, nie wiem tylko czy
wykorzysta¢ podej±cie generatywne (propabilistyczne) np. Analiz¦ dyskryminacyjn¡ lub klasy-
kacj¦ Bayesowsk¡, czy wykorzysta¢ wª¡±ciwo±ci zbioru ucz¡cego - percepron linowy rosenblata
(iteracyjne poprawki wag) czy metod¦ wektorów no±nych czy regresj¦ logistyczn¡.
2.3 Technologia