Professional Documents
Culture Documents
http://wiki.ega.org.pl/index.php?title=Sztuczne_sieci_neuronowe&print...
Spis treci
1 Idea 2 Model neuronu 3 Sieci neuronowe 4 Uczenie sztucznych sieci neuronowych 4.1 Uczenie z nauczycielem 4.1.1 Regua perceptronowa sieci dyskretnej 4.1.2 Regua Widrowa-Hoffa 4.2 Uczenie bez nauczyciela 4.2.1 WTA (ang. Winner Takes All) 4.2.2 WTM (ang. Winner Takes Most)
Idea
Nazwa - sieci neuronowe - mwi ju wiele o pochodzeniu i strukturze samej sieci. Nie martw si jednak, jeeli spae w czasie licealnych lekcji biologii. Rzut okiem na rysunek 1. wystarczy, aby zrozumia jak dziaaj pierwowzory sztucznych neuronw - komrki nerwowe. Pomijajc ca chemi oraz mechaniczne "pompy" jonw takich jak sd, potas czy wap, ktre stoj za przesyaniem sygnaw elektrycznych, dla naszych celw naley jedynie wiedzie, e sygnay wejciowe dla komrki s podawana na dendryty, za wyjciowe kierowane na synaps (bd synapsy). Decyzja o tym, jakiego rodzaju bdzie to sygna podejmowana jest w ciele komrki. Jaka jest wydajno komrki nerwowej? C, z uwagi na procesy biochemiczne rzdzce przesyaniem sygnaw, komrki mog je przekazywa z czstotliwoci z zakresu
1z6
2011-06-13 15:56
http://wiki.ega.org.pl/index.php?title=Sztuczne_sieci_neuronowe&print...
1-100 Hz. Czas trwania samego impulsu to okoo 1-2 milisekundy, za szybko propagacji (nie, to nie jest zwyky kabel, odpowied nie brzmi c!) zaley od regionu ciaa i waha si w zakresie od 1-100 metrw na sekund. Ludzki mzg - jeden z najwspanialszych efektw ewolucji. Monaby rzez, wzr do naladowania dla chccych tworzy sztuczne sieci neuronowe. Natrafi mona tu jednak na kolejny problem - mimo objctoci oko ptorej litra, w mzgu znajduje si rednio okoo 100 miliardw komrek nerwowych, dokonujcych okoo 1 attooperacji na sekund (10^18). Nawet majc moliwo odtworzenia struktury ich pocze, nie wydaje si prawdopodobne aby w najbliszym czasie mona byo efektywnie naladowa ludzki mzg. Dlatego te, w dzisiejszych czasach, odchodzi si od porwnania sztucznych sieci neuronowych do mzgu jako takiego, uznajc to za zbyt daleko idce uproszczenie.
Model neuronu
Niemniej jednak okazao si, e nawet bardzo proste sztuczne sieci neuronowe w pewnych sytuacjach wypeniaj doskonale swoje zadania. Pierwszy model neuronu, ktrego uywa si zreszt do dnia dzisiejszego, zaproponowali jeszcze w czasie trwania drugiej wojny wiatowej McCulloch i Pitts (rysunek 2.).
By i jest on rzecz jasna zbyt prosty, aby naladowa rzeczywisty neuron biologiczny, jednak nie taki by cel jego powstania. Neuron taki posiada <math>n</math> wej oraz jedno dodatkowe, na ktre zawsze podawany jest sygna jednostkowy (lub maksymalny przy innym doborze zakresu pracy). Kady z sygnaw wejciowych <math>x_i</math> (<math>i \in (1, n)</math>) jest nastpnie mnoony przez odpowiedni wag <math>w_i</math> oraz sumowany. Otrzymana w ten sposb warto jest argumentem tzw. funkcji aktywacji, ktrej wynik dziaania jest podawany na wyjcie tego neuronu.
W bardziej zwartym, matematycznym opisie wyglda to nastpujco: <math>y= f(\sum w_{i} x_{i}) = f( \textbf{w}^{T} \textbf{x}) = f( net )</math> gdzie: <math>\textbf{x} = [1, x_1, x_2, ... , x_n]^{T}</math> - wartoci sygnaw wejciowych <math>\textbf{w} = [-\Theta, w_1, ... , w_n]</math> - wartoci wag przyporzdkowanych poszczeglnym wejciom f - funkcja aktywacji
2z6
2011-06-13 15:56
http://wiki.ega.org.pl/index.php?title=Sztuczne_sieci_neuronowe&print...
y - sygna wyjciowy Kolejn cech wpywajc na uywan powszechnie terminologi jest zakres zwracanych przez neuron wartoci. Neurony formalne, dla ktrych warto zwracana przybiera wartoci dyskretne (cakowite, typu int). Neurony cig, wartoci funkcji aktywacji z zakresu (0,1), bd (-1,1). Funkcja aktywacji zwracajca wartoci z zakresu (0,1) nazywane s unipolarnymi, te za, ktre zwracaj wartoci z przedziau (-1,1) nazywane s bipolarnymi. Poniej przedstawiam postaci najczciej spotykanych funkcji aktywacji, zarwno dyskretnych (u gry), jak i cigych (u dou), unipolarnych (po lewej) i bilpolarnych (po prawej). Warto podkreli zaleno przebiegu wartoci poniszych funkcji od parametru <math>\lambda</math>.
Sieci neuronowe
Dysponujc podstawow jednostk budulcow, modelem pojedynczego neuronu, mona pomyle o poczeniu ich w sie. Sieci jednokierunkowe to takie, w ktrych sygna przechodzi przez kady z neuronw tylko raz. Ze wzgldu na ilo poczonych po kolej neuronw, mona wyrni: sieci jednowarstwowe, Rysunek 4. Sie jednokierunkowa Rysunek 5. Sie jednokierunkowa jednowarstwowa rysunek 4 (jeden wielowarstwowa lub wicej neuronw, przez ktre sygna przechodzi w tym samym czasie), sieci wielowarstwowe, rysunek 5 (spotykane w rzeczywistych sytuacjach; warstwy dziel si na wejciow, wyjciow, a wszystko pomidzy nimi nazywamy warstwami ukrytymi),
3z6
2011-06-13 15:56
http://wiki.ega.org.pl/index.php?title=Sztuczne_sieci_neuronowe&print...
Sieci rekurencyjne to takie, w ktrych istnieje sprzeenie zwrotne. Poczenia midzy neuronami stanowi graf z cyklami. Innymi sowy, wartoci wyj neuronw z dalszych czci sieci stanowi cz danych wejciowych dla wczeniejszych jej czci.
Konwencja uyta przy numerowaniu wag dla neuronw w kolejnych warstwach polega na zapisaniu dwch liczb w indeksie dolnym, z ktrych pierwszy mwi o numerze warstwy (ukrytej), drugi za o numerze neuronu, tj. <math>w_{j,i}</math>: j-numer warstwy, i-numer neuronu. Nie ma przy tym adnego powodu, aby zakada, e poszczeglne warstwy posiadaj t sam ilo neuronw. Co wicej, istnieje wiele metod majcych na celu optymalizacj iloci neuronw w sieci. Ideowo ich dziaanie mona przedstawi jako sukcesywne usuwanie tych elementw, ktrych wpyw na ostateczny wynik jest zaniedbywalny.
Uczenie z nauczycielem
Regua perceptronowa sieci dyskretnej Regua ta dziaa dla pojedynczego neuronu dyskretnego. Definiuje si funkcj bdu e(k) bdc rnic pomidzy wartoci oczekiwan d(k), a t zwrcon przez sie y(k): <math> e(k) = d(k) - y(k) </math> W zalenoci od wartoci funkcji bdu, wzmacnia bd osabia si wagi neuronu:
4z6
2011-06-13 15:56
http://wiki.ega.org.pl/index.php?title=Sztuczne_sieci_neuronowe&print...
e(k)>0 - wzmocnienie wag, e(k)<0 - osabienie wag. Korekcja moe przebiega przykadowo wg poniszej reguy: w_i(k+1) = w_i(k) gdy y(k) = d(k) w_i(k+1) = w_i(k)+x(k) gdy y(k) = -1, d(k) = +1 w_i(k+1) = w_i(k)-x(k) gdy y(k) = +1, d(k) = -1 Celem metody jest taka zmiana wag, aby dla kadego wektora wejciowego e(k) byo rwne zeru, dla wszystkich kolejnych krokw uczenia. Regua Widrowa-Hoffa Regua ta stanowi uoglnienie reguy perceptronowej dla sieci zoonej z zarwno neuronw cigych jak i dyskretnych. W metodzie tej korekcja wag nastpuje wg poniszych zalenoci <math>w_{ij}(k+1) = w_{ij}(k) + \Delta w_{ij}(k)</math> <math>\Delta w_{ij}(k) = x_j(k) ( d_i(k) - y_i(k) ) </math> Prowadzi to do minimalizacji rnic pomidzy wartociami <math>y_i</math> i <math>d_i</math>, co mona rwnoznacznie zapisa jako minimalizacj pewnej kwadratowej funkcji celu: <math>FC = \sum_{k=1}^{p} ( y_i(k) - d_i(k) )^2</math> gdzie p oznacza liczb krokw w procesie uczenia.
5z6
2011-06-13 15:56
http://wiki.ega.org.pl/index.php?title=Sztuczne_sieci_neuronowe&print...
gdzie wspczynnik c to tak zwana staa uczenia decydujca m.in. o szybkoci i dokadnoci procesu nauki. Warto zapamita, e w wyniku uczenia wartoci wag neuronu bd odpowiada urednionym wartociom wektorw wejciowych, dla ktrych zadany neuron by zwycizc. WTM (ang. Winner Takes Most) Zasada gosi, e w danym kroku procesu nauki neuron wygrywajcy uaktywnia si w sposb maksymalny, za jego najblisi ssiedzi uaktywniaj si tylko czciowo. Pozostae neurony nie s aktywne podczas tego kroku. W regule tej staa c wystpujca w metodzie WTA zamieniona jest na funkcj okrelajc stopie ssiedztwa pomidzy neuronem-zwycizc a pozostaymi neuronami w warstwie. Przykadowo, funkcja taka mogaby wyglda jak:
<math> h(i, i^*) = 1 dla i = i^* </math> <math> h(i, i^*) = 0.35 dla |i = i^*|=1 </math> <math> h(i, i^*) = 0 dla |i - i^*| > 1 </math>
<math> h(i, i^*) = \frac{1}{\rho(i, i^*)} dla \rho(i, i*) </math> Tytu linku rdo http://wiki.ega.org.pl/index.php?title=Sztuczne_sieci_neuronowe T stron ostatnio zmodyfikowano 14:42, 15 gru 2009.
6z6
2011-06-13 15:56