You are on page 1of 8

sieci neuronowe Strona 1 z 8

Opis wyników uzyskanych przy symulacji


klasyfikujących sieci neuronowych

Jacek Lewiński
Społeczna Wyższa Szkoła
Przedsiębiorczości i Zarządzania w Łodzi
Studia II letnie magisterskie uzupełniające
Grupa projektowa nr 4
nr indeksu: 50564

Łódź 22.11.2010
j.lewinski@gmail.com
sieci neuronowe Strona 2 z 8

Wstęp
Dokument stanowi opis wyników uzyskanych przy symulacji klasyfikujących sieci neuronowych dla
podanych struktur sieciowych. Obliczenia wykonywane były programem Sharky Neural Network 0.9 Beta. Technika
obliczeń zawarta w programie inspirowana jest biologiczną siecią neuronów w ludzkim mózgu. Sieć ta klasyfikuje
punkty na płaszczyźnie do dwóch różnych klas (żółtej i niebieskiej). Nie klasyfikuje i nie rozpoznaje kształtów!
Obserwowane kształty są wizualizacją klasyfikacji punktów. Sieć rozpoznaje czy punkt na płaszczyźnie (wektor
opisany dwiema liczbami rzeczywistymi) jest niebieski czy żółty. Każdy neuron posiada bias oraz używa bipolarnej
sigmoidalnej funkcji aktywacyjnej (f(x)=2/(1+e-ßx)-1). Program obrazuje zmiany krzywej uczenia się naszej sieci.

j.lewinski@gmail.com
sieci neuronowe Strona 3 z 8

Opis wyników obliczeń:


Ćwiczenie nr 1 (test nr 1) odwzorowanie graficzne w kształcie „buźki”.
Ustawiono następujące parametry sieci:
- Rodzaj sieci neuronowej:
- Network Structure: 2:5:5:5:2

j.lewinski@gmail.com
sieci neuronowe Strona 4 z 8

Ustawione parametry badanej sieci:


Nazwa właściwości Wartość Uwagi
Zakładka Network
Network structure 2:5:5:5:2
Zakładka „Learn”
Order Swapping Permutation
Premphase Error nie zaznaczono
Verify nie zaznaczono
współczynnik uczenia „ni” 0.90
Auto Decrease 0.891
Down Rate 0.99977
„ni” minimal 0.015
Momentum zaznaczono
Alpha 0.50
Zakładka „Draw”
Draw 2G Graph 10 frames per s.

j.lewinski@gmail.com
sieci neuronowe Strona 5 z 8

Obserwujemy zmieniające się w wektorze czasu wagi poszczególnych parametrów.


Wyniki dla 1 testu
po czasie - 14 sekund
po przebiegu 3564 - Epochs
z procentem błędów - 6.80%
współczynnik uczenia „ni” - 0.015
Abs Weights
Max. 28.89 24.84 20.63 5.036
Min. 2.016 0.843 0.120 2.412
AAM. 13.10 0.843 6.341 4.089
RMS 16.48 10.80 8.472 4.184
Abs Bias
Max. 9.302 9.240 7.577 9.102
Min. 2.013 2.064 0.480 9.102
AAM. 6.108 4.326 2.907 9.102
RMS 6.620 5.008 3.815 9.102

j.lewinski@gmail.com
sieci neuronowe Strona 6 z 8

Wyniki dla 2 testu


Użyto odwzorowania (wizualizacji) w kształcie symbolu Ying Yang.

Ustawione parametry badanej sieci:


Nazwa właściwości Wartość Uwagi
Zakładka Network
Network structure 2:10:2
Zakładka „Learn”
Order Swapping Permutation
Premphase Error nie zaznaczono
Verify nie zaznaczono
współczynnik uczenia „ni” 0.90
Auto Decrease 0.891
Down Rate 0.99977
„ni” minimal 0.015
Momentum zaznaczono
Alpha 0.50
Zakładka „Draw”
Draw 2G Graph 10 frames per s.

j.lewinski@gmail.com
sieci neuronowe Strona 7 z 8

po czasie - 7 sekund
po przebiegu 2612 - Epochs
z procentem błędów - 3.00%
współczynnik uczenia „ni” - 0.015

Abs Weights
Max. 31.70 9.491
Min. 0.965 0.048
AAM. 11.92 6.016
RMS 14.72 6.729
Abs Bias
Max. 10.83 1.182
Min. 0.178 1.129
AAM. 3.556 1.156
RMS 4.881 1.156

Koniec symulacji możemy określić za pomocą ilości przeliczanych epok lub ustalając granicę błędu przy
której symulacja ma się zatrzymać. W podanym przykładzie zatrzymanie przeliczania algorytmów ustalamy na
poziomie 3% błędu. Pożądaną wizualizację klasyfikacji punktów otrzymujemy już po siedmiu sekundach.

Wyniki dla 3 testu


Użyto odwzorowania (wizualizacji) w kształcie symbolu Ying Yang

j.lewinski@gmail.com
sieci neuronowe Strona 8 z 8

Ustawione parametry badanej sieci:


Nazwa właściwości Wartość Uwagi
Zakładka Network
Network structure 2:10:2
Zakładka „Learn”
Order Swapping Permutation
Premphase Error nie zaznaczono
Verify nie zaznaczono
współczynnik uczenia „ni” 0.90
Auto Decrease 0.891
Down Rate 0.99977
„ni” minimal 0.015
Momentum zaznaczono
Alpha 0.50
Zakładka „Draw”
Draw 2G Graph 10 frames per s.

po czasie - 7 sekund
po przebiegu 2612 - Epochs
z procentem błędów - 3.00%
współczynnik uczenia „ni” - 0.015

Abs Weights
Max. 37.61 12.75
Min. 1.624 0.960
AAM. 16.38 6.543
RMS 19.31 7.461
Abs Bias
Max. 14.46 2.587
Min. 0.082 2.466
AAM. 5.625 2.527
RMS 7.328 2.528

W podanym przykładzie zatrzymanie przeliczania algorytmów ustalamy na poziomie 3% błędu. Ustalony


poziom błędu uzyskaliśmy po 20 sekundach. Wizualizacja Ying Yang nie jest tak dokładna jak w poprzednim
przykładzie.

j.lewinski@gmail.com

You might also like