Professional Documents
Culture Documents
Grzegorz Adametz
Gdańsk 2009
Spis treści
Wprowad ze nie 4
E r o s i L ogo s 5
I n s pi r a cje 8
Tek s t y ź r ó d łowe 9
P r a g m at y z m , s e m iot yk a , st r u k t u r a l i z m 10
Część I
Sztuka i Nauka 14
1.1. Ws p ól ny m ia now n i k 15
1. 2 . H ie r a r ch ia o d k r yć 16
1.3. D y fe r e ncja sz t u k i i n au k i 17
1.4. M at e r ia ł ba d a ń m at e m at yk i 21
Część II
Inf lacja ogólności idei 23
2 .1. Poję ci a o gól ne 24
2 .1.1. St r u k t u r y ogól ne 24
2 .1. 2 . D ef i n icja p r z ez a b st r a kcję 25
2 .1.3. G e nez a m at e m at yk i 27
2 .1.4. G e nez a a k sjom at yk i 27
2 . 2 . Uo gól n i a n ie p oję ć ge ome t r i i 29
2 . 2 .1. Ele me nt y Eu k l id e s a 29
2 . 2 . 2 . Mo dy f i k a cje piąt ego a k sjom at u 30
2 . 2 .3. Uogól n ie n ia p oję cia p r z e st r z e n i 30
2 . 2 .4. Pa sja Ba n a ch a 32
2 . 2 .5. P r og r a m e rla nge ń sk i 33
2 . 2 .6. To p olog ia 34
2 . 2 .7. Ur z ą d z e n ia st e r ują c e 35
2 . 3. St r u k t u r y ge ome t r yc z ne 37
2 .3.1. Sk r z y w ie n ia p r o st ej 37
2 .3. 2 . Pa r k ie t a r z 39
2 .3.3. K r yst a log r a f ia 43
2 .3.4. Te n s or y 45
2 .3.5. G ła d ko ś ć k r z y wej 47
2 .3.6. M at e m at yk a wob e c ch a o s u 50
2 . 4 . Uo gól n ien i a p oję ci a l ic z by 52
2 .4.1. Te or ia m nogo ś ci 52
2 .4. 2 . Si f r von Ne u m a n n a 53
2 .4.3. Su kc e s y n a r z ę d z i m at e m at ycz nych 54
Część III
Język matematyki 56
3.1. Poz n a n ie m at e m at ycz ne 57
3. 2 . Po d st aw y p oz n a n ia m at e m at yk i 58
3.3. Z n a k i m at e m at ycz ne 58
3.4. For m a l i z m w t a r ap at a ch 59
3.5. Og r a n icz e n ia log i k i dw uwa r t o ś ciowej 60
3.6. Z a st o s owa n ie log i k i dw uwa r t o ś ciowej 62
3.7. L og i k i a lt e r n at y w ne 62
3.8. L og i k a i nt u icjon i st ycz n a 63
3.9. L og i k a r oz my t a 64
3.10. Pole m i k a z p oję cie m l iczb Br ouwe r a 64
3.11. Liczby a cy f r y 66
3.12 . Rozbu dowa s yst e mu not a cji 67
3.13. Z m ie n n a l i ng w i st ycz n a 69
3.14. Og r a n icz e n ia i sk ut e cz no ś ć ję z yk a s y mb ol icz nego 71
Część IV
Estetyka działań intelektualnych 72
4.1. O d p ow ie d n ia st r u k t u r a 73
4. 2 . K r e a cja i u ż y t kowa n ie p r og r a mu 74
4.3. Fu n kcjon a l no ś ć, a pię k no 75
4.4. P ię k no id ei 76
4.5. O d k r y wcy now ych s e n s ów 76
4.6. I lu m i n a cja 78
4.7. St o s u nek cz ę ś ci do c a ło ś ci 81
Wyprowadzenie 83
Wyob r a ź n ia , a r z e cz y w i st o ś ć 84
E d u k a cja wob e c konwe ncjon a l i z mu 85
O d r o d z e n ie e pi st e molog i i 87
Lu d z k i st o s u nek do r z e cz y 88
Bibliograf ia 92
Źródła internetowe 93
Wprowad zenie
5
E ro s i L o g o s
Przyjemność wyzwalana przez dostrzeganie piękna, w mniejszym lub większym stopniu
znana jest wszystkim ludziom. Wrażliwość na piękno związana jest z podstawowymi funkcjami
ustroju, a mianowicie z pociągiem seksualnym, który jest mechanizmem niezwykle istotnym
dla zakodowanej genetycznie skłonności organizmów biologicznych do reprodukcji. Z tego
względu wielu psychologów traktuje działalność artystyczną jako ujście dla wybujałego po-
pędu seksualnego twórcy. Z kolei teoretycy sztuki często zwracają uwagę na erotyczne motywy
występujące obficie w dziełach sztuki w sposób zakamuflowany, lub dosłowny. Odbiorcy na-
tomiast odczuwają zadowolenie, porównywane z satysfakcją seksualną, doświadczając piękna
przeżywanych kompozycji.
Szczególnie wyraźnie związek ten zarysowuje się w odbiorze dzieł abstrakcyjnych.
Kompozycji muzycznych lub plastycznych, które w swej formie nie odnoszą się bezpośrednio
do wyrażanych idei, lecz działają na odbiorcę przede wszystkim jakościami zmysłowymi prze-
kazanymi za pomocą formy. Taki sposób odbierania dzieła nie wymaga od odbiorcy znajomości
kontekstu kulturowego ani historii sztuki. Walory dekoracyjne dzieł plastycznych i przedmiotów
użytkowych są powszechnie dostrzeganym przejawem piękna. Choć profesorowie nauczający
sztuk pięknych często traktują te wartości jak należące do niższego rzędu, to teoretycy estetyki
zajmują się nimi przede wszystkim.
Formalna warstwa analizy skupiona jest na fizycznych właściwościach obiektów, oraz
fizjologii i psychologii percepcji tych właściwości. Nie sposób jednakże całkowicie pozbawić
ją kontekstu kulturowego. Wpływ uwarunkowań kulturowych może w dużym stopniu determi-
nować częstotliwość wykorzystywania jednych form i unikania innych. Na wpływ ten podatne
są również mechanizmy percepcyjne odbiorców, u których uwarunkowania kulturowe kształtują
swoiste nawyki spostrzeżeniowe.
Dobrym przykładem takiego nawyku, z którym miałem nieprzyjemność stykać się dość
często, jest poszukiwanie w obrazach abstrakcyjnych form znanych z codziennego doświad-
czenia. W układzie plam i linii odbiorcy szukają na zasadzie ikonicznego podobieństwa
np.: ryby lub ptaka. Przez odbiorców posiadających ten nawyk często odnajdywane jest po-
dobieństwo abstrakcyjnej formy do twarzy. Jest to najprawdopodobniej atawizm wynikający
z faktu, że twarz jest pierwszą formą rozpoznawalną w okresie niemowlęcym.
6
Ten ograniczony sposób percepcji ugruntowany jest w naszej kulturze wielowiekową tra-
dycją reprezentacji, ukoronowaniem której jest obecnie najpopularniejsza ze sztuk - film. Choć
każdy z nas widział prawdopodobnie choć jeden film abstrakcyjny, najczęściej jako ilustrację
muzyki, to chyba wszyscy się zgodzą, że w telewizji takie filmy to tylko margines.
Tuż obok cywilizacji europejskiej, rozwijała się kultura Islamu, w której sytuacja jest z goła od-
mienna. Radykalna interpretacja drugiego z biblijnych boskich przykazań zakazywała naśladow-
nictwa form naturalnych we wszelkiej twórczości plastycznej. Ograniczenie to doprowadziło do
wielkiego rozkwitu form dekoracyjnych. W Europie natomiast, ornamentyka przeżywała fazy roz-
kwitu w epokach, które ceniły sobie dekoracje architektoniczne. Jednak pozostawała w domenie
rzemiosła nie równającego się z tak zwaną sztuką wysoką - wyrażającą idee religijne i społeczne
w scenach figuratywnych.
Fascynacja sztuką dalekiego wschodu, której uległo wielu artystów na początku dwudzie-
stego stulecia doprowadziła do przeniknięcia motywów zdobniczych do malarstwa sztalugo-
wego. Dzieła powstałe w wyniku tego procesu zderzały się z ostrą krytyką tradycjonalistów.
”Ponieważ ornament nie jest już dłużej spójną, organiczną częścią naszej kultury to nie może
być też dłużej środkiem wyrazu naszej kultury.”1 pisał Adolf Loose krytykując środki wyrazu
Gustava Klimta. Powrót do pierwotnych wartości w sztuce Art Nouveau objawiał się również
eksploatacją tematyki erotycznej. Ze względów obyczajowych wywoływało to silny sprzeciw
krytyków. Erotyzm i dekoracyjność były dwoma symptomami powrotu artystów do środków
wyrazu najbardziej bezpośrednio działających na zmysłowość widza.
Z tego też względu uważam, że piękno jest wartością, osiągalną dla każdego, kto zechce po-
święcić mu choć trochę uwagi. Odbiorcy form dekoracyjnych nie są zmuszeni do angażowania
swego intelektu w przeżywaniu ich piękna.
Inaczej jest z twórcami. W przypadku naśladownictwa natury — przy odtwarzaniu
zaobserwowanych jakości wizualnych racjonalne myślenie jest niezbędne. Bierze ono udział
w procesie porównywania obserwowanej rzeczywistości ze stwarzaną plastyczną reprezen-
tacją. Podczas ich przetwarzania obserwator może, acz nie musi być bardziej zaangażowany w
procesy twórcze. Sądzę, że projektowanie form abstrakcyjnych takich jak ornamenty wymaga
większego zaangażowania sił intelektualnych. W przypadku konstruowania form nienatural-
nych intelekt niezbędny jest dla zatrzymania wizji w określonych granicach. W niektórych przy-
padkach może być nawet prowodyrem tych wizji. Przykładem niech będzie tu znakomity grafik
M. C. Escher dla którego niejednokrotnie problem matematyczny był przewodnią inspiracją
dla powstania plastycznej kompozycji.
Narzędzia matematyczne okazują się niezbędne dla wykreowania pewnych typów kompo-
zycji, a ponad to znajdują szerokie zastosowanie w analizie formalnej dzieł sztuki. Niestety stu-
denci sztuk pięknych stykają się z matematyką nader rzadko. Najlepiej znana jest im geometria
rzutowa na płaszczyźnie, która stanowi, będący w powszechnym użyciu, język rysunku tech-
nicznego. Pozwala on za pomocą wskaźników szczegółowo opisać właściwości przestrzenne
obiektów trójwymiarowych.
Pojęciem podstawowym zarówno w plastyce, jak i w geometrii jest linia. Problematyka zwią-
zana z pojęciem linii i jej percepcją wiąże ze sobą odbiór motywów erotycznych i dekoracyj-
nych. W ten mianowicie sposób, iż właśnie postrzeganie płynności linii daje nam ten szczególny
rodzaj satysfakcji, wynikający z zachwytu nad formą. Dostrzegane w ten sposób piękno nie
jest raczej właściwością rzeczywistości zewnętrznej. Kontur jest skłonnością umysłu — na-
rzędziem formowania kształtu. Wrażenie obserwatora umożliwiające wyodrębnianie mniejszej
całości w całości większej, jest ważnym środkiem orientacji w świecie przedmiotów.
Dewey pisze o liniach:
„(…) przyroda nie przedstawia nam odosobnionych linii. Są one, tak jak ich doświadczamy, za-
rysem przedmiotów, stanowią granicę rzeczy. Określają kształty, po których normalnie pozna-
jemy otaczające nas przedmioty. Dlatego linie przekazują znaczenie przedmiotów. (…) linie
określają przedmioty i wyznaczają ich granice, ale równocześnie łączą je wzajemnie i wiążą ze
sobą. Uderzywszy się o ostry kant, łatwo ocenić trafność określenia kąt ostry”2 .
Przypadek linii, jako konturu określającego kształt przedmiotu, opisywałem w mojej pracy
licencjackiej O zdolności operowania kształtami. Wykazałem w niej, że kontur stanowi pojęcie
kluczowe dla zrozumienia procesu formowania się wyobrażenia i wrażenia kształtu. Jest rów-
nież podstawowym narzędziem opisu plastycznego kształtu. W przypadku konstruowania form
abstrakcyjnych, takich jak ornamenty, zachodzi fascynujące mnie zjawisko prowadzące do ob-
razowej konkretyzacji abstrakcji. Z drugiej strony abstrakcyjne ujęcie spostrzeżeń zmysłowych,
jakie serwuje nauka, jest równie fascynujące.
2 John Dewey, Sztuka jako doświadczenie, Wydawnictwo Polskiej Akademii Nauk, Gdańsk 1975, s. 123
8
I n s pi r ac j e
Idea tej pracy narodziła się z rozważań porównujących pewne tendencje w sztuce z roz-
wojem nauki i dostrzegania między nimi związków. Rozważałem podjęcie się próby odnale-
zienia bezpośrednich inspiracji artystów nauką. Wątpliwość, czy mimo oczywistego podobień-
stwa jakiejś idei artystycznej do naukowej można zawsze przypisać artyście taką inspirację,
zrodziła we mnie pewne przypuszczenie. Takie mianowicie, że stopień rozwoju kultury wpływa
na poszukiwania sensów prowadzone przez jednostki. Metaforycznie możnaby powiedzieć, że
współtwórcy społeczeństwa dojrzewają wspólnie do konkretnej idei. Argumentem, może być
znany powszechnie fakt — zdarzało się nie raz, że tego samego odkrycia dokonali niezależnie
od siebie r óż n i lu d z ie w t y m s a my m cz a sie.
Tytuł pracy wskazuje po pierwsze na poszukiwanie oznak piękna. Poszukiwania te prowadzę
wśród skodyfikowanych przejawów działalności intelektualnej, a szczególnie w metodologii
nauk ścisłych i geometrii. Nauka ma dostarczać nam funkcjonalnej wiedzy. Choć nie zawsze
jesteśmy w stanie wykorzystać praktycznie nowe odkrycia naukowe, to nie ma rozwoju techniki
bez nauki. Wiedza naukowa jest więc ściśle związana z historycznym rozwojem cywilizacji.
Wiedza ta odróżnia się od mądrości ludowej, czy prawd objawionych. W zależności od
punktu widzenia uznawana jest za jedyną prawdziwą, bądź też stanowi podzbiór w zbiorze
wiedzy, obok innych baz danych, takich jak wymienione powyżej dla przykładu. Wiedza na-
ukowa odróżnia się charakterystycznym sposobem jej zdobywania i przekazywania. Wyrażenie
metody kodowania, zawarte w tytule wskazywać ma, że w niniejszej pracy interesuje mnie
wiedza zkodyfikowana i w niej to właśnie poszukiwać będę wartości estetycznych.
Okazało się, że moja wiedza z zakresu historii nauk ścisłych wymaga uzupełnienia, co też
chętnie czynię. Stwierdziłem wkrótce, że w pracy magisterskiej nie dążę do wykorzystania wiedzy
przekazanej w wyniku edukacji na uczelni, lecz do uzupełnienia jej o ten materiał, którego moim
zdaniem najbardziej w niej brak. Okazały się nim: podstawy logiki i metodologii nauki, prag-
matyzmu i materializmu, oraz zagadnienia związane z rozwojem matematyki w XX wieku.
Druga i trzecia część tej pracy jest po części rysem historycznym rozwoju tych nauk. Myślę,
że mogłaby stanowić podstawę do skonstruowania treści wykładu z historii matematyki, jaki
moim zdaniem powinien zawierać się w materiale programu filozofii na uczelni humanistycznej.
Niestety, tak się nie raz zdarza, że ogólna wiedza z zakresu rozwoju nauk ścisłych osób
wykształconych na uczelniach humanistycznych bywa dość uboga. Pewnego razu studentka
psychologii, (osoba inteligentna i oczytana w swojej dziedzinie), uważająca się za oświeconą
realistkę, zaskoczyła mnie stwierdzeniem, że wszystko przecież da się obliczyć. Niewiedza
taka prowadzi do fałszywej wizji współczesnych badań naukowych, co z kolei u przedstawi-
cieli nauk ścisłych wzbudza uzasadnione opinie o ignorancji humanistów. Ci drudzy często od-
wdzięczają się tym samym.
Co należałoby zrobić, aby zminimalizować ten konflikt? Obie ze stron powinny poświęcić
uwagę na popularyzowanie wiedzy z zakresu swojej dziedziny w sposób komunikatywny dla
strony przeciwnej. Cel ten można osiągnąć tworząc opracowania ogólne i redukując w nich
ścisłą terminologię. Nie jest to zadanie proste — duże jest ryzyko zbytniego spłycenia pre-
zentowanej teorii. Przekład języka specjalistycznego na potoczny wyklucza możliwości przed-
stawienia niektórych zagadnień. Publikacje popularnonaukowe należy czytać w sposób bardzo
9
Te k s t y ź ró d ł ow e
Wybór odpowiedniej metodologii wzbudza we mnie szereg wątpliwości, których rozwiązanie
zajęłoby kilkanaście miesięcy i kilkadziesiąt stron tekstu. Podstawowa wątpliwość streszcza się
w pytaniu: czy możemy poznać przedmiot badany? Wiążą się z nim kolejne: na ile możemy go
poznać; w jaki sposób, czy dowiemy się prawdy? Prowadzi to do pytań charakterystycznych dla
epistemologii, psychologii poznawczej i kognitywistyki.
Dlatego też we wspomnianej pracy licencjackiej poświęciłem rozdział na rozważenie
zagadnień związanych z poznaniem i w niniejszej pracy powracające rozważania na ten temat
będą stanowić istotny element. Moja praca ma charakter teoretycznych studiów nad literaturą,
a w niektórych jej fragmentach oddaję się analizie pojęć, lub procesów ich generowania.
Spośród źródeł internetowych korzystałem głównie z Wikipedii. Źródło to może budzić
wątpliwości co do rzetelności ze względu na otwarty charakter zamieszczanych artykułów.
Starałem się więc w miarę możliwości, porównywać treści z innymi źródłami. Encyklopedyczny
charakter czyni to źródło przydatnym przy przytaczaniu definicji. Hipertekstualny charakter
pozwala na łatwe poszerzanie wiedzy w wybranym kierunku. Wikipedia jest kontynuacją idei
przyświecającej twórcom internetu, który miał być przestrzenią wymiany informacji.
Przydatny okazał się też bardzo mały słownik matematyczny i słownik wyrazów obcych, którymi
posługiwałem się dla objaśnienia terminów mogących sprawiać trudności czytelnikom.
Spośród źródeł zarekomendować pragnę stronę prowadzoną przez profesora filozofii
Uniwersytetu Marii Curie - Skłodowskiej w Lublinie Wojciecha Sady. Odróżnia się od wielu innych
stron profesorskich, z których wiele zawiera jedynie programy wykładów. Strona zatytułowana
3 Imanuel Kant, Antropologia w ujęciu pragmatycznym, Wydawnictwo IFiS PAN, Warszawa 2005, s. 301
4 Na u k i wg ł ę b ien io w e to futurystyczna idea z literatury Stanisława Lema
I n spe r t to uczony biegły w fazie wgłobienia nauki
zobacz: http://solaris.lem.pl/content/view/136/96/1/1/, 2009-04-11
10
Dzieje religii, filozofii i nauki, zawiera doskonały chronologiczny spis największych wydarzeń
z całej znanej historii myśli. Dodatkowo osobny dział poświęcony jest dziełom Wittgensteina,
o którym profesor Sady napisał książkę. Dla mnie inspirujący niezmiernie był inny tekst:
Spór o racjonalność naukową.
Wykorzystywałem też czasem opracowania studentów dowolnych uczelni, które ze względu
na swój ogólnikowy, pobieżny charakter są bardziej przystępne od opracowań profesorskich.
Przydatne więc były w przypadku zagadnień, które chciałem zaprezentować i szerzej nie rozważać
w ich pierwotnym kontekście.
P r ag m at y z m , s e m i o t y k a , s t ru k t u r a l i z m
Spośród bibliografii niniejszej pracy, chciałbym na wstępie wyróżnić dwie pozycje, które
przyjąłem za podstawowe dla mojego wywodu; zakładając trafność przedstawionych w nich
teorii ze względu na zgodność z moim sposobem rozumowania. Są to lektury, którym poświę-
ciłem wiele godzin, przez cały czas studiów wracając do nich chętnie.
Pierwsza z nich należy do spisu lektur zalecanych na kierunku edukacji artystycznej. Jest nią
Sztuka jako doświadczenie, autorstwa Johna Dewey (1859–1952) Był on pedagogiem, filozofem,
twórcą pragmatycznej estetyki. Wymieniona książka powinna wzbogacać artystę o większą
świadomość tego jak tworzy, a każdego odbiorcę sztuki o większą wrażliwość przy obcowaniu
z dziełami. Natchniony wywód Dewey’a może dostarczyć wielu wzruszeń.
Wartość sztuki widzi Dewey w jej funkcji wzbogacania doświadczenia. Proces twórczy
rozpatruje on przez pryzmat procesów psychicznych, jako kontrolowaną ekspresję. Pisze też
o aktywności odbiorcy, postrzegającego każdą rzecz nową przez pryzmat zgromadzonych do-
świadczeń. Dzieło sztuki może wzbogacać zasób doświadczeń i to świadczy o jego wartości.
Nie ogranicza wartości estetycznych do wyników kontemplacji formy; wskazuje, że dzieła to
nośniki idei. Dlatego dzieło jest odbierane w całej swej krasie, gdy odbiorca zna kulturowy kon-
tekst interpretacji zawartych w nim treści. Przykładowo architektura odpowiada praktycznie
na społeczne potrzeby. Funkcjonalizm budowli wzbogacany jest wartością estetyczną, zawartą
w formalnym sposobie wyrażenia jej słuszności. Rzeźba natomiast przekazuje to, co ludzie
pragną utrwalić, inaczej wskazuje, jakie wartości uważają za trwałe.
Max Bense (1910–1990) jest mniej znaną osobistością. To niemiecki filozof, semiotyk, logik,
fizyk i pisarz. Kontynuuje on ideę triadycznej koncepcji znaku, którą sformułował Charls Sanders
Peirce (1839–1914). Świat przez pryzmat znaku to pozycja trudna w odbiorze, sporo w niej macierzy
i słów, których definicje trudno odnaleźć.
Wszystkie terminy za wyjątkiem środka przekazu autor przejął od Peirce’a. Jeśli więc
elementami triadycznej relacji konstruującej znak
u Peirce’a są: podstawa znaku, przedmiot i z naczenie;
u Bense’a są to: środek przekazu, przedmiot i znaczenie.
Podstawa może być abstrakcyjno–umysłowa, zaś nośnik (środek przekazu) jest zawsze
konkretno–zmysłowy5. Podstawa znaku to idea, ze względu na którą znak reprezentuje
przedmiot dynamiczny.
Qualisignum
Środek pobrany
1 Sensisignum Możliwość
z danego repertuaru
Legisignum
przedmiotowego Symbol
Rhemat
Interpretant wewnętrzny
3 Dicent Konieczność
w określonym kontekście
Argument
Źródło: opracowanie własne na podstawie: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 80
Mo d a l n y — dotyczący rodzaju, sposobu bycia, istnienia czegoś; odnoszący się do stopnia pewności sądu.
Przy pomocy wyrazu zbiór dokonuje się tematyzacji w teorii przedmiotu, a przy pomocy
wyrazu kategoria — w teorii znaku6. Połączenie tematyk realności, umożliwia precyzyjne
sformułowanie semiotycznej teorii rzeczywistości teoriopoznawczej7. Narzędziem umożliwia-
jącym przeprowadzenie tego zadania jest prezentowany przez Bense’a system klas znaków
i semiotycznych tematyk realności.
Warto przypomnieć definicje poszczególnych elementów trychotomii. W pracy mojej korzy-
stam czasem jedynie z określeń z drugiej kategorii, które określają w jaki sposób reprezentant od-
nosi się do interpretanta. Definicje podaję za słownikiem stanowiącym uzupełnienie cytowanego
wydania dzieła Bense’a8.
6 Max Bense, Świat przez pryzmat znaku, Państwowy Instytut Wydawniczy, Warszawa 1980, s. 157
7 Tamże, s. 159
8 Tamże, s. 185-193
12
│K a t e g o r i a 1
• Q u a l i sig nu m — Jakość zmysłowa występująca jako środek przekazu. Jest znakiem
samym przez się, nie odniesionym jeszcze do żadnego przedmiotu. Jest dostępne percepcji
zmysłowej, lecz nie jest obiektem żadnego spostrzeżenia, gdyż nie posiada konkretności.
Jest to jedynie możliwość stania się środkiem przekazu.
• Se n si sig nu m — Konkretne zdarzenie, lub przedmiot służący jako środek przekazu.
• L eg i sig nu m — Abstrakcyjny środek przekazu, jest to znak ogólny,
poza przestrzenny i ponad czasowy, na przykład pojęcie.
│ K a t e g o r i a 2 │ K a t e g o r i a 3
• I kon — Znak który odnosi się do przedmiotu na mocy podobieństwa.
• I nd ek s — Znak wskazujący na istnienie oznaczonego nim przedmiotu,
związany z nim zależnością przyczynową; inaczej wskaźnik.
• Sy mb ol — Znak konwencjonalny, to jest reprezentujący przedmiot na mocy
konwencji o węższym lub szerszym zasięgu.
Peirce znany jako twórca semiotyki jest również prekursorem pragmatyzmu. William James
poświęca się ścisłej definicji pragmatyzmu jako kierunku filozoficznego. Wykład Co to znaczy
pragmatyzm?10 zaczyna od anegdoty, a następnie zwraca uwagę na artykuł Peirce’a opubliko-
wany w Popular Science Monthly w 1878 roku pod tytułem Jak uczynić jasnymi nasze idee.
”Peirce, po wykazaniu, że wszystkie nasze przeświadczenia są w rzeczywistości prawidłami
postępowania, twierdzi, że dla rozwinięcia znaczenia jakiejś myśli wystarczy tylko wskazać
postępowanie które z niej wynika (…)”11. Skupienie się na praktycznych skutkach zastosowania
naszych pojęć do odpowiednich przedmiotów i działań stwarza sytuację, w której teorie stają
się narzędziami, a nie satysfakcjonującymi odpowiedziami na postawione pytania12.
Tak więc obie z kluczowych dla mojej pracy inspiracji to publikacje związane ściśle z filo-
zofią pragmatyzmu. Obok narzędzi semiotycznych, których podstawy streściłem na poprzed-
nich stronach, inną charakterystyczną metodą wypracowaną w myśl filozofii pragmatyzmu jest
strukturalizm, mający również źródła w analizie języka.
13 No m ol og i a — nauka o prawach nauki, przeciwieństwo fenomenologii. podaje za: Słownik wyrazów obcych,
pod red. Doc. dr Jana Tokarskiego, Państwowe Wydawnictwo Naukowe, Warszawa, s. 515
14 Michalina Błędzka, Adrianna Weber, Maciej Sendłak, Metodologia nauk, 6.5. Wyjaśnianie strukturalne
http://rowerowy.szczecin.pl/f/pliki/3ci/skrypty/ Modelowanie.doc, 2009-04-10
Niniejszy dokument, zawiera szczegółowy przegląd zagadnień z zakresu metodologii nauk.
Część I
1. Sz t u ka i Nau ka
15
Czy w działalności intelektualnej pojawiają się jakości estetyczne i na czym może polegać
ich rola? Poszukując odpowiedzi na te pytania rozważę, jakie wartości odgrywają znaczenie
w działalności naukowej i w jaki sposób determinują one rozwój badań naukowych. Materiałem
stanowiącym podstawę dla tych rozważań będzie metamatematyka15.
Uważam, że ze względu na swój wielce abstrakcyjny charakter oraz istotne znaczenie dla
innych nauk, będzie to najlepsza reprezentacja świata nauki. Dla zrozumienia prezentowa-
nych teorii zbędne będą zdolności rachunkowe i znajomość matematycznego języka. Zajmować
się będę filozoficzną podbudową nauki, której historia jest równie niezwykle interesująca
jak i długa.
1.1. Ws p ó l n y m i a n ow n i k
Kultura mieści w sobie szereg zachowań, które poza ułatwieniem i umilaniem człowiekowi
życia, pozwalają na realizację głębszych potrzeb psychicznym. Jedną z takich ważnych po-
trzeb jest pragnienie zrozumienia otaczającej rzeczywistości. Odczuwane przez ludzi w różnym
stopniu, jest wyrazem duchowej potrzeby poznania prawdy. Co wspólnego ma pragnienie
prawdy z potrzebą piękna? Oba te pojęcia wraz z trzecim, którym jest dobro, określają w naj-
bardziej ogólny sposób duchowe potrzeby człowieka. Są tak ważne dla ludzkości, że każde
z nich doczekało się statusu głównego pojęcia szczególnych działów filozofii.
Estetyka jako samodzielna dziedzina filozofii wyodrębniła się dopiero w XVII wieku.
Jednakże problematyka jej była od zarania obecna w dziełach wybitnych myślicieli. Podstawowe
dla estetyki pojęcie piękna kojarzy się zwykle z dążeniami artystów i potrzebami, na które ich
dzieła odpowiadają. Mylnie byłoby sądzić, że piękno jest istotą sztuki. Nie można też zgo-
dzić się z tym, że prawda i dobro są obojętne świadomym artystom. Stanowią one równie
ważną motywację podejmowanych działań artystycznych, równie ważny element prze-
kazów zawartych w dziele, równie ważną wartość objawianą przez dzieło odbiorcy. Jestem
o tym głęboko przekonany nie tylko w wyniku wiedzy z zakresu historii sztuki, ale tym bar-
dziej z własnych doświadczeń w czynnym działaniu artystycznym. W moim opracowaniu
interesuje mnie natomiast, jak przedstawia się sytuacja z drugiej strony.
Podobnie potocznym skojarzeniem jak: sztuka → piękno, jest nauka → prawda. Postaram
się udowodnić, że jest ono równie fałszywe, jako to pierwsze. Powstanie tej części pracy jest
w dużej mierze wynikiem postawienia pytania: ja k ie z n a cz e n ie d la n au k i m a pię k no?
Najpierw jednak pragnę uczynić dygresję pytając o znaczenie dobra. Czy dobro jest obojętne
dla nauki? Mam nadzieję, że nie. Niech dowodem będzie motywacja wielu naukowców, jaką
stanowi pragnienie ulepszania świata. Obserwowalne efekty tej motywacji stanowią artefakty
postępu technicznego. Argumentując poglądy o destruktywnym wpływie postępu technicz-
nego na środowisko zwróćmy uwagę, że intencja ułatwienia i umilania naszego życia jest dobra.
Zgubne jest natomiast rozbudzanie potrzeb konsumpcyjnych do granic możliwości, uprzywile-
jowane w systemach, których podmiotem jest kapitał. Zagadnieniami etycznymi w niniejszej
pracy zajmować się więcej nie będę.
Jednak poza postawionym pytaniem o piękno ważne będzie pojęcie prawdy i wzajemna re-
lacja tych pojęć. Ponieważ dla naukowców ważną z praktycznego punktu widzenia jest zgod-
ność teorii z rzeczywistością, większość upowszechnionych teorii to te uważane za prawdziwie
obecnie, lub przez dłuższy czas w przeszłości. Są też i takie, które przeszły do historii, po-
mimo szybkiego podważenia ich prawdziwości, a to ze względu na zawarte w nich piękno.
Na i le w ię c pię k no i p r awd z iwo ś ć s ą z a le ż ne w s w y m ws p ó ł w yst ę p owa n iu?
1.2. H i e r a rc h i a o d k ryć
Jeśli estetyka zajmuje się pięknem, a etyka dobrem, który z działów filozofii jest nauką
o istocie prawdy? Czy jest to ontologia, która zajmuje się istnieniem bytu (czyli zakłada,
że coś obiektywnie istnieje, lub co najmniej w innej wersji założenie to neguje)? Czy jest to
raczej epistemologia, mówiąca o naszym poznaniu? Obie z tych dziedzin zajmują się na swój
sposób pojęciem prawdy.
Z mojej perspektywy wygląda na to, że jest to raczej epistemologia. Sądzę, że jest to nie
tylko konsekwencją mojej pragmatycznie zorientowanej postawy, ale również cechą czasów,
w których od ponad stu lat przedmiotem, coraz wnikliwszych badań, stają się same narzę-
dzia badawcze. Prawdopodobnie w czasach, gdy poznanie pojmowano jako konsekwencję bytu,
powszechniejsze było skojarzenie prawdy z przedmiotem rozważań ontologii.
Przeniesienie akcentu w sposobie definiowania pojęcia prawdy z ontologii do epistemologii
związane jest jak wspomniałem z przedmiotem badań naukowych. Najprostszym znaczeniem
odkrycia naukowego jest odkrycie obiektu (nowego kontynentu, gatunku, pierwiastka, lub ciała
niebieskiego). Odkrycie obiektu związane jest ściśle z tematyką bytu.
W miarę rozwoju danej dziedziny nauki, obszar jej zainteresowań zostaje bardziej wyeks-
ploatowany. Wskutek tego maleją możliwości odkrywania nowych bytów, wzrasta natomiast
znaczenie odkrywania związków pomiędzy nimi. Są to odkrycia procesów i praw, polegające
na opisywaniu wzajemnych relacji pomiędzy obiektami. Tematyka tego typu odkryć jest moim
zdaniem w równym stopniu ontologiczna, jak i epistemologiczna.
Kolejnym etapem pogłębiania wiedzy danej dziedziny jest odkrywanie związków pomiędzy
tymi relacjami. W wyniku ich ustalenia tworzone są struktury. Określenie tworzone w stosunku
do teorii struktur wydaje się być trafniejsze niż odkrywane. Na tym zaawansowanym etapie
odkryć naukowych tematyka epistemologiczna bierze górę nad ontologiczną.
Dylemat umiejscowienia prawdy w bycie lub poznaniu można równie dobrze odrzucić,
traktując pytanie, jako absurdalne. Postawa taka będzie, jak najbardziej funkcjonalna w pro-
cesie badania podstaw nauki, który w znacznej mierze sprowadza się do badania języka,
17
1. 3. D y f e r e n c ja s z t u k i i n au k i
Pojęcia estetyki wyrosły na gruncie badania wytworów sztuki i procesów ich kształtowania.
Chcąc podjąć się próby zastosowania tych pojęć do roztrząsania tworów nauki, na wstępie na-
leżałoby określić, na czym zasadza się różnica między tymi dziedzinami.
Konsekwencją hipotezy o równouprawnieniu piękna i prawdy w teleologii sztuki i nauki, jest
odrzucenie rozróżnienia tych dwóch dziedzin pod względem centralnego obiektu zainteresowań.
Cel, którym najogólniej rzecz ujmując jest zaspokojenie duchowych potrzeb piękna, prawdy
i dobra, może być osiągany poprzez różnorakie działania. Sztuka i nauka nie obejmują swym
zakresem wszystkich rodzajów tych działań. Poza nimi na kulturowy repertuar środków urze-
czywistniających duchowe potrzeby składają się jeszcze działania w myśl religii i magii.
Stwierdzając, że dążenie do piękna jest jednym z celów podejmowania wymienionych
działań, poczyniłem wstępne założenie. Jeśli udowodnię jego słuszność, odpowiedzią na posta-
wione pytanie będzie stwierdzenia, że piękno jest jednym z celów, które determinują działania
naukowe. Nie jest to dla mnie odpowiedź zadowalająca, gdyż nie ma żadnego związku z od-
rębnością nauki od innych sposobów poznawania świata. Dlatego sformułuję pytanie o piękno
w nauce bardziej szczegółowo. Mianowicie:
W ja k i s p o s ób z n a cz e n ie pię k n a w p ł y wa n a for mę efek t ów p r a c y n au kowej?
Przekonany jestem, że dyferencji należy dokonać ze względu na metodę, jak i na odrębny
charakter efektów działań artystycznych i naukowych. Różnica pomiędzy efektami odmiennych
sposobów poznawania świata jest widoczna w oczywisty sposób. Mniej widoczna jest nato-
miast różnica w sposobie do celu prowadzącym, co wynika zapewne z faktu, iż częściej przy-
glądamy się efektom niż działaniom do nich prowadzącym. Spróbujmy się pokrótce przyjrzeć
metodom działań artystycznych i naukowych.
Będą one zależne od sensu tych działań. Sztuka i nauka dążą do celu odmiennymi drogami,
sensem działań nazywam środek do tego celu. W tym ujęciu sens jest podrzędny celowi, a nad-
rzędny wobec metodologii i determinuje jej wybór.
Uogólnionym sensem działań w obydwu dyscyplinach jest przekazanie informacji. Jednakże,
gdy zwrócimy uwagę na charakter tej informacji, dyferencja sztuki i nauki zarysowuje się
z całą wyrazistością. Teoria naukowa ma za zadanie być nośnikiem obiektywnego poznania.
W związku z takim właśnie jej sensem szczególnym, informacja musi być kodowana w odpo-
wiedni sposób; mianowicie: spełniać powinna warunek stabilności. Oznacza to, że sformuło-
wania powinny być w jak największym stopniu ścisłe i uporządkowane logicznie tak, by mak-
symalnie zminimalizować deformacje w odbiorze informacji przez różnych odbiorców.
W dalszej części tekstu zamiast wyrażenia dzieło sztuki będę używał akt sztuki. Pierwsze
wyrażenie w potocznym pojęciu utożsamiane jest tylko z artefaktami posiadającymi trwa-
łość: takimi, jak obrazy, rzeźby, budowle i z tego względu jest zbyt wąskie przy analizowaniu
sztuk a nau k a
przekazanie informacji…
sens działań
…o subiektywnym przeżyciu …o obiektywnym poznaniu
Natomiast język sformalizowany, powinien być w tym kontekście rozumiany, jako cało-
ściowy repertuar środków. Język sformalizowany, jako tworzywo nauki, będzie zatem poję-
ciem o szerszym zakresie, niż rozumiany tylko, jako narzędzie. W obrębie tak pojętego języka,
narzędzia stanowić będą jednostki mniejsze.
Kończąc próbę dyferencji sztuki i nauki, pragnę zaprezentować jeszcze punkt widzenia,
będącego mym autorytetem w dziedzinie teorii estetyki Johna Dewey’a. Zwraca on uwagę, na
materiał doświadczenia wiodącego do intelektualnych wniosków. Są nim mianowicie znaki
i symbole18. Jakości służące do wyrażenia symboli, które teoria naukowa wykorzystuje muszą
spełniać wyłącznie wymogi komunikatywności. Symbole w działalności intelektualnej pozba-
wione są więc jakości ekspresywnych, które są istotne w aktach sztuki. W sztuce to jakości
właśnie są materiałem. Indywidualny sposób wyrażenia ma podstawowe znaczenie.
W sztuce nowatorski sposób przedstawienia liczy się bardziej niż nowatorska treść. Różni ar-
tyści wyrażają wciąż te same idee, na różne sposoby. Jest to twórcze działanie, którym wzbogacają
oni kulturę o nowe wartości, podczas gdy w nauce postępowanie takie byłoby plagiatem. Naukowcy
z kolei skupieni są na przedstawianiu idei nowatorskich, a sposób ich wyrażenia może pozostawać
ten sam przez wiele pokoleń. Takie powtarzanie tego samego sposobu nie jest niczym cennym
w sztuce, nawet jeśli służy wyrażaniu nowych idei. Teoria naukowa, przeciwnie niż akt sztuki,
ma charakter ogólny. Jest konstrukcją złożoną z pojęć ogólnych i powinna zachowywać spój-
ność swojej formy przy zastosowaniu jej do przypadków szczegółowych. Akt sztuki odnosi się
również bardzo często do pewnej ogólnej idei, ale poprzez jakości, które bezpośrednio działają
na zmysły. Każdy akt sztuki ma wartość indywidualną i stanowić może szczególny przypadek
wyrażenia konkretnej idei.
Przykładowo: obraz Gustawa Cuberta Kamieniarze wyraża ideę wartość ludzkiej pracy, za-
czerpniętą z myśli społecznej ówczesnych czasów — dobitnie eksponowaną na przykład przez
Karola Marksa w wybitnym dziele myśli społeczno–politycznej, którym jest Kapitał. Obraz
Cuberta odnosi się do idei, działając na widza przedstawieniem konkretnej sceny, która najpierw
musi zostać spostrzeżona zmysłowo, aby następnie móc wywołać w odbiorcy jakąś refleksję.
Język symboliczny jako cecha odróżniająca naukę od sztuki nie oznacza bynajmniej, że dzia-
łania artystyczne pozbawione są znaczeń symbolicznych, wymaga przecież tego wspomniane
powyżej odnoszenie się treści aktów sztuki do idei. Oczywiste jest, że język to środek prze-
kazu również dla artystów. Tego wymaga komunikacja, niezależnie od charakteru informacji.
Zauważmy jednak, że jest to język, odmiennie wartościowany. Wieloznaczność wyrażeń bę-
dzie w poezji potraktowana jako zaleta zastosowanego języka; w nauce wieloznaczność może
jedynie osłabić wartość teorii. Dlatego drugą (obok symboliki) istotną cechą języka nauki, którą
trzeba było podkreślić jest jego formalizm.
Powyższe przedstawienie czynników determinujących wybór odpowiedniej metody, oraz po-
równanie wartościowania efektów działalności artystycznej i naukowej wskazuje, jakiego roz-
różnienia należałoby dokonać, postawiwszy sobie za cel opis jakości estetycznych teorii nauko-
wych. Jako charakterystyczne cechy metody naukowej wyróżniłem logiczność i ujęcie ilościowe.
Rozszerzając pojęcie metody o blisko z nią związane zagadnienia materiału (jako wejściowych,
usystematyzowanych danych) i tworzywa (jako narzędzia konstrukcji semantycznych) wyróż-
niam dwie ogólne cechy metody naukowej, które poddam dalszej, szczegółowej analizie:
Cechy te będą tematami kolejnych dwóch rozdziałów, w których nie zamierzam rozdrabniać
się, na poszukiwania estetycznych wartości każdej z przedstawianych teorii. Sądzę że, skonden-
sowany charakter mojego wywodu usprawiedliwia to uchylenie. Zamierzam natomiast przedsta-
wiać ludzki sposób myślenia, leżący u podstaw formułowania każdej teorii. Sposób ten nawet
w przypadku naukowców tylko z grubsza może być wciśnięty w sztywne ramy logicznych
analiz. Ludzką rzeczą pozostają interpretacje, przekonania i wątpliwości.
21
Osobiście na pytanie, jakie znaczenie dla nauki ma piękno i w jaki sposób wpływa na
formę i efekty pracy naukowców, postaram się odpowiedzieć w rozważaniach, które znajdą się
w części czwartej. W kolejnych rozdziałach skupię się natomiast na rozjaśnieniu metody i two-
rzywa pracy matematyków. Mam nadzieję, że poza próbą odpowiedzi na postawione pytania,
tekst mój może być na przykład materiałem przydatnym do zaplanowania wykładu z historii
filozofii matematyki na uczelni artystycznej.
1.4. M at e r i a ł b a da ń m at e m at y k i
Teraz pozostaje mi jeszcze wyjaśnić, dlaczego w dalszej części wywodu skupiam się
jedynie na matematyce. Przede wszystkim to matematyka dostarcza metodologii innym naukom.
Chcąc więc przeanalizować cechy metody naukowej, by odnaleźć w niej wartości estetyczne,
zwracam się do źródła. W ten sposób analizowany materiał pozbawiony będzie wyjątkowych
właściwości poszczególnych gałęzi nauki. Amputacja taka ułatwi, moim zdaniem, spojrzenie
na sedno problemu. Ponad to wybór ten związany też jest z paradoksem materiału, który jest
przedmiotem badań matematycznych.
Łatwo jest w świecie fizycznym z grubsza wyodrębnić przedmioty zainteresowania nauk,
takich jak biologia, chemia, czy nawet językoznawstwo. Oczywiście granice obszarów, w któ-
rych badane byty się znajdują są umowne i często obszary badawcze różnych nauk nachodzą na
siebie. Czasem różne nauki interesują się tymi samymi przedmiotami w odmienny sposób.
W przypadku matematyki próba wskazania fizycznie istniejącego obszaru jej badań nie jest
tak prosta, a przy powzięciu niektórych założeń, wręcz niemożliwa. Zacznijmy od tego, że ma-
tematyk potrzebuje aksjomatyki19, by móc zacząć działać. Przyjmuje się więc pewne założenia,
jako prawdziwe.
Od czego zależy ten wybór? Można by powiedzieć, że to po prostu rzecz gustu. Tak jak
stwierdził George Cantor „Istota matematyki zawiera się w wolności” 20. „Arbitralność, a za-
razem niczym nie ograniczona swoboda doboru aksjomatów, ma uniezależnić matematykę od
świata. Fakt jego istnienia lub nieistnienia byłby więc dla niej bez znaczenia” 21.
Czym więc w istocie zajmuje się tak wyzwolona nauka? By odpowiedzieć na to pytanie, po-
wrócę do zaproponowanego przeze mnie modelu hierarchii odkryć. Dla nauk przyrodniczych
postęp od odkrywania bytów, poprzez badanie ich związków, do tworzenia struktur, pokrywa
się w znacznej mierze z historycznym rozwojem danej dyscypliny. Matematyka natomiast
zaczyna swój rozwój od szczytu hierarchii.
Początków matematyki jako nauki należy szukać w starożytnej Grecji. Z przełomu VI i VII
wieku p.n.e. pochodzi pierwsze znane prawo matematyki, a mianowicie twierdzenie Talesa.
„Jeżeli ramiona kąta przetniemy dwiema prostymi równoległymi,
to odcinki wyznaczone przez te proste na jednym ramieniu są
proporcjonalne do odpowiednich odcinków wyznaczonych przez
te same proste na drugim ramieniu”22.
źródło: http://alexgrey.net/a-gallery/wndr.html
Rozwój matematyki nieustannie kształtowany jest przez dążenie do formułowania pojęć bar-
dziej ogólnych od tych, którymi nauka ta już dysponuje. „Twórcze uogólnienie pojęć w matema-
tyce (…) polega na tym, że nowe pojęcie musi być radykalnie nowe, ale musi też w jakimś sensie
zawierać w sobie starą treść”26. Oznacza to, że istniejąca teoria staje się szczególnym przypad-
kiem nowej bardziej ogólnej teorii. „Łączeniu teorii towarzyszy proces unifikacji pojęć. (…)
Nowe pojęcie zawiera w sobie niekiedy kilka starych, uprzednio nie sprowadzanych do siebie
pojęć, jako swoje szczególne przypadki; Ponad to, co bardzo istotne, nowe pojęcie ukazuje rów-
nież sieć relacji między tymi szczególnymi przypadkami i to jest zupełnie nowa informacja,
której nie można było wydobyć ze starych, niezwiązanych ze sobą pojęć”27.
2.1.1. S t ru k t u ry o g ó l n e
Ważnym przedmiotem badań matematyki są więc struktury ogólne, których rozmaite modele
znane są od bardzo dawna. Dowód twierdzenia wykazany jednorazowo w kontekście ogólnym,
pozwala na wielokrotne stosowanie twierdzenia w szczególnych przypadkach. Często przydaje się
w nowych sytuacjach, które wcale nie były zawczasu przewidziane, jako szczególne przypadki
takiego twierdzenia.
Dodatkową zaletą ogólności jest przejrzystość — łatwo jest dostrzec jakie właściwości,
jakich obiektów, wykorzystuje dowodzenie i z jakich konstrukcji korzysta. Choć rozważania
tworów zbyt szczegółowych nie są zbyt owocne, to i przesadne uogólnienie może stać się prak-
tycznie bezwartościowe. Bardzo ważne jest znalezienie odpowiednich uogólnień 28.
Genialność sformułowania pierwotnych pojęć matematycznych, takich jak liczby i figury
polegała na dostrzeżeniu nieoczywistych analogii. Utworzenie klas abstrakcji wyrażających
cechy zupełnie różnych obiektów wymaga rozwoju myślenia abstrakcyjnego — operowania
znakami, które oddalają nas od bezpośredniego oglądu świata zewnętrznego. „Równocześnie
jednak dzięki temu oddaleniu, od rzeczywistości, jakie uzyskujemy w poznaniu symbolicznym,
26 Michał Heller, Początek jest wszędzie, Prószyński i S.–ka, Warszawa 2002, s. 117
27 Tamże, s. 172
28 Krzysztof Ciesielski i Zdzisław Pogoda, Diamenty matematyki
http://www.wiw.pl/matematyka/diamenty/diamenty_05_02.asp, 2009-03-03
25
2.1.2. D e f i n ic ja pr z e z a b s t r a kc j ę
W tym miejscu przedstawię proces abstrahowania z perspektywy semiotyki w ujęciu Maxa
Bense’a. Rozpoczynając analizę semiotyczną teorii świadomości bazuje on na cybernetycznym
pojęciu bytu.31 Wprowadza „pojęcie funkcji, jako relacji w znaczeniu stosunku zależności
dwóch danych ontycznych uznanych za zmienne32.” Szczególnym rodzajem takiego przypo-
rządkowania, użytecznym dla analizy semiotycznej jest funkcja bytowa, której zmiennymi są
znaki. Funkcja bytowa urzeczywistnia byt znaków i pozwala na tworzenie typologii ontycznej,
przez klasyfikację funkcji bytowych wedle liczby jej argumentów33. Klasyfikacja ta wygląda
jak pokazuje tabela 3.
ilość argumentów 0 1 2 3
Źródło: opracowanie własne na podstawie: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 53 - 54
Jeśli funkcja bytowa przebiega w przeciwnym kierunku (dana jest w przedmiocie, niewiadoma
w podmiocie), mówimy o definicji przez abstrakcję. Definicja przez abstrakcje to proces
świadomości, którego wynikiem jest tworzenie nowych klas równoważności stosunku
równoważności36.
Opuszczając wysokie klasy abstrakcji, przedstawię to na przykładzie z dziedziny sztuk pięk-
nych. Kolaż to termin dla określenia techniki formowania kompozycji z różnych materiałów,
takich jak gazety, tkaniny, fotografie itp., których wycinki naklejane są na płótno i łączone
z tradycyjnymi technikami malarskimi. Słowo to pochodzi od francuskiego coller (klej),
a wprowadzili je do słownictwa francuscy kubiści na początku wieku XX37.
Gdy znamy taką definicję, przyglądając się dziełu wykonanemu tę techniką przypisu-
jemy nazwę kolaż. Związek ten pozostaje czynny w naszych myślach przez cały czas odbie-
rania takiego dzieła. Oczywiście kolaż kolażowi nie równy i możemy poddać w wątpliwość
naszą klasyfikację. Nazwa jest zawsze klasą abstrakcji, do której zaliczamy w akcie apercepcji
szczególne przedmioty, ze względu na odnalezienie w nich cech, które definiują znaną nazwę.
W latach 50–tych Jean Dubuffet wprowadzając nową nazwę, tworzy nową klasę abs-
trakcji asamblaż (fr. assemblage — gromadzenie, zbieranie, zbiór) dla określenia trójwymia-
rowych kompozycji stworzonych z różnorodnych gotowych przedmiotów38. Abstrahuje więc
on od posiadanego pojęcia kolażu i definiuje nowe. Człowiek znający jedynie pojęcie kolażu
może zaliczyć do tej klasy abstrakcji postrzegany przedmiot, który człowiek o szerszej wiedzy
z zakresu sztuk pięknych zakwalifikuje jako asamblaż. Kwestią sporną jest czy możemy trak-
tować asamblaż jako szczególny przypadek kolażu. Tak, jeśli rozszerzmy pojęcie kolażu (które
pierwotnie dotyczyło dzieł płaskich) na dzieła trójwymiarowe.
W wielu przypadkach nowe klasy abstrakcji tworzone są w obrębie już istniejących.
Specjalista potrafi wymienić dziesiątki odmian tulipanów. Podczas gdy dla ignoranta kwiat to
kwiat. Tworzenie podzbiorów służy w nauce usystematyzowaniu zebranych materiałów, bądź
też wyników. Jednakże, jak już wspomniałem, bardziej twórczy charakter ma w nauce two-
rzenie pojęć bardziej ogólnych od tych już posiadanych. Ten rodzaj abstrahowania zdaje się
niebywale trudny. Wymaga oderwania myśli od kilku posiadanych definicji, i poszukiwania
ich wspólnego mianownika znajdującego się poza porzuconymi definicjami, ale (najczęściej)
pozostającego z nimi w zgodzie.
źródło: http://nga.gov.au/International/Catalogue/Images/LRG/2607.jpg
36 Nazwa zaczerpnięta od Rudolfa Carnapa podaje za: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 55,
37 http://pl.wikipedia.org/wiki/Kolaż, 2009-03-28
38 http://pl.wikipedia.org/wiki/Assemblage, 2009-03-28
27
2.1. 3. G e n e z a m at e m at y k i
Konstruując pojęcia ogólne, człowiek zdobył nową umiejętność. Dzięki niej możliwe stało
się formułowanie pojęć abstrakcyjnych, stanowiących podstawy do wyciągania coraz bardziej
ogólnych wniosków na podstawie analizy swoich doświadczeń.
W okresie rozkwitu wielkich cywilizacji starożytnych matematyka stała się rzemiosłem
wielce użytecznym przy sprawowaniu kontroli ekonomicznej. Rachunki znajdowały zasto-
sowanie głównie przy transakcjach handlowych i określaniu wynagrodzeń robotników, oraz
nakładaniu podatków na obywateli. Liczono powierzchnie ziemi uprawnej, wielkość plonów
i innych surowców, liczebność hodowanych zwierząt i wytworzonych produktów39.
Wcześnie też zaczęły rozwijać się obliczenia astronomiczne. Zauważmy, że w prehi-
storii obiektami kultu, utożsamianymi z bóstwem, były często ciała niebieskie. Wiedza na
temat zjawisk na niebie była elitarna. Mogła służyć kaście kapłańskiej do umacniania swego
autorytetu40.
Greccy filozofowie wzbogacili osiągnięcia Babilończyków i Egipcjan elementami własnej
filozofii. Dla nich matematyka była doskonałym narzędziem edukacyjnym — uzupełniała
metaforyczny, jakościowy opis świata w filozofii, opisem ilościowym41. Odeszli oni od roz-
wijania matematyki w bardziej praktycznych jej zastosowaniach, które to były przedmiotem
uwagi starszych cywilizacji starożytnych.
Powrót idei matematycznych na grunt zastosowań praktycznych nastąpił po wchłonięciu kul-
tury greckiej przez Cesarstwo Rzymskie. Rzymianie byli w swych działaniach bardziej prak-
tyczni — bardzo cenili sobie rozwój techniczny. Wykorzystali oni osiągnięcia Greków, którzy
skupili się na uporządkowaniu pojęć ogólnych.
2.1.4. G e n e z a a k s j o m at y k i
Wielkie zasługi dla rozwoju matematyki przypisuje się Pitagorejczykom, którzy skoncen-
trowali się na sformułowaniu zasad ogólnych. Wypracowali oni naukową metodykę dziedziny,
którą wcześniej rachmistrze i geometrzy posługiwali się praktycznie. Duży postęp w tym kie-
runku został dokonany po asymilacji, spopularyzowanych w Grecji w V wieku p.n.e., poglądów
atomistów.
W myśl teorii atomistów realne cechy przedmiotów materialnych są tylko ilościowe.
Liczby charakteryzowały geometryczne własności obiektów, takie jak kształt i poło-
żenie. Postrzeganie liczb w nierozerwalnym związku z wielkościami przestrzennymi
jest typową cechą greckiego sposobu myślenia 42 . Zagadnieniu wpływu postrzegania
przestrzeni na pojęcie liczby, przyjrzę się dokładniej, przy okazji polemiki z intuicjonistyczną
koncepcją liczb.
Dla Pitagorejczyków liczba stała się zasadą bytu — czynnikiem decydującym
o właściwościach wszystkich przedmiotów i zjawisk. Poglądy te znane są między in-
nymi z przekazów filozofa żyjącego w II wieku w Gerazie (Jordania) — Nikomacha.
Filozofia grecka opierała się na przekonaniu, że świat jest racjonalnie poznawalny, a wiedza
o nim opiera się na pojęciach ogólnych i spełnia określone wymogi formalne. Grecki światopo-
gląd stał się podstawą dla rozwoju nauki45. Przedstawię teraz skrót charakterystycznych cech
tradycji greckiej w matematyce, które po dziś dzień nie zatraciły swojej wielkiej wagi:
• p oję cia s ą ś ci śle d ef i n iowa ne p r z ez a k sjom at y b ą d ź d ef i n icje;
• z n a cz ą c a je st dok ła d no ś ć, cz yl i p r e c y z ja ok r e śle ń ;
• t w ie rd z e n ia i dowo dy u k ła d ają się w s yst e my log icz ne z wa ne t e or ia m i 46.
Wyróżnione są teorie, które na podstawie kilku pojęć pierwotnych (przyjmowanych bez do-
wodu), oraz kilku aksjomatów, definiują kolejne pojęcia i udowadniają pozostałe twierdzenia.
Do zagadnienia metody aksjomatycznej w matematyce powrócę jeszcze w następnym roz-
dziale, gdyż jest ono nierozerwalnie związane z wyróżnionymi przeze mnie we wprowadzeniu
przymiotami języka sformalizowanego.
43 Nikomach z Gerezy, Wprowadzenie do arytmetyki, podaje za: Matila C. Ghyka, Złota Liczba, dz. cyt., s. 24
44 Tamże, s. 45
45 Roman Duda, Matematyka między duchem i materią, dz. cyt., s. 52
46 Tamże, s. 56 – 57
29
2.2.1. E l e m e n t y E u k l i d e s a
Przedstawię teraz najbardziej reprezentatywny przykład greckiej teorii, stworzonej metodą
aksjomatyczną, która z powodzeniem stosowana jest po dziś dzień. Jest nią geometria eukli-
desowa. Model Euklidesa ma niebywałe znaczenie praktyczne — formułuje zasady niezastą-
pione przy konstruowaniu form przestrzennych w architekturze i technice.
Następnie przy okazji dylematów związanych z piątym aksjomatem tej geometrii, wykaże
jak podstawowe jest znaczenie przyjętych pewników i jak swoboda w ich doborze pozwala na
rozwój idei poprzez zwiększanie stopnia ogólności.
Euklides jest jednym z najbardziej znanych i cenionych za swoją ścisłość matematyków greckich.
Żył i tworzył w IV wieku p.n.e.. Dzieło jego życia Elementy nadal stanowią podstawę dla redakcji
szkolnych podręczników matematyki. Warto zaznaczyć, że Elementy Euklidesa zajmują drugie
(po Biblii) miejsce pod względem ilości wydań i przez 2000 lat pozycja ta stanowiła podstawowy
podręcznik geometrii47.
„Euklides opiera geometrię na zaledwie pięciu o c z y w i s t yc h postulatach i wywodzi
z nich całą teorię. Z kilku prostych przesłanek (…) dochodzi drogą dedukcji do ogromnej ilości
ważnych wniosków.
Oto lista pierwszych czterech postulatów Euklidesa:
• od dowolnego punktu do dowolnego innego punktu można poprowadzić prostą;
• og r a n icz on ą p r o st ą moż n a dowol n ie p r z e d ł u ż yć;
• z dowol nego ś r o d k a dowol ny m p r om ie n ie m moż n a opi s a ć ok r ą g;
• wsz yst k ie k ąt y p r o st e s ą r ów ne” 48.
Piąty aksjomat brzmi:
• dw ie p r o st e, k t ór e p r z e ci n ają t r z e cią w t a k i s p o s ób, ż e s u m a k ąt ów
wew nę t r z nych p o je d nej st r on ie je st m n iejsz a o d dwó ch k ąt ów p r o st ych ,
p r z e t n ą się z t ej wła ś n ie st r ony, je śl i się je o d p ow ie d n io p r z e d ł u ż y 49.
Należy pamiętać, że dla Greków pojęcie linii oznaczało to, co określamy dziś mianem odcinka.
Nieskończoność pojmowali jako nieograniczoną możliwość kontynuacji czegoś skończonego.
W definicjach Euklidesa linia miała swój początek i koniec. Takie pojmowanie linii prostej
tożsame jest z dzisiejszym pojęciem odcinka.
2.2.2. M o dy f i k ac j e pi ąt e g o a k s j o m at u
Piąty pewnik Euklidesa budził wiele wątpliwości wśród całych pokoleń matematyków.
Pierwsze ślady tych wątpliwości pochodzą z V wieku. Znajdują się w komentarzu Proklosa do
pierwszej księgi Elementów. Zauważa on, iż sformułowanie tego pewnika zajmuje prawie tyle
tekstu, co pozostałych czterech, a pewność daleka jest od oczywistości. Uporczywe, bezowocne
starania, by wyprowadzić piąty pewnik z pozostałych, doprowadziły na początku XVIII wieku
Włocha Giovanni’ego Girolamo’ego Saccheri’ego do zapoczątkowania geometrii, bazującej na
czterech pierwszych aksjomatach. Została ona później nazwana geometrią absolutną i jest teorią
szerszą, gdyż poza geometrią euklidesową, aksjomaty jej dotyczą również i innych modeli geome-
trii. Aksjomaty te jako pierwszy podał w 1898 roku David Hilbert. Powstały one w wyniku badań
matematycznych, które wykazały, że piąty aksjomat Euklidesa nie zależy od poprzedzających
i można go zastąpić innym50.
Ponieważ pewnik ten równoważny jest stwierdzeniu:
• p r z ez pu n k t n ie le ż ą cy n a d a nej p r o st ej moż n a p op r owa d z ić
je d n ą i t yl ko je d n ą p r o st ą r ów noleg ł ą do d a nej,
analizowano konsekwencje jego zaprzeczenia.
Okazało się, że spójne geometrie można uzyskać w dwóch przypadkach:
• p r z ez pu n k t n ie le ż ą cy n a p r o st ej moż n a p op r owa d z ić
n ie sko ńcz e n ie w iele p r o st ych r ów noleg ł ych do d a nej,
otrzymując geometrię hiperboliczną, którą opisali Gauss, Bolyai i Nikołaj Łobaczewski;
• p r z ez pu n k t n ie le ż ą cy n a p r o st ej n ie d a się p op r owa d z ić
ż a d nej p r o st ej r ów noleg łej,
otrzymując tak zwaną geometrię eliptyczną, opracowaną w połowie XIX stulecia przez
Bernharda Riemanna51.
„Riemann nazwał uzyskane przez siebie geometrie:
• eliptyczną (dla krzywizny dodatniej),
• paraboliczną (dla krzywizny zero),
• hiperboliczną (dla krzywizny ujemnej).52”
Wspomniany prekursor geometrii absolutnej Saccheri w dziele Euclides ab omni naevo vin-
dicatus, (1733) sformułował sporą część obu geometrii nieeuklidesowych. Wnioski, jakie wy-
prowadził z zaprzeczenia piątego aksjomatu Euklidesa, uznał metodą reductio ad absurdum,
za niedorzeczności i wykorzystał jako dowód prawdziwości tegoż aksjomatu53.
2.2. 3. U o g ó l n i e n i a p o j ę c i a pr z e s t r z e n i
Rozważając dylematy, związane z piątym postulatem Euklidesa angażującym dociekania
licznych geometrów, pominąłem całe wieki rozwoju matematyki. Czuję się teraz zobowią-
zany uzupełnić lukę w opisie procesu uogólniania podstawowego pojęcia geometrii, jaką jest
przestrzeń.
50 Tamże, wówczas
51 Tamże, wówczas
52 http://pl.wikipedia.org/wiki/Geometria_hiperboliczna, 2009-03-30
53 Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 13
31
W tym celu powrócę do wieku XVII. W owym czasie René Descartes, zwany Kartezjuszem,
dał początek geometrii analitycznej. Wprowadził on układ współrzędnych prostokątnych54, na-
zwany dzisiaj kartezjańskim układem współrzędnych. Konstrukcja taka pozwala utożsamiać
punkty płaszczyzny z parami liczb, natomiast punkty przestrzeni z trójkami liczb. Liczby te
nazywamy współrzędnymi punktu.
Dzięki temu można cyfrowo opisywać własności (kształty, wielkości i rozkład) figur i brył.
Układ współrzędnych stał się dla inżynierów i projektantów środowiskiem definiowania kon-
cepcji. Posługuje się językiem ścisłym dostatecznie by był odczytywany nie tylko przez innych
ludzi, ale również przez roboty realizujące projekty.
Metodę współrzędnych w geometrii w sposób systematyczny opracował już wcześniej,
żyjący w tym samym okresie Pierre de Fermat. Genialny, jak to często bywa, zarazem prosty
pomysł wprowadzenia do geometrii metody współrzędnych spowodował rewolucję w matema-
tyce. Przełom ten bazował na nowych możliwościach zaistniałych dzięki powiązaniu geometrii
z algebrą i analizą. Po wprowadzeniu do geometrii metod algebraicznych, powstaje geome-
tria analityczna. Kolejnym uogólnieniem jest geometria algebraiczna, czyli teoria badająca
własności krzywych i powierzchni metodami algebraicznymi.
Następny stopień uogólnienia stanowi, powstała w XVIII wieku geometria różnicz-
kowa. Wyłożona po raz pierwszy przez Riemanna w 1854 roku, a opublikowana w 1868
roku 55. Najnowszym osiągnięciem uogólnień koncepcji przestrzeni są wynalezione przez
Michała Hellera i Wiesława Sasina przestrzenie strukturalne zawierające w sobie, znane już
wcześniej, przestrzenie różniczkowe56.
Współrzędne punktu mogą być określone, nie tylko przez parę lub trójkę liczb, ale rów-
nież przez każdy ciąg liczbowy o ustalonej z góry liczbie elementów. W ten sposób defi-
niuje się przestrzenie skończenie wymiarowe57. Możliwa staje się analiza geometrycznych
obiektów n–wymiarowych w sposób równie prosty, jak w znanych od stuleci przestrzeniach
dwu– i trójwymiarowych. Dzięki metrykom58 określonym osiami współrzędnych możemy
wykonywać przekształcenia wektorów59 z zastosowaniem działań arytmetycznych: mnożenia
i dodawania. Dlatego przestrzenie takie nazwano wektorowymi.
Jednak dla potrzeb analizy matematycznej, badającej własności funkcji, przestrzeń wekto-
rowa, bez wprowadzenia dodatkowej struktury, jest niezbyt interesująca. Ideę analizy obiektów
geometrycznych z wykorzystaniem układów współrzędnych rozwinął na początku XX wieku
Hilbert. Zdefiniował on przestrzenie nazywane dziś jego imieniem. Były to przestrzenie
wektorowe, w których można określić prostopadłość60.
Już w pierwszej fazie badań nad przestrzeniami Hilberta wprowadzono do nich normę.
Zdefiniowanie normy pozwala na obliczanie odległości pomiędzy elementami przestrzeni.
Na początku lat 20–tych XX wieku, niezależnie od siebie, kilku matematyków podało ak-
sjomatyczne definicje przestrzeni wektorowej, unormowanej. Jednak i taka przestrzeń,
mimo licznych możliwości jej zastosowania, jest zbyt szczegółowa dla wielu potrzeb analizy
matematycznej61.
Wśród badaczy przestrzeni Hilberta, był wielkiej sławy polski matematyk Stefan Banach.
On to znalazł wreszcie uogólnienie spełniające w zadowalającym stopniu praktyczne wymogi
analizy matematycznej. Przestrzeń Banacha jest przestrzenią wektorową, unormowaną,
zupełną62. Zupełność wyróżnia klasę przestrzeni, w których każdy ciąg spełniający warunek
Cauchy’ego63 jest zbieżny. W przestrzeniach tych możemy metodami geometrii algebraicznej
przekształcać obiekty bardziej złożone, takie jak funkcje i ciągi liczbowe. Obiekty te badane
metodami Banacha rozważane są jako punkty, elementy przestrzeni.
Pomimo dużego stopnia abstrakcyjności tej teorii, znaczącą jej zaletą jest fakt, że w prze-
strzeniach Banacha spełnione są rozmaite własności ściśle związane z intuicją geometrii
płaszczyzny i przestrzeni trójwymiarowej64. W ten sposób ufundowane są skuteczne metody
dokonywania przekształceń w przestrzeniach n–wymiarowych, o liczbie wymiarów od jednego
do nieskończoności włącznie.
2.2.4. Pa s ja B a n ac h a
W pracy Krzysztofa Ciesielskiego i Zdzisława Pogody Diamenty matematyki jeden z roz-
działów poświęcony jest Banachowi. Na podstawie opinii ludzi znających Banacha osobiście,
przedstawiony jest on, jako myśliciel całkowicie pochłonięty problemami matematycznymi.
Ważniejsze było dla niego badanie problemów, niż zapisywanie ich. Rozważał ich tak wiele, że
nawet, gdyby tego pragnął, nie nadążałby z ich spisywaniem65.
Ciekawy jest też opis uzyskania doktoratu przez Banacha. Za doskonałą pracę doktorską
uznane zostały wyniki Banacha spisane przez osobę trzecią. On natomiast został zwabiony
pewnego dnia do dziekanatu. Tam zdawał egzamin przed komisją sądząc, że pomaga w roz-
wiązaniu problemu matematycznego, a do świadczenia pomocy w tym względzie zawsze był
skory. Podstęp zwierzchników uczelni wynikał z oporów Banacha do przedstawienia pracy
doktorskiej. Niechęć swoją tłumaczył on stwierdzeniem, że może wymyślić jeszcze, coś lep-
szego. Oczywiście profesorem został w niedługim czasie. Warto jeszcze nadmienić, że dok-
torat uzyskał Banach nie posiadając stopnia magistra, gdyż studiów inżynierskich nie ukończył
ze względu na ich zbyt praktyczny charakter. Asystentem na Politechnice Lwowskiej został
dzięki wstawiennictwu Hugona Steinhausa.
2.2. 5. P ro g r a m e r l a n g e ń s k i
Innym geniuszem, którego przedstawić trzeba, opisując postęp matematyki związany
z uogólnianiem jej pojęć, jest Feliks Klein. O geniuszu jego świadczyć może fakt, że został
mianowany profesorem mając zaledwie 23 lata. Sposób myślenia Kleina o własnościach teorii
matematycznych cechuje wielki stopień ogólności i szerokie horyzonty. Jego wizja matematyki
była całościowa. Zasłynął on swoją doskonałą teorią metamatematyczną.
Zwrócił on uwagę, że wiele obiektów matematycznych posiada różne definicje formułowane
w odmiennych terminologiach67. Różnorodność definicji odnoszących się do jednego zjawiska,
pojmował jako wynik opisywania go w odmiennych kategoriach. Zwrócenie uwagi na ten fakt
umożliwiło postęp procesu uzgadniania map pojęciowych68 odrębnych działów matematyki.
Charakterystyka własności pojęć matematycznych była drugim z głównych wątków wykładu
Kleina w 1872 roku na uniwersytecie Erlangen.69 Przedstawiony przez niego wówczas program,
zwany erlangeńskim, stał się podstawowym podejściem do matematyki. Pierwszym wątkiem
tego wykładu, który przysporzył mu najwięcej rozgłosu, była definicja teorii matematycznej.
Według Kleina praca badawcza matematyka składa się z trzech podstawowych części:
• u s t a le n ia p ew nego zbior u X , cz yl i ba d a nego ś w iat a ;
• w yb r a n ia g r u py G jego p r z ek sz t a łc e ń
• d owo d z e n ia t w ie rd z e ń o n iez m ie n n i k a ch g r u py G d z ia łają c ej w zbior z e X
Zbiór tych twierdzeń o niezmiennikach G działającej w X jest stworzoną przez Kleina de-
finicją teorii matematycznej. Istotne jest, że pozostawiając ten sam zbiór, a zmieniając grupę
przekształceń, uzyskujemy nowe teorie matematyczne.70
W podejściu Kleina, grupa jest jednym z podstawowych pojęć. Zostało ono wprowadzone
w 1830 roku przez Evariste Galois. Początkowo odnosiło się tylko do grupy przekształceń.
W drugiej połowie XIX wieku uogólnione pojęcie grupy, znalazło liczne zastosowania na
przykład w krystalografii, mechanice kwantowej, a nawet w teorii sztuki (ornamentyka)71.
W konsekwencji przyjęcia postulatów programu erlangeńskiego zadania geometrii polegać mają
na badaniu własności układów punktów, które nie zmieniają się przy dowolnym przekształ-
ceniu obranej grupy. Własności te nazywają się niezmiennikami danej grupy przekształceń72.
Geometria euklidesowa, według definicji Kleina, jest więc teorią wynikającą z przekształceń
płaszczyzny grupą izometrii73, a jej niezmiennikami są odległości pomiędzy punktami. Jeśli
na tym samym zbiorze (płaszczyzna jest rozpatrywana jako zbiór punktów) działającą będzie
grupa homeomorfizmów74 to otrzymaną teorią będzie topologia.
2.2.6. To p o l o g i a
Niezmiennikiem grupy homeomorfizmów jest spójność figury. Topologia jest więc nauką
o spójności75. „Ogólność metod topologicznych polega na ogólności założeń dotyczących roz-
ważanych przekształceń, jak i na ogólności rozważanych zbiorów, które mogą być dowolnymi
przestrzeniami topologicznymi”76. Właśnie ta ogólność topologii jest jej wielką zaletą, czyniącą
z niej narzędzie o wielorakim zastosowaniu.
Termin topologia, pojawił się w literaturze przedmiotu w 1847 roku. Około 1920 roku uznano
powstanie nowej dziedziny matematyki, która obecnie rozgałęziona jest na szereg nauk bar-
dziej szczegółowych. Topos znaczy po grecku miejsce i podobne znaczenie ma łacińskie situs.
Początkowo zamiast nazwy topologia używano geometria situs. Topologia była najprężniej
rozwijającą się gałęzią matematyki w pierwszej połowie XX wieku77.
73 I z om e t r i a — przekształcenie, w którym, odległości punktów nie ulegają zmianie (np. obrót, przesunięcie).
podaje za: Słownik wyrazów obcych, dz. cyt., s. 319
74 Ho m e o m o r fiz m — przekształcenie wzajemnie jednoznaczne i wzajemnie ciągłe.
podaje za: Słownik wyrazów obcych, dz. cyt., s. 284
75 Witold Sadowki, Femme Fatale, dz. cyt. , s. 153
76 Mały słownik matematyczny, dz. cyt., s. 287 – 288
77 http://pl.wikipedia.org/wiki/Topologia, 2009-04-03
78 http://pl.wikipedia.org/wiki/Hipoteza_Poincarégo, 2009-04-03
79 Agnieszka Labisko, Hipoteza Poincarégo
http://www.polskieradio.pl/nauka/wszechswiat/artykul4213.html, 2009-05-08
80 Tamże, wówczas
35
„Szczególną gałęzią topologii rozmaitości jest teoria węzłów, która zajmuje się krzywymi
zwykłymi zamkniętymi, zanurzonymi w przestrzeni trójwymiarowej. O ile w przestrzeniach
dwuwymiarowych, a także cztero– i więcej wymiarowych każda taka krzywa daje się bez
rozcinania przekształcić w okrąg, to w przestrzeni trójwymiarowej istnieje nieskończona liczba
takich nierównoważnych krzywych, zwanych węzłami” 81.
Problematyka węzłów dwuwymiarowych znana jest wszystkim, którzy próbowali rozwiązać
kiedykolwiek łamigłówkę geometryczną typu narysuj kształt bez odrywania ołówka (oczywiście
każdy odcinek można narysować tylko jeden raz). Pytanie, czy dana łamigłówka ma rozwiązanie, to-
polog sformułowałby na przykład słowami: czy dana figura dwu–wymiarowa jest homeomorficzna
z dwuwymiarową linnią krzywą?
Odpowiedź na to pytanie można odnaleźć bardzo prostym sposobem. Choć czasem znale-
zienie rozwiązania łamigłówki może być pracochłonne, to stwierdzenie czy ma ona rozwią-
zanie wymaga jedynie policzenia odpowiednich punktów. Należy zwrócić uwagę na punkty
zbiegu odcinków i policzyć te, w których zbiega się nieparzysta liczba odcinków. Są to punkty
początku i końca prowadzenia rysunku. Jeśli ich liczb jest różna od 2, to łamigłówka nie ma
rozwiązania.
Zasada ta wyjaśnia czemu można jednym ruchem narysować kopertę otwartą, a zamkniętej
już nie. Matematycznie dowiódł jej Leonhard Euler, pionier teorii grafów, rozważając zagad-
nienie mostów królewieckich82. Powyższy przykład to abstrakcyjne zastosowanie uogólnień
topologii, a co z jej zastosowaniami praktycznymi?
2.2.7. U r z ą dz e n i a s t e rując e
Z problemami przekształceń przestrzeni wraz ze zmianą wymiaru, użytkownik komputera
styka się bezpośrednio dotykając urządzenia sterującego. W przypadku urządzeń w formie
prostokąta sposób odwzorowania nie wymaga żadnych wyjaśnień. Ciekawe jest natomiast, jak
odwzorowywana jest powierzchnia kuli na prostokąt monitora.
Wyparcie z rynku myszy mechanicznych przez optyczne, nie oznacza wcale, że rozwiązanie
to przechodzi do historii. Należy pamiętać o zwolennikach śledzonej kuli (eng. trackball), po-
tocznie zwanej kotem, do których i ja się zaliczam. Ten manipulator kulkowy jest rozwiązaniem
odwrotnym. Spoczywa nieruchomo, może być nawet zamocowany na stałe. Sterowanie odbywa
się bezpośrednio przez obracanie kulki.
Początkowo sądziłem, że popularność tradycyjnej myszy jest wynikiem jedynie względów
ekonomicznych. Przypominam sobie jednak negatywne oceny użytkowników, które moim zda-
niem wynikają z ich niedostatecznych zdolności manualnych.
Myszka jest najmniej ergonomicznym ze wszystkich znanych mi urządzeń sterujących. Przy
dłuższych dystansach kursora wymaga zamaszystego ruchu, na który może nie starczać miejsca
na biurku. Oczywiście, można ten problem łatwo rozwiązać, unosząc i opuszczając mysz, ale
kosztem przerwania ciągłości ruchu i obciążenia całej ręki aż po bark. Notoryczne stosowanie
tradycyjnej myszy prowadzi do schorzenia zwanego zespołem myszy komputerowej.
81 http://pl.wikipedia.org/wiki/Topologia, 2009-04-06
82 http://pl.wikipedia.org/wiki/Leonhard_Euler, 2009-04-18
36
Kot jest zdecydowanie bardziej wygodny i ergonomiczny. Ręka może spoczywać nieru-
chomo; cały proces sterowania odbywa się jedynie przy użyciu palców, nie obciąża więc nawet
nadgarstka. Poczyniłem tak obszerną dygresje, w trosce o zdrowie użytkowników urządzeń
sterujących.
Wracając do tematu — jak odwzorowana jest kula na prostokąt? Nic prostszego — wy-
starczy sprowadzić obwód prostokąta do punktu. Jeśli punkt ten nie należy do płaszczyzny,
obwód prostokąta monitora stanowi granicę nie do przekroczenia. Natomiast jeśli należy, to
płaszczyzna monitora nie ma granicy i w takim przypadku kursor po zniknięciu z lewej strony
pojawia się z prawej, po zniknięciu u góry pojawia się na dole i odwrotnie.
Napisałem o punkcie, a przecież obwód monitora jest prostokątem. Czy topologowie potrafią
zaczarować prostokąt w punkt. Oczywiście: przecież prostokąt jednowymiarowy jest tożsamy
z punktem. Rozwój teorii wymiaru, również zawdzięczamy badaniom topologicznym.
2. 3.1. S k r z y w i e n i a pro s t e j
Klein wraz z Eugenio Beltrami miał udział w sformułowaniu na początku XIX wieku modeli
geometrii Bolyai–Łobaczewskiego, które przyczyniły się do rozpowszechnienia wśród mate-
matyków geometrii nieeuklidesowych83. Model Kleina przedstawia płaszczyznę hiperboliczną
jako wnętrze koła, którego cięciwy są liniami. Został on zaadaptowany przez Poincarégo do
stworzenia modelu, zwanego dziś dyskiem Poincarégo. W modelu tym liniami są łuki koła pro-
stopadłego do granicy koła oraz średnicy okręgu84.Zasady geometrii hiperbolicznej posłużyły
Esherowi przy konstrukcji grafik. Drzeworyty z cyklu Granica koła powstały w latach 1958 – 6085.
Granica koła 1
źródło: M. C. Escher, Grafiki, Edipres Polska S..A., Warszawa 2005, © Cordon Art
83 http://pl.wikipedia.org/wiki/Elementy, 2009-02-12
84 http://pl.wikipedia.org/wiki/Geometria_hiperboliczna#Modele, 2009-03-30
85 M. C. Escher, Grafiki, Edipres Polska S..A., Warszawa 2005
38
Udowodnienie, że geometria euklidesowa nie jest jedyną możliwą, miało twórcze konse-
kwencje nie tylko w matematyce. Powstało pytanie o krzywiznę rzeczywistej przestrzeń fizycznej.
Podjęto się badań, które w badanych skalach nie wykazały zakrzywienia przestrzeni.
Eksperyment został zaproponowany przez Carla Gaussa i polegał na pomiarze kątów jak naj-
większego trójkąta86.
Rozważania na temat prawdziwej geometrii mają swą analogię w historii architektury. Choć
przez tysiące lat dominantą konstrukcyjną pozostają linie proste, co jakiś czas odradza się trend
opozycyjny. Dychotomię pomiędzy linią prostą i krzywą w pełni obrazować może odróżnienie
sztuki baroku od renesans. W wieku XX, wraz z radykalnym przyspieszeniem obiegu infor-
macji sztuka rozwija się wieloliniowo. Najbardziej znaną apoteozą linii krzywej jest architek-
tura Antonio Gaudi’ego. Styl jego nawiązuje do form organicznych. Charakterystyczne cechy
budynków to płynne, faliste linie i nieregularne rzuty.
Innym orędownikiem płynności linii był Friedensreich Hundertwasser znany ze swych pro-
ekologicznych akcji (sadzenie drzew, toalety humusowe, dzień ziemi). Wygłoszony w Seckau
w 1958 roku Manifest pleśni wyrażał sprzeciw wobec racjonalizmu w architekturze i postulował
konieczność odrzucenia linii prostej i symetrii. Największym projektem architektonicznym
Hundertwassera była wioska w Blumau, we wschodniej Styrii. W projektach artysty bardzo
ważną rolę pełniła obecność roślinności 87.
Dewey zauważa, że „linie krzywe sprawiają wrażenie przyjemne, bo odpowiadają natu-
ralnej skłonności oka do poruszania się”88. Naturalna płynność linii wspomnianych dzieł archi-
tektury i innych dzieł sztuki wiąże się najczęściej z biologicznymi inspiracjami artystów. Nie
oznacza to bynajmniej, że biologiczne inspiracje muszą prowadzić do eliminacji linii prostych.
Ghyka w księdze o liczbie Φ objaśnia, że złoty podział jest analogią harmonicznego wzrostu.
Można na przykład zauważyć ten związek porównując spiralę logarytmiczną z budową muszli.
I tak stosujący linie proste Le Corbusier korzystał z pitagorejskich zasad złotego podziału
w planach architektonicznych89. Jest to bardziej racjonalna, choć mniej oczywista inspiracja
biologią w architekturze.
źródło: http://temps.blog.lemonde.fr/files/2006/12/rr-le-corbusier.jpg
2. 3.2. Pa r k i eta r z
Pokrycie płaszczyzny ściśle przylegającymi figurami nazywamy p a r k ie t a r z e m 90. Słowo
to właściwie kojarzy się z parkietem, którego wykonanie jest praktycznym rozwiązaniem oma-
wianego problemu. Moduły parkietarzu zwie się też czasem kafelkami. To następna analogia
z technikami dekoracji wnętrz. Historia architektury przekonuje, że idea parkietarzu posiada
wielowiekową tradycję zwłaszcza w kulturze Islamu. Teoria grup przekształceń (wspomniana
przy okazji programu erlangeńskiego), pozwala usystematyzować i matematycznie opisać me-
tody konstruowania kafelków bardziej skomplikowanych niż powszechnie stosowane równole-
głoboki. Wykonanie parkietarzu w geometrii hiperbolicznej wymaga większej sprawności po-
sługiwania się narzędziami geometrycznymi. Sam Escher wykonał wiele prac eksplorujących
ideę parkietarzu również w geometrii euklidesowej. Jest to zadanie o wiele prostsze. Znalazł on
wielu naśladowców nie tylko wśród plastyków, ale również i ludzi komponujących parkietarze
dla zabawy91.
Od czasu rozpoczęcia niniejszego opracowania przekonany jestem, że problema-
tyka parkietarzu zasługuje poświęcenia jej więcej uwagi. Sądzę, że uważniejsze przyj-
rzenie się temu zagadnieniu, rzuci więcej światła na związek estetyki z matematyką. Ponad
to pragnę zaprezentować metodę parkietarzu z praktycznych względów przydatności jej
w działaniach plastycznych. Zważywszy na charakter rozważań, które doprowadziły do tematu
parkietarzu zdawać by się mogło, że jest to zadanie wymagające wyższej matematyki. W rzeczy-
wistości jest ono dziecinnie proste. Na podstawie książeczki Wacława Zawadowskiego Mozaiki
matematyczne można przeprowadzić lekcję parkietarzu nawet w nauczaniu początkowym.
Metodą, którą promuje autor jest przekształcanie par boków równoległoboku. Przekształcenia
te polegają na odcinaniu fragmentu figury i przyklejaniu go do skojarzonego boku92. Pamiętając,
że homeomorfizmy są przekształceniami zachowującymi spójność figury, można zauważyć,
że proponowane przekształcenia do metod topologii nie należą. Nie oznacza to bynajmniej
niemożności tworzenia parkietarzy przy użyciu homeomorfizmów.
Rozwiązania proponowane przez autora mozaik można osiągnąć zachowując spójność
figury. W tym celu należy wyginać parę boków, w ten sposób, że wygięciu jednego na zewnątrz
towarzyszy przeciwne wygięcie drugiego (czyli takie same wygięcie do wewnątrz). Figura prze-
staje więc posiadać cechę równoległoboczności, ale odpowiednie odcinki, które stanowiły parę
skojarzonych boków (niekoniecznie tych równoległych) pozostają przystające. Przypominam,
że znajdujemy się na etapie rozważań topologicznych, tak więc odcinki to nie koniecznie
fragmenty prostej, ale każdy możliwy ciągły zbiór punktów dowolnej linii.
W praktyce topologiczna metoda parkietarzu jest trudniejsza zarówno z kartką papieru,
nożyczkami i klejem, jak i prostym programem graficznym. Nawet przy wykonywaniu ka-
felków z elastycznego materiału takiego jak glina, łatwiej będzie uzyskać przystające odcinki,
jako brzegi figur powstałych przez cięcie. Formowanie homeomorficzne byłoby zdecydowanie
bardziej uciążliwe.
90 Zobacz stronę anglojęzyczną, gdzie zgromadzona jest wiedza na temat wszystkich znanych rodzajów parkietarzu:
http://mathworld.wolfram.com/topics/Tiling.html
91 zobacz: www.tessellations.org — strona anglojęzyczna prezentuje przykłady i metody parkietarzu
92 Wacław Zawadowski, Mozaiki matematyczne, Wydawnictwa Szkolne i Pedagogiczne, Warszawa 1989
40
Mój kafelek posiada oś symetrii. Nie jest to w żadnym razie konieczny warunek. Z wyko-
rzystania przy transformacji tej osi, wynika charakterystyczna dla tego parkietarzu struktura.
Kolumny są tworzone z co drugiego rzędu.
41
Gdy wykreślić siatkę rozkładu kafelków (linie równoległe do górnego brzegu cylindra i jego
boków), to linie pionowe rozkładają się dwa razy gęściej niż poziome, tworząc siatkę złożoną
z połówki kwadratu. Przekątne tego prostokąta (ryc. VIII 2 zaznaczony przerywaną linią) od-
powiadają wektorom, o które przesuwałem fragmenty przy konstrukcji kafelka, a jednocześnie
te same wektory posłużą do przesunięć kafelka podczas parkietarzu.
Można oczywiście podobny układ z przesunięciem uzyskać na siatce, której punkty prze-
cięcia będą tworzyły kwadraty. Jednakże wtedy figurą wyjściową będzie prostokąt o proporcji
2 : 1. (ryc. IX 1); chyba, że dopuścimy kolejną z możliwych przy projektowaniu kafelka trans-
formacji — odbicie. Wtedy punktem wyjścia będą dwa kwadraty, a linie pionowe siatki znów
będą dwukrotnie bardziej zagęszczone. Opisany powyżej problem wskazuje, że zaprojekto-
wany kafelek nie utraci swych właściwości podczas rozciągania go lub odbijania. Tak samo jest
i w przypadku obracania i pochylania (ryc. IX 2).
Przedstawiony przeze mnie parkietarz można potraktować, jako ułożony z dwóch rodzajów
kafelków: główki i cylindra. Daje to wyobrażenie o kolejnej właściwości regularnych parkie-
tarzy. Każdy kafelek można pociąć na dowolną ilość modułów uzyskując w ten sposób par-
kietarz pozornie bardziej skomplikowany. Zasada działa również w drugą stronę — z kilku
pasujących do siebie kafelków można utworzyć jeden (ryc. IX 3). W przedstawionym przy-
padku powstały dwa moduły. Ponad to zróżnicowałem odcień jednego z nich aby wyróżnić
kierunek ukośny. Zabawa może nie mieć końca.
Zainteresowanych odsyłam do źródeł internetowych wskazanych w przypisach na początku
tego podrozdziału. Portal mathworld.wolfram.com dotyczy matematyki, wiedza zaprezento-
wana na tych stronach jest ścisła. Adres www.tessellations.org demonstruje parkietarz w sposób
plastyczny i praktyczny, a wręcz hobbystyczny. Sądzę również (wspomniałem o takiej moż-
liwości), że wprowadzenie parkietarzu na lekcjach plastyki w szkole podstawowej ma wielo-
rakie walory praktyczne. Zadanie to rozwija wyobraźnie i zdolność analitycznego myślenia.
Przeprowadzenie go nie wymaga od uczniów znajomości matematyki.
Istnieją jednakże i takie sposoby parkietarzu nad którymi głowią się najtęższe umysły.
Skomplikowanym problem są parkietarze nieokresowe. Roger Penrose podobnie, jak Poincaré
dokonał dużego wkładu zarówno w topologię, jak i filozofię nauki. Znany jest z budzącej oży-
wione dyskusje kwantowej teorii świadomości. W tym miejscu jednakże zajmę się problemem
słynnego parkietarzu, którego jest twórcą.
Pa rk iet a r z n ie ok r e sow y to taki, który pokrywa płaszczyznę przy pomocy zamkniętego
zestawu kafelków, w taki sposób, że w żadnym miejscu nie będzie ona jednakowa (w przeciwień-
stwie do przedstawionych już parkietarzy okresowych). Udowodnienie, że takie nieokresowe
pokrycie płaszczyzny jest możliwe było dużym wyzwaniem. W roku 1966 Robert Berger stwo-
rzył pierwszą taką strukturę przy użyciu 20 426 różnych kafelków! Teoretyczne prace Bergera
i profesora logiki Hao Wanga dowodzą, że nie może istnieć algorytm tworzenia tego typu struk-
tury93. Później Berger zredukował liczbę kafelków niezbędnych do nieokresowego pokrycia
płaszczyzny do 104, zaś w roku 1971 Rafael Robinson zmniejszył ją do 6”94.
Roger Penrose zdołał w 1974 roku skonstruować parkietarz nieokresowy przy użyciu dwóch
płytek. W 1981 roku wynaleziono uniwersalny kształt kafelka, którym można pokryć płasz-
czyznę zarówno okresowo, jak i nieokresowo. Jak na razie nie wiadomo, czy może istnieć
kształt pojedynczego kafelka wyłącznie do parkietarzu nieokresowego95.
Czy takie piękne struktury to tylko łamigłówki przynoszące sławę wybitnie twórczym
matematykom, czy też mogą mieć jakieś praktyczne zastosowanie? Oczywiście mogą. Firma
Kimberly–Clark zastosowała na produkowanym papierze toaletowym parkietarz Penrosa.
Wytłoczony na papierze wzór nieokresowy ma tę właściwość, że przy zwijaniu rolki w żadnym
miejscu tłoczenia nie pokryją się, a więc potrzeba mniej materiału do produkcji rolki określonej
średnicy. Ten ekonomiczny chwyt nie wyszedł firmie na dobre, gdyż użyła wzoru bez zezwo-
lenia autora, a wzór ten był opatentowany. Firma zobligowana decyzją sądu musiała wypłacić
Penrosowi rekompensatę96.
Żyjący sto lat temu Poincaré i współcześnie Penrose przysłużyli się swym geniuszem rozwo-
jowi geometrii. Oboje są również filozofami, a łączy ich nie tylko to, że mają nazwisko na literę P.
Wspólne jest dla nich zainteresowanie procesami poznawczymi. Choć konwencjonalizm
różni się od kwantowej teorii świadomości, z obu tych teorii można wnioskować ostrzeżenie.
U Poincaré przed interpretacją czasoprzestrzeni w stylu einsteinowskim.
Być może historyjka o zależności upływu czasu od prędkości poruszania okaże się najwięk-
szym mitem XX wieku97. Memetyczna nośność tego wyobrażenia, może być efektem ludz-
kiego marzenia o podróżach w czasie, o zatrzymaniu lub choćby spowolnieniu upływu czasu;
marzenia analogicznego do ceny, za którą Faust sprzedał duszę diabłu. Ze względu na chary-
zmatyczną osobowość Albert Einstein stał się ikoną popkultury98. Jego twórczość naukowa po-
dobnie, jak artystyczna twórczość Andy Warhola może być postrzegana, jako kpina z naiwności
odbiorców.
Penrose ostrzega z kolei przed interpretacją maszyny Turinga99, jako zdolnej do samoświa-
domości, czyli utożsamiania wszystkich procesów świadomości z operacjami obliczeniowymi.
Absurdalność idei świadomej maszyny można udowodnić zastosowawszy wyłącznie semio-
tyczną analizę. Działanie mechaniczne jest antynomią działania świadomego.
Jeśli teoria odpowiada naszym marzeniom, nie znaczy to, że marzenia uda się dzięki niej
zrealizować. Znaczy to raczej, że nasze oczekiwania warunkują interpretację. Interpretacja
zaczyna się tam, gdzie kończy się percepcja. Kuhn, podobnie jak późniejszy Wittgenstein,
twierdzi nawet, że przyjęte paradygmaty kształtują nie interpretację danych zmysłowych, ale
sam sposób widzenia100.
2. 3. 3. K rys ta l o g r a f i a
Zdarza się, iż dostrzeżenie w przyrodzie regularności znanych z teorii matematycz-
nych, może w istotny sposób przyczynić się do rozwoju nauki. Dowodem na to jest krystalo-
grafia. Wykształciła się na styku chemii i fizyki, na skutek badań nad fascynującymi własno-
ściami wielu ciał fizycznych zwanych kryształami. Nie jest to więc dziedzina matematyki, ale
sposób w jaki stosuje narzędzia matematyczne jest doskonałym przykładem wykorzystania
odpowiedniej struktury abstrakcyjnej do uporządkowania obserwacji rzeczywistych obiektów.
96 Tamże, wówczas
97 Zobacz: Janusz B. Kępka, Dziwny jest ten świat — Alberta Einsteina przekręty,
http://www.aferyprawa.com/index2.php?p=teksty/pokaz&id=2307, 2009-05-08
98 „ Po p i s m u s ic fo r s h e e p … ” — L a ib ac h, Volk , M ute R e c ords Limite d, 2006
99 Zobacz podrozdział: Ograniczenia logiki dwuwartościowej
100 Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 164
44
Istotną, a wręcz podstawową rolę w krystalografii odgrywa pojęcie symetrii. Znane dobrze
z teorii sztuki, już od czasów Starożytnej Grecji. W czasach starożytnych pojęcie to było rozu-
miane szerzej niż dziś w zastosowaniu zarówno matematycznym, jak i potocznym. Oznaczało
współmierność, proporcjonalność, równomierność rozkładu101. W tym sensie gwint śruby rów-
nież ma symetrię.
Pojęcie to, w tym szerszym znaczeniu, obejmuje nie tylko obiekty posiadające wła-
ściwości przestrzenne, ale i inne jak: twierdzenia matematyczne, utwory muzyczne
i literackie, a nawet równowagę psychiczną. Powtarzalność i regularność poszczególnych części
obiektu niesie ze sobą wartości estetyczne, wywołując przyjemne wrażenia. Dlatego też chętnie
wykorzystywana jest przez artystów, a niektóre teorie estetyczne głównie odnosząc się do
architektury głosiły, że jest niezbędnym warunkiem dobrego projektu.
Upowszechnienie zastosowania pojęcia symetrii w odniesieniu do dzieł plastycznych zawę-
ziło jego powszechne rozumienie do symetrii zwierciadlanej i obrotowej. W tym uściślonym
znaczeniu symetria również często odnajdywana jest w przyrodzie. Zwierciadlana symetria jest
cechą wszystkich zwierząt (jamochłony o symetrii obrotowej wywodzą się prawdopodobnie od
zwierząt o symetrii dwubocznej102). Dążenie w kierunku bodźca pożądanego wyznacza wektor,
równolegle do którego kształtują się kanały wymiany materii i informacji.
Schemat ten okazuje się funkcjonalnym warunkiem zdolności do poruszania. Powtarza się
więc od robaków do ludzi: z przodu pobieranie, z tyłu wydalanie, to najprostsze rozwiązanie.
Pobieranie nie tyczy się tylko pokarmu, ale również informacji, dlatego wyspecjalizowane re-
ceptory wykształciły się na strzałce wektora. W procesie ewolucji początkowo jednakie seg-
menty środkowe specjalizują się; wykształcają się między innymi kończyny. Dlaczego tylko
para? Po co więcej?
U wspomnianych jamochłonów, których życie w fazie bezpłciowej jest statyczne, oraz
w królestwie roślin, przeważa symetria obrotowa. Bardzo często występuje jej odmiana
pentagonalna. Jest to interesujące ze względu na niemożność wykorzystani jej do konstrukcji
sieci przestrzennej. Można przypuszczać, jak N. W. Biełow, że pięciokrotna oś symetrii
u drobnych organizmów została naturalnie wyselekcjonowana, na skutek jej wartości obronnej
przed skamienieniem — krystalizacją, której pierwszym etapem jest zawiązywanie sieci
przestrzennych103.
Nauka badając symetrię w naturze uogólniła pojęcie figury. Bada nie tyle właściwości figur
geometrycznych, co figur materialnych. „Każda nowa własność odróżniająca figurę (bryłę)
materialną od odpowiedniej figury geometrycznej charakteryzuje pewną własność fizyczną.
Wprowadzenie do nauki o symetrii figur materialnych było wynikiem przede wszystkim
potrzeb krystalografii. Największe zasługi w tym względzie ma A. W. Szubnikow”104.
Postęp w krystalografii dokonał się przez opracowanie systematyki elementów symetrii
w sposób ścisły i funkcjonalny.
Wulf zasłużył się koncepcją systematyki elementów symetrii, w której podstawowym wy-
różnikiem była płaszczyzna. Dowodząc, że pojęcia środka symetrii nie sposób wyprowadzić
z pojęcia osi symetrii, a z niej płaszczyzny, uznał płaszczyznę symetrii za element bardziej
podstawowy niż inne. Z przecięcia dwóch płaszczyzn symetrii powstaje oś symetrii, a z prze-
cięcia trzech płaszczyzn środek symetrii. Teoria ta miała znaczenie metodologiczne i wywarła
wpływ na jego uczniów. Nie przyjęła się jednak, ze względu na komplikację przy rozważaniu
bardziej złożonych kryształów106.
Dla wielu artystów krystalografia była ważną inspiracją twórczości plastycznej. Regularne
rozkłady sieci krystalicznych to atrakcyjny plastycznie temat. Prace wspomnianego już Eschera,
lub struktury José María Yturralde, to tylko niektóre z przykładów.
2. 3.4. T e n s o ry
Nazwa pochodzi od łacińskiego słowa tensus, co znaczy napięty. Tensor jest pojęciem bardziej
ogólnym niż wektor (pojęcie wektora znane powinno być czytelnikom z matematyki w szkole
podstawowej, definicję wektora przypomniałem w przypisach do podrozdziału Uogólnienia
pojęcia przestrzeni). Pojęcie to bardzo użyteczne było w fizyce klasycznej do określenia
kierunku i zwrotu, w którym porusza się badany obiekt, lub w którym działa opisywana siła.
Wektory są zawsze obiektami dwu–wymiarowymi, niezależnie od tego w ilu wymia-
rowej przestrzeni są zaczepione, stanowią przeto jedynie szczególny typ spośród wielu moż-
liwych tensorów, które mogą być obiektami o dowolnej liczbie wymiarów. Do krystalografii
fizycznej tensory wprowadził Woldemar Voigt107. Są one użytecznym narzędziem opisu
anizotropowych108 własności kryształów.
Jeszcze prostszym przypadkiem tensora, niż wektor, jest skalar. Do jego określenia wy-
starczy jedna liczba rzeczywista109. Wielkościami skalarnymi są masa, temperatura, energia,
gęstość, długość, pole, objętość. Prawidło więc kojarzy się z sąsiednią etymologicznie skalą, bo
właśnie służy do jej określania.
105 Tamże, s. 48 – 49
106 Tamże, s. 49 – 50
107 Tamże, s. 162 – 163
108 A n i z o t r o p i a — wykazywanie przez ciała krystaliczne różnych właściwości właściwości fizycznych
w różnych kierunkach. podaje za: Słownik wyrazów obcych, dz. cyt., s. 35
109 Mały słownik matematyczny, dz. cyt. s. 264
46
Wielkości tensorowe reprezentuje się zwykle jako macierze kwadratowe110. Stopień ma-
cierzy określa rząd tensora. Wielkość skalarna to tensor rzędu zerowego — posiada tylko
jedną składową; wektor jest tensorem rzędu pierwszego i posiada w przestrzeni trójwymiarowej
trzy składowe. Rozważane są także tensory wyższych rzędów, a także takie o niecałkowitym
(ułamkowym) rzędzie111. Te ostatnie, zwane spinorami, charakteryzują się bardziej złożonymi
własnościami tansformacyjnymi. „Spinory pojawiają się w fizyce, w szczególności w mechanice
kwantowej, np. funkcje falowe cząstek o ułamkowym spinie jak elektron lub inne fermiony, są
opisywane właśnie za pomocą spinorów”112.
W latach 60–tych Penrose stworzył teorię twistorów. Obiekty te służą do uzgodnienia prze-
strzeni Minkowskiego (trzy wymiary + czas, jako czwarty) z przestrzenią czterowymiarową
z metryką (2,2)113 .
źródło: http://universe-review.ca/I15-56-congruence.jpg
Takie zakręcone idee na pewno wzbudzić mogą inspiracje wśród artystów. Jeden z amery-
kańskich twórców muzyki, który określa swój styl mianem Quantum Illbient Breakz (Kwantowe
Choropodkładowe Połamańce), lub Hip–Hop LI wieku nazwał się Twistor 114.
Tego typu geometryczne obiekty, wyrażające przepływ energii pomiędzy wymiarami, mogą
być użyteczne również w magicznych medytacjach. Wizualizacji sfer czterowymiarowych
i tym podobnych, jako sposobu przekraczania granic swego umysłu uczy Michaił Lwowicz
Pieriepielicyn. Opisuje, jak wyobrazić sobie dupleks–sferę115.
„Topologia matematyczna rozwiązała problem o trójwymiarowym cięciu czterowymiarowej
sfery i znalazła optymalny wyraz, który w naszym trójwymiarowym świecie opisuje ciało,
mające kształt objętościowej kardioidy” 116.
110 M a c i e r z k w a d r a t o w a — Macierz, która ma tyle samo wierszy, co kolumn, czyli m = n; ich liczba określana
przez stopień macierzy. podaje za: http://pl.wikipedia.org/wiki/Macierz#Podstawowe_pojęcia, 2009-04-20
111 http://pl.wikipedia.org/wiki/Tensor#Rząd_tensora, 2009-04-20
112 http://pl.wikipedia.org/wiki/Spinor#Zastosowania, 2009-04-20
113 http://en.wikipedia.org/wiki/Twistor_theory, 2009-04-20
114 http://www.myspace.com/twistor, 2009-04-20
115 Michaił Lwowicz Pieriepielicyn, Przestrzenne postrzeganie Świata, Orion, Warszawa 1997
116 Valerij Kratohvil, Jasnowidzenie. Od magów starożytności do programów kosmicznych NASA,
http://almanach-litera.aine.pl/pl/kratohvil_walerij/jasnowidzenie.html, 2009-04-23
K a r d i o i d a — krzywa opisywana przez ustalony punkt okręgu toczącego się bez poślizgu
po zewnętrzu innego nieruchomego okręgu o tej samej średnicy.
podaje za: http://pl.wikipedia.org/wiki/Kardioida, 2009-04-23
47
2. 3. 5. G ł a d ko ś ć k r z y w e j
W latach 60–tych we francuskich koncernach samochodowych rozpoczęto pracę nad uży-
teczną przy projektowaniu formą opisu geometrycznego. Efektem tych wysiłków jest narzę-
dzie o wielkim potencjale. Narzędzie, z którym pracujący przy komputerze projektant, grafik,
inżynier, styka się dzisiaj na codzień — K r z y w a B é z i e r a — jest współcześnie stan-
dardowym elementem, interfejsu użytkownika każdego programu oferującego możliwość
edycji grafiki wektorowej. Każdy kto musiał opisać w dwu–, lub trójwymiarowym układzie
współrzędnych obiekty nie składające się z samych prostych, docenił zapewne genialność
wynalazku Béziera. Jest to doskonałe narzędzie pozwalające w bezpośredni i intuicyjny sposób
kształtować dowolne krzywe.
Wasyl Kandynsky podzielił formy powstałe z linii na dwa rodzaje:
• p r o st e — linie powstałe w wyniku działania jednej siły;
• powstałe w wyniku dwóch sił działających:
• naprzemiennie — ła m a ne,
• równocześnie — ł u k i 120.
Rozważania jego dotyczyły płaszczyzny, czyli przestrzeni dwuwymiarowej.
Proponuję uogólnieni tej klasyfikacji na przestrzeń o dowolnej liczbie wymiarów.
Formy linearne w przestrzeni n–wymiarowej powstają w wyniku działania n sił:
• równoważnie i równocześnie — p r o st e,
• naprzemiennie — ła m a ne,
• równocześnie — krzywe121.
117 D i e l e k t r y k — substancja lub materiał, w którym występuje niska koncentracja ładunków swobodnych
w wyniku czego bardzo słabo przewodzony jest prąd elektryczny. podaje za: http://pl.wikipedia.org/wiki/Dielektryk
118 Gendij Siergiejew, Etiudy wielowymiarowego świata podaje za: Valerij Kratohvil, Jasnowidzenie, dz. cyt.
119 H o l o g r a f i a — dział optyki zajmujący się technikami uzyskiwania obrazów przestrzennych
metodą rekonstrukcji fali, czyli odtworzeniem w pewnym obszarze przestrzeni zarówno jej kierunku ruchu,
amplitudy, częstotliwości jak i fazy. podaje za: http://pl.wikipedia.org/wiki/Holografia, 2009-04-23
120 Wasyl Kandynsky, Punkt i linia, a płaszczyzna, Państwowy Instytut Wydawniczy, Warszawa 1986, s. 55
121 Prostą można traktować, jak w geometrii, jako szczególny przypadek krzywej o krzywiźnie zerowej,
dlatego nie ma potrzeby dodawać, że siły kształtujące krzywą działają nierównoważnie.
48
Idea Krzywej Béziera (KB) dotyczy tylko ostatniego przypadku, który jest najtrudniejszy
do cyfrowego opisania. Rozważając ją pozostaję jedynie w przestrzeni dwuwymiarowej.
Przypomnę, że podstawowe dwa kierunki, poziom i pion oznaczone są w kartezjańskim ukła-
dzie współrzędnych osiami x i y.
Ryc. XI Elipsy
Nie ma potrzeby kształtować KB tak prostej figury, jak koło którą wykonuje się specjalnym
narzędziem — elipsa. Jednakże, jest ona dobrym przykładem, by wstępnie przedstawić ideę
działania KB. Na rycinie XI pokazuję, że do opisania koła potrzebne są cztery węzły ( ).
Przeprowadziwszy proste przez pary węzłów ( ) możemy otrzymać tylko dwa wyniki:
• proste będą prostopadłe, gdy połączymy leżące na tej samej średnicy;
• proste będą równoległe, gdy sparujemy , które można połączyć cięciwą,
krótszą od leżącej na wielkiej osi symetrii elipsy;
Takie będą wyniki przeprowadzenia prostych przez pary węzłów każdej elipsy. Nie ma zna-
czenia, że proste prostopadłe w przykładzie na rycinie, będą odpowiadać poziomowi i pionowi.
Jest to sytuacja domyślna, zorientowana na najprostszy rozkład względem osi x i y.
Ten banalny z matematycznego punktu widzenia opis, unaocznia na przykładzie najprostszej
dwuwymiarowej krzywej zamkniętej, jak powstaje ona w wyniku działania dwóch sił. Jednakże
same nie są wystarczające do zdefiniowania kształtu, gdyż oznaczają jedynie miejsce
zaczepienia KB, a nie określają jej krzywizny, za którą odpowiedzialne są uchwyty (■ ■).
Każdy z węzłów posiada dwa uchwyty (ryc. XI: ■— —■ ) i to one właśnie określają krzy-
wiznę. Powracając do metafory Kandynskiego, można zauważyć różnicę sił kształtujących koło
i inną elipsę. W przypadku koła siła poziomu i pionu jest zrównoważona, a w przypadku innej
elipsy nie. Większe oddalenie ■ ■ od wskazuje na większą siłę modyfikującą KB. Jeśli krzy-
wizna dąży do 0 ■ ■ zbliżają się do krzywej. W przypadku zbędnego leżącego na prostej jego
■ ■ też będą leżeć na tej prostej.
49
Prezentowana forma serca opisana jest przy pomocy sześciu , po dwa każdego typu.
Węzły ostre leżą na osi symetrii. Pragnę zwrócić uwagę na górny ostry, powstały na styku
dwóch ćwierć–okręgów. Stanowi on szczególny przypadek, w którym ■ ■ leżą w tym samym
miejscu.
Wracając do zbędnych ; przy tworzeniu obiektów wektorowych warto zwracać na
nie uwagę. Każdy to zapisana cyfrowo informacja; każdy zbędny to zbędna informacja.
W informatyce natomiast zbędna informacja to strata czasoprzestrzeni. Klarowny jest wspo-
mniany przypadek z ■ ■ leżącymi na modyfikowanej KB, która w tym wypadku przyjmuje
postać linni prostej. Wiadomo co z nim zrobić — usunąć. Istnieją narzędzia do automatycznej
redukcji ilości węzłów KB. Należy jednakże uważać na nie, jak na każdą sztuczną ignorancję,
gdyż narzędzia takie mogą w niepożądany sposób zmniejszyć precyzję wykreślonego obiektu.
Istnieją też , których gordyjski charakter nie jest tak oczywisty. Doświadczenie uczy, że
w sytuacji gdy nie wiadomo jak ustawić ■ ■ by uzyskać pożądany efekt, najlepiej usunąć
i ewentualnie dodać nowy, jeśli zachodzi potrzeba.
KB pomiędzy jest zawsze gładka tak, jak funkcja jest gładka, gdy pochodne wszystkich
rzędów są ciągłe . O gładkości w plastyce więcej wywnioskujemy, skupiając się na doświad-
122
czeniu codziennym, miast na przytoczonej definicji. Ziemniak jest gładki przed obraniem, a po
obraniu już nie. Kto nie widzi między nimi różnicy nie powinien dotykać KB. W postrzeganiu
gładkości oko można wyćwiczyć obserwując, a lepiej jeszcze naśladując na przykład rysunkiem,
formy biologiczne. Jeśli ludzkie ciało wydaje się tematem zbyt trudnym, to zapewne dlatego, że
jest nam tak bliskie czyli znajome, że niewielkie nawet deformacje jawią się, jako nieestetyczne.
Jeśli to kogoś zniechęca, prostsze są muszle i rośliny ponieważ niezachowanie w rysunku ich
proporcji nie wywołuje nieprzyjemnego odczucia, gdyż zwykle pozostaje niezauważone.
2. 3.6. M at e m at y k a wo b e c c h ao s u
Prawdopodobnie Benoît Mandelbrot nie był pierwszym, który dostrzegł porządek tam gdzie
większość widział tylko nieład. Jednakże jemu to pierwszemu udało się uogólnić matematyczny
opis chaosu. Można powiedzieć, że poszerzył on znacznie granice świadomości porządku, pod-
dając analizie matematycznej obiekty, które dotąd, były uznawane za nieuporządkowane. Od
tej pory naukowcy skłonni są pojmować chaos, jako porządek bardziej skomplikowany i podej-
mować intelektualne wyprawy ku granicom złożoności.
Mandelbrot urodził się w Warszawie w 1924 roku. W roku 1936 rodzina Mandelbrot wypro-
wadziła się do Paryża, gdy wybuchła wojna do Clermont–Ferrand. W 1944 wrócili do Paryża,
gdzie w 1947 Benoît ukończył politechnikę. Wyjechał dokształcić się w USA. W Princeton
studiował pod okiem von Neumanna. W 1955 wrócił do Francji i ożenił się. Zamieszkał
z rodziną w Genewie, gdzie wykładał i uczestniczył w seminariach psychologicznych Jeana
Piageta. Zaproszony przez Paul’a Lévy, został mistrzem konferencji analizy matematycznej na
uniwersytecie w Lille123.
Od roku 1958 pracował dla IBM. Wspomina, że chciał tam popracować tymczasowo,
a wbrew jego planom, praca ta przerodziła się w dłuższą przygodę124. Mandelbrot musiał być
niezmiernie zadowolony, że w laboratoriach IBM, miał dostęp do najnowocześniejszych kom-
puterów i wykorzystał je z dużym pożytkiem dla ludzkości. W laboratoriach tych badał między
innymi przeszkadzające w pracy modemów sporadyczne szumy na liniach telefonicznych, któ-
rych przyczyny trudne były do zidentyfikowania. Mandelbrot zaczął szukać w chaotycznym
rozkładzie szumów i sygnałów oznak samopodobieństwa. Zadał sobie pytanie: czy tak samo
jak czas trwania dobrego odbioru przerywany jest zakłóceniami, czas trwania zakłóceń przery-
wany jest prawidłowym odbiorem? Rozumowanie to okazało się właściwą drogą — mniejsze
fragmenty wiernie odpowiadały większym125.
Cecha podobieństwa części do całości jest jednym z charakterystycznych wyróżników
funkcji fraktalnej, i właśnie ta cecha pozwala uchwycić porządek form o złożonej organizacji126.
Określenie fraktal wprowadził Manelbrot na oznaczenie geometrycznych tworów, których ba-
daniu się poświęcił. Obiektami, które zaliczamy dziś do fraktali zajmowali się już wcześniej:
Georg Cantor, Giuseppe Peano, Wacław Sierpiński i Paul Lévy. Kierunek poszukiwań wyty-
czony był badaniami niewiele starszych matematyków, z których pracy Mandelbrot skorzystał.
Byli to Pierre Fatou i Gaston Julia, którzy analizowali iteracje pewnych funkcji zespolonych127,
czyli takich w których występują liczby zespolone128, oraz specjalista w zakresie analizy funk-
cjonalnej, geometrii i teorii prawdopodobieństwa Paul Pierre Lévy129. Ścisła definicja fraktali
wciąż jest na etapie konstrukcji i obecnie funkcjonuje jedynie lista atrybutów fraktala. Obiekt
zostaje zakwalifikowany do fraktali, gdy posiada większość tych atrybutów130.
źródło: http://upload.wikimedia.org/wikipedia/
commons/b/b0/Fractal_Sentinel_SterlingW3165.jpg
Artystyczne zastosowanie fraktali jest bardzo szerokie. Najprostszym z nich jest tylko użycie
wzoru fraktalnego, jako atrakcyjnego deseniu w tle plakatu. Na wykorzystaniu funkcji fraktal-
nych opiera się różnego rodzaju oprogramowanie graficzne. Fraktale służą do generowania natu-
ralistycznych krajobrazów, faktur i tekstur, co staje się bardzo przydatne przy tworzeniu filmów
komputerowych,133 w których przedstawiona fantastyczna wizja powinna być jak najbardziej
sugestywna. Węgierski biolog Aristid Lindenmayer opracował reguły formalnej gramatyki słu-
żącej do tworzenia graficznych tworów o fraktalnej budowie. System zwany dziś L–systemem
jest doskonałym narzędziem do tworzenia iluzorycznych, graficznych modeli roślin134.
Korzystanie z dobrodziejstw matematyki chaosu stanowi jeden z wyróżników społeczeństwa
trzeciej fali135. Fraktale znalazły liczne zastosowania w analizach pogody i gospodarki, a nawet
historii136. Poszukiwania bardzo dziwnego atraktora krzywych indeksów giełdowych trwają. Jeśli
okaże się, że dynamikę tych procesów poddać można skutecznie prognostycznym obliczeniom
i odkrycie to zostałoby spopularyzowane, doprowadziłoby to na pewno do przejścia fazowego
w jakości numisfery.
2.4.1. T e o r i a m n o g o ś c i
Analogiczny proces zwiększania stopnia ogólności podstawowych pojęć zachodził obok
geometrii również i w arytmetyce. Kluczowym pojęciem w tym dziale matematyki są liczby.
Pierwszą próbę sprecyzowania znaczenia pojęcia liczby stanowi teoria mnogości137. Za jej twórcę
uważany jest Georga Ferdinand Ludwig Philipp Cantor. Teoria ta jako podstawowe pojęcie
przyjmowała zbiory. Rozwinął ją włoch Giusepe Peano. Jego dzieło Formulario mathematico,
nad którym pracował w latach 1892 – 1932, miało stanowić kompendium zawierające wszystkie
znane twierdzenia wszelkich działów matematyki. Aksjomaty arytmetyki Peano traktują
pojęcie liczby jako pierwotne, pozostaje więc ono niezdefiniowane138.
Mankament ten postanowił usunąć Fredrich Gottlob Frege, który zdołał wyrazić działania
na zbiorach za pomocą pojęć przeniesionych z logiki. Dlatego też uważany jest za twórcę logiki
matematycznej. Jego ambicją, której wyrazem jest dzieło Fundamentalne prawa arytmetyki,
było skonstruowanie doskonale logicznego systemu, ujmującego matematykę w ścisłe ramy
sformalizowanego myślenia. System swój oparł Frege na definicji liczb jako nazw określonych
rodzajów zbiorów. By nadać tej definicji ścisłości wprowadził pojęcie ekstensji139 własności.
Ekstencja oznacza zbiór zawierający wszystkie zbiory mające daną własność.
Przykładowo: liczba 4, pojęta jako ekstencja własności, oznacza zbiór wszystkich zbiorów
czteroelementowych. Tuż przed wydaniem wspomnianego dzieła Frege’go, wartość aksjomatów
jego systemu podważył Berand Russell. Matematyk ten wykazał sprzeczność do jakiej prowadzi
ekstensja własności nie należeć do siebie samego. Sprzeczność ta zwana antynomią Russella
w literaturze popularno–naukowej ilustrowana jest zdaniem: fryzjer w pewnym mieście strzyże
wsz ys t k ich , którzy nie strzygą się sami. Kto strzyże tego fryzjera140?
Uważając by nie popełnić błędu, który przytrafił się Frege’mu, Russell wraz z Alfredem
North Whiteheadem kontynuował starania redukcji matematyki do logiki. Ich koncepcja przed-
stawiona w Principi mathematica opierała się na rozgałęzionej teorii typów — systemie
logicznym, który obecnie stosowany jest częściej przez informatyków, niż matematyków.
137 Te o r i a m n o g o ś c i — dział matematyki zajmujący się badaniem ogólnych właściwości zbiorów, bez względu
na istotę elementów, z których zbiory te się składają. podaje za: Mały słownik matematyczny, dz. cyt. s. 287
138 Peter Atkins Palec Galileusza, Dom Wydawniczy Rebis, Poznań 2006, s. 390 - 391
139 E k st e n sj a — <łacińskie extensio = rozszerzenie, rozciągnięcie> w logice: abstrakcyjna klasa przedmiotów
o których daną nazwę (w danym jej znaczeniu) można prawdziwie orzec; zakres; denotacja nazwy.
podaje za: Słownik wyrazów obcych, dz. cyt., s. 180
140 Peter Atkins Palec Galileusza, dz. cyt., s. 392 - 394
53
W teorii tej zbiór określonego typu może zawierać jedynie zbiory niższego typu. Ważny jest
także sposób zdefiniowania rozpatrywanego indywiduum. Ponad to teoria wymagała dodania
aksjomatu nieskończoności, czyli zdania postulującego jej istnienie. Mimo to autorzy Principi
mathematica nie zdołali uniknąć losu swego poprzednika. Również i w tej teorii odnaleziono
sprzeczność do dziś nie rozwiązaną, którą jest aksjomat wyboru ściśle związany z niemożnością
przeprowadzenia operacji logicznych na zbiorach nieskończonych 141.
2.4.2. S i f r vo n N e u m a n n a
Na zakończenie przestawionych powyżej dwudziestowiecznych zmagań z próbą
uogólnienia definicji liczb, z wykorzystaniem pojęcia zbioru, zaprezentuję jeszcze rozwiązanie
jednego z dwóch ojców maszyny liczącej — Johna von Neumanna. Nie tylko posiada ono
wielkie znaczenie dla rozwoju matematyki, ale na domiar tego jest ciekawe, a nawet dowcipne.
Neumann kontynuował ideę Frege’go by kolejne liczby były definiowane jako zbiory mniejszych
zbiorów. W tym ujęciu sprawa staje się prosta po pokonaniu poważnej początkowej bariery
jaką jest zdefiniowanie zera i jedynki. Problem ten może rzucać światło na pogląd matema-
tyków starożytnej Grecji, którzy to zera i jedynki za liczby nie uznawali. Neumann zdefiniował
zero jako zbiór pusty, a jedynkę jako zbiór zawierający zbiór pusty142. Symbolicznie można
tę definicję przedstawić w następujący sposób:
Hołdując cenionej w dzisiejszych czasach tendencji do obrazowania wszelkich idei przy po-
mocy geometrycznych diagramów, przedstawiam wizualizację powyższego zapisu arytmetycz-
nego w formie plastycznej. Zero przedstawione jest jako najmniejszy, pojedynczy okrąg.
Definicja liczb Neumanna jest uderzająco prosta, a brzemienna w skutki. Całe, nieskoń-
czone uniwersum powstaje w niej ex nihilo. Koncepcja ta może stanowić logiczną podporę
dla naukowców proponujących, popularny w ostatnim czasie, model kosmologiczny. Mam na
myśli tych, opisujący w kategoriach matematyczno–fizycznych, proces przejścia niebytu w byt;
inaczej mówiąc wyłonienie się kosmosu z pustki.
Prezentacja idei wyprowadzania wszystkich liczb z zera, jest odpowiednią okazją, do
objaśnienia etymologii słowa cyfra. Do języka łacińskiego przywędrowało ono wraz z no-
tacją arabską, o której będzie jeszcze mowa, gdy zajmę się symbolami matematycznymi.
Arabskie sif r znaczy ze ro. Z pochodnych temu słowu wyrazów, w języku polskim najbliższy
brzmieniowo jest s z y f r 143.
2.4. 3. S u kc e s y n a r z ę dz i m at e m at yc z n yc h
Traktowanie pojęcia zbioru jako podstawowego; posługiwanie się nim przy definiowaniu
innych pojęć jest istotą teorii mnogości. Klasy równoważności stosunku równoważności, klasy
abstrakcji, pojęcia (nie tylko tzw. abstrakcyjne, bo wszystkie pojęcia są wynikiem procesu
definicji przez abstrakcję), to wszystko różne nazwy zbiorów zależne od przyjętej terminologii.
Teoria mnogości okazała się niezwykle płodna w metodologii nauki. W problematyce
struktury teorii empirycznych predykat teoriomnogościowy odegrał istotną rolę umożliwiając
spełnienie postulatu monizmu metodologicznego.
W 1971 roku Sneed pozycją The Logical Structure of Mathematical Physics, zapoczątkowuję
strukturalną metodologię nauki. Ujęcie to korzysta z teorii mnogości w niesformalizowany,
intuicyjny sposób. Bardziej sformalizowane jest podejście fizyka niemieckiego G. Ludwiga,
który korzysta z teorii mnogości w precyzyjny sposób wzorowanych na matematycznych kon-
cepcjach Bourbakistów. Koncepcja ta wymaga wykazania, jak skonstruowane są pojęcia ba-
danej teorii przy pomocy operacji na zbiorach obiektów stanowiących jej podstawę. W teo-
riach empirycznych podstawowy zbiór obiektów związany jest z badaną dziedziną rzeczywi-
stości. Pojęcia tworzą hierarchiczną strukturę; im wyższy jej poziom tym bardziej abstrakcyjne
obiekty się bada144.
Warto zwrócić uwagę, jak ścisły jest związek pomiędzy pojęciem zbioru, a abstrakcyjnym
myśleniem. Zbiór jest jednocześnie narzędziem tego myślenia jak i doskonałym przedstawi-
cielem abstrakcyjnego pojęcia. Utworzenie zbioru polega na wyróżnieniu własności przypi-
sywanej wielu różnym obiektom. Własność wyróżniona stanowi wspólny mianownik dla
wszystkich elementów zbioru. Grupując te elementy, stwarza on nową całość i wraz z nią
nową jakość. Przy czym własność należy rozumieć szeroko, nie tylko jako cechę. Dlatego
też tak abstrakcyjne pojęcie znajduje szerokie zastosowanie praktyczne. Teoria mno-
gości wyposażyła psychologów badających procesy poznawcze w ściśle zdefiniowane
pojęcie zbioru i zasady operacji na zbiorach. Umożliwiło to zastosowanie narzędzi matematycznych
do analizy procesów myślenia.
Analiza i inne operacje na symbolach pozwalają sięgać tam, gdzie nie sięgają ludzkie zmysły,
czy nawet wyrafinowane przyrządy pomiarowe. Pozwalają badać pewne rzeczy na wyrost, gdy
brak jest materiału empirycznego. Wtedy do akcji wkracza matematyka, dla której rozwoju wy-
starczający jest świat czystych idei. Spekulacje stają się nowym narzędziem. Przeprowadzane
doświadczenia oderwane zostają od materialnego świata, stając się doświadczeniami racjonal-
nymi, a nie empirycznymi.
Sukcesy wynikające z zastosowania narzędzi matematycznych rozbudzają optymizm po-
znawczy wśród uczonych. Wiara w możliwość doświadczalnego poznania rzeczywistości, jest
niezbędną motywacją do podjęcia prac badawczych. Jednak trudność w procesie opisu zja-
wisk przyrodniczych na coraz bardziej podstawowym poziomie, zwracają uwagę na pewną
ograniczoność abstrakcyjnych narzędzi badawczych.
Z faktu tego wynika przekonanie, że niezależnie od jakości używanego do opisu języka,
opis pozostaje tylko pewnym przybliżeniem rzeczywistości. Ściślej: każde z ustalonych praw
można stosować do elementów zbioru zjawisk, których ono dotyczy. Problemem stanowiącym
wyzwanie stają się odkrycia przypadków zjawisk, nie mieszczących się w zbiorze opisy-
wanym trafnie przez posiadaną już teorię. Dlatego wciąż wielkim marzeniem, mobilizującym
wysiłki badaczy i teoretyków, pozostaje stworzenie teorii o największym z możliwych
stopniu ogólności.
Ryc. XV ATLAS
Detektor w akcelatorze zderzającym hadrony w ośrodku CERN pod Genewą, przekonuje jak wielkie jest to marzenie.
źródło: http://irfu.cea.fr/Images/astImg/2274_1.jpg
Część III
3.1. P o z n a n i e m at e m at yc z n e
Profesor Heller uważa, że matematyka jest zdolna w pełni opisać obiektywną rzeczywistość.
Podkreśla jej wyższość nad językiem opisowym, wskazując na możliwość ujęcia w języku sym-
boli matematycznych treści niewyrażalnych przy pomocy słów145. Wyraża wdzięczność wobec
Stwórcy za dar, którym jest matematyka, mogąca zastępować do pewnego stopnia zmysły
w obszarach badawczych niedostępnym zmysłom146. Jego filozoficzne stanowisko cechuje się
optymizmem poznawczym wyrosłym na gruncie idei Platona, iż świat materialny jest odbiciem
idealnego.
Badając owo odbicie nie wszyscy idealiści są tak pełni optymizmu. Profesor neurologii
Hoimar von Ditfurth, którego literatura popularno–naukowa rozpowszechnia idealistyczny
punkt widzenia, niejednokrotnie podkreśla ograniczoność ludzkiego spojrzenia na świat.
Nazwał on człowieka istotą niegotową 147 .
Wśród materialistów przejawy optymizmu poznawczego bazują na zgoła odmiennym
gruncie. Kazimierz Ochocki analizuje związek nauk przyrodniczych z filozofią z punktu
widzenia materializmu dialektycznego. Materializm kładzie nacisk na istnienie bytu obiektyw-
nego. Oddziałuje on na zmysły i co za tym idzie jest poznawalny148. Tam, gdzie nie sięgają
zmysły, oddziałują ze sobą również obiektywne układy fizyczne. Jednakże również i w takiej
filozofii dominuje przekonanie o ograniczeniach języka, które czynią nawet najściślejszy opis
przybliżonym odwzorowaniem obiektywnej rzeczywistości149.
3.2. P o d s taw y p o z n a n i a m at e m at y k i
Podstawy matematyki ufundowane bywają w trojaki sposób: intuicjonistycznie (Brouwer),
logistycznie (Frege, Russell), oraz formalistycznie (Hilbert, Neumann). „Formalistyczne,
a więc nie tylko sformalizowane badania podstaw matematyki różnią od obu pozostałych przede
wszystkim dwie cechy. Po pierwsze, mają one charakter immanentny, po to więc, aby podbu-
dować matematykę jako taką, nie trzeba przenosić ani jej repertuaru, ani jej metodologii i tema-
tyzacji na płaszczyznę innej dyscypliny. Badania matematyczno–kombinatoryczne zachowują
w samej swej istocie naturę matematyczną. Po wtóre, w konsekwencji owej abstrakcji konstruk-
tywno–kombinatorycznej, na którą kładzie nacisk Neumann w swoim królewieckim programie
formalistycznego ufundowania podstaw matematyki z 1932 roku, widać wyraźnie do jakiego
stopnia budowa pojęć matematycznych wywodzi się z semiotyki” 150.
Procesy logiczne można ująć, jako procesy semiotyczne, nie można natomiast ująć procesów
semiotycznych jako logiczne151. Wynika z tego, że semiotyka jest bardziej ogólna i uniwersalna,
niż którakolwiek logika. Metamatematyka wiąże się z problemami głębszymi niż logiczne: on-
tologicznymi, kategorialnymi, modalnymi152. Badania podstaw matematyki wymagają opera-
tywnego sposobu odróżniania tematyki znaku od tematyki przedmiotu153. System klas znaków
i semiotycznych tematyk realności Bense’a jest narzędziem umożliwiającym przeprowadzenie
tego zadania.
3. 3. Z na k i m at e m at yc z n e
Peirce rozpoczynając manuskrypt o podstawach matematyki, kładzie nacisk na rolę znaku
w słowach: „Matematyka w istocie dotyczy znaków. Cała nasza wiedza, czyli całe nasze my-
ślenie, dokonuje się w znakach i sama wiedza nasza jest znakiem”154. Żaden z matematyków nie
może obejść się, bez narysowanych formuł przedstawiających geometryczne figury i napisanych
figur reprezentujących arytmetyczne znaki155.
Przedstawienie przy pomocy takich znaków graficznych dowodu twierdzenia, wymaga
rygorystycznego przestrzegania określonych zasad. Jest to konieczny warunek, by treść tekstu
była dla wszystkich matematyków odczytana w jednakowy sposób. „W systemach sformali-
zowanych definicja znaku polega na przepisach obowiązujących w odniesieniu do użycia zna-
ków”156. Ścisłość tych przepisów odpowiedzialna jest za skuteczność języka matematyki w jej
analitycznej eksploracji świata abstrakcji.
150 Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 147
151 Tamże, s. 158
152 Tamże, s. 157
153 Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 159
154 Charles S. Peirce, /rkps 7, 1903/, zbiory Houghton Library,
podaje za: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 48
155 David Hilbert, Mathemathishe Probleme, Paryż, 1900,
podaje za: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 151,
156 Magdalena Aebi, Die Stellung von Gonseths „Offener Philosophie” im Ganzen der Philosophia Perennis,
w Dialectica, nr 54/55, tom 14, 2/3, 1960 podaje za: Max Bense, Świat przez pryzmat znaku, dz. cyt., s. 154,
59
Symbolika znaków matematycznych musi być przeto ściśle sformalizowana, aby treść
pozostawała niezależna od miejsca i czasu. Różne charaktery pisma odręcznego, jak i znorma-
lizowanego powodują nieznaczne różnice graficznej formy znaków, które również nie powinny
mieć żadnego wpływu na sposób odczytania ich znaczenia. Dopiero spełnienie tych warunków
czyni symboliczny język odpowiednim nośnikiem idei matematyki. Jedynie ściśle zdefiniowane
znaki wraz z zasadami ich łączenia mogą być odpowiednim narzędziem unaocznienia teorii
matematycznych.
3.4. F o r m a l i z m w ta r a patac h
Formalizm polega na wyprowadzaniu wniosków w oparciu o aksjomaty przy użyciu
rachunku logicznego zdań. W klasycznym rachunku zdań przyjmuje się, że każdemu zdaniu
można przypisać tylko jedną z dwóch wartości logicznych — prawdę lub fałsz (symbolicznie
oznaczane jako 1 i 0). Jest to więc rachunek dwuwartościowy. Istotą klasycznego rachunku
zdań są przekształcenia, które zachowują przypisane im wartości logiczne. W myśl tej zasady,
rezultatem przekształcenia zdania prawdziwego będzie również zdanie prawdziwe.
Formalizm był priorytetem wybitnego niemieckiego matematyka Davida Hilberta,
który zasłynął swoim wykładem na temat przyszłości matematyki w XX wieku, wygło-
szonym w roku 1900 na Międzynarodowym Kongresie Matematyków. Na pierwszym
miejscu postawił Hilbert problem udowodnienia hipotezy kontinuum. Na drugim miejscu listy
znalazł się równie ważny postulat — sformalizowania języka matematyki tak, by była ona
wolna od sprzeczności. Dążenie, aby jednoznaczne było co jest dowodem twierdzenia, a co nim
nie jest, które zdanie jest prawdziwe, a które fałszywe, związane jest ściśle z formalistyczną
koncepcją matematyki157.
Na przeszkodzie temu dążeniu, już na początku lat 30–tych XX wieku, stanęło jedno
z najbardziej znanych praw logiki matematycznej. Sformułował je światowej sławy austriacki
matematyk Kurt Gödel. Głosi ono, że dowolny system formalny zawierający w sobie aksjo-
maty arytmetyki liczb naturalnych, jest albo zupełny, albo niesprzeczny i nigdy nie posiada
obu tych cech jednocześnie158. Jest to najistotniejsze twierdzenie limitacyjne, czyli określające
granice możliwości teorii aksjomatycznych. Dowodem tego twierdzenia jest skonstruowane
przez Gödla zdanie prawdziwe, którego nie da się dowieść w arytmetyce liczb naturalnych.
Prawo Gödla wprowadza więc rozróżnienie pomiędzy prawdziwością zdania, a możliwością
jego udowodnienia.
W praktyce Gödel stawia naukowców przed istotnym wyborem. Stosując narzędzia
matematyczne mają oni dwie możliwości: sformułowania systemu zupełnego lub nie-
sprzecznego. Z reguły większym autorytetem cieszą się systemy pozbawione sprzeczności.
Naukowcom bowiem łatwiej zaakceptować istnienie w ramach teorii problemów otwar-
tych. Problemy te wyznaczają kierunek dalszych uogólnień. Tolerowanie sprzeczności
w sformalizowanym systemie zupełnym wyposaża jej przeciwników w skuteczną broń.
Z punktu widzenia klasycznej logiki, udowodnienie istnienia zdania sprzecznego, wywie-
dzionego z aksjomatów danej teorii, równoznaczne jest ze sfalsyfikowaniem takiej teorii.
Z drugiej jednak strony trudno wyobrazić sobie, jak wyglądałby świat, w którym zrezy-
gnowano z badań w ramach systemów sprzecznych–zupełnych. Są one bowiem podstawą
programowania komputerów, maszyn liczących, które stanowią nowe potężne narzędzie
nauki i sztuki.
System komputerowy jest obliczeniowym systemem sformalizowanym. Jest zupełny
i jako, taki zawiera w sobie sprzeczności. Z problematyką tej sytuacji, a więc konsekwencją
limitacyjnego prawa Gödla wielu z nas styka się na co dzień. Dlatego przytoczę przykład
z życia wzięty, który zobrazuje omawianą teorię. Oto komunikat (najpopularniejszego,
a jednocześnie chyba najmniej stabilnego) systemu operacyjnego — Microsoft Windows:
„x moż e nie być wymagany przez y” jest równoznaczny z: „x moż e być wymagany przez y”.
Przeciętny użytkownik systemu nie wie czym jest x, ani jakie y ma brać pod uwagę. Jednak
w sytuacji, gdy system nie jest w stanie rozwiązać problemu odpowiedzialność za ewentualne
jego uszkodzenie danych przenoszona jest na użytkownika. Przytoczony przykład z koniecz-
ności odnosi się do sytuacji użytkownika komputera, gdyż w rzeczywistości w tej sytuacji naj-
częściej stykamy się na co dzień z prawami logiki dwuwartościowej.
Gdy klasyczna logika ma do czynienia z takim zdaniem, którego prawdziwości nie sposób
udowodnić w zupełnym systemie opartym na aksjomatach liczb naturalnych, stosuje wybieg
zwany indukcją pozaskończoną. W celu osiągnięcia formalnej spójności systemu niższego
rzędu, trzeba zastosować system wyższego rzędu (czyli zawierający w sobie cały system niż-
szego rzędu), aby dowieść prawdziwości takiego zdania.
Jeśli jednak system wyższego rzędu pozbawiony będzie sprzeczności, to (zgodnie z prawem
Gödla) będzie zawierał nieudowadnialne zdanie prawdziwe. System wyższego rzędu (uzupełniający
ten niższego rzędu) pozostaje więc niezupełny, bez rozszerzenia go o kolejny, nadrzędny system.
Skutkiem stosowania takiej metody, będzie niekończący się rozrost aparatu badawczego.
3. 5. O g r a n ic z e n i a l o g i k i dw u wa rt o ś c i ow e j
Powrócę teraz do listy postulatów Hilberta, na której to wyrażona została potrzeba
stwierdzenia, czy istnieje algorytmiczna procedura pozwalająca na dowodzenie dowolnych
twierdzeń, wyrażonych w języku symbolicznym, za pomocą aksjomatów tego języka i reguł
wnioskowania159. Problemem tym zajęli się: amerykański logik Alonzo Church, który opra-
cował w tym celu rachunek λ (lambda), oraz brytyjski deszyfrant Alan Turing, który wymyślił
logiczną maszynę liczącą, nazywaną dzisiaj, od jego nazwiska, maszyną Turinga, w skrócie
anglojęzycznym TM. Obaj naukowcy przyczynili się nadzwyczajnie dla rozwoju techniki,
o czym mowa będzie w następny podrozdziale.
Oczywiście TM nie była pierwszą maszyną liczącą. Historia tego typu urządzeń sięga równie
daleko, jak początki samej arytmetyki. W materiałach z konferencji dotyczącej informatyki
w szkole (Lublin 1997) Maciej Sysło streszcza tę historię następująco: „(…) abakusy oraz póź-
niej konstruowane liczydła są przeznaczone do wykonywania czterech podstawowych działań
arytmetycznych, pierwsze arytmometry czy kalkulatory (np. zbudowane przez B. Pascala
i G. W. Leibniza) można również stosować jedynie do podstawowych działań arytmetycznych
— Pascal zbudował swoją Pascalinę, by pomagała jego ojcu, poborcy podatkowemu. Pierwsza
konstrukcja Charlesa Babbage’a, maszyna różnicowa, była także zaprojektowana do wykony-
wania jedynie obliczeń według schematów różnicowych, a jej głównym przeznaczeniem było
sporządzanie tablic matematycznych, wtedy, tj. na początku XIX wieku, tak bardzo potrzeb-
nych w nawigacji i w obserwacjach astronomicznych”160. Wszystkie te wymienione eksponaty
muzeum technik rachunkowych, były ograniczone swoim przystosowaniem do konkretnych,
specjalistycznych zastosowań.
TM ma tę zdecydowaną wyższość nad swymi poprzedniczkami, że przy wykorzystaniu
algebry bulowskiej161 jest w stanie wykonać wszel k ie działania rachunkowe. Maszyna ta wyko-
nując przekształcenia logiczne korzysta z ograniczonego systemu symboli, oraz programu zdefi-
niowanego algorytmami. Pracuje więc w systemie zupełnym, a wprowadzane dane odczytywane
są zawsze chronologicznie — jedna jednostka informacji w jednym odstępie czasu.
Opierając się na limitacyjnym twierdzeniu Gödla wiemy, że w systemie takim występować
będą zdania sprzeczne. Co stanie się, gdy postawiony maszynie problem należy do tych nie
posiadających rozwiązania? Obliczając rozwiązanie zdania nierostrzygalnego TM nie będzie
mogła zakończyć pracy nigdy. Z repertuaru środków, którymi dysponuje, nie jest w stanie
sformułować dowodu takiego zdania, ani dowodu jego zaprzeczenia162.
W konsekwencji tego problemu stajemy znów w obliczu formalistycznych postulatów
Hilberta. Dziesiąty z nich sprowadza się do pytania, czy istnieje algorytm, który dla dowol-
nego równania wielomianowego wielu zmiennych o współczynnikach będących liczbami
całkowitymi znajduje rozwiązanie w zbiorze liczb całkowitych, w skończonej liczbie kroków 163?
Czyż kolejna odpowiedź negatywna może nas zaskoczyć? Niemożliwość zdefiniowania algo-
rytmu pozwalającego stwierdzić, czy takie równanie ma rozwiązanie, udowodnił w 1970 roku
Jurij Matijasewicz164.
Analizując przedstawione prawa logiki, wykazać można, że wbrew potocznemu przekonaniu,
ko m pu t e r b ł ę d ów n ie p o p e ł n ia . Nie je s t d o t ego z d ol ny. Może natomiast nie być
zdolny do rozwiązania problemu. Wyrażenie komputer zawiesił się, też nie jest adekwatne do
sytuacji, w której to najczęściej maszyna właśnie najciężej pracuje, wykorzystując całą swoją
moc obliczeniową. Zgodnie z twierdzeniem Matijasewicz trudno ocenić, a często jest to wprost
niemożliwe, czy komputer skończy liczyć na przykład za tydzień, czy nie skończyłby póki
by działał.
Zakłócenia w zapisie danych, które możnaby nazwać błędami mogą być spowodowane me-
chanicznym uszkodzeniem struktur ich przechowywania (np.: dysków). Uszkodzenia te mogą
być porostu wynikiem zużycia sprzętu, bądź też innych zewnętrznych przyczyn fizykalnych
(np.: wilgocią, wysoką temperaturą). Nie są więc to błędy maszyny liczącej, tylko potknięcia
spowodowane złymi warunkami.
3.6. Z a s t o s owa n i e l o g i k i dw u wa rt o ś c i ow e j
Pomimo omówionych ograniczeń logika klasyczna jest narzędziem, wielce użytecznym.
Dzięki rozwojowi koncepcji mechanicznego udowadniania twierdzeń dysponujemy dziś ma-
szynami liczącymi, które znalazły zastosowanie niemal we wszystkich formach działalności.
Logika dwuwartościowa jest podstawą zarówno hardware’u, jak i software’u. W budowie
fizycznej układów magazynujących i przetwarzających informacje wykorzystywany jest kod
binarny. Obecnie kodem tym nie posługują się nawet informatycy programujący w językach
najniższego poziomu.
Wartością logicznym 1 i 0 odpowiadają ładunki elektryczne + i -, których nie jesteśmy
w stanie dostrzec gołym okiem. Jednak w czasach przed pojawieniem się układów elektronicz-
nych, mechaniczne maszyny liczące programowane były taśmą, na której wartościami binar-
nymi była dziurka i brak dziurki. Obraz takiej taśmy unaocznia nam wyraźnie, że urządzenia
elektroniczne, których protoplastami były mechaniczne maszyny liczące, są fizycznym urze-
czywistnieniem idei Turinga.
Ideą, która stworzyła podstawy takim konstrukcją elektronicznym, była algebra bulowska,
sformułowana właśnie w celu mechanicznego dowodzenia twierdzeń. Jest to algebra dwuwar-
tościowa, której opisem zajmował się już w połowie XIX wieku G. Bool. Wartości bulowskie
można bezpośrednio traktować jako cyfry dwójkowe i dlatego znalazły one zastosowanie
w konstrukcji automatów liczących i sieci przełączających. W urządzeniach elektronicznych
wartości kodu binarnego reprezentowane są stanami przewodzenia i nie przewodzenia sygnałów
przez jednostkę operacyjną165.
Dla symbolicznej nadbudowy, która pozwala nam na użytkowanie maszyn liczących logika
dwuwartościowa jest również punktem wyjścia. Algorytmy układane w myśl jej zasad są pod-
stawą komunikatów formułowanych w językach komputerowych. Pozwalają nam programować
komputery, tak by były ściśle zależne od ustalonych zasad postępowania.
W programowaniu komputerów zastosowanie znalazł stworzony przez Churcha, przy okazji
rozwoju teorii obliczeń, rachunek λ. Zadaniu programowania komputerów przyjrzę się jeszcze
dokładniej, z humanistycznego punktu widzenia, w rozdziale poświęconym pracy w środowisku
cyfrowym w czwartej części pracy.
3.7. L o g i k i a lt e r n at y w n e
Antidotum na zaistniałe w teorii mnogości paradoksy, (patrz rozdział: Uogólnienia pojęcia
liczby), oraz ograniczenia logiki dwuwartościowej, stanowić może jedynie zmiana paradygmatu
rachunku zdań. Poza logiką dwuwartościową istnieją też logiki wielowartościowe. Stanowią
one rodzaj rachunku zdań, w którym przyjmuje się więcej niż dwie wartości logiczne.
Najprostszą z nich będzie więc logika trójwartościowa. System taki wyłożył w latach
20–tych XX wieku polski logik i filozof Jan Łukasiewicz. Określił on możliwość jako trzecią,
obok prawdy i fałszu, wartość logiczną166. Był to pierwszy nieklasyczny rachunek zdań. Ten
wybitny polski filozof zasłużył sobie na nazwanie planetoidy 27114 swoim nazwiskiem167;
3. 8. L o g i k a i n t u ic j o n i s t yc z n a
Do filozofii matematyki koncepcję intuicjonizmu wprowadził Luitzen Egbertus Jan
Brouwer172. Opiera się on na kantowskiej idei sądów apriorycznych. Odrzucił on apriorycz-
ność pojęcia przestrzeni, co wynika prawdopodobnie z faktu, że głównym przedmiotem jego
badań matematycznych była topologia. Podtrzymywał natomiast pogląd o aprioryczności po-
jęcia czasu. I na tej podstawie udowadnia, że pojęcie liczby jest również wynikiem wrodzonych
struktur umysłu ludzkiego.
Obiekty matematyczne zalicza Brouwer do konstrukcji myślowych związanych ściśle ze spo-
sobem postrzegania przez nas czasu. Liczby naturalne są wynikiem wyodrębnienia elementów
zbioru, spostrzeganych jako jednostki rozdzielne w czasie. Z założenia, żadnego apriorycznego
pojęcia, nie można rozwijać przez definiowanie go przy pomocy innych pojęć.
W tym ujęciu liczby naturalne są więc wynikiem intuicyjnego wyczucia i stąd nazwa kie-
runku — i n t u ic jo n i z m 173. Rezygnacja z definiowania pojęcia liczb może zostać uznana
za schowanie głowy w piasek. Przynajmniej z punktu widzenia, który kantowską koncepcję
idei apriorycznych uważa za drugą, obok determinizmu w myśl Leibniza, barierę dla rozwoju
intelektualnego ludzkości174.
Nie należy jednak podejrzewać intuicjonistów o nadmierne lenistwo, gdyż krytyka poglądów
swych poprzedników jaką stworzyli, miała wybitnie twórczy charakter. Poza zanegowaniem
możliwości opisania liczb przy pomocy pojęć bardziej podstawowych, intuicjoniści odrzucając
istotne elementy metodologii logiki klasycznej.
W logice intuicjonistycznej wartościami, które określa rachunek zdań nie jest prawda i fałsz,
lecz u z a s a d n ie n ie, bądź jego brak. Negują więc oni metody takie jak:
• Sposób dowodzenia przez redukcję do absurdu, który polega na udowodnieniu fałszywości
zdania poprzez wyprowadzenie dwóch zdań sprzecznych na podstawie logicznych
przekształceń pierwszego zdania.
• Prawo wyłącznego środka, które stwierdza, że zdanie jest prawdziwe lub fałszywe
i nie dopuszcza żadnej innej możliwości.
Natomiast intuicjoniści akceptują istnienie zdań nierozstrzygalnych lub niemożliwych
do udowodnienia.175.
3.9. L o g i k a ro z m y ta
Inną ciekawą alternatywę dla logiki klasycznej stanowi logika rozmyta. Jako pierwszy
przedstawił ją Lotfi Zadeha w 1965 roku. Jest ona formalizacją niepewności. Odnosi się do
obiektów, wobec których pewne określenia stosują się tylko w pewnym stopniu. Pomiędzy
stanem 0 (fałsz), a stanem 1 (prawda) rozciąga się szereg wartości pośrednich, określających
stopień przynależności elementu do zbioru176.
Metody logiki rozmytej wraz z algorytmami ewolucyjnymi i sieciami neuronowymi
stanowią nowoczesne narzędzia do budowy systemów zdolnych do uogólniania wiedzy177.
W powiązaniu z metodami statystycznymi i rachunkiem prawdopodobieństwa znajdują one
szerokie zastosowanie wszędzie tam, gdzie analizowane są zjawiska o wysokim stopniu
złożoności.
Po pierwsze w budowie systemów sterujących w czasie rzeczywistym, które spełniać muszą
wymaganie jak najszybszego rachunku z wykorzystaniem danych w formie parametrów przy-
bliżonych. Po drugie w programowaniu systemów eksperckich służących między innymi formu-
łowaniu prognoz ekonomicznych, meteorologicznych. Zjawiska takie są opisane przez obszerne,
a niekompletne bazy danych, a ilość możliwych rozwiązań uniemożliwia analizę, według zasad
logiki dwuwartościowej, w skończonym czasie. Ponad to omijane są dzięki temu ograniczenia
logiki klasycznej — nieskutecznej w obliczu niejednoznaczności i sprzeczności.
3.10. P o l e m i k a z p o j ę c i e m l ic z b B rou w e r a
W tym miejscu pragnę w obrazowy sposób przedstawić sposób pojmowania liczby w związku
z naszym codziennym, sensorycznym doświadczeniem czasoprzestrzeni. Jeśli założymy,
że polem tego naturalnego doświadczenia jest przestrzeń trójwymiarowa i dopiero w takiej
przestrzeni możemy osiągnąć obiektywny ogląd liczebności zbioru, to pojęcie czasu staje się
podstawowym warunkiem ufundowania pojęcia liczby.
Przestrzeń trójwymiarowa jest w doświadczeniu naturalnym wynikiem złożenia kolejnych
(a więc rozdzielnych w czasie), dwuwymiarowych rzutów na siatkówkę oka. Gdybyśmy przy
oglądzie zbioru elementów trójwymiarowych dysponowali zaledwie jednym z rzutów, to de facto
zostalibyśmy ograniczeni do przestrzeni dwuwymiarowej.
Ryc. XVI Drzewka posadzone w dwóch rzędach pokazane z różnych stron. Nie każdy z możliwych rzutów
dwuwymiarowych jest wystarczający do określenia liczebność zbioru. Liczebność zbioru postrzegamy na rzucie
W przypadku np.: balonów w powietrzu płaszczyzna taka może nie zaistnieć i wtedy jeden rzut nie wystarczy.
Zastanówmy się jeszcze, czy możliwa jest analiza zbioru w przestrzeni dwuwymiarowej, bez
uwzględnienia czasowej rozłączności spostrzeżeń. Przykładowo: dysponując spostrzeżeniem
kartki papieru z listą nieponumerowanych nazwisk w jednym tylko momencie, ograniczeni
jesteśmy do spostrzeżenia globalnego. Lista stanowi całość bez wyróżnionych jednostkowych
elementów, a więc nie jesteśmy w stanie określić liczebności zbioru. Proces policzenia wymaga
czasu — odrębność kolejnych elementów z listy uświadamiana jest w odrębnych momentach.
Istnieje dowód z dziedziny psychiatrii klinicznej na związek zdolności postrzegania prze-
strzeni ze zdolnościami rachunkowymi. Jak to zwykle bywa, z dowodami formułowanymi w tej
nauce, opiera się on na obserwacji zaburzeń psychicznych wywołanych uszkodzeniami mózgu.
Interesująca, ze względu na rozpatrywaną tematykę, jednostka chorobowa zwana jest zespołem
Gestmana. Otóż ustalono prawidłowość wiążącą uszkodzenia płata ciemieniowego z zabu-
rzeniami zdolności orientacji przestrzennej i rachowania178. Jeśli za przetwarzanie w języku
naturalnym informacji o przestrzeni i o liczbach, odpowiadają te same struktury neuronalne
wskazywać to może, że pojęcia liczb i przestrzeni ukształtowały się w wyniku różnych aspektów
jednego procesu.
Jeśli więc Brouwer odrzuca aprioryczność pojęcia przestrzeni, to dlaczego zachowuje
ją w stosunku do pojęcia liczby? Jeśli jedynie wyczucie czasu traktować jako, dane a priori, to
liczby tak jak i przestrzeń stanowią konsekwencje doświadczenia. Tak więc są de facto poję-
ciem a posteriori. Czy, jak wynika to z ustalonej przez Brouwera hierarchii pierwotności pojęć,
odrębność spostrzeżeń w czasie może posiadać epistemologiczną wyższość nad odrębnością
spostrzeżeń w przestrzeni?
Na tym jednak nie kończą się moje wątpliwość, co do intuicjonistycznej teorii liczb. Pozostaje
jeszcze istotna wątpliwość związana, z potwierdzoną w psychologicznych doświadczeniach,
stałością spostrzeżeniową liczebności zbiorów. Dotyczy ona zbiorów od jednego do pięciu
elementów, których liczebność jesteśmy w stanie określić momentalnie179. W sytuacji takiej
nie następuje świadomy, związany z rozdzielnością w czasie proces liczenia.
178 Hoimar von Ditfurth, Duch nie spadł z nieba, Państwowy Instytut Wydawniczy, Warszawa 1989, s. 341
179 George A. Miller sformułował prawo 7+/-2, które stwierdza, że po krótkim czasie obserwacji człowiek jest
w stanie zapamiętać i wymienić nazwy 5–9 przedmiotów.
podaje za: John R. Pierce, Symbole, sygnały i szumy. Wprowadzenie do teorii informacji,
Państwowe Wydawnictwo Naukowe, Warszawa 1967, s..315
66
Tak więc, albo proces ten zachodzi nieświadomie, albo przy pojęciu małych liczb wystarczy
jedynie przestrzenna rozdzielność elementów. Być może tylko te najmniejsze liczby możemy
traktować jako dane a priori, a kolejne wyższe liczby stanowią wynik indukcji.
3.11. L ic z by a c y f ry
Rozważania powyższe odnosiły się do pojęcia liczby, jako określenia liczebności zbioru.
Jednostki rozdzielne w czasie są natomiast w teorii Brouwera traktowane raczej jak oznaczenia
następujących po sobie elementów. Przedstawione w ten sposób definiowanie pojęcia liczby
przypominałoby raczej sytuację liczenia zbioru z zamkniętymi oczami. W gramatyce istnieje
wyraźne rozróżnienie pomiędzy określeniami kolejności i liczebności. Liczebność określana jest
przez liczebniki główne, kolejność natomiast przez liczebniki porządkowe. Jak stwierdziłem
w uprzednim akapicie, wyabstrahowaniu najniższych liczebników głównych wystarczy
rozłączność przestrzenna. Natomiast liczebniki porządkowe wymagać będą zawsze
rozdzielności czasowej.
Ciekawym więc staje się pytanie, który rodzaj liczebników jest pojęciem bardziej pier-
wotnym. Fakty historyczne, związane z badaniami sposobów zapisu znaków wskazują raczej na
pierwotność liczebników głównych. Ilość kresek, lub kropek, stosowanych w alfabetach staro-
żytnych na oznaczenie liczby, tożsama była z ilością elementów zbioru, który liczba ta oznacza.
Jednak dotyczy to tylko liczebników najniższego rzędu.
Jako przykład powszechnie znany podać można cyfry rzymskie (w istocie etruskie180), ale
i w kulturze majów sytuacja przedstawiała się analogicznie. Stosowane obecnie cyfr arabskie,
pochodzą natomiast, od indyjskich. Również i ta notacja w początkowym okresie (III wiek
p.n.e.) stosowała kreski dla oznaczenia najniższych liczb181.
Piątka odróżnia się już swoją formą, co świadczyć może o pojawieniu się na tym etapie
liczenia nowego pojęcia, które dziś nazywamy zbiorem. Piątka otwiera tym samym drogę do
określenia zbiorów liczniejszych, których elementy wymagają już porachowania. Jednocześnie
zauważam wzrost stopnia semiotyczności znaków przedstawiających liczby. Podczas, gdy cztery
pierwsze odnoszą się do swego znaczenia w najprostszy, ikoniczny sposób, funkcjonalność
kolejnych cyfr wymagała już reprezentacji symbolicznej.
Potwierdzałoby to przypuszczenie, że tylko te liczby, których percepcji wystarczy rozłącz-
ność przestrzenna można uznać za pojęcia aprioryczne. Indukcja kolejnych wymaga natomiast
rozłącznośći czasowej i co za tym idzie pojęcia liczebników porządkowych.
Mamy więc następującą chronologię:
Schemat powyższy wskazuje, że indukcja zaczyna działać tam, gdzie niemożliwe staje się
wyabstrahowanie szczegółów spostrzeżenia globalnego.
Ryc. XVII Pierwsze cyfry notacji Rzymian i Majów. Piątkę uznać mogę za pierwszy symbol zbioru w historii
arytmetyki. Przedstawiony zapis rzymskiej czwórki jest pierwotny w stosunku do późniejszego IV (jednego przed
Wraz ze wzrostem wielkości liczby sytuacja komplikuje się. Sposób budowania kolejnych
cyfr w omawianych starożytnych notacjach, powraca do konstruowania nowych znaków gra-
ficznych jako sumy istniejących. Wprowadzane są kolejne znaki uproszczone, ustalone na zasa-
dzie konwencji. Przykładowo: u Rzymian: X, L, M. Proces konstruowania cyfr tym sposobem,
prowadzi potencjalnie do nieskończonego repertuary symboli, lub do poprzestania na wyra-
żeniu skończonej liczby. Jest to jego poważną wadą.
Oczywiście w praktyce możliwe było jedynie to drugie rozwiązanie. Ograniczenie się do
skończonego repertuaru znaków graficznych, stwarzało trudności przy przedstawianiu dużych
liczb. Wymagało czasochłonnego zapisania dużej powierzchni, a jeszcze trudniejsze było ich
odczytanie.
Rozwiązaniem problemu notacji liczb wysokich rzędów stała się notacja pozycyjna. Używany
dzisiaj powszechnie dziesiątkowy system liczbowy, jest przykładem pozycyjnego systemu licz-
bowego182. Pierwszą arytmetykę posługującą się zapisem pozycyjnym przy pomocy 10 cyfr roz-
powszechnił al-Chuwarizmi swoim dziełem Al-Dżam wa-at-tafrik bi-hisab al-Hina183. Dzięki
niemu przy użyciu 10 znaków możemy wyrazić dowolnie dużą liczbę; proces zapisu pozostaje
jednak wciąż ograniczony miejscem i czasem.
„System Majów był systemem pozycyjnym dwudziestkowym, aczkolwiek nie w pełni.
Istniał (co charakterystyczne dla systemów pozycyjnych) podział na jednostki odpowiednich
rzędów”184. Pierwszy rzędem były oczywiście jednostki, drugim dwudziestki, trzecim 360–tki
— odstępstwo to miało związek z kalendarzem Majów, który liczył sobie 18 miesięcy 20–dniowych
(oraz 5 dni dodatkowych)185.
Zwróćmy uwagę, że w systemie pozycyjnym do wyrażenia wszystkich liczb wystarczą za-
ledwie 2 znaki. Można to było wywnioskować, gdy opisywałem zastosowanie kodu binar-
nego w maszynach liczących. Stwierdziłem wtedy, że z kodem binarnym nie stykamy się
bezpośrednio, ale z jego konsekwencjami jak najbardziej.
182 P o z y c y j n y s y s t e m l i c z b o w y — sposób zapisu liczb polegający na tym, że znaczenie cyfr zależy od pozycji,
na której się one znajdują, podaje za: Mały słownik matematyczny, dz. cyt., s. 222
183 J. Danecki, Kultura i sztuka Islamu, Dom Wydawniczy Elipsa, Warszawa 2003,
podaje za: Marcin Pawlik, Matematyka arabska, 2005
184 Krzysztof Leśniak, Majowie, http://www-users.mat.uni.torun.pl/~much/maya.html, 2009-03-16
185 Tamże, wówczas
69
Pamięć komputerów, jak i pamięci masowe zorganizowane są w formie bajtów. 1 bajt składa
się z 8 bitów (cyfra dwójkowa), co pozwala na zakodowanie 28 = 256 stanów. Dlatego mamy
256 poziomów tonalnych dla jednego kanału przestrzeni RGB. Jest to wartość w zupełności
wystarczająca, gdyż przeciętny człowiek może rozróżnić około 200 poziomów tonalnych.
Margines 56 poziomów przydatny jest przy przekształceniach obrazów186. Natomiast wartości
kolorów w kodzie html zapisywane są w systemie szesnastkowym, gdzie dodatkowym cyfrom
przyporządkowano odpowiadające im litery.
Rozwoj systemu notacji warunkowany jest względami pragmatycznymi. Lepszym sposobem
zapisu liczb jest ten, który lepiej sprawdza się w działaniu — przy notowaniu i wykonywaniu
obliczeń. Dotyczy to zarówno ludzi, jak i maszyn liczących. Czy jednak wszystkie obliczenia
operują tylko liczbami i symbolami działań? Czytelnika zmęczonego tematyką liczb, zachęcam
do dalszej lektury, ponieważ jak się okazuje na powyższe pytanie można udzielić odpowiedzi
przeczącej. Nie mam też wcale na myśli algebry, gdzie liczby zastąpione są zmiennymi.
3.13. Z m i e n n a l i n g w i s t yc z n a
Obliczanie przy użyciu zmiennej lingwistycznej pełni bardzo użyteczną rolę w analizach
epistemologicznych. Zmiennymi lingwistycznymi są nazwy nadane przedmiotom dzięki zdol-
ności do abstrahowania. Nazwy, jako kategorie abstrakcyjne, w naszych codziennych, zwykłych
procesach poznawczych występują w postaci zbiorów rozmytych, ponieważ przeprowadzane
kategoryzacje nie są ścisłe, lecz zwykle tylko przybliżone187.
Każdy z nas uczestniczył, lub przynajmniej był świadkiem sporu na temat koloru. Jest tak,
że na przykład to, co jedni nazwą różowym inni już fioletowym. Takie nieporozumienie, można
uzasadniać różnicami morfologicznymi siatkówki oka poszczególnych osobników naszego ga-
tunku. Proporcje ilości między trzema rodzajami czopków mogą faktycznie wpływać na indy-
widualizację widzenia barwnego. Dowodem tego są zaburzenia rozpoznawania barwy ściśle
związane z niedostatkami w wyposażeniu siatkówki w czopki.
Jednak w trakcie omawianego sporu kolor tak, jak w każdym innym akcie komunikacji
werbalnej, określony jest wyrazem, który w potocznym użyciu odnosi się do pojęcia bez ściśle
wytyczonych granic. Nawet jeśli indywidualny zakres pojęcia koloru jest wynikiem różnicy
morfologicznej, nie podważa to znaczenia jakie w procesie interpersonalnej komunikacji
odgrywa indywidualizacja zakresu pojęcia, która może prowadzić do nieporozumień.
Niezależnie od przyczyn formujących różnice w indywidualnym zakresie pojęcia danego ko-
loru, przykład ten doskonale ilustruje zjawisko przekładania systemu wartości ciągłych, na system
wartości dyskretnych188. Każdy plastyk doświadczył, że pomiędzy barwą różową, a fioletową
istnieje szereg wartości pośrednich. Ilość wyróżnionych stopni zależy od wymogów praktycznych
i indywidualnej wrażliwości. Wielość ta wymyka się określeniom językowym, a bardziej szcze-
gółowo może zostać opisana wartościami liczbowymi. Opis taki wymagany przez drukarskie
techniki reprodukcji barwnej wyróżnia ilość stopni adekwatną do ponadprzeciętnych zdolności
percepcji barwnej (podobnie, jak ze stopniami tonalnymi — zobacz poprzedni podrozdział).
186 Bruce Fraser, Chris Murphy, Fred Bunting, Profesjonalne zarządzanie barwą, Helion, Gliwice 2006, s. 87
187 Piotr Sobol-Kołodziejczyk, Dwa pojęcia obliczania, http://wiedzaiedukacja.pl/archives/9843, 2009-03-24
188 Dy sk r e t n y — przyjmujący wartości z określonego przeliczalnego zbioru
70
Doświadczony drukarz wie, że pomiędzy opisanymi cyfrowo stopniami istnieją stopnie po-
średnie. Tak więc percepcja barwy (tak jak i innych danych zmysłowych) posługuje się skalą
ciągłą. Nałożona, w celach komunikacyjnych, dyskretna skala języka dzieli skalę percepcji na
wyodrębnione obszary.
Należy przy tym pamiętać, że ciągłość skali percepcji nie jest adekwatna do rzeczywistości
fizycznej na bardziej podstawowym poziomie. To jedynie ograniczenia naszej percepcji zmy-
słowej nie pozwalają nam na tak wielką czułość, abyśmy mogli odbierać dyskretny charakter
fizycznych oddziaływań. Pojawia się on dopiero w skalach tak małych, jak długość Plancka.
Ciągłość skali percepcji i odpowiadającej jej osi semantycznej wskazuje na analogowy cha-
rakter procesów świadomości. Jeśli przyjąć, że nazwy stanowią punkty na osi lingwistycznej,
to w stosunku do równoległej osi semantycznej, punkty oznaczone nazwami znajdują się w ob-
szarze największej intensyfikacji nazywanej cechy.189 Intensyfikacja ta jest jedyną ilościową cechą
nazwy. Zakres nazwy natomiast jest zależny od ustaleń jej użytkownika, a także od kontekstu
sytuacyjnego. Widać przeto wyraźnie, że pojęcie oznaczone daną nazwą stanowi zbiór rozmyty.
Jak już zaznaczyłem, rozpoczynając rozważania o obliczaniu przy użyciu zmiennej lingwi-
stycznej, rozmytość ta dotyczy codziennych, powszechnych procesów poznawczych. Naukowcy
formułując swe teorie starają się za wszelką cenę uniknąć nieporozumień, mogących być kon-
sekwencją rozmytości pojęć. Dążąc do ścisłości języka, eliminują rozmytość pojęć poprzez
definicje. Ścisłość definicji prowadzi do innego problemu — w przypadku pojęć, które trudno
zdefiniować, pojawiają się pomiędzy teoriami naukowymi sprzeczności w oznaczaniu obiektów.
Przykładowo: odpowiedź na pytanie czy wirus jest organizmem żywym, zależy od przyjętej
definicji życia.
Kognitywistyka w początkowym okresie swego rozwoju zakładała, że informacje przetwa-
rzane zarówno przez naturalne, jak i sztuczne systemy poznawcze redukowane są do określonego
zbioru formuł logicznych, wraz z relacjami między nim. Takie ujęcie problemu opierało procesy po-
znawcze na zasadzie obliczania deterministycznego190, czyli prowadzącego od tych samych danych,
zawsze do tych samych wyników. Zadeha definiuje obliczanie niedeterministyczne, jako działanie,
u podstaw którego leży procedura obliczeniowa operująca na zmiennych lingwistycznych.191
Tak więc, teoria logiki rozmytej ma duże znaczenie dla epistemologii obliczeniowej.
Na zakończenie pragnę przytoczyć jeszcze jeden przykład związany z teorią zbiorów rozmy-
tych, jako podstawą procesów poznawczych, wskazujący na adaptatywną wartość takich funda-
mentów. Również związany z definiowaniem pojęć dotyczących barwy, wskazujący na zależność,
nie od indywiduum użytkownika pojęcia, lecz od kontekstu sytuacyjnego. Mianowicie: tworząc
zbiór rzeczy do prania czarnego możemy załączyć do nich szarą bluzkę, która następnym razem
trafi do zbioru rzeczy do prania białego (przy założeniu, że nie pierzemy oddzielnie rzeczy
szarych). Szara bluzka znajduje się równie daleko od punktu największej intensyfikacji bieli,
jak i czerni, włączenie jej do danego zbioru zależy więc od kontekstu sytuacyjnego.
3.14. O g r a n ic z e n i a i s k u t e c z n o ś ć j ę z y k a s y m b o l ic z n e g o
Ewolucyjne ukształtowanie struktur poznawczych pod wpływem zewnętrznych warunków
środowiskowych nie wnosi istotnego sensu w próby odpowiedzi na pytanie o granice poznania.
Interpretacja, jego zależna jest od filozoficznych poglądów. Może stanowić dowód zarówno
przekonania o poznawalności świata jak i o ograniczoności ludzkich zdolności w tym zakresie.
Niewątpliwe zdumiewająca jest zdolność ludzkości do eksploatacji natury w coraz większym
stopniu — pogłębiania nauki, coraz wnikliwszymi badaniami i nowymi odkryciami. Jeszcze
bardziej zdumiewa bogactwo rzeczywistości, której badacze stają wciąż przed nowymi pytaniami,
zrodzonymi z odpowiedzi na pytania uprzednie.
Liczne elementy struktury rzeczywistości można ująć przy pomocy skończonych, aksjoma-
tycznych teorii, jednak całość pozostaje poza ich zasięgiem. Struktura wszechświata okazuje
się bardziej złożona niż struktura teorii aksjomatycznej192. Podstawowe paradygmaty mate-
matyczne, czyli analityczny i stochastyczny193, stosują się do ograniczonego zakresu zjawisk.
Rodzi się pytanie o naturę wszechświata: czy byt jest deterministyczny, czy stochastyczny?
„Ściślej, czy świat jest fundamentalnie deterministyczny, a opis stochastyczny jest jedynie wy-
razem naszej niewiedzy? Czy na odwrót, świat jest fundamentalnie stochastyczny, a prawa de-
terministyczne są jedynie przybliżeniami praw stochastycznych”194? Teoria chaosu opisując sto-
chastyczne zachowania w układach deterministycznych może być sposobem pogodzenia tych
sprzeczności. Potrzeba jednak dalszego jej rozwoju, by uprawomocnić wiarygodność odpo-
wiedzi chaotów. Próby pogodzenie determinizmu i stochastyki mają już bogatą historię. Jest to
żywy problem filozofii, rozbudzany odkryciami genetyki i fizyki. Zadanie to wydaje się równie
nieprawdopodobnie trudne, jak pogodzenie opisu ilościowego z jakościowym.
Pomimo wszelkich perypetii, związanych z ograniczeniami języka matematyki, przekonanie,
iż jest on najwłaściwszy dla naukowego opisu świata pozostaje powszechnie akceptowane. Czy
to ze względu, że nie dysponujemy innym dostatecznie ścisłym językiem. Wszak próby sformu-
łowania neutralnego teoretycznie języka obserwacyjnego nie powiodły się i wszystko wskazuje
na to, iż jest to zadanie niewykonalne195.
Żywotny pozostaje przeto problem rozważany od wieków. W całej historii filozofii matematyki
istotnym pytaniem jest: co sprawia, że język matematyki jest odpowiedni do opisu rzeczywi-
stości? Jak wiadomo w filozofii idealistycznej założenie pierwotności idei w stosunku do ma-
terii inklinuje traktowanie pojęć matematycznych jako przynależących do świata idei, czyli
pierwotnych wobec świata materii. Źródłem tego rodzaju poglądów jest filozofia Platona.
Dla platoników liczby są rzeczywistymi bytami, a związki między nimi stanowią opis
faktów196. Skuteczność zastosowania opisów ilościowych w fizyce, sprawia że wśród wielu na-
ukowców odradzają się idee pitagorejskie — symbole matematyczne postrzegane są jako klucz
do fizycznego świata197.
4 Estet yka
4.1. O dp ow i e d n i a s t ru k t u r a
Doskonałego przykładu dopasowania istniejących struktur do opisu zaobserwowanych zja-
wisk dostarczył żyjący na przełomie XVI i XVII wieku, matematyk i astronom niemiecki
Johanes Kepler. Był on przekonany, że odkrył tajemnice budowy wszechświata. W czasach
Keplera znane było sześć planet układu słonecznego. Każdej z planet przypisać można odpo-
wiadającą jej orbicie sferę. „Kepler spostrzegł, że jeśli w sferę odpowiadającą Ziemi wpisać
dwudziestościan foremny, to sfera wpisana w niego będzie sferą odpowiadającą Wenus. Gdy
w tę z kolei sferę wpisać ośmiościan foremny, sfera w niego wpisana stanowić będzie sferę
Merkurego. Jeżeli natomiast na sferze odpowiadającej Ziemi opiszemy dwunastościan foremny,
sfera na nim opisana stanowić będzie sferę Marsa. Analogicznie: czworościan foremny opisany
na sferze Ziemi, wyznaczy sferę Jowisza, wreszcie sześcian opisany na sferze Jowisza, będzie
wpisany w sferę Saturna”200.
W celu analizy budowy układu planetarnego, Kepler skorzystał ze znanych od setek lat
pięciu najregularniejszych wielościanów, zwanych bryłami platońskimi. Z naukowego punktu
widzenia, stworzona przez niego na podstawie obserwacji konstrukcja, nie ma żadnego prak-
tycznego znaczenia. Znamienne jest więc, że pomimo tego funkcjonuje w literaturze, jako
doskonały przykład dopasowania struktur matematycznych do rzeczywistych zjawisk.
198 Roman Duda, Matematyka między duchem i materią, dz. cyt., s..60
199 http://pl.wikiquote/wiki/Matematyka, 2009-02-26
200 Witold Sadowki, Femme Fatale, dz. cyt., s. 124
74
Sądzę, że jest to przypadek teorii, której wartość estetyczna okazała się trwalsza od war-
tości poznawczej. Obraz planet krążących po sferach wyznaczonych wielościanami foremnymi
jest wizją piękną. Sama zaś idea promieniuje natchnieniem, którym jest przepełniona. Dla mnie
stanowiła bodziec, który wywołał wizję: odległego miejsca kosmosu, innego układu planetar-
nego, gdzie inne są stosunki przestrzenne pomiędzy planetami, co sprawia, że w przestrzeni
tego układu inne są wielościany foremne. Nie była to jeszcze wizja plastyczna, lecz tylko
fantazja intelektualna.
201 J. David Bolter, Człowiek Turinga. Kultura Zachodu w wieku komputera, Państwowy Instytut Wydawniczy,
Warszawa 1990, s. 247
202 Tamże, s. 248
203 Tamże, s. 249
204 Tamże, s. 254
205 Tamże, s. 255
75
4. 3. F u n kc j o n a l n o ś ć , a pi ę k n o
Artysta może wyrazić się o danym narzędziu: pracuje się nim pięknie. Dla artysty piękne
narzędzie to takie, przy pomocy którego łatwiej jest uzyskać zamierzony efekt — ułatwiające
kontrolę procesu twórczego. Nie ma to bezpośredniego związku z pięknem uzyskanego rezul-
tatu w formie aktu sztuki. Przeciwnie w matematyce, której tworzywem jest czysta idea, narzę-
dzie i możliwości jego zastosowania stanowią jedność, będąc jednakowo operacjami na symbo-
lach. Sposób dowodzenia jest nieodzownym i istotnym składnikiem dzieła matematyka. W tym
sensie piękno narzędzi można (jak w przypadku sztuki) utożsamiać z jego praktycznymi zale-
tami. Jednak związek narzędzi i efektów ich zastosowania będzie szerszy i znacznie bardziej
bezpośredni, gdyż użyte narzędzia stanowią część składową powstałej pracy.
Przydatność dla określonego celu nie stanowi kategorii estetycznej, gdyż najczęściej postrze-
gana jest myślą spekulatywną. Jakości estetyczne natomiast odbierane są przez postrzeganie,
które w bezpośredni sposób wywołuje u odbiorcy konkretne uczucia207. To właśnie forma po-
zbawiona ograniczeń narzuconych przez wyspecjalizowany cel, a służąca przede wszystkim
wzbogaceniu doświadczenia, jest formą estetyczną 208. Absolutnie nie wyklucza to występo-
wania wartości estetycznych w formach funkcjonalnych. Możemy przez lata używać konkret-
nego noża w sposób zgodny z jego przeznaczeniem, by pewnego dnia wźąść go do ręki bez
żadnej praktycznej potrzeby, lecz po to tylko, by podziwiać jego kształt, który nagle wzbudził
w nas zachwyt, wzbogacając w żywotny i bezpośredni sposób nasze doświadczenie.
4.4. P i ę k n o i d e i
Bezpośredniość oddziaływania, jako konieczny warunek doświadczenia estetycznego, nie
ogranicza zbioru form estetycznych jedynie do przedmiotów obdarzonych jakościami zmy-
słowymi. Rozmaite idee posiadają bowiem również bezpośrednio odczuwane właściwości
jakościowe. Argumentując ten pogląd, Dewey powołuje się na Jamesa, który wskazuje na
bezpośredniość odczuwania relacji pomiędzy kolejnymi wyrażeniami ciągu pojęć. Ponad
to James stwierdził, że nie ma relacji o zakresie tak szerokim, aby nie mogła być treścią
bezpośredniego doświadczenia209.
Rozważając sposób w jaki odczuwane są idee, można zauważyć (wyraźniej niż ma to miejsce
w przypadku reakcji na obiekty oddziaływujące na nas za pomocą zmysłów), że bezpośredniość
nie oznacza braku narzędzi pośredniczących. Bezpośredniość uczuć występuje równolegle
z systemem reprezentacji, jeśli rozpatrywana idea jest w stanie pobudzić człowieka do korzy-
stania z repertuaru swoich skojarzeń. Uczucia związane z indywidualnymi skojarzeniami wzbo-
gacają więc działalność intelektualną o wartości estetyczne. Uczucia wywoływane przez idee są
reakcją na skojarzenia, rozbudzane obserwacją związków pomiędzy pojęciami.
Ponad to w sytuacji, w której mamy do czynienia z twórczym procesem formułowania nowej
idei, uczucia te stanowić mogą istotne wskazówki na drodze do sformułowania satysfakcjonują-
cych wniosków. Doświadczenie intelektualne jest rzeczywistym, całkowitym doświadczeniem,
gdy dopełnia je jakość emocjonalna. Jakość ta stanowi istotny motyw podejmowania nauko-
wych dociekań, oraz zobowiązuje do uczciwości w formułowaniu wniosków. Pisząc o czło-
wieczym doświadczeniu rzeczywistości Dewey dowodzi, że: „nie sposób wyraźnie oddzielić
doświadczenia estetycznego od doświadczenia intelektualnego, bowiem to drugie musi mieć
piętno estetyczne, aby stać się całkowite”210.
4. 5. O d k ry wc y n ow yc h s e n s ów
Rozpoczynając rozważania na temat warunkującej rozwój nauki tendencji do wzrostu
stopnia ogólności, przytoczyłem wypowiedź Hellera, który podkreślał, że charakterystyczne
dla twórczej teorii jest pojawienie się nowej informacji. Znaczy to, że uogólnienie jest takim
scaleniem posiadanych informacji, które wyłania nową jakość. Pojawia się ona w wyniku po-
łączenia elementów wiedzy, które uprzednio nie korelowały ze sobą. W procesie tym, czasem
nie wystarczy rozszerzenie (poprzez uogólnienie) istniejących pojęć, często niezbędne staje się
wprowadzenie nowych.
Powstanie nowego pojęcia związane jest ściśle z indywidualną działalnością intelektualną.
Zauważmy, że częstokroć nowe pojęcia noszą imiona swych twórców (przestrzenie Hilberta,
przestrzenie Banacha…). Unaocznia to fakt, że są one pierwotnie intelektualną własnością kon-
kretnego człowieka, za nim zostaną włączone do dorobku ludzkości. Fakt ten podkreśla Jurij
Łotman rozpoczynając swe rozważania na temat przecięcia semantycznego, jako eksplozji zna-
czeniowej211. Przecięciem semantycznym nazywa on połączenie idei dotąd odległych, w wyniku
którego tworzone jest nowe pojęcie, lub nowe znaczenie przez połączenie w sensowny sposób
istniejących pojęć. Proces ten wymaga poszerzania horyzontów myślowych, warunkowanych
wiedzą zaczerpniętą z otoczenia. Przekroczenie tych granic umożliwia jednostce wykształcenie
nowego sensu, który rozprzestrzeniając się na cały obszar danego języka, może stać się cząstką
kultury ludzkości212.
Indywidualny i twórczy charakter zjawiska kształtowania nowych pojęć wiąże się więc
ściśle ze stanem natchnienia, które Łotman określa jako stan twórczego napięcia, w który połą-
czone zostaje to, co było rozłączne i w konsekwencji wyrażone to, co nie było dotąd wyrażone.
Przytacza on słowa Puszkina, który wyraził się następująco:
4.6. I lu m i n ac ja
Tak trudno jest sobie uświadomić coś, co jeszcze nie nazwane, a jeszcze trudniej odnaleźć
odpowiednie symbole by intuicyjnie postrzeganą treść obdarzyć komunikatywnym sensem. Jak
więc zachodzi w ludzkimi umyśle to fascynujące zjawisko. Strefa tego, co nienazwane w więk-
szości leży poza świadomością. Jednakże istnieje możliwość wglądu w tę sferę, a więc objęcia
świadomością tego, co nie jest oznaczone w wyuczonym systemie zaadaptowanym na potrzeby
komunikacji. Możliwość tę dają odmienne stany świadomości, a najpowszechniejszym z nich
jest sen. Dlatego też Łotman określa sen mianem okna semiotycznego217.
Natomiast Ponicaré w Nauce i metodzie, podkreśla znaczenie pracy podświadomej.
Po zgromadzeniu dostępnego materiału i sformułowaniu problemu, zdarza się najczęściej, że
pierwsze próby znalezienia właściwego rozwiązania okazują się daremne. Proces pracy nie-
świadomej odbywa się często podczas snu, lub gdy myśli naukowca zajęte są czymś innym.
215 Friedrich Nietzsche, Wiedza radosna, słowo/obraz terytoria, Gdańsk 2008, s. 174 – 175
216 Adam Leśniak, Nietzsche — samotnik i marzyciel, http://www.racjonalista.pl/kk.php/s,4938/k,3, 2009-04-09
217 Jurij Łotman, Kultura i eksplozja, dz. cyt., s. 195
79
W konsekwencji podświadomych operacji kształtuje się wizja rozwiązania, która pojawia się
w świadomości w sposób nagły218.
Psychologia poznawcza opisuje ten proces pojęciami inkubacji i iluminacji219. Należy zwrócić
jeszcze uwagę na rolę tak pojmowanej iluminacji. Nie jest ona, jak w drabinie Platona 220, koń-
cowym etapem kształtowania wiedzy, gdyż wymaga jeszcze weryfikacji. W przypadku na-
tchnienia artysty, natchnienie obdarza go ideą, która również wymaga działania dopeł-
niającego twórczy proces (przetłumaczenia jej na zmysłowy język aktu sztuki). Nie jest to
jednakże też augustyński iluminizm. Inkubacja poprzedzająca iluminację sama jest poprze-
dzona świadomym zbieraniem i porządkowaniem danych. Wrażenie, że iluminacja jest począt-
kiem, lub końcem wynika z jej istotnej własności, którą jest przełomowość. Jest ona p r og ie m ,
rozumianym w sensie Arnolda Mindella, jako uświadomienie treści nieświadomej.
Ponicaré przypuszczał, że w procesie inkubacji elementy dostępnej naukowcowi wiedzy
tworzą ze sobą w sposób przypadkowy wszelkie możliwe kombinacje221. Elementy te mogą więc
zostać połączone w sposób, którego nie dopuszcza logiczna analiza, lub inne schematy rozumo-
wania. Te zaskakujące nowe połączenia są podstawową inspiracją surrealizmu w sztuce. Nauka
jednak na surrealizm sobie nie pozwala. Dlatego też powstałe w podświadomości różnorodne
i często absurdalne połączenia muszą zostać poddane selekcji. Autor Nauki i metody twierdził,
że czynnikiem przesądzającym o skuteczności tej selekcji, jest poczucie piękna i harmonii.
Nie starał się on jednak w żaden sposób analizować czym jest owo poczucie.
Rozważając ujęcie problemu przecięcia semantycznego proponowane przez Łotmana oraz
własne doświadczenia, za odpowiedni wyznacznik skutecznej selekcji treści podświadomych
uważam komunikacyjny potencjał formułowanego wyrażenia. Spośród bezliku złożeń doko-
nanych podświadomie, wybieramy te, które można wyrazić w sposób komunikatywny. Tylko
takie wyrażenia mają ponadindywidualną wartość i umożliwiają eksterioryzację własnych idei
do obszaru społecznego. Uważam, że dotyczy to w równym stopniu sztuki, jak i nauki, a także
innych sposobów poznawania świata. Czy kryterium komunikatywności zwiększa prawdopo-
dobieństwo prawdziwości teorii, w większym stopniu niż kryterium piękna? Trudno stwierdzić,
lecz na pewno wysoki stopień komunikatywność idei, zwiększa zakras jej oddziaływani, a co
za tym idzie praktyczne jej konsekwencje.
Kończąc wstępną analizę semiotyczną teorii świadomości Bense wskazuje, że poglądy
wyrażone w Wiedzy radosnej, antycypowały semiotyczną i cybernetyczną teorię świadomości222.
Nietzsche przypuszczał, że samoświadomość rozwinęła się pod presją potrzeby komunikacji223,
gdyż tylko ten obszar ludzkiej działalności bezwarunkowo wymaga ukształtowania systemu
pojęć abstrakcyjnych. Założenie to prowadzi Nietzsche'go do wniosku o ścisłej zależności roz-
woju języka i rozwoju świadomości.
Stwierdza on:
Czy człowiek taki staje się też bardziej świadomy otaczającej go rzeczywistości?
Prawdopodobnie tak, gdyż wraz ze wzrostem ilości znaków i znaczeń zwiększa się ilość jego
związków z otoczeniem i w efekcie skuteczność działania.
Wielki mag XX wieku Aleister Crowley, pisząc o w i e d z y, zgadzał się z poglądem
rozpowszechnionym wśród mistyków, że wiedza wyrażona w języku to iluzja. Krytykował jed-
nakże ignorancję tych, którzy z tego względu z niej rezygnują, podkreślając wartość tej iluzji przy
porozumieniu ludzi wspólnie działających. Pisał:
Mistrz magiji miał na myśli stan wewnętrznej ciszy. Zrozumienie, takie jak satori w buddyzmie,
osiągalne jest jedynie bez uwikłania w pojęcia. Słowa Crowley to afirmacja, ale przypominają
ironiczne przysłowie: wniosek to punkt, w którym człowiek nie ma siły dalej myśleć. Jeśli w
przysłowiu tym punkt rozumieć tak, jak punkt widzenia definiował Hilbert227, to faktycznie
podważa ono jakąkolwiek ponadindywidualną wartość wniosków. Niemniej jednak indywidu-
alny sposób myślenia prowadzący do nowych sensów, może zostać przyjęty entuzjastycznie
przez innych, a nawet przez ogół, jeśli jest on użyteczny w praktycznym działaniu.
4.7. S t o s u n e k c z ę ś c i d o ca ł o ś c i
W poprzednich dwóch podrozdziałach wskazałem na wartość natchnienia, czy iluminacji
w kształtowaniu nowych sensów; przedstawiłem również zyski i straty jakie niesie ze sobą wtło-
czenie prawd objawionych w sztywne ramy języka symbolicznego. W ten sposób wskazałem
na procesy psychologiczne, jednakie dla różnych sposobów poznawania świata, ustanawiając
znak równości pomiędzy natchnieniem artysty i naukowca. Niezależnie, czy sensem działań
jest przekazanie obiektywnej wiedzy, czy subiektywnego przeżycia, jakości emocjonalne kieru-
jące człowiekiem w tym działaniu odgrywają istotną rolę w wyznaczaniu kierunku poszukiwań
odpowiednich środków wyrazu. Równoważność ta uprawomocnia zasadność poszukiwania
piękna w konstrukcjach intelektualnych, jednak nie odpowiada na postawione w pierwszej
części pracy pytania.
We wprowadzeniu do pracy zasugerowałem definicję piękna, jako zbioru jakości pociągają-
cych ludzi, ze względu na wyzwalane przez nie uczucie przyjemności. Choć przedstawiłem ją
w węższym sensie — jedynie w związku z percepcją wzrokową. Uczucie przyjemności może
natomiast być wynikiem nie tylko bodźców wzrokowych, ale i innych, a nawet być wyzwalane
niezależnie od percepcji, tylko wewnętrznymi procesami.
Zadawszy sobie w pierwszej części pracy pytanie o zależność współwystępowania piękna
i prawdy w teoriach naukowych wskazałem na różnicę w sposobie w jaki prawdę określa on-
tologia, a w jaki epistemologia. Przedstawiona hierarchia odkryć wskazywała na wzrost sto-
sowności epistemologicznych metod określania prawdy, wraz ze wzrostem abstrakcyjności
teorii, która z fazy odkrywania jednostkowych fenomenów, przechodzi w fazę strukturalną
— określania związków między obiektami, w końcu zależności między tymi związkami.
Weryfikacja prawdziwości teorii na niższym szczeblu jej rozwoju, odnosi się w bardziej
bezpośredni sposób do obserwowanych zjawisk zewnętrznych; natomiast w skutek wzrostu
znaczenia reprezentacji symbolicznej na wyższym szczeblu rozwoju teorii, zmniejsza się bez-
pośredniość odniesień terminów używanych w procesie weryfikacji. Kryterium komunikatyw-
ności, na które wskazałem analizując zjawisko iluminacji, nabiera znaczenia przy weryfikacji
bardziej abstrakcyjnej teorii. Prawdziwość jej może być określana stopniem jej skuteczność
w zastosowaniach praktycznych.
Jednakże skuteczność ta zależy również od jej formy, co świadczy o tym, że wartości es-
tetyczne odgrywają również istotną rolę w jej weryfikacji. Wniosek ten wskazuje na związek
jakości estetycznych z komunikacyjnymi. Sądzę, że podczas gdy opis bytu obiektu realizuje
wyłącznie dążenie do prawdy, w przypadku tworzenia struktur istotną motywacją staje się
potrzeba piękna. To teleologiczne przesunięcie nie wskazuje wcale na bezpośrednią zależ-
ność prawdziwości i piękna teorii. Wskazuje natomiast, że pięknie skonstruowane teorie mają
większą szansę na popularyzację. Są bardziej nośne, a przeto i bardziej praktyczne. Istotne
znaczenie, ma więc p r z e d st aw ia n ie p r awdy w s p o s ób pię k ny.
P ię k no m a z n a cz e n ie d la n au k i i objawia się w teoriach jako kryterium formy ściśle
związane z procesami komunikacji. Odpowiednie proporcje, innowacyjność, brzytwa Ockhama
i ekonomia środków, to narzędzia metody zarówno artystycznej, jak i naukowej, mające na celu
k sz t a ł t owa n ie for my p r z y je m nej w o d bior z e — moż l iw ie ja k n ajp r o st sz ej.
82
228 Rudolf Arnheim, Sztuka i percepcja wzrokowa, Wydawnictwa Artystyczne i Filmowe, Warszawa 1987, s. 65
Wy prowad zenie
84
W yo b r a ź n i a , a r z e c z y w i s t o ś ć
W odpowiedzi na pytanie o rodowód struktury, której udzieliłem na zakończenie pierw-
szej części pracy, orzekłem, że jest ona dziełem twórczej wyobraźni człowieka. O znaczeniu
struktury dla metod kodowania wiedzy przekonywał Rudolf Carnap. Na wykładach Form and
Content (Forma i treść) wygłoszonych w Londynie w 1932 roku dowodził, iż treść naszych do-
znań jest niekomunikowalna229. Czysta jakość jest doświadczeniem sensorycznym, należącym
jedynie do doświadczającego podmiotu jednostkowego. Dopiero nazwanie i odróżnienie jakości
danej oraz porównanie jej z innymi jakościami z tej samej kategorii, stwarza możliwość ko-
munikacji transpersonalnej. Tym, co intersubiektywnie komunikowalne jest właśnie struktura,
jako ogół relacji230 i to ona stanowi właściwe tworzywo zarówno teorii naukowych, jak i innych
form komunikacji.
Podważenie wniosków końcowych w ostatnim akapicie czwartej części wskazywałoby przeto,
że jedynie wyobraźnia jest przedmiotem badania. W myśl konwencjonalistycznej filozofii nauki
pogląd taki dotyczy nie tylko badań o wysokim stopniu abstrakcyjności (jak te zakresu mate-
matyki, semiotyki, lingwistyki, czy teorii sztuki), ale rozszerza się również na wszelkie dzie-
dziny humanistyki i przyrodoznawstwa. Pogląd taki prowadzi do skrajnego subiektywizmu;
taki też był efekt intelektualny rozwoju konwencjonalizmu w XX wieku.
Skrajności w filozofii nauki prowadziły do sporów i absurdów. Przykładowo: falsyfikacjo-
nizm Karla Poppera nie wytrzymuje krytyki o charakterze logicznym. Ponad to można zarzucić
mu jeszcze, zbytnie oderwanie od realiów. Metodologia Poppera mówi, jak naukowcy postę-
pować powinni, nie jak postępują rzeczywiście231. Idealizm ten degraduje konwencjonalizm
do statutu nieużytecznej filozofii. Teorii stylów myślowych Flecka wytykać można natomiast,
między innymi niekonsekwencję, którą wyraził Larry Laudan pytaniem (w Nauka i relatywizm.
Niektóre kluczowe kontrowersje w filozofii nauki, 1990): czy Fleck był relatywistą w odnie-
sieniu do wszystkiego z wyjątkiem socjologii wiedzy232? Wittgenstein z kolei sam dyskredytuje
wartość swoich rozważań, uznawszy filozofię za chorobę umysłową wywołaną złudzeniami
lingwistycznymi, powstałymi na skutek wyrywania słów z ich naturalnych kontekstów233.
E du k ac ja wo b e c ko n w e n c j o n a l i z m u
Pomimo swych wad, teorie radykalnych konwencjonalistów wskazują na istotną cechę
wiedzy naukowej, jaką jest jej umowność. O tym, jak szybko sfalsyfikowane może zostać to, co
w procesie edukacji zaaplikowano nam jako wiedzę pewną, przekonałem się dobitnie. Właśnie
w tygodniu, w którym ukończyłem pracę nad moim tekstem głośno było o odkryciu zaginio-
nego ogniwa. Naukowcy stwierdzają, że wspólnym przodkiem późniejszych małp, małp człe-
kokształtnych i ludzi był lemur Ida235.
Następnego dnia na witrynie księgarni zaintrygowała mnie książka Gavina Menziesa
1434 – rok, w którym wspaniała chińska flota pożeglowała do Włoch i zapoczątkowała renesans.
Jest to już druga książka tego badacza. Popularyzuje on swoją teorię o chińskich źródłach rene-
sansu od roku 2002, jednakże wcześniej nie dane mi było się z nią zetknąć. Poglądy Menziesa
wzbudzają kontrowersje, co jest nieuniknioną reakcją społeczną na rewolucyjne teorie.
Wskazany jest oczywiście krytycyzm wobec nowych teorii, które zgromadziły na razie
skromny materiał dowodowy. Jednakże powyższymi przykładami chciałem zaakcentować
konieczność krytycyzmu wobec teorii naukowych, przyjętych za pewniki. Z drugiej strony
funkcjonują również teorie, które pomimo wątłego materiału dowodowego i braku oficjalnego
naukowego statutu znajdują licznych zwolenników.
Jako przykład chciałbym podać zagadkę Atlantydy. Temat ten zafascynował mnie, gdy
byłem dzieckiem. Szczególnie interesująca była dla mnie argumentacja za istnieniem zagi-
nionej wyspy, opierająca się na wykazaniu podobieństw kultur starożytnych odległych lądów.
Poznawszy teorię archetypów i podświadomości zbiorowej, wspomniana argumentacja na rzecz
prawdziwości mitu o Atlantydzie straciła swoją zasadność. Wspomniane teorie, które zapocząt-
kował Carl Gustav Jung, mają już prawie stuletnią tradycję. Dostarczają modelu biernych uwa-
runkowań rozwoju zarówno jednostki, jak i całej kultury.
W przypadku ludzi łatwo udowodnić istnienie zbiorowej podświadomości, gdyż jesteśmy
zdolni do kodowania przekazów w mitach, symbolach i innych formach wyrazu, które to właśnie
były przedmiotem badań reformatora psychoanalizy, podczas formułowania wspomnianej teorii.
234 Tamże, s. 29
235 http://boskiateista.wordpress.com/2009/05/20/oto-zaginione-ogniwo-ludzkiej-ewolucji-to-osmy-cud-swiata/,
2009-05-28
86
Jak natomiast udowodnić istnienie podświadomości zbiorowej na przykład tulipanów? Czy in-
terpretacja obserwacji, skłaniająca niektórych badaczy do hipotezy, że istnieje nielokalny deter-
minant morfogenetyczny, jest tylko mrzonką? Jeśli antropologia, podobnie jak fizyka akceptuje
współcześnie zjawiska nielokalne, na przeszkodzie akceptacji takich zjawisk w biologii stoi brak
empirycznych dowodów. Do koncepcji formułującej model dynamicznych uwarunkowań ewo-
lucji gatunku powrócę na zakończenie wywodu.
Świadomość konwencjonalnego charakteru teorii naukowych pozwala na stwierdzenie, iż au-
torytarny sposób prezentacji wiedzy w procesie edukacji jest procederem nieetycznym. Wobec
tego, istotną wartość dla pedagogiki przedstawiają anarchistyczne tezy Paula Feyerabenda, wy-
łożone w Przeciw metodzie. W autokratycznej dominacji scjentystycznego światopoglądu widzi
on czynnik hamujący rozwój cywilizacji, a przede wszystkim indywidualny rozwój osobniczy.
Postuluje on poskromienie nauki, między innymi przez wprowadzenie zapisu o rozdzieleniu
nauki od państwa, czy przyznaniu magom dotacji publicznych proporcjonalnych do tych udzie-
lanym naukowcom. Feyerabend zwraca uwagę na konieczność obalenia mitów jedynej słusznej
metody poznania i jej obiektywności, które kiedyś służyły uzasadnieniu dominacji religii, by
później stać się narzędziami scjentystycznego terroru. 236.
Pierwsza część niniejszej pracy skupiała się, między innymi na wskazaniu wspólnych atry-
butów odmiennych sposobów poznawania świata, jakimi są nauka i sztuka. Określenie mózgu,
jako organu uwagi skierowanej na życie, którego w swym wykładzie dotyczącym relacji między
duszą, a ciałem użył Bergson, wydało mi się trafnym wskaźnikiem asymilacyjnego charakteru
ludzkiego poznania. Nawiązanie do tej refleksji znajduje się na początku rozdziału o skuteczności
i ograniczeniach języka.
Struktury poznawcze, pierwotnie spełniające jedynie funkcje przystosowawcze, są do tych
funkcji odpowiednio przystosowane. W stwierdzeniu tym tautologia zastosowana jest celowo,
by zwrócić uwagę na sprzężenie zwrotne, jakiemu struktury poznawcze podlegają zarówno
w filogenezie, jak i ontogenezie. Myślę więc, że sam fakt, że żyjemy, przekonuje do tego, iż znamy
w pewnym wąskim — wystarczającym dla życia zakresie, obiektywnie istniejącą rzeczywistość.
Zakładam też, pomimo wszelkich zastrzeżeń, że obiektywizm w nauce, choć relatywi-
styczny jest możliwy. Niektórzy z konwencjonalistów, jak na przykład Imre Lakatos, zgodni
byli z leninowskim aksjomatem materializmu, postulującym byt niezależny od naszego umysłu,
który przez ten umysł eksplorowany może być w nieskończoność. „Sam Peirce [w przeciwień-
stwie do kontynuatorów pragmatyzmu] pojmował (…) prawdę realistycznie, jako coś, co od-
krywa się w nieskończonym, samokorygowalnym procesie badania naukowego, jako idealną
granicę poznania”237.
Lakatos należał do tych, którzy wierzą w postęp nauki rozumiany, jako przybliżanie się do
prawdy obiektywnej i za kryterium tego zbliżenia uznaje stopień empirycznego potwierdzenia
teorii. Choć zdaje on sobie sprawę z zawodności tego kryterium. Wskazywał on na niski poziom
metafizyki indukcyjnej, „ale jednocześnie wyrażał nadzieję, że w przyszłości autentycznie epi-
stemologiczna teoria połączy metodologiczne normy z pojęciem podobieństwa do prawdy”238.
236 Wojciech Sady, Spór o racjonalność naukową, dz. cyt., s. 226 – 228
237 Tenże, Fleck, dz. cyt. s. 102
238 Tamże, s. 201 – 202
87
O d ro dz e n i e e pi s t e m o l o g i i
Dążenie do określenia metodologicznych norm procesu formułowania prawd o rzeczywi-
stości jest istotną motywacją wielu wybitnych uczonych. Rozważania i badania ukierunkowane
na osiągnięcie tego celu obejmują swym zakresem szeroki wachlarz dziedzin nauki: od logiki
do semiotyki, od cybernetyki do neurokognitywistyki i od socjologii wiedzy do psychologii
poznawczej… Epistemologia przestała być domeną tylko metafizyki.
Przykładem postępu wiedzy w tym kierunku jest zaznaczone we wprowadzeniu, sformuło-
wanie przez Bense’a semiotycznej teorii rzeczywistości teoriopoznawczej. Pozwala ona poprzez
określenie tematyki realności znaków na analizę relacji danej teorii do fizycznej rzeczywistości239.
Innym przetartym szlakiem dla ukształtowania naukowej epistemologii jest psychologizm
Piageta. Jak Kant wskazał drogę ku rozstrzygnięciu sporu racjonalistów z empirystami, tak
szwajcarski biolog zaprezentował sposób rozwiązania kontrowersji między pozytywistycznym
empiryzmem, a aprioryzmem240.
Wychodząc z założenia, że psychologia bada niższe bardziej, podstawowe zjawiska niż epi-
stemologia, na podstawie swoich badań związanych z opracowaniem teorii rozwoju poznaw-
czego, stworzył poprzez cząstkowo–eksplikacyjną redukcję241 epistemologię genetyczną. Jest
to oryginalna, teoretyczna koncepcja świadomości, myślenia i działania, którą charakteryzuje
między innymi powiązanie subiektywnego (racjonalnego) kontekstu ludzkich zachowań z ich
kontekstem obiektywnym (funkcjonalnym)242.
Piaget zwraca uwagę na podstawowe znaczenie zależności poznania empirycznego
od umysłowych struktur logiczno–matematycznych podmiotu poznającego, których źródłem
są wrodzone struktury odruchowe i doświadczenie w operacjach myślowych 243. Krytykuje on
empiryzm logiczny Koła Wiedeńskiego za nominalistyczną interpretację składni języka, której
konsekwencją jest zerwanie więzi łączących język z jego użytkownikami. Szansę osiągnięcia
jedności nauki przywraca, według Piageta, ponowne włączenie operacji umysłowych
do procesu poznania244.
Z drugiej strony wysiłki licznej grupy informatyków dążą w tym samym kierunku z prze-
ciwnej strony. Opracowano skuteczne metody tworzenia algorytmów syntaktycznych 245, które
znajdują szerokie zastosowanie w procesach przetwarzania informacji. Kolejnym etapem badań
stanowiącym wielkie wyznanie dla informatyków ze znajomością językoznawstwa są algo-
rytmy semantyczne.
L u dz k i s t o s u n e k d o r z e c z y
Ludzki stosunek do rzeczy, którego wyrazem jest zaszczepianie subtelności i ścisłości ma-
tematyki wszystkim nauką, wskazywałby na humanizm matematyki. To właśnie wskazanie
miałem za cel, przytaczając zdanie Nietzsche’go w nagłówku do drugiej części pracy. Choć
matematyka zaliczana jest przez tradycyjną systematykę do nauk formalnych, nie można prze-
oczyć przecież faktu, że stworzyli ją ludzie. Omawiane badania podstaw matematyki, ma-
jące za cel ugruntowanie jej formalizmu, doprowadziły w konsekwencji do teorii akcentują-
cych udział czynnika ludzkiego w formułowaniu każdej logiki i aksjomatyki. Skutkiem takich
wniosków stało się ponowne (bo przywracające grecki porządek) zobowiązanie matematyków
do znajomości filozofii.
246 Wojciech Wowra, Wolfram Alpha zmieni sposób poszukiwania wiedzy w Sieci?
http://webhosting.pl/Wolfram.Alpha.zmieni.sposob.poszukiwania.wiedzy.w.Sieci, 2009-06-02
247 Tamże, wówczas
248 To d a y ' s Wo l f r a m | A l p h a i s t h e f i r s t s t e p in an ambitious, long-term project to make
a l l sy st e matic k n o w le d g e imme d iate ly c omputa ble by a nyone
podaje za: http://www.wolframalpha.com/, 2009-06-02
249 Na podstawie wywiadu serwisu CORDIS News z Alexandrem von Freyhold-Hünecken
http://cordis.europa.eu/fetch?CALLER=PL_NEWS_INTERVIEW&ACTION=D&DOC=12&CAT=NEWS&QUERY=012
17f7f099f:f113:4d11d225&RCN=30144, 2009-06-02
250 http://antyweb.pl/czy-semantyczne-wyszukiwarki-pogrzebia-seo/, 2009-06-02
89
•
Mam nadzieję, że udało mi się wyprowadzić z równowagi struktury poznawcze, niektó-
rych czytelników, co zaowocuje bardziej pragmatycznym ich zrównoważeniem, a w efekcie
przyczyni się do rozwoju świadomości zbiorowej oraz nauki.
Pragnę podziękować prof. dr hab. Marii Mendel
za poskromienie mojej wybujałej wyobraźni
i zawężenie problematyki rozważań
dzięki czemu praca niniejsza mogła zostać
napisana w skończonym czasie.
92
Bibliog raf ia
• Atkins Peter, Palec Galileusza, Dom Wydawniczy Rebis, Poznań 2006.
• Bense Max, Świat przez pryzmat znaku, Państwowy Instytut Wydawniczy, Warszawa 1980.
• Bergson Henri, Myśl i ruch. Dusza i ciało, Państwowe Wydawnictwo Naukowe, Warszawa 1963.
• Bolter J. David, Człowiek Turinga. Kultura Zachodu w wieku komputera,
Państwowy Instytut Wydawniczy, Warszawa 1990.
• Castaneda Carlos, Wewnętrzny ogień, Dom Wydawniczy Rebis, Poznań 1997.
• Crowley Aleister, Krótkie eseje o prawdzie, Wydawnictwo Okultura, Warszawa 2001.
• Dewey John, Sztuka jako doświadczenie, Wydawnictwo Polskiej Akademii Nauk, Gdańsk 1975.
• Ditfurth Hoimar von, Duch nie spadł z nieba, Państwowy Instytut Wydawniczy, Warszawa 1989.
• Douglas Rushkoff, Cyberia. Życie w okopach hiperprzestrzeni, Wydawnictwo Okultura, Warszawa 2008.
• Escher M. C., Grafiki, Edipres Polska S..A., Warszawa 2005.
• Fraser B., Murphy C., Bunting F., Profesjonalne zarządzanie barwą, Helion, Gliwice 2006.
• Friedrich Nietzsche, Wiedza radosna, słowo/obraz terytoria, Gdańsk 2008.
• Gadacz Tadeusz, Historia Filozofii XX wieku nurty, tom 1, Znak, Kraków 2009.
• Ghyka Matila C., Złota Liczba. Rytuały i rytmy pitagorejskie w rozwoju cywilizacji zachodniej,
Towarzystwo Autorów i Wydawców Prac Naukowych Universitas, Kraków 2001, wyd. I.
• Heller Michał, Początek jest wszędzie, Prószyński i S.–ka, Warszawa 2002.
• Hoimar von Ditfurth, Duch nie spadł z nieba, Państwowy Instytut Wydawniczy, Warszawa 1989.
• James William, Pragmatyzm, Książka i wiedza, Warszawa 1957.
• Kandynsky Wasyl, Punkt i linia, a płaszczyzna, Państwowy Instytut Wydawniczy, Warszawa 1986.
• Kant Imanuel, Antropologia w ujęciu pragmatycznym, Wydawnictwo IFiS PAN, Warszawa 2005.
• Pierce John R., Symbole, sygnały i szumy. Wprowadzenie do teorii informacji,
Państwowe Wydawnictwo Naukowe, Warszawa 1967.
• Pieriepielicyn Michaił Lwowicz, Przestrzenne postrzeganie Świata, Orion, Warszawa 1997.
• Roman Duda, Matematyka między duchem i materią
w Ku interdyscyplinarności, Wydawnictwo Uniwersytetu Wrocławskiego 2008.
• Rudolf Arnheim, Sztuka i percepcja wzrokowa, Wydawnictwa Artystyczne i Filmowe, Warszawa 1987.
• Sadowki Witold, Femme Fatale, Prószyński i S.–ka, Warszawa 2000.
• Sady Wojciech, Fleck. O społecznej naturze poznania, Prószyński i S-ka SA, Warszawa 2000,
• Słownik wyrazów obcych, pod red. Doc. dr Jana Tokarskiego, Państwowe Wydawnictwo Naukowe, Warszawa.
• Sonin Anatolij S., O krystalografii, Państwowe Wydawnictwo Naukowe, Warszawa 1982.
• Tatarkiewicz Władysław Historia Filozofii, Tom I, Państwowe Wydawnictwo Naukowe, Warszawa 1970.
• Tempczyk Michał, Redukcjonizm jako centralne zagadnienienie formalnej filozofii nauki,
w Studia Filozoficzne, nr 11 – 12, 1985, Państwowe Wydawnictwo Naukowe.
• Zamiara Krystyna, Epistemologia genetyczna Piageta a społeczny rozwój nauki,
Państwowe Wydawnictwo Naukowe, Warszawa – Poznań 1979.
• Zawadowski Wacław, Mozaiki matematyczne, Wydawnictwa Szkolne i Pedagogiczne, Warszawa 1989.
93
• http://archiwum.wiz.pl/2001/01093200.asp, 2009-04-14.
• http://boskiateista.wordpress.com/2009/05/20/oto-zaginione-ogniwo-ludzkiej-ewolucji-to-osmy-cud-swiata/,
2009-05-28.
• http://cordis.europa.eu/fetch?CALLER=PL_NEWS_INTERVIEW&ACTION
=D&DOC=12&CAT=NEWS&QUERY=01217f7f099f:f113:4d11d225&RCN=30144, 2009-06-02
• http://en.wikipedia.org/wiki/Aristid_Lindenmayer i
• http://en.wikipedia.org/wiki/Twistor_theory, 2009-04-20
• http://histmag.org/?id=762, 2009-04-14 Szymańczak Karolina, Lekarz architektur y.
• http://mathworld.wolfram.com/topics/Tiling.html
• http://pl.wikipedia.org/wiki/27114_Lukasiewicz, 2009-04-02
• http://pl.wikipedia.org/wiki/Assemblage, 2009-03-28
• http://pl.wikipedia.org/wiki/Benoît_Mandelbrot, 2009-05-12
• http://pl.wikipedia.org/wiki/Efekt_Droste, 2009-05-13
• http://pl.wikipedia.org/wiki/Elementy, 2009-02-12
• http://pl.wikipedia.org/wiki/Fraktal, 2009-05-13
• http://pl.wikipedia.org/wiki/Geometria_hiperboliczna 2009-03-30
• http://pl.wikipedia.org/wiki/Hipoteza_Poincarégo, 2009-04-03
• http://pl.wikipedia.org/wiki/Holografia, 2009-04-23
• http://pl.wikipedia.org/wiki/Iteracja, 2009-03-28
• http://pl.wikipedia.org/wiki/Jan_Łukasiewicz, 2009-04-02
• http://pl.wikipedia.org/wiki/Kardioida, 2009-04-23
• http://pl.wikipedia.org/wiki/Kolaż, 2009-03-28
• http://pl.wikipedia.org/wiki/Leonhard_Euler, 2009-04-18
• http://pl.wikipedia.org/wiki/Logika_modalna, 2009-04-22
• http://pl.wikipedia.org/wiki/Logika_rozmyta, 2009-02-26
• http://pl.wikipedia.org/wiki/Logika_wielowartościowa, 2009-02-26
• http://pl.wikipedia.org/wiki/Logika_wielowartościowa, 2009-02-26
• http://pl.wikipedia.org/wiki/L-system, 2009-05-13
• http://pl.wikipedia.org/wiki/Macierz#Podstawowe_pojęcia, 2009-04-20
94
• http://pl.wikipedia.org/wiki/Metamatematyka, 2009-03-10
• http://pl.wikipedia.org/wiki/Paul_Lévy, 2009-05-12
• http://pl.wikipedia.org/wiki/Pole_morfogenetyczne, 2009-05-29
• http://pl.wikipedia.org/wiki/Przestrzeń_metryczna, 2009-04-20
• http://pl.wikipedia.org/wiki/Regularność_funkcji, 2009-04-28
• http://pl.wikipedia.org/wiki/Rzymski_system_zapisywania_liczb, 2009-03-24
• http://pl.wikipedia.org/wiki/Solipsyzm, 2009-06-05
• http://pl.wikipedia.org/wiki/Spinor#Zastosowania, 2009-04-20
• http://pl.wikipedia.org/wiki/Tensor#Rząd_tensora, 2009-04-20
• http://pl.wikipedia.org/wiki/Topologia, 2009-04-06
• http://pl.wikipedia.org/wiki/Twierdzenie_Gödla, 2009-02-05
• http://pl.wikiquote/wiki/Matematyka, 2009-02-26
• http://rowerowy.szczecin.pl/f/pliki/3ci/skrypty/ Modelowanie.doc, 2009-04-10
• http://solaris.lem.pl/content/view/136/96/1/1/, 2009-04-11
• http://www.biolog.pl/article24.html, 2009-04-15
• http://www.bookrags.com/biography/benoit-b-mandelbrot/, 2009-05-12
• http://www.myspace.com/twistor, 2009-04-20
• http://www.psychologia.apl.pl/index.
php?option=com_glossary&func=display&letter=I&Itemid=99999999&catid=3&page=1, 2009-04-19
• http://www.sciaga.pl/tekst/40118-41-rola_kaplanow_i_religii_w_starozytnych_cywilizacjach, 2009-03-28
• http://www.slownik-online.pl/kopalinski/5F64E90CE5E5166CC12565940074BBFC.php, 2009-04-16
• http://www.slownik-online.pl/kopalinski/A9394F5B847389F4C12565DB005A59AC.php, 2009-04-22
• http://www.tessellations.org
• Kępka Janusz B., Dziwny jest ten świat — Alberta Einsteina przekręty,
http://www.aferyprawa.com/index2.php?p=teksty/pokaz&id=2307, 2009-05-08.
• Korzeniewski Bernard, Absolut — odniesienie urojone, Kraków 1994, Racjonalista.pl 2004.
• Labisko Agnieszka, Hipoteza Poincarégo,
http://www.polskieradio.pl/nauka/wszechswiat/artykul4213.html, 2009-05-08.
• Leśniak Adam, Nietzsche — samotnik i marzyciel,
http://www.racjonalista.pl/kk.php/s,4938/k,3, 2009-04-09.
• Leśniak Krzysztof, Majowie,
http://www-users.mat.uni.torun.pl/~much/maya.html, 2009-03-16
• Łotman Jurij, Kultura i eksplozja, Państwowy Instytut Wydawniczy, Warszawa 1999.
• Mały słownik matematyczny, Państwowe Wydawnictwo „Wiedza powszechna”, Warszawa 1974.
• Miś Bogdan, Matematyka w toalecie, Wiedza i Życie nr 9/2001.
http://archiwum.wiz.pl/2001/01093200.asp, 2009-04-14
• Néret Gilles, Gustav Klimt, Edipresse, Warszawa 2005.
• Nowak Andrzej, Ex cathedra: akademicka strona filozoficzna i privatissimum,
http://apertum.110mb.com/faq.html#znak, 2009-04-22.
• Ochocki Kazimierz, Spory o pojęcie materii, Wiedza Powszechna, Warszawa 1979.
• Palczewski Rafał, Reprezentacja logiczna wiedzy i przekonania. Podstawowe problemy logiki epistemicznej,
http://www.kognitywistyka.net/artykuly/rp-rlwippple.pdf, 2009-04-22
95