You are on page 1of 117

Lewis Wolpert

NIENATURALNA NATURA NAUKI

Przekład:
Hieronim Chojnacki Ewa Penksyk

GWP
GDAŃSKIE
WYDAWNICTWO PSYCHOLOGICZNE
Gdańsk 1996
Recenzja wydawnicza:
prof. dr hab. Adam Synowiecki
Tytuł oryginału: The Unnatural Nature of Science Copyright © Lewis Wolpert 1992

Copyright ©for the Polish edition by Gdańskie Wydawnictwo Psychologiczne, Gdańsk


1995

Wszystkie prawa zastrzeżone.


Książka ani żadna jej część nie może być przedrukowywana ani w żaden inny sposób
reprodukowana lub odczytywana w środkach masowego przekazu bez pisemnej zgody
Gdańskiego Wydawnictwa Psychologicznego.

Pierwsze wydanie w jeżyku polskim


Redakcja naukowa: Krystyna Ruszczak Redakcja językowa: Ewa Penksyk, Bożena
Budzińska Korekta: Nina Lorkowska, Tomasz Luftner
Skład: Magdalena Żylicz Opracowanie graficzne: Jarosław Czarnecld

ISBN 83-85416-22-6
Druk: Prasowe Zakłady Graficzne ul. Wojska Polskiego l, Bydgoszcz
Gdańskie Wydawnictwo Psychologiczne 81-7 58 Sopot, ul. Piastów l/la, tel./fax. 51-61 -04
Spis treści

Przedmowa 7
Wstęp 8
I. Nienaturalne myślenie 14
II. Technika nie jest nauką 38
III. Przeskok Talesa: Zachód i Wschód 49
IV. Kreatywność 70
V. Konkurencja, kooperacja i zaangażowanie 100
VI. Wątpliwości filozoficzne albo
wybujały relatywizm. 117

VII. Nienauka 140

VIII. Nauka moralna i niemoralna 167


EX. Nauka i społeczeństwo 189
Bibliografia 196
Indeks 209
Przedmowa

A książka wzięła początek z niezadowolenia i chęci rozwiązania zagadki. Nie dawał mi


satysfakcji społeczny obraz nauki i wiele wypowiedzi o niej w mediach, jak również pisemne
opinie naukowców, między innymi filozofów i socjologów. Pragnąłem odpowiedzieć na
pytanie, dlaczego natura nauki musi być tak niezrozumiała, a laicy mają tak wielkie trudności
ze zrozumieniem naukowych idei. Wydaje się to ściśle związane z lękiem, a nawet wrogością
wobec samej nauki.
Spróbowałem, zatem przedstawić ją w nowym świetle, które może pomóc rozstrzygnąć
niektóre jej problemy. Zajmując się tak szerokim tematem, jak natura nauki, w sposób
nieunikniony wkraczałem na obszary filozofii, psychologii i historii, a z tych dziedzin nie mam
żadnego formalnego wykształcenia. Jestem biologiem, ściślej zaś embriologiem, a moja
metoda przypomina te, które stosuje historia naturalna. Dlatego zasięgnąłem wielu porad, a
niektóre z nich znalazły potwierdzenie w tej książce, jestem więc wdzięczny wszystkim, którzy
mi dopomogli. Czuję się także zobowiązany podziękować Uniwersytetowi w Warwick za
zaproszenie mnie w 1990 roku do Radcliffe z wykładami na temat „Nauka - historia
nienaturalna", które stały się podstawą prezentowanej tu rozprawy.
Dziękuję Percy Cohen, Stephenowi Cangowi, Patricii Farrar, Christophe-rowi Gardnerowi,
Jonathanowi Gloverowi, Mary i Jackowi Herbergom, Judy Hicklin, Frankowi Jamesowi,
Jonckheere, Rogerowi Jowellowi, Michaelowi Kidronowi, Rolandowi Liltlewoodowi, Lauro
Martinesowi, Arthurowi Millerowi, Thimothy'emu McDermottowi i Mary Tuck.
Osobne wyrazy wdzięczności kieruję do Maureen Maloney za cierpliwe przygotowywanie
maszynopisu.
Równie wielce jestem zobowiązany moim wydawcom. Bobowi Davenportowi i nade
wszystko Susanne McDadd.
Wstęp
Ów wiedza zabiła słonce, czyniąc z niego gazową kule pokrytą plamami... świat rozumu i
nauki... to suchy i sterylny świat mieszkańców abstrakcyjnego umysłu.
D.H.Lawrence
Współczesna nauka... jako czczą fikcja niszczy głęboko utajone fundamenty naszego świata:
zabija Boga i zajmuje jego miejsce na pustym tronie, zatem w przyszłości to ona ma grać rolę
jedynego legalnego obrońcy porządku istnienia i właściwego arbitra wszelkiej istotnej praw-
dy... Ludzie myśleli, że mogą wyjaśnić i pokonać naturę -dotychczasowy rezultat jest taki, że ją
zniszczyli i wyobcowali się z niej.
Vaclav Havel
Społeczeństwo, które nie pojmuje, w jaki sposób funkcjonuje nauka, może z łatwością paść
ofiarą ignorantów... którzy kpią z tego, czego nie rozumieją, albo producentów sloganów,
którzy głoszą że uczeni to wyrachowani wojownicy dnia dzisiejszego i narzędzia wojskowych.
Różnica... między... rozumieniem i niezrozumieniem... jest także różnicą między szacunkiem i
podziwem z jednej strony a nienawiścią i lękiem z drugiej.
Izaak Asimov
Nauka jest bezspornie szczególnym znamieniem naszego stulecia, charakteryzującym
zachodnią cywilizację. Nigdy nie odnosiła większych sukcesów ani nie wpływała na nasze
życie w stopniu większym niż obecnie, mimo to większość ludzi jej idee zna bardzo słabo.
Niemal połowa mieszkańców Stanów Zjednoczonych nie wierzy w ewolucję przez dobór
naturalny, a znaczna część obywateli brytyjskich nie zaprząta sobie głowy tym, że Ziemia
obraca się wokół Słońca. Ja sam zaś wątpię, by spośród tych, którzy w to wierzą, choćby jeden
człowiek na sto tysięcy mógł podać trafne uzasadnienie tego właśnie przekonania (dowody i
argumenty są tu w istocie wielce złożone). W rzeczywistości mnóstwo ludzi akceptuje teorie
naukowe, ponieważ ktoś powiedział, że są one prawdziwe, a nie dlatego, że je rozumie. Nic
więc dziwnego, iż natura nauki jest tak słabo rozumiana. Postrzega sieją natomiast z mie-
szaniną podziwu i lęku, nadziei i rozpaczy, zarówno jako źródło wielu chorób współczesnego
społeczeństwa, jak i nadziei na znalezienie lekarstw przeciw tym przypadłościom.
Nie są niczym nowym niektóre wystąpienia przeciwko nauce: Frankenstein Mary Shelley,
Doktor Moreau H.G. Wellsa i „Nowy wspaniały świat" Aldousa Huxleya to przykłady
antynaukowego ruchu, wzbudzającego silne emocje. Nauka jest niebezpieczna, a wnioski
nasuwają się same - dehumanizuje, odbiera wolną wolę, jest materialistyczna i wyniosła.
Pozbawia świat magii, czyni go prozaicznym. Zauważmy jednak, stąd pochodzą takie sądy -
nie ze świadectw historycznych, lecz od artystów, którzy modelują naukę podług swej własnej
wyobraźni. Potwór Frankensteina został wymyślony przez Mary Shelley niezgodnie z
jakąkolwiek dziedziną wiedzy przyrodniczej, jego mit posiada wszakże taką moc, że inżynieria
genetyczna budzi lęki, których bardzo trudno się pozbyć.
Dzisiejszy stosunek do nauki cechuje ambiwalencja i polaryzacja. Wyniki ankiet
potwierdzają zainteresowanie i podziw dla nauki, połączony z nierealistycznym przekonaniem,
że może ona rozwikłać wszelkie problemy. Z drugiej strony niektórzy ludzie odczuwają wobec
niej głęboki lęk i wrogość, a jeszcze inni stworzyli kilka nurtów krytyki. Ci ostatni postrzegają
naukę jako myśl materialistyczna zgubną dla jakiegokolwiek rozumienia duchowych celów
człowieka lub jego świadomości; obarczają ją odpowiedzialnością za zagrożenie nuklearne i
ogólne rozczarowanie współczesnym społeczeństwem przemysłowym, które zanieczyszcza i
dehumanizuje środowisko. Na ludzi nauki patrzy się jako na zimnych, anonimowych i
beztroskich techników. Niepokoi rozwój inżynierii genetycznej i możliwość manipulowania
embrionami, a obraz doktora Frankensteina jest stale upiększany. Wizerunek samych
naukowców pozostaje stereotypowy i uproszczony: jeżeli nie są szaleńcami, to pojawiają się
ubrani w białe fartuchy, noszą okulary i dzierżą probówkę. Media zazwyczaj pokazują ich jako
osoby anonimowe i pozbawione charakteru, dając mały wgląd w metody ich pracy. Naukowcy
nadal są przedstawiani najczęściej na podobieństwo pana Gradgrinda z powieści „Ciężkie
czasy" (Hard Times) Karola Dickensa. Bohater ów interesował się faktami i tylko faktami. Ich
nagromadzenie jest probierzem działalności naukowej i balastem, który zdaje się prowadzić do
coraz bardziej niezrozumiałych specjalizacji. Równie mylące okazało się przeświadczenie, że
istnieje „naukowa metoda" podająca wzór, który wiernie realizowany, musi prowadzić do
odkrycia. Nieczęsto pojawiająca się myśl o kreatywności nauki związana jest, romantycznie i
fałszywie, z kreatywnością artystyczną.
Trzydzieści lat temu C.P. Snów sugerował, że istnieją dwie odrębne kultury: jedna -
odnosząca się do nauki i druga - odnosząca się do sztuki i humanistyki. Skrytykowano go za
sposób użycia terminu „kultura". Niektórzy badacze utrzymują nawet, że nauka wcale nie jest
częścią kultury. Tym, którzy nawiązują do Nietzscheańskiego stwierdzenia, że nauka, wraz ze
swym redukcjonizmem i materializmem, pozbawia człowieka szczególnego statusu, wydaje
się, że jedynie idea kultury, która faktycznie wyklucza naukę, może przywrócić człowiekowi
godność. Abstrahując od definicji kultury - Snów miał rację, gdy zwracał uwagę na odrębność
„kultury" naukowej, ale nie wyjaśnił, dlaczego powinno się dokonywać tego rozdzielenia.
Tę wrogość wobec nauki może częściowo wyjaśnić pogląd amerykańskiego krytyka
literackiego Lionela Trillinga na temat trudności, które z jej zrozumieniem mają nie naukowcy:
„Pozbawienie większości z nas tej formy myślenia, o której się mówi, że jest osiągnięciem
obecnego wieku, przeżywamy z pewnością jako obrazę godności osobistej".
Głównym tematem tej książki jest myśl, że liczne nieporozumienia wokół nauki dadzą się
naprawić, gdy tylko zrozumiemy, w jakim stopniu pozostaje ona „nienaturalna". W pierwszym
rozdziale pragnę dowieść, że nauka wymaga specjalnego sposobu myślenia i jest nienaturalna z
dwóch głównych powodów. Po pierwsze, świat nasz nie został zbudowany na zasadzie
zdroworozsądkowej. Oznacza to, że „naturalne" myślenie - zwykły, codzienny zdrowy
rozsądek - nigdy nie pozwoli zrozumieć charakteru nauki. Jej pojęcia są, z małymi wyjątkami,
anty intuicyjne: nie mogą zostać sformułowane wskutek prostego badania zjawiska i pozostają
często poza codziennym doświadczeniem. Po drugie, uprawianie nauki wymaga świadomości
pułapek, które stwarza „naturalne" myślenie. Zdrowy rozsądek popełnia błędy, gdy stosuje się
go w celu rozwiązania zagadnień wymagających rygoru i ilościowego myślenia, toteż teorie
laików są wysoce niepewne.
Przy założeniu nienaturalnego charakteru nauki nieodzowne staje się rozróżnienie między
nauką a techniką, szczególnie od czasu gdy te pojęcia zaczęto niesłusznie utożsamiać. Dowód
na istnienie tej różnicy, omówiony w rozdziale drugim, pochodzi w dużej mierze z historii. Te-
chnika jest o wiele starsza od nauki, a większość jej dokonań - od prymitywnego rolnictwa aż
do budowy wielkich kościołów i wynalazku maszyny parowej - pod żadnym względem od
nauki nie zależy. Nawet techniczne myślenie bardzo różni się od naukowego.
Kiedy tylko rozpoznamy różnicę pomiędzy nauką a techniką, szczególnego znaczenia
nabierze greckie pochodzenie nauki, co jest przedmiotem rozdziału trzeciego. Objawiwszy się
tylko raz, jej specyficzna natura przyjęła odpowiedzialność za całą ludzką wiedzę. Jeśli nawet
większa część nauki Arystotelesa, o ile nie cała, jest błędna - wszak można go uważać za
naukowca zdrowego rozsądku - to trzeba przyznać, że stworzył on jednak podstawy
wyjaśniającego świat systemu, który opiera się na aksjomatach i logicznej dedukcji. System
ten został znakomicie wykorzystany przez Euklidesa i Archimedesa. Natomiast Chińczycy,
których często wyobrażano sobie jako uczonych, byli doświadczonymi inżynierami, ale do
nauki wnieśli niewielki wkład. Ich koncepcje filozoficzne w istocie cechował mistycyzm,
podczas gdy na rozwój nauki na Zachodzie wpłynął racjonalizm i koncepcja praw rządzących
naturą.
Ponieważ nauka jest zjawiskiem jedynym w swoim rodzaju, można oczekiwać, że tworzenie
jej posiada specyficzne cechy zupełnie różne od atrybutów sztuki, jak to zobaczymy w
rozdziale czwartym. Naukowy geniusz charakteryzowany jest często przez „psychiczną
odwagę", która wymaga od naukowców, by włączali do swoich koncepcji założenia, na które
mają bardzo mało dowodów. Naukowa kreatywność przestaje być wtedy zrozumiała i można
zwątpić zarówno w sugestię, że wymaga ona jedynie rozwiązania jakiegoś problemu, co
potrafi zrobić komputer, jak i w teorię, że zależy w znacznym stopniu od przypadku, który
opisuje się zazwyczaj w dziale „odkrycia nie zamierzone".
Ze względu na to, iż pewnych odkryć można dokonać tylko raz, badania naukowe rodzą
ogromne współzawodnictwo, nawet jeśli na dłuższą metę naukowcy pozostają anonimowi lub
ich nazwiska upamiętniane są tylko w kontekście historycznym. Społeczny charakter nauki,
który rozważam w rozdziale piątym, wymaga współpracy. Naukowa wspólnota musi
jednomyślnie przyjąć nowe idee, ponieważ jednak niechętnie rezygnuje ona z wyznawanych w
danej chwili poglądów, naukowcy byliby niemądrzy, gdyby odrzucili swe hipotezy na pierwszy
sygnał, że są one fałszywe. Uczeni często osądzają teorię według jej objaśniającej wartości,
prostoty i efektywności.
Można by sądzić, że objaśnić naturę nauki i przyczyny jej sukcesów mogą albo filozofowie,
albo socjologowie. Niestety, nie tylko sprawiają oni zawód pod tym względem, ale też - wbrew
oczekiwaniom - dostarczają wątpliwości, czy nauka rzeczywiście daje wyobrażenie, dokąd
zmierza świat, jak to zobaczymy w rozdziale szóstym. Na szczęście dla nauki filozoficzne
twierdzenia na jej temat nie są żadną rewelacją i można je pominąć. Istnieją różne „style"
uprawiania nauki, a łączy je potrzeba badania wartości czyichś pomysłów w stosunku do
realnego świata.
Trzeba przyznać, że pewność, z którą ktoś odróżnia naukę od nienauki, niełatwo uzasadnić.
Można jedynie przyjąć, co omówiono w rozdziale siódmym, że pewne obszary badań
naukowych są zbyt młode lub proste. Wyobraźmy sobie, jak toczono w XVII i XVIII stuleciu
debatę na temat rozwoju embriona: czy wszystkie organy ma od początku ukształtowane, czy
też formują się one stopniowo. Zakończenie sporu nie było możliwe, dopóki nie dokonał się
konieczny postęp w biologii; podobnie rozważania zmierzające do udowodnienia naukowego
charakteru psychoanalizy mogą okazać się prekursorskie przy obecnym stanie wiedzy na temat
mózgu, zwłaszcza że mechanizmy psychiczne, o których istnieniu psychoanaliza zapewnia,
mało różnią się od zjawisk, które próbuje wyjaśnić, podobnie jak to miało miejsce we
wczesnym stadium embriologii. Łatwo zajmować się zjawiskami paranormalnymi, ponieważ
nie mamy dowodów na ich istnienie. Szczególny problem stwarza tu religia: chociaż jest
niezgodna z nauką, wielu naukowców to ludzie głęboko wierzący. Wyjaśnienia tego paradoksu
trzeba szukać w różnicy między naturalnym a nienaturalnym sposobem myślenia.
Tu oto tkwi istotny powód postrzegania nauki jako wiedzy niebezpiecznej. Czyż nie
odpowiada ona za broń nuklearną i za współczesny niepokój wokół inżynierii genetycznej?
Rozdział ósmy na przykładach historii dziejów bomby atomowej i eugeniki rozważa społeczne
obowiązki nauki i dowodzi, że tak zwane nowe kwestie etyczne polegają po prostu na błędnym
rozumieniu jej charakteru.
Chociaż nauka daje największą nadzieję na rozwiązanie wielu problemów, takich jak
zanieczyszczenie środowiska czy choroby dziedziczne, ma jednak pewne ograniczenia. Stały
się one przedmiotem rozważań w rozdziale dziewiątym, który porusza również kwestię tego, iż
należy wierniej przedstawiać publicznie charakter nauki.
Dla niektórych ludzi nauka jest zbyt niewygodna, by mogli żyć w kręgu jej oddziaływania.
Nie oferuje żadnej nadziei na życie po życiu, nie toleruje zabiegów magicznych i nie radzi
nam, jak postępować. Nie widzę jednak powodu, by zgodzić się z D.H. Lawrence'em, że
stwarza ona „świat suchy i sterylny" poprzez stałe wyjaśnianie tajemnic. Cytując Einsteina-
„ze wszystkich tajemnic największą jest (częściowa) zrozumiałość świata". A sama nauka
może być bardzo piękna.
Rozdział

Nienaturalne myślenie

'często uważa się, że nauka i zdrowy rozsądek są ściśle ze sobą związane. Thomas Henry
Huxley, znakomity kolega Darwina, mawiał, że nauka to nic innego jak wyszkolony zdrowy
rozsądek. „Nauka jest zakorzeniona w całym mechanizmie zdroworozsądkowego myślenia" -
głosił optymistycznie filozof i matematyk Alfred North Whitehead. Choć poglądy te brzmią
rozsądnie, są, niestety, błędne. W rzeczywistości zarówno idee, które nauka wytwarza, jak i
sposób uprawiania nauki pozostają całkowicie antyintuicyjne i antyzdroworozsądkowe. Chcę
przez to powiedzieć, że pojęć naukowych nie można zrozumieć za pomocą prostego badania
zjawiska i że często funkcjonują one poza codziennym doświadczeniem. Nauka nie
dostosowuje się do naszych naturalnych oczekiwań.
Zdrowy rozsądek odzwierciedla ogromną liczbę informacji człowieka o świecie i dostarcza
mnóstwa praktycznych reguł - wiele z nich całkiem logicznych - do rozwiązywania
codziennych kłopotów. Jest tak trwale wpisany w nasze życie, że rzadko o nim myślimy.
Rozważmy krótko to zagadnienie.
Porównując zdrowy rozsądek z nauką, musimy oczywiście określić, co pod pojęciem nauki
rozumiemy. Sformułowanie ścisłej definicji nie jest wcale łatwe. Na tym etapie rozważań
najlepiej odwołać się do przykładu.
Zasadnicze cechy nauki najłatwiej przedstawić na przykładzie fizyki. Próbuje ona wyjaśnić
nam zjawiska natury - świata, w którym żyjemy. Tłumaczy ogromną różnorodność zjawisk -
ruch wszystkich obiektów, naturę światła i dźwięku, ciepła i elektryczności, elementarną
strukturę rzeczy - za pomocą możliwie najmniejszej ilości zasad.
Konstruuje surowe teorie, które muszą zarówno przejść testy zmierzające do ich
potwierdzenia, jak i odeprzeć próby zanegowania. Teoriom stawia się także konieczny wymóg,
by były zdolne do modyfikacji lub nawet odrzucenia, jeśli wskażą na to dowody. W procesie
tym wszystkie zjawiska muszą być postrzegane przez niezależnych obserwatorów, ponieważ
wiedza naukowa jest wiedzą społeczną.
Nauka zawsze odnosi się do świata zewnętrznego, a jej sukcesy zależą od zgodności teorii z
rzeczywistością. Dobra teoria powinna nie tylko wyjaśniać obserwacje i sugerować nowe, lecz
także spełniać kryteria względnej prostoty i elegancji, a dobra teoria, co sami naukowcy stale
podkreślają, wzmaga zainteresowanie nowymi pytaniami.
Einstein definiował przedmiot nauki jako „koordynowanie eksperymentów i ujmowanie ich
w logiczny system". W tym dążeniu fundamentalną rolę pełni matematyka, która wyraża
naukowe idee ilościowo: według dziewiętnastowiecznego fizyka, lorda Kelvina, utrzymywać,
że coś naprawdę się wie, można tylko wtedy, gdy potrafi się to zmierzyć i wyrazić w liczbach.
Chociaż jest to pogląd skrajny i z pewnością niewłaściwy, u podstaw naukowych dążeń leżą
próby wyrażenia idei z matematyczną ścisłością. Zasady dynamiki Newtona zapewniły tej
postawie wspaniałe zwycięstwo: za pomocą kilku podstawowych praw i matematyki można
wyjaśnić całokształt zjawisk ruchu - od krążenia planet po ruchy kuł bilardowych czy
tenisowych piłeczek.
Fizyka ruchu dostarcza przekonujących dowodów na antyintuicyjną i nieoczekiwaną naturę
nauki. Większość ludzi nie obeznanych z fizyką ma niejasne pojęcie o ruchu i na podstawie
tych nieprecyzyjnych przeczuć zgaduje, w jaki sposób przedmiot może się poruszać. Kiedy
studentom przedstawia się problemy wymagające określenia, gdzie upadnie jakiś przedmiot
zrzucony z samolotu - na przykład bomba -często udzielają niewłaściwej odpowiedzi.
Odpowiedź poprawną - że bomba uderzy w punkt leżący mniej więcej poniżej miejsca, nad
którym samolot przelatywał w chwili zrzucenia pocisku - często się odrzuca. Nie bierzemy pod
uwagę, iż od momentu zrzucenia bomba nadal się porusza do przodu niezależnie od ruchu w
dół. Jeszcze dobitniej przedstawia to zagadnienie inny przykład. Wyobraźmy sobie, że stoimy
w centrum rozległego, płaskiego pola. Jeśli jedną kulę wypuścimy z ręki, a drugą - dokładnie
w tym samym czasie - poziomo wystrzelimy z pistoletu, to która z nich uderzy o ziemię
pierwsza? Otóż zrobią to jednocześnie, ponieważ prędkość spadania kuli jest niezależna od jej
ruchu poziomego. To, że wystrzelona kula leci poziomo, nie ma wpływu na to, jak szybko
spada pod wpływem grawitacji.
Inną zadziwiającą właściwością ruchu jest to, iż większość przedmiotów porusza się ze stałą
prędkością i nie pozostaje -jak wielu z nas myśli - w stanie spoczynku. Ciało w ruchu
kontynuuje ten ruch tak długo, dopóki nie napotka siły, która je zatrzyma. Tę rewolucyjną myśl
sformułował na początku XVII wieku Galileusz, przeciwstawiając się zdroworozsądkowemu
poglądowi Arystotelesa, wygłoszonemu w VI wieku przed Chrystusem, że ruch przedmiotu
wymaga nieustannego działania jakiejś siły. Galileusz opisał jako przykład dokładnie płaską
równinę i dokładnie okrągłą kulę. Jeśli równina ta jest nieznacznie pochylona, kula będzie
toczyła się wciąż w dół. Ale tocząc się w górę po zboczu o łagodnym nachyleniu, będzie
prędkość wytracać. Wynika stąd, że ruch po poziomej równinie jest stały, „ponieważ jeśli
prędkość poruszania się będzie jednakowa, nie może zmaleć lub osłabnąć, a w żadnym
wypadku zaniknąć". A więc na płaskim zboczu, bez żadnego tarcia, początkowy impuls
utrzymuje kulę w nieprzerwanym ruchu, nawet jeśli nie działa na nią żadna siła. Tym samym
naturalny stan jakiegoś fizycznego przedmiotu to ruch ze stałą prędkością po linii prostej.
Zasada ta jest znana jako pierwsze prawo dynamiki Newtona. To, że prawdziwa kula się
zatrzyma, zależy od przeciwstawnej siły, wytworzonej przez tarcie pomiędzy rzeczywistą kulą
a rzeczywistą równiną. Ogromna pojęciowa zmiana, której domagały się przemyślenia Gali-
leusza, wskazuje, że nauka nie zmierza do wyjaśniania „nieznanego", wychodząc od tego, co
znane. Wręcz przeciwnie - nauka często wyjaśnia to, co znane, w nieznanych terminach.
Arystotelesowe pojmowanie ruchu, który wymaga stałego użycia jakiejś siły, jest nam bliskie
tak, jak teorie Galileusza i Newtona nie będą nigdy. Nic więc dziwnego, że wielu studentów,
pytanych o siły działające na piłkę wyrzuconą w górę, wyobraża sobie obecność jakiejś siły
wznoszącej, kiedy piłka odrywa się od rąk, podczas gdy w rzeczywistości wpływa na nią tylko
siła grawitacji skierowana w dół. Nie jest to zagadnienie proste i mylił się nawet Galileusz,
chociaż uświadomił sobie istnienie problemu. Wyjaśnienia dostarcza drugie prawo dynamiki
Newtona. Siły działające na jakieś ciało powodują przyspieszenie, a więc nie mogą ani
zwiększyć, ani zmniejszyć jego prędkości. Piłka rzucona w górę leci stale ku górze, dopóki nie
napotka takiej siły, jak tarcie czy grawitacja, która zwolni jej bieg. Siła grawitacji przyspiesza
ruch piłki w kierunku ziemi - co równoważy ruch od ziemi - piłka zatem zahamuje i w końcu
zmieni swój ruch na przeciwny.
Naiwne poglądy studentów są bardzo podobne do teorii „impetusu" prezentowanej w VI
wieku przez Jana Filopona z Cezarei i przez Jana Buridana w wieku XIV. Teoria ta zakładała,
że przedmioty wprowadza w ruch działająca na nie siła albo początkowy impetus, który
utrzymuje je w ruchu. Myślenie w kategoriach impetusu ponad trzysta lat po Newtonie
pokazuje, jak trudna jest asymilacja antyintuicyjnej myśli naukowej.
Innym zaczerpniętym z fizyki przykładem antyintuicyjnej myśli naukowej jest odkryta przez
Newtona natura białego światła. Zwykłe białe światło okazało się mieszaniną różnych
rodzajów światła, z których każde widzimy jako kolorowe. Kiedy połączą się wszystkie kolory
tęczy, powstaje biel.
Jeszcze innego przykładu dostarcza dziewiętnastowieczna teoria „flogistonu", która
próbowała rozstrzygnąć, co dzieje się podczas spalania. Według Arystotelesa i w kategoriach
zdrowego rozsądku z płonącego przedmiotu coś się wyraźnie ulatnia. Stworzono więc pojęcie
flogistonu. I znowu zdrowy rozsądek się pomylił, ponieważ istotną cechą spalania jest
pochłanianie tlenu, nie zaś wydalanie jakiejś substancji.
Ze zdrowym rozsądkiem kłóci się nawet coś tak prostego, jak mechanizm rozpuszczania się
barwnika w wodzie. Wpuszczamy kroplę atramentu lub innego barwnika do jednego z końców
rynny wypełnionej wodą. Po pewnym czasie barwnik rozpłynie się w całej wodzie. Dlaczego
tak się dzieje? Może się wydawać, iż w jednym z końców naczynia istnieje coś, co działa na
„poruszający się" barwnik. W rzeczywistości zaś owo rozprzestrzenianie się to wynik
przypadkowego poruszania się cząsteczek barwnika; gdyby można podążyć za pojedynczą
cząsteczką, dałoby się określić kierunek tego ruchu. A czyż nie jest intuicyjna wiara, że wysoka
i niska temperatura to odbicie podobnej, ukrytej właściwości związanej z drganiem cząsteczek?
Nauka zajmuje się również ogromnymi różnicami wielkości rzeczy i czasu trwania zjawisk.
Cząsteczki są, na przykład, tak małe, że niełatwo je sobie wyobrazić. Jeśli oznaczymy
wszystkie cząsteczki wody znajdującej się w szklance, a następnie wlejemy płyn do morza i
pozwolimy mu rozproszyć się po wszystkich oceanach, to ponownie zaczerpnąwszy szklankę
wody z morza, prawie na pewno znajdziemy w niej niektóre z oznaczonych wcześniej
cząsteczek. Oznacza to, że w szklance wody znajduje się więcej cząsteczek niż szklanek wody
w morzach. W jednym palcu - żeby podać inny przykład - mamy więcej komórek niż jest ludzi
na świecie. Czas geologiczny z kolei jest tak rozległy - miliony milionów lat - że jednym z
triumfów dziewiętnastowiecznej geologii stało się odkrycie, iż wielkie pasma górskie, głębokie
wąwozy i doliny ukształtowały się pod wpływem sił zupełnie takich samych jak nam
współczesne, ale działających w ogromnych okresach czasu. Zakładanie, że do zmian
geologicznych przyczyniły się katastrofy, nie jest więc konieczne.
Kolejnego przykładu na to, w jakich warunkach intuicja zazwyczaj zawodzi -
prawdopodobnie z powodu skali - dostarcza wyobrażenie wielkości planety Ziemi, której
równik - o długości czterdziestu tysięcy kilometrów - otoczono przylegającym dokładnie
sznurkiem. Jeśli długość sznurka zostanie zwiększona o 91 centymetrów, jaka odległość będzie
go dzielić od powierzchni planety? Odpowiedź brzmi - około piętnastu centymetrów i to
niezależnie od tego, czy równik ma 40 tysięcy czy 40 milionów kilometrów.
Wyjątki od reguły, że wszystkie pojęcia naukowe to przeciwieństwo zdrowego rozsądku,
zdarzają się rzadko. Najlepszym przykładem jest prawo Ohma: im większy opór w obwodzie
elektrycznym, tym większego napięcia potrzeba, żeby wywołać przepływ prądu elektrycznego
przez obwód. Ogólnie jednak sposób, w jaki natura się integruje, oraz prawa, które nią rządzą,
nie mają wyraźnego związku z codziennym życiem. Praw natury nie można po prostu
wywodzić z normalnego doświadczenia. Nawet to, że Ziemia kręci się wokół Słońca,
akceptowane jest bardziej dzięki autorytetom niż rzeczywistemu rozumieniu - dostarczyć
dowodów tego ruchu wcale niełatwo. Jak wskazywał Bertrand Russel, wszyscy zaczynamy od
„naiwnego realizmu", według którego rzeczy są takie, jakie się wydają. Sądzimy, iż trawa jest
zielona, kamienie twarde, a śnieg zimny. Fizyka uczy nas jednak, że zieloność trawy, twardość
kamieni i chłód śniegu to nie to samo, co znamy z własnego doświadczenia. Podobnie
funkcjonują prawa ekonomii - laureat Nagrody Nobla James Meade chciał, by na jego
nagrobku umieścić takie oto epitafium: „Przez całe życie próbował zrozumieć ekonomię, lecz
powstrzymywał go przed tym zdrowy rozsądek".
To, że nauka jest nienaturalnym, a nawet niepokojącym rodzajem myślenia, doskonale
rozumiał Arystoteles:
„ W pewnym sensie wynik zrozumienia stanowi całkowitą odwrotność wstępnego nastawienia
naszego umysłu. Każdy zaczyna (jak mówimy) od zdumienia tym lub innym faktem: na przykład
tym, że długość przekątnej kwadratu nie jest proporcjonalna do jego boku. Każdy, kto nie
zrozumiał, dlaczego bok i przekątna nie mają wspólnego elementu, uważa to za cos
niezwykłego. Ale można odwrócić tę myśl... nic nie mogłoby bardziej zdumieć matematyka, niż
to, że przekątna i bok kwadratu stały się proporcjonalne ".
Arystoteles powoływał się na fakt, że zgodnie z teorią Pitagorasa przekątna kwadratu jest
wielokrotnością pierwiastka kwadratowego i nie jest wyrażona liczbą całkowitą, ale ma tyle
miejsc po przecinku (1,4142...), ile potrzebujemy do obliczeń.
Rozważania o nienaturalnym charakterze pojęć naukowych polegają jednak w pewnym
sensie na powtarzaniu tej samej myśli: gdyby pojęcia te były naturalne, ich odkrycie nie
wymagałoby trudnych i długotrwałych technik badawczych. Wszystkie omówione tu
przykłady odnoszą się - jak dotąd - do stosunkowo prostych praw naukowych. Kiedy ktoś
poznaje świat kosmologii z jej czarnymi dziurami i sugestią - czy raczej przeświadczeniem - że
wszechświat zaczął się od „wielkiego bum" i został w odległej przeszłości stworzony w ciągu
kilku minut, wtedy nauka przekracza próg antyintuicyjności i wydaje się niezrozumiała albo
nawet przypomina magię tym, którzy nie zajmują się fizyką. W opisie świata cząstek atomu
istnieje wiele pojęć, które nie mają odpowiedników w życiu codziennym. W tym świecie
wszystkie elektrony - najmniejsze posiadające ładunek cząstki, stanowiąc element składowy
wszechrzeczy - są identyczne. Działa w nim zasada nieokreśloności Heisenberga: nie sposób
wymyślić metodę określania dokładnej pozycji cząstek tworzących atomy, nie rezygnując ze
ścisłości określenia, jak szybko się one poruszają. Regułami zachowania się cząstek
molekularnych w tym wewnątrzatomowym świecie rządzi mechanika kwantowa, w której
znany nam rodzaj przyczynowości nie daje się zastosować, niemożność zaś orzekania o
pewnych wydarzeniach, takich jak rozpad radioaktywny, jest znamienną cechą teorii. Nawet
Einstein nie mógł pogodzić się z tym brakiem przyczynowości i rolą przypadku, sformułował
więc słynny aforyzm: „Bóg nie gra w kości".
Jedną z najbardziej nienaturalnych cech nauki jest to, że abstrakcyjny język matematyki
stanowi narzędzie opisu zachowania się zarówno organizmów nieożywionych, jak i systemów
w fizyce, w życiu, w biologii. Nie wiadomo, dlaczego musimy dostosowywać świat do opisów
matematycznych. Jakkolwiek brzmi odpowiedź, jest to zadziwiające.
Ponieważ aż tyle nauk opiera się na matematyce, niełatwo przy użyciu zwykłego języka
tłumaczyć ich idee. Co więcej, rozumienie nauki jest procesem hierarchicznym: niezwykle
trudno przyswoić sobie bardziej złożone pojęcia, dopóki nie opanuje się podstawowych.
Często trudno nawet przełożyć je na język codzienny, szczególnie w fizyce, gdzie decydującą
rolę gra matematyka: nie musi to być prosty przekład wzorów matematycznych na określenia
obserwowanych przedmiotów. Dlatego dla większości ludzi niepojęta jest mechanika
kwantowa, czarna dziura i większość fizyki. To samo można powiedzieć w przypadku chemii.
Większość wzorów przedstawiających relacje strukturalne pomiędzy atomami niełatwo
przełożyć na język powszedni. Wzór cholesterolu, na przykład, niewiele znaczy dla
niechemika.
Podstawowe pojęcia biologii molekularnej nie wydają się bardziej abstrakcyjne niż pojęcia
fizyczne, a ponieważ w kilku wypadkach będę ich używał, konieczny staje się nieco bardziej
szczegółowy opis paru z nich.
Wiemy, iż DNA jest materiałem genetycznym - fizyczną podstawą dziedziczności. Jeśli
pominiemy matematykę, jego rolę można uznać za jedną z najłatwiejszych do wyjaśnienia
myśli naukowych, choć w istocie jest dość skomplikowana. Rola ta wiąże się z zagadnieniami
specjalistycznymi. Nawet rozpoznanie, że materiał genetyczny w ogóle istnieje, wymaga pracy
ogromnej liczby uczonych. Człowiek od dawna zdawał sobie sprawę, że dzieci są podobne do
rodziców zarówno w świecie ludzkim, jak i zwierzęcym, lecz natury mechanizmu, który za to
odpowiada, nie pojmowano aż do naszego wieku. Począwszy od Arystotelesa, teorie
wyjaśniające to zjawisko zawierały myśl, że rodzice przekazują potomstwu jakąś
„niesubstancjalną pneumę" jako czynnik dziedziczności, głosiły dominującą rolę ojca w tym
procesie, a także uznawały środowisko rodziców za główny wyznacznik fizycznego obrazu
potomka. Pod koniec ostatniego stulecia stało się jasne, że to chromosomy - sznurków a te
struktury wewnątrz torebki jądra komórkowego - mogą być fizyczną podstawą dziedziczności.
Dopiero w latach siedemdziesiątych XIX wieku odkryto, że plemniki, które po raz pierwszy
zaobserwowano pod mikroskopem dwieście lat wcześniej, nie są pasożytami, jak kiedyś
sądzono, lecz dostarczają jajeczku męski materiał genetyczny. Odkrycia te wymagały
starannych obserwacji, pomysłowych doświadczeń i technologii, na przykład użycia mi-
kroskopów. Niczego z tych podstawowych odkryć nie można się było spodziewać po
normalnym doświadczeniu świata.
Identyfikacja DNA jako materiału genetycznego i jego kontrolnej roli wobec komórki
wymagała całej serii odkryć, których podstawą były nie tylko doświadczenia biologiczne, ale
również bardzo złożone badania fizyczne i chemiczne. Już jakiś czas temu ustalono skład
chemiczny DNA - wykrywając, że jest on zbudowany z czterech różnych substancji albo zasad
(bases). Dopiero jednak w 1953 roku odkryto strukturę DNA - sposób, w jaki te zasady są
rozmieszczone – co dostarczyło tematów badań zupełnie nowych problemów. Analiza stru-
kturalna bazowała na załamaniu promieni rentgenowskich, technice stosowanej przez fizyków
i chemików w celu zdobycia informacji o trójwymiarowym układzie atomów w cząsteczce.
Wiązkę promieni rentgenowskich przepuszcza się przez ciało krystaliczne, a wychodzące zeń
promienie dają na kliszy fotograficznej powikłany, ale charakterystyczny kropkowany wzór.
Wiązka ta odzwierciedla drogę załamywania się promieni przechodzących przez kryształ, a
dzięki zręcznym procedurom matematycznym można z tych załamań zrekonstruować układ
atomów.
James Watson i Francis Crick opracowali strukturę DNA od strony jej właściwości
chemicznych, jak i zbadali ją w załamaniu promieni rentgenowskich. Potrzebowali ogromnej
wiedzy tworzącej kontekst zagadnienia i włożyli w badania wiele pracy. Wynik okazał się miłą
niespodzianką, ponieważ ujawnił jedną z zasadniczych cech życia -replikację. DNA jest bardzo
długą sznurkowatą cząsteczką, złożoną z nitek skręconych w podwójną spiralę. Każda nitka
zbudowana jest z czterech różnych zasad, których układ ma dwie ważne cechy. Zasady
(nukleotydy - przyp. tłum.) ułożone są w ścisłym porządku, unikatowym dla każdej z nich,
wzdłuż skręconych nitek, a podstawowe właściwości DNA są określone przez szczególne
następstwo zasad. Ponadto zasady w jednej nitce pozostają w niepowtarzalnym i
komplementarnym związku z zasadami w drugiej nitce. Każda zasada może dopasowywać się
wyłącznie do swej komplementarnej partnerki. Z chwilą gdy zostanie sprecyzowane
następstwo zasad w jednej nitce, ustala się także ich układ w drugiej. Utrzymuje to
podstawowy mechanizm replikacji: gdy dwa łańcuchy rozwijają się i następnie oddzielają,
komórka syntetyzuje dopełniające się nitki, przyłączając wolne zasady (które są zawsze
obecne) do ich komplementarnego partnera. Ten zaskakujący mechanizm replikacji DNA
stanowi elementarną zasadę replikacji samego życia, ale uproszczony opis nie oddaje w pełni
złożoności chemicznych reakcji, które w tym procesie zachodzą.
Ścisłe następstwo zasad pozwala nie tylko na wierną replikację, lecz także tworzy
mechanizm, za pomocą którego DNA, jako materiał genetyczny, kontroluje zachowanie się
komórki. W znacznej mierze jest ono określone przez klasę cząsteczek zwanych proteinami. W
komórce istnieją tysiące rozmaitych protein, istotnych dla kluczowych reakcji chemicznych, a
także odpowiedzialnych za dostarczanie budulca do struktur komórkowych, jak na przykład
włókna wywołujące kurczenie się mięśni. O charakterze komórki rozstrzyga to, jakie proteiny
ona zawiera. Obecność lub nieobecność poszczególnych ich rodzajów reguluje zachowanie
komórki.
DNA zawiera kod wszystkich protein w komórce - kolejność czterech zasad w DNA można
przełożyć na następstwo dwudziestu aminokwasów, z których składają się proteiny.
Właściwości tych protein są określone przez kolejność w łańcuchu aminokwasów, z którego
powstały. Tym samym DNA komórki przypomina książkę zawierającą receptę dla każdej
proteiny, a życie komórki, jej charakter, zależy od tego, która instrukcja zostanie „odczytana".
Ten elegancki uniwersalny mechanizm stanowi podstawę życia, na nim też opierają się nauki
biologiczne, genetyka, biologia molekularna, postęp i ewolucja. Nic w dzisiejszym świecie nie
wyprzedza współczesnej koncepcji komórki i biologii molekularnej. Ponadto na przekór
zdrowemu rozsądkowi cechy nabyte nie mogą zostać odziedziczone, a wszelkie ewolucyjne
zmiany są uzależnione od zmian w DNA. Obydwie sprawy są, rzecz oczywista, ściśle
powiązane.
Z małymi wyjątkami wszystkie cechy, które przechodzą z rodziców na potomstwo poprzez
jajo i nasienie, są przenoszone przez DNA. Każda zmiana właściwości jakiegoś organizmu,
która ma być odziedziczona, wymaga zmian w DNA. Może być rezultatem rozmaitych
kombinacji DNA dostarczanych przez rodziców, a kolejność samych zasad potrafi się zmienić
z powodu mutacji wywołanych błędem w replikacji albo uszkodzeniem przez czynniki
środowiskowe - przez jakiś proces zmieniający naturę DNA, tak że przekształca się także wzór
protein syntetyzowanych w komórkach. Ewolucja jest więc zmianą dokonującą się w DNA
komórek z pokolenia na pokolenie. Jedyną istotną różnicą pomiędzy najprymitywniejszą
komórką a najbardziej skomplikowanym zwierzęciem jest odmienna kolejność zasad DNA. Co
więcej, przypadkowe jest pochodzenie w DNA zmian, które wywołują te zróżnicowania.
Zachowanie zwierzęcia ani jego doświadczenie życiowe nie zmienia DNA tak, aby nabyte
cechy - siła, wiedza, lęki, miłość - mogły zostać odziedziczone. Fakt, że istoty ludzkie
powstają w ten sposób, musi przynajmniej niekiedy zdumiewać biologów. Tych jednak, którzy
nadal wątpią, przekonuje całkowicie niezbity dowód, choć techniczny, matematyczny i trudny.
Niestety, potrzeba kilku lat pracy, by w pełni zrozumieć przedmiot badań biologii
molekularnej, a tym bardziej wprowadzać innowacje.
Psycholog behawiorysta Burrhus F. Skinner był tym samym bliższy prawdy określającej
naturę nauki, niż Whitehead czy Huxley: „Cóż zatem możemy zaprezentować nienaukowcom
albo trafnym przewidywanym osądom czy zdrowemu rozsądkowi, wreszcie przekonaniom
zdobytym przez osobiste doświadczenie? Naukę albo nic".
Uważam, że jeśli coś zgadza się ze zdrowym rozsądkiem, prawie na pewno nie jest nauką. A
to dlatego, że sposób działania wszechświata nie jest tożsamy ze sposobem funkcjonowania
zdrowego rozsądku. Nie ma między nimi zgody. W toku ewolucji nasze mózgi - i stąd wzięło
się nasze zachowanie - dokonały selekcji i przestały zajmować się bezpośrednio otaczającym
nas światem. Doskonale wykształciliśmy określone typy myślenia, szczególnie te, które
prowadzą do prostej i jednocześnie złożonej techniki oraz kontrolują najbliższe otoczenie.
Naukowe rozumienie jest jednak nie tylko nienaturalne: nie było też konieczne dla rozwoju
człowieka, a wobec tego, jak zobaczymy (rozdział II), technika nie zależy od nauki.
Oto owa nienaturalna natura nauki, która jednak w historii objawia się bardzo rzadko. W
przeciwieństwie bowiem do nauki ludzkim zachowaniem kieruje myślenie nie uświadomione.
Mimo nieznajomości fizyki większość ludzi podejmuje bardzo skomplikowane działania, takie
jak jazda rowerem - arcytrudny problem w pojęciu Newtona. Dobry przykład na to, jak
najbardziej prymitywne wyobrażenia mogą zostać użyte do złożonych zadań, dają metody, za
których pomocą Polinezyjczycy wyznaczają kurs ku odległym wyspom. Stosują oni
„obliczanie na oko" (dead recfwning), wyobrażając sobie, że łódź to nieruchomy punkt, wyspy
poruszają się obok, a gwiazdy krążą ponad głową. Przypomina to chodzenie po omacku
pomiędzy dwoma krzesłami w dużym holu, gdy jednocześnie stale wskazuje się na trzecie
krzesło, stojące poza główną trasą. Ta metoda nawigacji nie wymaga żadnego zrozumienia,
dlaczego wypadki zachodzą tak, jak zachodzą; różni się zasadniczo od nawigacji opartej na
nauce i technice, podkreślającej ludzką umiejętność rozmyślania nad niezliczonymi zagadnie-
niami. Chociaż wiedza jest tu istotna, rozumienie natury zjawiska- nie.
W przeciwieństwie do nauki codzienne myślenie oparte na zdrowym rozsądku określane jest
za pomocą swojej naturalności. Idzie tu o złożone procesy umysłowe, których zazwyczaj
jesteśmy nieświadomi, a które pozwalają nam zaspokajać potrzeby życia codziennego. W
większości wypadków całkowicie to wystarcza, ale nauka potrzebuje czegoś więcej. Myślenie
potoczne pozbawione jest bowiem rygoru, logiczności i obiektywizmu. Większość ludzi
traktuje swoje opinie o świecie jako prawdziwe, nie uświadamiając sobie motywów poszcze-
gólnych sądów. Tymczasem to rozumowanie stanowi przeciwieństwo świadomej i
samokrytycznej metodologii nauki. Zdroworozsądkowe myślenie wykazuje skłonności do
popełniania błędów, szczególnie wtedy gdy problemy mają charakter formalny, a dostęp do
informacji jest ograniczony. Tak naprawdę nie zmaga się ono z formą i nie tworzy ogólnych
rozwiązań. Różnice pomiędzy myśleniem zdroworozsądkowym a naukowym można wyjaśnić
na dwa sposoby: przez obserwację rozwoju intelektualnego dzieci i rozpatrując pewne aspekty
rozumowania dorosłych.
Małe dziecko postrzega świat w sposób o wiele bardziej złożony, niż pierwotnie sądzono.
Dwulatki rozumieją już przyczynę i skutek, pytając nad stłuczoną filiżanką: „Kto to zrobił?"
Potrafią także rozpoznać, że symbole - na przykład słowa - mogą funkcjonować niezależnie od
rzeczy, te zaś z kolei dadzą się uszeregować według koloru i wielkości. Kończąc cztery lata,
dzieci uznają, że pojawienie się jakiegoś przedmiotu - na przykład kamiennego jaja - nie musi
objawiać jego prawdziwej tożsamości. Uczą się przez bezpośrednie doświadczenie, autorytet,
intuicję i logikę. Wszystko to prowadzi do zdroworozsądkowego, ale nie naukowego poglądu
na świat.
Każde dziecko we wczesnym etapie rozwoju, jak dowiódł szwajcarski psycholog Jean
Piaget, zapełnia świat spontanicznym ruchem oraz siłami witalnymi. Fale wznoszą się same,
chmury wzbudzają wiatr, a przedmioty i zjawiska mają własną wolną wolę. Jezioro przyciąga
rzekę, która chce płynąć w jego stronę. Niektóre interpretacje starszych dzieci są nawet
zbliżone do fizyki Arystotelesa - na przykład pomysł, że rzucony przedmiot jest po części
poruszany powietrzem, przez które przelatuje.
W dziecięcym myśleniu istnieje zatem jakiś „magiczny" aspekt, co częściowo spowodowane
jest niezdolnością dziecka do rozróżniania granicy między nim a światem. Jakkolwiek nie
próbowalibyśmy tego wyjaśniać, dzieci wierzą, że myśl może wpływać na zdarzenie, które jest
pożądane lub budzi lęk. Zilustrował to pisarz i krytyk Edmund Gosse, wychowany w surowym
wiktoriańskim środowisku, gdzie wszelka twórczość wyobrażeniowa była zakazana. Nigdy nie
opowiadano mu bajek. Nie miał przyjaciół, a jedynymi jego lekturami były książki naukowe i
modlitewnik. O sobie jako pięcio czy sześciolatku mówi:
„Miewałem przedziwne przesądy. Wmawiałem sobie, że jeśli tylko znajdę właściwe słowa lub
zdam odpowiednie egzaminy, mogę spowodować, że wszystkie ptaki i motyle z ilustrowanych
podręczników mojego Ojca ożyją i wylecą z książki... Podczas porannych i wieczornych
modlitw... wyobrażałem sobie, że jedna z moich dwóch natur się oddaliła i uczepiwszy się
kurczowo gzymsu, spogląda w dół na moją drugą jaźń i całą resztę. Gdybym tylko mógł
znaleźć do nich klucz... "
Piaget opisał dwa aspekty dziecięcej teorii świata: animizm - skłonność do traktowania
przedmiotów jako istot żywych i obdarzonych wolą, oraz artyficjalizm - przekonanie, że
wszystko zostało zrobione przez kogoś i w jakimś celu. Kiedy zapytamy sześciolatka, z czego
zrobione jest słońce, odpowie: „Z ognia". Ale w jaki sposób? „Dlatego że tam jest ogień". Ale
skąd on pochodzi? „Z nieba". W jaki sposób ogień znalazł się na niebie? „Zapalono go
zapałką..." Dzieci przejawiają spontaniczną skłonność do animizmu, myśląc tak, jak gdyby
natura działała celowo, a przypadek nie istniał. Kiedy dziecko mówi, że słońce podąża za
nami, przypisuje mu celowość. Ale gdy zapytamy: „Co to jest widelec?", padnie odpowiedź:
„Przyrząd do jedzenia" - odpowiedź wskazująca na artyficjalizm rzeczy.
A oto dziecięce uzasadnienia narodzin młodszego rodzeństwa. Czasami dziecko przyjmuje,
że niemowlę żyło przed urodzeniem, i po prostu pyta, gdzie przedtem przebywało. Może
zapytać, z czego niemowlęta zostały wykonane, a narodziny wyobrażać sobie jako proces
produkcyjny, jak na przykład lepienie figurek z plasteliny. Innym razem powtarza opinię, że
niemowlaki wychodzą z krwi rodziców albo z matczynych ust lub pępka.
Jedna z najważniejszych idei zdrowego rozsądku to myślenie w kategoriach przyczyny i
skutku. U trzylatków przyczynowe pojmowanie mechanicznych interakcji jest już w miarę
wykształcone. Rozumienie przyczynowości zaczyna się w niemowlęctwie, udowodniono
nawet, że już w szóstym miesiącu. Wbrew klasycznym osiemnastowiecznym spekulacjom
Davida Hume'a, który zakładał, że percepcja przyczynowości jest wynikiem powtarzających
się obserwacji związku pomiędzy dwoma wydarzeniami, istnieją dowody postrzegania jej
niemal jako postaci (gestalt) - tzn. całości, dla której doświadczenie nie jest istotne. Dorośli
poddani oddziaływaniu abstrakcyjnych bodźców, takich jak dwa szeregi kolorowych światełek
osobliwie poruszających się jedne w stosunku do drugich, stwierdzają związki przyczynowe
między nimi, mimo że widzieli, jak je zapalano. Tym samym zamiast oceniać przy-czynowość
jako rezultat stopniowego doświadczenia, system percepcyjny jest skłonny zakładać jaz góry.
Jeśli podobnie przebiegają inne procesy uczenia się, tym bardziej należy zrezygnować z tego,
co podpowiada zdrowy rozsądek.
Dzieci nabywaj ą sprawności wykonywania określonych zadań w kilku etapach, zawsze
jednak potrafią przekonująco wyjaśnić swoje zachowanie. W słynnym zadaniu Piageta dziecko
widzi dwa identyczne szklane naczynia wypełnione wodą i ocenia, że zawierają one tę samą
ilość cieczy. Następnie w jego obecności zawartość jednego z nich przelewa się do wyższego i
węższego pojemnika, w którym poziom wody się podnosi. Zanim dzieci dowiedzą się, na
czym polega zasada
zachowania objętości cieczy, będą utrzymywać, że po przelaniu ilość wody wzrosła. I to
zarówno te, które nie rozumieją tej zasady, jak i te, które bardzo chcą przedstawić logiczne
wyjaśnienie swej odpowiedzi. Na przykład będą dowodzić, że poziom wody wzrósł w
wyższym, węższym naczyniu, więc niewątpliwie znajduje się jej tam więcej. Zdaniem dziecka
taka odpowiedź jest prawidłowa i oczywista. Podobnie, być może, jak dla każdej rozsądnej
osoby „oczywiste" jest to, że Słońce porusza się wokół Ziemi.
Starsze dzieci mają dobrze rozwinięte wyobrażenia o naturze świata jeszcze przed
rozpoczęciem nauki w szkole. Wiele z tych wyobrażeń można uznać za przykłady myślenia
naiwnego lub naturalnego, które najlepiej przedstawić w odniesieniu do fizyki. Dziecko uważa,
na przykład, że im wyżej podniesiemy jakiś przedmiot, tym więcej będzie ważył, jeśli bowiem
upadnie, silniej uderzy o ziemię. Uznaje się, że „ciepło" i „zimno" mają odmienne, ale
pokrewne właściwości. Obserwując proces topnienia, sądzi mianowicie, że pewna ilość zimna
opuszcza kostkę lodu i przedostaje się do otaczającej ją wody, a nie odwrotnie - to ciepło jest
potrzebne do stopienia lodu, który potem oziębia wodę. Pora na przykład biologiczny.
Powszechnie mniema się, że rośliny czerpią pożywienie raczej z gleby niż ze światła
słonecznego (z gleby otrzymują azot, który jednak nie jest pożywieniem, gdyż nie dostarcza
roślinom żadnej energii życiowej). Wszystkie te teorie opierają się na zdrowym rozsądku, lecz
są fałszywe.
Z badań nad sposobem myślenia studentów wynika, że zazwyczaj nie zauważają oni
sprzeczności w swoich wypowiedziach, a jeśli nawet dzieje się inaczej, nie widzą w tym
istotnego problemu. Wiele argumentacji studenckich rozpatruje zmiany w kategoriach prostej
sekwencji przyczynowej lub jako łańcuch wydarzeń. Może to stać się źródłem trudności, gdy
problem odnosi się do pojęć zakładających odwracalność. Studenci rozumieją, w jaki sposób
energia zmienia ciało stałe w ciecz, lecz nie pojmują procesu odwrotnego - zamiany cieczy w
ciało stałe. Badania wykazały, że trzeba dziecko nauczyć niektórych podstawowych metod
rozumowania, zanim pojmie ono naturę fizycznego świata. Wchodzi tu w grę pojęcie
zmiennych w myśleniu o zdarzeniach
przyczynowych, jak również konieczność zmiany owych zmiennych, jeśli skutki ich działania
mają być właściwie porównane (rozważając prosty przykład równoważenia sił, taki jak
funkcjonowanie wagi, bierze się pod uwagę cztery zmienne - dwa ciężary i dwie odległości od
punktu oparcia). Trzeba objaśnić również pojęcia prawdopodobieństwa i współzależności, a
także wszelkie abstrakcyjne modele, wyjaśniające na przykład budowę Układu Słonecznego
czy zmiany pogody. Żadne z tych wyobrażeń nie jest naprawdę naturalne, kiedy natomiast staje
się przedmiotem nauczania, przyczynia się znacznie do osiągania przez dzieci sukcesów w
nauce.
Badania nad uczniami i studentami potwierdzają tezę, iż myślenie naukowe różni się od
codziennego nie tylko pojęciami, ale także wyjaśnieniami, które uznaje za zadowalające.
Myślenie zdroworozsądkowe, na przykład o ruchu, nie zajmuje się szczegółowo wzajemnymi
stosunkami pomiędzy terminami takimi jak siła czy prędkość - a każdy z nich wymaga ściśle
określonej i trudnej teorii - lecz zadowala się nieprecyzyjnym przedstawieniem faktów.
Kolejną różnicę wyznaczają cele myślenia naukowego i codziennego. W życiu codziennym
interesuje nas głównie użyteczność, w nauce - abstrakcyjne rozumowanie. Podkreśla to
Sherlock Holmes, kiedy skarcony przez Watsona za niewiedzę o odkryciu Kopernika, zwraca
się do przyjaciela tymi słowy: „Cóż znaczy, u licha, dla mnie to, że -jak powiadasz - kręcimy
się dookoła Słońca? Gdybyśmy nawet kręcili się wokół Księżyca, i tak nie miałoby to
najmniejszego znaczenia ani dla mnie, ani dla mojej pracy".
Oto najpoważniejszy dowód istnienia dystansu pomiędzy zdrowym rozsądkiem a nauką: ta
ostatnia jest całkowicie oderwana od codziennego życia większości ludzi. Z jednej strony
można zupełnie dobrze żyć, nie znając ani mechaniki Newtona, ani teorii komórki i DNA czy
też odkryć innych dziedzin naukowych. Z drugiej jednak strony wiedza potrafi znacznie
wzbogacić życie człowieka, a we współczesnym społeczeństwie spełnia istotną rolę służebną
przy podejmowaniu niezliczonych decyzji politycznych, które zasadniczo wpływają na nasze
życie codzienne (patrz rozdziały VIII i IX).
Zjawisko zdrowego rozsądku dokładnie opisał amerykański psycholog, George Kelly, który
rozwinął teorię konstruktów osobistych (Personal Construct Theory). Dotyczy ona sposobu
porządkowania wiedzy o świecie w codziennym życiu, a wychodzi z założenia, że ludzie orga-
nizują informację, by przewidywać przyszłość. Teorie zdroworozsądkowe dostarczają wiedzy o
schematach, według których funkcjonuje codzienny świat. Ludzie sprawdzają sensowność tych
modeli, obserwując, czy pomagają one przewidywać przyszłe wydarzenia. Własne
interpretacje wydarzeń stają się roboczymi hipotezami, które następnie ponownie są
konfrontowane z doświadczeniem. Człowiek może posługiwać się rozmaitymi, często nie
powiązanymi ze sobą strukturami myślowymi, chociaż wcale sobie tego nie uświadamia.
Znaczy to, że nawet na bardzo niskim poziomie umysłowego rozwoju możemy uczyć się
uprawiania „nauki" w codziennym życiu przez stawianie hipotez i doświadczalne ich
weryfikowanie. Typowy przykład to gotowanie, które polega na próbowaniu; nie jest ono
jednak nauką, gdyż nie wymaga żadnej teorii, a jedynie prób i błędów, aby osiągnąć właściwy
smak. Z drugiej strony uprawianie nauki wymaga odrzucenia bagażu osobistych doświadczeń i
próby takiego zrozumienia zjawisk, które oddziałują na codzienne życie i pośrednio na czyjąś
osobistą interpretację. Na co dzień nie jest potrzebna żadna interpretacja przyczyn spadania
ciał lub podobieństwa dzieci do rodziców; wystarczy, że tak się dzieje. Zdrowy rozsądek nie
oferuje niczego więcej poza surowym materiałem wykorzystywanym w myśleniu naukowym.
Najprostsze ludzkie działanie wymaga określenia jakiegoś celu i modyfikacji postępowania,
aby go osiągnąć. Ten uproszczony model uwydatnia zdroworozsądkowy charakter naszego
zachowania i jego praktyczne przeznaczenie. Nie potrzebuje nauki i dlatego wczesna technika
odnosiła znaczące sukcesy. Ponadto rzadko wymaga on dokładności i ścisłej wiedzy - zupełnie
odwrotnie niż nauka. Podejmujemy decyzje oparte na danych przechowywanych w pamięci,
która sprzyja nadmiernemu uogólnianiu zjawisk powszednich, przesadnemu uwydatnianiu
sprzeczności i wszelkich skrajnych przypadków.
Podczas gdy teorie naukowe wolno oceniać na podstawie ich zakresu, ekonomiczności - im
mniej założeń i praw, tym lepiej -jasności, zwartości logicznej, precyzji, możliwości
weryfikacji, poparcia empirycznego i płodności, do teorii dyletantów odnosi się tylko kilka
tych
kryteriów, które rzadko są jasne, sformalizowane lub logiczne, zwykle zaś pozostają
dwuznaczne. Jasny lub sformalizowany charakter teorii naukowych posiada znaczenie nie
tylko dla samych praw nauki, lecz wskazuje na zasadniczą cechę procedury naukowej:
świadomą naturę wszelkich usiłowań. Ów aspekt uprawiania nauki niemalże ex definitione
odróżnia ją od innych form aktywności i sprawia, że różni się ona od zdrowego rozsądku,
ponieważ, co także wynika z definicji, zdrowy rozsądek nie jest świadomy. Uczony zawsze
świadomie „uprawia naukę", z czym wiąże się wiele trudnych do wytłumaczenia założeń. Poza
wcześniej wymienionymi cechami nauki jest to uogólnienie o wielkim znaczeniu (rozdział VI).
Myślenie naukowe zazwyczaj opisuje się podkreślając różnicę między tym, co obiektywne, a
tym, co subiektywne. W istocie to ważna umiejętność, jeśli można oddzielić dowód od teorii i
spojrzeć na nią obiektywnie, by poznać ją jako rzecz samą w sobie. Idea obiektywizmu ma tu
jednak ograniczoną wartość, ponieważ naukowe pomysły rodzą się w sposób wysoce
subiektywny, a naukowcy zawzięcie bronią swych poglądów. Obiektywizm w nauce dochodzi
do głosu, gdy pragniemy ocenić, czy subiektywne poglądy są prawdziwe, czy nie. Trzeba być
przygotowanym na ich zmianę, kiedy napotka się dowód - obiektywną informację.
Przekonanie, że uczeni beznamiętnie przywiązują się do własnych poglądów naukowych
(rozdział V), jest jednak złudzeniem: wolą oni doznać niepowodzenia i rezygnować z nich, gdy
napotkają przeciwstawne dowody. Teorie naukowe tym się ponadto różnią od
zdroworozsądkowych sądów dyletantów, że wymagają od naukowca stałej współpracy z
innymi badaczami, uwzględniania ich sądów i wcześniej zdobytej wiedzy. Nie zajmują się
bowiem poszczególnymi zjawiskami życia codziennego, lecz dążą do odkrycia wspólnego wy-
jaśnienia dla wszystkich warunkujących się zjawisk, i to tak, aby inni uczeni to zaakceptowali.
Teorie dyletantów zbyt szybko dostosowują się i modyfikują w zależności od warunków, w
których żyją ludzie, ponieważ ci ludzie pragną wierzyć w mniej lub bardziej uporządkowany
świat, nad którym sprawują kontrolę. Wiele wniosków powstaje pod wpływem emocjonalnej
zawartości danych. Bertrand Russel proponował, by uznać, iż „popularna indukcja była
zależna od emocjonalnego zaangażowania w konkretne przypadki, nie zaś od ich liczby". W
takie „przypadki" obfituje codzienne życie. Przypuśćmy, że kierując się opiniami wcześniej-
szych nabywców oraz zaufanego mechanika, przemyślałeś starannie, który samochód kupić,
decydujesz się wreszcie na model X. Następnie spotkałeś bliskiego kolegę i powiedziałeś mu o
swojej decyzji. Jeśli zaskoczony opowie ci o swych strasznych doświadczeniach z samocho-
dem X, wyliczając wszystkie kłopoty, które z nim miał, czy naprawdę nie zmienisz zdania?
Nawet gdy ostrzeżenie przyjaciela okaże się przesadzone, i tak z trudem odrzucisz jego radę.
Badanie sposobów analizowania złożonych, rzeczywiście ważnych problemów, takich jak
zbrodnia lub bezrobocie, znowu wskazuje różnicę pomiędzy zdrowym rozsądkiem a bardziej
od niego sformalizowanym myśleniem naukowym. Istnieją dwie przeciwstawne postawy
wobec wiedzy. Jedna to wygodna ignorancja, która nie dopuszcza myśli, że niektóre zjawiska
mogą zachodzić inaczej; druga to ustawiczna świadoma ocena dowodów i wynikająca z niej
modyfikacja poglądów. Odzwierciedlają one różnicę pomiędzy wiedzą, że coś jest prawdziwe,
a spekulowaniem, czy ktoś w to wierzy, czy nie. Jedynie około 15 % ludzi, jak się wydaje,
posiada zdolność spekulowania, ale uczeni - nawet jeśli spekulowania nie lubią- muszą
zaakceptować je jako metodę.
W procesie wyprowadzania logicznych wniosków z przesłanek, takich jak dedukcja na temat
przyczyn pojedynczego wydarzenia, często biorą udział mechanizmy, których nie jesteśmy
świadomi. Są one niezrozumiałe. Wiadomo, że trudno naśladować „zdrowy rozsądek" za po-
mocą komputera. Jeśli któregoś ranka po wyjściu z domu zauważysz, że trawa jest mokra,
będziesz prawie pewny, że w nocy padało. Kiedy jednak stwierdzisz, że przez całą noc
pracował zraszacz, „hipoteza o deszczu" straci wiarygodność. Rozumowanie to trudno
zaprogramować na komputerze. Psycholog Johnson Laird twierdzi, że myślenie
zdroworozsądkowe nie opiera się ani na sformalizowanych regułach logicznego
wnioskowania, ani na specyficznej wiedzy. Sposób, w jaki wyciągamy ważne wnioski z
jakiegoś układu przesłanek, polega prawdopodobnie na budowaniu modeli myślowych. Umysł
może kierować modelem, który wytworzył, wypróbowywać rozmaite możliwości i wy-
prowadzać wnioski. Rozważmy następujący problem, trudny do rozwiązania poprzez myślenie
zdroworozsądkowe. W pewnym pokoju znajdują się archeolodzy, biolodzy i szachiści; jeśli
żaden z archeologów nie jest biologiem, a wszyscy biolodzy są szachistami, to jakie można
wysnuć wnioski? W tym wypadku lepiej postępować według utartych schematów myślowych,
niż stosować logikę formalną. Jedyna poprawna odpowiedź brzmi: „Niektórzy szachiści nie są
archeologami". Zadanie to dowodzi, jak trudne bywa rozumowanie sformalizowane.
Lubimy postrzegać siebie samych jako z natury racjonalnych i logicznych, ale istnieje
mnóstwo dowodów, że nie zawsze tak jest. Chociaż w codziennym myśleniu umysł może
wykorzystywać formy logicznego wnioskowania, natura problemu potrafi je podważyć.
Ilustracją niech będzie klasyczny, podstawowy eksperyment. Wyobraź sobie karty - na jednej
stronie każdej z nich widnieje litera, a na odwrocie cyfra. Na stole położono cztery kartoniki,
które pokazują A, J, 2 oraz 7. Masz zdecydować, który z nich trzeba odwrócić, ażeby określić
prawdę lub fałsz następującego zdania: „Jeśli na jednej stronie jest samogłoska, na drugiej
znajduje się liczba parzysta". Większość ludzi prawidłowo odwraca kartę z literą A, ale
niektórzy wybierają kartę z 2. Chociaż istnieje logiczne uzasadnienie wyboru, część osób
odwraca kartę z 7, mniemając, że gdyby samogłoska wystąpiła na odwrocie karty z 7, reguła
byłaby fałszywa. W istocie odwrócenie J czy 2 nic nie daje. Cokolwiek znalazłoby się na
drugiej stronie 2, nie dostarczy potrzebnej informacji, zarówno bowiem samogłoska, jak i
spółgłoska nie decydują o słuszności reguły. Eksperyment ten ujawnia też, że ludzie - nie wy-
kluczając uczonych - mają skłonność do potwierdzania hipotez, nie zaś do ich odrzucania.
Prawdopodobieństwo i osąd dokonywany na podstawie niepewnych informacji ujawnia
szczególną podatność codziennego myślenia na błędy. Wiele naukowych badań trzeba
wykonywać w ściśle określonych warunkach, do pewnego więc stopnia uczeni są wolni od
tych powszednich błędów.
Dzieci pojmuj ą przypadek w stopniu ograniczonym. Wierzą, że wyniki gier losowych zależą
od praktyki, inteligencji i wysiłku. Dorośli także mają kłopoty z prawdopodobieństwem i
naturą przypadku. Czy podczas gry w ruletką, gdy czerwone wypada pięć razy pod rząd, zwię-
ksza się prawdopodobieństwo, że następnym razem kulka zatrzyma się na czarnym polu?
Odpowiedź brzmi „nie", a przeciwne oczekiwania określa się jako „złudę hazardzisty"
(gambler'sfallacy). A jeśli podrzucona moneta upadnie reszką do góry dziesięć razy z rzędu,
prawdopodobieństwo wystąpienia orzełka lub reszki za każdym następnym razem wynosi 50
procent. Moneta nie posiada pamięci. Wielu ludzi sądzi, że przy użyciu dokładnie wyważonej
monety, następstwo 0-R-O-R-O-R jest bardziej prawdopodobne niż 0-0-0-0-0-0, tymczasem w
rzeczywistości obie sekwencje są tak samo możliwe.
Sądy związane z rachunkiem prawdopodobieństwa często mają charakter antyintuicyjny.
Zdumiewające zbiegi okoliczności prowadzą do przekonania, że w grze uczestniczą siły
nadprzyrodzone. Pewna kobieta z New Jersey wygrała na loterii dwa razy w ciągu czterech
miesięcy. Wydawało się to nadzwyczajne, a szansę takiego zdarzenia oceniano jak l do 17
trylionów (17 x 1012). Dalsze analizy wykazały jednak, że możliwość wygranej przez
mieszkańca Stanów Zjednoczonych wynosiła jeden do trzech, ponieważ bardzo dużo ludzi
wykupiło losy. Inny przykład: trzeba zgromadzić w jednym pomieszczeniu dwudziestu trzech
ludzi, żeby prawdopodobieństwo, iż dwoje z nich urodziło się w tym samym roku, wynosiło
jeden do dwóch.
Jakiś czas temu wiele artykułów prasowych sugerowało związek samobójstw nastolatków z
grą o nazwie „Lochy i Smoki" (Dungeons & Dragons). Mówiono, iż może ona stać się obsesją
i prowadzić do utraty poczucia rzeczywistości. Jako dowód przytaczano fakt, że samobójstwo
popełniło dwudziestu ośmiu nastolatków, często w tę grę grywających. Sprzedano jednak
mnóstwo jej kopii i prawdopodobnie interesowały się nią bez mała trzy miliony młodzieży.
Ponieważ rocznie odbiera sobie życie dwanaścioro na sto tysięcy nastolatków, liczba
prawdopodobnych samobójstw w trzymilionowej populacji młodzieży wynosi trzysta
sześćdziesiąt. Tym samym ujawnienie owych dwudziestu ośmiu przypadków miało niewielkie
albo zgoła żadne znaczenie.
Przykłady braku zrozumienia rachunku prawdopodobieństwa i rozumowania w kategoriach
statystycznych są szczególnie ważne, kiedy należy ocenić stopień ryzyka. Mało kto przyznaje,
że prawie niemożliwe jest udzielenie gwarancji, iż jakiś lek nie spowoduje śmierci, powiedzmy
jednego zgonu na sto tysięcy. A badania kliniczne rzadko uzyskują akceptację. Chcąc
zademonstrować skuteczność pojedynczego leku lub terapii klinicznej, trzeba postępować
zgodnie z wyrazistą procedurą, wyodrębniając grupę pacjentów, w której niektórzy będą
poddani leczeniu, a inni nie. Przydzielenie do grupy, której podaje się środki farmakologiczne
lub otrzymującej placebo, musi być losowe, a jeśli to możliwe, sami lekarze nie powinni
wiedzieć, do której grupy daną osobę wyznaczono. Co więcej, rezultaty doświadczenia
wymagają ostrożnych analiz statystycznych. Te testy są nieodzowne, choć kosztowne,
ponieważ zmniejszenie śmiertelności do jednego przypadku na sto tysięcy wymaga wielu prób.
Przytaczane jako przykłady liczby wypadków wyleczenia raka potrafią być bardzo zwodnicze.
Do powstania wielu błędów przyczynia się stopień reprezentatywności jednego wydarzenia
względem drugiego, a ustala się to oceniając ich podobieństwa. Przykładowo osobom
poddanym eksperymentowi zaprezentowano opis grupy ludzi, złożonej w 70% prawników, a w
30% z inżynierów. Proszono badanych o odgadnięcie, jaki zawód każda z opisywanych osób
wykonuje. Chociaż ankietowani znali skład grupy i tym samym powinni pojąć, że
prawdopodobieństwo „bycia" prawnikiem było ponad dwa razy większe niż „bycia"
inżynierem, niemniej zgodnie odnieśli opis do drugiego zawodu, jeśli wykazywał nawet
najmniejszy związek ze stereotypowym obrazem przedstawiciela tego środowiska. Ignorowali
prawdopodobieństwo związane z wyborem pojedynczego przypadku z grupy o znanym
składzie. Tendencja ta była jeszcze wyraźniejsza podczas analizy małych prób. Ankietowani
nie potrafią pojąć prawdopodobieństwa, że liczba chłopców rodzących się każdego dnia jest
większa o 60 %w dużym niż w małym szpitalu położniczym. Sądzą zazwyczaj, że nie ma
żadnej statystycznej różnicy między tymi placówkami medycznymi, chociaż w małej grupie
badanych zmiany odsetka rodzących się chłopców są o wiele większe
w niewielkim szpitalu, ponieważ każde narodziny stanowią tam większy procent całości.
Większość z nas nie docenia więc roli przypadku, gdy w grę wchodzą małe liczby.
Niedocenianie reprezentatywności sprawia, że ludzie bardziej ufają swym zdolnościom
przewidywania niż oczywistym faktom. Powierzchownie rozumiejąc związek pomiędzy
przyczyną a skutkiem, stają się pewni siebie i lekceważą wszelkie dane, które mogłyby
zakwestionować trafność przewidywań. Załóżmy, że kierownictwo szkoły medycznej
przeprowadza egzaminy wstępne i wierzy w prawidłowość selekcji. Później ma tylko
możliwość oceny przyjętych uczniów, nie mogąc porównać ich z wyeliminowanymi
kandydatami. Dobrą ilustracją tego zjawiska jest także przekonanie prowadzących ankietę
psychologów o posiadaniu umiejętności wyboru najlepszych respondentów, nawet jeśli bogata
literatura przedmiotu dowodzi, jak niewiarygodne są wszelkie wywiady. Badacze ci nie
potrafią podać w wątpliwość własnej nieomylności.
Inny przykład - ludzie oceniają zjawiska według dostępnych informacji - szacują
częstotliwość, korzystając ze znanych sobie przykładów. Wierzą więc, że jest więcej słów
zaczynających się na r niż wyrazów, w których litera ta występuje jako trzecia, ponieważ
łatwiej wymyślić słowa rozpoczynające się na r. Podobnie o wiele niżej szacują wynik
mnożenia 1x2x3x4x5x6x7x8 niż 8x7x6x5x4x3 x 2 x l, a tymczasem w obu wypadkach iloczyn
jest jednakowy i wyższy od przewidywanego. Typowa odpowiedź brzmi: około 500, natomiast
prawidłowa - 40 320. Wiarygodność spontanicznie wymyślonych scenariuszy pomaga
zaakceptować prawdopodobieństwo wydarzeń. Jeśli żaden rozsądny scenariusz nie przychodzi
do głowy, wydarzenie uważa się za niemożliwe lub nieprawdopodobne; gdy jednak pojawi się
wiele scenariuszy, nabierze ono cech prawdopodobieństwa. Nawet lekarze zniekształcają
czasem obrazy zagrożeń rozmaitymi chorobami niezależnie od ich prawdziwego zasięgu.
Mamy skłonność do generalizowania własnych doświadczeń, na przykład dajemy wiarę
złudnym zależnościom, poczynając od opinii, że grubi są wesołymi ludźmi, lub przesądu Jeśli
umyjesz samochód, wkrótce spadnie deszcz", a kończąc na najróżniejszych teoriach na temat
chorób. Nawet psycholodzy potrafią w planowanych testach odkrywać związki między
zmiennymi przypadkowymi, choć nic później nie potwierdza istnienia tych relacji. Proste
skojarzenia są natomiast bardzo pożyteczne w życiu codziennym.
Na ogół przyznaje się priorytet prostym, nie zaś skomplikowanym wyjaśnieniom. Można to
zrozumieć z perspektywy historycznej. W wyniku ewolucji człowiek pierwotny szybko
poznawał środowisko i relacje przyczynowe. Rozum, który bezpośrednio ocenia prawdopodo-
bieństwo wydarzeń i ich skutki, nie może jednak dokonywać selekcji w środowisku wrogim,
gdzie potrzebne są natychmiastowe oceny. Także użycie narzędzi i postęp techniczny w
hutnictwie i rolnictwie nie wymaga myślenia naukowego. Aby jednak uprawiać naukę, trzeba
posiadać zdolności do precyzyjnego rozumowania i przełamywać wiele schematów
narzuconych przez zdrowy rozsądek i naturalny sposób myślenia.
Rozdział II

Technika nie jest nauką

spółczesna technika w dużej mierze opiera się na nauce, lecz niedawne uzależnienie się
tych dziedzin zaciemnia dzielące je różnice. Nie sprzyja to rozumieniu natury nauki. Krótko
mówiąc, wytwarza ona pojęcia, podczas gdy celem działalności technicznej jest produkcja
przedmiotów użytkowych. Technika, a rozumiem przez to sztuki stosowane, jest o wiele starsza
od nauki. Doskonaliła wciąż kunszty pierwotnego człowieka, takie jak uprawa roli czy obróbka
metali, doprowadziła do triumfów chińskiej inżynierii, pozwoliła zbudować renesansowe ka-
tedry, a nawet silnik parowy. Aż do XIX wieku nauka nie miała wpływu na technikę. Do
rozwoju ludzkości znacznie przyczyniła się zdolność konstruowania narzędzi i tym samym
kontrolowania otoczenia, natomiast umiejętność uprawiania nauki prawie nie istniała.
Dla niektórych historyków zaczyna się ona wtedy, kiedy podejmuje się próby rozwiązania
niezliczonych problemów środowiska naturalnego. Technika stanowi dla nich, począwszy od
wyrobu narzędzi, umiejętność rozwiązywania problemów - czyli naukę. W samej rzeczy
umiejętność uprawy roli, oswajanie zwierząt, metalurgia, farbiarstwo i wyrób szkła zostały
wykorzystane na wiele tysięcy lat przed pojawieniem się myśli naukowej. W „Myśli
nieoswojonej" francuski antropolog Ciaude Levi-Strauss dowodzi, że „każda z tych technik
każe domyślać się wieków czynnej i metodycznej obserwacji, śmiałych hipotez, sprawdzanych
w celu odrzucenia lub wykazania prawdziwości za pomocą niestrudzenie ponawianych
eksperymentów"*. Francuski strukturalista wyraził tu formułę uprawiania nauki; wydawało mu
się,

C. Levi-Strauss, „Myśl nieoswojona", przeł. A. Ząjączkowski, Warszawa 1969, s.26


że prymitywna technika wymagała tego samego rodzaju operacji umysłowych. Czy jednak
wczesna technika istotnie wysuwała śmiałe hipotezy?
Levi-Strauss nie ma wątpliwości, że człowiek neolitu czy wczesnej epoki historycznej był
spadkobiercą długiej tradycji naukowej. Jeśli to prawda, mamy do czynienia z paradoksem.
Gdyby kultura neolitu była inspirowana przez „naukowe" myślenie podobne do dzisiejszego,
nie sposób pojąć, dlaczego pomiędzy neolityczną rewolucją a współczesną nauką nastąpiła
trwająca kilka tysięcy lat stagnacja. Dla Levi-Straussa istnieje tylko jedno rozwiązanie tego
problemu. Francuski badacz wyróżnia dwa rodzaje naukowego myślenia, dwa strategiczne
poziomy, na których natura poddaje się naukowym badaniom: pierwszy dotyczy percepcji i
wyobraźni, drugi zaś dystansuje się wobec intuicji zmysłowej. „Ta nauka o konkrecie... była
nie mniej naukowa, a jej rezultaty nie mniej prawdziwe. Osiągnięte dziesięć tysięcy lat temu,
nadal pozostają podstawą naszej cywilizacji"*. Pragnę jednak wykazać, że owe dwa modele
myślenia to faktycznie nauka i technika, która nie wymaga żadnego rozumienia albo naukowej
teorii.
Rolnictwo zrobiło postępy już około 7000 lat przed Chrystusem, kiedy człowiek przeszedł od
łowiectwa i zbieractwa do produkcji żywności. W tym samym czasie prawdopodobnie
oswojono bydło, ale nie ma powodu sądzić, żeby ludzie posiadali wówczas większą naukową
wiedzę niż większość współczesnych nam rolników Trzeciego Świata. Opierali się na
doświadczeniu i uczyli się na własnych błędach. Dokonywano, oczywiście, wynalazków, ale w
ten sam sposób, jak stworzono prymitywne narzędzia: przez zastosowanie zdrowego rozsądku.
Nie ma powodu odróżniać takich wynalazków od zręczności szympansa, który wykorzystuje
otoczenie w określonym celu. Potrafi, na przykład, złączyć dwa kije, aby zerwać trudno
dostępne banany z wysokiego drzewa. To porównanie nie umniejsza osiągnięć wczesnej
techniki, ale pomaga odróżnić ją od nauki.

C.Levi- Strauss, op.cit, s. 30.


Obróbka metali była wysoko rozwinięta już około 3500 lat przed Chrystusem, a około pięciu
stuleci później pewien rzemieślnik z Mezopotamii mieszał miedź i cynę w zmieniających się
proporcjach, produkując różne rodzaje brązu. Jego piece musiały wytwarzać temperaturę
powyżej 1000°C. Na temat wyrobów ze szkła istnieje tekst z około 1600 roku przed
Chrystusem, znaleziony w pobliżu Bagdadu, zawierający opis sposobu wytwarzania zielonej
glazury. Receptura zaczyna się tak: „Weź minę szkła żuku z dziesięcioma szeklami ołowiu,
piętnaście szekli miedzi..." Dalej wymienia się szczegółowe czynności: „Zanurz garnek w
glazurze, potem wyjmij, wypal i zaczekaj, aż ostygnie. Sprawdź rezultat: jeśli glazura
przypomina marmur, wszystko jest w porządku. Włóż garnek z powrotem do pieca..." Te
praktyczne polecenia uzupełniano „magicznymi" czynnościami rytualnymi. Zachowały się
instrukcje z VII wieku przed Chrystusem, że piec szklarski trzeba budować w pomyślnym
czasie, dekorując świątynię i zjednując sobie bogów. „Kiedy robisz plan pieca szklarskiego,
wybierz najlepszy dzień w szczęśliwym miesiącu... Nie pozwól obcym wchodzić na teren
budowy... Codziennie składaj bogom należne ofiary".
Wytapianie miedzi rozwinęło się u wybrzeży Peru w V wieku przed naszą erą, na wieleset lat
przed przybyciem Hiszpanów. Szczątki pieców zbudowanych około 1000 r.n.e. świadczą, że
pracę tę uświęcano rytuałami i ofiarami składanymi bóstwom.
Osiągnięcia techniczne kultur starożytnych były ogromne i Levi-Strauss ma rację stawiając
pytanie, jak do tego doszło. W każdym razie wynalazki te nie zostały oparte na nauce. Nie
zachowały się żadne rozważania teoretyczne o wymaganych zabiegach technicznych ani o
przyczynach działania procesów: wystarczyło wiedzieć, że dodając węgiel drzewny do
mieszanki, przyspiesza się wytapianie stali. Obróbka metali była w istocie praktycznym
rzemiosłem opartym na zdrowym rozsądku. W dawnych czasach zwykły śmiertelnik osiągał
swe cele, wykonując praktyczne czynności, takie jak siew i polowanie, a one nie służyły
czystej wiedzy. Posługiwano się rozumem, aby utrzymać się przy życiu we wrogim
środowisku, a tworzenie naukowych idei nie odgrywało wówczas żadnej roli.
Można by sądzić, że w postępie techniki - dzięki któremu powstawały coraz bardziej
skomplikowane wynalazki, takie jak teleskop, kompas i maszyna parowa - nauka, nieźle już
zaawansowana, miała znaczący udział, nawet jeśli nie odgrywała żadnej roli we wczesnej,
prymitywnej technice. Nauka nie robiła prawie nic, aby wesprzeć technikę, aż do XIX wieku,
gdy wpłynęła na wytwarzanie barwników syntetycznych oraz prądu elektrycznego.
Już na początku XVII wieku Galileusz rozumiał, że technika jego epoki nie bazuje na nauce.
Wynalazcy okularów i teleskopu nie znamy, co Galileusz skomentował tak: „Jesteśmy
przekonani, że odkrywcą teleskopu był zwykły wytwórca okularów, który podczas
posługiwania się różnymi rodzajami szkieł spojrzał, także przypadkiem, przez dwa z nich,
jedno wypukłe, drugie wklęsłe, trzymając je w różnej odległości od oka; patrzył, zauważył
nieoczekiwany efekt i stworzył w ten sposób nowy przyrząd optyczny". Galileusz ulepszył
teleskop metodą prób i błędów, w czym pomogła mu umiejętność majsterkowania, a nie znajo-
mość optyki.
Franciszka Bacona, żyjącego w tych samych czasach co Galileusz, relacja pomiędzy nauką a
techniką wprawiała w zakłopotanie, ale nie dostrzegał on między nimi różnic. „Nauka musi być
znana także dzięki swoim dziełom... Doskonalenie ludzkiego umysłu i losu to jedna i ta sama
sprawa". Nauka i technika zostały w tym ujęciu ściśle złączone. (Porównajmy to z opisaną w
następnym rozdziale pogardą Archimedesa dla wszystkiego, co praktyczne). Trzy wynalazki,
które Bacon uważał za źródło wielkich zmian w renesansowej Europie - druk, proch strzelniczy
i kompas - sprowadzono z Chin. Z nauką nie miały nic wspólnego, ale filozof wierzył, że myśl
naukowa mogłaby przeobrazić działania człowieka poprzez działania techniczne, chociaż nie
podał żadnego przykładu na potwierdzenie tej tezy.
Dzieje techniki to w wielkiej mierze anonimowa kronika, w której uhonorowano zaledwie
kilka nazwisk - znów odwrotnie niż w nauce. Nie miały na nią wpływu ani wiedza, ani
umiejętność czytania i pisania. Kim, na przykład, był nieznany geniusz, który zdał sobie
sprawę, że cienki kawałek metalu, zwinięty w spiralę, może poruszać maszynę?
Zegary oparte na tym pomyśle budowano już w XV wieku. Innymi decydującymi dla techniki
wynalazkami były maszyny do wycinania zębów w kołach po to, by zrobić przekładnią.
Zarówno śrubę, jak i przekładnię wynaleźli Grecy - Archimedes w trzecim stuleciu przed
Chrystusem używał spiralnej śruby do podnoszenia transportowanej wody - ale niebywałej
zręczności wymagało skonstruowanie takich maszyn (dały one w XV wieku początek
tokarkom), aby metalowe części działały niezawodnie.
Wynalazek koła także ilustruje brak zależności między techniką a nauką. Dlaczego ułatwia
ono przesuwanie ciężkiego przedmiotu? Błyskotliwa odpowiedź brzmi: redukuje tarcie
pomiędzy przesuwanym obiektem a podłożem. Większa część pracy potrzebnej do przesuwania
jakiegoś przedmiotu zostaje zużyta na przezwyciężenie tarcia między nim a powierzchnią.
Zastosowanie koła zmniejsza tarcie zarówno dzięki osi, która jest gładka, jak i wskutek ruchu
obrotowego. To naukowe wyjaśnienie było jednak zupełnie niepotrzebne ani do wynalezienia
koła, ani do oceny jego przydatności.
W dziejach architektury aż do najnowszych czasów pojawiają się przykłady niezależności
rozwoju techniki od nauki. Statykę, naukę o siłach działających na ciało w spoczynku (takie jak
łuk lub most), stworzył Archimedes, gdy obmyślał wzór na równowagę prostej dźwigni oraz na
środek ciężkości przedmiotu. 1800 lat później do rozwoju statyki przyczynił się holenderski
matematyk Simon Steven, który w XVI wieku pokazał, jak analizować bardziej złożone
zestawy sił. W XVIII i XIX stuleciu stało się jasne, w jaki sposób obliczać siły działające na
konstrukcję budowlaną, ale tę wiedzę zastosowano w praktyce w wieku XIX: w żadnym
budynku skonstruowanym wcześniej nie wykorzystywano zasad naukowych, które znalazły
powszechne zastosowanie w nowoczesnej inżynierii. Budowniczowie stosowali
prawdopodobnie „teoremat pięciu minut": jeśli pewna konstrukcja nie zawali się w ciągu pięciu
minut po odsunięciu wspierających ją podpór, to prawdopodobnie wytrzyma całe wieki.
Wszystkie piękne katedry z wielkimi kopułami i wysokimi nawami budowano opierając się
na wiedzy empirycznej, nie na nauce. Wczesne
mosty stalowe konstruowano podobnie. I tak zaprojektowany w latach pięćdziesiątych XIX
wieku przez Roberta Stephensona i Williama Fairbairna do połączenia brzegów Cieśniny
Menai w Północnej Walii pierwszy most dźwigarowo-skrzynkowy zbudowano
eksperymentując. By wybrać wzór, użyto szeregu modeli. Teoria, która mogłaby dostarczyć
analitycznego materiału do projektu tej konstrukcji, została opublikowana kilka lat wcześniej,
ale ją zignorowano. W technice stosowano opracowywane ad hoc hipotezy i domysły,
całkowicie ukierunkowane na praktykę, a nie na wiedzę. Nie podejmowano prób uogólnienia.
Nauka, przeciwnie, była zawsze silnie uzależniona od zdobyczy techniki, zarówno od jej
pomysłów, jak i aparatury. Technika wywierała głęboki wpływ na naukę, podczas gdy
odwrotne oddziaływanie aż do czasów współczesnych zdarzało się rzadko.
W wynalezieniu niektórych istotnych dla człowieka udogodnień, np. maszyny parowej,
zegara z wahadłem i technik nawigacyjnych, nauka odegrała pewną rolę, ale nie jako wiedza.
Tę tezę potwierdzają poniższe rozważania, jak również osobliwe wyjątki, kiedy technika
posługiwała się osiągnięciami naukowymi.
Powstanie maszyny parowej zawdzięczamy w większym stopniu przemyśleniom kowali, niż
Towarzystwu Królewskiemu (Royal Socie-ty) i jego naukowcom. Maszyna parowa Jamesa
Watta z 1775 roku była ulepszonym modelem silnika Newcomena (1712), powszechnie uży-
wanego w latach sześćdziesiątych tego wieku. Konstrukcja ta została oparta na skraplaniu się
pary w cylindrze, co stwarzało częściową próżnię i wówczas ciśnienie atmosferyczne
przesuwało tłok w cylindrze w dół. Tym samym suw pracy powodował ruch tłoka w głąb
cylindra, podczas gdy w parowym silniku Watta ciśnienie pary wypycha tłok na zewnątrz.
Naukowców przez wiele stuleci fascynowała idea próżni. W latach dziewięćdziesiątych XVII
wieku francuski uczony, Denis Pa-pin, wymyślił maszynę do otrzymywania próżni w cylindrze
z tłokiem, opartą na zjawisku skraplania się pary. Wyobraził sobie, że zjawisko to można
wykorzystać do wykonywania pożytecznej pracy. Nie wiadomo, czy Newcomen, drobny
handlarz wyrobami żelaznymi, znał dzieło Papina i koncepcje ciśnienia atmosferycznego.
Nawet jeśli posiadał tę
wiedzę, i tak jego silnik różnił się znacznie budową od prostego cylindra i tłoka Papina.
Najważniejsze jest to, że konstrukcja silnika Newcomena nie opierała się na żadnej ścisłej
wiedzy, a źródłem inwencji technicznej stała się jedynie użyta do eksperymentu naukowego
aparatura.
Dokładne oznaczanie czasu i nawigacja to - jak sądzę - kolejne przykłady braku
oddziaływania nauki na technikę. Galileusz zamontował w zegarach wahadło. Anegdota głosi,
że kiedy miał dziewięć lat, spostrzegł, iż wisząca nad ołtarzem lampa kołysze się zawsze w tym
samym rytmie, niezależnie od tego, czy jest duża, czy mała. Nie musiał rozumieć, dlaczego tak
się dzieje, aby pojąć znaczenie tego ruchu dla mierzenia czasu, ale spostrzeżenie to wydaje się
bardzo bliskie oddziaływaniu nauki na technikę. Podobnie i ja zrozumiałem, że zanim na
pokładzie statku zainstalowano precyzyjną aparaturę pomiarową, nawigatorzy musieli nauczyć
się matematyki: określenie długości geograficznej na morzu wymaga dokładnych obserwacji
Księżyca i wielu zawiłych obliczeń.
Motywacje działalności naukowej i technicznej także są odmienne. Ostatecznym rezultatem
działalności uczonego jest idea lub komunikat opublikowany w naukowej rozprawie, a efektem
prac technicznych sztuczny produkt - zegar lub silnik elektryczny. Urządzeń technicznych nie
ocenia się jako sprzecznych z naturą- w przeciwieństwie do osiągnięć naukowych - lecz w
kategoriach innowacji i wartości, które przypisuje im określona kultura. O badaniach
naukowych nie wygłasza się takich opinii, jak głos Karola Marksa na temat społecznych
skutków wynalazków dokonywanych od 1830 roku: „ich wyłącznym zadaniem jest
zaopatrywanie kapitału w broń przeciwko rewolucji klasy pracującej .
O wiele bardziej interesujące wydaje się pytanie, co kieruje postępem technicznym i
naukowym. Rozwojem techniki rządzą prawa popytu albo zaawansowana technologia,
„rodząca" zapotrzebowanie na jakieś towary. Aktywność wynalazcza kieruje się z kolei
spodziewaną wartością pomysłu - wynalazki odnoszą sukces dzięki maksymalnym
inwestycjom. Różnice pomiędzy dwiema omawianymi dziedzinami
podkreśla też kwestia patentów - naukowych wynalazków albo pomysłów nie można
opatentować. Oliverowi Lodge'owi nie spodobał się pomysł, aby w ten sposób zabezpieczyć
odkrycie fal radiowych, patentowanie wynalazków jest bowiem antytezą otwartości, której
pragną naukowcy. Nagrodę dla wynalazcy stanowią pieniądze, dla uczonego zaś - szacunek. W
dawnych wiekach etos rzemieślnika był taki sam jak etos gildii: terminowanie stanowiło etap
nauki, do której nie dopuszczano obcych, a adept musiał dochować tajemnicy. Tym także
rzemiosło różniło się od nauki, albowiem jej charakterystycznymi cechami są otwartość,
publiczna dyskusja i ogólny dostęp do wiedzy. Inna jeszcze różnica polega na kryteriach
sukcesu: w technice zależy on od pragnień i potrzeb, w nauce polega na zgodności wynalazku z
rzeczywistością.
Technika ma własną historię postępu. Przedstawiając ją, George Basalla zastosował metodę
biologiczną i dokonać ewolucyjnego przeglądu tych dziejów. Za podstawową jednostkę uznał
artefakt (wytwór pracy ludzkiej), a szczególne znaczenie nadał ciągłości - rozmaite wersje
artefaktów są efektem modyfikacji pierwotnego obiektu. W nauce, przeciwnie, głównymi
elementami są idee, a nie urządzenia. Zasadami postępu technicznego pozostają różnorodność
oraz tradycyjnie przypisane mu konieczność i użyteczność. Owa różnorodność bywa zresztą
zadziwiająca i nawet Marksa zdumiała wiadomość, że w 1867 roku w Birmingham
produkowano pięćset rodzajów młotków. Czy rzeczywiście było to konieczne i użyteczne? W
podsumowaniu Basalla stwierdził, że technika nie zawsze zaspokaja potrzeby ludzkości, raczej
po dokonaniu wynalazku rodzi się nowa potrzeba. Pojawienie się silnika spalinowego
spowodowało przecież rozwój transportu motorowego.
Historia koła także dobrze ilustruje punkt widzenia Basalli. Używane od zaledwie paru
tysiącleci (w porównaniu z trwającą półtora miliona lat historią wykorzystania ognia),
najprawdopodobniej rozwinęło się z rolek, których używano do przesuwania ciężkich
przedmiotów. Świadectwo wykorzystania kół w wozach datuje się na dwutysięczny rok przed
Chrystusem, około tysiąca lat przed pojawieniem się pierwszego koła w Europie i Azji. W obu
Amerykach i południowej Afryce natomiast koła nie używano aż do czasów nowożytnych.
Zagadką jest obszar dzisiejszej Ameryki Łacińskiej: pojazdy kołowe przybyły tam wraz z
Hiszpanami w XVI wieku, ale o wiele wcześniej - od IV do XV wieku - małe ozdobne rzeźby
wyposażano w osie i kółeczka, na których się poruszały. Z wyjątkiem Peru nie zaistniała w tej
części świata potrzeba rozwoju tego udogodnienia, nie było dróg i żadnych dużych oswojonych
zwierząt, które przeciągałyby ciężkie ładunki - oto wyjaśnienie, dlaczego ów wynalazek nie
spowodował tam rozwoju transportu. Na Bliskim Wschodzie zaś i w północnej Afryce
pomiędzy III a VII wiekiem jako siła transportowa wystarczały wielbłądy. Koło nie zaspokaja
więc potrzeb ludzkich w sposób uniwersalny.
Zagadnienie wzajemnego oddziaływania nauki i techniki w czasach współczesnych zostało
omówione przez Basallę na przykładzie dziejów komunikacji radiowej. Wykorzystaniu fal
elektromagnetycznych dały początek nie eksperymenty, lecz układ równań, sformułowany w
drugiej połowie XIX wieku przez Jamesa derka Maxwella. Równania te zawierały całą wiedzę
o elektryczności i magnetyzmie, ale wynika z nich również możliwość wytwarzania fal
elektromagnetycznych analogicznych do fal świetlnych i założenie, że oba te rodzaje fal roz-
chodzą się z równą prędkością. Szkocki fizyk nie uczynił jednak nic, by doświadczalnie
sprawdzić ich istnienie. Jego teoria ujęła w prosty matematyczny sposób ideę pola
wprowadzoną przez Michaela Faradaya i jednocześnie opisała oddziaływania między
zmiennymi w czasie polami elektrycznym i magnetycznym. Zaproponowała nowe rozumienie
elektromagnetyzmu, wskazując, w jaki sposób wytwarzane są wektory sił znanych od czasu
Faradaya, i przedstawiła pogląd, że wektory te nie są niezależne, lecz powiązane przez stałe
materiałowe ośrodka, w którym rozpatrujemy pole elektromagnetyczne. W pracach Maxwella z
matematycznym charakterem analiz harmonizuje prezentacja teorii za pomocą modeli
fizycznych, które tak wyraźnie nawiązywały do dziewiętnastowiecznych zdobyczy techniki, że
francuski matematyk Henri Poincare zauważył: „Wydaje się nam, że czytamy opis jakiegoś
warsztatu mechanicznego z przekładnią, z wałeczkami przenoszącymi ruch, z kółkami, pasami
i regulatorami". Zakrawa to na ironię, że nowe
koncepcje Maxwella przedstawiano za pomocą przestarzałych terminów technicznych.
Wkład Heinricha Hertza w rozwój elektrodynamiki polegał na zademonstrowaniu w 1888
roku rozchodzenia się fal elektromagnetycznych. Ale to nie Hertz, lecz Oliver Lodge,
wykonując te same doświadczenia, zdał sobie sprawę z ich znaczenia dla telegrafu. Nie był
jednak zbytnio zainteresowany tymi badaniami, więc przekazał je Marconiemu, aby ów
podążył tropem komercyjnego wykorzystania fal przez Hertza. Na krótko przed odkryciami
Marconiego angielski uczony Kari Pearson napisał w 1892 roku w książce „Logika nauki"
(The Logie Science), iż fale elektromagnetyczne nie posiadają żadnego praktycznego
zastosowania.
Sama natura naukowego i technicznego myślenia jest odmienna. Wiele aspektów techniki ma
charakter obrazowy i niewerbalny, czym różni się od myślenia naukowego. Nie idzie o to, że
naukowcy nie unaoczniają struktur, pojęć i mechanizmów, ale że podstawową formą
wypowiedzi naukowej jest opis, a obrazy muszą się przekładać na symbole matematyczne. Nie
przejmując się zwerbalizowanymi teoriami, twórcy techniki zestawiają w swych umysłach
nowe kombinacje rozmaitych elementów. Od renesansu do XIX wieku wiedzę techniczną
przekazywano w książkach ilustrowanych obrazami mechanicznego sprzężenia, zestawów
przekładni i krzywek oraz samych maszyn, na przykład pomp. Wypowiadano fałszywą opinię,
że wszystkie te mechaniczne sztuczki opierają się na matematyce, tymczasem prawda była
całkiem inna: nie mamy dowodu, że projekty maszyn inspirowano geometrią czy arytmetyką.
Podobnie jak w przeszłości, nadal uważa się powszechnie, że opieranie projektów na
osiągnięciach nauki przydaje wynalazkom splendoru. Myślenie obrazowe zdominowało także
projekty przemysłowe. Nauka nie oferowała na przykład żadnych porad pierwszym
projektantom motocykla - nie mogła im podpowiedzieć, gdzie i w jakim położeniu względem
siebie zainstalować silnik, akumulator i bak z benzyną.
I dzisiaj urządzenia inżynieryjno-techniczne nie muszą być wytwarzane na podstawie nauki.
W nowoczesnym społeczeństwie związek
nauki, techniki i osiągnięć przemysłu to zjawisko złożone. Wielu ludzi intryguje pytanie,
dlaczego przemysł japoński odnosi sukcesy. Wysuwa się sugestię, że powodzenia nie
zawdzięcza on nauce, lecz zręcznemu jej zastosowaniu. W wynalezionym w Stanach
Zjednoczonych i stanowiącym podstawę nowoczesnej elektroniki tranzystorze widziano na
początku substytut starej lampy katodowej; pojęcie zamkniętego obwodu elektrycznego
dojrzewało bardzo wolno. Niewątpliwie wynalazek tranzystora zależał od nauki, ale jego
zastosowanie przez Japończyków dowiodło, że silna baza naukowa nie jest konieczna, aby
osiągać sukcesy w przemyśle wytwórczym.
Rozdział III

Przeskok Talesa:
Zachód i Wschód

Osobliwa natura nauki sprawiła, że w przeciwieństwie do techniki, a nawet religii, objawiła


się ona w dziejach tylko jeden jedyny raz -w Grecji. Większość uczonych potwierdza, że to
Grecja była kolebką nauki, chociaż ci, którzy utożsamiają naukę z techniką, wysuwają od-
mienne hipotezy. Ten wyjątkowy początek stanowi ważne ogniwo rozumienia natury nauki,
ponieważ pozwala pojąć, iż jest ona niepowtarzalną formą ludzkiej działalności. Żadna inna
formacja historyczna nie rozwinęła w niezależny sposób naukowego typu myślenia. U Greków
znaleźć można także ślady wszystkich późniejszych przekształceń nauki. Nie zamierzam
jednak charakteryzować tego jedynego w swoim rodzaju początku, lecz podkreślić
wyjątkowość nauki w historii ludzkiej kultury, a także zilustrować obrazem historycznego po-
czątku nauki niektóre cechy naukowych dociekań.
Tales z Miletu, żyjący sześć wieków przed Chrystusem, jako pierwszy, próbował wyjaśniać
świat, wychodząc nie od mitu, lecz od konkretnych pojęć, które można poddać weryfikacji. Z
czego składa się świat? - zastanawiał się Tales. Z wody - brzmiała odpowiedź. Woda może
zmienić formę z ciała stałego w ciecz, parę i na odwrót; chmury i rzeki to zbiorniki wody, która
jest konieczna do życia. Ogólne koncepcje Talesa zawierały z pewnością fantastyczne pomysły,
ale właśnie nieprawdopodobne hipotezy, a nie opinie zdroworozsądkowe, stanowią fundament
nauki. Od odpowiedzi na podstawowe pytania ważniejsza była jednak sformalizowana próba
odkrycia jedności natury. Tales wyraził przekonanie, że można odnaleźć zasadę jednoczącą
rozmaite for-
my i substancje. Zapoczątkował więc zobiektywizowane i krytyczne myślenie o naturze. Nigdy
przedtem nie sformułowano na temat świata ogólnych poglądów, które byłyby uniwersalne i
próbowałyby objaśnić jego naturę w sposób przeciwstawny niż wszystkie mity. Po raz pierwszy
wyrażono przekonanie, że przyrodą rządzą prawa, które nie zostały dotychczas odkryte.
Racjonalna postawa i racjonalne argumenty rozstrzygnęły o powodzeniu nauki i jej przetrwaniu
na Zachodzie. Pojęcie praw natury natomiast należy do najbardziej inspirujących i naj-
ważniejszych idei w historii ludzkości. Dało początek wielowiekowej dyskusji. Był to
wspaniały przeskok od sztywnego gorsetu mitologii i odnoszenia wszystkiego do człowieka ku
swobodnemu myśleniu. W Grecji także po raz pierwszy skupiono uwagę na naturze świata, po-
mijając wszelkie zjawiska cywilizacyjne. Ciekawość ludzką wzbudzał dotąd stosunek
człowieka do natury, a nie sama natura. To za sprawą Greków człowieka oraz naturę przestano
postrzegać jako nierozłączne zjawiska. Rozpoczęła się epoka zdystansowanego poznawania
samego świata.
Okazując Talesowi z Miletu szacunek jako prekursorowi nauki, zdajemy sobie sprawę, że
dziedziczył on tradycję intelektualną, której genezy nie znamy. Nie mógł być całkowicie
nieświadomy, co dzięki zastosowaniu matematyki osiągnęli Egipcjanie i Babilończycy. Tales
mieszkał przecież w Milecie, głównym porcie i najbogatszym mieście handlowym Jonii, które
prowadziło handel wymienny z Fenicją, Egiptem i wieloma innymi krajami. Dawało to z
pewnością bogate i różnorodne kontakty. Mieszkańcy Jonii byli w dodatku kolonistami i jak
wiele wspólnot emigracyjnych czerpali intelektualną energię i poczucie wolności ze spójnego
systemu poglądów. Grecy w przeciwieństwie do Żydów stworzyli mnóstwo mitów, ale nie
mieli Starego Testamentu i dogmatów, które krępowałyby sposób myślenia.
Tales uczynił z matematyki naukę niezależną od wiedzy Babilończyków i Egipcjan, którzy ze
względów praktycznych wprowadzili metody matematyczne i elementy geometrii.
Babilończycy znali geometrię już w 1700 roku przed Chrystusem i opracowali tablice
zawierające listę wyrażonych liczbowo długości boków trójkątów prostokątnych,
a zatem musieli znać podstawowe założenia twierdzenia Pitagorasa, które głosi, że kwadrat
przeciwprostokątnej jest sumą kwadratów przy-prostokątnych. Egipcjanie niewiele wnieśli do
rozwoju matematyki, ale swe osiągnięcia wykorzystywali w praktyce mierniczej. Tales nato-
miast wykorzystywał osiągnięcia miernicze w nauce. Wysunął szereg podstawowych
twierdzeń: że średnica dzieli koło na dwie połowy; że jeśli dwie proste równoległe przetniemy
inną prostą, to na przemian ległe kąty są równe; że kąt wpisany w półkole jest kątem prostym.
Po raz pierwszy sformułował ogólne wypowiedzi o liniach i kołach - twierdzeń tych nigdy
wcześniej nie głoszono. Są to ogólne prawa, którym podlegają wszystkie koła i linie,
gdziekolwiek by zaistniały, a do tego typu uogólnień dąży nauka. Grecy przekształcili
urozmaicony zbiór empirycznych reguł obliczeniowych w uporządkowany abstrakcyjny
system. Matematyka przestała być po prostu narzędziem rozwiązywania praktycznych
problemów: stała się nauką.
Pomysły Talesa dotyczące wody nie brzmiały przekonująco dla współczesnego mu
Anaksymandra. Wydawało mu się, że raczej powietrze było pierwotną substancją, z której
powstały inne rzeczy. I tak rozpoczęły żywot tezy i antytezy związane z rozumieniem natury,
dając w końcu impuls rozwojowy współczesnej nauce. Nadal jednak brakowało wówczas
rozstrzygającego elementu: metody eksperymentalnej.
Od czasów Talesa i później żyjących Greków nastąpiło przejście od mitycznych objaśnień
świata do interpretacji spójnych logicznie i otwartych na analizy krytyczne. Oznaczało to
gruntowną zmianę. Chociaż mity odpowiadają na pytania typu „jak?" i „dlaczego?", czynią to
niewłaściwie przynajmniej z dwóch punktów widzenia: nie definiują ściśle zagadnienia, a
proponowane rozwiązanie może opierać się na arbitralnych założeniach, których nie sposób
sprecyzować. Babilończycy na przykład nie konkretyzują okoliczności, w których Marduk
rozdzielił dziewicze wody bogini Tiamat, aby z jednej strony powstało niebo i jego wody, a
„wielkie mieszkanie" z drugiej. Podobnie egipskie wytłumaczenie, że ruch Słońca to wynik
podróży boga Ra, płynącego łodzią przez przestworza, jest literacką opowieścią, a nie
objaśnieniem zjawiska za pomocą terminów naukowych: opowieść ta nie poddaje się
weryfikacji ani nie może być uznana za fałszywą. Natomiast rozważania Arystotelesa o
kształcie i położeniu Ziemi oraz jej ruchu, choćby nawet były nieprawdziwe, należą do
odmiennej kategorii. Wraz z nowymi interpretacjami pojawiła się krytyczna ocena ich samych
oraz postulat logicznej spójności. Dłużej już nie można było akceptować założenia, że Ziemia
nie porusza się, wspierają ją bowiem woda i powietrze. A na czym z kolei one miałyby się
opierać?
Zbudowano więc dla nauki scenę i po raz pierwszy pojawili się na niej posiadający imiona
aktorzy o silnych osobowościach i przekonujących punktach widzenia. Nastąpił radykalny
przełom; na próżno by szukać w egipskiej i babilońskiej medycynie, matematyce i astrologii
przykładu wypowiedzi, której autor-indywidualista wyraźnie dystansuje się wobec siebie i
krytykując zastaną tradycję, rości sobie prawo do oryginalności; tymczasem w Grecji stało się
to normalną metodą postępowania. Może przemiana ta wynika z tej samej co u greckich
poetów potrzeby akceptacji, tak czy owak uczeni i filozofowie zaczynaj ą pisać w pierwszej
osobie liczby pojedynczej. Może to również wiązać się z faktem, że wielu greckich obywateli
zdobyło umiejętność oceny dowodów oraz argumentów używanych w polityce i sądownictwie.
Ustanowiono tym samym tradycję krytyczną o doniosłym znaczeniu, a przed sokratejscy
filozofowie często dawali do zrozumienia, że oprócz nich nikt nie jest w stanie udzielać
prawidłowych odpowiedzi. Atakowano autorytety i wciąż pojawiały się nowe interpretacje
natury. Uznanie przez równych sobie stało się w nauce jedną z głównych nagród, a było
możliwe dopiero wtedy, gdy nauka zaczęła należeć do indywidualistów, którzy szerzyli własne
poglądy.
Właściwe odczytanie nauki Arystotelesa nadal sprawia trudności. Najwszechstronniejszy
starożytny uczony rozróżnia na przykład cztery rodzaje przyczyn, z których tylko dwie bez
trudu da się odnieść do współczesności: wpływ jednej rzeczy na drugą oraz funkcję, która
czemuś służy. Nauka Arystotelesa jest zgodna z umiarkowanym, zdroworozsądkowym obrazem
świata. Stagiryta stosował świadomie zasadę, że szukając wyjaśnień, koniecznie trzeba zacząć
od podobieństw, a dedukcje w nauce mogą wynikać z zasad samych przez się
zrozumiałych. Powinniśmy sławnemu Grekowi okazywać sympatię, skąd miał bowiem
wiedzieć, że świat jest zbudowany w sposób sprzeczny ze zdrowym rozsądkiem? Świat
Arystotelesa składa się z czterech elementów - ziemi, ognia, powietrza i wody - a każdy z nich
ma dwie spośród czterech pierwotnych właściwości - wilgotność, suchość, zimno i gorąco.
Wszystkie je znamy z codziennego doświadczenia. Ruch przedmiotów znajduje przyrodnicze
wyjaśnienie. Ogień porusza się w górę, a ziemia w dół, w ten sposób oba elementy zajmują
naturalne pozycje. Ziemia jest w centrum wszechświata, a ciała niebieskie osadzone są wokół
niej w koncentrycznych sferach. Ruch kolisty doskonale wyobraża bieg Słońca i planet.
Poglądy biologiczne Arystotelesa przyczyniły się do powstania wielu dziedzin - anatomii
porównawczej, embriologii i etologii - oraz zachęciły badaczy do wielu systematycznych
obserwacji. Można doszukać się sensu także w interpretacjach teleologicznych greckiego
filozofa, ponieważ zakładał on, że zjawiska naturalne czeka kres. Dlaczego kaczki mają
pokryte błoną palce kończyn dolnych? Aby mogły pływać. Arystoteles nigdy nie doszedł jed-
nak do głównego postulatu badań naukowych, aby teorię oprzeć na doświadczeniach, mimo to
był blisko jego urzeczywistnienia, dał bowiem podstawy wyobrażeniom o doświadczeniach,
takim jak refleksja nad kierunkiem ruchu Ziemi w wypadku, gdyby ustał ruch innych ciał
niebieskich.
Arystoteles uświadamiał sobie jedną z kluczowych cech nauki we wczesnym stadium jej
rozwoju: nie oferuje ona innej nagrody oprócz intelektualnej satysfakcji. „Od czasu, gdy ludzie
zainteresowali się filozofią, aby wyjść ze stanu ignorancji, ich celem stało się raczej poznanie
świata, niż jakieś praktyczne korzyści. Historia to potwierdza: ilekroć potrzeby życiowe zostały
pełniej zaspokojone, ludzie zwracali swe umysły ku wiedzy, rozumianej jako przeciwwaga
rozrywki".
Większość Greków myliła się, błędnie rozumiejąc ruch, rozwój embrionu i położenie Ziemi
w kosmosie. Nie przynosi im to jednak wstydu, ponieważ pomyłki stale towarzyszą metodzie
naukowej. Pojawiło się jednak dwóch gigantów. Ich osiągnięcia są prawie tak wielkie jak
przeskok Talesa. Geometria Euklidesa i mechanika Arystotelesa stały
się podstawą dalszego rozwoju nauki i z niepokojem można wyobrażać sobie, co poczęliby bez
nich uczeni renesansu.
Żyjący trzysta lat przed Chrystusem Euklides nie był twórcą geometrii, gdyż wiele
problemów tej dyscypliny rozwiązano znacznie wcześniej. Znaczenie jego prac polega na
realizacji postulatu Arystotelesa, żeby logicznie pojmowana nauka bazowała na minimalnej
liczbie aksjomatów. Pięciu pewników Euklidesa niepodobna udowodnić, chociaż uznano je za
prawdziwe. Większość z nich brzmi całkiem sensownie - na przykład to, że wszystkie kąty
proste są równe, i to, że można zakreślić koło, jeśli dany jest jego środek i inny punkt. Piąty
wywód brzmi: „Jeśli na płaszczyźnie jakaś prosta c, przecinając dwie inne linie proste a i b,
utworzy z nimi wewnętrzne kąty, położone po tej samej stronie i mniejsze niż dwa kąty proste,
to owe dwie proste a i b, jeśli przedłuży sieje w nieskończoność, przetną się po tej stronie
prostej, po której leżą te kąty".
Wyrazić ten aksjomat można w inny sposób: linie równoległe nigdy się nie przetną. Oba
sformułowania wydają się oczywiste. Nie jest jednak wcale pewne, czy gdyby poczynić
odmienne założenia, nie dałoby się ich udowodnić. Oczywiście, można stare założenie zastąpić
nowym, ale i tak konieczne jest jakieś założenie pierwotne. Jeśli zaakceptuje się pięć
aksjomatów geometrii Euklidesowej, ujawnia się jej bogactwo. Grecki matematyk stworzył
także hipotetyczno-dedukcyjny paradygmat nauki postulowany przez Arystotelesa - gdy dane
są pewne prawa i założenia podstawowe, można wyciągnąć dużą i różnorodną liczbę wniosków
(warto odnotować, że sam zdrowy rozsądek nie wystarczy, by z aksjomatów Euklidesa
wyprowadzić twierdzenia geometryczne).
Archimedes pobierał nauki u uczniów Euklidesa w Aleksandrii w III wieku przed
Chrystusem i był twórcą matematyki stosowanej: użył jej, aby zrozumieć sposób
funkcjonowania świata. Stworzył nie tylko podstawy statyki - to jest nauki o siłach w stanie
równowagi, takich jak siły wywierane przez dźwignie i ciężary, co stanowi fundament całej
inżynierii strukturalnej - ale także hydrauliki - nauki o siłach działających na ciała zanurzone w
wodzie. Archimedes wynalazł sprzężone koło pasowe i śrubę hydrauliczną do przenoszenia
wody, ale według tradycji greckiej nie przywiązywał wagi do osiągnięć praktycznych. Zdaniem
Plutarcha uznawał „za haniebne i wstrętne zajmowanie się mechaniką i wszelkiego rodzaju
sztuką, która jest nastawiona na użycie i zysk; całą ambicję wkładał w rozważania o pięknie i
subtelności nie skażonych codziennymi potrzebami życiowymi". Jest to jeden z pierwszych
przykładów różnych postaw wobec nauki czystej i stosowanej. Jawna nieużyteczność pozostaje
specyficzną cechą nauki: jaką korzyść dawała Talesowi teza, że cały świat składa się z wody,
Archimedesowi zaś zrozumienie, że niektóre ciała unoszą się na wodzie, czy też Arystotelesowi
przekonanie, że w embrionie serce zaczyna rozwijać się jako pierwsze?
Chociaż Archimedes wniósł ważny wkład w rozwój matematyki -opisał krzywą, zwaną
obecnie spiralą Archimedesa, oraz dość dokładnie wyliczył liczbę 7t (stosunek obwodu koła do
średnicy) - większe wrażenie wywierają dzisiaj osiągnięcia jego mechaniki i hydrostatyki. W
tych dziedzinach wypracował dla fizyki po raz pierwszy to, co Euklides uczynił dla geometrii.
Tak jak Euklides, zaczął od definicji i założeń, a następnie przeprowadzał dowód twierdzenia.
Podobną metodę stosował w mechanice, kiedy określał środek ciężkości najprostszych figur
geometrycznych, takich jak trójkąty, a w dźwigniach odkrywał relacje między ciężarami a
odległością. „Dajcie mi punkt oparcia, a ruszę z posad Ziemię" - ogłosił i udowodnił to,
wykazując, że jeśli dźwignia jest dostatecznie długa, za jej pomocą można podnieść każdy
ciężar. Hydraulikę z kolei rozpoczął od takich założeń: „Załóżmy, że ciała są wypychane ku
górze w jakiejś cieczy wzdłuż prostopadłej do powierzchni linii, przechodzącej przez ich
środek ciężkości". Przyjąwszy takie założenie, udowodnił, że ubytek wagi, którego doświadcza
zanurzone ciało, jest równy ciężarowi wypartej przez nie wody. Prawo to wyjaśniło, dlaczego
ciała pływają, co pozwoliło Archimedesowi określić specyficzny ciężar gatunkowy złota i
srebra. Nic dziwnego, że krzyknął „Eureka!" i wyskoczył z wanny - było to cudowne i
zadziwiające odkrycie. Owo zastosowanie matematyki w fizyce zdumiewa, ponieważ nie
sposób jasno odpowiedzieć napytanie, dlaczego opis świata za pomocą abstrakcyjnego języka
matematyki może dawać satysfakcję.
Dzieło Archimedesa pozostaje monumentalnym osiągnięciem naukowym. Czy leżąc w
wannie, rozumiemy, że ubytek naszego ciężaru jest równy ciężarowi wypartej przez nas wody?
A czy pojmujemy, że jeśli jest on większy od ciężaru naszego własnego ciała, utrzymamy się na
powierzchni? Czy potrafilibyśmy stwierdzić, czy korona jest wykonana ze złota lub srebra?
Także kosmologia pozwala zademonstrować triumf nauki greckiej. Każda cywilizacja i
kultura dawała własną odpowiedź na pytanie o budowę wszechświata. Cywilizacja Zachodu,
poczynając od Greków, wykorzystała do tego celu obserwacje astronomiczne: inne kultury
oparły swe kosmologie na zjawiskach ziemskich, niebu pozostawiając zaledwie rolę
odgradzającej przestrzeni. W kosmologii egipskiej Ziemię przedstawiano jako wydłużoną tacę,
na której mieści się woda, ziemia i powietrze - wszystko, co najprawdopodobniej składało się
na otoczenie Nilu. Słońce to bóg Ra, który posiada dwie łodzie do podniebnych podróży -jedną
na dzień, drugą na noc. Tak skonstruowane kosmologie nie starały się wyjaśnić budowy
wszechświata, lecz stanowiły raczej odbicie społecznej struktury społeczności i pomagały ją
utrwalać. Dlatego też w kosmologii egipskiej nie ma niczego, co próbowałoby objaśnić
podróże Ra i ich sezonową zmienność.
Astronomowie babilońscy i egipscy obserwowali systematycznie ruch Słońca i gwiazd, ale
wyniki tych prac nie stały się nigdy częścią ogólnej interpretacji świata. Egipcjanie początkowo
wykorzystywali je przy obliczaniu kalendarza, podczas gdy Babilończycy starali się dokładnie
przewidywać wydarzenia astronomiczne, na przykład fazy Księżyca. Próby usystematyzowania
tej wiedzy podjął się najpierw Anaksymander. Ustalił wielkość niektórych ciał niebieskich i
przyrównał Księżyc oraz jego zaćmienia do obrotów koła. Z czasem, po ponad dwóch
stuleciach, Grecy rozwinęli teorię „dwusferycznego" wszechświata - Ziemia jako mniejsza
sfera jest zawieszona w geometrycznym środku większej sfery gwiazd. Model ten
charakteryzuje się pojęciową precyzją i po raz pierwszy w racjonalny sposób łączy obserwacje.
Stosuje się go nadal w nauczaniu nawigacji.
Model dwusferyczny kwestionowano już w czasach greckich. W III wieku przed Chrystusem
Arystarch wysunął hipotezę, że Słońce
znajduje się w centrum, a Ziemia kręci się wokół niego. Było to jednak sprzeczne ze zdrowym
rozsądkiem, ponieważ Arystoteles przedstawił przekonujące argumenty na poparcie
twierdzenia, że centrum wszechświata zajmuje Ziemia. Oto przykład: jeśli Ziemia poruszałaby
się w przestrzeni kosmicznej, dałoby się to wyczuć. Dlaczego jednak nie odpadamy od
powierzchni planety? Według Arystotelesa istnieje doskonały ład kosmiczny, a życie ziemskie
zależy od jego mocy. Poważanie, którym cieszą się opinie Arystotelesa, wywodzi się w dużej
mierze z jego zdolności do wyrażania w abstrakcyjny i logiczny sposób percepcji
wszechświata, która od wieków zachodziła w naturalnej, niesformalizowanej postaci. W
poglądach Stagiryty znalazły wyraz wierzenia wielu prymitywnych plemion i dzieci.
Teoria obiegu ciał niebieskich wokół Ziemi staje przed trudnym zadaniem, gdy usiłuje
wytłumaczyć ruch planet. Ze względu na to, iż podobnie jak Ziemia planety w rzeczywistości
krążą wokół Słońca, ich ruch nie odpowiada prostemu ruchowi po linii obwodu koła. W roku
150 naszej ery Ptolemeusz przedstawił najbardziej zrozumiałe wyjaśnienie złożonego ruchu
planet po epicyklach (ideę tę rozpowszechniano już wcześniej), to znaczy kołach, po których
poruszają się planety wokół Ziemi. Pojawił się jednak problem: chociaż osiągnięto sporą do-
kładność w przewidywaniu ruchu planet, to ceną tej dokładności była uciążliwa komplikacja -
trzeba było dodawać coraz więcej epicyklów, aby godzić ze sobą obserwacje planet.
Przedstawiając postępy nauki greckiej, trzeba odpowiedzieć na pytanie, dlaczego rozwój
astronomii i innych nauk zatrzymał się aż do czasu prac Kopernika, Keplera i Galileusza? Idee
Kopernika były w zasadzie dostępne umysłowości Greków, ponieważ nie wymagały nowych
obserwacji. Być może wymagały jakiegoś wyższego etapu rozwoju umysłowego. Mamy trudną
do wytłumaczenia barierę. Kopernik przeciwstawił się tradycji tylko z powodu względności
ruchu Ziemi i planet w odniesieniu do Słońca - cała reszta dzieł mistrza mieści się w
horyzoncie idei zakreślonym przez Ptolemeusza. Kopernik początkowo poddał krytyce jego
astronomię za odejście od tezy Arystotelesa, że wszystkie ciała niebieskie poruszają się po
jednakowych okręgach.
Kopemikańskie przekonanie o centralnym położeniu Słońca wyznaczyło wprawdzie kierunek
rozwoju astronomii, nie uprościło jednak zagadnienia, ponieważ twórca heliocentrycznej teorii
budowy świata nie próbował objaśniać ruchu planet. Zadanie to przypadło w udziale
Keplerowi, który pięćdziesiąt lat później wykorzystał spostrzeżenia Tycho de Brahe i zaczął
badać fizyczną przyczynę tego zjawiska. Kepler wykazał intelektualną odwagę, wprowadzając
teorię, że planety poruszają się po torach eliptycznych.
Tak w mechanice, jak i w kinetyce nowe idee rzadko łączą się z nowymi obserwacjami,
częściej natomiast zmieniają sposób myślenia. Trzeba było przeciwstawić się przemożnemu
oddziaływaniu Arystotelesa, a to wbrew pozorom było bardzo trudne. Nic nie obrazuje tego le-
piej niż analiza spadania ciał dokonana przez Galileusza.
Według Arystotelesa ruch jakiegoś ciała w górę lub w dół związany jest z naturalnym
położeniem, a ono z kolei zależy od składników danego ciała - para paruje, ponieważ zawiera
ogień; kamienie spadają na ziemię, ponieważ jest ona naturalnym dla nich miejscem, przy
czym większe kamienie spadają szybciej. Dlatego dla Arystotelesa prędkość spadania jest
wprost proporcjonalna do ciężaru ciała. Galileusz komentuje to słowami stworzonej przez
siebie postaci, Salviatiego: „Bardzo wątpię, aby Arystoteles kiedykolwiek badał
doświadczalnie, czy to prawda, że jeśli dwóm kamieniom, jednemu ważącemu dziesięć razy
więcej niż drugi, pozwolimy spaść w tym samym momencie z wysokości stu łokci (wysokość
wieży w Pizie), stanie się to z różną prędkością, tak że kiedy cięższy znajdzie się już na ziemi,
drugi opadnie najwyżej o dziesięć łokci".
Sagredo, laik zafascynowany Galileuszem, aby potwierdzić jego poglądy, wykonał
doświadczenie, które udowodniło błąd Arystotelesa. Salviati mówi dalej: „Nawet bez kolejnych
doświadczeń można dowieść przekonującymi argumentami, że cięższe ciało nie porusza się
szybciej niż lżejsze, jeśli składają się one z tej samej substancji". Jeśli natomiast weźmiemy
dwa ciała, których naturalna prędkość spadania jest różna, to po ich połączeniu prędkość
jednego będzie hamowana przez drugie, spadające wolniej. Gdyby jednak jakiś duży kamień
poru
szał się z prędkością, powiedzmy, ośmiu jednostek, mniejszy zaś z prędkością czterech, całość,
gdy kamienie zostaną połączone, osiągnie prędkość mniejszą niż osiem. Ale dwa złączone
kamienie mają większą masę niż ten, który przedtem spadał z prędkością ośmiu jednostek,
więc w tym wypadku cięższe ciało porusza się wolniej niż lżejsze. Konkluzja dowodzi czegoś
wręcz przeciwnego niż założenia Arystotelesa. Są one fałszywe, albowiem prędkość spadania
nie jest wprost proporcjonalna do ciężaru ciała.
To błyskotliwe rozumowanie jest przykładem myślenia naukowego, które dominowało w
okresie odrodzenia nauki w XVI i XVII wieku, kiedy żył Galileusz, jeden z jej geniuszy.
Ujawnia ono także, iż nie zawsze trzeba wykonać doświadczenia, by obalić jakąś koncepcję,
chociaż Galileusz - mistrz metody doświadczalnej - pokazał, że logiczna spójność stanowi
jedno z głównych wymagań stawianych teorii naukowej. Zagadką- nie rozwiązaną zresztą -
pozostaje pytanie, dlaczego mimo licznych polemik z poglądami Arystotelesa na temat ruchu,
takich jak głos chrześcijańskiego stoika Jana Filopona z Cezarei (przełom XV i XVI wieku),
upłynęło aż tysiąc osiemset lat, nim wykazano niespójność teorii Stagiryty, czy wykonano
doświadczenia, które ją obaliły. Naukowe myślenie wymaga specyficznego zainteresowania i
szczególnego trybu myślenia.
Jest to tym bardziej zagadkowe, że metoda rozumowania Galileusza w dużym stopniu
przypomina rozważania Archimedesa. Nie powinno więc dziwić, że prace tego ostatniego
stanowiły przedmiot pierwszych studiów Galileusza. „Ci, którzy przeczytali jego dzieła -
napisał ów wielki uczony - aż nazbyt jasno zdają sobie sprawę, jak szybko wszelkie autorytety
ustępują wielkości Archimedesa i jak małe znaczenie mają odkryte przez nie zjawiska w
porównaniu z rzeczami, które on odkrył". Nie był to, jak sądzę, jedynie przejaw chwilowej
fascynacji przeszłością, lecz po prostu rzeczowa jej ocena. I godna uwagi pozostanie
wielowiekowa żywotność myśli Archimedesa. Powinniśmy być za to wdzięczni Grekom i
średniowiecznym uczonym islamskim. Flamandzki dominikanin, Willem Moerbecke,
przetłumaczył w XIII wieku wszystkie naukowe rozprawy Archimedesa z greki na łacinę, w
owym
czasie język ludzi wykształconych, a szesnastowieczne wydania weneckie odegrały decydującą
role w przyswojeniu nauki Archimedesa przez Galileusza. Chwała także tym zacnym pisarzom
i drukarzom.
Dlaczego postęp naukowy rozpoczął się na Zachodzie dopiero wiele lat po dokonaniach
Greków? W dodatku trzy wynalazki, które Franciszek Bacon utożsamiał z wielkimi
przemianami w renesansowej Europie - druk, proch strzelniczy i kompas - były wytworem
chińskim, a nie europejskim. Chińczycy okazali się wspaniałymi inżynierami, ale oprócz
precyzyjnych obserwacji zjawisk astronomicznych niewiele wnieśli do rozwoju nauki. Potrafili
budować wielkie mosty i wytapiać stal wiele lat przed mieszkańcami Europy, lecz nigdy nie
stworzyli mechanistycznego poglądu na świat (Egipt to kolejny przykład wyrafinowanej
intelektualnie cywilizacji, która rozkwitała przez wiele stuleci bez najmniejszego wkładu w
rozwój samej nauki). Chińczycy byli z natury praktyczni, ale tworzyli mistyczny obraz świata,
nie formułując teorii praw natury, regulowany raczej przez etykę społeczną, dzięki której
wspólnota ludzka powinna żyć w szczęściu i harmonii. Tego rodzaju filozoficzna orientacja, w
odróżnieniu od chrześcijańskiego umiłowania racjonalności, może po części wyjaśniać rozkwit
nauki na Zachodzie i jego brak na Wschodzie.
Chociaż przed okresem renesansu Chińczycy byli najwytrwalszymi i najbardziej
pedantycznymi obserwatorami zjawisk niebieskich, nie stworzyli jednak teorii planet i nie
opracowali geometrii. Nie objawił się żaden chiński Euklides. W Chinach powstało jednak
kilka klasycznych kosmologii astronomicznych; najbardziej znana traktuje planety i gwiazdy
jako źródła światła, zbudowane z nieznanej substancji i poruszające się w nieskończonej pustce
- odpowiedniku pojęcia nieskończoności czasu i znanemu myślicielom buddyjskim, którzy
zakładali, że niedający się wyrazić czas został wyrzucony z jednego buddyjskiego nieba w
stronę drugiego.
Koncepcja wszechświata, jednakowa w całej chińskiej filozofii, nie jest ani materialistyczna,
ani animistyczna, ale magiczna, a nawet alchemiczna. Zgodnie z nią wszechświat to
hierarchicznie zorganizowany mechanizm, którego każda część jest odbiciem całości. Człowiek
zaś to mikrokosmos harmonijnie współdziałający z całością wszechświata- ciało ludzkie
wyraża porządek kosmiczny.
Według religii taoistycznej ciało ludzkie zamieszkują ci sami bogowie, którzy wypełniają
wszechświat; istnieje odpowiedniość poszczególnych ludzkich organów, świętych gór i pór
roku. Pięć organów ciała, jego otwory i rządzące człowiekiem namiętności odpowiadają pięciu
świętym górom, pięciu sekcjom nieba i pięciu elementom - ziemi, ogniowi, wodzie, metalowi i
drewnu. Zrozumienie człowieka prowadzi więc do pojęcia istoty wszechświata.
Centralną ideą taoizmu jest wewnętrzna więź pomiędzy naturą a człowiekiem i
społeczeństwem ludzkim a kosmosem, a także wiara w cykliczną naturę czasu. Tym sposobem
wszelkie wyobrażenia dotyczące natury świata łączą się ściśle z samym człowiekiem. Z
taoistycznego punktu widzenia wszystkie byty i rzeczy tworzą jedność. Przeciwstawne opinie
wprowadzaj ą zbędny indywidualizm i zwątpienie w idealny obraz całości. Osobie, która
pragnie zdobyć wiedzę, tao mówi: „Nie rozmyślaj, nie zastanawiaj się... nie wiąż się z żadną
szkołą, nie podążaj żadnym traktem, a wówczas osiągniesz tao". Wiedza została tu
zdyskredytowana, dlatego starożytnych myślicieli taoistycznych cechował brak zaufania do
rozumu i logiki połączony z głęboką wiarą w jednoczącą wszystko ideę „praw natury".
Konfucjanizm, druga chińska tradycja religijno-filozoficzna, skupia uwagę na postępowaniu
człowieka, a znacznie mniej interesuje się naturą: mówi o osobowym kulcie, estetyce i
ubóstwie. Konfucjańskie zainteresowanie kosmologią było ograniczone, chociaż próbowano
pogodzić tradycyjne teorie jin i jang oraz teorię pięciu elementów. W jednym porządku
przedstawiają one rodzenie się i trwanie każdej jednostki z osobna. W istocie ów porządek
numeryczny łączy człowieka z naturą- cztery kończyny wyobrażają pory roku, a 366 kości
odpowiada liczbie dni w roku.
Chińskie koncepcje filozoficzne kontrastowały z poglądami Greków, którzy mieli
świadomość dystansu dzielącego człowieka od przyrody. W systemach religijnych
pozbawionych wpływów greckich nagminnie pojawia się myśl o nierozerwalnym związku
człowieka z naturą, a właśnie poglądy tego rodzaju, a nie interpretacje zewnętrznego świata,
tworzą podstawą ludzkich zachowań. Filozofie oparte na przekonaniu o więzi człowieka z
naturą skupiają zainteresowanie na tym, co oddziałuje na człowieka.
Czy poglądy filozoficzne mogły powstrzymywać moment narodzin myśli naukowej? Na
pytanie, dlaczego nauka narodziła się tylko raz, i to w Grecji, gdzie zresztą uprawiała ją jedynie
elita, a utrzymała się wyłącznie na Zachodzie, Albert Einstein odpowiedział:
„Rozwój zachodniej nauki bazował na dwóch osiągnięciach: odkryciu przez filozofów greckich
systemu logiki formalnej (w geometrii Euklidesa) oraz dostrzeżeniu możliwości wykrycia
związków przyczynowych za pomocą systematycznych doświadczeń (w renesansie). Moim
zdaniem nie ma potrzeby dziwić się, że chińscy mędrcy nie uczynili podobnych postępów.
Zdumiewa raczej to, że odbycia te w ogóle zostały dokonane".
To prawda, że w Chinach nie rozwinęła się geometria, ale być może tamtejsza filozofia i
nieobecność kapitalizmu w tym regionie świata również wpłynęły na omawiane zjawisko.
Pomiędzy rozkwitem greckiej nauki a dokonaniami renesansu nastąpiła duża przerwa.
Archimedesa od Galileusza dzieli prawie tysiąc osiemset lat. Archimedes i Euklides byli
autorytetami w okresie potęgi rzymskiej, a chociaż Rzymianie pozostawali pod wpływem
kultury greckiej, nie byli zainteresowani greckimi zdobyczami naukowymi. Naukę i filozofię
umieścili niżej w hierarchii wartości. Przyczyny utrzymania się nauki na Zachodzie nie są
znane, choć prowadzi się na ten temat rozległe studia.
Trzeba tu podkreślić znaczenie chrześcijaństwa, które popierało zachodnioeuropejski
racjonalizm, to znaczy postawę kształtującą się w toku rzeczowych dyskusji, potrzebną także w
nauce, a wreszcie stworzyło system filozoficzny, w którym pojawiła się możliwość -a nawet
przekonanie - że istnieją prawa kontrolujące przyrodę. To przekonanie jest osobliwością
chrześcijaństwa.
Rozpatrywaniu wybranych podobieństw chrześcijaństwa do nauki grozi poważne
metodologiczne niebezpieczeństwo. Gdyby nauka odżyła na innym niż chrześcijańska Europa
obszarze świata, trudno za
pewne byłoby wyjaśnić, dlaczego chrześcijaństwo nie pozwoliło na rozwój nauki, ponieważ
opiera się ono przede wszystkim na wierze w niepokalane poczęcie, zmartwychwstanie po
śmierci i inne dogmaty. Można jednak wskazać dowolne inne podobieństwa, aby wyjaśnić, dla-
czego nauka powstała tam, gdzie powstała. Mając na uwadze te właśnie zastrzeżenia, trzeba
ponownie rozważyć przypadek chrześcijaństwa, które odgrywa ważną rolę w nauce Zachodu.
Religia i nauka pozostają w bliskim związku, a najważniejszym zadaniem chrześcijaństwa
jest popieranie i ożywianie racjonalnego myślenia. Kluczowa idea chrześcijan to koncepcja
porządku i prawa wprowadzonych przez Boga-Stwórcę. Uznano, iż Bóg zdaje się nawet
pochwalać ilościowe ujęcia zjawisk: „Rozporządziłeś wszystko według miary, liczby i wagi" -
cytuje Biblię św. Augustyn, gdy rozważa kwestię, czy Bóg zna wszystkie liczby aż do
nieskończoności. Chociaż św. Augustyn wątpił w wartość nauki naturalnej i nie przejmował się
faktem, że chrześcijanie nic nie wiedzą o ruchu gwiazd, to jednak doceniał wartość samego
rozumu, który uważał za dar boski.
Pierwsi chrześcijanie zostali złowieni w sieć metafizycznych argumentów, ściśle związanych
z naturą świata fizykalnego. Stawiano pytania o fizyczne istnienie Jezusa i o to, w jaki sposób
mógł on jednoczyć dwie natury - boską i ludzką. Właśnie te pytania dały w IV wieku początek
arianizmowi, chrześcijańskiej herezji, która głosiła, że Chrystus tak naprawdę nie był Bogiem,
lecz stworzonym bytem, a tylko Bóg istnieje samoistnie i niezmiennie. Warto zwrócić uwagę,
że logiczna spójność i racjonalne argumenty odziedziczone po Grekach stały się ważnymi
cechami wczesnego chrześcijaństwa.
Historyk Pierre Duhem uważa, że zasadniczy rys wczesnej nauki stanowi chrześcijańska
negacja starożytnego dogmatu o boskości ciał niebieskich. Z jednej strony brak krytycznej
oceny dogmatycznych poglądów, jak na przykład tego, że niebo determinuje wydarzenia
ziemskie, było -jak się wydaje - głównym hamulcem rozwoju nauki greckiej. Z drugiej strony
jednak to astrologia, nie będąc właściwie nauką, podtrzymywała zapewne zainteresowanie
astronomią.
Scholastyka chrześcijańska zajmowała się takimi pojęciami, jak Istnienie, Istota, Przyczyna i
Koniec. Formułowała odpowiedzi na pytania, które zadają dzieci - „Kto stworzył Księżyc?" i
„Dlaczego...?" Dopiero św. Tomasz z Akwinu przystosował filozofię Arystotelesa do
chrześcijaństwa. W połowie XIII wieku arabsko-arystotelejska nauka zaczęła poważnie
niepokoić wierzących Europejczyków; prawdopodobnie po raz pierwszy chrześcijańscy
teologowie zetknęli się z rygorystycznymi wymaganiami naukowego racjonalizmu. Ważną rolę
odegrał w tym zakresie Awerroes, wybitny przedstawiciel arabskiej filozofii w Hiszpanii.
Potraktował on fizykę Arystotelesa jako boską i wolną od błędów. Chcąc uniknąć sprzeczności
między wiarą a rozumem i pozostać szczerze oddanym islamowi, utrzymywał, że wiedza
religijna jest całkowicie różna od racjonalnej - idealnego efektu badań naukowych.
Przeciwstawiając się przenikaniu tak radykalnych pomysłów do chrześcijaństwa, Tomasz z
Akwinu wyrażał pogląd, że teologia jest „nauką", w racjonalny sposób wyprowadzoną z
przesłanek, które uznano za pewne, ponieważ zostały objawione przez Boga. Natura różni się
od człowieka, posiada bowiem konieczne prawa. Bóg korzysta z przywileju sprawowania nad
nią absolutnych rządów, a ona dostosowuje się do praw twórczej Opatrzności, która zmusza
każdy byt do działania w zgodzie z jego właściwą naturą. Natura potrafi jedynie przystosować
się do niezmiennego prawa, natomiast człowiek posiada wolną wolę.
Tomasz z Akwinu traktuje ruch jako temat metafizyczny i w zgodzie z Arystotelesem sądzi,
że wszystko, co się porusza, poruszane jest przez coś innego. Bóg to pierwotna przyczyna tego
zjawiska. Bez ingerencji boskiej nastąpiłaby nieskończona inwolucja wcześniejszych ruchów
przyczynowych. Przedstawienie zaś Arystotelesa jako myśliciela ortodoksyjnego, który ma
poglądy zgodne z religią chrześcijańską, pozwoliło, by kosmologia stała się twórczym
elementem chrześcijaństwa, i oznaczało zgodę na myślenie naukowe.
Chrześcijański obraz natury, szczególnie ten widziany oczyma Tomasza z Akwinu, jest
całkowicie odmienny od chińskiego. Zasadniczą ideę buddyzmu stanowi idea ciągłego
odradzania się, wiara, że świat przechodzi nieunikniony proces wzrostu, trwania i niszczenia.
Nawet
bogowie nie istnieją wiecznie. Główną cechą by tu pozostaje reinkarnacja. Jak powiedział
katolicki historyk Stanicy L. Jaki: „W tym, że we wszystkich kulturach - chińskiej, hinduskiej,
Majów, egipskiej, babilońskiej, żeby wymienić tylko najważniejsze - nauka stale się odradza,
można znaleźć wpływ wyobrażenia o wiecznym powrocie, którego doświadczają wymienione
kultury". Reinkarnacja oznacza zatem negację przyczynowych praw rządzących naturą.
Uwydatniając wkład społeczności chrześcijańskich w rozwój nauki, musimy także
uwzględnić udział islamu. Uczeni islamscy również kontynuowali tradycję grecką i nie byłoby
niedorzeczne stwierdzenie, że islam steruje całościową perspektywą wiedzy, uważając rozwój
wiedzy za cnotę. Nie samo zatem chrześcijaństwo przyczyniło się do rozkwitu nauki na
Zachodzie w XVI wieku.
Inna metoda badania zmian myślenia w okresie ożywionej działalności naukowej dotyczy
stosunku nauki do faktów ekonomicznych. Max Weber wskazywał, że „każda racjonalizacja
ekonomii wymiennego handlu osłabia tradycje wspierane powagą świętego prawa". A ra-
cjonalizację pojmuje on tak: „Nie ma żadnych tajemniczych, trudnych do przewidzenia sił, a
wszystkie sprawy można wykalkulować". Idea racjonalizacji stanowi istotę koncepcji
uprzemysłowienia, stworzonej przez Webera. Chociaż jako całość wydaje się ona
skomplikowana, w zasadniczy sposób „zastępuje bezmyślną akceptację starożytnych oby-
czajów rozważnym przystosowaniem się do sytuacji, stosując kryterium interesowności".
Prawdopodobnie idzie tu o interesowność stymulującą rozwój nauki, ponieważ korzyść własna
to najlepsza zachęta do poznania świata. Zjawisko to łączy się ponadto bezpośrednio z roz-
wojem kapitalizmu. Jak jednak dowodzi Weber, to nie duch kapitału kieruje nauką.
Prawdopodobnie równie istotna jest zmiana perspektywy etycznej dokonana przez reformację,
ponieważ etyka protestancka zachęca do wiary w postęp i racjonalistyczne dociekania.
Przedstawiony tutaj pogląd głosi, że naukę rozwinęły jedynie te społeczeństwa, które
pozostawały pod wpływem Greków. Czy tak było naprawdę? Niektórzy antropolodzy
dowodzą, że sądy żyjących w prymitywie ludzi przypominają opinie naukowe. W
kosmologiach
afrykańskich, na przykład, elementy kultury pozostają częścią schematu, który pomaga określić
uzależnienie codziennego życia od pewnej, niewielkiej liczby „sił". Siły te nie reprezentują
przyczynowości, lecz stanowią skutek działania przodków, bohaterów, duchów wodnych itp. A
tak naprawdę wróżki i czarownicy oferują interpretacje przyczynowe, które wolno nam
nazywać „zdroworozsądkowymi" albo mitologicznymi. Dotyczą one zachowania się
człowieka, ale nie przejawiają zainteresowania samą naturą i oczywiście są pozbawione
głównych cech nauki.
W kulturach opartych na jednej, pierwotnej tradycji alternatywne koncepcje albo mitologie
nie mogą po prostu zaistnieć: system myślenia pozostaje zamknięty. Członek szczepu Azande
nie potrafi, na przykład, pojąć, że rozumuje nieprawidłowo. Zespół jego wierzeń, ściśle
związany z sądami czarowników i wyrocznią, ukazuje wyłącznie jeden świat. Sprzeczności w
proroctwach czarowników dadzą się „usprawiedliwić" innymi wierzeniami. Żadne zdarzenia,
nawet powtarzające się błędy, nie zostaną wymierzone przeciwko systemowi. A ponadto
członkowie szczepu Azande podzielają przekonania każdej grupy religijnej, której wierzenia
nie zostały zmienione przez świeckie doświadczenia (zob. rozdział VI).
Tradycyjne afrykańskie wspólnoty zupełnie nie przyznają się do niewiedzy o sprawach, które
uważa się za istotne. I tak nie zajmują się kwestią powstania świata, ponieważ nie wzbudza ona
zainteresowania. Z taką obojętnością nie reaguje się jednak nigdy na pytania dotyczące
choroby lub fryzur; zawsze proponuje się jakieś wyjaśnienie. Żadne ważne wydarzenie nie
pozostaje bez komentarza. Jeśli ktoś zostanie przypadkowo zabity przez upadający konar
drzewa, trzeba stworzyć interpretację opowiadającą o zemście lub czarach. Nie aprobuje się
przypadków czy spraw niedających się przewidzieć. Takie nastawienie wyklucza
ukształtowanie się myślenia w kategoriach prawdopodobieństwa, które odgrywa znaczącą rolę
w nauce.
Brak zainteresowania kultur afrykańskich zjawiskami naturalnymi jest bardzo istotny, gdyż
właśnie dzięki świadomym badaniom Tales i inni uczeni greccy są niepowtarzalni. Keith
Thomas w książce „Religia i upadek magii" (Religion and the Decline of Magie) wyodrębnił
charakterystyczną cechę, która odróżnia magię od nauki: założenia dotyczące natury świata
zostają przyjęte raz i żadne późniejsze odkrycie nie złamie wiary wyznawców, ponieważ
potrafią oni formułować wyjaśnienia wyłącznie w terminach istniejącego systemu. Nauka w ten
sposób nie postępuje. Mówi o tym wyraźnie grecki wiersz Agathiasa (536-582) o rolniku
Kalligenesie, który zasięga porady astrologa na temat zbiorów:
Astrolog rzucił na stół swe klejnoty, Dotykał ich, poruszał palcami i rzekł:
„Jeśli, Kalligenesie, dość deszczu spadnie Na twoją niezłą ziemię, a chwasty
Nie zagłuszą ani mróz nie zniszczy roślin, Jeśli burza gradowa nie położy
wszystkiego, Jeśli jeleń nie wyskubie, a żadne nieszczęście nie wyłoni się z
ziemi lub nie spadnie z nieba, jeśli nie będzie plagi szarańczy, wtedy
uzyskasz dobre plony".
Jak zatem rozwinięto taki schemat myślenia? Odpowiedź tkwi zapewne w wyobrażeniach
religijnych i w logicznym dyskursie, które przedstawiono w wierszu. Wydaje się także mało
prawdopodobne, żeby tylko nauka przyczyniła się do upadku magii.
Według Tomasza z Akwinu magia chyliła się ku upadkowi już za jego czasów - przed
renesansowym okresem rozkwitu nauki i techniki. Jak inaczej wyjaśnić pojawienie się
lollardów (XIV-XVI w.), religijnej sekty, która nie uznawała nadprzyrodzonej roli Kościoła
jako instytucji chroniącej przed chorobami czy niepłodnością, ale nie dysponowała niczym, co
mogłoby go zastąpić? Nawet siedemnastowieczna utrata znaczenia przez magię nie była
spowodowana szybkim rozwojem medycyny - odkrycia Williama Harveya dotyczące krążenia
krwi (których -jak na ironię - dokonano dzięki metodom poznawczym Arystotelesa) nie
przyniosły żadnych praktycznych metod terapeutycznych. Można wręcz udowodnić, że aż do
XIX wieku innowacje medyczne oparte na nauce tylko w niewielkim stopniu przyczyniały się
do przedłużania życia ludzkiego.
To wiedza wpajana podczas nauki szkolnej oraz opinie autorytetów zdeterminowały
podstawowe hipotezy, które w przeszłości większość ludzi formułowała o nauce, religii i magii.
Teraz dzieje się podobnie. Jak to trafnie wyraził psychoanalityk Ernest Jones: „Przeciętny czło-
wiek nie waha się odrzucić tego samego objaśnienia magicznego, które wydawało się całkiem
przekonujące trzy wieki temu, chociaż zwykle o prawdziwej istocie danego wydarzenia nie wie
więcej niż przodkowie".
Dopóki jednostka nie wykształci w sobie osobliwej, świadomej siebie i samokrytycznej
ciekawości, może lekceważyć nawet podstawowe prawa biologiczne. Antropolog Ashiey
Montagu stwierdził, że niektórzy australijscy aborygeni uważają stosunek płciowy, mimo
skojarzeń z ciążą, tylko za jeden z warunków jej zaistnienia, a nie główną przyczynę.
„Prawdziwym powodem ciąży jest wędrówka do wnętrza kobiety ducha dziecka pochodzącego
ze znaczącego źródła zewnętrznego, takiego jak totem, trąba powietrzna, pożywienie. Może
tego dokonać trąba powietrzna, czerpiąc je z miejsca o wyjątkowym znaczeniu, takiego jak
centrum totemiczne". Mniemań takich nie sposób utożsamiać z wnioskami, do których
dochodzi się w toku dyskusji czy w chwili refleksji. Istnieją jednak sądy, które można
zweryfikować: sprawdzają się, bo są prawdziwe. Dziewczęta wychodzą za mąż w okresie
dojrzewania i nie chcą mieć dzieci przed ślubem. Stosunki płciowe w tym okresie są częste, ale
tylko niektóre młode kobiety mają dzieci, inne -nie. Tym samym zależność pomiędzy
stosunkiem płciowym a narodzinami dziecka wydaje się daleka od oczywistości. Część
antropologów jednakże występuje przeciwko koncepcji, że ludzie żyjący z dala od cywilizacji
nie wiedzą o zależności pomiędzy stosunkiem płciowym a urodzeniem się dziecka, ponieważ
obserwują oni przecież zachowanie się zwierząt. Jednocześnie warto podkreślić, że
biologicznej funkcji stosunku płciowego nie rozumiano powszechnie w Wielkiej Brytanii
jeszcze na początku XIX wieku. Od czasów Arystotelesa przetrwało głębokie przekonanie, że
za stworzenie embrionu wyłącznie odpowiada nasienie. Z tego powodu „każdy mężczyzna,
który uważał, że posiada elementarną wiedzę medyczną, był przekonany, że jego dzieci nie są
wcale spokrewnione z jego własną żoną". Jajo ssaka zostało odkryte dopiero w 1827 roku.
Przekonującym dowodem nienaturalnej natury nauki jest fakt, że przez tysiące lat mitologie i
kosmologie prawie wszystkich kultur nie inspirowały ani tradycji krytycznej, ani
bezinteresownego badania przyrody. Myśl, że człowiek jest z natury ciekawy, to w dużym
stopniu mit: zaciekawienie jakimś zjawiskiem wzrasta wyłącznie wtedy, gdy ma ono wpływ na
ludzkie zachowanie. Jak inaczej można wytłumaczyć ogólny brak zainteresowania naturą ze
względu na nią samą, przekazywany z pokolenia na pokolenie? Czym wyjaśnić przyjęty przeze
mnie historyczny punkt widzenia, by poprzeć tezę o ewolucji nauki, jako o procesie
przypadkowym? Podobnie jak do rozwoju samego życia, szczególnych warunków potrzeba też
do zapoczątkowania nauki w ogóle, jak to miało miejsce w Grecji (to samo dotyczy alfabetu,
który także tam powstał). W „Cudownym Życiu" (Wonderful Life) Stephen Gould omówił rolę
przypadku w ewolucji biologicznej. Zastanawiając się nad rozwojem człowieka, napisał:
„Doszedłem do wniosku, że najgłębsza intuicja biologii na temat natury ludzkiej, faktyczna i
potencjalna, wyraża się w prostym ucieleśnieniu przypadku: homo sapiens jest bytem, a nie
tendencją". Gdyby ewolucja miała powtórzyć się z drobnymi różnicami, na przykład z
wygaśnięciem gatunku homo sapiens w Afryce, wtedy ów gatunek mógłby ponownie się nie
pojawić. Nie ma żadnej gwarancji dalszego postępu w rozwoju istnień ludzkich, tak w obecnej,
jak i w potencjalnej postaci. Gdyby dinozaury nie zaginęły w tajemniczych okolicznościach -
być może wskutek kosmicznej katastrofy - i gdyby ssaki nie zajęły ich miejsca, nie byłoby nas
tutaj. „W dosłownym znaczeniu zarówno ludzie, jak i wielkie ssaki zawdzięczają istnienie
szczęśliwym gwiazdom". Podobnie jest z nauką. Nie istniała żadna nieunikniona konieczność,
że powinna ona rozwinąć się w Grecji, a duchowy klimat chrześcijaństwa i kapitalizmu będzie
sprzyjał kontynuacji tej tendencji. Nie wiadomo, komu powinniśmy być wdzięczni - być może
znowu planetom, gdyż rozmyślanie o nich odgrywa niewątpliwie zasadniczą rolę w dziejach
nauki. Bez planet nie byłoby na przykład Kopernika. Trzeba więc stale powracać myślą do
Talesa z Miletu. Dziękujmy jemu i jego pokoleniu.
Rozdział IV

Kreatywność

W
^ v śród niejasności związanych z naturą nauki znaleźć można pogląd, że sztuka i nauka to
dziedziny w gruncie rzeczy podobne: obie są wytworem twórczej wyobraźni ludzkiej. Błędne
są przeto próby ich odgraniczania. Pogląd ten podzielają nawet sami uczeni, a wielki niemiecki
fizyk, Max Pianek, twierdził, że pionierzy nauki „muszą mieć żywą, intuicyjną fantazję,
ponieważ nowe pomysły nie pojawiają się na drodze dedukcji, lecz dzięki artystycznej
wyobraźni twórczej". Podobne stanowisko przedstawił Jacob Bronowski w książce „Popularne
rozumienie nauki" (The Common Sense of Science): „Odkrycia naukowe, dzieła sztuki to
dociekania - więcej, to erupcje ukrytych podobieństw. Odkrywca lub artysta dostrzega dwa
aspekty natury i łączy je. Akt kreacji, w którym rodzi się oryginalna myśl, jest taki sam
zarówno w prawdziwej nauce, jak i w sztuce". Stanowisko to jest jednak mylne i chyba
sentymentalne. Uczonym oczywiście potrzeba „żywej intuicyjnej wyobraźni", ale ich
kreatywność niekoniecznie musi mieć związek z kreacją artystyczną. Tylko na podstawowym
poziomie kreatywność w sztuce i w nauce może być podobna: mam na myśli prawie wszystkie
ludzkie działania, które wiążą się z rozwiązywaniem problemów od księgowości po tenisa.
Rozbieżności pomiędzy kreacją artystyczną a naukową odzwierciedlają zasadniczą
odmienność tych form aktywności człowieka. Kreatywność w sztuce jest bardzo osobista,
ukazuje zarówno uczucia, jak i myśli artysty. Kreatywność naukowa przeciwnie - ulega zawsze
presji własnej logiczności, tego, co już znane, i wysiłku włożonego w zrozumienie natury.
Jakże odmiennie brzmi pogląd francuskiego powieściopisarza Allaina Robbe-Grilleta na temat
powieści, która „krzyżuje się, powtarza, przepoławia, przeczy sobie". Poza tym „wytwory"
uczonych zostaną w końcu włączone do ogólnego zasobu wiedzy społecznej - znajdą się na
przykład w podręcznikach, oni sami zaś pozostaną ostatecznie - z rzadkimi wyjątkami -
anonimowi (rozdział V). Dla artystów najważniejsza jest twórczość oryginalna, natura dzieła.
Przez swą wieloznaczność zachęca ono do wielu odczytań i interpretacji, podczas gdy odkrycia
naukowe mają ściśle określone znaczenie. Dzieło artystyczne może zawierać ponadto wyraźne
przesłanie moralne, natomiast nauka z zasady pozostaje wolna od wartościowania (zob.
rozdział VIII). Dzieła sztuki, będąc wytworami osobistymi, wyrażają indywidualne
doświadczenia, często nawet intymne przeżycia, naukowcy zaś dążą do uogólnień i formułują
sądy, które odnoszą się do całych klas zjawisk, a nie tylko do poszczególnych faktów. Bez
względu na to, czy pracy uczonych towarzyszą jakieś uczucia, końcowe dzieło ich nie wyraża.
Istnieją wreszcie obiektywne i odrębne kryteria osądu prac naukowych, czego nie można
powiedzieć o sposobach oceny licznych utworów artystycznych. Wiedząc o wszystkich tych
różnicach, należy z niedowierzaniem traktować rzekome podobieństwo między twórczością
naukową i artystyczną.
Rozważmy stosunek do piękna matematyka, Henri Poincarego:
„ Uczony nie bada przyrody, dlatego ze jest ona użyteczna; bada ją, gdyż jest nią urzeczony, i
dlatego, ze jest ona piękna. Nie mówię tu, oczywiście, o pięknie zmysłowym, o jakości i
wyglądzie; owszem, doceniam ten rodzaj piękna, ale ono nie ma nic wspólnego z nauką. Mam
tu na myśli głębokie piękno, które wyłania się z harmonijnego ładu i które może uchwycić
czysta inteligencja ".
Niełatwo definiować piękno nauki, ale można dostrzec jego związek z prostotą,
systematycznością i przede wszystkim zdziwieniem, które towarzyszy odkrywaniu
nowatorskich metod doświadczalnych albo tworzeniu teorii ukazujących sprawy w nowym
świetle.
W nauce istnieje mnóstwo stylów, a twórczość naukowa przejawia się w wielu formach. Nie
utożsamiajmy jej wyłącznie z odkrywczymi koncepcjami Newtona czy Darwina. Czasami
wielkie postępy czyni się przy projektowaniu nowej aparatury doświadczalnej, takiej jak
komora mgłowa do obserwacji zderzeń elementarnych cząstek atomu; czasami nagłe olśnienie
umysłu następuje przy projektowaniu doświadczeń i ich przeprowadzaniu. We wszystkich tych
wypadkach tło dla postępu stanowi przygotowawcza praca wyobraźni. Nie ma jednak sensu
udawać, że właściwie zdefiniowaliśmy proces twórczy w odniesieniu do różnych form ludzkiej
aktywności. Psychoanalityczne koncepcje twórczości zajmują się przecież prawdopodobnymi
przyczynami wyboru drogi życiowej, którego dokonali wielcy intelektualiści, na przykład:
Kafka, Newton i Einstein. Anthony Storr w książce „Dynamika twórczości" (The Dynamics of
Creation) twierdzi, że działalność twórcza jest „szczęśliwie wybranym sposobem wyrażania
siebie przez jednostkę schizoidalną". Tak czy inaczej, naszego rozumienia źródeł geniuszu
Newtona czy Einsteina ani trochę nie pogłębia fakt, iż kontaktowali się oni z innymi ludźmi w
sposób powierzchowny. Sąd Paula Valery'e-go o twórczości Racine'a wydaje się równie
prawdziwy w odniesieniu do Newtona czy Darwina: „Jeżeli zgromadzisz wszystkie dostępne
fakty z życia Racine'a, i tak nigdy nie pojmiesz kunsztu jego poezji". W najlepszym wypadku
można mieć tylko przebłyski wyobrażenia o pracy ich umysłów.
Jeśli nawet nasze rozumienie twórczości pozostaje ograniczone, można zbadać niektóre
opinie, które wyjaśnią genezę pojęć naukowych i pozwolą naświetlić proces badawczy,
operując wybranymi przykładami historycznymi.
W przekonaniu wielu ludzi kreatywność nauki opiera się na tym, co nazywamy ewolucyjną
epistemologią lub modelem przypadkowej zmiany (chance permutation model). Model ten
zakłada, że uczeni przypadkiem tworzą teorie, z których próbę czasu - ze względu na wartość
wyjaśniającą- przetrwają jedynie najlepsze. Proces twórczy, jak głoszą inni, polega na
ustanawianiu elementarnej zasady całości myślowej, w nie zamierzony sposób zamienianej
potem przez inne, selekcjonowane w kolejnych stadiach duchowego rozwoju ludzkości, co
sprawia, że w grze pozostają tylko koncepcje najlepsze. Ten pogląd ma długą historię; już
Kartezjusz, poruszając kwestię neutralności przebiegu wytwarzania hipotez naukowych, za
istotne zagadnienie uważał obserwowanie, w którym kierunku one prowadzą. Doszukał się
podobieństwa omawianego procesu do odszyfrowania depeszy, kiedy metodą prób i błędów
można w końcu ustalić prawidłowe cyfry. Zdaniem Kartezjusza hipoteza powinna być
oceniana według użyteczności wniosków, które można z niej wysnuć.
Myśl tę wyraziła współcześnie Dorothy Sayers. Posłuchajmy lorda Petera Wimseya:
„ Zawsze ustanawiam regułę badania wszystkiego, czym chętnie się zajmuję... ale oto mój
prawdziwy przyjaciel — detektyw inspektor Parker ze Scotland Yardu. Tylko on naprawdę
pracuje. Ja wysuwam głupawe hipotezy, a on dokłada starań, by je odrzucić. Po
przeprowadzeniu ścisłej selekcji znajdujemy prawidłowe wyjaśnienie i wówczas świat mówi:
»Mój Boże, cóż za intuicję ma ten młody człowiek!« "
O metodzie Wimseya, która odniosła taki sukces, wolno sądzić, iż nie nadaje się do niczego
innego niż do eksperymentów z małpami. Gdyby zasiadły one do komputerowych edytorów
tekstów, uderzając w klawisze na chybił trafił, wówczas po jakimś czasie, przy założeniu, że
potrafiłyby rozpoznać dobre i ważne pomysły, na ekranach monitorów pojawiłyby się takie
teorie naukowe, jak teoria ewolucji, mechanika Newtona, teoria względności i inne. Ta metoda
nie daje żadnej możliwości wglądu w sposób wytwarzania idei, ponieważ problem tkwi w
pochodzeniu przypadkowych koncepcji, w pytaniu, czy są one naprawdę przypadkowe i czy
twórcze myślenie nie polega jedynie na wytwarzaniu samych wariantów? Niemądre to
przekonanie, że jedna myśl nie ma odpowiednika w innej, a każdy pomysł posiada równe
szansę rozwoju. Dobry naukowiec potrafi opracowywać nowe warianty. We wszystkich
gałęziach nauki istnieje sporo zagadnień, które trzeba poznać głębiej, żeby postawić właściwe
pytania, zanim będzie mogło na nie odpowiedzieć pokolenie awangardzistów. Liczba kompe-
tentnych uczonych zajmujących się daną dyscypliną wiedzy jest przypuszczalnie mała: istnieje
silna selekcja, zanim jeszcze ktoś wkroczy na dany obszar twórczości. Talent, dar, geniusz
ludzi nauki pozwalają właściwie zrozumieć aktualny stan danej dyscypliny naukowej, a nastę-
pnie rozpoznać, jakie problemy mogą zostać rozwiązane, i wreszcie
stworzyć nowe koncepcje. Pomysły nie pojawiają się przypadkiem, ale trudno powiedzieć, czy
jednocześnie nie przyczyniają się do odkrycia szerokiego kręgu nowych idei, nawet takich,
które na pierwszy rzut oka wydają się absurdalne. Najbardziej oryginalne rozwiązania
powstają w środowisku wybitnych uczonych. Analogię znajdziemy zapewne w szachach - w
wyborze właściwej koncepcji gry na wiele ruchów naprzód: niesłuszny jest wniosek, że mistrz
szachowy - tak jak nie dokończony program komputerowy - odnajduje właściwe rozwiązanie
przypadkiem.
Kiedyś usuniemy z operacji tworzenia nowych myśli przypadkowe składniki, możemy
jednak zaprzepaścić śmiałe domysły, które później mogłyby zostać potwierdzone lub
zdyskwalifikowane. Oto wspomnienia biologa molekularnego, Sydneya Brennera:
„ Przez dwadzieścia lat dzieliłem biuro z Francisem Crickiem i ustaliliśmy, że możemy
powiedzieć wszystko, co przychodzi nam do głowy. Teraz większość tamtych rozmów jawi mi
się jako całkowity nonsens. Ale co jakiś czas na wpoi ukształtowany pomysł mógł przejąć ktoś
inny i naprawdę go dopracować. Sądzę, że ogromna liczba dobrych rzeczy, które wymyśliliśmy,
narodziła się podczas tamtych zwariowanych posiedzeń. Na tym czy innym etapie życia
przekonywaliśmy się wzajemnie do teorii, które nigdy nie ujrzały światła dziennego... Mam na
myśli rzeczy całkowicie szalone ".
Fizyk Richard Feynman przedstawiał naukę jako rozwiązywanie zagadek:
„ Na ogól poszukujemy nowego prawa według następującej procedury. Najpierw zgadujemy.
Potem obliczamy wyniki zagadek, aby sprawdzić, co by to oznaczało, gdyby prawo, które
odgadliśmy, okazało się prawdziwe... Jeśli nie zgadza się ono z doświadczeniem, jest
nieprawdziwe. W tej prostej wypowiedzi tkwi klucz do badań naukowych... Bez względu na to,
jak bardzo uprzejmie się zachowuje i jak wielkie nazwisko nosi ten, kto zgaduje - prawo
niezgodne z doświadczeniem jest nieprawdziwe. To prawda, że rozwiązanie należy sprawdzić,
aby nabrać pewności, że tak jest w istocie... "
Nie należy się wstydzić popełnionego błędu, chociaż doznaje się wówczas uczucia
rozczarowania. Feynman zdaje się nie dostrzegać, że
niektóre zagadki są o wiele trudniejsze od innych i bagatelizuje wpływ pracy doświadczalnej.
Niezależnie od przedstawionych poniżej niedostatków, jego metoda jest podobna do
zastosowanej przez Newtona.
Analiza metod badawczych Newtona wykazała, że odpowiadaj ą one modelowi zgadywania
Feynmana. Sposób postępowania opisany w dziele Newtona „Philosophiae Naturalis Principia
Mathematica" implikuje przemienność dwóch faz badań. W pierwszej przy użyciu technik
matematycznych wyprowadza się wnioski dotyczące znaczenia wyobrażonych operacji. W
drugiej fazie badań fizykalny odpowiednik założeń porównujemy z wynikami obserwacji
natury. Pierwsze stadium odrzuca wszelkie ograniczenia - Newton mógł badać znaczenia wszy-
stkich działań, które uznał za interesujące z punktu widzenia matematyki. Analizował
konsekwencje ruchu planet bez skupiania uwagi na naturze sił powszechnego ciążenia zgodnie
z hipotezą Hooke'a, że ciała przyciągają się nawzajem. Dopiero później opracował mechanikę
ciał niebieskich i zajął się zagadnieniem sił.
Można by wysunąć przypuszczenie, że śmiałe, nieskrępowane myślenie jest procesem,
którego nie można poznać. Bez odpowiedzi pozostaje także pytanie, skąd pochodzą
wyobrażone idee. Mimo to powinniśmy przynajmniej obalić niesłuszny pogląd, że metoda
naukowa to jedynie cierpliwe gromadzenie faktów i nudnych obserwacji. Wielkie zasługi
położył w tej dziedzinie filozof Kari Popper, który podkreślał innowacyjny charakter myślenia
naukowego.
Przeciwnicy rozumienia nauki jako uświadomionego zgadywania za charakterystyczną jej
cechę uznają niespodziewaną, nieuświadomioną iluminację. Klasyczny przykład podał
Poincare, opowiadając o rozwiązaniu pewnego matematycznego problemu:
„ Zacząłem wtedy poszukiwać odpowiedzi na pewne arytmetyczne pytania, bez wiary w
powodzenie i nie spodziewając się, że mają one związek z moimi poprzednimi badaniami.
Rozgoryczony niepowodzeniami, spędziłem kilka dni nad morzem, rozmyślając o czymś
zupełnie innym. Pewnego ranka podczas spaceru nad urwiskiem przeniknęła mnie z
charakterystyczną krótkością, nagłością i natychmiastową pewnością myśl, że przekształcenia
arytmetyczne nieokreślonych trójmianów...
form kwadratowych są identyczne z formami geometrii nieeuklidesowej".
Tak oto uczyniono poważny postęp w naukach matematycznych. O podobnych przeżyciach
opowiadał angielski matematyk Christopher Zeeman. Po siedmiu latach poszukiwań dowodu
topologicznego twierdzenia, za którego pomocą można było połączyć pewną sferą w węzeł o
pięciu wymiarach, wydarzyło się nagle, co następuje:
„Pewnego sobotniego ranka pomyślałem: Spróbuję inaczej rozwiązać ten cholerny problem. I
cóż, ku swojemu zdziwieniu spostrzegłem nagle, że udowodniłem cos zupełnie przeciwnego...
poczułem się tak podniecony, że cały weekend spędziłem na opisaniu odbycia. Wyszło tego ze
dwadzieścia kilka stron. Potem, już późną nocą, poszedłem do ubikacji i tam autentyczny błysk
natchnienia uderzył mnie jak bomba. Zrozumiałem w jednej chwili, jak zmniejszyć dowód z
dwudziestu stron do dziesięciu linii".
Nagłe intuicje miewali nie tylko matematycy. „Oglądałem jakiś film bez znaczenia. Opadłem
na fotel i mgliście uświadamiam sobie związki między poszczególnymi obrazami... Ogarnia
mnie nagłe podniecenie zmieszane z niewyobrażalną przyjemnością. Odrywa mnie ono od te-
atru, od moich sąsiadów, którzy wpatrują się w ekran. I nagle błysk. Zdziwienie tym, co
oczywiste. Jakże mogłem nie pomyśleć o tym wcześniej?" Oto w jakich okolicznościach nagłe
olśnienie pojawiło się w myślach laureata Nagrody Nobla, Francoisa Jacoba, który odkrył, że
synteza enzymów u bakterii jest wykorzystywana do replikacji bakteriofagów; oba te procesy
są kontrolowane przez specjalne molekularne wiązanie DNA.
Kiedy mówimy o intrygującym, choć świadomym procesie wytwarzania idei, który kojarzy
się z romantycznym kręgiem artystycznych geniuszy w stylu Coleridge'a, możemy odnieść
mylne wrażenie, że przebadano już i zweryfikowano wiele obrazów i asocjacji myślowych,
które mimowolnie pojawiają się w podświadomości. Tymczasem jest inaczej. Czy jest jakiś
dowód na to, że niezwykłe pomysły przychodzą nam do głowy poprzez podświadomość?
Nagłą iluminację poprzedza długi okres intensywnych, świadomych badań. Kiedy pragniemy
wy
tchnienia, kiedy ogarnia nas chęć podjęcia pracy od początku, ulec możemy złudzeniu
bliskości nagłego odkrycia, gdyż w takim momencie nasze umysły potrafią operować jedynie
kilkoma pojęciami. Jeżeli człowiek rozwiązujący problem przez pewien czas od niego
odpoczywa, może zapomnieć informację przechowywaną w pamięci krótkotrwałej, nie
stwierdzono jednak, że przyczynia się ona do poprawnego rozwiązania zagadki. Kiedy
powraca się do problemu, można podążać zupełnie inną ścieżką. Z tego właśnie powodu budzi
wątpliwości opowieść Coleridge'a o procesie tworzenia „Kubła Khana". Angielski romantyk
pisał go, jak wspomina, w opiumowym transie zakłóconym przez przybysza z Porlock, który
chciał porozmawiać o interesach. Kekule z kolei opowiadał o śnie, w którym węże gryzą się w
ogony. Sen ten doprowadził ponoć do odkrycia sześcioczłonowego pierścienia benzenu, bardzo
istotnego dla chemii, lecz związek między snem a odkryciem jest być może mniejszy, niżby
Kekule pragnął nam zasugerować. Jego zalecenie „Nauczmy się marzyć, panowie" wolno
uznać za niezbyt mądrą radę, w wypadku takich odkryć, które są dalekie od typowych i zależą
niezmiennie od ogromu wykonanej pracy i mozołu wcześniejszych przygotowań. Gdy na
przykład Crick i Watson badali strukturę DNA, rozwiązanie pojawiło się jako uwieńczenie
długiego procesu ciężkich zmagań. Wielu innych wynalazków dokonano w mniej
dramatycznych okolicznościach.
W dziejach nauki Poincare wsławił się tym, że sporo rozmyślał o naturze twórczości.
Zaproponowany przez niego schemat odkrycia naukowego obejmował następujące stadia:
świadomą pracę, pracę nie uświadamianą, iluminację (gdy dochodzimy do odkrycia) i w końcu
jego „weryfikację". Autor przyznawał, że to, co nazywa pracą nie uświadamianą, zawsze
poprzedzają okresy zajęć świadomych. Wierzył również niezachwianie w przynależność
pokoleniową i selekcję twórców nauki. Zapytano go jednak słusznie, w jaki sposób
przeprowadza się selekcję, jeśli proces twórczy jest nie uświadomiony? Odpowiedź Poincarego
nie może nikogo zadowolić, gdyż mówi o „intuicji", sterującej rzekomo wyborami uczonego w
niezwykle subtelny i delikatny sposób. Same wybory należeć mają raczej do sfery przeżyć niż
zracjonalizowanej ekspresji słownej, a francuski matematyk, fizyk i filozof w jednej osobie te
same przeżycia odnosił do odczucia piękna.
Wielu uczonych nadawało wielkie znaczenie podświadomości, a dziewiętnastowieczny fizyk
niemiecki von Helmholtz cytował słowa Goethego:
Czego się nie wie Lub nie ma na myśli Po nocy bladzi Labiryntami umysłu.
Trudno powstrzymać się od komentarza, że intuicja (i wszystko, co nieświadome),
pojmowana w duchu Poincarego, przypomina czarną skrzynkę zawierającą proces twórczy, o
którego działaniu nic jednak nie wiemy. Niestety, psychologia poznawcza ze swoim
charakterystycznym uwydatnieniem znaczenia sieci i programów komputerowych przestaje
być w tym porządku myślenia użyteczna. Nie należy jednak mylić intuicji twórczej, o której
mówiliśmy, z intuicją wykorzystywaną w życiu codziennym. Einstein zauważył na przykład,
że intuicja naukowa polega na sformalizowanym poznawaniu tego, co można uznać za istotne i
godne zaufania. Jej zdroworozsądkowa odmiana to zjawisko całkowicie odmienne. Chociaż
obie opierają się na doświadczeniu, jego natura jest różna. Intuicja naukowa nie odnosi się do
doświadczenia zdroworozsądkowego, ale do ogromnego kapitału specjalistycznej wiedzy,
którą uczony zdobył wcześniej; obejmuje wiadomości o naukowych sposobach rozwiązywania
problemów, o oczekiwaniach, które teoria ma spełnić, wreszcie - o możliwościach rozwikłania
danego problemu. Jakże mocne wyczucie własnych możliwości posiadał Einstein, iż
zrezygnował z kariery matematyka: wiedział, że nie ma „nosa", aby rozstrzygnąć, które
problemy są w tej dziedzinie naprawdę ważne.
Przeciwieństwem tezy o wyobrażeniowo-artystycznej metodzie naukowego badania procesu
twórczego jest koncepcja laureata Nagrody Nobla, Herberta Simona i jego kolegów. Sądzą oni,
że naukę można tworzyć za pomocą programów komputerowych: nie ma tym samym
istotnej różnicy między dziełem „genialnego" naukowca a dokonaniami uczonych o
mniejszych zdolnościach, idea twórczości naukowej jest więc mitem. Według Simona i jego
kolegów proces wynalazczy można opisać i modelować.
Zgodnie z hipotezą wspomnianej grupy, badania naukowe należy rozpatrywać jako
szczególny rodzaj mechanizmów biorących udział w rozwiązywaniu problemów. Badacze ci
uznają naukę za działalność społeczną, a także - ponieważ jej cele w początkowym stadium
rozwiązania zagadnienia nie są zwykle jasno określone - potrafią określić, co odróżnia ją od
zwykłego rozstrzygania problemów: odkrywanie ich i wyrażanie w precyzyjnej formie okazuje
się integralną jej częścią. W psychologii poznawczej przeciwnie - proces rozwiązywania
problemów rozpatruje się jako tworzenie ich symbolicznej ekspresji. Rozwiązań nie poszukuje
się metodą prób i błędów, lecz heurystycznie -opierając się na praktyce. Istnieje na przykład 50
bilionów bilionów (50 x l O18) możliwych układów dziesiętnych na tarczy zamka szyfrowego
sejfu, jeśli każdy z nich ponumerować od O do 99, ale trzask zamka w momencie zbliżania się
do prawidłowego układu zmniejsza liczbę prób otwarcia sejfu do około pięciuset. Wybitni
uczeni funkcjonują podobnie - posiadają po prostu lepiej rozwiniętą Jleurystykę i nie potrze-
bują „intuicji".
Simon i jego współpracownicy postawili sobie za cel układanie programów komputerowych z
zastosowaniem własnych metod rozwiązywania problemów, programów, za których pomocą
można dokonywać odkryć w wielu dziedzinach. Słowo „odkrycie" nie jest tu najwłaściwsze,
ponieważ uczeni ci nie wymyślali niczego nowego; zademonstrowali jedynie działanie
programu, który potrafi sformułować prawo powszechnego ciążenia na podstawie informacji
dostępnych Newtonowi albo stałą Plancka - zasadniczą wielkość w mechanice kwantowej
-korzystając z informacji, do których miał dostęp odkrywca, tak więc wszystkie te
informatyczne manewry dotyczą wiedzy już ugruntowanej.
Wykryte prawo powinno zgadzać się z danymi - błąd nie może wynosić więcej niż 3 procent -
takie kryterium proponowali przyjąć programiści z zespołu Simona. Członkowie tej grupy
twierdzą, że uogólnienie, które komputer znajduje dopasowując dane, nigdy nie będzie
odkrywcze. Metoda ta pomaga eliminować małe błędy i przede wszystkim ogarniać całość
zagadnienia. Weryfikacja procedur badawczych nie powinna dawać naukowcom niezachwianej
pewności czy poczucia, że dokonali niezwykłego odkrycia, lecz informować o ryzyku, które
ponoszą, formułując hipotezy, wreszcie - dostarczać wskazówek zwiększających szansę na
nowe osiągnięcia.
Chociaż programy komputerowe wspomnianej grupy mogły z powodzeniem znaleźć
praktyczne zastosowanie, poddano je krytyce, która jednak nie doprowadziła do wyjaśnienia
ich budowy: programiści sami przecież znają odpowiedź. Programy nie dokonują nowatorskich
odkryć. Poważniejszy zarzut przeciwko nim wynika natomiast z założenia, że realizacja
projektu naukowego obejmuje o wiele więcej działań niż tylko rozwiązywanie problemów:
zbieranie danych, ich opis, tworzenie i weryfikacja teorii. Programy komputerowe nie są w
stanie wynaleźć nowych narzędzi badawczych: ich działanie polega wyłącznie na
„wyprowadzaniu z konkretnych danych teorii opisowych i wyjaśniających". Chociaż potrafią
docenić znaczenie prawidłowego sformułowania problemów, sugerują, że poza różnorodnością
sposobów ich rozwiązywania nic więcej nie istnieje, a jest to twierdzenie dyskusyjne.
Przytoczmy tylko jeden przykład: na odkrycie teorii względności przez Einsteina bezpośredni
wpływ wywarło sformułowanie następującego problemu: jakie byłyby konsekwencje
poruszania się wzdłuż fali światła obiektu, który następnie dopędziłby znajdujący się na tej fali
wybrany punkt? Komputery nie mogłyby „wydumać" czegoś podobnego.
Istotną sprawą jest również wybór problemu. Jak stwierdził laureat Nagrody Nobla, Peter
Medawar, nauka jest „sztuką rozwiązywania", a jej ważną częścią pozostaje wybór
zagadnienia, które można rozwiązać. Doskonale zrozumiał to Francis Crick, analizując budowę
białka. Początek biologii molekularnej doprowadził do hipotezy, że o właściwościach białka
(rozdział I) decyduje ukształtowane przez DNA następstwo aminokwasów. I chociaż proteiny
zsyntetyzowano jako linearny
łańcuch aminokwasów, samoistnie zwija się on w bardziej złożone formy. Trójwymiarowa
forma przybrana przez ów łańcuch decyduje o właściwym funkcjonowaniu białek. Ich
poszczególne właściwości także wynikają z formy łańcuchów, która daje każdemu z nich
jedyną w swoim rodzaju konfigurację i określa jego funkcję. Chociaż znajomość następstwa
aminokwasów właściwie wystarczyła do sprecyzowania budowy zwiniętej struktury, dotąd nie
zostało to zbadane. Nie potrafimy także przewidzieć jej samej na podstawie następstwa amino-
kwasów. Crick i jego koledzy postanowili nie zajmować się problemem zwijania się białek,
chociaż powinien on stanowić następny krok w badaniach. Niezwykle trudno ocenić, czy mieli
rację, ponieważ jeszcze trzydzieści lat później porzucony problem nie był w pełni
rozstrzygnięty.
Inny aspekt rozwiązywania problemów, którego uwzględnienie w komputerowym programie
wydaje się niemożliwe, stanowi wybór chwili, w której należy zacząć opracowywanie
doświadczalnych danych. Mamy skłonności do formułowania ogólnikowych założeń, które
łagodzą ostrość problemu i zwiększają ryzyko, że uprościmy i tym samym pomniejszymy
wartość rozwiązania. Nadto należy sobie uświadomić, kiedy zakończyć pracę nad problemem
lub porzucić jakąś szczegółową linię badań. Niweczy się w ten sposób wielki wysiłek włożony
w zgłębianie nowych zagadnień, co może okazać się bolesne.
Bez względu na to, czy metoda rozwiązywania problemu opracowana przez Simona jest
prawidłowa, a osobiście w to wątpię, nasuwa ona istotną myśl, że przynajmniej jedno stadium
rozumowania naukowego pozostaje w ścisłym związku z rozwiązywaniem problemów tak
ustrukturowanych, że można je naśladować w programach komputerowych. Stanowi to
również przejaw nienaturalnej natury nauki, ponieważ programy komputerowe, których
używają Simon i jego koledzy, są zupełnym przeciwieństwem myślenia zdroworozsądkowego.
Komputery w ogóle bardzo źle naśladują zdrowy rozsądek i takie ludzkie działania, jak
rozpoznawanie odręcznego pisma, a gdy to już się im uda, robią użytek z zupełnie innych
mechanizmów niż nasze mózgi. Jakiekolwiek jednak talenty posiadałyby komputery, nie
dorównują ludzkiemu geniuszowi.
Genialność fascynuje, wszak czyni z niektórych uczonych półbogów w oczach innych
naukowców, ale jej natura wciąż pozostaje tajemnicza. Doceniany zazwyczaj po pewnym
czasie geniusz naukowy wywiera ogromny wpływ na współczesne i przyszłe pokolenia.
Niezależnie od tego, czy został nim okrzyknięty słusznie, czy nie, każdy uczony szybko
rozpoznaje liderów i prawdziwe talenty - wybitne jednostki są często szybsze, bardziej
pracowite, potrafią się lepiej wysławiać, liczą szybciej albo posiadają przynajmniej niektóre z
tych przymiotów.
Geniusz naukowy daje się poznać także poprzez cechy przywódcze i ogromny wpływ tak na
współczesne, jak i na przyszłe pokolenia. Newton, Darwin i Einstein na pewno zasługują na to
miano. Geniusza nagradza się wielkimi zaszczytami i rozgłosem, co odzwierciedla jego wkład
w poznanie natury świata. Pojawiają się czasem próby interpretacji (rozdział VI) „genialności"
jako wytworu sil społecznych, które rozstrzygają, kogo nagradzać, ale chociaż o geniuszu
decyduje z pewnością jakiś element uznania społecznego, pozostaje on zawsze zjawiskiem
obiektywnym. I chociaż potrafimy się spierać, czy ktoś jest obdarzony nadzwyczajnym
talentem, rozpoznanie wybitnych reprezentantów jakiejś dziedziny wiedzy przychodzi nam z
niesłychaną trudnością.
Geniusz naukowy różni się diametralnie od artystycznego. W historii jego istnienie okazuje
się niekonieczne: wszystkie odkrycia i tak zapewne zostaną dokonane, gdyż nauka jest
wysiłkiem grupy ludzi i liczy się w niej czas, środki finansowe oraz doświadczona i
zaangażowana w jej sprawy społeczność. Hipoteza Ortegi, którą omawiam w dalszej części
książki, zakłada, że nauki eksperymentalne rozwinęły się głównie dzięki pracy ludzi o średnim
talencie.
Odkrycia i postęp w nauce nie muszą zależeć od jednej osoby: jeśli nie Newton, to wielu
innych opracowałoby znane nam prawa; jeśli nie Einstein, wówczas X, Y i Z... Do celu można
dochodzić różnymi drogami, ale rezultat będzie najprawdopodobniej ten sam. Zupełnie inaczej
niż w wypadku „Hamleta" czy „Cosi fan tutte" - Szekspir i Mozart nie mają sobie równych.
Wypowiedź Franęoisa Jacoba przedstawia zresztą jeszcze inne osobliwe cechy naukowego
geniusza:
„ Wielki człowiek nauki przede wszystkim wie, jak we właściwym momencie sformułować
najistotniejsze problemy, gdy jest szansa na ich rozwiązanie. On jedynie wie, jak zorganizować
pracę zespołowa, jak spośród gromady uczniów wybrać najzdolniejszych sukcesorów i kon-
tynuatorów rozpoczętego dzieła... "
Zgodzimy się, że nie jest to charakterystyka Szekspira, Mozarta czy Picassa.
Psycholog Howard Gruber zastanawiał się, w jaki sposób dziecięce talenty przekształcają się
w oryginalną twórczość. Osądził, iż Thomas Henry Huxley był wszechstronniej uzdolniony niż
współczesny mu Darwin, a komisja, która oceniałaby ich wczesne projekty badawcze
-Huxleya, związany z rejsem Rattiesnake, oraz koncepcję podróży Dar-wina na Beagle -
dałaby pierwszeństwo Huxleyowi. Kiedy usłyszał o teorii Darwina, oświadczył: „Dlaczego o
tym nie pomyślałem?" Właśnie, dlaczego? Najprawdopodobniej to samo pytanie można zadać
wielu innym ludziom. Gruber odpowiada na nie następująco: otwartość - wielka, niewyrażalna
wrażliwość młodego Darwina na świat przyniosła lepsze rezultaty niż podejście analityczne
Huxleya. Nie jest to jednak uniwersalna formuła sukcesu. A na czym polega różnica pomiędzy
talentem a oryginalnością?
Rozprawy na temat utalentowanych dzieci kreślą portrety osobników o chłonnej,
niezawodnej pamięci. O wiele jednak ważniejsze ich cechy to metaświadomość
(metacognition) i metapamięć (metamemo-ry). Pierwsza z nich odnosi się do jednostkowej
świadomości procesów myślowych i z założenia ma decydujące znaczenie przy wyborze i
wprowadzaniu w życie strategii rozwiązania problemu. Metapamięć jest składnikiem
metaświadomości i dotyczy samowiedzy, w tym wypadku systemu pamięciowego jednostki.
Wybitnie uzdolnione dzieci, jak zauważono, miały głęboką świadomość własnych strategii
pamięciowych, takich jak zainteresowanie tematem czy rozmaite asocjacje myślowe.
Osiągający sukcesy naukowcy także posiadają samoświadomość -jest to jedna z ich najbardziej
charakterystycznych cech.
Analizy umysłowości wybitnie utalentowanych szachistów pozwalają objaśnić niektóre
aspekty zdolności naukowych. Kiedy porównywa-
no wielkich mistrzów szachowych z wybitnymi teoretykami tej dziedziny, okazało się, że nie
ma między nimi żadnej różnicy w podejściu do problemów, a także pod względem
umiejętności ich rozwiązania. Tego rodzaju dysproporcje powstają na skutek motywacji,
charakteru i wiedzy. Mistrz szachowy uzyskuje gruntowną wiedzę podczas tysięcy godzin gry i
studiów. Trzeba pasji i dyscypliny, by poświęcić jednej sprawie tak wiele czasu i energii, a to
sprawa charakteru. Wśród wybitnie utalentowanych naukowców istnieje silna potrzeba prawdy
- są oni ludźmi o ogromnej witalności; zdolni do poświęcenia i gotowi do odważnych działań,
mają „charakter" i potrafią niezmordowanie pracować nad rozwiązaniem problemu.
Okrzyk „Eureka!" ludzie wydają rzadziej, niż się powszechnie przypuszcza, ale mimo to
rozlega się poprzez wieki. Sugeruje, że rozwiązanie naukowego problemu nadchodzi w
momencie olśnienia. Ktoś, kto w to wierzy, lekceważy powolny i często bolesny proces
rozwojowy, począwszy od sformułowania problemu, przez fałszywe hipotezy, na upragnionej
chwili rozwiązania skończywszy.
Czynniki te zostały skondensowane jak w pigułce w odpowiedzi Newtona na pytanie, jak
odkrył prawo grawitacji: „Myślałem o nim stale". Gruber sądzi, że nauka i wielka twórczość w
ogóle funkcjonuje w rozległej skali czasowej - minęło wiele lat, nim rozwinięto pomysły
Newtona, Darwina i Einsteina. Jeśli istnieje jakiś oślepiający błysk, jakaś „Eureka!", nie
powinniśmy zapominać o poprzedzających ją „latach" rozmyślań. Czyż naprawdę są one mniej
ważne? Upłynie wiele czasu, zanim ludzie ostatecznie rozwiążą jakieś zagadnienie i to właśnie
stanowi charakterystyczną- niemal definicyjną- cechę nauki. Powodem tego stanu rzeczy są po
części trudności, które tkwią w samym problemie, ale także fakt, iż nauka ma charakter
społeczny i trzeba znać stan dotychczasowych badań, aby zasymilować najnowszą wiedzę.
Wybitnych uczonych, co odnotowaliśmy już w związku z Crickiem, wyróżnia zdolność
rozpoznawania, które problemy warto rozwiązywać, które świadectwa i pomysły
zaakceptować, a które odrzucić. Kwestionowanie obowiązujących, utrwalonych poglądów na
świat może okazać się niezwykle trudnym zadaniem, podobnie jak osąd danych
doświadczalnych: Francis Crick wykazał, że teoria, która pasuje do wszystkich faktów, jest z
pewnością fałszywa, ponieważ niektóre fakty błędnie ukazują rzeczywistość (zob. rozdział I).
Przeprowadzone przez Grubera szczegółowe badanie genezy pomysłów Darwina na temat
ewolucji okazało się wnikliwą analizą roli przypadku w nauce. Jeden z pierwszych ambitnych
projektów Darwina nie dotyczył wcale ewolucji w świecie zwierząt, ale problemu geologicz-
nego - narastania raf koralowych. Podczas pobytu na zachodnim wybrzeżu Ameryki
Południowej w roku 1835 Darwin wyraził przekonanie, że powstały one na skutek
pączkowania korali przy równoczesnym pogrążaniu się lądu w wodzie. Zagadnienie to wiąże
się z ewolucją w tym sensie, że stawia pytanie, co hamuje wzrost koralowców - nie egzystują
one poniżej określonej głębokości - i że wyjaśnia przyczynę stałego rozwoju różnorodnych
form jamochłonów na wyspach koralowych.
Podzielamy zdziwienie Grubera, że pierwsza wersja teorii ewolucji zwierząt zmierzała do
celu zawiłymi ścieżkami. Aby wyjaśnić przemiany gatunków, ich zdolność przystosowania się
do otoczenia, wreszcie -trwanie niektórych z nich bez widocznych zmian Darwin powołał się
na wyłanianie się w poszczególnych pokoleniach pojedynczych form życia, zwanych
monadami. Monady, wyjaśniał, rozwijają się wskutek bezpośredniego oddziaływania
warunków zewnętrznych, ale mają ograniczoną przestrzeń życiową, tak więc gatunki, którym
dały początek, po pewnym czasie giną.
Zrozumieć tę na pozór absurdalną myśl możemy jedynie wtedy, kiedy przyjmiemy, że
gatunki żyją w określonym czasie. Twierdzono, że każdy z nich posiada własną,
niepowtarzalną istotę, i trudno było sobie wyobrazić, żeby mogła ona ulec zmianie lub
podlegać ewolucji. Koncepcje geologa Charlesa Lyella (1797 - 1875), który znacznie wpłynął
na Darwina, ilustrują to bardzo wyraźnie. Lyell nie mógł zrozumieć, że jeden gatunek może
przeobrazić się w inny. A jeżeli badacz, któremu myślenie ewolucyjne było bliskie, nie mógł
sobie tego uświadomić, o ileż bardziej było to nie do przyjęcia dla jego poprzedników, na przy-
kład Lamarcka. Lyell krytykował szczególnie ostro jego poglądy na te-
mat postępu dążącego do doskonałości. Zdawał sobie sprawę, że gatunki stanowią klucz do
zagadki ewolucji i zastanawiał się, dlaczego powstają i wymierają, nie czyniąc postępu. W
odróżnieniu od Lamarcka stawiał hipotezę, że dzieje się to nie na skutek czynników fizycznych
i nie z powodu współzawodnictwa z innymi gatunkami. O pochodzeniu nowych gatunków
powiedział po prostu: „Gatunki powstawały sukcesywnie w takich epokach i w takich
miejscach, w których należące do nich osobniki mogły rozmnażać się i przetrwać..." Doktryna
ta zainspirowała Darwina przy tworzeniu koncepcji monad, chociaż w późniejszym okresie
autor rozprawy „O pochodzeniu gatunków" (Origin of Species) wiele wysiłku włożył w
zanegowanie idei Lyella.
Można by zapewne stworzyć programy komputerowe, które ukazywałyby dzieje teorii
ewolucji przez dobór naturalny - mądrość po szkodzie wypada efektownie - nie
uwzględniałyby jednak one żadnych paradygmatów czy idei epoki, takich jak na przykład myśl
o niezmienności gatunków. Trudno zrozumieć, jak ciężko obalić obowiązujące teorie.
Sam tytuł notatnika, w którym Darwin w lipcu 1837 roku po raz pierwszy zapisał teorię
ewolucji, okazał się w gruncie rzeczy objawieniem - „Przeobrażanie się gatunków"
(Transmutation ofSpecies). Na początku czytamy: „Każdy gatunek ulega przemianie... Prosta
forma nie może uniknąć przemiany w bardziej złożoną".
Do nowej wersji teorii monad Darwin wprowadził rozstrzygającą innowację: ideę
rozgałęzionej ewolucji, drzewa życia: „Istoty zorganizowane tworzą nieregularnie rozgałęzione
drzewo". Ów model jednak zakładał jednoczesne wymieranie wielu gatunków, czego nie
można było udowodnić. Dlatego Darwin zaczął się zastanawiać, czy długość życia monad się
zmienia, ale szybko zrozumiał słabe strony swej idei i do września 1837 umarła ona śmiercią
naturalną. Oznaczało to zaniechanie dalszych badań pochodzenia życia, co ogromnie
upraszczało wiele zawiłych kwestii. Darwin wyjaśnił tę decyzję latem 1838, gdy zakazał sobie
prób analizowania odległych czasowo spraw, jeśli bowiem cofnie się wskazówki zegara, trzeba
będzie pokazać, jak kształtowało
się pierwsze oko -jak jeden z nerwów stał się bardziej wrażliwy na światło... a to jest
niemożliwe".
W obrazie rozgałęzionego drzewa różnicowanie się gatunków to wynik dziedzicznej
skłonności do rozwoju, a jednak Darwin zdawał sobie sprawę, że w ten sposób nie wyjaśnia
samego mechanizmu ewolucji. W gruncie rzeczy przyczyny zróżnicowania form wciąż
pozostawały zagadką, ponieważ genetyka była jeszcze w powijakach. Nie znano powodów
różnicowania się wielkości i kształtu zwierząt. Darwin uświadamiał sobie tę lukę i okazał
wielką intelektualną odwagę - Gruber nazywa ją heroiczną- gdy zasadniczym elementem swej
teorii uczynił mechanizm przekształceń, którego implikacji nie umiał wyjaśnić. Posunął jednak
teorię ewolucji w kierunku wytyczonym przez Lamarcka, według którego nabyte cechy w
zasadzie mogą być dziedziczone.
Darwin znalazł się niemal w takiej samej sytuacji jak Newton, który także bronił tezy o
siłach powszechnego ciążenia, nie znając zasady ich działania. Porwani przez nurt faktów, obaj
ci badacze musieli się przekonać, że nie są w stanie wszystkiego objaśnić. Charakterystyczną
cechą wielkich naukowców bywa właśnie to, że potrafią powziąć decyzję, co uznać, a co
porzucić.
W słynnej notatce z 1836 roku Darwin daje wyraz ostatecznemu zwątpieniu w niezmienność
gatunków: „Kiedy widzę wyspy, położone względem siebie w zasięgu wzroku, które posiadaj ą
ubogi zwierzostan, złożony z ptaków niewiele różniących się pod względem budowy, a
zajmujących to samo miejsce w Naturze, podejrzewam, że są to tylko odmiany... takie właśnie
fakty osłabiają wiarę w niezmienność gatunków". Podobną myśl znajdziemy na początku
pierwszej wersji książki „Przeobrażenie się gatunków" (Transmutation ofSpecies): „Zgodnie z
tym przekonaniem zwierzęta żyjące na osobnych wyspach powinny się różnicować, gdy
dostatecznie długo przebywają w izolacji..." Dopiero w marcu 1837 roku Darwin w pełni
docenił znaczenie fauny wyspiarskiej. Ornitolog, John Gould, pokazał mu swą kolekcję i
opowiedział o zróżnicowaniu kolibrów pochodzących z trzech wysp archipelagu Galapagos.
Darwin pozostawał wówczas pod wrażeniem książki przytaczającej dowody, że
mikroorganizmy mogą rozmnażać się niezwykle szybko. Kilka dni później przeczytał „Esej o
zaludnieniu" (Essay on Population) Malthusa, ukazujący w jaskrawym świetle ogromną
zupełnie niekontrolowaną nadproduktywność przyrody: „Od razu zorientowałem się, że
osobniki o cechach korzystnych w stosunku do środowiska mają największą szansę przeżycia,
natomiast gorzej przystosowane muszą zginąć. Efektem tej selekcji są nowe gatunki". Tak oto
narodziła się teoria ewolucji przez dobór naturalny. Praca Malthusa pozwoliła Darwinowi
pojąć, że dobór naturalny polega nie tylko na odrzucaniu osobników źle przystosowanych, ale
faworyzuje także odmiany przystosowujące się lepiej niż inne.
Rzecz zrozumiała, Darwin potrzebował na opracowanie swej teorii wiele czasu, podążał też
niejednym fałszywym tropem. Budowanie i formułowanie teorii wymagało dobrej zdolności
oceny stanu badań, wielkiej wytrwałości, odwagi intelektualnej i wreszcie - geniuszu. Ścieżka
prowadząca do rozwiązania nie biegła prosto.
Gruber dowodzi, że „realizowanie najtrudniejszych zadań nie może obejść się bez
najwyższych aspiracji i w konsekwencji stawia strukturę ego w sytuacji stresującej". W
psychice człowieka rodzi się poczucie szczególnej misji, wzrasta odwaga w zmaganiu się z
bardzo trudnym zagadnieniem - czym się wykaże, jeśli plan zawiedzie, okaże się błędny.
Prawdopodobnie można dać wiele przykładów takiego rozumowania, ale większość
naukowców przyjmuje bardziej bezpieczną strategię - że podczas badań pojawi się coś
pozytywnego, cokolwiek. Gdyby Watsonowi i Crickowi nie powiodła się próba określenia
struktury DNA, ich wspólny wysiłek przyniósłby niewielkie efekty.
Innym przykładem są badania amerykańskiego mikrobiologa Marka Ptashne nad regulatorem
białka. W 1965 roku dwudziestopięcioletni naukowiec zdecydował się na wyodrębnienie
głównego regulatora białka, co postulowali wcześniej francuscy biolodzy Franęois Jacob i
Jacques Monod. Zakładano, że białko to dołącza do określonego genu w wirusie bakteryjnym i
tym samym odgrywa ważną rolę w wyłączeniu tego genu. Kontrola aktywności genu decyduje
o zachowaniu się
komórki zarówno podczas normalnego rozwoju embrionu, jak i w warunkach patologicznych,
takich jak rak. Wyizolowanie proteiny odpowiedzialnej za włączanie lub wyłączanie genu
byłoby najwyższym osiągnięciem i pozwoliłoby na zrozumienie tego procesu na poziomie
molekularnym. Dowód istnienia kontrolującej komórkę proteiny był w owym czasie tylko
pośredni i pochodził z doświadczeń genetycznych. Publicyście naukowemu Philipowi J.
Hiltsowi Ptashne zwierzył się ze swoich rozterek:
„im hardziej się w to zagłębiam... staje się jasne, że inni podejmowali ryzyko tylko do pewnego
stopnia. Pytanie brzmi, jak zamierzasz pracować, czy jesteś skłonny to robić z 1q_
perspektywa^ że w ogóle niczym się nie wykażesz? Możesz pracować dwa lub trzy lata, ponieść
porażkę i zrobić z siebie głupca. A przynajmniej pozostać z pustymi rękami".
Ptashne odważył się na to ryzyko.
Pracujący piętro niżej w tym samym budynku Harvardu inny biolog molekularny, Wally
Gilbert, próbował wyizolować regulator całkowicie odmiennym sposobem (później otrzymał
Nagrodę Nobla za pracę o sekwencyjności DNA). Uczeni prowadzili badania niezależnie i
rywalizowali, choć dopisywało im zmienne szczęście, jeśli idzie o sponsorów i możliwość
ogłaszania wyników. Ptashne pracował niezmordowanie, aż zachorował z wyczerpania.
„Najważniejszym doznaniem naukowca-eksperymentatora jest uświadomienie sobie, że w
każdej chwili może zostać wystrychnięty na dudka, gdy emocje i osobiste aspiracje sprawią, iż
uwierzy w rzeczy, które nie mają nic wspólnego z faktami". Jak to ujął w kilku słowach Hilts,
możliwość porażki stanowi podstawowe doświadczenie w karierze uczonego. W osiemnastym
miesiącu badań Ptashne wyodrębnił jednak regulator i jednocześnie zrobił to Gilbert: zaszczyty
zostały rozdzielone.
Oto inna próbka stylu Ptashne: „Wyróżniam i pobudzam przynajmniej tych studentów, dla
których mam wielki szacunek. Powód? Większość ludzi nie rozumie, jak trudną rzeczą jest
nauka, jak ciężko zrobić coś naprawdę znaczącego bądź oryginalnego". Wytrwałość w obliczu
niepowodzenia to powtarzający się motyw sprawozdań z działalności naukowej uwieńczonej
sukcesem.
Okoliczności odkrycia informacyjnego (messenger) RNA to przykład złożonej natury
naukowych odkryć i wypadków olśnienia („Eureka!"). Ośrodkami syntezy białka są rybosomy
- kuliste struktury zbudowane z kwasu rybonukleinowego i białek. Informacyjny RNA* to
klucz do wiedzy o molekularnym przenoszeniu informacji w białkach od DNA do rybosomów
- pozwala zrozumieć następstwo białkowych aminokwasów (rozdział I).
Francis Crick opowiadał, że pod koniec lat pięćdziesiątych idea kodu genetycznego, to
znaczy myśl, że informacje o sekwencjach DNA docierają do syntetyzowanych komórek
białkowych w zakodowanej formie, nie znalazła w świecie nauki pozytywnego oddźwięku.
Szeroka naukowa społeczność czuła, że Crick i jego koledzy uprościli problem. Co więcej - że
mają trudności z odnalezieniem właściwego kodu. Ogólny zarys ich koncepcji uznano za
prawidłowy. „Zrobiliśmy poważny błąd. Używając współcześnie przyjętych terminów
biologicznych można rzecz wyrazić tak: sądziliśmy, iż rybosomowy RNA to informacyjny
RNA, a to opóźniło naszą pracę badawczą o kilka lat. Miarka przebrała się któregoś dnia, było
to, o ile pamiętam, w Wielki Piątek". Zespół Cricka sądził, że ponieważ ośrodkami syntezy
białek w komórkach są rybosomy, które zawierają cząsteczki RNA, to rybosomowy RNA
przenosi kod. Doznali wielkiej iluminacji - podobnej do chwili odkrycia struktury DNA - kiedy
w bardzo krótkim czasie przedmiot ukazał się z zupełnie innej perspektywy. Tylko ten jeden
jedyny raz grupa zrobiła rzeczywisty krok naprzód; rozpoznanie kodu genetycznego trwało
kilka lat.
Wydarzenia miały następujący przebieg. Do 1957 roku akceptowano dogmat Cricka, że
łańcuchy RNA są syntetyzowane na matrycy DNA, pełnią więc istotną rolę w procesie syntezy
białek. Wiadomo było również, iż białka są wytwarzane za pomocą rybosomów, także
zawierających RNA. Sądzono, że RNA w rybosomie to to samo, co informacyjny RNA, ale
pozostawał problem kontroli procesów syntezy. Francois Jacob argumentował, że zmiany ilości
syntez białkowych zachodzących m-RNA (przyp. red.) - zwany też matrycowym
ko i pod kontrolą genetyczną. Rybosomy, przeciwnie, są raczej stabilne, a to pozostaje
sprzeczne z szybkimi włączeniami i wyłączeniami syntezy białka. Dzięki czemu nowe
rybosomy mogą być wytwarzane tak szybko? Zespół badawczy Cricka wytrwale pracował nad
rozwikłaniem tej zagadki. Rozpatrywano nawet poglądy sprzeczne z dowiedzionymi
prawdami, na przykład, że DNA jest bezpośrednim producentem białka.
Sydney Brenner uświadamiał sobie złożoność problemu i w Wielki Piątek 1960 roku kilka
przybyłych do Londynu znanych osób zebrało się w pokoju w King's College w Cambridge. W
ich obecności Jacob przeprowadził ponownie swoje doświadczenia, związane z szybką zmianą
podczas syntezy; eksperymenty te powtórzono i wydawały się teraz bardziej przekonujące.
Jeśli synteza nowego białka może być szybko włączana i wyłączana, trudno to pogodzić z
istnieniem genu, który kontroluje białko, o ile zostało ono wytworzone na bazie rybosomu.
Warto zauważyć, że francuski zespół, do którego należał Jacob, interesował się bardziej
genetycznymi wyłącznikami niż kodem genetycznym - przedmiotem studiów zespołu
brytyjskiego. Podczas dyskusji w pokoju Brennera Jacob opisał doświadczenie
przeprowadzone przez pewnego Amerykanina z Berkeley; wykazało ono, że w procesie
syntezy białka oprócz genów kodujących rybosomowego i informacyjnego RNA - bierze stale
udział gen struktury. Nasunęło to myśl, że uczestniczy on w wytwarzaniu niestabilnego
pośrednika, który niszczeje i zanika w jego obecności.
„Wtedy -jak mówi Crick - miarka się przebrała i zdaliśmy sobie z wszystkiego sprawę".
Zgromadzeni przypomnieli sobie eksperyment Amerykanów, którzy odkryli rodzaj cząsteczek
RNA podobny do DNA, ale uważali, iż to element poprzedzający syntezę DNA. Crick i
Brenner zrozumieli wówczas, że te cząsteczki stanowią matrycowy RNA, który przekazuje
informacje o wytwarzaniu białka od DNA do rybosomu. Zjawisko zostało odkryte już
wcześniej, ale zespół badaczy paryskich nie zdawał sobie sprawy z jego znaczenia. Rybosom
jest strukturą wytwarzającą białko, lecz jego RNA pełni odmienną funkcję i rybosom
potrzebuje jakiegoś sygnału RNA od DNA, określającego,
które białka mają być wytworzone. Brenner wpadł na pomysł, jak można zweryfikować pogląd
o informacyjnym RNA, i wraz z Jacobem zaplanował tego dnia odpowiednie doświadczenia.
Uczeni wyjechali do Kalifornijskiego Instytutu Techniki (Califomia Institute of Technolo-gy),
zamierzając przeprowadzić ów eksperyment w laboratorium Me-sehisohna, ponieważ
dysponowało ono odpowiednimi urządzeniami technicznymi.
Nowe pomysły większość Amerykanów potraktowała sceptycznie; wielki Delbriick
powiedział: „Nie wierzę w to". Eksperyment polegał na zainfekowaniu komórki bakterii
bakteriofagiem (czego skutkiem była nowa białkowa synteza bakteriofagów), aby wykryć, czy
nowe rybosomy zostaną wytworzone, czy też - jak przypuszczano - nowo powstały matrycowy
RNA przejdzie do już istniejących rybosomów. Eksperyment wymagał podwójnego
odwirowywania, aby wyizolować rybosomy zależnie od tego, czy przyłączają one ciężkie
izotopy węgla i azotu. Doświadczenie przebiegało bardzo niepomyślnie. Uczeni nie potrafili
przyłączyć izotopów do rybosomów. Przez kilka dni spędzali popołudnia na plaży. Brenner -
co było do niego niepodobne - milczał, lecz nagle podskoczył z okrzykiem: „To magnez!"
Odtworzywszy w myślach przebieg doświadczenia, uświadomił sobie, że nie dodał dosta-
tecznej ilości magnezu i tym samym rybosomy zostały zniszczone. Obaj uczeni pognali do
laboratorium i powtórzyli eksperyment, stosując więcej magnezu - zwykłego, lecz w tym
wypadku najważniejszego komponentu. Doświadczenie udało się i istnienie transportowego
RNA zostało dowiedzione. Trzeba było jeszcze sześciomiesięcznej ciężkiej pracy w
Cambridge, aby dokończyć dzieło.
Opisane wydarzenie stanowi charakterystyczny przykład nagłej intuicji, pojawiającej się w
zespole, który przez dłuższy okres nie czynił postępów, zmagając się z trudnym zagadnieniem.
Rozwiązanie go wymaga zarówno wyobraźni, jak i wiedzy oraz bogatej infrastruktury, którą
przygotowuj ą inni ludzie. Crick, Brenner i Jacob posiadali ogromną wiedzę szczegółową na
temat wielu eksperymentów. Należało jednak wiedzieć, które z nich są najwłaściwsze.
Niełatwo odnaleźć przykład tego rodzaju kreatywności w naukach humanistycznych.
Odkrycie informacyjnego RNA jest dla nas szczególnie interesujące, ponieważ moment
odkrycia można uchwycić, a chwilę intuicji ustalić. Nie jest to jednak typowy przejaw postępu
naukowego, który narasta powoli, a przełom następuje w okolicznościach mało
dramatycznych. Gdyby rewolucyjnego przełomu w badaniach struktury DNA dokonali
badacze mniej charyzmatyczni niż Crick i Watson, rezultaty odkryć na pewno nie wywołałyby
równie silnego zainteresowania, nie zostałyby także w takim stopniu nagłośnione. Równie
istotny postęp w drugiej połowie XIX wieku spowodowało odkrycie, że chromosomy są nośni-
kami cech dziedzicznych. Dokonano go wskutek wielu małych, ale rozstrzygających
doświadczeń, lecz bez dramatycznych wydarzeń czy też olśnienia konkretnego uczonego.
Pojawia się pytanie o rolę geniuszu w nauce. W jakim stopniu przedsięwzięcia geniuszy
determinują powstawanie nowych idei i wyznaczają perspektywy dalszego rozwoju ludzkości?
Hipoteza zawarta w dziele Jose Ortegi y Gasseta „Bunt mas" (The Revolt ofthe Masses) głosi,
że geniusz nie jest konieczny, a „nauka eksperymentalna rozwinęła się w dużej mierze dzięki
pracy ludzi średnio zdolnych, a nawet mniej niż średnio". Nauka posługuje się zdrowym
rozsądkiem, wykorzystując go do swoich potrzeb, a zgodnie z tym poglądem rozwija się- w
pewnych przynajmniej dziedzinach - dzięki sumowaniu drobnych osiągnięć, ale bez żadnych
spektakularnych przełomów.
Poglądowi temu można przeciwstawić argumenty wynikające z analizy stopnia
wykorzystania literatury naukowej. Okazuje się, że osiemdziesiąt pięć procent prac
zamieszczanych w czasopismach naukowych cytuje się każdego roku raz albo ani razu, a
jedynie jeden procent-pięć lub więcej razy. W humanistyce dziewięćdziesiąt osiem procent
opublikowanych prac nie spotyka się z tego rodzaju oddźwiękiem w ciągu pierwszych czterech
lat, a w naukach ścisłych czterdzieści procent. Przedstawione dane niezbicie dowodzą, że
niezmiernie mały odsetek dzieł naukowych inspiruje uczonych i cieszy się uznaniem. W
biologii molekularnej dane procentowe są podobne. Dziesięć najważniejszych periodyków
tworzy autorytet tej dyscypliny, a pozostałe sto pięćdziesiąt ogłasza drukiem prace naukowe z
nastawieniem, że są one istotne.
Chociaż niektóre z pism mogą dominować w jakiejś dziedzinie, nie wiadomo, do jakiego
stopnia podlegają infrastrukturze tworzonej przez przeciętnych ludzi nauki. I znów nie idzie o
nagłe przełomy, lecz o długotrwałą pracę badawczą.
Hipoteza Ortegi dotyczy spornych kwestii: czy proces poznawczy następuje stopniowo, czy
nagłymi skokami, czy postęp nauki dokonuje się powoli, czy polega na radykalnym odrzucaniu
tradycyjnych twierdzeń i metod, a jego motorem jest praca zespołów badawczych, czy też
wynika on z intelektualnego buntu jednostek, od czasu do czasu dokonujących rewolucji.
Historyk Thomas Kuhn w książce „Struktura rewolucji naukowych" (The Structure ofScientific
Revolutions) uważa, iż do rozwoju wiedzy przyczyniają się badacze, którzy uprawiają „nor-
malną nauką", czyli wkładają wiele wysiłku w ustalanie ważnych faktów, w dopasowywanie
ich do teorii i w artykułowanie jej samej, ale pozostają wewnątrz danego paradygmatu, to
znaczy - nie rozwijają twórczo idei swego czasu. W przeciwieństwie do nich uczeni-
rewolucjoniści, tacy jak Darwin czy Einstein, dokonują zmiany paradygmatu. Nasuwa się
pytanie, dlaczego koncepcja skokowego postępu cieszy się niewielką popularnością, skoro
perspektywa sławy wielkich odkrywców wydaje się kusząca. Odpowiedzi można poszukiwać
wśród historycznych czynników sprzyjających doskonaleniu wiedzy naukowej. Najbardziej
jednak prawdopodobne wyjaśnienie brzmi: ponieważ niezmiernie trudno przedstawić nowe
idee.
Wielu naukowców zastanawia się nad tymi samymi zagadnieniami, dlatego mamy liczne
przykłady odkryć jednoczesnych i wielokrotnych. Wallace pojął istotę ewolucji przez dobór
naturalny prawie w tym samym czasie, co Darwin. Metody określania następstwa zasad w
DNA -fundamentalną kwestię inżynierii genetycznej - odkryli niezależnie od siebie Gilbert i
Maxam w Harwardzie oraz Sanger w Cambridge. Pod koniec ubiegłego stulecia prawa
genetyki odkryło prócz Mendla przynajmniej trzech biologów. Jedność dwóch zasadniczych sił
przyrody została ujawniona przez niezależnie pracujących fizyków (zob. rozdział V). A do
miana odkrywców wirusa AIDS pretendują zarówno biolodzy amerykańscy, jak i francuscy.
Ich lista jest długa.
Tradycyjna interpretacja równoczesnych odkryć głosi, że postęp naukowy zachodzi
ponadindywidualnie, a jego charakter determinuje środowisko naukowe jakiejś epoki -
Zeitgeist. Zgodnie z tym poglądem odkrycia są nieuniknione, a nauka nie zależy od działań
geniusza. Jedno, oczywiście, nie przeczy drugiemu; dlaczego w krótkim okresie nie może
pojawić się cała plejada genialnych uczonych? Odkrycie staje się koniecznością dopiero
wówczas, gdy nagromadzony opis zaobserwowanych faktów (zjawisk) zachęca
utalentowanych badaczy do postawienia problemu, skupienia na nim uwagi i wysunięcia
hipotezy, jak go rozwiązać.
Szerzy się pogląd, moim zdaniem fałszywy, że w okryciu naukowym istotną rolę odgrywa
„mądrość po fakcie" (serendipity). Ten niefortunny termin stworzył w 1754 roku Horace
Walpole dla nazwania odkryć dokonanych „mimochodem, przez przypadek i dzięki
roztropności umysłu". Mówię „niefortunny", ponieważ wydaje się on nie na miejscu w
kontekście dokonywania odkryć naukowych. Często czytamy doniesienia o odkryciach
ubocznych lub przypadkowych. Wymienia się wiele historycznych przykładów tego zjawiska:
odkrycie penicyliny przez Fleminga, radioaktywności przez Becquerela, wynalezienie środków
uspokajających itd. Główną rolę w każdym z tych osiągnięć odegrało ponoć szczęśliwe
zrządzenie losu. Czy tak było w istocie? Czy przypadkiem idea mądrości, o której mówimy,
nie została oparta na fałszywym wyobrażeniu natury nauki, a także samego przypadku? Sądzę,
że szczegółowe wyjaśnienie każdego z wymienionych przykładów doprowadziłoby do
odmiennych wniosków. Podstawą badań naukowych jest znajomość przedmiotu i metod,
ponadto samoświadomość i zdolność do refleksji, nie zaś przypadek.
Ludwik Pasteur, wybitny francuski biolog i lekarz, miał opinię szczęściarza. W wieku
dwudziestu pięciu lat, krótko po otrzymaniu dyplomu lekarza, przeprowadzał analizę kwasu
gronowego, związku chemicznego, który osadza się w beczkach podczas fermentacji
winogron. Pasteura zaintrygowało udokumentowane już spostrzeżenie, że kwas gronowy nie
rozpada się po przepuszczeniu wiązki spolaryzowanego światła, podczas gdy kwas winny, o
pozornie identycznym składzie chemicznym, obraca tę wiązkę w osobliwym kierunku. Pasteur
przygotował zatem kryształki kwasu gronowego i kiedy badał je pod mikroskopem, zauważył
wśród nich dwa rodzaje będące zwierciadlanymi odbiciami -jak lewa i prawa ręka. Znakomici
chemicy obserwowali kryształki już w przeszłości, ale pominęli to subtelne zróżnicowanie.
Pasteur dowiódł, że „praworęczne" kryształki są podobne do drobin kwasu winnego, a kwas
gronowy jest mieszaniną kryształków „lewo-" i „praworęcznych", które nie rolują światła. To
badanie zachęciło innych uczonych do poszukiwania „ręczności" (handedness) molekularnych
struktur. Samo życie w ogromnej mierze zależy od jednego rodzaju molekuł: lewoskrętne (wg
Pasteura leworęczne) aminokwasy to związki chemiczne, z których wytwarzane jest białko.
Twierdzenie, że Pasteur był szczęściarzem, oparto na mniemaniu, że francuskiemu biologowi
dopomogły same właściwości kwasu gronowego: analizował szczególną postać kryształków,
jedyną, którą można zobaczyć pod mikroskopem; jej rozdzielenie na dwie formy następuje
wyłącznie w temperaturze poniżej 26°C. Tymczasem Pasteur sam powziął świadomą decyzję,
aby zbadać kwas gronowy.
Innym przykładem tak zwanego „szczęścia" jest odkrycie przez Pasteura odporności
immunologicznej. Prowadził on badania bakterii wywołujących cholerę. Hodował je na
płytkach z agarem, a następnie zarażał nimi kurczaki. Pewnego razu zwierzętom zaszczepiono
starą kulturę, w której, jak się wydawało, bakterie obumarły. Ptaki nie zachorowały. Kiedy te
same osobniki zaszczepiono później nową kulturą, przeżyły one infekcję. Zdając sobie sprawę
ze znaczenia rozprawy Edwarda Jennera o szczepieniu krowianką przeciwko ospie, Pasteur do-
strzegł w tej praktyce podobieństwo do własnych badań i na cześć Jennera i jego prac nad
krowianką nazwał tę metodę szczepieniem (ang. vaccination; łac. vacca - krowa).
Gdy sugerowano Pasteurowi, że wiele jego osiągnięć to rezultat szczęśliwego zrządzenia
losu, odpowiadał z narastającą irytacją: „W dziedzinie obserwacji naukowej fortuna zawsze
sprzyja dobrze przygotowanemu umysłowi". To nie przypadek, że wielcy uczeni zawsze mają
szczęście.
W 1908 Aleksander Fleming zdał końcowy egzamin z medycyny i został nagrodzony Złotym
Medalem Uniwersytetu w Londynie. Roz
prawę „Ostra infekcja bakteryjna" napisał na konkurs o Medal Cheadle'a i wygrał go. Opisał w
niej wszystkie sposoby obrony przed bakteriami, jakie znała ówczesna medycyna. Oprócz
odporności pacjenta należy tu wymienić antyseptyki, środki przeciwko niektórym bakteriom
(takie jak rtęć używana w leczeniu syfilisu) oraz szczepionki. Te ostatnie były pasją
przełożonego Fleminga, Almotha Wrighta, a leczenie infekcji bakteryjnych -jego głównym
zajęciem. Rok później Fleming miał sposobność nadzorować badania salvarsanu, odkrytego
przez Paula Ehriicha związku chemicznego, który zabija wywołujące syfilis krętki blade.
Zadziwiający efekt leczenia salvarsanem pozwolił Flemingowi zrozumieć, że bakterie można
unicestwiać, stosując specjalną terapię chemiczną. Zastanawiał się nad metodami doboru
związków przeciwko poszczególnym chorobom. Podczas I wojny światowej Fleming
przebywał we Francji, gdzie zauważył, że antyseptyki nie zapobiegają infekcjom ran: rezultaty
leczenia były często lepsze, gdy w ogóle nie używano tych środków.
Jeśli to nie wystarczy, aby przekonać czytelnika o najwyższej gotowości umysłu Fleminga,
odkrycie przezeń lizozymu musi usunąć wszelkie wątpliwości. W 1922 roku szkocki noblista
dodał nieco śluzówki ze swego nosa, a był w tym czasie przeziębiony, do wyhodowanej kul-
tury bakteryjnej: wszystkie bakterie wokół zostały zabite. Z wielką starannością i cierpliwością
udowodnił, że w śluzówce aktywnie działa składnik ludzkich łez. Fleming nazwał go
lizozymem; tym samym jako pierwszy zwrócił uwagę świata na istnienie naturalnych
mechanizmów obronnych ludzkiego organizmu. Kiedy zatem pleśń zwana Penicilinum w 1928
roku spłynęła na płytkę z bakteriami i wszystkie bakterie wokół wymarły, Fleming był
doskonale przygotowany do poznania zjawiska. Biograf słynnego uczonego, Andre Maurois,
tak odtworzył tok myślenia wielkiego mikrobiologa:
„ Często widywałem zakażenia. Nigdy wcześniej nie widziałem jednak gronkowca ulegającego
rozkładowi wokół skażonej kolonii. Oczywiście, wydarzyło się cos nadzwyczajnego. W świetle
znanych mi faktów to zdarzenie było o wiele bardziej interesujące niż moje studia nad
gronkowcem, wiec bezzwłocznie je zarzuciłem. Jestem teraz rad, że kierowałem uwagę na
antyseptyki i że kilka lat temu w podobny sposób
dokonałem odbycia lizozymu - naturalnego środka antyseptycznego występującego w stanie
naturalnym. Biorąc pod uwagę poprzednie doświadczenia, prawdopodobnie wyrzuciłbym
płytkę, tak jak uczyniło to przede mną wielu bakteriologów".
Rzecz oczywista, że pleśń szczęśliwym trafem znalazła się na płytce uczonego, ale czyż nie
było przypadkiem także to, że Fleming urodził się w danym czasie, został lekarzem i
zainteresował się mikrobiologią? Tysiące, jeśli nie miliony epizodów kształtują nasze życie.
Dlaczego mamy skupić uwagę tylko na jednym? Byłoby to równie nierozsądne, jak uznanie
niektórych odkryć za całkowicie przypadkowe. Gdyby penicylinę odkrył Bobby Jones podczas
gry w golfa - to dopiero byłaby jaskrawa ilustracja przypadkowości.
W 1896 roku Henri Becquerel wykonał eksperymenty z solami uranu, które po naświetleniu
na słońcu emitują światło w ciemności. Doszedł do wniosku, że skoro uran potrafi zaciemnić
światłoczułą płytę fotograficzną, musi dzięki słońcu wydzielać pewien rodzaj promieni. Mimo
że słońce przestało tego dnia świecić, co opóźniło eksperymenty, Becquerel wywołał płytę
fotograficzną umieszczoną wcześniej w pobliżu uranu i stwierdził, że została zaciemniona,
chociaż nie naświetliło jej słońce. W ten sposób odkrył radioaktywność. Nie ma to jednak żad-
nego związku ze szczęściem: wywołanie płyt bez naświetlenia ich światłem słonecznym to
rodzaj oczywistej weryfikacji, którą przeprowadziłby każdy uczony.
Wynalazek wulkanizacji gumy wiąże się bardziej z historią techniki niż nauki, zresztą
większość odkryć związana jest z użytkowością i nie może być rozpatrywana w związku z
dążeniem czystej nauki do bezinteresownego poznania świata. Charles Goodyear podjął wielki
wysiłek wytworzenia gumy odpornej na zmiany temperatury - stało się to właściwie jego
obsesją. Poddawał gumę działaniu rozmaitych substancji, mieszał ją między innymi z siarką,
ale bez powodzenia. W 1844 roku przypadkiem przytknął mieszaninę gumy i siarki do
gorącego pieca i ku swemu zdziwieniu spostrzegł, że tylko trochę się zwęgliła, ale - co było
najbardziej przejmujące - pozostała elastyczna i mocna w dużej skali temperatur. Wynalazek
wulkanizacji jest, jak mi się wydaje, doskonałym przykładem postępu technicznego, który
dokonał się zarówno przed, jak i po odkryciu nauki przez Greków. Nie nauka, lecz ciekawość i
zdrowy rozsądek były potrzebne do wypróbowywania rozmaitych metod i wyboru najlepszej.
We współczesnej nauce jedynie najlepsi jej adepci są szczęściarzami. Rozwija się ona jak
podróż w nieznane, nieuchronnie stawiając uczonych wobec nieoczekiwanych problemów. Ani
to szczęście, ani przypadek. Naturę nauki stanowi to, że jeśli badamy zjawiska albo idee z jej
pogranicza, nie oczekujemy, że dostarczy to wskazówek do dalszej pracy. Rozstrzygając tę
kwestię Bruce Alberts, znakomity mikrobiolog, znalazł przekonujące argumenty przeciwko
przyznawaniu zbyt wielu funduszy jednemu badaczowi, który może stracić kontakt z rzeczywi-
stością, by zacząć żyć w sztucznym świecie sprawozdań spreparowanych przez młodszych
pracowników nauki. W tych okolicznościach, jak słusznie zauważa Alberts, istotne i
niespodziewane spostrzeżenia znikną z pola widzenia badacza, który dzięki swoim
zdolnościom i doświadczeniu potrafi pojąć ich prawdziwe znaczenie.
W istocie wielu uczonych dopiero poniewczasie zrozumiało znaczenie pojedynczego
zdarzenia. W jakimś sensie Arystoteles nie ukończył swych odkryć z tego właśnie powodu.
Powinien dostrzec sprzeczność w pomysłach, które dotyczyły spadania ciał, a z pewnością
odkryłby prawa rządzące kołysaniem się wahadła. Absurdalność mitu o przypadkowości
wynalazków wychodzi na jaw także wówczas, kiedy uświadomimy sobie, że dopiero dwa
tysiące lat po śmierci Arystotelesa Galileusz odkrył wahadło - kołyszącą się na ołtarzu lampkę.
Nowszego przykładu dostarcza lektura książki Petera Medawara „Republika Plutona" (Pluto 's
Republic). Autor opowiada o pomyłce w ocenie znaczenia pewnej obserwacji, która zdarzyła
się w jego zespole badawczym, co zniweczyło szansę poznania nowego i istotnego zjawiska z
zakresu immunologii. Chodziło o zachowanie się przeszczepionej tkanki w organizmie biorcy;
w owym czasie skupiono uwagę na reakcji biorcy na przeszczep. Przez całe życie otoczeni
jesteśmy niezliczoną ilością „faktów" i „przypadków". Umiejętność uczonego polega na tym,
by wiedzieć, które są ważne i jak je interpretować.
Rozdział V

Konkurencja, kooperacja i zaangażowanie


A w śród wielu mylnych wyobrażeń o nauce spotkać można stereotypowe opinie, że uczeni
beznamiętnie dążą do prawdy, a ich wyłączną nagrodą i celem pozostaje coraz lepsze
zrozumienie świata, ponadto zaś otwarcie konkurują i są samolubni. Sądy te zawierają ziarno
prawdy, ale Sil fałszywe. Naukowcy angażują się emocjonalnie w pracę, odczuwają radość
odkrywania, a podstawową rolę w osiąganiu naukowych celów odgrywają interakcje
społeczne. Wiedza naukowa ma charakter kumulatywny, a ludzie nauki pozostają w
specyficznej zależności od siebie, ponieważ współzawodniczą i równocześnie pragną szacunku
środowiska, więc z nim współpracują. Uczeni starają się, by ich koncepcje zostały
zaakceptowane przez innych ludzi nauki, ale aprobata nowych idei jest kwestią bardziej
złożoną niż problem weryfikacji. Bez ważnych powodów naukowcy nie lubią ani rezygnować
ze swoich teorii, ani przyzwalać na popularyzację koncepcji innych badaczy.
W porównaniu ze sztukami pięknymi nauka ma charakter anonimowy. Uczeni stale
rozszerzają obszar ludzkiej wiedzy i właściwie nie ma znaczenia, że wielu z nich dzięki
jakiemuś wynalazkowi zdobyło sławę, albowiem z upływem czasu wszystkie wielkie odkrycia
stają się integralną częścią ogólnego zasobu wiedzy. Przyspieszenie rozwoju matematyki
nastąpiło dzięki odkryciu w XVII wieku rachunku różniczkowego, który nadal odgrywa
podstawową rolę we współczesnej matematyce i inżynierii. Oprócz historyków nikt jednak nie
pamięta, że odkrycia tego dokonali niezależnie od siebie, ostro rywalizując o pierwszeństwo,
Leibniz i Newton, a ich trudne do zgłębienia notatki nie są
bynajmniej czytywane do poduszki. Kiedy idee naukowe przenikną do ogólnego zasobu
ludzkiej wiedzy, ich twórcy po prostu przestają liczyć się jako jednostki. Nikt nie czyta także
oryginalnych notatek Watsona i Cricka, jeśli chce zdobyć wiedzę o DNA, czy też zapisków
Darwina, pragnąc zrozumieć teorię ewolucji (chociaż trzeba przyznać, że lektura dzieła „O
pochodzeniu gatunków" nadal może być inspirująca). Do obecnego stanu wiedzy na temat
DNA i ewolucji przyczyniło się tysiące ludzi nauki, których wiedza wypełnia ogólne i
specjalistyczne podręczniki. Popularność prac naukowych jest z reguły krótkotrwała, nawet o
rzeczywiście ważnych wypowiedziach zapomina się już po kilku latach. Uczeni nie mogą
pracować w izolacji, ponieważ efekty ich pracy są kumulowane.
Porównajmy to z sytuacją w sztukach pięknych: dla malarzy, powieściopisarzy, poetów
najważniejszą sprawą jest tworzenie dzieł oryginalnych. Artysta nie przyczynia się do
doskonalenia teoriopoznawczego dorobku ludzkości, dzieła sztuki nie traktuje się jako
elementu większej całości, za największą jego cechę uznaje się bowiem indywidualizm.
Odmienny jest cel naukowców, którzy chcą nakłonić innych do akceptacji własnych koncepcji,
pragną uzyskać consensus. Pewnego razu matematyk David Hilbert powiedział, iż rangę dzieła
naukowego można mierzyć liczbą wcześniejszych publikacji o tej samej tematyce, które
straciły znaczenie po jego wydaniu.
Szczególną właściwością nauki, której ważne implikacje obserwujemy w społecznym
zachowaniu się naukowców, jest fakt, że wielkie odkrycia mogą być dokonane tylko jeden raz.
Nikt nie potrafi powtórzyć jednorazowego sukcesu, chociaż otwiera on nowe horyzonty
poznawcze. Ogólna teoria względności czy ewolucji przez dobór naturalny albo teoria budowy
DNA nie mogą być ogłoszone ponownie. „Hamlet" Szekspira nie był odkryciem, nigdy
bowiem nie powstrzymał innych autorów od pisania sztuk na pokrewny temat. Odkrycie
struktury DNA przez Watsona i Cricka miało już jednak odmienny charakter: nikt inny nie
mógłby nazwać swej pracy odkryciem, skoro problem został rozstrzygnięty. W takim
znaczeniu stworzenie „Hamleta" nie przyczyniło się do rozwiązania żadnego problemu, a
poznanie struktury DNA otworzyło natomiast ogromny horyzont nowych badań, dokonano
nowych odkryć, a kilka ważnych prac o DNA otrzymało Nagrodą Nobla. Watson i Crick
stworzyli teorię, wykorzystując wiedzę zgromadzoną przez innych badaczy. Należy jeszcze
pamiętać, że gdyby Watson i Crick nie odkryli struktury DNA, z całą pewnością jej charakter
określiliby w końcu inni naukowcy. W sztukach pięknych - w malarstwie, muzyce i w
literaturze - wygląda to inaczej. Gdyby Szekspir nie napisał „Hamleta", nie uczyniłby tego
żaden inny dramaturg.
Z wszystkich opisanych tutaj powodów akceptacja osiągnięć uczonych musi przybierać inną
postać niż model aprobaty twórczości artystycznej. Dzieła artystów nie podlegaj ą procesom
weryfikacji i falsyfikacji, które są podstawowymi czynnikami społecznej aktywności ludzi
nauki. Twórcy sztuki popełniają plagiaty, ale w przeciwieństwie do naukowców nie mogą
oszukiwać.
W ten sposób weszliśmy na pole badawcze socjobiologii nauki. Dyscyplina ta jest określana
jako „systematyczne studia nad biologicznymi podstawami wszystkich społecznych
zachowań". Stawia pytania typu:
dlaczego zwierzęta zachowują się w taki sposób, jaki udało się badaczom zaobserwować? Jaką
strategię powinni obrać ludzie nauki, aby zapewnić powodzenie ideom, które są przez nich
traktowane jak własne dzieci? Jak powinni postępować względem uprawianej dyscypliny i
środowiska, aby odnosić coraz większe sukcesy? Te same pytania socjobiologowie stawiają
zwierzętom. Często zajmuje ich problem altruizmu. Dzięki temu pozytywnemu zjawisku jest
możliwe przetrwanie zwierzęcych genów. Genetyk, J.B.S. Haldane, powiedział, że chętnie
zrezygnowałby ze swojego życia, gdyby miało to uratować życie ośmiu kuzynów, ponieważ
wtedy szansa przetrwania jego genów byłaby większa. Socjobiologia rozważa rodzaj
bezinteresownej ofiarności, którą w świecie zwierząt rodzice obdarzaj ą potomstwo od
momentu prokreacji aż do zakończenia okresu wychowania, czego odpowiednikiem jest
poświęcanie się uczonych dla idei. Sformułowano teorię wyjaśniającą rywalizację między
zwierzętami oraz stopień agresji w ramach gatunku. Wyniki badań związanych z tym
problemem przyczyniły się do uznania słuszności pojęcia tzw. spokojnej strategii ewolucji,
przekazywanej przez kolejne generacje zwierząt tego samego gatunku, zawsze aktualnej i nie
dającej się zastąpić lepszą ewentualnością.
Nie można jednak traktować naukowców jak zwierzęta, poddając ich działania analizie
socjobiologicznej. Natomiast słuszne jest twierdzenie, że uczeni pragną, by ich teorie osiągnęły
nieprzeciętny sukces. Jego miarą może być chociażby liczba cytowań danej pracy w rozpra-
wach innych badaczy, czyli stan recepcji nowatorskich rozwiązań. Z osiągnięciem naukowym
wiąże się sukces osobisty, czego wyrazem jest awans w pracy, promocja, pochwały ze strony
równych sobie, dotacje na badania naukowe, indywidualne rekompensaty finansowe, a także
różnego rodzaju nagrody. Wartość każdego z tych osiągnięć jest różna dla poszczególnych
uczonych, lecz są one ściśle powiązane i wolno je wszystkie uważać za wyraz szacunku ze
strony innych pracowników naukowych.
Aby zapewnić sukces koncepcjom, a co za tym idzie, sobie samym, naukowcy muszą
jednocześnie posługiwać się strategią współzawodnictwa i współpracy, altruizmu i egoizmu.
Myśląc w tych kategoriach, trzeba utrzymywać między nimi równowagę, na przykład dzieląc
się z innymi zdobytymi przez siebie informacjami. Artyści znacznie rzadziej dokonują
podobnych wyborów. Inną właściwością, która charakteryzuje współczesną naukę, jest
ogromna liczba zbiorowych projektów badawczych. Obszerniejsze prace jednej osoby w
literaturze naukowej są obecnie rzadkością. Wiele rozpraw ma czterech lub pięciu autorów, a
niektóre publikacje z fizyki cząstek elementarnych pięćdziesięciu lub więcej.
Nie bez powodu uważa się, iż strategia przyjmowana przez naukowców jest całkowicie
konkursowa i egoistyczna, gdyż istnieje ograniczona liczba odkryć o doniosłym znaczeniu,
których można dokonać w danym czasie i w określonej dziedzinie. Pogląd ten pomija jednak
wielką rolę współpracy w przedsięwzięciu naukowym. Sukces polega nie tylko na odkryciu
nowego zjawiska przyrodniczego, ale również na przekonaniu innych uczonych o wartości tego
dokonania. Podczas procesu badawczego trzeba funkcjonować w społeczności, która w ciągu
wieków rozwinęła rygorystyczny zbiór niepisanych praw. W owym
„kodeksie" znajdziemy m.in. koncepcją nauki jako wiedzy publicznej, dostępnej bez przeszkód
dla wszystkich; pogląd, że nie istnieją żadne uprzywilejowane źródła wiedzy naukowej - teorie
muszą być osądzane od strony merytorycznej; wreszcie myśl, że naukowcy nie mogą niczego
przyjmować na wiarę, a wiedza powinna być stale poddawana dokładnemu badaniu. Na
dodatek istnieją reguły dotyczące dzielenia się posiadanymi materiałami. W biologii
molekularnej na przykład, gdy tylko zostanie opublikowana praca o specyficznych genach lub
białkach, jej autorzy zobowiązani są udostępnić materiały ze swego laboratorium, co umożliwi
innym badaczom dalszą pracę na tymi genami lub białkami. Odkrywcom wolno oczywiście
domagać się, aby przyszłe badania odbywały się przy ich współpracy, nie mogą jednak
zatrzymywać wszystkich materiałów dla siebie.
Środki masowego przekazu fascynują się zarówno konkurencją, jak i oszustwami w nauce.
Kalanie czystości nauki tą drogą można porównać z ujawnieniem faktu, że jakaś wysoko
postawiona osobowość religijna okaże się całkowicie niemoralna. Konkurencję między
uczonymi traktuje się jako nieprzyzwoitość - rzecz zupełnie nie przystającą do spiżowego
posągu człowieka nauki, który dąży do wiedzy jako takiej. Owo rozumienie szczególnej natury
naukowego przedsięwzięcia i sposobu współdziałania uczonych jest jednak nieprawdziwe.
Badacze, aby osiągnąć sukces, obierają specjalną taktykę. Muszą zarówno konkurować, jak i
współpracować z innymi naukowcami. Cari Djerassi, chemik, który jako pierwszy dokonał
syntezy środka antykoncepcyjnego, jak wielu innych uczonych napisał powieść o nauce. Nie
dziwi nas fakt, że jej tematem uczynił oszustwo i Nagrodę Nobla. J.B.S. Haldane natomiast
głosił, że sprawia mu wielką przyjemność, gdy widzi szerokie wykorzystanie swoich idei,
nawet jeśli nie jemu sieje przypisuje. To może być wspaniałe uczucie dla kogoś tak sławnego i
- być może -szlachetnego jak Haldane, lecz dla większości uczonych jedyną nagrodą jest
naukowe poznanie.
Zdarzają się wypadki dokonywania plagiatu prac innych badaczy i preparowania rezultatów
doświadczeń. Jest rzeczą nieuniknioną, że pośród tysięcy jednostek zaangażowanych w
badania naukowe pojawi się grupa osób postępujących nieuczciwie i wbrew obowiązującym
zasadom. Kilkakrotnie zdarzyło się nawet, że wybitnych naukowców wciągnięto w taką intrygę
i firmowali oni swoimi nazwiskami publikacje zawierające nieuczciwe wyniki, spreparowane
przez młodszych badaczy. W niektórych wypadkach owi luminarze nauki mogli zostać
oszukani, gdy np. nie mieli dosyć czasu na szczegółowe przestudiowanie podstawowych
danych. Konieczność pełnego zaufania do kolegów, z którymi się współpracuje, jest jednym z
niebezpieczeństw stale wzrastającej kooperacji naukowców. Funkcjonowaniu nauki i jej
obrazowi oszustwo wyrządza niepowetowane szkody, ale dla jej rozwoju w dłuższym okresie
nie ma znaczenia, ponieważ zdarza się dość rzadko. Ponadto wiele szacownych rozpraw to, jak
się okazuje, dzieła złe lub nie na temat. Sfałszowany wynik w ważnej dziedzinie szybko
zostanie wykryty, gdy inni badacze nie powtórzą doświadczenia, co zdarzyło się już w kilku
wypadkach. Bardziej subtelną formę oszustwa stanowi chęć „przekazania" wyników w taki
sposób, ażeby poprzeć określony punkt widzenia. O podobne postępowanie oskarżano nawet
prawdziwych odkrywców. Wyniki badań, które stały się fundamentem koncepcji
dziedziczności Mendla, wydawały się tak doskonałe, że trudno było w nie uwierzyć. Zaiste,
niełatwo oprzeć się pokusie prezentacji wyników własnych badań w jak najlepszym świetle.
Na przykład Millikan, jak zobaczymy, przedstawił w sposób niezwykle selektywny rezultaty
badań mierzenia ładunku elektronu.
Wyniki badań nad konkurencją w nauce mówią, że sześćdziesiąt procent ludzi nauki
przynajmniej raz w karierze doświadcza, iż ktoś wcześniej opublikował ich odkrycia. Liczni
naukowcy biorą udział jednocześnie w wielu odkryciach, a obszar ich badań jest tak rozległy,
że muszą pracować z wieloma konkurentami. Dlatego często podejmują strategiczne decyzje,
czym się zajmować, by nie przynieść sobie ujmy, zostając wtórnym odkrywcą. Psycholog B.F.
Skinner jest zwolennikiem takiej oto strategii: „Oto pierwsza zasada, której formalnie nie
wypowiedzieli metodolodzy nauki: kiedy dojdziesz do interesującego zjawiska, rzuć całą resztę
i zajmuj się tylko tym". Trudno jednak rozpoznać, co jest naprawdę warte uwagi i kiedy rzucić
wszystko inne.
Laureatka Nagrody Nobla, Barbara McCIintock, będąc uznanym naukowcem w wieku
czterdziestu dwóch lat, podjęła taką właśnie decyzją w czasie obserwacji kukurydzy, co
doprowadziło ją do odkrycia transpozycji genów. Badaczka, obserwując skrawek kukurydzy,
zauważyła różnice kolorów komórek i stwierdziła: „Coś musiało zajść we wczesnej mitozie, że
powstał taki »wzorek«. To było tak szokujące, że rzuciłam wszystko inne - byłam pewna, że
dowiodę, iż jedne komórki coś zyskiwały, inne zaś coś traciły - tak to wyglądało. Nie
wiedziałam dlaczego, ale miałam przeczucie, że znajdę odpowiedź".
Sześć lat później, w 1950 roku, referat McCIintock na sympozjum naukowym spotkał się z
niezrozumieniem i obojętnością. Teorie okazały się przedwczesne. Bardzo trudno było
wówczas zaakceptować koncepcję, że część chromosomów DNA porusza się i ulega
transpozycji. Stabilność pozycji genów w chromosomie stanowiła założenie wiedzy
genetycznej. Wielu innych biologów musiało pracować nad różnymi zagadnieniami, aby
później dało się zaakceptować wyniki badań McCIintock i uznać ich fundamentalne znaczenie.
Dopiero pod koniec lat sześćdziesiątych odkryto transpozycję bakterii. Ze względu na krótki
czas ich życia - liczony w minutach, a nie w latach jak czas kukurydzy - łatwiej było na tym
przykładzie przeanalizować problem, demonstrując wartość teorii McCIintock.
Wypadek ten nie należy do rzadkości. Oto dwa kolejne, klasyczne już przykłady: koncepcja
dryfowania kontynentów Wegenera oraz poglądy lorda Kelvina na temat wieku Ziemi.
Wegener miał rację, Kelvin się mylił. Mówiąc krótko, Alfred Wegener, nieznany nikomu
niemiecki geolog, przedstawił pogląd, zupełnie w latach dwudziestych zadziwiający, że Afryka
i Ameryka Południowa były kiedyś połączone, ale w ciągu milionów lat oddaliły się od siebie.
Pogląd ów wywołał silny sprzeciw, a nawet - wrogość. Wśród powodów odrzucenia
argumentów Wegenera znalazł się i ten, że jego koncepcja domagała się zweryfikowania wielu
istniejących już teorii, nie znano również mechanizmów powodujących ruch kontynentów.
Dopiero w latach sześćdziesiątych fizycy, bazując na pomiarach ziemskiego pola
magnetycznego, dowiedli, że ruch kontynentów jest możliwy. Inaczej stało się w wypadku
lorda Kelvina. Był on już bardzo sławnym fizykiem, cieszył się ogromnym autorytetem, kiedy
przeciwstawił się koncepcjom, że Ziemia jest znacznie starsza, niż myślano poprzednio. Lord
Kelvin nie zaakceptował tezy, że wiek Ziemi trzeba liczyć w tysiącach milionów lat - według
skali czasowej proponowanej przez geologów - ponieważ, jak dowodził, pozostawałoby to w
sprzeczności z danymi na temat oziębiania kuli ziemskiej. Angielski fizyk mylił się, ponieważ
nie mógł wiedzieć o odkrytym później naturalnym zjawisku radioaktywności, która ogrzewa
Ziemię. Dopiero to rozpoznanie obaliło analizy Kelvina. Minęło jednak sporo czasu, zanim
odrzucono teorię Anglika.
Badania psychologiczne związane z lotem Apolla na Księżyc wykazały, iż uczeni, których
uznano za najbardziej twórczych, okazali się też najbardziej oporni na zmianę poglądów.
Wyobrażenie naukowca jako osoby obiektywnej, emocjonalnie nie zaangażowanej uznano za
naiwne. Wizerunek bezinteresownego i pozbawionego pasji uczonego jest tak samo fałszywy,
jak portret zwariowanego naukowca, który chce zniszczyć świat w imię wiedzy.
Nowe osiągnięcia, które nie spełniają powszechnych oczekiwań, zawsze są traktowane
podejrzliwie. Nacechowane krytycyzmem wątpliwości determinują więc sposób odczytania
prac naukowych. Tytuł i streszczenie decydują, czy czytelnik sięgnie po tekst. Jeśli wnioski nie
zaskakują, pracę odbiera się bez szczególnej uwagi. Kiedy jednak są nowatorskie, zostają
poddane bacznym studiom. Jeśli ktoś kwestionuje rezultaty badań, rozważa się
metodologicznie każdy szczegół.
Jakie zatem czynniki determinują akceptację nowych idei? Według Maxa Plancka „Nowa
prawda naukowa nie triumfuje, kiedy oponenci zostaną przekonani lub nakłonieni do jej
zrozumienia, ale dopiero gdy umrą i dorośnie następne pokolenie, już przywykłe do nowego".
Chociaż opowiada się często, że proporcjonalnie do wieku naukowcy stają się przeciwnikami
nowych idei, opinię Plancka należy traktować dość ostrożnie i nie wspierać nią sądu o
konserwatyzmie nauki. Uczeni nie lubią rezygnować z koncepcji, którym poświęcili życie: nie
należy do przyjemności uświadamianie sobie błędów. A opór wobec nowych idei
jest nie tylko przywilejem wieku, gdyż z upływem czasu każda teoria może okazać się
nieprawdziwa. Naukowcy muszą jak najlepiej zainwestować swój talent i tym samym nie
zrezygnują z aktualnie tworzonych teorii, nawet jeśli zawierają one sprzeczności, dopóki nie
stworzą kolejnej, udoskonalonej koncepcji.
Kontrowersje budzi twierdzenie, że nie ma racjonalnych przesłanek do obiektywnej oceny
konkurencyjnych teorii wyjaśniających to samo zjawisko. Konkurencyjne koncepcje mogą
bowiem wychodzić z zupełnie odmiennych założeń, niepodobna więc ich sensownie
porównywać. Historyk Thomas Kuhn twierdzi na przykład, że założenia mechaniki Newtona i
Einsteina są tak różne, że nie mogą zostać wyłożone za pomocą tych samych terminów. Fizycy
jednak dyskutują na ten temat, a większość z nich -jak się wydaje - nie ma trudności w
porównywaniu tych koncepcji, nauczaniu i wykazywaniu, do jakiego stopnia mechaniką
Newtona wolno rozpatrywać jako szczególny przypadek teorii Einsteina. Także we
współczesnej nauce, gdy pojawiają się kontrowersyjne teorie, próbuje się prowadzić
pomysłowe doświadczenia, aby dostrzec zasadnicze różnice.
Idea niewspółmierności (incommensurahility) wyraża wyobrażenia Kuhna o metodzie pracy
naukowej, pierwotnie zaprezentowanej w znaczącej książce tegoż autora „Struktura rewolucji
naukowych" (The Stnicture of Ścień fific Revolutions, 1962). W przekonaniu Kuhna tzw.
„normalna nauka" występuje w tych okresach dziejowych, kiedy uczeni prowadzą prace nad
zestawami zagadnień, czyli wyznaczonymi obszarami badań. Dominującą strukturę pojęciową
nazywa on „paradygmatem". Jest to termin sporny, słabo zdefiniowany, wyrażający jednak
pewien istotny czynnik tradycji naukowej. Istnieje na przykład duża różnica między
paradygmatem mechaniki Newtona i Einsteina. W mechanice Newtona masa i prędkość są
wielkościami niezależnymi;
w teorii Einsteina zaś masa ciała zmienia się wraz z prędkością, a przestrzeń i czas są
względne, nie zaś absolutne. Przytoczmy jeszcze dwa przykłady z biologii, chociażby odejście
przez Darwina od paradygmatu stałości gatunku do teorii ewolucjonizmu, która głosi
zmienność gatunków. Ostatnia rewolucja w biologii molekularnej zmieniła paradygmat
metabolizmu w paradygmat informacji. Dopóki nie odkryto roli DNA, uwaga naukowców była
skupiona na źródle energii potrzebnej do produkcji protein; współczesna biologia
upowszechniła myśl, że kwestia ta nie ma większego znaczenia, a prawdziwym problemem jest
informacja, która determinuje sekwencję aminokwasów w białku. Taką właśnie informację, jak
powiedzieliśmy w rozdziale I, zawiera DNA.
Kuhn stwierdził później, że kolejne rewolucje naukowe następują przez wzrastającą liczbę
deformacji istniejącego paradygmatu. Zniekształcenia te narastają w wyniku trudności, których
doświadczaj ą koncepcje wymuszone przez aktualny paradygmat. Ponieważ konkurencyjne
paradygmaty Kuhn traktuje jako niewspółmierne, a tym samym nie pozwalające się
porównywać, nie istnieje żadna racjonalna przesłanka do zmiany, rewolucje naukowe zaś
należy objaśniać, wychodząc od analizy wspólnoty świata nauki. Istnieje zatem proces
społeczny, który sprawia, że owa wspólnota uznaje nowy paradygmat, ponieważ -jak wiadomo
- uczeni nie lubią rezygnować z poglądów okupionych ciężkim wysiłkiem. Ponownie
odwołajmy się do stwierdzenia Plancka, że pewna grupa ludzi nauki nie robi tego nigdy, a
nowe idee upowszechniają się, gdy umrą ich przeciwnicy. Cyniczne to spostrzeżenie. Czyż nie
jest bardziej prawdopodobne, że społeczność naukowa, choć z bólem, to jednak akceptuje
nowy pogląd (tak jak teorię dryfowania kontynentów Wegenera), jeśli udowodni się jej, że
nowa teoria oferuje bardziej satysfakcjonujące wyjaśnienie zjawiska? Kuhn ma wprawdzie
rację, uwydatniając znaczenie mechanizmów społecznych w biologii, ale to właśnie one
zbliżają nas do otchłani relatywizmu (zob. rozdział VI).
Istnieją oczywiście przykłady przeczące mechanizmom potwierdzonym przez Kuhna. W
takich wypadkach anomalie - to znaczy fakty, które trudno wyjaśnić za pomocą
obowiązującego zbioru idei - można rozpoznać dopiero w chwili, gdy nowa teoria zostanie
uznana. Przedtem zaś dziwne oraz niewygodne dowody są ignorowane. Kiedy jednak pojawia
się nowa teoria, anomalie uzyskują wymagane wyjaśnienie i często wspierają nowe koncepcje.
W połowie XIX wieku kreacjoniści głosili, że gatunki już się ustaliły, a wszystkie zwierzęta
doskonale do-
stosowały się do otoczenia. Nie było to jednak prawdą w odniesieniu do pewnych grup
zwierząt: kaczek płetwonogich, które nie pływają, żyjących w jaskiniach ślepych zwierząt
posiadających oczy. Tylko dzięki teorii ewolucji poprzez dobór naturalny owe anomalia
rozpoznano i wyjaśniono, a później wykorzystano do potwierdzenia teorii.
Kari Popper stwierdził, że teorie naukowe nigdy nie są weryfikowane, jedynie falsyfikowane,
falsyfikacja zaś stanowi prawdziwy cel naukowych zabiegów (zob. rozdział VI). Czy jednak
jest to rzeczywiście naukowa metoda pracy? Naukowcy wiodą zacięte spory o idee przewi-
dywania i falsyfikacji, nie zawsze jednak je stosują. Proces ten jest bardziej złożony. W istocie
znamy przykłady, które ilustrują lekceważenie dowodów falsyfikacji, np. uwagi Galileusza o
teorii Kopernika. Kopernik w swej koncepcji ruchu planet nie uwzględnił fazy planety Wenus,
co Galileusz uczynił dopiero pięćdziesiąt lat później, korzystając z teleskopu. Włoski astronom
i fizyk zastanawiał się, dlaczego Kopernik nie zasugerował ani jednej nie wyjaśnionej zagadki,
która go niepokoiła. A jeśli polski astronom znał wyjaśnienie tych kwestii, „o ileż mniejszej
sławy zaznałby ten wzniosły intelekt wśród uczniów! Ponieważ, co już mówiłem, rozum
wziąwszy na przewodnika rozum, stanowczo utwierdza się w przekonaniu, jakim rozsądnym
doznaniem wydaje się zaprzeczenie".
Przemilczanie falsyfikacji to chwyt często powtarzany przez uczonych. Przykładem jest
Robert Boyle, siedemnastowieczny angielski odkrywca w dziedzinie nauk eksperymentalnych.
Dwa gładkie ciała, takie jak marmurowe płytki, przyciskane do siebie, sklejają się. Boyle
sądził, że połączenie następuje pod wpływem ciśnienia powietrza, przypuszczał więc, iż płytki
rozłączą się w próżni. Pierwsze doświadczenia nie udawały się, ale Boyle, zamiast
zrezygnować z hipotezy, uznał, że posiadany przez niego aparat nie wytwarza środowiska
wystarczająco zbliżonego do próżni. Ponowił więc doświadczenia po skonstruowaniu
ulepszonego urządzenia. Sukcesem zakończyła się dopiero pięćdziesiąta próba:
„Kiedy silnik został przygotowany i był gotowy do pracy, wstrząsnęliśmy nim tak silnie, że ci,
którzy zwykle nim kierowali, stwierdzili, że nie wytrzyma on podobnych wstrząsów podczas
samej operacji. Gdy rozpoczęliśmy wypompowywanie powietrza, okazało się, że marmur nadal
pozostaje połączony. Powietrze zostało już bardzo rozrzedzone i zaczęliśmy powątpiewać, czy
się rozdzielą, jednak przy szesnastym zassaniu... drżenie silnika, jeśli nie całkowicie, to
częściowo ustało, a dwie marmurowe płytki samoczynnie odpadły od siebie, pozbawione ciśnie-
nia powietrza, które poprzednio je łączyło".
Przypuszczenie Boyle'a okazało się trafne. Rozpatrzmy teraz słynną dyskusję, jaka wywiązała
się około 1900 roku pomiędzy Robertem A. Millikanem z Chicago a J. Ehrenhaftem z Wiednia,
skrupulatnie przeanalizowaną przez fizyka i historyka zarazem, Geralda Holtona. Spór
dotyczył wartości najmniejszego ładunku elektrycznego występującego w przyrodzie - ładunku
elektronu. W swojej pierwszej pracy naukowej Millikan wykazywał, że wartość ta, podobnie
jak prędkość światła, jest fundamentalną stałą fizyczną. Wartość ładunku elektronu można było
wydedukować z pracy Faradaya o elektrolizie, Millikan pragnął jednak sam zmierzyć to
zjawisko, w szczególności po ogłoszeniu przez Ehrenhafta odkrycia cząstki ładunków
(przenoszonej przez elektron).
Eksperymentalne metody Millikana miały na celu zbadanie zachowania się kropelek oleju,
które po naładowaniu zachowywały się jak jednostkowy ładunek elektryczny poruszający się
zgodnie z kierunkiem sił pola elektrycznego wbrew sile grawitacji „z najmniejszą możliwą
szybkością, tak jakby tylko jeden wyizolowany elektron siedział mu na ogonie. Cała aparatura
miała wyłącznie uchwycić i zobaczyć jednostkowy ładunek elektronu jeżdżący na kropli
oleju".
Doświadczenie Millikana wymagało obserwacji pojedynczego ładunku elektrycznego kropli
oleju, w której skutecznie utrzymywała się bardzo delikatna równowaga. W 1910 roku
Millikan przedstawił teorię wartości „e", czyli wartości ładunku elektronu w postaci 4,65 x
10'10 jednostek. Chociaż Ehrenhaft oszacował tę średnią wartość podobnie, odkrył znacznie
mniejsze wartości, a w wynikach jego badań wartość ładunku w miarę jednostajnie się zmienia.
Holton dokładnie przestudiował zapiski Millikana. W notatkach wykorzystanych w publikacji z
1910 roku każdą z trzydziestu ośmiu obserwacji oznaczono w skali od trzech do zera, a ich
zestawienia od jednego do siedmiu. Millikan utrzymywał, że jako dobry ocenił taki przebieg,
któremu przyznawał jedynkę. Wyniki doświadczeń nie satysfakcjonowały jednak badacza,
gdyż niektóre obserwacje zostały przemilczane. Zwykł on mówić: „Pomijałem je, jeśli nie
zgadzały się z rezultatami innych obserwacji". W rzeczywistości utrzymywał, że przywiązuje
szczególną wagę do wartości poprawnych wyników oraz że ładunek podstawowy jest stały. Po
przestudiowaniu notatek Millikana z lat 1911 i 1912 Holton napisze: „Wiadomo, co
powiedziałby Ehrenhaft, gdyby zebrał podobne dane albo miał dostęp do tych notatek. Zamiast
zlekceważyć obserwacje podrzędne i uboczne, opisane w notatkach, a nie wykorzystane,
prawdopodobnie użyłby ich wszystkich". Notatki zawierają wiele wykrzykników, np. „Bardzo
wolno. Coś nie tak!", „To jest prawie idealne i najlepsze spośród tego, co kiedykolwiek
osiągnąłem!!!", „Słaby układ".
W końcu jednak poglądy Millikana zyskały uznanie, a jego samego uhonorowano Nagrodą
Nobla. Uczony odrzucił dane nie odpowiadające jego koncepcji, a uzależniał to być może od
wagi, którą przywiązywał do poszczególnych doświadczeń. Wszyscy ludzie nauki dokonują
podobnej oceny, która staje się rozstrzygającym kryterium odróżniania dobrego, a nawet
wielkiego naukowca od złego. Otóż powinien on posiadać nie tylko właściwe pomysły, ale
umieć osądzić, które z nich zachować lub odrzucić.
Talenty eksperymentalne same w sobie nie powinny być nisko oceniane. Humphry Davy,
wielki eksperymentator XIX wieku, przekonał się, jak ogromnej wiedzy wymaga wykonanie
jakiegokolwiek doświadczenia z elektrycznością: „Drobiazgowy opis wszystkich czynności
przygotowawczych byłby nudny dla osób przyzwyczajonych do korzystania z woltomierzy, dla
innych zaś zupełnie niezrozumiały". Próby opisu pewnych eksperymentów Michaela Faradaya
ujawniły, jak wielkiego talentu potrzeba, aby przeprowadzić tego typu doświadczenia. Nawet
obecnie trudno zrozumieć sens notatek tego uczonego. Tak jak wielu innych naukowców,
Faraday wykazał sporą determinację, kontynuując badania pomimo negatywnych początkowo
wyników. Współcześnie nawet w biologii molekularnej zdarzają się podobne wypadki. Talent
wykorzystywania doświadczeń w pracy daje dużo więcej niż postępowanie według
rygorystycznych instrukcji. Odtwarzanie pracy innych można uznać za dowód sprytu,
natomiast inicjowanie nowych badań wymaga znacznie większych umiejętności.
Trzeba przyznać, że Millikan utrzymywał swe sądy w rozsądnych granicach, niemniej, jak
twierdzi Holton, cmentarzysko nauki jest pełne ludzi, którzy końcowy osąd jawnych
falsyfikacji hipotez rokujących nadzieje utrzymywali pod znakiem zapytania. Należy tu
przypomnieć spostrzeżenie Cricka, że teoria, do której pasują wszystkie dane, musi być
fałszywa, ponieważ któryś z faktów na pewno okaże się nieprawdziwy.
W tym kontekście warto przytoczyć anegdotę o królu Karolu II, który pewnego razu zaprosił
członków Royal Society, aby mu wytłumaczyli, dlaczego martwa ryba waży więcej od żywej.
Podawano królowi wiele efektownych wyjaśnień do momentu, gdy wyznał, że taki problem w
ogóle nie istnieje.
Wiele przykładów potwierdza obserwacje Holtona. Po pierwsze falsyfikacja sama w sobie
może być fałszywa. Nie ma żadnej gwarancji, że nie przyniesie szkody eksperymentowi. Teorię
Weinberga i Salama o zjednoczeniu dwóch podstawowych sił materii - silnej i słabej w jądrze
atomu - przetestowano w ogromnych maszynach-akceleratorach, przeznaczonych do
przyspieszania cząstek elementarnych. Początkowe eksperymenty wykazały niesłuszność tej
teorii. Dopiero późniejsze doświadczenia ujawniły błędy poczynione przy poprzednich próbach
i potwierdziły teorię.
Drugi przykład obrazuje omawiany tu punkt widzenia jeszcze bardziej wyraziście, ponieważ
- w przeciwieństwie do eksperymentów związanych z teorią Salama - naukowiec
przeprowadzał doświadczenia osobiście.
W roku 1960 pracujący w Afryce lekarz, Denis Burkitt, omawiał w londyńskiej szkole
medycznej najbardziej rozpowszechniony wśród dzieci afrykańskich nowotwór. Obecnie
chorobę tę nazywa się lymphomia Burkitta. Referat po raz pierwszy opisywał przebieg, ale
także
wskazywał przyczyny choroby zależnej od opadów i temperatury. Obecny na odczycie
wirusolog, Anthony Epstein, wyciągnął z tego wniosek, że przyczyną choroby musi być jakiś
wirus, mimo że w tamtych czasach nieufnie traktowano ewentualność wirusowego
pochodzenia ludzkich nowotworów.
Od tej chwili Epstein rzucił wszystko i rozpoczął mozolne badania nad tym nowotworem.
Próbki przychodziły z Afryki, a zespół Epsteina usiłował wyodrębnić wirus za pomocą
wszystkich standardowych procedur. Doświadczenia zakończyły się jednak niepowodzeniem:
wszystkie bez wyjątku wyniki były negatywne. Mimo to Epstein nie spoczął na cmentarzysku
nauki. Wraz ze współpracownikami kontynuował badania, próbując wyhodować wirusy. I za
drugim razem poniósł klęskę. Niepowodzenia powtarzały się nieprzerwanie przez dwa lata, a
wszystkie dowody laboratoryjne świadczyły przeciwko przyjętej koncepcji, lecz naukowcy
obstawali przy swoim. „To musiała być prawda. Mieliśmy poczucie, że mamy rację. I dlatego
nie przerywaliśmy pracy". Pewnego wietrznego piątkowego popołudnia nadeszła z Afryki
próbka -mętna i wyglądająca na zakażoną wirusami. Epstein zbadał ją pod mikroskopem i
spostrzegł, że nowotwór rozpadł się na ogromną liczbę pojedynczych komórek. Badacz
natychmiast przypomniał sobie grupę Amerykanów, która hodowała nowotwory nie tak jak on,
w całości, ale rozkładając je na pojedyncze komórki. Epstein spróbował tego sposobu. W
doświadczeniach nastąpił przełom, a wkrótce potem badacz zidentyfikował postać mikroba
wzrastającego w komórkach - nazywamy go dziś wirusem Epsteina i Barra.
Na zakończenie przytoczmy nieco faktów z dzieła Einsteina. Popper zacytował jego
twierdzenie, że „ogólnej teorii względności nie będzie można utrzymać, jeśli nie zaobserwuje
się grawitacyjnych przesunięć linii widma". Einstein pozostawał jednak wiemy swej teorii,
mimo że za jego życia nie znalazła takiego potwierdzenia. Innym przykładem jest
wyprowadzone z ogólnej teorii względności przewidywanie grawitacyjnego załamywania się
światła. Potwierdziła je kierowana przez Arthura Eddingtona angielska ekspedycja naukowa,
którą podjęto, aby obserwować zaćmienie Słońca w 1919 roku. Wyniki badań tego zjawiska
zapoczątkowały pojawienie się ogromnej ilości publikacji zarówno o teorii względności, jak i o
samym Einsteinie. Dla niego jednak, jak się wydaje, ogłoszone drukiem wyniki nie
przedstawiały większej wartości. Według relacji studentki lisy Rosenthal-Schneider, która
towarzyszyła Einsteinowi, gdy od Eddingtona nadeszła depesza głosząca, że pomiary
potwierdziły teorię, sławny fizyk powiedział: „Ależ ja wiedziałem, że teoria jest poprawna".
„A co by się stało - zapytała studentka - gdyby przewidywania nie znalazły potwierdzenia?
„Wtedy przeprosiłbym Pana Boga, że teoria jest prawdziwa".
Tę myśl uczony powtórzył także później: „Główne znaczenie ogólnej teorii względności nie
polega na tym, że została ona sformułowana na podstawie zaobserwowanych przez kilka minut
faktów, lecz na prostocie jej założeń i logicznej spójności". Także sam Eddington stwierdził, że
nie powinno się „zbytnio ufać wynikom obserwacji, zanim nie zostaną one potwierdzone
teoretycznie".
Po przeprowadzeniu badań nad historią potwierdzenia teorii pola Stephen Brush wyciągnął
wniosek, że drogę do sukcesu toruje prognozie naukowej głównie życzliwa publiczność:
wyniki badań na temat zaćmienia Słońca sprawiły, że teoria względności znalazła się w
centrum zainteresowania nauki i sprowokowała innych badaczy do prezentowania
alternatywnych wyjaśnień. Załamywanie się wiązki światła może być jednak traktowane jako
dowód teorii Einsteina jedynie wówczas, gdy alternatywne rozwiązania okażą się fałszywe, a
wtedy jej ogólny wkład badawczy okaże się niezależny od samego odkrycia.
Może wydać się dziwne, że rozgłos stanowi istotny czynnik badań naukowych, ale -jak
zauważyliśmy - właśnie tego potrzeba im do przetrwania. Nauka polega po części na
jednomyślności. Jeśli czyjeś koncepcje nie są powszechnie znane, mogą zostać zlekceważone. I
właśnie czynniki społeczne doprowadziły do postawienia pytania, czy nauka jest konstrukcją
ponadindywidualną.
W kręgu historyków nauki rzadko przeciwstawia się postęp historii jako serii wypadków nie
mających żadnego celu. Jednak właśnie pod tym względem nauka raz jeszcze jawi się jako
zjawisko szczególne:
jest czynnikiem postępu, motorem rosnącego zrozumienia świata. Zdarzają się oczywiście
pomyłki, niezliczone społeczne oddziaływania, lecz wziąwszy pod uwagę rozsądną skalę
czasową, od kilku stuleci postęp pozostaje charakterystyczną cechą nauki. W ciągu zaś
ostatnich pięćdziesięciu lat, rozwój biologii molekularnej wydaje się zaskakujący. Nauka ma
charakter postępowy w tym sensie, że coraz usilniej zbliża się do prawdy, chociaż być może
nigdy nie osiągnie całkowitej pewności. Samo wytrwałe dążenie stanowić może ogromny
sukces, większy od pomyłki czy ignorancji. W problemy tego rodzaju jednak znacznie bardziej
angażują się filozofowie.
Rozdział VI

Wątpliwości filozoficzne albo wybujały relatywizm

Jeśli nauka jest zjawiskiem nienaturalnym, całkowicie różnym od zwykłego myślenia,


powinno się jasno określić jej naturę oraz zdefiniować metodę. Gdyby tylko można było to
osiągnąć. W rzeczywistości definiowanie natury nauki i metody naukowej zgodnie z zasadami
myślowego rygoryzmu i logicznej spójności okazuje się wyjątkowo trudne. Co gorsza, metoda
naukowa daje się opisać jedynie w bardzo szerokim i ogólnym zarysie. Być może sami
naukowcy przyczynili się do stworzenia iluzji, że jest ona wysoce uporządkowanym
schematem postępowania, ponieważ wszystkie niemal rozprawy napisane zostały tak, jakby
istniała jedna, uniwersalna metoda naukowa. Większość uczonych posługuje się stałym
układem kompozycyjnym, dzieląc prace na Wstęp, Metody, Wyniki l w końcu Dyskusję. Jak
zauważył Peter Medawar, każdy opublikowany tekst naukowy jest swego rodzaju oszustwem,
ponieważ nie oddaje rzeczywistego przebiegu pracy badawczej: wyobraźni, zakłopotania,
determinacji, pasji - wszystkie te problemy związane z naukową twórczością są pomijane.
Sami badacze traktują kwestię natury nauki jako problem uboczny, który nie ma w praktyce
żadnego wpływu na ich codzienną pracę. Natomiast dla filozofów i niektórych socjologów
naukowa natura zdobywania wiedzy i jej słuszność to dwa główne problemy. Specjaliści z tych
dziedzin odkryli istotę naukowej łamigłówki, niektórzy zaś zwątpili, czy jest ona specjalną i
uprzywilejowaną domeną ludzkiego umysłu - czy w najbardziej wiarygodny sposób tłumaczy
mechanizmy funkcjonowania świata. Oddalenie od nauki realnych zagrożeń i umocnienie
pozycji uczonych, niekorzystnie wpłynęło na studia nad nauką i jej historią.
Rozważania nad naturą nauki trzeba rozpocząć od podstawowego problemu, którym jest jej
niezwykle szybki postęp. Jeśli nauka rzeczywiście oferuje najlepsze rozumienie świata, cóż
można powiedzieć o koncepcji flogistonu, która obowiązywała do czasu odkrycia tlenu i
poznania jego roli w procesie spalania? Jeśli zwolennicy flogistonu tak bardzo się mylili, to
jaką mamy pewność, że coś podobnego nie powtórzy się w najnowszych dziedzinach nauki?
Cała jej historia jest pełna odkryć, upadków lub modyfikacji idei, które uważano za prawdziwe.
W jakim zatem stopniu wiedza naukowa rzeczywiście opisuje świat i jakie mamy prawo
przyznawać jej przywileje?
Ogromna większość ludzi nauki prawdopodobnie nie interesuje się wspomnianymi tu
zagadnieniami albo wysuwa argument, że owe teorie odpowiadały możliwościom swoich
czasów, a poza tym w jakiś sposób oddziałały na nowe koncepcje. Naukowcy muszą przyjąć do
wiadomości, że najbardziej rozpowszechniony pogląd może okazać się błędny. Z drugiej strony
niektóre teorie zostały tak gruntownie przetestowane, że wydaje się zupełnie
nieprawdopodobne, aby w przyszłości miały podzielić los koncepcji mylnych. Nawet uczeni
wątpiący w uprzywilejowaną naturę nauki nie krytykują jej wyników, chociażby tego, że Zie-
mia kręci się dookoła Słońca, a woda składa się z dwóch atomów wodoru i jednego atomu
tlenu czy że DNA to materiał genetyczny. Uwaga filozofów skupia się raczej na naturze wiedzy
naukowej i sposobie jej upowszechnienia się.
Wbrew przekonaniom wielu uczonych, filozof Willard Ouine twierdzi, że teorie naukowe nie
są nigdy poparte danymi, tak aby nie istniały koncepcje alternatywne, które również mniej lub
bardziej do danych pasują. Zdaniem Quine'a każdą teorię można jednak ocalić przez mo-
dyfikację kryteriów oceny jej prawdziwości. Z tego punktu widzenia, konsekwentnie
podtrzymywanego przez innych filozofów, każdy zbiór obserwacji empirycznych można
wyjaśnić za pomocą niezliczonej liczby hipotez. Pogląd ten pozostaje prawdziwy wyłącznie
wtedy, gdy różnice między nimi są niewielkie, takie - powiedzmy -jak o dwie cyfry
na setnym miejscu po przecinku. W praktyce naukowcy nie są zainteresowani tak małymi
różnicami, chyba że mają one realny wpływ na teorię. Ludzie nauki nie zajmują się prawdą
absolutną, lecz koncepcjami, które zapewniają zrozumienie określonego zjawiska. O kryteriach
poprawnego sformułowania teorii już wspominaliśmy (rozdział I). Odnoszą się one jednak do
ludzi przekonanych, że można sformułować niezliczoną ilość teorii, poszukując
satysfakcjonujących alternatyw względem mechaniki Newtona albo teorii genetycznej. Jak
dotąd żadne tego typu alternatywy się nie pojawiły, a każdy, kto próbuje skonstruować prostą
teorię kwantową, przekona się, że nawet stworzenie jednego modelu sprawia ogromne
trudności.
Poglądy Kuhna na temat niewspółmierności (incommensurability), kładąc nacisk na opinię
społeczną determinującą przyjęcie określonej teorii (rozdział V), mogą doprowadzić nas do
relatywistycznego obrazu nauki. Jeśli bowiem nie udaje się w racjonalny sposób wybrać
jednego paradygmatu lub teorii spośród wielu rywalizujących koncepcji, a nauka to tylko
wytwór społeczny, to wybór teorii naukowych, tak jak moda, staje się sprawą gustu. Uznając
takie twierdzenie za prawdziwe, musielibyśmy idee naukowe uważać za refleks osobliwych
społeczno-kulturowych warunków, nauka zaś nie zasługiwałaby wówczas na uprzywilejowaną
pozycję, którą jej wyznaczono. Wniosek taki nie wydaje się jednak przekonujący. Choć
procesy społeczne odgrywają w nauce pewną rolę, teorie ulegają zmianie, gdy pojawiają się
nowe, które w większym stopniu odpowiadają rzeczywistości, a w rezultacie, tak jak teoria
ewolucji Darwina, oferują dokładniejsze wyjaśnienie świata. Podczas gdy wstępne fazy
akceptacji jednej z dwóch współzawodniczących teorii mogą nosić wyraźne piętno społeczne,
głównym kryterium oceny teorii i tak staje się jej zdolność do wyczerpującego wyjaśniania zja-
wisk.
Pojawienie się biologii molekularnej jest dobrym przykładem rewolucji naukowej, ale nie w
takim znaczeniu, jakie nadaje mu Kuhn. Biolodzy nie zostali postawieni oko w oko z
niewspółmiernymi i rywalizującymi teoriami, między którymi trudno wybierać. Raczej coraz
to nowe sukcesy tej dziedziny stymulowały pojawienie się idei, które całkowicie zmieniały styl
pracy badawczej, czy też -jak chce Kuhn - paradygmat. W paradygmacie myślenia o
komórkach miejsce energii i metabolizmu zajęła informacja. Pytania, które zaczęto stawiać w
badaniach nad proteinami - najważniejszymi składnikami komórki - nie dotyczyły już źródła
energii potrzebnej do ich wytworzenia, lecz informacji służącej porządkowaniu aminokwasów.
Nowe idee napotykały na opór, lecz biolodzy molekularni z wielkim zapałem i optymizmem
próbowali zjednać sobie innych uczonych. Niewątpliwie stosowali w tym celu także chwyty
retoryczne. Ale oczywistość danych o strukturze DNA i o innych najistotniejszych odkryciach
była tak przekonująca, że prawie każdego - a na pewno młodych - ogarniało podniecenie na
myśl, iż w biologii rozpoczyna się nowa epoka sukcesów. Amerykański zwolennik ewolucyjnej
biologii, Ernst Mayr, zarzucał filozofom nauki, że zignorowali postępy tej dziedziny.
Nieustannie czerpiąc przykłady z fizyki, przegapili znaczące przykłady postępu naukowego z
innych dziedzin, zwłaszcza biologii molekularnej.
Powszechnie stosowanym wyróżnikiem nauki stała się falsyfikacja, nie zaś weryfikacja, na
co położył nacisk Kari Popper. Wcześniej znaczenie falsyfikacji dostrzegali inni uczeni, jak
francuski biolog, Ciaude Bernard, autor książki o medycynie eksperymentalnej (1865). Na co
dzień uczeni często nie dostosowuj ą formuły falsyfikacji do uprawianej nauki, co
stwierdziliśmy w rozdziale V. Warto jednak poruszyć kilka problemów natury filozoficznej
związanych z tą formułą. W myśl tej koncepcji weryfikację teorii uważa się za słaby sposób
ustalania jej znaczenia. Tym samym trudno określić, którą teorię naukową można uznać za
prawdziwie Weźmy na przykład hipotezy zakładające, że wszystkie łabędzie są białe albo że
sód spala się białym płomieniem. Często tak pospolitych teorii używa się jako modeli myślenia
naukowego, ponieważ tak naprawdę nie ma hipotez, istnieją zaś jedynie proste współzależności
idei z obserwacjami. Popper dowiódł, że nawet niezliczona liczba doświadczeń nie dowodzi
prawdziwości lub nieprawdziwości twierdzeń i dlatego zaatakował tak zwaną „indukcyjną"
podstawę weryfikacji.
Gdyby nawet naukowcy wykonali tysiące obserwacji potwierdzających, że wszystkie
łabędzie są białe i że sód spala się białym płomieniem, to nie ma żadnego powodu - mówił
Popper - aby uważać owe twierdzenia za prawdziwe. Podobnie jak z punktu widzenia logiki
nie do przyjęcia jest indukcja Hume'a- wnioskowanie o wzajemnych związkach na podstawie
powtarzających się zdarzeń. Przeciwnie, wiarygodnych dowodów dostarczają jedynie
doświadczenia negatywne. Jeżeli okaże się, że jeden łabędź jest czarny, wówczas hipoteza, że
wszystkie łabędzie są białe, okaże się fałszywa, „...nie ma bardziej racjonalnego sposobu
postępowania niż metoda... przypuszczania i odrzucania odważnie wysuwanych teorii; metoda
usiłująca wykazać, że teorie te są fałszywe; wreszcie metoda tymczasowej akceptacji, o ile
wysiłki krytyczne nie dają rezultatu" - powiada Popper. Czy jednak ktoś naprawdę odrzuci
wieloletnie przekonania, choćby zobaczył jednego czarnego łabędzia? Jak zauważono
wcześniej, wielu naukowców tego nie zrobi, zresztą słusznie: któż może być pewien, że ów
czarny ptak to naprawdę łabędź? Czyż nie zechce znaleźć od razu kilku podobnych? Jeżeli tak
postąpi, powraca w krąg indukcji. Przy tego typu podejściu unika zarazem ogólnego pytania o
metodę pracy, za pomocą którego naukowcy faktycznie decydują, czy dana teoria powinna
zostać odrzucona czy zaakceptowana. Ale przynajmniej nacisk na możliwość przeprowadzenia
radykalnych zmian wskazuje właściwość nauki, z którą zgodzą się wszyscy uczeni: stanowi
ona nie tylko rozwój wiedzy według określonych zasad, ale również twórcze dążenie do rozu-
mienia (rozdział V). Z drugiej strony jednak argument Poppera tylko częściowo pomaga
stworzyć definicję nauki, ponieważ sam fakt falsyfikacji idei nie oznacza, że są one częścią
nauki. Tak jak absurdalne pomysły, choć poddają się falsyfikacji, nie mogą być nazwane
naukowymi, co spróbuj ę przedstawić w rozdziale VII.
Przy wyborze teorii naukowcy posługują się bliżej nie określonym zestawem kryteriów, a
przecież kumulują one główne cele nauki. Jeśli badanie zjawisk, które próbujemy wyjaśnić, ma
być w pełni satysfakcjonujące, teoria powinna posiadać jak największy zasięg, a także
przewidywać istnienie nowych związków oraz otwierać perspektywy dalszego rozwoju.
Zarazem należy sformułować ją w sposób jak najprostszy, z minimalną liczbą hipotez.
Wiele problemów dotyczących istoty nauki ma korzenie w filozofii. Idzie tu szczególnie o
zagadnienia odnoszące się do natury rzeczywistości czy prawdy. Niektórzy filozofowie
istnienie zwykłych przedmiotów, takich jak stoły i krzesła, traktują jako problematyczne. Jedni
uznają owe rzeczy za realne, inni negują ich realność, a jeszcze inni twierdzą, że
odzwierciedlają one jedynie oddziaływanie świata zewnętrznego na nasze zmysły. Tym samym
filozofowie opowiadają się za określoną szkołą myślenia: materializmem, realizmem
metafizycznym, obiektywizmem itp. My jednak nie powinniśmy przejmować się tego typu
problemami, zostawiając filozofom ich niezdolność do satysfakcjonującego poznania natury
rzeczywistości czy kwestii istnienia bądź nieistnienia świata realnego. Wydaje się, że Ludwik
Wittgenstein miał rację mówiąc: „Odkrycia filozofii są trywialne, gdyż nie uczy nas ona
nowych faktów, robi to jedynie nauka. Właściwe jednak określenie (synopsis) trywialności,
choć posiada ogromne znaczenie, jest niezwykle trudne. Filozofia to w gruncie rzeczy przegląd
banalnych problemów".
Jeżeli jednak filozofowie mają rację co do niepoznawalnej natury świata, wtedy problem ten
należy odnieść nie tylko do nauki, lecz do całej wiedzy. Z założenia musi on wiązać się z
takimi stwierdzeniami, jak: „Słońce zawsze wstaje na wschodzie" i „Świnie nie potrafią latać".
Dla filozofów żyjących w zwątpieniu rzeczywistość jest nawet bardziej nienaturalna niż świat
naukowych idei, aczkolwiek w odmienny sposób. Niewątpliwie filozofowie napotykają wiele
trudności, muszą też wykazać się pomysłowością, zajmując się właśnie tymi problemami. Nie
zgadzam się jednak na włączanie tych zagadnień do nauki. Nie można bowiem mieszać
filozoficznych koncepcji prawdy, racjonalności i rzeczywistości z sukcesem czy
niepowodzeniami nauki. Zajmuję wobec tych kwestii stanowisko zdroworozsądkowe: dzielę z
innymi ludźmi wiarę w istnienie zewnętrznego świata, który można badać. Wiem, że z
filozoficznego punktu widzenia niepodobna tego stanowiska obronić, z drugiej jednak strony
nie zmieni ono natury naukowych badań czy teorii. Dla naszego problemu nie ma to żadnego
znaczenia.
Nie zamierzam rozstrzygać sporu, czy nauka ma absolutną słuszność. Zwolennicy nauki
muszą być przygotowani do zmiany poglądów w obliczu nowych dowodów, co jest jedną z
głównych jej cech. Muszę zgodzić się także z faktem, że naukowcy działają w obrębie
struktury o nieokreślonych założeniach, które fizyk i historyk Gerald Holton nazwał themata.
Stanowiąc podstawę naukowych zabiegów, pozostają one jednocześnie niezależne od
przedmiotu nauki, eksperymentów i analiz. Na przykład Kopernik wierzył, że natura jest
świątynią Boga, której stałe prawa ludzie są zdolni poznać. Ta sama myśl pobrzmiewa u
Galileusza i Newtona. Idea prostoty i piękna to dwa odwieczne themata, aktualne także we
współczesnej nauce. Z nimi, przynajmniej w fizyce, łączy się przeświadczenie, które wyraził
fizyk Steven Weinberg:
„odkryjemy prymarne prawa natury, tych kilka ogólnych zasad, które sprawiają, że przybiera
ona taką, a nie inną postać..." Słowa te przypominają twierdzenie Newtona, który
przedstawiwszy sposób, w jaki teoria grawitacji umożliwia szczegółową dedukcję ruchu planet,
napisał:
„Chciałbym, abyśmy rozumując w ten sposób, mogli poznać zjawiska natury". Einstein z kolei
podkreślał, że najszlachetniejszym celem nauki jest całościowe ujęcie zjawisk fizycznych bez
pomijania pojedynczych danych doświadczalnych. Jakże nienaturalne są wymienione tutaj
themata: cóż bowiem spośród niezliczonych i różnorodnych wydarzeń codziennego życia
sugeruje, że istnieje związek między prostotą i pięknem?
Fizyk John Barrow sporządził następującą listę założeń poznawczych:
• Istnieje pewien świat zewnętrzny niezależny od naszej percepcji.
• Świat ten jest racjonalny: „A" nie jest równe „nie A".
• Świat ten można analizować fragmentarycznie - badać proces, nie biorąc pod uwagę wszystkich
wydarzeń zachodzących w innych miejscach.
• W naturze występują regularności.
• Świat można opisać za pomocą matematyki.
• Wymienione propozycje są uniwersalne.
Z filozoficznego punktu widzenia nie można się na te założenia zgodzić, poddają się one
jednak testom i są zdolne opisać oraz wyjaśnić wielką liczbę zjawisk.
Czy filozofia rzeczywiście wywarła wpływ na naukę? Wielu wybitnych fizyków z początku
naszego stulecia miało solidne wykształcenie filozoficzne. Na przykład niemiecki fizyk Ernst
Mach wypowiadał radykalne poglądy na temat natury nauki. W owym czasie jednak zain-
teresowanie filozofią było w kręgu niemieckich intelektualistów powszechne. Dzisiaj sytuacja
wygląda inaczej, a „gwiazdy" nauki wychowują się prawdopodobnie na literaturze
fantastyczno-naukowej. Filozofia nauki jest postrzegana, by użyć sformułowania Holtona, jako
„ogłupiające zamieszanie" (debilitating befiiddlement). Fizyk, który zajmuje się mechaniką
kwantową, nie zna filozofii lepiej niż przeciętny mechanik samochodowy. Nie tylko zresztą
naukowcy są ignorantami w tej dziedzinie, także sama nauka jak gdyby uodporniła się na jej
problemy. W naszym stuleciu filozofowie bynajmniej nie zdominowali nauki, chociaż
niektórzy laureaci Nagrody Nobla, np. neurofizjolog John Eccles, mówiąc dużym wpływie,
który na ich pracę wywarł Kari Popper. Wyjątkiem jest także psychologia, która pozostaje w
ścisłym związku z zagadnieniami filozoficznymi, takimi jak natura wiedzy czy praca mózgu.
Nawet wybitni filozofowie nauki, np. Hilary Putnam, dostrzegali bezużyteczność filozofii w
zakresie zrozumienia natury nauki. Dzięki filozofii nie odkryto formuły lub recepty na
dokonywanie odkryć. Wielu jednak sławnych naukowców udzielało rad w rodzaju: próbuj
wielu rzeczy; rób to, co nakazuje sercu bić szybciej; myśl z rozmachem; miej odwagę
prowadzić badania tam, gdzie nie ma żadnego światła; rzuć wyzwanie oczekiwaniom; cherchez
le paradox; nie dbaj o to, że wydarzy się coś nieoczekiwanego, ale o to, abyś mógł
opowiedzieć, co się stało; nigdy nie próbuj rozstrzygać problemu, o ile nie przewidujesz, że
znajdziesz odpowiedź; precyzja pobudza wyobraźnię; szukaj prostoty;
szukaj piękna... Nie ma nic lepszego niż zastosowanie tych wszystkich rad. Żadna metoda
(paradygmat) nie jest zdolna ogarnąć całości procedury naukowej. Metoda naukowa po prostu
nie istnieje.
Nasze trudności doskonale obrazuje złożoność pojęcia „życia": kwestia, czy niektóre
maszyny i programy komputerowe żyją własnym życiem, nie oznacza wcale, że nie ma różnicy
między materią ożywioną a nieożywioną. Nauka jest złożonym procesem społecznym i żaden
naiwny opis, choćby za pośrednictwem kategorii Kuhna czy pojęcia falsyfikacji Poppera, nie
odda wiernie rzeczywistości. Problem wytyczenia granic pomiędzy nauką a światem jest
autentyczny tylko w tym sensie, że stała się ona równie jak on bogata, różnorodna i złożona.
Z powodów, które można łączyć z osobliwą naturą nauki, idee Karla Poppera i Thomasa
Kuhna są znane o wiele bardziej wśród reprezentantów humanistyki niż koncepcje
któregokolwiek współczesnego uczonego. Innym często cytowanym filozofem nauki jest Pani
Feyerabend, który w książce „Przeciwko metodzie" (Against Method) nakłania czytelników
„do uwolnienia społeczeństwa od duszącego uścisku nauki przesiąkniętej ideologią, tak jak
nasi przodkowie uwolnili nas ze szponów Jedynej Prawdziwej Wiary". Wszystkie te pomysły
nie miałyby znaczenia, gdyby pozostawały w granicach filozofii. Czasami używa się ich jednak
do podkopywania przedsięwzięć naukowych, wychodziło z założenia, że jeśli filozofia nie
determinuje nastawienia wobec prawdy i roli dowodów, cała koncepcja jest podejrzana.
Bardziej pragmatyczną strategię rozumienia natury nauki stanowi badanie sposobu pracy
uczonych. Wielce interesujące byłoby bliższe poznanie społecznych więzi pomiędzy
naukowcami, przebadanie roli tych interakcji oraz stosunków z innymi grupami społecznymi.
Uczeni nie pracują przecież w kulturalnej czy społecznej próżni. W rozdziale I poruszyłem
kwestię „socjobiologii" nauki, a na użytek analizy formalnej warto przytoczyć opinię
socjologów zajmujących się badaniem nauki.
Socjologowie nauki, myśląc kategoriami tradycyjnymi, którym poświęca swoją pracę Robert
K. Merton, pragnęli zrozumieć zachodzące w nauce procesy społeczne i próbowali zdefiniować
procedury, którymi posługuje się większość naukowców. Przedstawiciele starszego pokolenia,
tacy jak Emil Durkheim, traktując swoją dyscyplinę jako dziedzinę wyjątkową, wyłączali ją
poza obszar nauki. Osobiście jestem
zwolennikiem poglądów socjologa Maxa Webera, gdyż samo zaznajomienie się z jego
stosunkiem do nauki i definicją w znacznym stopniu uspokaja: „Nauka to wiedza lub wiara,
którą - jeśli się tego pragnie -można poznać w każdym czasie. Nie istnieją zatem tajemnicze,
nieobliczalne moce i w zasadzie każdy może pojąć rzeczywistość na drodze kalkulacji". Weber
podkreślił wyjaśniającą moc nauki: nie trzeba już dłużej „odwoływać się do magicznych
środków". Uznał zarówno siłę racjonalnego doświadczenia, jak i założenia nauki, np.
akceptację reguł logiki.
Ostatnio jednak grupa socjologów utożsamiła się z tzw. „Silnym Programem Socjologii
Nauki" (The Strong Programme of the Sociology of Science). Głoszą oni, że prawdziwa wiara i
racjonalność w nauce wymagają wyjaśnienia i analiz tego samego rodzaju, co irracjonalizm.
Nie zauważyli jednak żadnej różnicy pomiędzy odnoszącą sukcesy nauką, a tym, co większość
uczonych uznałaby za pracę drugo- lub trzeciorzędną. Ci, którzy uznają racje Silnego
Programu, sądzą, że wiedza jest konstrukcją społeczną, a zatem wszystkie jej dziedziny
zasługują na podobną uwagę. Ogół wiedzy rozpatrują w odniesieniu do środowiska
społecznego, w którym ona powstaje. Ta nowa socjologia głosi relatywizm nauki, a nazwana
została socjologią wiedzy naukowej (the sociology ofscientific hwwiedge) i oznaczona
akronimem SSK.
SSK wyraża swój stosunek do nauki poprzez stawianie następujących pytań:
1. Czy przekonania to część tradycyjnego poznania i „technicznej" znajomości rzeczy
przekazywanej z pokolenia na pokolenie i czy są wspierane przez społeczne autorytety?
2. Czy są przekazywane poprzez instytucje lub wspierana przez uznane organa kontroli
społecznej?
3. Czy wiążą się z modelami dzielenia zysków?
4. Czy pełnią dodatkową rolę w wyznaczaniu celów: politycznych, technicznych, czy też jednych
i drugich jednocześnie?
5. Jakie są praktyczne i bezpośrednie konsekwencje poszczególnych sądów na temat przekonań?
Brak jakiejkolwiek wzmianki o wkładzie w rozumienie świata, ich związku z rzeczywistością
i ich wewnętrzną logiką jest najbardziej uderzającą cechą wielu współczesnych koncepcji.
Program SSK został sprecyzowany następująco: „Powinniśmy zaniechać myśli o nauce jako
uprzywilejowanej czy nawet autonomicznej dziedzinie ludzkiej aktywności". Dla takich
socjologów nauki, jak Steve Woolgar, dotyczące jej pewniki oraz stare, unikatowe kulturowo
wierzenia zanikły. Relatywizm ma zagorzałych obrońców, np. Barry'ego Bamesa i Davida
Bloora, którzy twierdzą, że o realnym zagrożeniu naukowego pojmowania wiedzy i poznania
(cognition) mówią badacze przeciwstawiający się relatywizmowi, a zarazem obdarzający
niektóre formy wiedzy, takie jak nauka, uprzywilejowaną pozycją. Z głębokim przeświad-
czeniem mówią tym, co nazywają postulatem ekwiwalencji, która polega na tym, że wszystkie
przekonania uważane są za równoważne jeśli chodzi o ich wiarygodność. Według tych badaczy
zasięg wszystkich bez wyjątku przekonań wymaga empirycznego zbadania i muszą one być
wyjaśnione poprzez znalezienie ich specyficznych, lokalnych przyczyn. Tak mocne
stwierdzenia zmuszają do refleksji, czy owi teoretycy uznają realność przedmiotów
codziennego użytku, na przykład łyżeczki do herbaty.
Nawet tak oczywiste równania, jak 2 + 2 = 4, są traktowane jako pełnoprawne obiekty
socjologicznych badań - czy są logiczne i racjonalne. Uczeni z grupy SSK utrzymują:
„prowadząc badania nad rozsądkiem i logiką, odkrywamy, że rozsądek, logika i reguły to tylko
wtórne realizacje praktyk naukowych i matematycznych, nie zaś ich determinanty". Innymi
słowy, SSK to wyjątkowo ambitny program badawczy z bardzo szerokimi, żeby nie powiedzieć
ekstrawaganckimi twierdzeniami. Konieczne wydaje się przeanalizowanie j ego podstawowych
dowodów i twierdzeń oraz ustalenie, jakie nowe pomysły oferuje nam ta metoda. Trzeba od
razu podkreślić, że niewiele jej prac dotyczy matematyki i logiki, rozsądnie więc byłoby
zignorować przechwałki SSK na temat sukcesów w obu tych dyscyplinach. Wiele studiów
natomiast dotyczy biologii i fizyki, niektóre z nich spróbuję przedstawić bliżej.
Kiedy naukowcy odkrywają nowe prawo, zjawisko czy przedmiot, wierzą, że osiągnięcie to
odnosi się do istniejącego realnie zewnętrznego świata. Wynalazki, by można było je zaliczyć
do odkryć, powinny być nowatorskie i dotyczyć istotnych kwestii. Zupełnie odmienny pogląd
reprezentują zwolennicy programu SSK, podkreślając, że to społeczna akceptacja decyduje o
nadaniu jakiemuś faktowi miana prawdziwego odkrycia. W miejsce pytania o jego
charakterystyczne cechy pojawia się inne: za pomocą jakich metod nauka interpretuje pewien
rodzaj racjonalności, jeśli założymy, że działania i przekonania naukowe mogą być
porządkowane na różne sposoby?
Odkryte przez Mendla fundamentalne prawa genetyki zostały zbadane z socjologicznego
punktu widzenia przez Augustine'a Brannigana. Na przekór szeroko rozpowszechnionej opinii,
że rozprawę Mendla z roku 1866 do czasu jej ponownego odkrycia w 1900 roku po prostu
zlekceważono, Brannigan dowodzi, że zawartość dzieła miała mniejsze znaczenie niż
okoliczności jego pojawienia się, które u zarania XX wieku spowodowały umieszczenie praw
genetyki na liście osiągnięć naukowych. Zdarzenia, na które Brannigan kładzie taki nacisk,
dotyczą relacji między książką czeskiego uczonego a sporem dwóch genetyków, Carla
Corrensa i Hugona de Vriesa, oraz dyskusji nad jej związkiem z teorią ewolucji. Rzeczywiście
istniej ą dowody, że pracy Mendla nie zlekceważono zupełnie po jej pierwszym wydaniu, lecz
cytowano ją wiele razy, chociaż nikt nie sugerował jej doniosłego znaczenia. Trudno jednak
ustalić, gdzie i kiedy de Vries, który doszedł do podobnych wniosków jak Mendel, po raz
pierwszy przestudiował rozprawę czeskiego genetyka. Jakkolwiek potoczyły się wypadki,
Correns, również odkrywca podobnych praw, gdy 21 kwietnia 1900 roku otrzymał artykuł
przedstawiający koncepcję Vriesa, natychmiast wydał rozprawkę, w której zamieścił wyniki
badań zbliżone do rezultatów de Vriesa, ale przyznał pierwszeństwo Mendlowi. Być może
uczynił to, aby ostatecznie rozstrzygnąć dyskusję. Warto także przypomnieć żywiołowe
poparcie, którego udzielił Mendlowi Bateson, zgodnie z własnym przekonaniem, że wyniki
działalności naukowej Mendla popierają jego osobisty pogląd, iż pozbawiona ciągłości
zmienność (discontinuons
yariation) jest kluczową cechą ewolucji. A zatem w mniemaniu Brannigana sława Mendla w
mniejszym stopniu zależała od jego odkryć niż od sposobu, w jaki zostały one wykorzystane
przez innych podczas promocji ich własnych koncepcji.
Kojarzenie nazwiska uczonego z odkryciem jest sprawą prestiżową i powodem do chwały.
Nie powinno nas dziwić, że Correns użył pracy Mendla, aby ubiec de Vriesa. Dyskusje o
pierwszeństwie są rzeczywiście elementarną cechą nauki, a przyznanie badaczowi kredytu
zaufania ujawnia złożoność interakcji społecznych. Merton opisał tzw. efekt Matthewa - sławni
uczeni otrzymują nieproporcjonalnie wielki kredyt zaufania kosztem mniej znanych badaczy.
Doskonała opinia o uczonym wzmacnia zaciekawienie i powszechny szacunek dla jego
odkrycia. Socjologowie mają rację, twierdząc, że powodzenie lub niepowodzenie myśli
naukowej przynajmniej na początku zależy od czynników uzupełniających „czysto" naukowe
kryteria.
Odkrycia Mendla, później potwierdzone przez de Vriesa i Corrensa, pokazały, że
dziedziczność można uchwycić za pomocą tzw. „transmisji oderwanych cech
charakterystycznych", która utrzymuje tożsamość organizmów z pokolenia na pokolenie. Te
„oderwane cechy" na początku XX wieku nazwano krótszym i wygodniejszym terminem gen.
Główny obiekt badań Mendla stanowiły dziedziczność, jej czynniki i przejawy, a dalekosiężny
cel - wyrażenie jej w zmatematyzowany sposób i sformułowanie podstawowych praw
dziedziczenia określonych cech. Podejście Mendla z naukowego punktu widzenia było nowe.
Jak zauważa Franęois Jacob, osiągnięcia te wpłynęły na rozwój współczesnej biologii,
podobnie jak wprowadzenie statystycznej mechaniki do fizyki: czeski zakonnik i genetyk
skoncentrował się na małej ilości cech o wystarczająco zaznaczających się różnicach. Za jego
sprawą zjawiskom biologicznym narzucono matematyczny rygor. Nie stało się to przypadkiem,
ponieważ Mendel we wstępie do swojej pracy mówi:
„jak dotąd żadne ogólne prawo formowania się i rozwoju hybryd nie zostało szczęśliwie
sformułowane" i wskazuje na trudności takiego zadania. Opowiada następnie o swych
analizach, które wymagały wielkiej liczby niezbędnych doświadczeń, a także o konieczności
zaplanowania różnych form „stosownie do generacji". Mając to na uwadze, bardzo starannie
dobierał materiał eksperymentalny. Wybitny genetyk R. A. Fisher zauważył niegdyś, że w
pracy Mendla kiedy znajdzie to, czego szuka. Brannigan dowodzi jednak, że nie Mendel
wyprzedził swoje czasy i zyskał zaledwie umiarkowany rozgłos, ponieważ jego identyfikacja z
rówieśnikami była całkowita.
Socjologowie nie wyjaśnili jeszcze kwestii, dlaczego przed Mendlem nikt nie przeprowadził
podobnych doświadczeń. Dylemat ten przypomina przepaść czasową pomiędzy Arystotelesem
a Galileuszem, jeśli idzie o wyobrażenia o ruchu. Bez wątpienia czynniki społeczne odgrywają
w odkryciach pewną rolę, dopóki jednak socjologowie nie będą przekonani, że Mendel i
Galileusz wnieśli znaczący wkład do nauki, mało prawdopodobne, że rozpoczną analizę ich
dokonań. Jeśli potraktują całą naukę w sposób beznamiętny i bezstronny, nie wyróżniając
wielkich osiągnięć, mogą stracić z oczu istotę zagadnienia. Odkrycia naukowego nie można
oceniać wyłącznie w kategoriach społecznych, trzeba również brać pod uwagę wiedzę, której
ono dostarcza.
Inny historyczny przykład dotyczy frenologii - teorii popularnej w XVIII i XIX wieku,
według której zdolności umysłowe i cechy psychiczne człowieka można określić po wielkości i
ukształtowaniu czaszki. Początki frenologii wiążą się z nazwiskami Viennese'a, a zwłaszcza
doktora Franza Galia, który wraz z asystentem Johannem Spurzheimem pod koniec XVIII
wieku sformułował trzy główne zasady teorii: mózg jest narządem umysłu; składa się z pewnej
liczby odrębnych organów, a każdy z nich odpowiada za inną umiejętność; wielkość każdego
organu decyduje o skali zdolności w danej dziedzinie. Sporządzono listę trzydziestu sześciu
zdolności, zaliczając do nich np. miłość do dzieci, obojętność, roztropność i godność. Na
początku XIX wieku w Edynburgu działał fanatyczny zwolennik Spurzheima, George Combe,
eklektyk bez żadnego wykształcenia naukowego. Opozycję wobec jego frenologii utworzyli
edynburscy anatomowie uniwersyteccy oraz wykładowcy filozofii ludzkiego umysłu, w
szczególności profesor sir William Hamilton. Owi myśliciele i moraliści podtrzymywali wcześ-
niejszą opinię, że umysł jest bytem niematerialnym, jednostkowym
i niewidzialnym, co przeciwstawiało się poglądom frenologów. Krytycznie odnosili się do listy
trzydziestu sześciu zdolności i pytali, dlaczego nie ma wśród nich na przykład miłości do koni.
To złośliwe pytanie nie zostało najszczęśliwiej dobrane, ponieważ frenolodzy uwzględnili
miłość do zwierząt. Przeciwnicy prowadzili zaciętą dysputę w latach 1803-1828, wreszcie
wnioski wynikające z obserwacji mózgu obaliły twierdzenia frenologów. Rozstrzygających
argumentów dostarczyły badania zatok czołowych, ponieważ - zdaniem Hamiltona - różnią się
one znacznie u poszczególnych osobników, a ponadto w trzydziestu procentach maskują
rozwój tak zwanych organów frenologicznych. Poza tym ani one same, ani związane z nimi
zdolności nie zostały jasno zdefiniowane - prawie żadne spostrzeżenie nie znalazło
potwierdzenia. Hamilton odkrył także, iż móżdżek - zdaniem frenologów organ aktywności
seksualnej -jest większy u płci żeńskiej, co okazało się przeciwieństwem frenologicznych
oczekiwań.
Choć naukowy dowód rozwiązał kwestię, spotkał się z krytyką za lekceważenie społecznego
wymiaru owego sporu. Sugerowano, że punkty widzenia opozycyjnych frakcji były
niewspółmierne, a samą wojnę pomiędzy frenologami a filozofami należało w większym
stopniu traktować jako konflikt profesorów uniwersyteckich i słuchaczy ich wykładów z
ludźmi ze środowiskiem akademickim nie związanymi. Znacznego poparcia udzieliły
frenologom klasy średnie i robotnicy. Nacisk frenologów na metody eksperymentalne w
psychiatrii stanowił odbicie ich społecznego egalitaryzmu. Silnym punktem teorii
frenologicznej było również skupienie się na obserwacjach, które mógł przeprowadzić każdy,
dzięki czemu zwykły człowiek sam dochodził do prawdy. Frenolodzy jednak błędnie uznawali,
że adepci nauki kierują się zdrowym rozsądkiem.
Socjologiczny punkt widzenia nie uwzględnia ideowego zróżnicowania stron konfliktu,
nawet jeśli niewykształceni amatorzy wnieśli znaczący wkład w rozstrzyganie spornej kwestii
naukowej. Co więcej, wspomniany spór nie toczył się w środowisku naukowym, lecz pomię-
dzy uczonymi a outsiderami. Analiza SSK. opiera się, jak się wydaje, na mniemaniu, że każdy
może uprawiać naukę, a różnica wykształcenia
się nie liczy. Mimo wszystko najbardziej istotna pozostaje kwestia zgodności teorii z
rzeczywistością.
Niezmiernie ciekawego wyboru tematów dokonali przedstawiciele SSK, chcąc przebadać
relatywizm w kontekście historycznym. Przedmiotem analiz, przeprowadzanych po to, by
potwierdzić słuszność relatywizmu, nie stało się żadne z głównych osiągnięć współczesnej
biologii - gen i DNA, elektrofizjologia, biochemia itd., albowiem niełatwo dostrzec sposób, w
jaki na przykład odkrycia matrycowego RNA (rozdział IV) czy też struktury i roli DNA
(rozdział I) mogłyby stanowić tylko konstrukcje społeczne. Taką opinię wydałaby jedynie
osoba nieświadoma złożoności uprawiania nauki.
Jedną z rzadkich prób przeanalizowania podstaw postępu w nauce współczesnej jest studium
Andrew Pickeringa o rewolucji w fizyce jądrowej, która zakończyła się odkryciem kwarków i
jedności dwóch fundamentalnych sił natury - słabych sił jądrowych i oddziaływania
elektromagnetycznego. Kwarki postrzegano jako hipotetyczne cząsteczki elementarne, z
których są zbudowane wszystkie inne znane cząstki. Dla fizyki atomowej rozpoczęła się nowa
era. Pickering twierdzi, że swoją rozprawę napisał w ramach „konstruktywistycznej" koncepcji
socjologii nauki. Uważa się za zwolennika „Silnego Programu" socjologii wiedzy. Jego analiza
nie odzwierciedla jednak takiego podejścia, nie widać również śladów konfliktu z
wyobrażeniem naukowego postępu, które sami uczeni byliby skłonni zaakceptować. W
rzeczywistości mamy tu do czynienia z analizą socjologiczną, przedstawiającą na przykład
fakty związane z finansowaniem i budową bardzo kosztownych akceleratorów wysokiej
energii, potrzebnych do przeprowadzania doświadczeń. Opisy Pickeringa obrazują jedynie
złożone interakcje pomiędzy teoretykami a eksperymentatorami, interakcje, które można
jednak przewidzieć. Doświadczenia potwierdzające teorię Pickeringa (która okazała się
prawdziwa) w kilku wypadkach zawiodły, zostały więc zarzucone, chociaż nigdy całkowicie
ich nie zdyskredytowano. (Jest to oczywiście kolejny kontrprzykład modelu falsyfikacji
Poppera jako motoru rozwoju nauki). Przede wszystkim Pickering ujawnił podstawy
współpracy między teoretykami a eksperymentatorami: i jedni, i drudzy poszukują możliwości
kontynuowania badań.
W przekonaniu Pickeringa wybór naukowy jest otwarty, ponieważ nie determinuje go
ograniczony zbiór danych. Uczony zawsze może znaleźć wiele teorii, aby wyjaśnić dany
zestaw faktów. A jednak to mylny pogląd. Naukowcy decydują, z których danych doświadczal-
nych albo konstrukcji teoretycznych zrezygnować w momencie pojawienia się konfliktu.
Pickering twierdzi, że do takich decyzji nie są oni zmuszani przez same dane. Wolny wybór
wyklucza pewne opcje, lecz pozostawia szansę wykorzystania ich w praktyce. Mamy tu jednak
do czynienia wyłącznie z hipotezą, która nie została dokładnie przeanalizowana. Racje
przeciwstawne ukazuje dokonana przez Pickeringa rekonstrukcja akceptacji prądu zerowego -
zjawiska związanego z cząsteczkami neutrino. Przed 1971 rokiem negowano jego istnienie,
dopiero od 1974 roku został uznany. We wcześniejszym okresie pewna eksperymentalna praca
ujawniła możliwość istnienia tego prądu, ale obliczenia w niej zawarte stwarzały wiele
możliwości, a wobec braku odpowiedniej teorii kwestii tej nie rozstrzygano. Przeprowadzone
w późniejszym okresie nowe badania zachęciły do sprawdzenia poprzednich doświadczeń. W
rezultacie uznano istnienie prądu zerowego. Gdybyśmy wiedzę na jego temat potraktowali jako
wytwór społeczny, wówczas zostałaby ona od razu uznana przez większość naukowców.
Pickering zanegował naiwny realizm uczonych, ale nie zaproponował niczego w zamian.
Rewolucja w fizyce jądrowej wiąże się z teorią niewspółmierności Kuhna. Fizycy nowego i
starego pokolenia różnią się tak bardzo, że niepodobna ich pogodzić. Wbrew jednak pojęciu
niewspółmierności najnowocześniejsi z nich mogą pracować w świecie, w którym o wszystkim
się dyskutuje, oficjalnie wyróżnia się sporne problemy, a w konstruktywnej atmosferze łączy
się te obszary dyscypliny, które wcześniej pozostawały w izolacji.
Chociaż występuję przeciwko relatywistom, nie twierdzę, że czynniki społeczne nie
wywierają wpływu na naukę. Przeciwnie: sądzę, iż aktualne idee mają wpływ na myślenie
naukowe, które przejmuje rozwiązania panujące w świecie techniki. Na kreatywność
oddziaływuje bowiem wiele czynników. Nikt nie zaprzeczy, że istotną rolę pełnią tu autorytet,
moda, konserwatyzm i osobisty prestiż. Nie dziwi więc fakt,
że uczeni stosują chwyty retoryczne, promując własne koncepcje, według nich drogocenne,
których sukces chcieliby ujrzeć. Francis Crick i inni mikrobiolodzy w latach pięćdziesiątych
niewątpliwie byli bliscy stworzenia nowego przedmiotu. A znowu Galileusz stosował retorykę,
aby przekonywać i atakować. Błędne jest jednak mniemanie, że w porównaniu z retoryką,
perswazją i dążeniem do władzy nauka nie ma żadnego znaczenia. Sama retoryka nie przekona
nikogo, może natomiast zmusić do poważnego traktowania idei, to znaczy podjęcia próby jej
zrozumienia i sprawdzenia. Ostatecznie perswazja nic nie znaczy, gdy teoria nie spełnia
kryterium zgodności z naturą. Jeśli nie będzie komunikatywna ani logicznie spójna, jeśli nie
zaoferuje odpowiedniego wyjaśnienia, czynniki społeczne niczego nie zmienią: teoria upadnie.
Zjawisko to jest bez wątpienia zdeterminowane przez kulturę, w której odbywa się akceptacja
metody naukowej.
Problem ruchu kontynentów (rozdział V) to dobry przykład na uznanie nowych idei dzięki
dowodom, a nie czynnikom społecznym, które w tym wypadku opóźniały akceptację. Podobny
przykład pochodzi z przełomu lat siedemdziesiątych, kiedy to pojawiły się, oparte na do-
świadczeniach, przeróżne koncepcje związane z odkryciem nowej formy wody zwanej
poliwodą (poływater), która, jak sądzą niektórzy, jest niebezpieczna, jak „lód-9 (ice-9) z
powieści Kurta Yonneguta „Kocia kołyska" (Cal 's Cradle), ponieważ mogłaby spowodować
łańcuchową reakcję krystalizacji wody na całym świecie i tym samym doprowadzić do
katastrofalnej suszy. Chociaż wielu wybitnych fizyków pracowało nad tą kwestią, podobnie jak
teoria ruchu kontynentów spotkała się ona z ogromnym sceptycyzmem. W tym wypadku
okazał się on słuszny -eksperymenty wykazały, że woda została zanieczyszczona, ponieważ
użyto brudnego naczynia szklanego. Znowu zatem dowody, a nie siły społeczne wpłynęły na
odrzucenie błędnej koncepcji. Także nauka doprowadziła do zaniechania ekscytujących
pomysłów o zimnej syntezie jądrowej. Małe błędy w nauce mogą postać nie zauważone, lecz
nie dotyczy to kwestii podstawowych: społeczeństwo może reagować gwałtownie - nauka
potrafi się tym naciskom oprzeć.
Przy rozpatrywaniu natury nauki zbyt wiele zajmowano się teorią, pomijając rolę
eksperymentu. Doświadczeń nie stosuje się do sprawdzenia założeń teorii: obserwacje są
wykorzystywane w skomplikowany sposób, co pociąga za sobą interakcje pomiędzy zespołem
eksperymentalnym a obserwatorem. Z czynnikiem społecznym mamy tu do czynienia o tyle, o
ile zmusza nas do stworzenia innym możliwości wykonania doświadczenia, a nawet
udostępnienia niektórych pomysłów, aby przekonali jeszcze innych do naszego punktu
widzenia. Szczegółowa analiza notatek Faradaya daje nam pogląd na sposób, w jaki natura -
rzeczywistość - wpływa na myślenie naukowe i zadaje kłam opiniom społecznym. Faraday
stale musiał rekonstruować, udoskonalać i formułować swoje koncepcje, niczym maszyna
produkująca nieoczekiwane spostrzeżenia. Uczony ten pragnął bowiem nadać sens wszystkim
zjawiskom.
Relatywizmowi w nauce wsparcia udzieliła także antropologia. W rezultacie niektórzy
antropolodzy nie traktują sposobu myślenia społeczeństw prymitywnych jako gorszego od
rozumowania charakterystycznego dla kultury zachodniej. Uznają za powszechne myślenie
naukowe oraz skłonność do racjonalizmu, niechętnie słuchając opinii, że w Tikopii czy
Timbuktu jest jednak „trochę chemii i nieco mniej rachunku różniczkowego". Nie uznają także
wniosku, że nauka nie jest mimo wszystko wspólną własnością rodzaju ludzkiego. Dlatego
często próbowali przedstawiać myślenie prymitywnych społeczności jako racjonalne i nie
różniące się od naukowego (zob. rozdział III). Afrykańskie systemy religijne postrzegali jako
modele teoretyczne pokrewne nauce, konflikty zaś pomiędzy racjonalnością a mistycyzmem,
rzeczywistością i fantazją, minimalizowali. Kosmologie okazują się wewnętrznie spójne, o ile
przyjmie się ich założenia, choć poprawność tej metody budzi poważne wątpliwości.
Klasycznym przykładem takiego podejścia jest powstałe w latach trzydziestych studium
Evansa Pritcharda o zwyczajach magicznych plemion Azandów. Według Pritcharda „nie
potrafią oni przyjąć, że ich myśl jest zła... wyjść z własnych sideł, ponieważ jest to jedyny
świat, jaki znają". Ów system pozostaje wewnętrznie spójny i racjonalny. Jest on jednak
układem zamkniętym w porównaniu z otwartością nauki i nie posiada świadomości niewiedzy i
tradycji krytycznej. Nawet po uwzględnieniu tak ważnych przy-
czyn tej sytuacji, jak brak pisma i izolacja, system ten różni się od nauki. Antropologiczne
wyjaśnienia kosmologii obrazujących strukturę społeczeństwa są odmienne od kosmologii
naukowej, która próbuje tłumaczyć wszechświat bez odwoływania się do istot ludzkich.
W przeciwieństwie do nauki, czary i magia potrafią dobroczynnie wpływać na życie
społeczne, gdy wykorzystuje sieje do łagodzenia niepokojów i napięć społecznych. Każda
część systemu wierzeń przyczynia się do zachowania całości, żaden element nie jest zbędny.
Myślenie ma charakter społeczny. Trudno sobie wyobrazić coś bardziej osobliwego od nauki,
której teoretyczna osnowa zostaje niekiedy zupełnie podkopana -jak na przykład w koncepcji
ewolucji Darwina -a często jest anty intuicyjna. Dla członków kultury prymitywnej czy nawet
religijnej zjawiska anty intuicyjne nie istnieją. Zadziwiające, że ani socjolodzy, ani
antropolodzy nie okazali większego zainteresowania tymi podstawowymi różnicami.
Edmund Leach wykazał, że mit sam w sobie jawi się jako czysta fantazja, znajduje jednak
potwierdzenie w stylu życia ludzi, którzy go o-dziedziczyli. Angielski etnolog i antropolog
pragnął podważyć powszechne mniemanie, że niektóre społeczności wierzą w „dziecinne za-
bobony" (termin utworzony przez antropologów) i sugerował, że prymitywna myśl jest „tak
wyrafinowana, jak i my, ale ludzie żyjący w jej kręgu używają odmiennego systemu
komunikowania". Analiza mitu przeprowadzona przez Levi-Straussa kończy się zadziwiającą
konkluzją: „Jeśli dokonamy poprawnej interpretacji, doprowadzi nas ona do wniosku, że logika
myśli mitycznej jest równie sformalizowana, jak współczesnej nauki, a różnica polega nie na
jakości intelektualnego procesu, ale na naturze problemu... Potrafimy wykazać, że te same ope-
racje logiczne wykorzystywane są tak w micie, jak w nauce". Chociaż inne społeczności także
mogą być mądre i logiczne, nie powinniśmy utożsamiać ich „logiki" z nauką. Trzeba uznać, że
społeczeństwo wpływa na naukę i odwrotnie (na przykład koncepcje rozwoju embrionu po-
wstały pod silnym wpływem religii - zob. rozdział VII), naukowe pojęcia zaś mogą być
czasami stosowane do uzasadniania postaw społecznych (rozdział VIII). O wiele ważniejsze
jest jednak, że teorie naukowe, począwszy od mechaniki kwantowej aż po kod genetyczny,
tworzono w zupełnie odmienny sposób niż mity, które badali antropolodzy, koncepcje te
służyły bowiem całkiem innemu celowi: wyjaśnianiu. „Zrozumienie" zaś jest słowem rzadko
używanym przez antropologów czy socjologów nauki.
Sporne kwestie odnoszące się zarówno do relatywizmu, jak i do znaczenia społecznych
oddziaływań można ująć syntetycznie w pytaniu:
czy nauka przybrałaby inną postać, gdyby rozwijała się w odmiennych warunkach
historycznych? Czy podstawą rozwoju fizyki byłby tzw. układ sił podstawowych? Czy biologia
byłaby możliwa bez komórki i DNA? Czy powstałby okresowy układ pierwiastków i chemia
organiczna? Odpowiedź relatywistów byłaby prawdopodobnie pozytywna, lecz wtedy
musieliby oni uzasadnić słuszność swojego stanowiska. Uważam, że na postawione tu pytania
należy odpowiedzieć przecząco bez jakichkolwiek dwuznaczności: nauka potoczyłaby się
innym torem, ale jej idee pozostałyby takie same. W moim przekonaniu nauka, pomimo
błędów i białych plam, coraz lepiej tłumaczy świat. Rozstrzygającym argumentem może
okazać się tu rola matematyki.
Nawet najbardziej zagorzali relatywiści nie wierzą, że matematyka jest tworem społecznym.
Poza tym niektóre jej działy dostarczają podstawowych narzędzi do opisu pojedynczych
fenomenów. Nie można wyobrazić sobie nauki o ruchu bez dokonywania obliczeń. Jeśli relaty-
wiści chcą przekonać nas o uwarunkowaniach społecznych matematyki, muszą przedstawić
przynajmniej jakieś kontrprzykłady.
Wspierający relatywizm socjolodzy mają dodatkowy problem. Utrzymują, że wiedza nie
potrafi uchwycić ani stworzyć możliwości podstawowego wzorca czy właściwej struktury
świata naturalnego. Ich zdaniem specyficzne porządki są konstruowane, nie zaś ujawniane, wy-
myślane raczej niż odkrywane. W takim razie powyższe twierdzenia socjologów należy
zastosować także wobec ich własnych koncepcji, a tym samym uznać je za bezwartościowe.
Oczywiście sama natura socjologii wyjaśnia, dlaczego reprezentanci tej dziedziny pragną
podciąć korzenie nauki. W pewnym sensie cała nauka chciałaby upodobnić się do fizyki, fizyka
zaś do matematyki. Zbyt wielkie aspiracje mogą jednak prowadzić do frustracji. Pomimo
ostatnich sukcesów biologia ma jeszcze przed sobą długą drogą w porównaniu z fizyką czy
chemią. A socjologia? Biolodzy nadal są pełni nadziei i w sprzyjających im warunkach sięgają
coraz dalej, ale jakie szansę ma socjologia upodobniona do fizyki? Trzeba przyznać, że
problemy socjologiczne są ogromnie skomplikowane i obecnie przedwcześnie byłoby
oczekiwać wielkiego postępu w tej dziedzinie (rozdział VII). Jej sytuacja jest bardzo trudna,
gorsza nawet niż psychoanalizy. Nic zatem dziwnego, że -jak to wyraził przewodniczący Rady
do Spraw Badań Społecznych i Ekonomicznych, Howard Newby - z powodu „ogromnego
kompleksu niższości" przedstawiciele nauk społecznych z „radością atakowali wszystkich,
którym powiodła się demistyfikacja oficjalnego credo nauki i starali się pokazać, że jest ona
tylko jednym ze sposobów tworzenia". Próbę dorównania tradycyjnej nauce uznali za zbędną.
Ignorując osiągnięcia nauki, lekceważąc kwestię prawdy czy fałszu, negując postęp,
socjolodzy stracili z oczu sens przedsięwzięcia naukowego. A przecież nauka osiągnęła
nadzwyczajne sukcesy w opisywaniu i rozumieniu świata. Socjolodzy powinni ze swego
punktu widzenia spróbować naświetlić ten nadzwyczajny, niecodzienny, czyli „nienaturalny"
proces. Konieczne jest na przykład przeanalizowanie problemów wpływu,
zinstucjonalizowanych struktur na uprzywilejowanie postępu naukowego, tego co determinuje
wybór kariery naukowej, jak powinno się najefektywniej sponsorować naukę, w jaki sposób
zachęcać do badań interdyscyplinarnych. Filozoficzne ataki na naukę też są jednak potrzebne,
gdyż zawsze trzeba pozostawiać pole krytyce;
jak na razie jednak jej rezultaty nie są zadowalające. Podzielam pogląd Franciszka Bacona,
który już czterysta lat temu głosił, że ludzie interesujący się nauką powinni „odrzucić refleksję
filozoficzną lub oczekiwać od niej jedynie niewielkiego i ubogiego owocu".
Zachęcającą i nowatorską perspektywę przyjął filozof Richard Rorty. Jego zdaniem należy
racjonalnie określać sposoby postępowania naukowego charakteryzujące się rozsądkiem i
logiką, aby była możliwa dyskusja, która pozwala uniknąć dogmatyzmu. W takim kontekście
Rorty widzi naukę jako godny naśladowania przykład, wzór ludzkiej
solidarności. Instytucje i codzienne doświadczenia nauki wpływają na sposób organizacji całej
naszej kultury. Pomijając pytania o stopień obiektywizmu, racjonalizmu, logiki uczonych,
wypada stwierdzić, że stworzyli oni model postępowania, w którym istniej ą swobodne dysku-
sje, a przyjęte standardy zachowania i środki zapewniają, że prawda zawsze zwycięży.
Swobodna wymiana myśli oraz obserwacja natury okazują się bowiem najlepszymi
sprzymierzeńcami postępu.
Rozdział VII

Nienauka

•)QS\I wiedza naukowa jest szczególna i uprzywilejowana - w tym sensie, że oferuje nam
dokładniejsze rozumienie świata - to jak odróżnić naukę od nienauki? Jak potraktować żądanie
włączenia do grona uprzywilejowanych tych dziedzin, które większość uczonych odrzuca?
Ludzie, którzy zajmują się astrologią czy parapsychologią nieustannie apelują, by uznać te
dziedziny za naukowe. Poważniejszy charakter mają natomiast żądania akceptacji wysuwane
przez osoby zajmujące się skomplikowanymi obszarami ludzkiego zachowania, na przykład
psychoanalityków. Sporną kwestią jest także zgodność nauki z religią i z twierdzeniami
kreacjonistów.
Nie zawsze łatwo przytoczyć dostateczne powody odróżniania nauki od nienauki, uzasadnić
na przykład, dlaczego odrzuca się niektóre twierdzenia odnoszące się do zjawisk
paranormalnych. Kryterium falsyfikacji Poppera („Jeśli jakaś hipoteza nie może zostać
poddana procedurze stwierdzającej fałszywość twierdzeń, nie powinna być uznawana za
naukę") jest, niestety, mało przydatne, ponieważ wiele łatwych do sfalsyfikowania sądów,
takich jak na przykład: „Jedzenie hamburgerów zrobi z ciebie dobrego poetę", to oczywisty
absurd. Falsyfikacja stanowi kryterium konieczne, ale nie wystarczające. Dziedzina musi
spełniać szereg warunków, by mogła być uznana za naukę:
zjawiska, których dotyczy, powinni potwierdzić niezależni obserwatorzy; stosowane w niej
pojęcia muszą być spójne, a wyjaśnienia, które podaje, łączyć się z innymi gałęziami nauki. Do
wytłumaczenia złożonych zjawisk powinna wystarczać niewielka liczba praw i mechanizmów;
byłoby ideałem, gdyby nauka miała charakter „ilościowy", a jej teorie dały się wyrazić
matematycznie.
Rodzi się wątpliwość, czy dyscypliny wiedzy o społeczeństwie spełniają wymagania
naukowości. Posługują się one oczywiście niektórymi metodami stosowanymi przez tak zwane
nauki „ścisłe" - fizykę, biologię i inne. Hipotezy typowo naukowe winny być jednak
formułowane i sprawdzane tak często, jak to możliwe, chociaż osobliwością nauk społecznych
jest złożoność ich tematyki, i co się z tym wiąże - ogromna trudność interpretacji
przypadkowych związków. Niełatwo tu na przykład przeprowadzić takie doświadczenia jak w
fizyce, w której można zmienić jedną zmienną, zachowując pozostałe, i w ten sposób
obserwować wpływ badanej operacji na cały układ. Prosty przykład to badanie zmian ciśnienia
gazu o stałej objętości przy zmieniającej się temperaturze. W naukach „ścisłych" wielkim
powodzeniem cieszy się stanowisko „izolacjonisty". Nawet jeśli reprezentanci nauk społecz-
nych sami dostrzegą zależności pomiędzy różnymi zdarzeniami, trudno kontrolować wyniki i
rozstrzygać, które są niezbędne i godne zaufania. To dlatego wyrywkowe testy kliniczne są
istotne przy ocenianiu zabiegów leczniczych: efekt kuracji można sprawdzać przez porównanie
dwóch wybranych losowo grup, z których tylko jedna była leczona. W zestawieniu z biologią
jednak - bardzo trudno pozostać redukcjonistą na gruncie nauk społecznych.
Jako szczególny przykład teorii należącej do nauk społecznych wybrałem psychoanalizę.
Freud zaoferował nam bowiem wybór kuszących koncepcji, które miały i nadal mają istotny
wpływ na próby wyjaśniania ludzkich zachowań. Chciałbym się zastanowić, czy koncepcje te
odpowiadają wymaganiom stawianym przez naukę, w moim przekonaniu jeśli psychoanaliza w
ogóle jest nauką, to bardzo prymitywną i w pewnym sensie niedojrzałą. Dowód zaś zostanie
oparty na analogii pomiędzy osiemnastowieczną embriologią a psychoanalizą współczesną.
Dylemat, czy embriony są od początku ukształtowane, czy też rozwijają się stopniowo, może
dostarczyć użytecznego modelu początkującej nauki.
Początki wiedzy embriologicznej wiążą się z działalnością Hipokratesa (V wiek przed naszą
erą). Ten największy lekarz starożytnego świata za punkt wyjścia rozwoju przyrody uznał dwa
główne elementy
ciał naturalnych: ogień i wodę. Ta koncepcja może teraz wydawać się takim samym absurdem,
jak zafascynowanie Talesa wodą (rozdział III), ale stanowiła przynajmniej próba wyjaśnienia
natury rzeczy za pomocą ogólnej teorii. Do triumfu greckiej myśli embriologicznej przyczynił
się jednak Arystoteles, który sądził, że zarodek powstaje z krwi menstruacyjnej, a kształt
nadaje mu dynamiczny składnik męski. Arystoteles zadał sobie pytanie, czy wszystkie części
embrionu kształtują się w tym samym czasie, czy też rozwijają się sukcesywnie, a ów proces
przebiega jak wiązanie sieci rybackiej. Zainicjował tym samym kontrowersję między
preformacją a epigenezą. Otwierając jaja kurze w różnych fazach rozwoju, opierał dowodzenie
na analogii do wiązania sieci, a tym samym opowiadał się za teorią epigenezy, czyli za stopnio-
wym rozwojem organów embrionu. Odrzucił główne twierdzenie teorii preformacji - iż
zarodek od początku jest uformowany, tylko w miniaturze - opierając się jednak na
argumentach filozoficznych, nie na obserwacji.
Podstawą stworzonej przez Arystotelesa teorii rozwoju nie były żadne rzeczywiste
świadectwa. Obecnie wiemy, że embriony naprawdę rozwijają się w procesie epigenezy,
Arystoteles miał więc rację, choć przyjął fałszywe przesłanki: uczynił trochę więcej niż
rozwiązanie fascynującej zagadki. Postawił przy tej okazji ważne pytania dotyczące natury
ewolucji, a myślenie o niej niewiele zmieniło się aż schyłku lat XIX wieku. Po
przeprowadzeniu w XVII wieku szczegółowych badań rozwoju embrionu dwaj uczeni
angielscy, Fabricius i William Harvey, poparli teorię epigenezy, zgodną z wykładnią
Arystotelesa.
Pojęcie preformacji, przeciwstawiając się epigenezie, głosi, że wszystkie zarodki istnieją od
początku świata. Pogląd ten został po raz pierwszy dokładnie zdefiniowany w latach
siedemdziesiątych XVII wieku - między innymi przez biologów - Malebranche'a we Francji
oraz Swammerdama w Holandii. Podstawą koncepcji było przekonanie, że pierwszy embrion
zawierał już wszystkie następne. Istniały poważne wątpliwości, czy epigenezą jest możliwa,
wydawało się bowiem, że pomniejsza ona znaczenie sił boskich. Czy rzeczywiście można
cudowny rozwój tłumaczyć za pomocą mechanizmów opartych na naukowych
zasadach, takich jak siły fizyczne? Zwolennicy preformacji wierzyli, że wszystkie części
organizmu istnieją od samego początku i po prostu rosną. Jeśli teoria ta byłaby prawdziwa,
wówczas każdy embrion musiałby zawierać w zminiaturyzowanej formie wszystkie przyszłe
zwierzęta (albo rośliny), którym da początek. Malebranche'owi nie wydawało się niedorzeczne
to, że w jednym nasionku znajduje się niezliczona liczba drzew: taka myśl mogła wydawać się
przesadną tylko tym, którzy moc Boga mierzyli siłą własnej wyobraźni.
Osiemnastowieczni zwolennicy preformacji znajdowali odpowiedź na każdy rodzaj krytyki.
Kiedy francuskiemu wyznawcy tej teorii, Charlesowi Bonnetowi, przedstawiono argument
mówiący, że gdyby pierwszy królik zawierał zalążki wszystkich królików, to musiałby mieć w
sobie l010000 już ukształtowanych zarodków, odpowiedział po prostu, że wyobraźnię zawsze
można zmiażdżyć ciężarem cyfr. Bonnet opisał teorię preformacji jako najbardziej imponujące
zwycięstwo racjonalizmu: „Jeden z największych triumfów pojmowania rozumowego nad
zmysłowym".
Dzięki powstaniu teorii preformacji można było wyjaśnić wiele poważnych problemów
filozoficznych. Gdyby materia mogła kształtować istoty organiczne, niewielka rola
pozostawałaby Stwórcy. Ponadto sprawowanie kontroli nad rozwojem przez mechanizmy
fizyczne, jak sugerował Kartezjusz, wydawało się niemożliwe, ponieważ są one (np. prawa
ruchu) ślepe, tzn. nie maj ą określonego celu. W jaki sposób siły te mogłyby wygenerować
doskonały organizm? Według francuskiego biologa, Buffona, istnieje wewnętrzna matryca,
która nadaje embrionowi formę za pomocą „sił przenikliwych". Inni twierdzili, że zarodek za-
wiera jakiegoś „mistrza konstrukcyjnego". Ale takie teorie nie dawały żadnej rozsądnej
odpowiedzi i były ostro krytykowane przez innych zwolenników preformacji, takich jak
szwajcarski naukowiec Albrecht von Haller. Niezmienne wytwarzanie podobnych, harmonijnie
zbudowanych zwierząt wydawało się zbyt skomplikowane wobec prostych sił, które tworzą na
przykład kryształ soli.
Caspar Friedrich Wolff był natomiast gorącym zwolennikiem teorii epigenezy, a swoje
poglądy opierał na dwóch zasadach: na zdolności
zespolenia się fluidów roślinnych i zwierzęcych oraz na vis essentialis czy też sile witalnej,
które to czynniki miały wyjaśniać ewolucję. Wolff był racjonalistą, zwolennikiem i
propagatorem idei wystarczającego powodu (sufficient reason). Istota owej vis essentialis była
mu obojętna: „Wystarczy mieć świadomość, że ona jest, i rozpoznawać ją po przejawach
istnienia..." Nie podobało mu się, że preformacjoniści uznawali Boga za jedyną przyczynę
tworzenia. Jeden z głównych problemów słynnego sporu Wolffa z Hallerem dotyczył rozwoju
naczyń krwionośnych otaczających embrion, które u pisklęcia pojawiają się zadziwiająco
wcześnie. Haller był pewien, że istnieją one od początku i stopniowo stają się widoczne,
podczas gdy Wolff twierdził, że powstają w trakcie rozwoju zarodka. Założenie Wolffa, że jeśli
struktura nie istnieje, nie można jej zobaczyć, Haller uznał za nieuzasadnione.
Jedną z najbardziej atrakcyjnych cech fizyki jest to, że opisuje ona zbiór podstawowych
mechanizmów, za których pomocą można wyjaśniać wiele zjawisk. Zrozumienie tych
mechanizmów, na przykład praw Newtona, może nie być łatwe, ale i tak są one znacznie
prostsze niż różnorodne ruchy ciał, których objaśnienie stanowią. Główną trudność
rozwiązania kontrowersji między preformacją a epigenezą stanowił fakt, że proponowane
wyjaśnienia były tak skomplikowane, jak same zjawiska. Preformacją, wyrażając przekonanie,
że wszystko istniało od początku, jedynie wstępnie tłumaczyła zjawiska, a jej podstawowe po-
jęcia - „mistrz konstrukcyjny" (building master) i „siła witalna", gdy porównać je z teorią
epigenezy, są tak samo trudne do pojęcia, jak rozwój embrionalny.
Czy jakiś dowód mógł rozstrzygnąć spór na korzyść epigenezy lub preformacji? Odpowiedź
na to pytanie jest negatywna, ponieważ problemu nie udało się rozwiązać jeszcze przez
następne półtora wieku. Embriologia pozostawała nauką opisową i nie prowadzono żadnych
badań przyczynowych. Dopiero pod koniec XIX wieku, wraz z narodzinami embriologii
eksperymentalnej, kwestię tę zaczęto dokładniej definiować i ustalono niektóre wyniki.
Odkrycie, że wszystkie organizmy składają się z komórek, ukazało problem w zupełnie innym
świetle, ponieważ uświadomiono sobie, że nowe komórki powstają w trakcie rozwoju, przez
podział starych. Cytologia uczyniła postępy dzięki coraz lepszym mikroskopom, dowodząc, że
embriony mogą rozwijać się w procesie epigenezy, niedawno zaś odkryto, iż cały program tego
rozwoju jest zawarty w DNA. Idea preformacji umierała jednak powoli i jeszcze pod koniec
ubiegłego stulecia teoria Augusta Weismanna, który głosił, że determinanty znajdujące się w
jądrze komórkowym jaja kurzego są czynnikami kontrolującymi rozwój, była z założenia
preformistyczna.
Osiemnastowieczny i dziewiętnastowieczny spór wokół preformacji i epigenezy
odzwierciedlał początkowe stadium embriologii jako nauki, lecz pojawił się przedwcześnie.
Problem okazał się na tamte czasy zbyt trudny, ponieważ ludzie mogli pojąć w pełni proces
rozwoju organizmów tylko wobec postępu innych dziedzin biologii, zwłaszcza cytologii. W
tym miejscu można by przytoczyć słynny aforyzm Petera Medawara: „Nauka jest sztuką
rozwiązywania problemów".
Przedstawiona tutaj karta z dziejów embriologii pozwala na odnalezienie paraleli do
obecnego stanu teorii psychoanalitycznej. Czy psychoanaliza jest nauką? Czy pożyteczne może
okazać się rozważanie, czy zdrowy rozsądek istnieje, czy nie? Czy da się tu zastosować kryte-
rium falsyfikacji Poppera? Zagadnienie, które podejmuję, dotyczy jedynie twierdzeń
psychoanalizy na temat ludzkiego zachowania, nie zajmuję się natomiast jej terapeutyczną
skutecznością.
„Zamiarem naszym jest stworzenie psychologii, która będzie nauką naturalną, czyli
przedstawieniem procesów psychicznych jako wyrażanych ilościowo konkretnych stanów
cząstek materii". Oto pierwsze zdanie rękopisu Zygmunta Freuda z 1895 roku pt. „Projekt
psychologii naukowej" (Projectfor a Scientific Psychology). Pod koniec życia Freud
utrzymywał, że jego przedsięwzięcia mają status nauki naturalnej, a korzyści, które można
wyciągnąć z badań nad nieświadomym umysłem, „uprawniają do uznania psychologii za
naukę".
Niektórzy współcześni badacze obwiniają jednak Freuda o naukowe nieporozumienie
(scientific selfmisunderstanding). Część z nich uważa bowiem, że kryteria i metody nauk
fizycznych nie są odpowiednie do rozważań o psychoanalizie i złożonych aspektach ludzkiego
zachowania. W zamian proponują natomiast hermeneutykę, co oznacza, że psychoanaliza
powinna być rozpatrywana jako interpretacja zapisanego tekstu. Wyjaśnienia o charakterze
narracyjnym zawsze bowiem zależą od kontekstu i w skomplikowany sposób odnoszą się do
wszystkich zróżnicowanych wpływów kulturowych, które nań oddziałują. A jednak, jak
zawzięcie dowodził Adolf Griinbaum, takie podejście do zagadnienia tylko gmatwa sprawę.
Psychoanaliza mówi o tendencjach lub prawdopodobieństwie występowania pewnych
zachowań i są to faktycznie twierdzenia przyczynowe. Zjawiska rządzące podświadomością-
libido, kompleks Edypa i przede wszystkim zahamowania, weszły do naszego myślenia jako
zwyczajne schematy funkcjonowania psychiki człowieka. Pragniemy poznać stopień ich
wiarygodności, skoro psychoanaliza zmieniła już nasz sposób myślenia o ludzkim zachowaniu.
W centrum uwagi psychoanalizy znajduje się idea powstrzymywania niepożądanych myśli,
zbyt bolesnych czy też odrażających. Teoria ta wywodzi się z oryginalnych pomysłów Breuera
i Freuda z roku 1893 i można uznać ją za kamień węgielny, na którym zbudowano całą kon-
strukcję psychoanalizy. W trakcie leczenia hipnozą osób cierpiących na histerię Freud i Breuer
zauważyli, że symptomy ustępują, jeśli pacjent doznaje „kataraktycznego" oczyszczenia, które
ujawnia przyczynę choroby. Zaobserwowane zjawisko pozwoliło sformułować wniosek, że
pacjenci tłumią wspomnienia sytuacji związanej z powstaniem urazu, poprzedzającej
pojawienie się symptomu choroby, oraz że uraz ma kilka cech analogicznych do cech
symptomu. Słynnym przykładem stała się pacjentka Breuera, Anna O., którą dręczył lęk przed
płynami. Breuer i Freud twierdzili, że usiłowała ona stłumić obraz psa pijącego wodę ze
szklanki jej przyjaciela, co budziło w niej odrazę. Podczas przywoływania tego wydarzenia
tłumienie zostało zlikwidowane i nastąpił zanik symptomu. Przypadek ten został uznany przez
Freuda za model, w którym istotne były nie tylko niedawne urazy, ale również stare, a ich
objawy odzwierciedlały dziecięce przeżycia o charakterze seksualnym. Jak na ironię najnowsze
świadectwa wskazują, że Anna O. była daleka od wyleczenia i miała kilka nawrotów choroby.
Psychika człowieka, zdaniem Freuda, składa się z trzech warstw:
ego, id oraz superego, a każda z nich w inny sposób kontroluje przepływ „energii psychicznej".
Id jest częścią podświadomości, którą rządzą siły irracjonalne, takie jak agresja i pożądanie
seksualne, podczas gdy ego działa racjonalnie, a superego funkcjonuje jako sumienie moralne.
Ego pozbawia energii wszystkie nieprzyjemne skojarzenia, tłumiąc pewne wspomnienia lub
uczucia, które wciąż jednak tkwią w podświadomości. Ego chcąc utrzymać tłumione myśli pod
kontrolą, nie ma oczywiście łatwego zadania, przykładowo podświadome pragnienie, aby
komuś zaszkodzić, wymaga obronnych manewrów, w których wyniku przyjmuje całkiem inną
postać. Może także pojawić się we śnie. Nawet jeśli niektóre z idei Freuda są nowatorskie i
zaskakujące, to noszą znamiona rozumowania potocznego, ponieważ umieszczają w naszym
umyśle jak gdyby trzy osoby, których zachowanie i uczucia znamy lepiej lub gorzej. Nasze
postępowanie jest efektem ścierania się ich postaw.
Kiedy około 1920 roku Popper zetknął się z pomysłami Freuda, stwierdził, że
psychoanalitycy dostrzegają we wszystkim przykłady potwierdzające ich założenia: świat jest
pełen dowodów przyjętej teorii. Bez względu na okoliczności zawsze chętnie przykłady te
wyjaśniali. W ich ciągłym poszukiwaniu racji Popper dostrzegał słabość indukcyjnej
metodologii psychoanalityków. Odrzucił tym samym weryfikację teorii jako podstawy
naukowej metody i sugerował, że tylko falsyfikacja stanowi ważne kryterium naukowości.
Według Poppera „obserwacje kliniczne, które -jak naiwnie wierzą psychoanalitycy -
potwierdzają ich teorie, nie czynią tego lepiej niż dowody, które powszechnie stosują
astrolodzy". Czy oznacza to jednak, że gdyby psychoanaliza okazała się podatna na
falsyfikacie, byłaby nauką?
Griinbaum dowodzi, że krytyka Poppera była niesprawiedliwa, czyż bowiem Freud nie
zmodyfikował swych teorii po doświadczeniach klinicznych? Czyż nie rozważał nawet
możliwości odejścia od psychoanalitycznej metody badania, gdy jego teoria histerii, oparta na
uwiedzeniu, upadła, skoro okazało się, iż pacjenci z rozpoznaniem tej przypadłości
fantazjowali. (Jedną z osobliwości i słabości metody psy-
choanalitycznej jest to, że zwykle nie sposób stwierdzić, czy wspomnienia z wczesnych lat
życia pacjenta to fakty, czy fantazja. Zagmatwało to problemy dotyczące nadużyć
seksualnych.) Inne uwagi odnoszą się do teorii paranoi. Freud zakładał, że paranoiczne
fantazmaty wywołuje wyłącznie tłumiona miłość homoseksualna. Jedna z jego pacjentek,
młoda kobieta, sądziła, że mężczyzna, z którym była związana, organizuje intymne spotkania
tak, aby je sfotografować i ją zhańbić. Podczas wstępnej sesji psychoanalitycznej Freud nie
stwierdził żadnych skłonności homoseksualnych, stanął więc przed wyborem: albo teoria jest
fałszywa, albo podejrzenia młodej kobiety wobec kochanka uzasadnione? Gdyby rzeczywiście
była ona paranoiczką, Freud porzuciłby teorię, że mania prześladowcza zależy od
homoseksualizmu. Zamiast jednak chwalić Freuda za akceptowanie falsyfikacji, powinniśmy
podchodzić do jego wniosków krytycznie. Czy mógł być pewien, że pacjentka nie ma
skłonności homoseksualnych? Jak, nawet po latach analiz, mógł wykluczyć obecność
homoseksualnego uczucia w jej życiu? Przecież nie musiało się ono pojawić podczas seansów.
Tym samym niełatwo nam podać dobry przykład obalający psychoanalizę, wręcz przeciwnie:
widać, jak trudno, jeśli to w ogóle możliwe, wykazać, że podobna teoria jest fałszywa.
Freud traktował sny jak łatwą drogę do wiedzy o nieświadomych działaniach umysłu i
twierdził, że przyczyną wszystkich snów są pragnienia tłumione w okresie dzieciństwa. Krótko
mówiąc, w czasie snu czuwanie ego nad id słabnie, niepożądane myśli próbują przedostać się
do świadomości i jeśli im się to uda, mogą spowodować przebudzenie. Niechciane myśli
kojarzą się z niedawnymi przeżyciami i prawdziwe „znaczenie" lub „utajona treść" snu zostają
przeobrażone w przedziwne i symboliczne formy. Można by zapytać o przyczynę tego rodzaju
transformacji.
Freud zrewidował swoją podstawową teorię, że wszystkie sny są spełnieniem nieświadomych
życzeń. Miał poczucie, iż skutecznie wyzbył się obiekcji na temat idei opartej na
występowaniu snów lękowych i związanych z karą- sny te, wyjaśniał, były zaspokojeniem nie
instynktownych impulsów, ale zaspokojeniem cenzurującego, krytycznego
superego. Nadal jednak uważał część snów za niewytłumaczalne, np. sny ofiar urazów (viclims
oftraumas), takich jak wojna. W rojeniach tych pojawiają się zwykle przeżycia związane z
samym urazem, przy czym Freud nie mógł zrozumieć, jaka psychiczna potrzeba może być
zaspokajana przez ciągłe powracanie do przykrych doświadczeń. Nie ma bowiem żadnej
wskazówki, jak zdefiniować pojęcie urazu, ani dowodu, że jakaś potrzeba została zaspokojona.
Opisywane tu sposoby rozumowania to raczej parafraza nauki i jej metod, ponieważ zarówno
same zjawiska, jak i teoria zostały po prostu niewłaściwie opisane. Problematyka
psychoanalizy nie należy do filozofii, ale tkwi w naturze samej teorii i jej przedmiocie: wiele, a
może nawet wszystkie pojęcia zdefiniowano tak niedokładnie, że niepodobna jasno i
obiektywnie interpretować zjawiska, które brane jest pod uwagę. Jak na przykład wyjaśnić
problem urazu? Jeżeli powstał on na tle widoku psa pijącego ze szklanki, to charakter
traumatogenny mogą mieć tysiące wydarzeń z naszego życia. Czy wobec tego ktokolwiek jest
wolny od urazów psychicznych? Kolejna słabość teorii Freuda dotyczy roli tłumienia popędów
w powstawaniu nerwic: wydaje się, że jest ono warunkiem koniecznym, lecz
niewystarczającym. W jakich bowiem okolicznościach tłumienie urazów staje się przyczyną
objawów klinicznych? Dopóki nie zostanie to szczegółowo i jasno opisane, o żadnej teorii
naukowej nie może być mowy: w najlepszym razie mamy do czynienia ze słabą, nieprecyzyjną
interpretacją zjawisk. Co gorsza, podstawowych danych psychoanalizy nie mogą zweryfikować
niezależni obserwatorzy.
Zajmijmy się zatem pojęciami id, ego i superego, choć każde z nich jest tak skomplikowane,
jak zjawisko, które usiłuje określić. Dodajmy do tego pojęcia: energia psychiczna, różne stadia
rozwoju, takie jak stadium oralne i analne, a każde z nich wyraźmy całą gamą ludzkich emocji
- odrazą, gniewem, pożądaniem czy zazdrością, uzupełnijmy je wreszcie pozytywnymi, jak i
negatywnymi interakcjami. W zasadzie wysnuwanie jakichkolwiek sensownych przesłanek lub
tworzenie wyjaśnień w takiej sytuacji wydaje się niemożliwe: pojęcia są tak niejasne, że prawie
nie można wyobrazić sobie zachowań, które potwierdzałyby lub negowały opisywaną teorię. W
pewnym sensie jednak psychoanalityczne pomysły rozszerzają zdroworozsądkowe rozumienie
ludzkiego zachowania i dlatego są tak nęcące. Nie powinniśmy negować pożytku zbierania
danych, które pomagają ustalić związki wcześniejszych przeżyć z wzorcami zachowań. Bardzo
istotne jest na przykład stwierdzenie, że wczesna rozłąka dziecka z rodzicami ma poważny
wpływ na jego rozwój.
Inny aspekt nienaukowej natury psychoanalizy to współistnienie różnych „szkół" - Freuda,
Klein, Junga itd. Zapytajmy, czy można zlikwidować dzielące je różnice. Czy jakieś dowody,
badania lub nowe dane mogłyby przekonać jedną z grup do zmiany poglądów? Moim zdaniem
to raczej niemożliwe. Między innymi dlatego, iż każda grupa stworzyła zamknięty system.
W tej chwili nie uda się też przeprowadzić doświadczeń negujących teorię psychoanalizy na
niższym poziomie organizacji, to jest dotyczących czynności mózgu. Współczesne wyjaśnienia
marzeń sennych, formułowane za pomocą terminów neurofizjologicznych czy
informatycznych, nie objaśniaj ą zawartość i poszczególnych snów. Jakże zatem można
wykazać, że nie istnieje id lub kompleks Edypa? Nie sposób dziś powiązać pomysły
psychoanalizy z jakąkolwiek dziedziną wiedzy: są one, jak dotąd, całkowicie
samowystarczalne.
Obecna sytuacja w psychoanalizie przypomina badania rozwoju embrionu w XVIII wieku.
Nie można było wówczas rozstrzygnąć sporu między zwolennikami teorii epigenezy i
wyznawcami preformacji z powodu niskiego poziomu wiedzy biologicznej i techniki. Trudno
zaprzeczyć, że osiemnastowieczni embriolodzy byli naukowcami: przeprowadzali
doświadczenia i obserwacje na miarę swoich możliwości -ale tworzyli argumenty niedojrzałe i
prymitywne. Rywalizujące grupy miały ogromne trudności z wyjaśnieniem, dlaczego w
embrionie pojawiają się wysoko uorganizowane formy, odwoływały się zatem do koncepcji
mistrza konstrukcji (building master) bądź siły witalnej (vital force), czy też zakładały po
prostu, że wszystko zostało stworzone wcześniej. Były to w istocie teorie sformułowane ad
hoc, równie skomplikowane, jak zjawiska, które miały objaśniać. Pod tym względem
przypominają one system ego, id i superego oraz klasyfikację uczuć przypisywanych
podświadomości.
Zwolennicy psychoanalizy mają do czynienia z problemami o wiele trudniejszymi niż rozwój
embrionu. Nie tylko poruszaj ą bardziej złożoną tematykę, ale i dostęp do badań
eksperymentalnych mają w większym stopniu utrudniony. Nie wiadomo, jaki ekwiwalent
„komórki" pozwoli zrozumieć ludzkie zachowanie ani też - czy w ogóle taki istnieje. Z tego
punktu widzenia psychoanaliza staje przed większymi problemami niż osiemnastowieczna
embriologia.
Nie powinniśmy ufać teoriom, które bardzo łatwo włączyć do naszego codziennego
myślenia, a do takich należy psychoanaliza. Jeżeli świat przyrody rządzi się prawami
odbiegającymi od zdrowego rozsądku, byłoby zaskakujące, gdyby działania mózgu, najbardziej
skomplikowanego organu, dały się tak łatwo rozpoznać. Najnowsze badania ujawniły na
przykład, jak niezwykłym zjawiskiem jest mówienie. Samogłoski funkcjonują inaczej niż
spółgłoski, a czasowniki i rzeczowniki, jak okazuje się przy uszkodzeniach poszczególnych
obszarów mózgu, przechowywane są w różnych jego częściach. Nawet rzeczowniki żywotne
oraz nieżywotne są umiejscowione osobno.
Można dowieść, że ludzkiego zachowania i myślenia nigdy nie uda się wyjaśnić, tak jak
zjawisk omawianych w fizyce czy naukach biologicznych. Uważa się na przykład, że próba
zredukowania świadomości do fizyki czy biologii molekularnej jest po prostu niemożliwa.
Założenie takie tym bardziej należy uznać za bezpodstawne, że nie potrafimy stwierdzić, czego
nie wiemy i co nam przyniesie przyszłość. Bez względu na to, czy analogia pomiędzy
komputerami a mózgiem jest właściwa, opinie o sposobie myślenia i funkcjonowaniu mózgu
pozostają pod jej wpływem. Nauka charakteryzuje się tym, że nie można zrobić postępów w
jednej dyscyplinie, dopóki nie nastąpią one w dziedzinie pokrewnej. Ostatnie osiągnięcia w
badaniach nad nowotworami byłyby całkowicie uzależnione od rozwoju biologii molekularnej.
Proces starzenia się to kolejne zagadnienie, które zdaje się jeszcze przerastać możliwości
współczesnych badaczy. Pomimo burzliwych dyskusji na ten temat, w których rozważano, czy
starzenie się jest zdeterminowane genetycznie, czy też odzwierciedla nagromadzenie przy-
padkowych pomyłek w genach i białkach w komórce, uczyniono niezwykle małe postępy.
Dopóki nie poznano mechanizmu działania genów i ich sposobu kontrolowania zachowania się
komórek, nie można było nawet myśleć o tym problemie w konkretnych kategoriach, a nawet
teraz trudno określić, jaki program badawczy byłby odpowiedni. Z tego powodu stosunkowo
niewielu naukowców bada proces starzenia się.
Czy zjawiska paranormalne powinny być traktowane w ten sam sposób? Czy należy uznać je
za obszar niedostępny nauce, który w końcu okaże się produktywny? Ci, którzy wierzą w
lewitację, telepatię, psychokinezę i astrologię, twierdzą, że współczesna nauka nie określa isto-
ty i charakteru tych zjawisk. Więcej, narzekają, że konwencjonalna nauka całkowicie ignoruje
te tematy, które pozostają w sprzeczności z głównym nurtem myśli ludzkiej i dzięki temu
mogłyby ukazać nowe wymiary ludzkich możliwości i zachowań.
Znamy liczne relacje o zjawiskach paranormalnych, ale prawie wszystkie te opowieści mają
charakter anegdotyczny. Dobry dowód przeprowadzony w obecności niezależnych
obserwatorów, najlepiej z udziałem zawodowego iluzjonisty, który potrafiłby wykryć
oszustwo, jest praktycznie nie do wykonania. Uważa się, że w takiej sytuacji przedmiot badań
zyskuje samoświadomość i tym samym eliminuje zjawisko paranormalne. Dostęp do jego
istoty jest zatem bardzo trudny. A jednak krąży wiele opowieści na temat zjawisk
paranormalnych. Pojawia się też pytanie, w jaki sposób nauka ma zajmować się lewitacją lub
telepatią. Zjawiska te nie zostały dotychczas naukowo wyjaśnione. Co więcej, pozostają w
takiej niezgodzie z fizyką, że przy braku przekonujących dowodów trudno je traktować
poważnie. Lewitacją i telepatia może istnieją, Jej Wysokość, królowa Anglii, może być
rosyjskim szpiegiem - oba te twierdzenia wymagają jednak solidnego dowodu, aby przekonać
nas do zmiany poglądów. Trudno się jednak nie dziwić Michaelowi Faradayowi, który,
namawiany do uczestniczenia w doświadczeniach spirytystycznych, odpowiedział ostro:
„Zostawię duchy, aby same odkryły, w jaki sposób mogą zwrócić moją uwagę. Jestem nimi
zmęczony".
Wiele tak zwanych zjawisk paranormalnych odpowiada kryteriom Irvinga Langmuira nauki
patologicznej. Ów wybitny chemik wymyślił ten termin przed czterdziestu laty na
nieoficjalnym, a obecnie sławnym wykładzie. Skupił się na tych zjawiskach, które w pewnym
momencie wstrząsnęły światem nauki, a o których później zapominano. Kryteria uznania
zjawisk za patologiczne są według Langmuira następujące:
maksymalny obserwowany efekt jest bardzo mały, więc niezmiernie trudno go wykryć;
nasilenie efektu pozostaje niezależne od przyczyny;
od obserwatorów należy żądać wielkiej dokładności; zjawiskom towarzyszy zwykle
fantastyczna teoria; krytykę równoważą doraźne usprawiedliwienia. Wymienione kryteria
doskonale spełniają bardzo popularne w swoim czasie próby czytania w myślach, oparte na
spostrzeganiu pozazmysłowym. Uczestników tego typu eksperymentów proszono o
odgadnięcie litery napisanej na kartce, zasłoniętej przez przeprowadzającego doświadczenie.
Często osiągano wynik statystycznie lepszy niż prawdopodobieństwo odgadnięcia przez
przypadek, więc założono, że telepatyczna komunikacja istnieje. Podczas analiz statystycznych
okazało się jednak, że pewne grupy danych były lepsze od innych. Pojawiły się oskarżenia o
oszustwo i w kilku przypadkach zostało ono dowiedzione. Po fali entuzjazmu eksperymentów
całkowicie zaniechano, choć bez wątpienia pojawią się ponownie w tej czy innej formie.
Wiele dowodów na istnienie zjawisk paranormalnych mówi o bardzo banalnych sprawach,
takich jak odgadywanie wartości zakrytych kart czy współwystępowanie dwóch rzeczy lub
zjawisk. Mogą one prowadzić do wniosku, że każdy może zajmować się nauką i nie wymaga to
żadnego przygotowania. Podczas gdy tradycyjną wiedzę naukową zdobywa się w staranny
sposób, bez nagłych przełomów i przebłysków geniuszu, charakterystyczną cechą wszystkich
odkryć dotyczących zjawisk paranormalnych pozostaje to, że dokonuje się ich bez specjalnej
wiedzy. Oferują one wiedzę „za darmo". Muszę tutaj powiedzieć, jak trudno w dziedzinie,
którą uprawiam - embriologii - ustalić nawet najprostszą prawdę, chociażby to, kiedy komórki
rozwijającego się ramienia zaczynają stawać się kością, jak więc zestawić to rozumowanie
z dowodami na istnienie takich zjawisk nadprzyrodzonych, jak lewitacja czy psychokineza.
Maleńka cząstka mojej wiedzy wymaga wieloletniej pracy, a doświadczenie z lewitacją-
chociaż kwestionuje podstawy fizyki - może zostać zaakceptowane w mgnieniu oka.
Brak ścisłych wymagań, które ma spełniać wiedza naukowa, oraz koncepcja witalizmu łączą
zjawiska paranormalne z niektórymi elementami paramedycyny. Witalizm jest ideą, która
odniesiona do ludzkiego życia, szczególnie świadomego, oznacza specjalną jakość zawsze
pozostającą poza tradycyjną nauką. Zwykle wiąże się z poglądem anty-redukcjonistycznym, że
życia nie można rozpatrywać jedynie w kategoriach fizyki i chemii, a jest bardziej wskazane
podejście holistyczne. Chociaż nauka rozstrzyga problem, jak powiązać różne stopnie
organizacji organizmu - wewnątrzatomowy, chemiczny, komórkowy i wewnątrz organiczny - a
następnie decyduje, od którego z nich rozpocząć rozwiązywanie jakiejś grupy zagadnień, to
kwestia ta nie interesuje witalistów czy antyredukcjonistów. Filozofia holistyczna z założenia
bowiem musi zmierzać ku nienaukowości, ponieważ wyklucza oddzielne studiowanie części
systemu, uniemożliwiając tym samym ich izolowanie i badanie rozważania do pozostałych.
Gdyby każdy proces poznawania całości zależał od jednej części, nauka nie mogłaby osiągać
swych celów. Można badać komórki poza organizmem żywym, a poszczególne reakcje
chemiczne niezależnie od komórki - na takiej izolacji poszczególnych części polega sukces
biochemii - ale nie można zaprzeczyć doniosłości studiów nad całością. Niechęć holistów do
biologii molekularnej i ich dążenie do odkrycia specjalnych sił życiowych skutecznie
przywracają wiarę w duszę i życie pozagrobowe. Opisy zjawisk nadprzyrodzonych także
mówiąc magicznych siłach, które umożliwiają ludziom bezpośrednią kontrolę otoczenia i
swego zdrowia. Takie przekonania są bardzo kuszące i w luźny sposób wiążą się z witalizmem.
Zastanawiające, że tak wielu ludzi pozwoliło się oszukiwać Uriemu Gellerowi, który
twierdził, że posiada nadzwyczajną moc, a swe zdolności demonstrował wyginając na
odległość łyżki. (Nikogo nie niepokoiło, że zginały się zawsze w najcieńszym miejscu -
zniekształcenie miseczki łyżki byłoby bardziej imponującą sztuczką). Nawet niektórzy
socjologowie sądzili, że być może właśnie dokonuje się rewolucja naukowa - w rozumieniu
Kuhna -jak osiągnięcia Einsteina czy Darwina. Ci, którzy badali problem, nie wiedzieli, czy
metal wyginał się „rzeczywiście", czy nie - to ich zresztą nie obchodziło, tak jak nie obchodziło
socjologów - nie przedstawiało żadnej wartości dla ich analiz. Niestety, pominęli oni naprawdę
interesujący aspekt - dlaczego tak wielu ludzi daje się nabierać na absurdalne historyjki. Z
jakiego punktu widzenia nie spojrzeć na tę kwestię, w rzeczywistości znaczenie ma tylko fakt,
czy wyginanie było oszustwem. Choć ze zrozumiałych powodów socjologowie pragną
zachować neutralność w tym sporze, powinni pojąć, że twierdzenia Gellera znajdują się poza
obszarem nauki. W przeciwnym wypadku można by równie dobrze prowadzić badania nad
wyciąganiem królików z cylindrów czy przepiłowywaniem na dwie części zamkniętych w
skrzyni kobiet.
Czy jednak, zachowując tradycyjny naukowy punkt widzenia, nie pominiemy odkryć
dokonanych przez „amatorów"? Znakomity, niedoświadczony naukowiec, pracujący poza
ośrodkiem akademickim, być może w suterenie, pogardzany przez rządzące elity, mógłby
funkcjonować podobnie jak wielki artysta, zaniedbany i głodujący na poddaszu. W bieżącym
stuleciu historia nauki nie dostarczyła takiego przykładu. Owemu romantycznemu
wizerunkowi bliski był młody Einstein, który pracował, nieznany nikomu, w szwajcarskim
urzędzie patentowym. Dopiero kiedy w redakcji czasopisma naukowego artykuł młodego fi-
zyka wywarł silne wrażenie na wydawcy, ów wysłał do Zurychu kolegę, aby dowiedzieć się
czegoś więcej o godnym uwagi autorze. Geolog Wegener też był bardzo źle traktowany, gdy
przedstawił swą teorię dryfowania kontynentów. Mimo to opowiadam się za zdecydowanym
odrzucaniem absurdu: całkowicie otwarte umysły mogą okazać się całkowicie puste. Hipotezę,
że Mars składa się z czerwonego sera, można zanegować, stosując kategorie Poppera. Czy
powinniśmy jednak traktować twierdzenia tego typu poważnie? Nie, powinniśmy je odrzucać,
ponieważ nie mają nic wspólnego z nauką.
Fizyk Richard Feynman po wysłuchaniu opowieści o latających spodkach powiedział, że ich
istnienie nie jest niemożliwe, lecz po pro-
stu nieprawdopodobne. Jego rozmówca oświadczył wówczas, że Feynman wyraża się w
sposób nienaukowy. Jak można powiedzieć, że coś jest nieprawdopodobne, skoro nie sposób
udowodnić, iż jest niemożliwe? Feynman odpowiedział, że naukowe jest jedynie to, co można
określić jako bardziej lub mniej prawdopodobne, toteż jego przypuszczenie jest tym bardziej
wiarygodne. Według Feynmana rozwój nauki następuje śladem kolejnych przypuszczeń,
których implikacje są sprawdzalne eksperymentalnie.
Astrologia to kolejna dziedzina słusznie zapewne uznawana przez uczonych za absurdalną.
Za moment decydujący o życiu osoby uważa ona chwilę narodzin: astrolog wykonuje więc
obliczenia, aby ustalić, w jakim położeniu znajdowały się wówczas planety. Wykres momentu
narodzin ukazuje wzór „kosmicznych oddziaływań", których interpretacja zawiera ocenę
różnych interakcji pomiędzy Słońcem, Księżycem a dziewięcioma planetami, co daje mnóstwo
kombinacji do wyboru.
Przez wiele stuleci astrologia cieszyła się ogromnym autorytetem. Powszechnie
utrzymywano, że niebiosa mają wpływ na wszelkie ziemskie wydarzenia. Mniemanie to
odnajdziemy w dziełach Arystotelesa, Bacona i Keplera. Już jednak święty Augustyn ostro
potępiał astrologię, uznając, iż ujarzmia ona ludzką wolną wolę. Bliźnięta, które urodziły się w
tym samym czasie, mogą mieć przecież zupełnie różne charaktery. Astrolodzy odpowiadali na
to, że momenty narodzenia bliźniąt są w rzeczywistości różne. Augustyn replikował, że jeśli
bierze się pod uwagę tak małe odstępy czasu, to prawdziwość przepowiedni jest bardzo
podejrzana - nie mógł uwierzyć w taką precyzję. Jak to często bywa w pseudonauce, dyskusje
tego rodzaju nie spowodowały wielkiego postępu.
Szesnastowieczny astrolog Hieronim Wolf przepowiedział datę własnej śmierci i rozdał swe
dobra, kiedy się ów termin zbliżał. Wyznaczonego dnia nic się jednak nie wydarzyło, a Wolf
był zbyt zawstydzony, aby domagać się zwrotu własności; swą pomyłkę tłumaczył
niewłaściwym określeniem położenia planety Mars, pokazując tym samym, jak można
uchronić przepowiednie astrologiczne przed falsyfikacją. I nawet jeśli pewne twierdzenia da się
sfalsyfikować, nie znaczy to, że astrologia jest nauką.
Wysuwano teorie, że układy gwiazd wpływają na życie psychiczne jednostki. Wielu
naukowców rodzi się, na przykład, kiedy wzejdzie Saturn, bardzo mało zaś pod domeną
Jowisza. Każda jednak współzależność opiera się na poszukiwaniu przyczyny i skutku, toteż
nie jest jasne, które twierdzenia można uznać za naprawdę astrologiczne. Nie-wiarygodność
powodu, dla którego planety miałyby wywierać wpływ na nasze życie, stwierdzono już za
czasów Newtona, kiedy to nastąpił wówczas zanik zainteresowania astrologią wśród poważnie
myślących ludzi. Jeśli nie uda się zbudować pomostu między tą dyscypliną a resztą nauki,
pozostanie ona pseudonauką, podobnie jak i inne teorie związane ze zjawiskami
paranormalnymi. A ponieważ wierzy w nią tak wielu ludzi na całym świecie, jest ona kolejnym
przykładem atrakcyjności magicznego myślenia.
Naukowe rozumowanie jest dla psychiki niewygodne, podczas gdy magię można postrzegać
jako sposób obrony ludzkiego Ja" przed wrogim światem. Zachodzi uderzające podobieństwo
między pewnymi wyobrażeniami pozazmysłowymi, a wierzeniami dzieci, które nadają
magiczny kształt swemu obrazowi świata, tak jak opisał to Piaget (rozdział I). W wielu
wypadkach dziecko odnosi wrażenie, że rzeczywistość może zostać przekształcona przez myśl,
a wola jednego przedmiotu może oddziaływać na wolę innych. Wyobraźnię dziecka chara-
kteryzuje magiczna p rży czy nowość, zgodnie z którą wszystkie rzeczy obracają się wokół ja".
Nie wolno nie doceniać zdolności okłamywania siebie samych, nawet wśród naukowców,
przekonania mogą mieć ogromny wpływ na obserwacje. W XVII wieku Marcello Malpighi
wierzył, że embrion kurczęcia jest ukształtowany już w jaju, choć dokładne obserwacje do-
starczały dowodów wręcz przeciwnych. Inny przykład sprawy, której nigdy należycie nie
wyjaśniono, to promienie N.
W 1895 roku odkryto promienie X, a wkrótce potem zidentyfikowano promieniowanie
radioaktywnych materiałów innego typu. Renę Blondlot, znakomity fizyk francuski, ogłosił w
1903 roku, że odkrył formę promieniowania, którą na cześć uniwersytetu w Nancy nazwał
promieniami N. Inni naukowcy także zaczęli badać to nowe zjawisko
o nadzwyczajnych właściwościach, na przykład wszystkie materiały, przez które przechodziły
promienie N, nie przepuszczały zwykłego światła. Wielu fizyków kwestionowało zasługi
Blondlota twierdząc, że już wcześniej odkryto promieniowanie N. Liczba artykułów na ten te-
mat w największym francuskim czasopiśmie osiągnęła apogeum w 1904 roku i wówczas
laboratorium Blondlota odwiedził amerykański fizyk, R.W. Wood, a relację z tej wizyty ogłosił
w czasopiśmie Naturę. Wood był przekonany, że promieniowanie N nie istnieje. Nie tylko wy-
konał wszystkie testy Blondlota przy uszkodzonej aparaturze, ale napisał jeszcze, iż rezultaty
nie zmieniały się nawet wtedy, gdy złośliwie usunął najważniejszą część urządzenia. Blondlot
początkowo starał się odeprzeć krytykę Wooda, ale nawet francuscy zwolennicy odkrycia za-
częli odnosić się doń coraz bardziej sceptycznie, zrezygnował więc z udziału w
rozstrzygającym teście zaproponowanym przez jedno z francuskich pism.
Podobna historia wydarzyła się w 1989 roku. Jacques Benvaniste, senior immunologów
pracujących w dotowanym przez rząd francuski laboratorium, opublikował w Naturę artykuł,
w którym twierdził, że woda ma pamięć. Jego doświadczenie polegało na rozpuszczeniu pew-
nej substancji tak bardzo, że według tradycyjnej chemii w roztworze nie powinno pozostać ani
śladu po pierwotnie obecnym związku. A jednak ten rozrzedzony roztwór miał podobne
działanie biologiczne do działania nie rozpuszczonej substancji. Benvaniste twierdził, że sub-
stancja chemiczna pozostawia w wodzie wspomnienie i jej czynności biologiczne nie zmieniają
się podczas nieobecności owego składnika. Uznano to za argument za homeopatią, według
której pewne leki działają tym skuteczniej, im bardziej są rozrzedzone. Na ów artykuł zamie-
szczony w najbardziej prestiżowym czasopiśmie naukowym wielu uczonych zareagowało
zdziwieniem, niektórzy nawet autorowi ubliżali. Jednym z warunków publikacji tej teorii miała
być wizyta przedstawicieli Naturę w laboratorium Benvaniste'a. Przybył tam więc wydawca
wraz z iluzjonistą (znanym z ujawniania oszustw) i specjalistą od wykrywania hochsztaplerów
naukowych. Nie znaleźli żadnego śladu oszustwa, ale twierdzenia francuskiego immunologa
też nie zostały udowodnione. Benvaniste uważał, że próbę przeprowadzono niewłaściwie i
nadal obstawał przy swoich tezach. I na tym polega problem. Może on zniknąć, podobnie jak
sprawa promieni N, ale najprawdopodobniej, poparty równie nieprzekonującymi dowodami,
pojawi się znowu jako kolejny przykład patologii nauki.
Pozostała jeszcze jedna część układanki. W dziejach ludzkiej wyobraźni fenomenalna okazała
się myśl Newtona o wzajemnym przyciąganiu się wszystkich ciał, choć w zjawisku tym -
przynajmniej teoretycznie - nie miało uczestniczyć żadne medium. Kiedy jednak Newton
sformułował teorię grawitacji, głosząc, że wszystkie ciała przyciągają się na pewną odległość z
siłą proporcjonalną do swojej masy, skomentowano tę koncepcję niczym omówienie zjawisk
nadprzyrodzonych. „Niektórych cieszy powrót do jakości okultystycznych... ale ponieważ
przestały być one szanowane, nazwano je siłami, zmieniając tylko nazwę..." - napisał wielki
filozof Leibniz. Dla niego przyciąganie grawitacyjne było „nie mającą sensu jakością
okultystyczną..której nikt nie zdoła wytłumaczyć, nawet duch, czy sam Bóg". Naukowiec
holenderski, Christian Huygens, również był nastawiony krytycznie: „Tego zjawiska nie
mógłbym uznać, ponieważ nie da się go objaśnić za pomocą założeń mechaniki czy praw
ruchu".
Newton wyjaśnił z typowym dla siebie temperamentem, że Leibniz zanegował wnioski, nie
poddając krytyce przesłanek, a jego argumenty oparł na hipotezach metafizycznych, podczas
gdy Newtona interesują wyłącznie doświadczenia. Zarzucał ponadto Leibnizowi, że ucieka się
do emocjonalnych wyrażeń, jak na przykład „cuda" czy „tajemnicze właściwości", ubliżając
prawu powszechnego ciążenia. Newton napisał nadto:
„ To niepojęte, że martwa, ślepa materia może bez przekształcania czegoś jeszcze, co nie jest
materialne, oddziaływać na inny przedmiot bez materialnego kontaktu... To, że grawitacja jest
wrodzona, nieodłączna i konieczna dla materii, tak że jedno ciało może oddziaływać na drugie
na odległość, poprzez próżnia i bez pośrednictwa czegokolwiek... jest dla mnie tak wielkim
nonsensem, iż wierzę, że nikt, kto potrafi myśleć w kategoriach filozoficznych, nigdy tego nie
zaakceptuje ".
Kontynuował jednak: „Grawitacja musi być spowodowana przez jakiś czynnik, który działa
według stałego prawa, ale czy jest on materialny, czy nie, pozostawiam do rozważenia moim
czytelnikom". W Philosophiae Naluralis Principia Mathematica jasno wyłożył swoje
stanowisko: „Nie jestem w stanie ze zjawisk dedukować ich przyczyn i nie tworzę żadnych
hipotez".
Stanowisko Newtona daje podstawy zrozumienia natury nauki. Grawitacja nie była
„tajemniczą właściwością, lecz założeniem, które można sprawdzić za pomocą obserwacji,
wyjaśniającym w logiczny sposób mnóstwo zjawisk. Przedmiotem sporu były nie same
obserwacje, lecz propozycje ich wyjaśnienia, sam Newton zaś przyznawał, że nie potrafi w
zadowalający sposób wytłumaczyć zjawiska grawitacji (rozdział IV). Także Darwin,
formułując zasadę biologicznego różnicowania się gatunków, posiadał doskonałe dane,
brakowało mu zaś jakiegokolwiek wyjaśnienia. Sytuacja uczonych w tamtych czasach nie
różniła się zbytnio od dzisiejszego postrzegania nowoczesnej fizyki kwantowej. Murray Gell-
Mann, jeden z jej twórców, mówi:
„ Współczesną fizyką rządzi imponująca i bałamutna dziedzina, zwana mechaniką kwantową
którą wynaleziono pięćdziesiąt lat temu. Przetrwała ona wszystkie próby i przypuszczamy, że
jest koncepcją prawidłową. Nikt jej nic rozumie, ale wszyscy wiedzą jak ją stosować i jak
odnosić do wszystkich zagadnień. Nauczyliśmy się więc żyć ze świadomością faktu, że nikt jej
nie rozumie ".
Oto jeden z bolesnych aspektów nauki, z którym badacze muszą nauczyć się żyć - nie
dysponując wszechwiedzą, posługujemy się zjawiskami.
W przeciwieństwie do nauki religia opiera się na dogmatach. Dla większości ludzi życie w
niepewności nie jest ani łatwe, ani naturalne, religia natomiast może ofiarować rozwiązanie
wielu problemów, zwłaszcza moralnych. Tym samym wszystkie wierzenia można uznać za na-
turalne. Większość społeczeństw bowiem, zarówno teraz, jak i w przeszłości, miała swoje
religie, które mogły wyjaśnić chociażby ich genezę czy nadać sens życiu. Naukowcy muszą
albo godzić swe poglądy z religią, albo j ą odrzucić, ponieważ, jak to spróbuję pokazać, wiara
i nauka wykluczają się wzajemnie. Z tym zagadnieniem łączy się jeszcze inna niezwykle
istotna kwestia, gdyż -jak zauważył Tołstoj: „Nauka nie ma sensu, bo nie daje odpowiedzi na
jedyne liczące się dla nas pytanie: »Co powinniśmy robić i jacy powinniśmy być?«". Tołstoj
miał rację. Nauka nie może udzielić żadnej wskazówki moralnej.
Zagadnienie to ma długą historię. Dawno temu (rozdział III) Awerroes twierdził, że
uprawianie nauki powinno być całkowicie niezależne od zasad wiary muzułmańskiej. Unikał
dyskusji o cudach opisanych w Koranie: „Zasady religijne to sprawy boskie, które przekraczają
możliwości ludzkiego rozumienia, muszą być jednak uznane, chociaż nie znamy ich
przyczyny".
David Hume wyciągnął z tego logiczny wniosek i ujął go zwięźle: „Nasza najświętsza
religia opiera się na wierze, nie na rozumie". Sprzeciwiając się tradycyjnej doktrynie o
dopełnianiu się religii i nauki, Hume utrzymywał, że wykluczają się one wzajemnie. Religia,
jak dowodził, nie jest formą wiedzy, ale raczej złożonym uczuciem. Wierzący nie mogą
używać dowodów materialnych lub racjonalnych argumentów dla poparcia swych przekonań.
Człowiek religijny może być tylko fideistą, kimś, kto wierzy, nie uciekając się do nauki.
Według 1-Iume'a religia zakłada po prostu istnienie nieznanych przyczyn. Sprzeciwiał się on
naturalnej teologii, idei opartej na majestatycznym i cudownym modelu boskiego świata.
Uważał, że zakres poznania rozumowego ogranicza się do ludzkich doświadczeń i dlatego
człowiek nie może rozstrzygać zagadnień metafizycznych, takich jak powstanie wszechświata:
nie potrafi przeniknąć do sfery boskich przymiotów czy działań.
Naukowcy stają wobec co najmniej dwóch problemów, które prowadzą ich w przeciwnych
kierunkach. Z jednej strony, bez względu na to, czy teorie odnoszą sukcesy, czy nie, zawsze
istnieje zbiór elementarnych założeń, które należy przyjąć bez żadnego zastrzeżenia. Zawsze
pojawia się problem, którego genezy nie znamy i nie potrafimy go wyjaśnić. Pochodzenie
wszechświata będzie musiało pozostać tajemnicą, nawet gdy jakiś jego element uznamy za
bezsporny punkt początkowy. Nauka nigdy nie dostarczy odpowiedzi na wszystkie pytania:
nawet jeśli istnieje uniwersalna teoria, która mogłaby wszystko wyjaśnić, zawsze pewien jej
składnik, uzasadnienie albo podstawowe założenia pozostaną niejasne, niewytłumaczalne, a
naukowcy muszą to zaaprobować. Stwierdzenie takie może doprowadzić niektórych uczonych
do przekonania, że Bóg stworzył punkt początkowy, natchnął wszechświat i skłonił go do
ruchu. Ale założenie, że istnieje Bóg, oznacza akceptację mechanizmu przyczynowego, którego
nie można udowodnić, czyli założenia, którego nie da się sfalsyfikować. Naukowiec może
wierzyć w Boga, ale nie powinien wyjaśniać jego istnieniem zjawisk naturalnych. Bóg unika
ucieleśnionej obecności i percepcji, ponieważ nie występuje w przestrzeni, jego istnienia
niepodobna więc wykazać. Tym samym musi mieć ono zupełnie inny charakter niż
rzeczywistość ziemska. W tym sensie Bóg jest bytem, który nie istnieje. A w jaki sposób
naukowiec może sobie poradzić z istotą, która nie istnieje?
Religia może dać naukowcom zadowolenie, a nawet pouczenie, mimo że nie sposób jej
pogodzić z przekonaniami naukowymi. Gdyby jednak ze świata nauki wiodła ku religii jakaś
intelektualnie uzasadniona droga, to nie ma powodu sądzić, że zaprowadziłaby nas ona do ła-
skawego Boga chrześcijańskiego lub Boga jakiejś innej wiary.
Wielu wybitnych naukowców, od Galileusza po Einsteina, nie miało żadnych wątpliwości
religijnych. Newton uważał się nawet za głosiciela Bożych idei i spędzał mnóstwo czasu na
objaśnianiu tajemnic natury ukrytych w Biblii. Twórczość Michaela Faradaya ściśle wiąże się z
wiarą chrześcijańską. Był on członkiem małej sekty sandemanianów, którzy wierzyli w
dosłowną interpretację fi;A/«. Faraday uważał, że naukowcy także powinni odczytywać księgę
natury jak najprościej za pomocą doświadczeń, unikając abstrakcyjnych, matematycznych
teorii. Dla Einsteina „człowiek pozostaje pobożny, gdy nie wątpi w doniosłość
nadprzyrodzonych postaci i celów, które ani nie wymagają, ani nie dopuszczaj ą racjonalnych
założeń... Słuszny konflikt między nauką a religią nie może trwać długo. Nauka bez religii jest
ułomna, religia bez nauki ślepa". Owa myśl Einsteina przypomina zacytowane wcześniej
zdanie Tołstoja.
Paradoks ten można zrozumieć w kategoriach naturalnej natury religii, porównując jaz nauką.
Powtórzę za Tołstojem: niewierzący nauko
wiec, tak jak każdy człowiek, musi zmierzyć się z obojętnym chaosem i uznać, że wszystkie
ludzkie nadzieje i obawy, ekstatyczne radości i przeraźliwe bóle, męki twórcze uczonych,
artystów, świętych i inżynierów rozpłyną się w pustce i przeminą bez śladu. Jeżeli, jak to
ujmuje Halevy, „rozum nic nie znaczy w porównaniu z instynktem, dzięki któremu żyjemy", to
niektórzy naukowcy są w stanie zachować neutralne stanowisko w konflikcie między nauką a
wiarą. Religijność nie musi przeszkadzać działalności naukowej, a nawet może mieć na nią
wpływ pozytywny - tak różne są te dwa sposoby myślenia.
Jednym z podejść, które reprezentuje wierzący naukowiec John Polkinghome, jest
pojmowanie teologicznego punktu widzenia tak, jak wyraził je w swym powiedzeniu św.
Anzelm: wiara szuka zrozumienia. Zgodnie z definicją Whiteheada teologia to refleksja na
temat doświadczenia religijnego: „Dogmaty religijne są próbą precyzyjnego sformułowania
prawd religijnego doświadczenia ludzkości. Dokładnie w ten sam sposób pewniki nauk
fizycznych za pomocą precyzyjnych terminów określają prawdy odkrywane przez ludzkie
umysły". Podejście to wymaga jednak odpowiedzi na podstawowe pytanie, czy przeżycie re-
ligijne różni się zasadniczo od wszystkich innych doznań. Dlaczego ma być traktowane inaczej
niż pozostałe przeżycia, poddawane kryteriom obowiązującym w nauce? Silne i niezwykłe
doświadczenie religijne, którego nie da się wytłumaczyć, może być jednak w jakiś sposób
uprzywilejowane. Nie ma w nim niczego, czego nie da się pogodzić z nauką. Niezgodność
pojawia się jedynie wtedy, gdy twierdzi się, że przeżycia religijne są przeciwieństwem
wszystkich innych i powodują nadprzyrodzone zjawiska, jak na przykład objawienia lub cuda.
Jednym z rozwiązań tego dylematu byłoby twierdzenie, że religia, podobnie jak dziwnie
zachowujące się cząstki atomu rządzi się swoim własnym, szczególnym rodzajem reguł
dyskursu.
Spojrzenie z nieco innej perspektywy pozwala uznać za podstawę religii, tak jak to się dzieje
w tradycji chrześcijańskiej, pisane źródła historyczne, na przykład Pismo Święte. Wtedy jednak
od razu powstaje problem cudów: „wiara w istnienie Boga osobowego i możliwość cudów
wynikają jedna z drugiej". Odwołując się do cudów, można stworzyć koherentny obraz
boskiego działania, który obejmuje zarówno
fakt, że zgodnie z naszym doświadczeniem zmarli pozostają, zmarłymi, jak i to, że Jezus
zmartwychwstał. Nauka nie jest w stanie zaprzeczyć tym szczególnym przypadkom na
podstawie uogólniających badań. Z naukowej perspektywy cuda nie są postrzegane jako magia
niebiańska, lecz jako znaki - „wglądy w rzeczywistość głębszą od tej, którą normalnie
widzimy". Podobnie argumentuje się, że tak jak w nauce anomalia mogą być ważną
wskazówką przy wytyczaniu postępu, tak analizując wydarzenia z życia Jezusa, które miały
niekonwencjonalny charakter i były sprzeczne z nauką, należy brać pod uwagę ich duchowy
wymiar i wykorzystywać je jako przykłady jego istnienia. Już Hume jednak odparł te
argumenty: „Żadne świadectwo cudu nie wystarcza jako dowód, chyba że jego zaprzeczenie
wyda się bardziej cudowne niż zjawisko, które chce się udowodnić".
Niektórzy wierzący uczeni zakładali, że używanie argumentów naukowych przeciw cudom
nie ma logicznego uzasadnienia, gdyż przeświadczenie, że nie mogą się one zdarzyć, jest w
równym stopniu aktem wiary, jak mniemanie, że istnieją. W pewnym stopniu naukowcy ci
mają rację, ponieważ logiczna spójność i uniwersalizm to fundament praw rządzących naturą,
zazwyczaj przyjmowanych jako założenia. Dadzą się one jednak sprawdzić i dlatego są
zupełnie różne od tych, których wymagają wierzenia religijne. Zjawisk pozazmysłowych, ist-
nienia cudów czy nieba, piekła bądź życia pozagrobowego nie można potwierdzić naukowo,
badacze powinni więc nadal zaprzeczać cudom, dopóki nie zostaną przedstawione dowody
przeciwne. Ci, którzy sądzą, że można pogodzić religię i naukę, muszą wierzyć w rzeczy o
charakterze nienaukowym i utrzymywać, że istnieją byty i procesy, których nie sposób
udowodnić.
Przeprowadzona tu analiza daleka jest od ujawnienia zgodności między nauką a religią,
pomija również kwestię bezpośredniego konfliktu dostrzeżonego przez Awerroesa. A przecież
dane naukowe pozostają w sprzeczności z Pismem Świętym. Ludzie, jak głosi nauka, są blisko
spokrewnieni z małpami, a kobieta nie powstała z żebra Adama. W odpowiedzi na to grupa
chrześcijańskich fundamentalistów poświęciła wiele sił, aby dowieść, że teoria ewolucji ma
poważne braki, a kreacjonizm zgodny z księgą Genesis oferuje o wiele lepsze wyjaśnienie po
chodzenia człowieka. Kampania ta stanowiła atak nie tylko na teorię ewolucji, ale na całą
naukę, gdyby bowiem protagoniści koncepcji ewolucyjnej doprowadzili do jej odrzucenia, to
inne dziedziny nauki musiałyby podzielić jej los. Kreacjoniści utrzymują, że Ziemia ma tylko
kilka tysięcy lat. Jeśli to prawda, to wszystkie oszacowania jej wieku, oparte na
radioaktywności, a więc i na fizyce, są fałszywe, zatem większość tez astronomii i geologii
trzeba odrzucić. Należy zrozumieć, że kreacjonizm opiera się na Biblii, a więc wiąże się z
szeregiem założeń, których nie można zmienić ani też udowodnić, że swą fałszywe.
Kreacjonizm nie jest nauką, dlatego że wyklucza zmianę pojęć, która stanowi podstawę nauki.
Kreacjoniści, podobnie jak niektórzy zwolennicy zjawisk pozazmysłowych, naśladują naukę,
aby wzmocnić swe argumenty. Odrzucają kryteria naukowości, a następnie dowodzą, że teoria
ewolucji ich nie spełnia. Twierdzą, że nauka wymaga dowodu, a dane, których dostarcza
biologia, chcąc potwierdzić ewolucję, w żadnym razie nim nie są. Kreacjoniści oskarżają więc
naukowców-ewolucjonistów o opieranie przekonań na wierze, nie na dowodach.
Nauka jednak, jak widzieliśmy, nie dowodzi prawdy absolutnej, oferuje tylko użyteczną i
wiarygodną wiedzę o naturze świata. O rozwoju nauki decydują zmiany, ale jedynie te, które
poparto przekonującymi dowodami. Wielki fizyk, lord Kelvin, szacując wiek Ziemi, mylnie
ocenił, że nie jest bardzo stara, ponieważ oparł obliczenia na szybkości ochładzania się planety,
a w tamtych czasach nie uświadamiano sobie jeszcze istnienia radioaktywności, ważnego
źródła ciepła w jądrze naszej planety.
Kreacjoniści skoncentrowali swój atak na tym, że teorii ewolucji nie można sfalsyfikować
zgodnie z twierdzeniem Poppera. Oczywiście falsyfikacja nie stanowi jedynego aspektu nauki,
ale może się okazać, że obecna teoria ewolucji jest nieprawdziwa. Gdyby, na przykład, wyka-
zano, że dziedziczymy cechy, które dotychczas uznawano za nabyte, albo znaleziono by
skamieliny ssaków starsze od prymitywnych kręgowców, czy też stwierdzono, że DNA ptaków
jest bardziej podobne do DNA glist niż kotów, czy wreszcie - że zwierzęta zmieniały się
gwałtownie z pominięciem doboru naturalnego, wpływ tych odkryć na obecny stan wiedzy o
mechanizmach ewolucji okazałby się zgubny.
Nawet jeżeli nauka i religia pozostają w zasadniczym konflikcie, należy ostrożnie wysuwać
przypuszczenia, że w ostatnich latach nastąpił radykalny upadek wierzeń religijnych lub że
wiąże się on z nauką. Wielu naukowców, a dokładniej około 50 procent, to ludzie wierzący, a w
USA ponad 90 procent ludności przyznaje się do wyznawania jakiejś religii. Ponadto historyk
rozwoju społeczeństw, David Martin, wskazał, że badając ten problem, należy brać pod uwagę
coś więcej niż dane frekwencyjne z kościołów, nadal bowiem silnie tkwi w nas zabobon. Oto
wypowiedź Martina na temat sekularyzacji w tak zwanym wieku nauki:
„Nasza kultura daleka od bieguna swieckości waha się pomiędzy częściowym wchłanianiem
chrześcijaństwa, nastawionego na pocieszenie i zaspokajanie poczucia bezpieczeństwa, a
wiarą w los, szczęście i moralne przywództwo opatrzności, bezsensownie przez nas toczone.
Jeżeli do tych warstw ludzkiej religijności dodamy atrakcyjność freudyzmu i marksistowski
mechanicystyczny pogląd na temat inteligencji, to staje się oczywiste, że trudności
zinstytucjonalizowanej religii mają bardzo maty związek z zanikiem zdolności do wiary ".
Z punktu widzenia Martina ogromna większość ludzi kieruje się dwiema podstawowymi
zasadami: prawem przypadku, przeznaczenia i prawem moralnej równowagi, wedle którego złe
uczynki są karane. Sądzę, że wielu z nas wciąż akceptuje ten magiczny, naturalny obraz świata.
Rozdział VIII

Nauka moralna i niemoralna

Najwięcej spornych kwestii budzą etyczne i społeczne konsekwencje badań naukowych.


Stanowią zarazem główny powód wrogiego stosunku opinii publicznej do niektórych dyscyplin
naukowych. Broń nuklearna i inżynieria genetyczna zrodziły na przykład tyle obaw, że to
doprowadziło zarówno do zmniejszenia poparcia finansowego dla wszystkich badań
naukowych, jak i do podania w wątpliwość kwestii odpowiedzialności naukowców za efekty
ich pracy. Ludzie z zewnątrz postrzegaj ą uczonych jako tych, którzy ingerują w życie
przyrody; wyrażają ponadto opinie, że naukowcy są tak zaślepieni i mają tak silną motywację
do nowych odkryć, iż przeprowadzają eksperymenty bez względu na ich konsekwencje.
Wizerunek naukowców jako zbiorowiska doktorów Frankensteinów wywołuje głębokie
zaniepokojenie. W nagłówkach artykułów prasa systematycznie ostrzega przed niebez-
pieczeństwami inżynierii genetycznej i badań nad ludzkim genomem, posługując się często
frazesem: „naukowcy igrający z Bogiem". Obawy te współistnieją z nadzieją, że nauka
rozwiąże problem najgroźniejszych chorób, takich jak rak, choroby serca i wady genetyczne,
np. mukowiscydoza.
Niektóre z tych lęków mają długą historię i wynikają z przekonania, że wiedza jest
niebezpieczna. Prometeusz został ukarany za objawienie światu wiedzy, Faust zaś za to, że
pragnął jej zbyt gorąco. Z obawy, by ktoś nie pomyślał, że bibilijne drzewo wiadomości,
którego owoc stał się przyczyną wypędzenia człowieka z raju, zawierało tylko wiedzę na temat
dobra i zła, Milton wyjaśnia rzecz całą w „Raju utraconym" (Paradise lost). Waz wypowiada
się o drzewie jako o „matce nauki", a Adam wyznaje archaniołowi Rafaelowi, że zaspokoił on
wprawdzie je-
go głód wiedzy, opowiadając o stworzeniu świata, ale pewne wątpliwości nadal pozostały.
Archanioł odpowiada dosyć protekcjonalnie: nie wini Adama za dociekliwość, ale mówi:
...Wielki Twórca
Mądrze zrobił nie wyjawiając
Swoich tajemnic, nie chcąc być oglądanym
przez tych, którzy powinni
Raczej podziwiać.
Bóg jest, zdaniem Rafaela, szczerze rozbawiony „osobliwymi poglądami" ludzi. Jakie
znaczenie ma fakt, zapytuje archanioł, czy Słońce jest centrum świata? Po czym radzi: „Nie
zajmuj się rzeczami i... bądź skromny w swej mądrości. Myśl tylko o tym, co dotyczy ciebie i
twojego istnienia". W czasach Franciszka Bacona życiowe przeświadczenie, że „wiedza
powoduje pychę", sugerowano nawet, że osiągnięciem Bacona było ukazanie, że nauka nie ma
jednak diabolicznego charakteru.
Omawiane tutaj kwestie najlepiej rozważyć na dwóch płaszczyznach. Najpierw spróbuję
określić, jakiego rodzaju odpowiedzialność ponoszą naukowcy: jaki jest zakres ich
obowiązków zawodowych w odróżnieniu od odpowiedzialności obywatelskiej. Uważam, że do
obowiązków uczonych należy jedynie informowanie społeczeństwa o ewentualnych
konsekwencjach ich pracy oraz dowodzenie, szczególnie w wypadku drażliwych kwestii
społecznych, wiarygodności prowadzonych badań. Druga płaszczyzna wiąże się z pierwszą i
określa stopień, w jakim nieznajomość istoty nauki i jej silnych związków z techniką
przyczyniła się do rozpowszechnienia mylnego pojęcia o roli nauki. Praktyczne zastosowanie
nauki niekoniecznie wchodzi przecież w zakres odpowiedzialności uczonych. Wiele pozornie
nowych zagadnień etycznych ma długą historię, a zostały one przypisane dziedzinom
naukowym, które są nowe i niezrozumiałe, jak np. inżynieria genetyczna. W celu uzasadnienia
swoich tez rozważę najpierw wybrane aspekty badań nad bombą atomową z punktu widzenia
zaangażowanego w nie uczonego. Będzie to zarazem przypowieść moralna. Natomiast historia
eugeniki dostarczy przykładu amoralnego.
W roku 1933 The limes zacytował zdanie fizyka lorda Rutherforda, który doprowadził do
pierwszej sztucznej przemiany jądrowej. Brzmi ono tak: „Każdy, kto doszukuje się źródła
energii w procesie transformacji atomów, fantazjuje". Kiedy węgierski fizyk, Leo Szilard,
przebywając w Imperiał Hotel w Bloomsbury, przeczytał artykuł zawierający przestrogę
Rutherforda, przypomniał sobie książkę H. G. Wellsa z 1914 roku „Uwolniony świat" (The
Worid Set Free), w której autor wyobraził sobie rozwój energii i działanie bomby atomowej.
Szilarda zawsze intrygowały wypowiedzi ekspertów na temat rzeczy niemożliwych. Później
sam napisał: „w pewien sposób przyczyniło się do moich rozważań podczas spacerów ulicami
Londynu. Pamiętam, że zatrzymałem się przy czerwonym świetle na skrzyżowaniu
Southampton Rów... Zastanawiałem się nad tym, czy lord Rutherford może się mylić". W tej
właśnie chwili Szilard wpadł na pomysł neutronowej reakcji łańcuchowej. Był to przełomowy
moment w historii bomby atomowej. Szilard wprawdzie nie wiedział jeszcze, jak znaleźć
czynnik, który wywoła odpowiednią reakcję, ani jakie eksperymenty należy w tym celu
przeprowadzić, sam pomysł jednak stał się odtąd stałym przedmiotem jego rozmyślań. Uczony
był bowiem przekonany, że w określonych warunkach można przeprowadzić nuklearną reakcję
łańcuchowej, która uwolni ogromną energię i pozwoli skonstruować bombę atomową.
Fizycy angielscy, z którymi podzielił się swoimi koncepcjami, odmówili mu poparcia.
Rutherford wyrzucił go po prostu z gabinetu, inny zaś fizyk oświadczył, że z tak dziwacznymi
pomysłami nie zajdzie daleko w Anglii i powinien spróbować szczęścia w Rosji.
Mimo to Szilard nie zrezygnował i w przedłożonym w 1934 roku wniosku patentowym opisał
koncepcję reakcji łańcuchowej. Po lekturze H. G. Wellsa nie chciał ujawniać szczegółów
patentu szerokiej opinii publicznej, by nie wykorzystali go Niemcy. Dlatego też zaprezentował
go Admiralicji Brytyjskiej, którą-jak przypuszczam -wprawił raczej w zakłopotanie. W ciągu
następnych dwóch lat eksperymenty przeprowadzone przez Szilarda i innych fizyków rozwiały
nadzieje na przeprowadzenie reakcji łańcuchowej. W 1936 roku w liście do Admiralicji
węgierski uczony rezygnuje z utrzymywania patentu
w tajemnicy i proponuje jego wycofanie. Dwa lata później, kiedy już mieszkał w Stanach
Zjednoczonych, dowiedział się jednak o pewnej właściwości uranu, która mogłaby podtrzymać
reakcją łańcuchową. W tej sytuacji próbował powstrzymać swoich kolegów przed publikowa-
niem komunikatów o możliwości przeprowadzenia eksperymentu, ponieważ mogłoby to dać
Niemcom bezcenną wskazówką jak zbudować bombę atomową. Fizyk włoski, Enrico Fenni,
nie potraktował ostrzeżeń Szilarda poważnie, uważał bowiem reakcję łańcuchową za mało
prawdopodobną. Inni naukowcy, tacy jak Nils Bohr, nie potrafili zaakceptować w fizyce
sekretów, ponieważ zaprzeczały one jawności nauki. Bohr nie wierzył również w
prawdopodobieństwo wybuchu nuklearnego. Fenni i Szilard wahali się, czy wyniki badań, w
których świetle reakcja łańcuchowa wydawała się możliwa, ogłosić drukiem, zostali jednak
zaskoczeni decyzją czasopisma Naturę, które opublikowało same wnioski.
Szilard skontaktował się w tej sytuacji z Einsteinem i namówił go, aby napisał list do
prezydenta Roosevelta. Owa słynna epistoła została wysłana drugiego sierpnia 1939 roku:
„Szanowny Panie Prezydencie, w świetle ostatnich badań E. Fermie-go i L. Szilarda, których
rezultaty przesłano mi w formie rękopisu, należy oczekiwać, że pierwiastek zwany uranem
może w najbliższej przyszłości stanowić nowe, ważne źródło energii... To nowe zjawisko może
również doprowadzić do skonstruowania bomby...".
Einstein poprosił prezydenta, by jego rząd utrzymywał stały kontakt z grupą fizyków
pracujących w Stanach Zjednoczonych nad reakcją łańcuchową oraz o fundusze na
przyspieszenie prac badawczych. W maju 1940 roku Roosevelt przemawiał w Waszyngtonie do
Kongresu Naukowego Pan American (Pan American Scientific Congress). Niemcy dokonały
właśnie inwazji na Belgię i Holandię. Prezydent oświadczył zebranym, że jeśli uczeni wolnych
krajów nie skonstruują broni nowego typu, to kraje te przegrają wojnę. Zapewnił słuchaczy, że
za wykorzystanie tej siły naukowcy nie będą ponosić odpowiedzialności. W gruncie rzeczy
udzielił im prezydenckiego rozgrzeszenia za ewentualne konsekwencje, które wynikną z
wynalezienia nowej broni.
Tymczasem w Wielkiej Brytanii specjalna komisja badała możliwość konstrukcji bomby
opartej na łańcuchowej reakcji jądrowej i w 1941 roku doszła do wniosku, że jest to realne.
Rooseveltowi przedstawiono sprawozdanie z działalności tej komisji dziewiątego października
1941 roku. Wówczas prezydent podjął decyzję, aby kontynuować to przedsięwzięcie. Od tego
momentu kwestia przyszłości nowej broni oraz wszystkie dotyczące jej decyzje znalazły się
pod kontrolą prezydenta. Richard Rhodes w książce „Budowa bomby atomowej" (The Making
of the Atom Bomb), z której korzystałem przy opracowaniu tego rozdziału, pisze:
,,0d tej chwili każdy uczony mógł dokonać wyboru i powziąć decyzję, czy zaangażować się albo
zrezygnować z pomocy w budowaniu broni nuklearnej. Wybór należał wyłącznie do niego.
Ceną za zrzeczenie się udziału w tym przedsięwzięciu było przyzwolenie na powstanie odręb-
nego, tajnego państwa powiązanego z oficjalnym państwem poprzez osobę i wyłączne
pełnomocnictwo Prezydenta".
Roosevelt sam podjął decyzję o konstrukcji bomby atomowej. Kiedy bomba powstała w Los
Alamos w stanie Nowy Meksyk, Szilard przebywał w Chicago. W marcu 1945 roku zaczął
zastanawiać się nad sensem testowania i użycia bomb. Zdawał sobie sprawę, że wojna z
Niemcami wkrótce się zakończy i zwątpił w sens kontynuowania badań, a jednocześnie
niepokoił się, w jaki sposób nowy wynalazek może zostać użyty w wojnie z Japonią.
Zagrożenie ze strony Niemiec, które stanowiło pierwotny powód rozpoczęcia badań, już nie
istniało. Szilard wystosował memorandum do Roosevelta, wierząc, że może to odnieść jakiś
skutek. Ponownie przekonał Einsteina o konieczności napisania listu do prezydenta; niemiecki
fizyk zaznaczył, że wprawdzie nie dowiedział się od Szilarda szczegółów dotyczących broni
nuklearnej ze względu na nałożony nań obowiązek dochowania tajemnicy, ale wyraźnie
podkreślił zaniepokojenie węgierskiego uczonego brakiem pełnego kontaktu z naukowcami
wykonującymi prace badawcze i członkami rządu nadającymi im kierunek. Szilard próbował
dowieść, że poprzez użycie bomby atomowej Stany Zjednoczone zniweczą silną pozycję
moralną, którą zajmują w świecie. Kiedy inne kraje także po-
siądą broń nuklearną, USA utraci przewagę militarną, a świat rozpocznie wyścig zbrojeń.
Szilard opowiadał się raczej za międzynarodową kontrolą produkcji broni atomowej, niż za
amerykańskim na nią monopolem.
W maju 1945 roku zmarł Roosevelt, a do władzy doszedł Truman. Szilard spotkał się z
nowym sekretarzem stanu, Jamesem Byrnesem. Byrnes oświadczył, że Kongres czeka na
wyniki inwestycji, na którą wydano dwa biliony dolarów i nieprzystąpienie do prób z bronią
nuklearną w ogóle nie wchodzi w rachubę. Dodał też, że fakt posiadania bomby ułatwi USA
„poskramianie" Rosjan. 15 lipca wykonano pierwszą pomyślną próbę z bombą atomową. Na
ten sukces techniki pracowało bardzo wielu naukowców i inżynierów. Zastosowano
zdumiewającą technologię, która stanowiła w gruncie rzeczy jedynie gigantyczną nadbudowę
pierwotnej idei Szilarda.
Jeszcze przed przeprowadzeniem prób Szilard dyskutował z naukowcami pracującymi nad
bronią nuklearną i wystosował petycję do następcy Roosevelta, Trumana. Zaczynała się ona od
słów: „Odkrycia, których obywatele Stanów Zjednoczonych nie są świadomi, mogą w
najbliższej przyszłości naruszyć pomyślność tego narodu". W dalszej części petycji opowiadał
się przeciwko wykorzystaniu bomby w toczącej się wojnie, skoro nie istnieje
niebezpieczeństwo, że inne państwo użyje jej przeciwko Stanom Zjednoczonym:
„...państwo, które pierwsze użyje nowo wyzwolonych sił natury w celach destrukcji, może
zostać obciążone odpowiedzialnością za rozpoczęcie ery zniszczeń na niewyobrażalną skalę...
My, niżej podpisani, z całą powagą prosimy o to, by Pan Prezydent jako głównodowodzący nie
dopuścił do użycia bomb atomowych w tej wojnie, chyba że warunki pokoju narzucone Japonii
przez USA zostaną opublikowane w każdym szczególe, a przeciwnik po zapoznaniu się z nimi
odmówi poddania się... "
Sześćdziesięciu siedmiu uczonych podpisało tę petycję, która nigdy nie dotarła do rąk
prezydenta.
Jednym z tych, którzy odmówili złożenia podpisu, był Edward Teller. Napisał on do Szilarda:
„Najpierw pozwolę sobie przypomnieć, że
nie mam żadnej nadziei na pozbycie się wyrzutów sumienia. To, nad czym pracujemy, jest tak
straszne, że jakiekolwiek protesty bądź inne posunięcia polityczne nie zbawią już naszych
dusz... Jedyne, co nam pozostało, to poznać wyniki naszych badań, zanim doświadczy ich spo-
łeczeństwo". Bomba atomowa została zrzucona na Hiroszimę szóstego sierpnia 1945 roku.
Z tej historii można się wiele nauczyć. Po pierwsze, nie ma wyraźnego związku między ideą
a wprowadzeniem jej w życie, pomiędzy nauką a techniką. Stworzenie bomby było
odpowiedzialnym zadaniem technicznym, które oparto na wiedzy naukowej. Do końca nie było
pewności, czy ładunek zadziała tak, jak przewidywano. Luka między rzeczywistą wiedzą a jej
zastosowaniem była w tym wypadku kolosalna. Sformułowano słuszne założenia, ich
następstwem stał się gigantyczny wyczyn inżynieryjny, który miał mało wspólnego z nauką i
nie wniósł nic nowego do wiedzy o prawach rządzących przyrodą.
Podkreślając rolę techniki, nie zamierzam jednocześnie umniejszać znaczenia nauki. Można
to zilustrować na przykładzie kwestii, dlaczego Niemcy nie skonstruowali bomby atomowej.
Werner Heisenberg i inni fizycy niemieccy przeoczyli niezwykle istotną rzecz, która stanowi,
być może, wyjaśnienie tego zagadnienia. Po wojnie Heisenberg oświadczył z zadowoleniem, że
fizycy niemieccy nie musieli podejmować decyzji o wyprodukowaniu bomby atomowej.
Najprawdopodobniej było to spowodowane brakiem właściwych danych, jak i brakiem
zainteresowania ze strony Hitlera. Po klęsce pod Stalingradem zapadła decyzja o
skoncentrowaniu badań na budowie rakiet, zrezygnowano zaś z dużych nakładów na projekty
nuklearne.
Po drugie, decyzja o budowie bomby miała charakter polityczny, a nie naukowy. Warto
zastanowić się nad pytaniem, jak potoczyłaby się historia, gdyby Szilard nie namówił Einsteina
do napisania pierwszego listu do Roosevelta. Bomba prawdopodobnie nie zostałaby wynalezio-
na podczas wojny, lecz później, w czasie pokoju zaś mogłoby się to okazać niemożliwe z
politycznego lub ekonomicznego punktu widzenia. Naukowcy wyraźnie oddzielili własną
odpowiedzialność od odpowiedzialności rządu. Robert Oppenheimer, który kierował pracami
nad bombą atomową, powiedział jasno:
„Naukowiec nie odpowiada zaprawa natury, jego zadaniem jest odkrywanie, jak one działają.
Praca polega na poszukiwaniu sposobów wykorzystania tych praw, tak by służyły człowiekowi.
Decyzja o użyciu bomby wodorowej nie wchodzi w zakres odpowiedzialności naukowca.
Spoczywa ona na obywatelach Ameryki i osobach, które ich reprezentują."-
Postawa Szilarda skłania do wniosku, że jednym z najważniejszych obowiązków nauki jest
jawność. Szilard udowodnił to nawet po wojnie, dążąc do ujawnienia społeczeństwu
ewentualnych konsekwencji badań naukowych. Wprawdzie przed wojną starał się utrzymać
projekt w tajemnicy, ale zrozumiał, że i tak zatrzymanie postępu nauki nie jest możliwe.
Wielkie odkrycia zostaną prędzej czy później dokonane przez kogoś innego. Ważny okazał się
nacisk, który Szilard kładł na informowanie o wszystkim społeczeństwa, o ile jest to możliwe
po uwzględnieniu racji bezpieczeństwa państwowego. Przekazywanie wiadomości o postępie
naukowym i jego następstwach jest głównym obowiązkiem uczonych.
By zrozumieć, że społeczeństwo niesłusznie obarcza naukę winą za powstanie broni
atomowej, należy spojrzeć na ten problem z odpowiedniego punktu widzenia. W Hiroszimie z
powodu użycia bomby zginęło dwieście tysięcy osób, natomiast podczas bombardowań w 1945
roku w Tokio poniosło śmierć około stu tysięcy ludzi, a mniej więcej tyle samo zostało zabitych
w Dreźnie. Na dane te należy spojrzeć w szerszym kontekście - sto milionów ludzi zabito w
naszym wieku, używając wytworzonych przez człowieka środków. Prawie połowa, czyli
pięćdziesiąt milionów, została zabita z broni konwencjonalnej lub wskutek zrzucenia
tradycyjnych bomb, a reszta zginęła w obozach pracy, z głodu i w wyniku prześladowania
przez innego człowieka. Nikt nie obwinia za to nauki, ponieważ użyta w tym wypadku
technologia jest prosta i zrozumiała.
Łatwo pociągnąć za spust. Nikt nie obciąża uczonych winą za pięćdziesiąt milionów zabitych
przy użyciu broni i bomb konwencjonalnych. Z pewnością napędzały one decydującą część
machiny wojennej, a zastosowanie prochu strzelniczego jest nam bliższe niż wiedza o broni
nuklearnej. Ta ostatnia zraża do siebie wszystkich, ponieważ większość ludzi nie rozumie fizyki
jądrowej. Nie podważając przekonania o zgubnych skutkach gromadzenia broni nuklearnej,
powinniśmy podkreślić niezrozumienie jej problematyki. Uważam bowiem, że tu znajduje się
źródło większości problemów związanych z tak zwaną społeczną odpowiedzialnością nauki.
Następuje pomieszanie pojęć: broni i zbrodni. Obowiązkiem wszystkich ludzi nauki jest zatem
przezwyciężanie owego nieporozumienia. Tylko w ten sposób można skłonić przeciwników
nauki, aby poszukiwali ludzi odpowiedzialnych za konstruowanie i używanie broni masowej
zagłady w innych kręgach społeczeństwa. Naukowcy nie ponoszą za nią większej
odpowiedzialności niż inni obywatele. Krytykując moralność uczonych amerykańskich, którzy
wynaleźli bombę atomową, trzeba zastanowić się nad innym scenariuszem wypadków, w
którym do jej skonstruowania zawzięcie dążyliby Niemcy, a nie Amerykanie. Czy nie
dziękowano by wówczas uczonym, że podjęli w imieniu narodu decyzję o kontynuacji badań
nad bombą atomową i ostatecznie zdołali wyprzedzić niemieckich konkurentów?
Naukowcy dążą do rozszerzenia wiedzy o świecie i na pewno mają obowiązek informować
społeczeństwo o następstwach swych odkryć, ale zastosowanie tych zdobyczy jest często
decyzją społeczną i polityczną, która nie należy do kompetencji uczonych. Nauka nie może od-
powiadać za nieodpowiednie użycie wiedzy. Czy w takim razie możemy ufać pozytywnym
konsekwencjom odkryć? Moim zdaniem wiedza naukowa jest z natury dobra. Każdy krok ku
lepszemu zrozumieniu świata to osiągnięcie, za które należą się nauce pochwały, podobnie jak
za pozytywne zastosowania wynalazków w praktyce, począwszy od penicyliny, a skończywszy
na wytwarzaniu energii. Czy cała wiedza jednak jest piękna i neutralna? Dzieje eugeniki
postawiły przed uczonymi szereg trudnych problemów.
W 1883 roku kuzyn Darwina, Francis Galton wymyślił termin eugenika. Pojęcie to pochodzi
z greckiego i oznacza człowieka „dobrze urodzonego" albo „wysokiego rodu". Eugenika zaś to
ex definitione nauka zajmująca się doskonaleniem rodzaju ludzkiego poprzez zapewnienie
warunków umożliwiających „rozwój wybranym rasom lub grupom etnicznym, szybszy od
pozostałych, uważanych za mniej odpowiednie do tego celu". Dla Galtona nauka i postęp byty
nierozłącznymi zjawiskami. Opierając się na genetyce, zamierzał udoskonalać ludzi metodami
naukowymi, tak jak ogrodnicy uszlachetniają rośliny. Galton zastanawiał się, czy „dzięki
małżeństwom z rozsądku przez kilka kolejnych pokoleń byłoby możliwe stworzenie rasy ludzi
bardzo utalentowanych?" Założenia naukowe są tutaj jasne: większość cech ludzkich jest
dziedziczna.
Poglądy Galtona wywodzą się z idei ewolucjonizmu i koncepcji doboru naturalnego:
„Procesy ewolucyjne polegają na ciągłym, powolnym ruchu, niektóre podążają ku złu, inne - ku
dobru. Do nas należy wyczekiwanie na szansę takiej interwencji, by hamować pierwsze i sty-
mulować drugie". Za dziedziczny uważano nie tylko talent, ale też ubóstwo, ponadto każde
inne zauważalne ograniczenie. Sam Darwin, jak wspomina Wallace, wyrażał obawy o
przyszłość ludzkości, uważając, że „ci, którym poszczęściło się w wyścigu do bogactwa, nie są
wcale najlepsi bądź najbardziej inteligentni, gdyż -jak wiadomo - ludzie odnawiają się w
każdym pokoleniu przede wszystkim dzięki klasom niższym, a w mniejszym stopniu dzięki
średnim i wyższym".
Teorie te, rozwinięte przez Karla Pearsona z University College w Londynie, zyskały
poparcie różnych autorytetów, jak np. przedstawicieli Fabian Society (Bernard Shaw) czy
psychologów (Havelock El-lis).
Amerykanin Charles Davenport, pozostając pod silnym wpływem teorii eugeniki, skłonił w
1904 roku Fundację Camegie do stworzenia laboratoriów Cold Spring Harbor, aby prowadzić
tam badania nad ewolucją człowieka. Z badań tych wynikało, że niektóre rasy są pod względem
umysłowym ograniczone. Murzynów uznano za rasę biologicznie niższą; Polaków postrzegano
jako niezależnych i samodzielnych, mimo utrzymywania silnych więzi rodzinnych; Włosi mieli
zaś posiadać skłonność do przestępstw. Davenport spodziewał się, że wskutek na
pływu emigrantów ludność amerykańska będzie miała „ciemniejsze zabarwienie skóry,
drobniejszą posturę, stanie się bardziej ożywiona... wzrosną predyspozycje do takich
przestępstw, jak kradzieże, porwania, napaści, morderstwa, gwałty i perwersja seksualna".
Głównym zamiarem tego badacza było wspieranie eugeniki negatywnej, tzn. zapobiegającej
rozprzestrzenianiu się cech negatywnych. Opowiadał się ponadto za realizacją politycznego
programu emigracji selektywnej, by nie dopuścić do skażenia plazmy zarodkowej (informacji
genetycznej przekazywanej potomstwu przez rodziców). Chciał także zajmować się „złem"
istniejącym w obecnej populacji, aby powstrzymać rozmnażanie się osobników z wadami
genetycznymi. W gruncie rzeczy prowadził politykę zapoczątkowaną przez Timothy'ego
Nurse'a w Anglii ponad dwieście lat temu: dżentelmen „powinien dbać o swój ród tak jak o
hodowlę koni, do której wybiera okazy najczystsze i najpiękniejsze". Davenport zauważył
nawet, że gdyby „kojarzenie ludzi w pary w celu reprodukcji znajdowało się na tak wysokim
poziomie jak hodowla koni", światem wstrząsnęłaby rewolucja postępu.
Aktywność pojedynczych genów stała się punktem wyjścia koncepcji genetyki ludzkiej
Davenporta, chociaż wiedział on o dziedziczności poligenicznej - że niektóre cechy np. kolor
skóry, są determinowane przez wiele genów. Sugerował między innymi, że prostytucja jest spo-
wodowana „wrodzonym erotyzmem". Uważał się za naukowca i miał ambicję popierania teorii
solidnymi badaniami eksperymentalnymi. Wielu Amerykanów zachęcono do wypełnienia
„rejestru cech rodzinnych". W 1907 roku założono w Anglii Narodowe Eugeniczne Towa-
rzystwo Naukowe (Eugenics Education Society), podobne powstało w Ameryce.
Stowarzyszenia te nie miały wprawdzie zbyt wielu członków, wywierały jednak ogromny
wpływ na społeczeństwo; za przykład posłużyć mogą organizowane w latach dwudziestych na
jarmarkach w Kansas konkursy „Lepszych rodzin" (Fitter Families). Stowarzyszenie
amerykańskie miało swój Katechizm Eugeniczny:
Pytanie: Co jest najcenniejsze na świecie? Odpowiedź: Ludzka plazma zarodkowa (germ-
plasm).
Emocje tamtego okresu trafnie wyraża konkurs na esej o upadku „płodności nordyckiej"
sponsorowany przez Amerykańskie Stowarzyszenie Eugeniczne.
Większość przytoczonych tu informacji pochodzi z książki Daniela Kevlesa „W imię
eugeniki". Jak podkreśla autor, genetyków ogarnęła gorączka wypełniania misji dziejowej, a
lista naukowców, którzy początkowo poparli eugenikę, jest imponująca: Fisher, Haldane,
Huxley, Castle, Morgan. Amerykański genetyk, Herbert Jennings, w książce z 1930 roku
„Biologiczne podstawy natury ludzkiej" (The Biological Ba-sis of IIuman Naturę) pisze, że
świat należy zorganizować naukowo. Sterowanie życiem i społeczeństwem powinno opierać się
na solidnych biologicznych zasadach.
Konsekwencją jednego ze sposobów pojmowania eugeniki negatywnej była sterylizacja,
przeprowadzana po to, aby uniknąć groźby skażenia plazmy zarodkowej. Szacuje się, że w
latach 1907-1928 poddano temu zabiegowi w USA około dziewięć tysięcy ludzi
zakwalifikowanych do grupy „ograniczonych umysłowo". W 1927 roku podczas słynnej
rozprawy sędzia Oliver Wendel Holmes wydał wyrok sankcjonujący sterylizację. Sentencja
wyroku zawierała następujące zdanie:
„Prawo, które uznaje słuszność obowiązkowych szczepień, jest na tyle rozległe, by zezwalać na
podwiązywanie jajowodów... Trzy pokolenia osobników niedorozwiniętych umysłowo to
nazbyt wiele..."
Dopiero w latach trzydziestych Huxley, Haldane, Hogben, Jennings i inni biolodzy zaczęli
oponować przeciw licznym, coraz śmielszym żądaniom zwolenników eugeniki. Była to jednak
reakcja spóźniona, ponieważ idee tej teorii przeniknęły już na kontynent europejski. Genetyk
Benno Miiller-Hill w książce „Śmiercionośna nauka" (Miirderous Science) ujął to tak:
„Ideologię narodowych socjalistów można przedstawić bardzo prosto. Twierdzą oni, że
zróżnicowanie rodzaju ludzkiego ma podłoże biologiczne. To, co czyni Żyda Żydem, Cygana
Cyganem, jednostkę aspołeczną jednostką aspołeczną, a umysłowo chorego umysłowo chorym,
jest we krwi, to znaczy w genach". Trudno nie zauważyć, że poglądy te ugruntowały się na
bazie teorii genetycznych, propagowanych przez ruch eugeniczny. Fischer, profesor
antropologii i rektor Uniwersytetu Berlińskiego, a zarazem propagator podobnych poglądów,
został w roku 1929 poproszony przez Davenporta o objęcie stanowiska prezesa Komitetu do
spraw Krzyżówek Rasowych (Committee on Racial Crosses), podlegającego Międzynarodowej
Federacji Organizacji Eugenicznych (International Federation of Eugenics Organizations).
Nietrudno też dostrzec bezpośredni związek między ruchem eugenicznym a wypowiedzią
słynnego behawiorysty, Konrada Lorenza, zajmującego się zachowaniem zwierząt:
,, Obowiązkowym zadaniem higieny rasowej jest dbałość, o zwiększenie eliminacji ludzi niżej
stojących pod względem moralnym... Powinniśmy, dosłownie mówiąc, przywrócić wszystkie
czynniki odpowiedzialne za selekcje naturalną... w czasach prehistorycznych selekcja ze
względu na wytrzymałość, bohaterstwo, użyteczność społeczną itd. dokonywała się wyłącznie
wskutek działania wrogich człowiekowi czynników zewnętrznych. Rolę tę musi przejąć
stworzona przez ludzi organizacja;
w przeciwnym wypadku ludzkość z braku sił selekcyjnych zostanie zregenerowana przez zmiany
towarzyszące przystosowaniu się".
Inną metaforą Lorenza jest „analogia pomiędzy ciałem a guzem złośliwym z jednej strony, a
narodem i żyjącymi w nim jednostkami aspołecznymi, które stały się takie wskutek wadliwej
psychiki z drugiej".
W 1933 roku rząd Hitlera ogłosił eugeniczną ustawę o sterylizacji, którą można uznać za
bezpośrednią przyczynę przerażających zabiegów przeprowadzanych przez lekarzy i ich
pomocników w obozach koncentracyjnych. Do poddania się sterylizacji ustawa zmuszała
każdego, kto cierpiał na chorobę dziedziczną, począwszy od schizofrenii, a skończywszy na
ślepocie.
Na ogół lekarze nie są naukowcami, lecz technikami, którzy podobnie jak inżynierowie
stosują wiedzę w praktyce. Zastanówmy się zatem nad kwestią odpowiedzialności prekursorów
genetyki, na której bazie powstały skrajne wersje determinizmu biologicznego głoszące, że
czynniki genetyczne ustalają wzory ludzkich zachowań. Nie można winić za te przekonania
ludzi nauki, gdyż socjobiologiczna kwestia determinizmu - czy ludzkie cechy, np. agresja czy
altruizm, są zaprogramowane genetycznie - towarzyszy nam przez cały czas.
W tej chwili, patrząc z perspektywy historycznej, możemy się śmiać z wielu idei
wspierających ruch eugeniczny. Jednocześnie jednak wielu zaangażowanych weń uczonych
było dobrymi i szanowanymi ludźmi:
nie mieli oni po prostu racji. Z naukowego punktu widzenia jednakże postępowali jednak
niemoralnie i niesłusznie .
Naukowców, którzy byli zwolennikami ruchów eugenicznych, powinniśmy mimo to
szanować za samo uprawianie genetyki jako dyscypliny wiedzy. Odpowiadając na zarzuty, na
pewno tłumaczyliby się niewiedzą lub błędnym odczytaniem danych, praw da jest jednak, że
zignorowali zbadanie społecznych skutków swoich wniosków, wreszcie nie podali do
publicznej wiadomości informacji o niektórych pracach. W rzeczywistości, co jest jeszcze
bardziej karygodne, wnioski te wyprowadzono z implikacji społecznych, które uczeni uznali za
pożądane. A o wiarygodności wniosków społeczeństwa nie informowali.
Naukowcy powinni badać społeczne konsekwencje swojej pracy, nie po to jednak, by
rozstrzygać, czy i w jakiej mierze wykorzystywać jej wyniki w praktyce (w wypadku bomby
atomowej była to decyzja polityczna), ale by jasno postawić kwestię wiarygodności hipotez.
Fakt, że niektóre teorie zawierają nieprawidłowości, a nawet są fałszywe, nie ma społecznego
znaczenia. Dla nauki stanie się to ważne wtedy, gdy na przykład niektóre z aktualnych
koncepcji rozwoju embrionu okażą się niesłuszne. W innych dziedzinach przeciwnie: dla
genetyki ogromnego znaczenia nabrałoby potraktowanie genów jako czynnika sterującego
kompleksem ludzkich cech, a zignorowanie wpływów behawiorystycznych. W sprawach
kontrowersyjnych społecznie uczeni mają obowiązek przedstawić kwestię wiarygodności
swoich poglądów jasno i precyzyjnie, z przesadną nawet ostrożnością. Społeczeństwo zaś po-
winno, jeśli to tylko możliwe, domagać się dowodów i krytycznie je oceniać.
Kwestią sporną jest także stosunek uczonych do tak drażliwych spraw, jak na przykład
zależności między rasą a inteligencją. Czy badanie takich problemów jest uzasadnione? Czy
też, jak dowodził George Steiner, istnieją „prawdy, których ujawnienie naruszyłoby samą istotę
polityki i nieodwracalnie zatruło napięte już stosunki między klasami
społecznymi a etnicznymi wspólnotami?" Krótko mówiąc, Steiner pyta, myśląc o obecnie
prowadzonych pracach badawczych, czy w gmachu nauki istnieją drzwi opatrzone tabliczką
„zbyt niebezpieczne, by otwierać". Na pytania Steinera odpowiadam negatywnie, lecz uważam,
że trzeba badać i wyjaśniać społeczne konsekwencje eksperymentów naukowych oraz ich
wiarygodność. Do takiego wniosku skłania nas sentencja „Im lepiej zrozumiemy świat, tym
większą będziemy mieli szansę na stworzenie sprawiedliwego społeczeństwa". Zainicjowanie
burzliwej dyskusji na temat przystosowania koncepcji socjobiologicznych (opartych na
badaniach nad zwierzętami) do zachowań ludzkich przynosi biologom niewątpliwy zaszczyt.
Kiedy rozważamy kwestię społecznej odpowiedzialności naukowców, nie mamy na myśli
podstawowych powinności każdego obywatela, wynikających z przynależność do
społeczeństwa, jak na przykład obowiązek wzajemnej pomocy, niezadawanie innym bólu itp.
Według współczesnego filozofa moralności, Johna Rawisa, obowiązki te dotyczą nas
wszystkich, niezależnie od wybranej drogi życiowej czy rodzaju kariery zawodowej. Natomiast
podejmowanie szczególnie ważnych decyzji, jak na przykład zawarcie małżeństwa lub objęcie
eksponowanego stanowiska publicznego, nakłada na nas określone zobowiązania. Interesujące
nas pytania można wyrazić następująco: jakie obowiązki wobec społeczeństwa mają zatem
uczeni poza podstawowymi powinnościami obywatela? Czy zdobyta wiedza nakłada na nich
dodatkowe zobowiązania? Rzecz nie dotyczy właściwie etyki, ponieważ pokusa czynów
niemoralnych w nauce nie stanowi jakiegoś szczególnego problemu, chociaż naukowcom
oczywiście nie wolno kraść cudzych pomysłów, oszukiwać bądź lekceważyć należytego
nadzoru eksperymentów ze zwierzętami.
Zastosowanie pierwszej zasady Rawisa z pewnością przyniosłoby uczonym same korzyści.
Ilekroć bowiem przedstawiają oni koncepcje brzemienne w skutki społeczne, czego przykładem
są poglądy niektórych socjobiologów na temat determinizmu społecznego, że podziały klasowe
są nieuniknione ze społecznego punktu widzenia, a agresywne odruchy w stosunku do obcych
stanowią część naszego ewolucyjnego
dziedzictwa lub też, że istni ej ą podstawowe różnice płci, które niweczą nadzieje kobiet na
prawdziwe równouprawnienie - tylekroć, zdaniem Rawisa, powinni wyobrazić sobie samych
siebie w położeniu, kiedy zasady działania społeczeństwa ustalane są po raz pierwszy, a żadna
ze stron nie zna swojej pozycji, naturalnych zdolności ani nawet generacji, do której należy.
Trzeba wyobrazić sobie zajmującą się uzgadnianiem szczegółowych reguł na podstawie ogólnej
zasady sprawiedliwości. Wszystkie wartości społeczne - wolność i otwartość, dochody i bogac-
two, poczucie godności - mają być równo rozdzielone, chyba że nierówny podział niektórych
bądź wszystkich przywilejów jest korzystny dla każdego członka wspólnoty. Naukowcy
powinni dobrze zastanowić się nad stanowiskiem, które zajmą w takiej sytuacji. Czy ktoś, kto
twierdzi, że jego badania dowodzą wrodzonej odmienności kobiet lub niektórych ras, nadal
utwierdzałby się w tym przekonaniu? Przecież jest wielce prawdopodobne, że w tej
wyimaginowanej sytuacji badacz może stanąć po stronie określonej grupy. Ku naszemu
zdziwieniu koncepcje, o których myślimy, mogą doprowadzić do uprzywilejowania grup
„słabszych", na przykład pod względem rozdziału pracy czy pieniędzy, kosztem grup
„mocniejszych", jeśli przyjęto by założenie, że niższa pozycja społeczna jest zdeterminowana
cechami wrodzonymi. W takich okolicznościach wiedza na temat dziedziczenia różnic mogłaby
zostać wykorzystana do utworzenia bardziej sprawiedliwego społeczeństwa. Mniej drażliwym
od problematyki rasowej przykładem jest sposób kształcenia dzieci różnorodnie uzdolnionych,
co można bezpośrednio przypisać różnicom genetycznym.
Nie żyjemy jednak w takim wyidealizowanym świecie. W gruncie rzeczy każda teoria na
temat biologicznego uwarunkowania ludzkich cech i różnic rasowych może wzmóc falę
uprzedzeń wobec nauki. Jeśli przedsięwzięto by w tym zakresie jakiekolwiek oparte na wiedzy
naukowej działania o charakterze społecznym, to kwestia wiarygodności i solidności tej wiedzy
musi zostać postawiona bardzo jasno, a to nie jest takie łatwe.
Dla wielu ludzi może być nie przekonywające promowane przeze mnie wyraźne oddzielenie
od jej praktycznego zastosowania, nauk od techniki: lekarze i inżynierowie nie muszą być
naukowcami. To rozróżnienie nie wynika z dążenia do ideału czy ze snobizmu, ale z zastoso-
wania wiedzy naukowej w praktyce. Istnieją jednak dziedziny, v/ których granice te nie wydają
się na początku zbyt wyraźne, tak jak ma to miejsce w wypadku inżynierii genetycznej oraz
terapii genowej.
Inżynieria genetyczna umożliwia zmianę struktury genetycznej organizmów zwierząt i roślin.
Stwarza nadzieje na przezwyciężenie plag szkodników, uniknięcie nadmiernego używania
nawozów, zużycia energii i wielu innych trudności. A jednak już samo określenie „inżynieria
genetyczna" wywołuje obawy, że chodzi tu o igranie z przyrodą. Mają one długoletnią tradycję.
Według greckiego mitu, Posejdon sprawił, że żona Minosa zakochała się w białym byku, a
owocem tego związku był potwór - Minotaur. W bliższych nam czasach poznaliśmy doktora
Frankensteina, dzieło wyobraźni Mary Shelley, i doktora Moreau H.G. Wellsa. Wymienieni
autorzy stworzyli potwory i podsycili głęboko zakorzeniony strach przed chimerami. Tradycja
ta z pewnością stawia w złym świetle biologów zajmujących się inżynierią genetyczną.
Należy zwrócić uwagę na szczególne zagadnienie, iż można obecnie wszczepić geny w
komórki ludzkie, aby korygować wady genetyczne. Czy powinno się takie zabiegi wykonywać?
Trzeba rozróżnić dwie metody - wszczepianie genów do komórek somatycznych, które nie
zostaną przekazane następnym pokoleniom, oraz wprowadzanie genów do komórek
zarodkowych (germiine ce/^). Jak jajeczka lub sperma, wskutek czego następuje przekazanie
cech wszystkim późniejszym pokoleniom. Procedura ta mogłaby rozwinąć się w potężną
technikę korekcji najgroźniejszych chorób genetycznych, takich jak białaczka, mukowiscydoza,
dystrofia mięśniowa, talasemia i wiele innych. Rozpoznano cztery tysiące różnego rodzaju
zaburzeń spowodowanych defektem pojedynczego genu.
Dlaczego więc perspektywa terapii genetycznej zdaje się naruszać etykę? Wszczepienie
genów do komórek ludzkich nie powinno budzić sprzeciwu i wywoływać kontrowersji,
ponieważ wprowadzanie nowego materiału gentycznego stanowi rutynową czynność przy
transplantacjach organów i szpiku kostnego. Leczenie promieniowaniem oraz podawanie
niektórych specyfików także powoduje zmiany materiału genetycznego. Problemy
bezpieczeństwa nie różnią się od zagadnień związanych z jakąkolwiek nową terapią, nawet
wówczas gdy przekaźnikami genów do zarodków są zmodyfikowane wirusy. Każda nowa-
torska interwencja medyczna jest ryzykowna, dlatego też ustalono procedurę wprowadzania
nowych leków. Trudno sobie wyobrazić, by ktoś oponował przeciwko leczeniu chorób o
podłożu genetycznym, powodujących trwałe kalectwo. Wszelkie obawy wiążą się więc z
niebezpieczeństwem wkraczania na „równię pochyłą".
Tam właśnie spotykamy doktora Frankensteina i doktora Moreau. Istnieje obawa, że gdy
pojawi się możliwość legalnego wszczepiania do naszych komórek genów do walki z
chorobami, lekarze i naukowcy użyją tej techniki, aby zmienić ludzki charakter. Dzięki genom
będzie można zaprogramować cechy zewnętrzne i wewnętrzne człowieka, np. sprawić, że
ludzie staną się wyżsi, przystojniejsi, zdolniejsi, być może nawet szczęśliwsi. Niektórzy sądzą,
że jeśli nawet zakres stosowania tej techniki będzie na początku ograniczony do komórek
dorosłego organizmu, to prędzej czy później geny zostaną wprowadzone do zarodka.
Co jednak stoi na przeszkodzie manipulowaniu genami komórek somatycznych, żeby
uzyskać bardzo pożądane cechy? Czy różni się to w jakimkolwiek stopniu od chirurgii
kosmetycznej? Wyobraźmy sobie, że dzięki inżynierii genetycznej można na przykład poprawić
pamięć lub określone zdolności umysłowe człowieka. I w tej dziedzinie zapewne pojawią się
nadużycia, ponieważ tylko osoby wystarczająco bogate mają szansę na tak kosztowne leczenie.
Dawałoby ono jednym ludziom przewagę nad innymi. Powstałby również problem
zagwarantowania pacjentom, że podczas terapii nie wystąpią skutki uboczne. O ile dorośli
mieliby szansę dokonywania wyboru, o tyle leczenie dzieci stwarzałoby już problemy natury
etycznej. Czy jednak przyszłe dylematy moralne różnią się zasadniczo od rozterek
przeżywanych obecnie? Rodzice zapewniają dzieciom przewagę nad rówieśnikami poprzez
opłacanie prywatnych lekcji i wysyłanie do najlepszych szkół. W dzisiejszych czasach
samodoskonalenie jest niezwykle cenione społecznie.
Jogging może poprawić system krążenia, spożywanie otrębów wyleczyć jelita, a medytacja całe
ciało. Cóż więc złego w merkantylnym podejściu do lecznictwa genetycznego i stworzeniu
„supermarketu", w którym poszczególne geny, wraz z ostrzeżeniem przed ewentualnymi
skutkami ubocznymi, byłyby sprzedawane za odpowiednią cenę? Dlaczego mielibyśmy
odmawiać dorosłym ludziom leków, dzięki którym mogą coś zyskać? Odpowiedzialność
jednostki i jej prawo wyboru, jeżeli jego skutki nikogo nie krzywdzą, to podstawowe zasady w
demokratycznym społeczeństwie. Możemy odczuwać wstręt, że ktoś poddaje się terapii
genetycznej, aby zmienić się w szczególny sposób, ale chyba będziemy musieli to
zaakceptować.
Hipotetyczna możliwość wszczepiania genów do komórek zarodkowych stwarza inne
problemy, ponieważ efekty tego działania zostaną przekazane następnym pokoleniom. Czym
jednak różni się ta perspektywa od możliwości urodzenia dziecka z dużym defektem genetycz-
nym? Jeśli kobiety mają prawo donosić dzieci zarażone aids, dlaczego matki nie mogą
korygować błędów genetycznych już w jajeczku? Uniemożliwienie wykorzystania takiej szansy
wydaje się wręcz niemoralne, szczególnie że nieprawidłowość zostałaby usunięta jednocześnie
u wszystkich ewentualnych potomków, co wpłynęłoby na zmniejszenie liczby dokonywanych
aborcji oraz dzieci obarczonych wadami genetycznymi. Niestety, wprowadzanie genów do
ludzkich komórek zarodkowych stwarza różnorodne zagrożenia. Wiąże się ze zmianą
przyszłych pokoleń, a ryzyko nieudanego zabiegu czyni procedurę na tyle niebezpieczną, że
dziś nie można jej w pełni zaakceptować. Jest nielegalna w wielu krajach Europy i w USA.
Preferuje się konwencjonalne rozwiązania problemu chorób o podłożu genetycznym, jak np.
diagnozę prenatalną i aborcję, a wtedy leczenie zarodkowe staje się zbędne.
Na razie inżynieria genetyczna nie wyrządziła nikomu krzywdy, podczas gdy palenie
papierosów, aids, narkotyki i alkohol nadal powodują ciężkie uszkodzenia płodu. Kluczem do
wyjaśnienia lęku przed manipulacją genami jest także nienaturalny charakter nauki. Ludzie bo-
ją się tego, co nieznane - procesów, terminów i technik, których nie rozumieją. Stanowisko
wobec inżynierii genetycznej można porównać
z postawą wobec eutanazji. Oba zjawiska mają implikacje etyczne, poruszyły opinią publiczną,
nikt jednak nie wiąże problemu eutanazji z nauką, ponieważ zagadnienie to nie opiera się na
technologiach niezrozumiałych dla ludzi. Warto natomiast przypomnieć wybuch wrogości,
który w zeszłym stuleciu wywołały szczepienia. Dopiero gdy społeczeństwo uzyskało
dostateczną wiedzę na ich temat, zaakceptowało je i stały się one częścią mądrości
„zdroworozsądkowej". Za „oświeceniem" społeczeństwa w kwestii DNA przemawia potrzeba,
żeby ludzkość doceniła inżynierię genetyczną i wyzbyła się nieuzasadnionych obaw.
Wiele wątpliwości budzi również projekt badawczy dotyczący ludzkiego genomu. Program
ten ma na celu sporządzenie mapy ludzkich genów zawartych w chromosomach, określenie ich
charakteru i funkcji każdego genu z osobna. Wielu ludzi obawia się nazbyt szczegółowych
informacji o naturze człowieka, których projekt ten ma dostarczyć. Z pewnością udoskonali on
metody wczesnego wykrywania „nieprawidłowości" genetycznych, takich jak predyspozycje
do zachorowań na raka, wad serca lub chorób psychicznych, co mogłoby zachęcić do nadużyć
pracodawców i firmy ubezpieczeniowe. Z drugiej zaś strony warto wiedzieć, że etiologię wad
rozwojowych opracowano za pomocą metod tradycyjnych. Ponadto lepiej wykryć ewentualne
powikłania we wcześniejszym stadium, niż czekać na pojawienie się objawów choroby czy
patologii. Naukowy projekt badań ludzkiego genomu (the human genome project) dzięki
zbadaniu DNA umożliwiłby wczesne rozpoznanie cech genetycznych. Posłużmy się
przykładem Huntington's Chorea - nieuleczalnym zaburzeniem neurologicznym, które atakuje
mężczyzn po czterdziestce. Genetyczne podłoże tej choroby jest dobrze znane, a analiza DNA
osoby, która znajduje się w grupie ryzyka, może dokładnie wykazać, czy zachoruje ona, czy
nie. Wyłania się tu jednak poważne zagadnienie etyczne: czy ludzie powinni być poddawani
takim badaniom i informowani o wynikach, szczególnie gdy dotyczą one choroby
nieuleczalnej? Należy tu zasięgnąć opinii osób, którym przypadłość ta zagraża. Odpowiedź
większości z nich brzmi jednoznacznie: wolą poddać się testom i wiedzieć o niebezpieczeń-
stwie.
Nie przeczę, że inżynieria genetyczna niesie ze sobą wiele trudnych problemów, wyrażam
jedynie myśl, iż większość z nich znano dużo wcześniej. Na przykład kwestia określenia
skłonności do chorób jest ważna dla firm ubezpieczeniowych. Już teraz muszą się one zmagać z
aids lub nałogowym paleniem papierosów. Inny problem dotyczy bezpiecznego powrotu do
środowiska organizmów poddanych inżynierii genetycznej. Z powodu prymitywnego lęku
przed mitycznymi chimerami bądź nieznajomości genetyki nie można jednak lekceważyć
czyjejś wrażliwości ekologicznej. Zagadnienie to powinno być jawne i publicznie
dyskutowane.
Pewne odkrycia stwarzają nowe problemy nie tylko uczonym, lecz angażują całe
społeczeństwo. Badacz, który ma dostęp do wiedzy na temat dziedziczności, zastanawia się,
czy geny wywołuj ą zmiany organiczne i czy z ich powodu grozi komuś niebezpieczeństwo. Do
naukowców i lekarzy nie należy nawet decyzja, czy wprowadzać geny do ludzkich komórek,
muszą oni po prostu wypowiadać się na temat konsekwencji takiego postępowania.
Decyzji o charakterze etycznym naukowcy nie podejmują samodzielnie: ani nie są do tego
uprawnieni, ani nie mają w tym kierunku wykształcenia. Obarczanie uczonych
odpowiedzialnością społeczną pociąga za sobą poważne niebezpieczeństwa, które pojawiły się
na przykład w historii eugeniki. Gdybyśmy założyli, że naukowcy ponoszą odpowiedzialność
za konsekwencje badań absorbujących całe społeczeństwo, byłoby to równoznaczne z
przekazaniem władzy grupie ludzi niekompetentnych do jej sprawowania.
Naukowcy niewątpliwie stoją wobec trudnych problemów etycznych związanych z energią
jądrową, ekologią, eksperymentami klinicznymi, badaniami ludzkich embrionów. Praca nad
tymi zagadnieniami nakłada dodatkowy obowiązek, aby ojej wynikach szczerze i jasno in-
formować społeczeństwo. Złożone kwestie dotyczące ludzkich embrionów dają pole do popisu
biologom, którzy określają stadia jego przemiany w indywidualny byt. Wiele innych zagadnień
wykracza jednak poza ich kompetencje, na przykład prawa płodu i dopuszczalność
przeprowadzania badań na pacjencie bez jego zgody.
Wszystkim wątpiącym, czy społeczeństwo lub politycy podejmują słuszne decyzje,
przytaczam wypowiedź Thomasa Jeffersona: „Nie znam żadnego bezpiecznego sposobu, aby
zachować podstawowe uprawnienia społeczeństwa, jak tylko przekazać straż nad nimi samym
ludziom, a jeśli nie uważamy ich za dość oświeconych, by z praw tych korzystali rozważnie,
zaradzić temu trzeba kształcąc ich, a nie odbierając przywileje". Kiedy społeczeństwo pozna
genetykę, problemy inżynierii genetycznej nie będą różniły się od dylematów związanych z
eutanazją i aborcją. Uważam, że poza paroma wyjątkami środowisko naukowe zachowywało
się wobec społeczeństwa w sposób odpowiedzialny. Uczeni popełniliby wielki błąd, gdyby
wzięli na siebie wyłączną odpowiedzialność za wybory etyczne bądź zostali tą odpowie-
dzialnością obarczeni i nie zaprotestowali. Podejmowanie decyzji społecznych czy
politycznych należy do całej zbiorowości. Nikt nie oczekuje od ludzi nauki, aby decydowali o
legalności aborcji, choć informacja na ten temat jest ogółowi niezbędna. Decyzje prawne muszą
podejmować wybrani przez nas reprezentanci, znający najnowszą dostępną wiedzę naukową.
Należy pamiętać słowa francuskiego poety Paula Valery'ego:
„Wkraczamy w przyszłość tyłem". Naukowcy nie potrafią przewidzieć wszystkich
technicznych i społecznych następstw swojej pracy. Ci, którzy badali osobliwe zachowanie
pewnych bakterii chorobotwórczych, nie mogli wiedzieć, że odkryją enzymy restrykcyjne,
które przecinają DNA w określonych miejscach, a obecnie stanowią podstawę inżynierii
genetycznej. Dzisiejsza fantazja jest techniką jutra, a odpowiedzialność za losy ludzkości
spoczywa na praktykach i politykach. Mimo to należy wystrzegać się traktowania koncepcji
naukowych jako dogmatów i nie uważać nauki za nieomylną.
Rozdział IX

Nauka i społeczeństwo

Jeśli nauka jest zjawiskiem nienaturalnym, bo wywołuje nieporozumienia, a nawet wrogość,


jak można temu zaradzić? Pytanie to ma istotne znaczenie, ponieważ właśnie nauce
zawdzięczamy najdoskonalszą wiedzę o świecie. Ujednolicenie praw fizyki, a także syntezy
nowych substancji chemicznych to przykłady niewątpliwych sukcesów. Wierzymy, że w
przyszłości biologia osiągnie równie wspaniałe wyniki. Ale nieporozumienia powstają nawet
wtedy, gdy odkrycie zostanie zaakceptowane przez społeczność uczonych i udostępnione
szerokiej opinii publicznej. Na taką „popularyzację" środowisko naukowe nie patrzy już z
pogardą i podejrzliwością. Ma bowiem nadzieję, że jeśli społeczeństwo lepiej zrozumie istotę i
rolę nauki, to podejmie bardziej świadome decyzje dotyczące środowiska, inżynierii
genetycznej, energii nuklearnej i wielu innych spraw. Jesteśmy przekonani, iż stosunek do
nauki będzie coraz bardziej życzliwy. Wciąż nie udaje się jednak uwydatnić dwóch istotnych
cech wiedzy naukowej: zagadnień, których nauka nie potrafi rozwiązać, i oczywiście -jej
nienaturalnej natury.
Kiedy cytowany we wstępie Vaclav Havel mówił o nauce jako o wyłącznym arbitrze prawdy,
czynił złą przysługę tak nauce, jak i prawdzie. Zapomniał również o trafnym stwierdzeniu
Tołstoja, że nauka nie udziela porad życiowych i nie ma żadnego wpływu na rozstrzyganie
sporów moralnych. To politycy, prawnicy, filozofowie i wreszcie wszyscy obywatele muszą
zadecydować, jaki model społeczeństwa pragną stworzyć. Trzeba stale przypominać opinię
Havla, że wiedzy nie można utożsamiać z jej praktycznym zastosowaniem. Osoby obwiniające
uczonych o skonstruowanie bomby atomowej albo o doprowadzenie do
skażenia środowiska naturalnego nie potrafią sobie wyobrazić, że przyczyniły się do tego
polityka i ekonomia, a nie naukowa interpretacja świata; oskarżenia tak formułowane są więc
krzywdzące, bezowocne i bezcelowe.
To prawda, że w przekonaniu pewnej części społeczeństwa nauka uśmierciła Boga; wielu
uczonych pozostało jednak ludźmi religijnymi, a skłonność do mistycznych uniesień wcale się
nie zmniejszyła. Aby to udokumentować, wystarczy przypomnieć nadzwyczajną popularność
astrologii. Naukowe metody bywają niewygodne, lecz zawsze lepsze niż nieuctwo. I chociaż
nauka nie potrafi odpowiedzieć na pytanie, jak żyć, może pomóc urzeczywistnić praktyczne
cele, na przykład łagodzić skutki chorób dziedzicznych, jeśli społeczeństwo zaakceptuje
metody inżynierii genetycznej. W przeciwnym razie któregoś dnia - tak jak w wypadku
eutanazji - będzie zmuszone to zrobić. Niektóre decyzje należy podejmować wspólnie:
nierozsądnie byłoby pozostawiać zastosowanie nauki tylko uczonym albo jakimkolwiek innym
specjalistom.
Być może nauka nie potrafi pomyślnie rozwiązywać wielu problemów praktycznych, nie z
przyczyn moralnych czy politycznych, lecz z powodu samej swej natury. Trudno domyślić się,
czego dokona w najbliższej przyszłości, ale nie będą to raczej zmiany radykalne. Chociaż
obecny stan wiedzy naukowej pozwala na prognozowanie przyszłych odkryć technicznych,
takich jak lekarstwo na raka, nie mamy pojęcia, w jakim kierunku pójdzie nauka.
Dostojewski lękał się naukowego prognozowania przyszłości:
„Należy odbyć prawa przyrody, a wówczas człowiek przestanie brać odpowiedzialność za ich
badanie. Życie stanie się łatwiejsze. Wszystkie ludzkie działania zostaną wyszczególnione na
tablicy podobnej do tablic logarytmicznych, powiedzmy 108 000 problemów przejrzyście usy-
stematyzowanych... Będzie szczegółowy plan, dokładne prognozy wszystkiego, co ma nadejść, a
nikomu nie zdarzy sie^ żadna przygoda bądź nieprzewidziane działanie ".
Ten lęk jest zupełnie bezpodstawny. Nauka próbuje objaśnić bogactwo świata za pomocą
ograniczonej liczby praw. Opisywane zjawiska na ogół są o wiele bardziej od nich
skomplikowane. Prawa Newtona
można łatwo porównać z ogromną rozmaitością ruchów, których dokładnie objaśnić nie sposób.
Jednocześnie warto sobie uzmysłowić, że znajomość praw przyrody nie jest jeszcze wiedząc
działaniu całego systemu. Potrafimy wyrazić równaniem ruch trzech ciał, które przyciągają się
z siłą grawitacji, ale rozwiązanie tych równań i opis samego ruchu jest zadaniem ogromnie
trudnym i nadal czeka na wykonanie.
Bardzo trudno także przewidywać przemiany klimatu ziemskiego. Procesy zachodzące w
atmosferze są niesłychanie złożone, więc można określić jedynie przybliżone wartości
kolejnych zmian. Trzeba przeprowadzać wiele niezbędnych badań podstawowych, wszystkie
zaś prognozy szczegółowe formułować bardzo ostrożnie.
Skala trudności prognozowania niektórych zjawisk w obrębie jakiegoś systemu, takiego jak
pogoda, stała się widoczna na podstawie ostatnich badań nad chaosem. Niektóre systemy są tak
czułe na najmniejsze zakłócenia, że uderzenie skrzydeł motyla w ogrodzie w Anglii mogłoby
doprowadzić do huraganu w innej, odległej części świata. Innego przykładu, który ilustruje
niektóre problemy z zagadnień przewidywalności, dostarcza zjawisko pojedynczego elektronu
na krańcu wszechświata.
Zbadajmy pojemnik zawierający cząsteczki jakiegoś prostego gazu. Powiedzmy, że udało się
nam precyzyjnie określić położenie i prędkość każdej z nich. Używając prostych technik,
można opracować schemat działania systemu w sytuacjach, kiedy cząsteczki zderzają się z sobą
i ścianami pojemnika. Wprowadźmy teraz kilka niewiadomych, takich jak siła pochodząca
spoza pojemnika i działająca na cząsteczki. Siła ta może być bardzo mała - powiedzmy siła
pojedynczego elektronu. Aby zminimalizować skutek, przesuńmy ten elektron bardzo daleko -
na hipotetyczny kraniec wszechświata. Owa słaba siła wpływa na zachowanie się cząsteczek,
tak że rozpatrując mniej niż pięćdziesiąt kolizji każdej cząsteczki, popełnimy błędy w
prognozowaniu, mniej więcej o milionową część sekundy. Przykład ten dowodzi wyraźnie
istnienia w niektórych systemach związków przyczynowych, których nie sposób przewidzieć
szczegółowo .
Nawet znając wszystkie dane, często nie sposób dokonać trafnego wyboru między dwiema
możliwościami. Grupa ludzi podejmuje tu decyzję, biorąc pod uwagę głos większości. Jak
jednak osiągnąć consensus, gdy istnieją więcej niż dwa warianty? Oto dwunastu ludzi porząd-
kuje swoje preferencje dla A, B i C. Załóżmy, że czterech określi je w kolejności ABC, pięciu
BCA, dwóch CAB. Nietrudno obliczyć, że A odnosi zwycięstwo nad B (sześć do pięciu), B nad
C (dziewięć do dwóch) a C nad A (siedem do czterech). Tym samym A zwycięża B, które
pokonuje C, a to z kolei zwycięża A. Przedstawiona metoda prowadzi zatem do sprzeczności i
nie może być stosowana. W ekonomii opisuje ją Teoria Niemożliwości Arrowa (Arrow's
Impossibility Theo-rem); głosi ona między innymi, że nie istnieje żadne racjonalne rozwiązanie
problemu podziału środków finansowych między ludzi o sprzecznych interesach. Oznacza to,
że nawet dysponując wszelkimi informacjami, nie umiemy rozstrzygnąć tego zagadnienia. Ale
chociaż nauka nie potrafi na przykład podzielić środków pieniężnych między placówki służby
zdrowia, nie dysponując schematem postępowania w takich sytuacjach, trzeba rzecz rozwiązać,
godząc się na kompromisy.
Ta prawda dotyczy również problemów moralnych i politycznych: w „doskonałym"
społeczeństwie nie ma lepszego sposobu osiągnięcia pożądanych celów. Filozof Izaak Berlin
wyjaśnia to pojęciem wolności:
„Jedna wolność może zniszczyć inna, hamować ją lub zawieść w tworzeniu warunków dla innej
wolności, większego stopnia wolności lub wolności dla większej liczby osób... wolność
jednostki lub grupy nie musi być tożsama z pełnym uczestnictwem w życiu społecznym, z żąda-
niem współpracy, solidarności, braterstwa. Poza tym istnieje jednak bardziej paląca kwestia:
potrzeba urzeczywistnienia innych podstawowych wartości — sprawiedliwości, szczęścia,
miłości, talentu do tworzenia nowych rzeczy, doświadczeń czy idei, wreszcie zamiłowania do
odkrywania prawdy ".
Musimy przeciwdziałać sugestii, że metoda naukowa stanowi panaceum na wszystkie
problemy. Może tak będzie w przyszłości. Nasze obecne rozumienie złożonych struktur, takich
jak zachowanie jednostek czy społeczeństw jako całości, jest jednak niepełne, a poziom wiedzy
o nich prymitywny. Dobrym przykładem pułapek, w które wpadają interpretatorzy zjawisk
społecznych, stosując twierdzenia „naukowe", może być marksizm. Tezy ekonomistów są także
niewiarygodne. Stawia to nas przed doniosłym zagadnieniem praktycznym, ponieważ -jak
zauważył ekonomista Robert Heillbroner - „Psychika ludzka potrafi opanować się w sytuacji
nadchodzącej klęski żywiołowej, lecz nie może się pogodzić z faktem, iż przyszłość wymyka
się spod kontroli człowieka".
Postrzeganie nauki jako bytu homogenicznego to błąd. Media często przedstawiają
naukowców anonimowo, co przyczyniło się do powstania opinii, że posiadają oni wiedzę z
pozostałych dyscyplin naukowych, na przykład biolodzy dobrze znają fizykę, a fizycy -
biologię. Tymczasem nauka, nawet dla samych uczonych, oznacza za każdym razem co innego.
Fizycy mają niewielkie wyobrażenie o podstawowych kwestiach biologii molekularnej,
ponieważ przedmioty penetracji biologicznej znajdują się poza sferami zainteresowania
współczesnej fizyki. Także matematycy musieliby uczyć się przez wiele miesięcy, by
zrozumieć dzieła naukowe z innych dziedzin. Członkowie społeczności uczonych ufają jednak,
że poświęciwszy swój czas, mogą poznać inne dyscypliny naukowe, jeśli nie szczegółowo, to
przynajmniej w ogólnych zarysach. Nienaukowcy nie mają takiej pewności siebie, także w
odniesieniu do naukowego stylu myślenia. Ujawniono, że zaledwie pięć procent Amerykanów
otrzymało wykształcenie odpowiednie do tego, by móc się swobodnie poruszać w świecie
nauki, mimo że połowę środków budżetu zatwierdzonego przez Kongres Stanów Zjedno-
czonych wydaje się na naukę i technikę.
Ogólny brak związku praktyki życiowej z racjonalnym myśleniem naukowym widzimy
wyraźnie w przebiegu leczenia ciężkich chorób. Pacjenci znoszą dolegliwości, a lekarze
dokonują zabiegów. Cierpiący odczuwają wówczas potrzebę nadania sensu swemu osobistemu
nieszczęściu. Chorzy na raka często przypisują swój stan losowi, co z naukowego punktu
widzenia może być bliskie prawdy, ponieważ zmiany patologiczne następują wskutek
nagromadzenia się w komórce nietypowych cech. W przekonaniu ogółu los to siła wyższa,
która sprawuje kontrolę nad naszym życiem. Powszechnie uważa się, że główne przyczyny
zachorowań na raka to stres i niewłaściwe odżywianie, ponieważ każdy zna te zjawiska z
codziennego doświadczenia. Współczesna medycyna, korzystając z osiągnięć biologii
molekularnej, zmieniła sposób myślenia o chorobie XX wieku, ale wyjaśnienie pacjentom jej
skomplikowanej etiologii jest bardzo trudne. Większość ludzi z trudem dostrzega różnicę
między infekcją spowodowaną przez wirusy (które mogą żyć tylko w komórce) a wywołaną
przez bakterie (które same są komórkami).
Nie potrafimy wytyczyć prostej drogi prowadzącej do zrozumienia nauki, nie istnieje też
definicja uniwersalnej metody naukowej. Najlepszym i prawdopodobnie jedynym sposobem
właściwego zrozumienia nauki jest badanie tego zjawiska, co jednak nie wpływa się na jej rece-
pcję. Nienaturalnej natury nauki niepodobna również objaśnić w procesie nauczania, tworząc
odrębny przedmiot. Korzystniej wypada konfrontacja poglądów opartych na zdrowym rozsądku
z teoriami naukowymi. Analizy ujawniły, że dzieci lepiej się uczą, jeśli zdobędą umiejętność
rozumienia zmiennych niezależnych (rozdział I). To jednak nie wystarcza. Oni muszą docenić
różnorodność myślenia naukowego -dostrzec, że o wiele bardziej naturalne było myślenie
Arystotelesa, niż poglądy Galileusza i Newtona.
Większość systemów kształcenia unika silnych osobowości, eliminuje się także intuicję.
Biologii najczęściej naucza się w szkole (a nawet na uniwersytecie) na pamięć, tak samo jak
czasowników nieregularnych w językach obcych. Może korzystniej byłoby uczyć mniejszej
liczby dyscyplin, a miast tego ukazywać jednocześnie tajniki nauki. Możliwość zdobywania
wiedzy na temat twórczości naukowej - ze szczególnym naciskiem na świadomą postawę
wobec grożących uczonemu niebezpieczeństw i niepowodzeń - byłaby bardziej wartościowa
niż sama nauka.
Nauka pozostanie częścią naszej kultury niezależnie od tego, czy ktoś jest zwolennikiem
scjentyzmu, czy jego przeciwnikiem. Nawet jeśli mamy bardzo słabe pojęcie o rzeczywistym
znaczeniu czy genezie naukowych koncepcji, to i tak większość ludzkich poglądów jest od nich
w dużym stopniu uzależniona (np. Ziemia kręci się wokół Słońca, defekty genetyczne są
przyczyną wielu chorób, radioaktywność może być niebezpieczna). Zrozumienie istoty nauki i
poglądów naukowych jest trudne. Jak na ironię pewne spopularyzowane poglądy zostają nie-
kiedy użyte w magiczny sposób, jak na przykład chaos i osobliwe cechy mechaniki kwantowej
w powieści The Chile) in Tfme lana McEwana. Należałoby uczynić z nauki dziedzinę mniej
wyobcowaną, ekscytującą, ale nie mistyczną. Należałoby uleczyć tę upokarzającą ranę
intelektualnej autoafirmacji, którą nienaukowcy, tacy jak Lionel Trilling, uprawiają w sytuacji
społecznego niezrozumienia nauki. Jest to główne zadanie wszystkich poziomów systemu
edukacyjnego.
Nauka odgrywa główną rolę w naszym życiu. To od nauki i techniki powinniśmy oczekiwać
pomocy przy wyprowadzaniu ludzkości z kryzysu, w którym znajduje się obecnie - kryzysu,
który pociąga za sobą zanieczyszczenie środowiska i przeludnienie. Nie wszystkie rozwiązania
zostaną oczywiście oparte na nauce, ale może ona wnieść tutaj decydujący wkład. Znajomość
zasad funkcjonowania świata okaże się potrzebna, aby go ocalić.
Powinniśmy zawsze pamiętać o początkach nauki w starożytnej Grecji. Nawet jeśli nie
znamy szczegółów tego fenomenu, łatwo dostrzeżemy zaangażowanie Greków w swobodną i
krytyczną dyskusję, co stało się przecież podstawą bujnego rozkwitu nauki. Zależność ta jest do
dziś aktualna. Chociaż obecnie nauka rozwija się intensywnie, rozwój ten łatwo może się
załamać: ponure dzieje radzieckiej genetyki, opartej na popieranych przez państwo dogmatach
Trofima Łysenki, są jaskrawym przykładem czyhających na naukę niebezpieczeństw. Ci, którzy
nie uznają koncepcji naukowych i zarzucają im zgubny wpływ na nasze życie duchowe,
powinni zdać sobie sprawę, że skoro ktoś raz odrzucił myślenie, wybierając dogmaty i
ignorancję, stanowi zagrożenie nie tylko dla nauki, ale i dla samej demokracji. Nauka jest jedną
z największych i najpiękniejszych zdobyczy ludzkości i aby przetrwała, konieczna jest
swobodna i krytyczna dyskusja, pozbawiona jakichkolwiek politycznych wpływów, tak jak
bywało w starożytnej Jonii.

You might also like