Professional Documents
Culture Documents
Przekład:
Hieronim Chojnacki Ewa Penksyk
GWP
GDAŃSKIE
WYDAWNICTWO PSYCHOLOGICZNE
Gdańsk 1996
Recenzja wydawnicza:
prof. dr hab. Adam Synowiecki
Tytuł oryginału: The Unnatural Nature of Science Copyright © Lewis Wolpert 1992
ISBN 83-85416-22-6
Druk: Prasowe Zakłady Graficzne ul. Wojska Polskiego l, Bydgoszcz
Gdańskie Wydawnictwo Psychologiczne 81-7 58 Sopot, ul. Piastów l/la, tel./fax. 51-61 -04
Spis treści
Przedmowa 7
Wstęp 8
I. Nienaturalne myślenie 14
II. Technika nie jest nauką 38
III. Przeskok Talesa: Zachód i Wschód 49
IV. Kreatywność 70
V. Konkurencja, kooperacja i zaangażowanie 100
VI. Wątpliwości filozoficzne albo
wybujały relatywizm. 117
Nienaturalne myślenie
'często uważa się, że nauka i zdrowy rozsądek są ściśle ze sobą związane. Thomas Henry
Huxley, znakomity kolega Darwina, mawiał, że nauka to nic innego jak wyszkolony zdrowy
rozsądek. „Nauka jest zakorzeniona w całym mechanizmie zdroworozsądkowego myślenia" -
głosił optymistycznie filozof i matematyk Alfred North Whitehead. Choć poglądy te brzmią
rozsądnie, są, niestety, błędne. W rzeczywistości zarówno idee, które nauka wytwarza, jak i
sposób uprawiania nauki pozostają całkowicie antyintuicyjne i antyzdroworozsądkowe. Chcę
przez to powiedzieć, że pojęć naukowych nie można zrozumieć za pomocą prostego badania
zjawiska i że często funkcjonują one poza codziennym doświadczeniem. Nauka nie
dostosowuje się do naszych naturalnych oczekiwań.
Zdrowy rozsądek odzwierciedla ogromną liczbę informacji człowieka o świecie i dostarcza
mnóstwa praktycznych reguł - wiele z nich całkiem logicznych - do rozwiązywania
codziennych kłopotów. Jest tak trwale wpisany w nasze życie, że rzadko o nim myślimy.
Rozważmy krótko to zagadnienie.
Porównując zdrowy rozsądek z nauką, musimy oczywiście określić, co pod pojęciem nauki
rozumiemy. Sformułowanie ścisłej definicji nie jest wcale łatwe. Na tym etapie rozważań
najlepiej odwołać się do przykładu.
Zasadnicze cechy nauki najłatwiej przedstawić na przykładzie fizyki. Próbuje ona wyjaśnić
nam zjawiska natury - świata, w którym żyjemy. Tłumaczy ogromną różnorodność zjawisk -
ruch wszystkich obiektów, naturę światła i dźwięku, ciepła i elektryczności, elementarną
strukturę rzeczy - za pomocą możliwie najmniejszej ilości zasad.
Konstruuje surowe teorie, które muszą zarówno przejść testy zmierzające do ich
potwierdzenia, jak i odeprzeć próby zanegowania. Teoriom stawia się także konieczny wymóg,
by były zdolne do modyfikacji lub nawet odrzucenia, jeśli wskażą na to dowody. W procesie
tym wszystkie zjawiska muszą być postrzegane przez niezależnych obserwatorów, ponieważ
wiedza naukowa jest wiedzą społeczną.
Nauka zawsze odnosi się do świata zewnętrznego, a jej sukcesy zależą od zgodności teorii z
rzeczywistością. Dobra teoria powinna nie tylko wyjaśniać obserwacje i sugerować nowe, lecz
także spełniać kryteria względnej prostoty i elegancji, a dobra teoria, co sami naukowcy stale
podkreślają, wzmaga zainteresowanie nowymi pytaniami.
Einstein definiował przedmiot nauki jako „koordynowanie eksperymentów i ujmowanie ich
w logiczny system". W tym dążeniu fundamentalną rolę pełni matematyka, która wyraża
naukowe idee ilościowo: według dziewiętnastowiecznego fizyka, lorda Kelvina, utrzymywać,
że coś naprawdę się wie, można tylko wtedy, gdy potrafi się to zmierzyć i wyrazić w liczbach.
Chociaż jest to pogląd skrajny i z pewnością niewłaściwy, u podstaw naukowych dążeń leżą
próby wyrażenia idei z matematyczną ścisłością. Zasady dynamiki Newtona zapewniły tej
postawie wspaniałe zwycięstwo: za pomocą kilku podstawowych praw i matematyki można
wyjaśnić całokształt zjawisk ruchu - od krążenia planet po ruchy kuł bilardowych czy
tenisowych piłeczek.
Fizyka ruchu dostarcza przekonujących dowodów na antyintuicyjną i nieoczekiwaną naturę
nauki. Większość ludzi nie obeznanych z fizyką ma niejasne pojęcie o ruchu i na podstawie
tych nieprecyzyjnych przeczuć zgaduje, w jaki sposób przedmiot może się poruszać. Kiedy
studentom przedstawia się problemy wymagające określenia, gdzie upadnie jakiś przedmiot
zrzucony z samolotu - na przykład bomba -często udzielają niewłaściwej odpowiedzi.
Odpowiedź poprawną - że bomba uderzy w punkt leżący mniej więcej poniżej miejsca, nad
którym samolot przelatywał w chwili zrzucenia pocisku - często się odrzuca. Nie bierzemy pod
uwagę, iż od momentu zrzucenia bomba nadal się porusza do przodu niezależnie od ruchu w
dół. Jeszcze dobitniej przedstawia to zagadnienie inny przykład. Wyobraźmy sobie, że stoimy
w centrum rozległego, płaskiego pola. Jeśli jedną kulę wypuścimy z ręki, a drugą - dokładnie
w tym samym czasie - poziomo wystrzelimy z pistoletu, to która z nich uderzy o ziemię
pierwsza? Otóż zrobią to jednocześnie, ponieważ prędkość spadania kuli jest niezależna od jej
ruchu poziomego. To, że wystrzelona kula leci poziomo, nie ma wpływu na to, jak szybko
spada pod wpływem grawitacji.
Inną zadziwiającą właściwością ruchu jest to, iż większość przedmiotów porusza się ze stałą
prędkością i nie pozostaje -jak wielu z nas myśli - w stanie spoczynku. Ciało w ruchu
kontynuuje ten ruch tak długo, dopóki nie napotka siły, która je zatrzyma. Tę rewolucyjną myśl
sformułował na początku XVII wieku Galileusz, przeciwstawiając się zdroworozsądkowemu
poglądowi Arystotelesa, wygłoszonemu w VI wieku przed Chrystusem, że ruch przedmiotu
wymaga nieustannego działania jakiejś siły. Galileusz opisał jako przykład dokładnie płaską
równinę i dokładnie okrągłą kulę. Jeśli równina ta jest nieznacznie pochylona, kula będzie
toczyła się wciąż w dół. Ale tocząc się w górę po zboczu o łagodnym nachyleniu, będzie
prędkość wytracać. Wynika stąd, że ruch po poziomej równinie jest stały, „ponieważ jeśli
prędkość poruszania się będzie jednakowa, nie może zmaleć lub osłabnąć, a w żadnym
wypadku zaniknąć". A więc na płaskim zboczu, bez żadnego tarcia, początkowy impuls
utrzymuje kulę w nieprzerwanym ruchu, nawet jeśli nie działa na nią żadna siła. Tym samym
naturalny stan jakiegoś fizycznego przedmiotu to ruch ze stałą prędkością po linii prostej.
Zasada ta jest znana jako pierwsze prawo dynamiki Newtona. To, że prawdziwa kula się
zatrzyma, zależy od przeciwstawnej siły, wytworzonej przez tarcie pomiędzy rzeczywistą kulą
a rzeczywistą równiną. Ogromna pojęciowa zmiana, której domagały się przemyślenia Gali-
leusza, wskazuje, że nauka nie zmierza do wyjaśniania „nieznanego", wychodząc od tego, co
znane. Wręcz przeciwnie - nauka często wyjaśnia to, co znane, w nieznanych terminach.
Arystotelesowe pojmowanie ruchu, który wymaga stałego użycia jakiejś siły, jest nam bliskie
tak, jak teorie Galileusza i Newtona nie będą nigdy. Nic więc dziwnego, że wielu studentów,
pytanych o siły działające na piłkę wyrzuconą w górę, wyobraża sobie obecność jakiejś siły
wznoszącej, kiedy piłka odrywa się od rąk, podczas gdy w rzeczywistości wpływa na nią tylko
siła grawitacji skierowana w dół. Nie jest to zagadnienie proste i mylił się nawet Galileusz,
chociaż uświadomił sobie istnienie problemu. Wyjaśnienia dostarcza drugie prawo dynamiki
Newtona. Siły działające na jakieś ciało powodują przyspieszenie, a więc nie mogą ani
zwiększyć, ani zmniejszyć jego prędkości. Piłka rzucona w górę leci stale ku górze, dopóki nie
napotka takiej siły, jak tarcie czy grawitacja, która zwolni jej bieg. Siła grawitacji przyspiesza
ruch piłki w kierunku ziemi - co równoważy ruch od ziemi - piłka zatem zahamuje i w końcu
zmieni swój ruch na przeciwny.
Naiwne poglądy studentów są bardzo podobne do teorii „impetusu" prezentowanej w VI
wieku przez Jana Filopona z Cezarei i przez Jana Buridana w wieku XIV. Teoria ta zakładała,
że przedmioty wprowadza w ruch działająca na nie siła albo początkowy impetus, który
utrzymuje je w ruchu. Myślenie w kategoriach impetusu ponad trzysta lat po Newtonie
pokazuje, jak trudna jest asymilacja antyintuicyjnej myśli naukowej.
Innym zaczerpniętym z fizyki przykładem antyintuicyjnej myśli naukowej jest odkryta przez
Newtona natura białego światła. Zwykłe białe światło okazało się mieszaniną różnych
rodzajów światła, z których każde widzimy jako kolorowe. Kiedy połączą się wszystkie kolory
tęczy, powstaje biel.
Jeszcze innego przykładu dostarcza dziewiętnastowieczna teoria „flogistonu", która
próbowała rozstrzygnąć, co dzieje się podczas spalania. Według Arystotelesa i w kategoriach
zdrowego rozsądku z płonącego przedmiotu coś się wyraźnie ulatnia. Stworzono więc pojęcie
flogistonu. I znowu zdrowy rozsądek się pomylił, ponieważ istotną cechą spalania jest
pochłanianie tlenu, nie zaś wydalanie jakiejś substancji.
Ze zdrowym rozsądkiem kłóci się nawet coś tak prostego, jak mechanizm rozpuszczania się
barwnika w wodzie. Wpuszczamy kroplę atramentu lub innego barwnika do jednego z końców
rynny wypełnionej wodą. Po pewnym czasie barwnik rozpłynie się w całej wodzie. Dlaczego
tak się dzieje? Może się wydawać, iż w jednym z końców naczynia istnieje coś, co działa na
„poruszający się" barwnik. W rzeczywistości zaś owo rozprzestrzenianie się to wynik
przypadkowego poruszania się cząsteczek barwnika; gdyby można podążyć za pojedynczą
cząsteczką, dałoby się określić kierunek tego ruchu. A czyż nie jest intuicyjna wiara, że wysoka
i niska temperatura to odbicie podobnej, ukrytej właściwości związanej z drganiem cząsteczek?
Nauka zajmuje się również ogromnymi różnicami wielkości rzeczy i czasu trwania zjawisk.
Cząsteczki są, na przykład, tak małe, że niełatwo je sobie wyobrazić. Jeśli oznaczymy
wszystkie cząsteczki wody znajdującej się w szklance, a następnie wlejemy płyn do morza i
pozwolimy mu rozproszyć się po wszystkich oceanach, to ponownie zaczerpnąwszy szklankę
wody z morza, prawie na pewno znajdziemy w niej niektóre z oznaczonych wcześniej
cząsteczek. Oznacza to, że w szklance wody znajduje się więcej cząsteczek niż szklanek wody
w morzach. W jednym palcu - żeby podać inny przykład - mamy więcej komórek niż jest ludzi
na świecie. Czas geologiczny z kolei jest tak rozległy - miliony milionów lat - że jednym z
triumfów dziewiętnastowiecznej geologii stało się odkrycie, iż wielkie pasma górskie, głębokie
wąwozy i doliny ukształtowały się pod wpływem sił zupełnie takich samych jak nam
współczesne, ale działających w ogromnych okresach czasu. Zakładanie, że do zmian
geologicznych przyczyniły się katastrofy, nie jest więc konieczne.
Kolejnego przykładu na to, w jakich warunkach intuicja zazwyczaj zawodzi -
prawdopodobnie z powodu skali - dostarcza wyobrażenie wielkości planety Ziemi, której
równik - o długości czterdziestu tysięcy kilometrów - otoczono przylegającym dokładnie
sznurkiem. Jeśli długość sznurka zostanie zwiększona o 91 centymetrów, jaka odległość będzie
go dzielić od powierzchni planety? Odpowiedź brzmi - około piętnastu centymetrów i to
niezależnie od tego, czy równik ma 40 tysięcy czy 40 milionów kilometrów.
Wyjątki od reguły, że wszystkie pojęcia naukowe to przeciwieństwo zdrowego rozsądku,
zdarzają się rzadko. Najlepszym przykładem jest prawo Ohma: im większy opór w obwodzie
elektrycznym, tym większego napięcia potrzeba, żeby wywołać przepływ prądu elektrycznego
przez obwód. Ogólnie jednak sposób, w jaki natura się integruje, oraz prawa, które nią rządzą,
nie mają wyraźnego związku z codziennym życiem. Praw natury nie można po prostu
wywodzić z normalnego doświadczenia. Nawet to, że Ziemia kręci się wokół Słońca,
akceptowane jest bardziej dzięki autorytetom niż rzeczywistemu rozumieniu - dostarczyć
dowodów tego ruchu wcale niełatwo. Jak wskazywał Bertrand Russel, wszyscy zaczynamy od
„naiwnego realizmu", według którego rzeczy są takie, jakie się wydają. Sądzimy, iż trawa jest
zielona, kamienie twarde, a śnieg zimny. Fizyka uczy nas jednak, że zieloność trawy, twardość
kamieni i chłód śniegu to nie to samo, co znamy z własnego doświadczenia. Podobnie
funkcjonują prawa ekonomii - laureat Nagrody Nobla James Meade chciał, by na jego
nagrobku umieścić takie oto epitafium: „Przez całe życie próbował zrozumieć ekonomię, lecz
powstrzymywał go przed tym zdrowy rozsądek".
To, że nauka jest nienaturalnym, a nawet niepokojącym rodzajem myślenia, doskonale
rozumiał Arystoteles:
„ W pewnym sensie wynik zrozumienia stanowi całkowitą odwrotność wstępnego nastawienia
naszego umysłu. Każdy zaczyna (jak mówimy) od zdumienia tym lub innym faktem: na przykład
tym, że długość przekątnej kwadratu nie jest proporcjonalna do jego boku. Każdy, kto nie
zrozumiał, dlaczego bok i przekątna nie mają wspólnego elementu, uważa to za cos
niezwykłego. Ale można odwrócić tę myśl... nic nie mogłoby bardziej zdumieć matematyka, niż
to, że przekątna i bok kwadratu stały się proporcjonalne ".
Arystoteles powoływał się na fakt, że zgodnie z teorią Pitagorasa przekątna kwadratu jest
wielokrotnością pierwiastka kwadratowego i nie jest wyrażona liczbą całkowitą, ale ma tyle
miejsc po przecinku (1,4142...), ile potrzebujemy do obliczeń.
Rozważania o nienaturalnym charakterze pojęć naukowych polegają jednak w pewnym
sensie na powtarzaniu tej samej myśli: gdyby pojęcia te były naturalne, ich odkrycie nie
wymagałoby trudnych i długotrwałych technik badawczych. Wszystkie omówione tu
przykłady odnoszą się - jak dotąd - do stosunkowo prostych praw naukowych. Kiedy ktoś
poznaje świat kosmologii z jej czarnymi dziurami i sugestią - czy raczej przeświadczeniem - że
wszechświat zaczął się od „wielkiego bum" i został w odległej przeszłości stworzony w ciągu
kilku minut, wtedy nauka przekracza próg antyintuicyjności i wydaje się niezrozumiała albo
nawet przypomina magię tym, którzy nie zajmują się fizyką. W opisie świata cząstek atomu
istnieje wiele pojęć, które nie mają odpowiedników w życiu codziennym. W tym świecie
wszystkie elektrony - najmniejsze posiadające ładunek cząstki, stanowiąc element składowy
wszechrzeczy - są identyczne. Działa w nim zasada nieokreśloności Heisenberga: nie sposób
wymyślić metodę określania dokładnej pozycji cząstek tworzących atomy, nie rezygnując ze
ścisłości określenia, jak szybko się one poruszają. Regułami zachowania się cząstek
molekularnych w tym wewnątrzatomowym świecie rządzi mechanika kwantowa, w której
znany nam rodzaj przyczynowości nie daje się zastosować, niemożność zaś orzekania o
pewnych wydarzeniach, takich jak rozpad radioaktywny, jest znamienną cechą teorii. Nawet
Einstein nie mógł pogodzić się z tym brakiem przyczynowości i rolą przypadku, sformułował
więc słynny aforyzm: „Bóg nie gra w kości".
Jedną z najbardziej nienaturalnych cech nauki jest to, że abstrakcyjny język matematyki
stanowi narzędzie opisu zachowania się zarówno organizmów nieożywionych, jak i systemów
w fizyce, w życiu, w biologii. Nie wiadomo, dlaczego musimy dostosowywać świat do opisów
matematycznych. Jakkolwiek brzmi odpowiedź, jest to zadziwiające.
Ponieważ aż tyle nauk opiera się na matematyce, niełatwo przy użyciu zwykłego języka
tłumaczyć ich idee. Co więcej, rozumienie nauki jest procesem hierarchicznym: niezwykle
trudno przyswoić sobie bardziej złożone pojęcia, dopóki nie opanuje się podstawowych.
Często trudno nawet przełożyć je na język codzienny, szczególnie w fizyce, gdzie decydującą
rolę gra matematyka: nie musi to być prosty przekład wzorów matematycznych na określenia
obserwowanych przedmiotów. Dlatego dla większości ludzi niepojęta jest mechanika
kwantowa, czarna dziura i większość fizyki. To samo można powiedzieć w przypadku chemii.
Większość wzorów przedstawiających relacje strukturalne pomiędzy atomami niełatwo
przełożyć na język powszedni. Wzór cholesterolu, na przykład, niewiele znaczy dla
niechemika.
Podstawowe pojęcia biologii molekularnej nie wydają się bardziej abstrakcyjne niż pojęcia
fizyczne, a ponieważ w kilku wypadkach będę ich używał, konieczny staje się nieco bardziej
szczegółowy opis paru z nich.
Wiemy, iż DNA jest materiałem genetycznym - fizyczną podstawą dziedziczności. Jeśli
pominiemy matematykę, jego rolę można uznać za jedną z najłatwiejszych do wyjaśnienia
myśli naukowych, choć w istocie jest dość skomplikowana. Rola ta wiąże się z zagadnieniami
specjalistycznymi. Nawet rozpoznanie, że materiał genetyczny w ogóle istnieje, wymaga pracy
ogromnej liczby uczonych. Człowiek od dawna zdawał sobie sprawę, że dzieci są podobne do
rodziców zarówno w świecie ludzkim, jak i zwierzęcym, lecz natury mechanizmu, który za to
odpowiada, nie pojmowano aż do naszego wieku. Począwszy od Arystotelesa, teorie
wyjaśniające to zjawisko zawierały myśl, że rodzice przekazują potomstwu jakąś
„niesubstancjalną pneumę" jako czynnik dziedziczności, głosiły dominującą rolę ojca w tym
procesie, a także uznawały środowisko rodziców za główny wyznacznik fizycznego obrazu
potomka. Pod koniec ostatniego stulecia stało się jasne, że to chromosomy - sznurków a te
struktury wewnątrz torebki jądra komórkowego - mogą być fizyczną podstawą dziedziczności.
Dopiero w latach siedemdziesiątych XIX wieku odkryto, że plemniki, które po raz pierwszy
zaobserwowano pod mikroskopem dwieście lat wcześniej, nie są pasożytami, jak kiedyś
sądzono, lecz dostarczają jajeczku męski materiał genetyczny. Odkrycia te wymagały
starannych obserwacji, pomysłowych doświadczeń i technologii, na przykład użycia mi-
kroskopów. Niczego z tych podstawowych odkryć nie można się było spodziewać po
normalnym doświadczeniu świata.
Identyfikacja DNA jako materiału genetycznego i jego kontrolnej roli wobec komórki
wymagała całej serii odkryć, których podstawą były nie tylko doświadczenia biologiczne, ale
również bardzo złożone badania fizyczne i chemiczne. Już jakiś czas temu ustalono skład
chemiczny DNA - wykrywając, że jest on zbudowany z czterech różnych substancji albo zasad
(bases). Dopiero jednak w 1953 roku odkryto strukturę DNA - sposób, w jaki te zasady są
rozmieszczone – co dostarczyło tematów badań zupełnie nowych problemów. Analiza stru-
kturalna bazowała na załamaniu promieni rentgenowskich, technice stosowanej przez fizyków
i chemików w celu zdobycia informacji o trójwymiarowym układzie atomów w cząsteczce.
Wiązkę promieni rentgenowskich przepuszcza się przez ciało krystaliczne, a wychodzące zeń
promienie dają na kliszy fotograficznej powikłany, ale charakterystyczny kropkowany wzór.
Wiązka ta odzwierciedla drogę załamywania się promieni przechodzących przez kryształ, a
dzięki zręcznym procedurom matematycznym można z tych załamań zrekonstruować układ
atomów.
James Watson i Francis Crick opracowali strukturę DNA od strony jej właściwości
chemicznych, jak i zbadali ją w załamaniu promieni rentgenowskich. Potrzebowali ogromnej
wiedzy tworzącej kontekst zagadnienia i włożyli w badania wiele pracy. Wynik okazał się miłą
niespodzianką, ponieważ ujawnił jedną z zasadniczych cech życia -replikację. DNA jest bardzo
długą sznurkowatą cząsteczką, złożoną z nitek skręconych w podwójną spiralę. Każda nitka
zbudowana jest z czterech różnych zasad, których układ ma dwie ważne cechy. Zasady
(nukleotydy - przyp. tłum.) ułożone są w ścisłym porządku, unikatowym dla każdej z nich,
wzdłuż skręconych nitek, a podstawowe właściwości DNA są określone przez szczególne
następstwo zasad. Ponadto zasady w jednej nitce pozostają w niepowtarzalnym i
komplementarnym związku z zasadami w drugiej nitce. Każda zasada może dopasowywać się
wyłącznie do swej komplementarnej partnerki. Z chwilą gdy zostanie sprecyzowane
następstwo zasad w jednej nitce, ustala się także ich układ w drugiej. Utrzymuje to
podstawowy mechanizm replikacji: gdy dwa łańcuchy rozwijają się i następnie oddzielają,
komórka syntetyzuje dopełniające się nitki, przyłączając wolne zasady (które są zawsze
obecne) do ich komplementarnego partnera. Ten zaskakujący mechanizm replikacji DNA
stanowi elementarną zasadę replikacji samego życia, ale uproszczony opis nie oddaje w pełni
złożoności chemicznych reakcji, które w tym procesie zachodzą.
Ścisłe następstwo zasad pozwala nie tylko na wierną replikację, lecz także tworzy
mechanizm, za pomocą którego DNA, jako materiał genetyczny, kontroluje zachowanie się
komórki. W znacznej mierze jest ono określone przez klasę cząsteczek zwanych proteinami. W
komórce istnieją tysiące rozmaitych protein, istotnych dla kluczowych reakcji chemicznych, a
także odpowiedzialnych za dostarczanie budulca do struktur komórkowych, jak na przykład
włókna wywołujące kurczenie się mięśni. O charakterze komórki rozstrzyga to, jakie proteiny
ona zawiera. Obecność lub nieobecność poszczególnych ich rodzajów reguluje zachowanie
komórki.
DNA zawiera kod wszystkich protein w komórce - kolejność czterech zasad w DNA można
przełożyć na następstwo dwudziestu aminokwasów, z których składają się proteiny.
Właściwości tych protein są określone przez kolejność w łańcuchu aminokwasów, z którego
powstały. Tym samym DNA komórki przypomina książkę zawierającą receptę dla każdej
proteiny, a życie komórki, jej charakter, zależy od tego, która instrukcja zostanie „odczytana".
Ten elegancki uniwersalny mechanizm stanowi podstawę życia, na nim też opierają się nauki
biologiczne, genetyka, biologia molekularna, postęp i ewolucja. Nic w dzisiejszym świecie nie
wyprzedza współczesnej koncepcji komórki i biologii molekularnej. Ponadto na przekór
zdrowemu rozsądkowi cechy nabyte nie mogą zostać odziedziczone, a wszelkie ewolucyjne
zmiany są uzależnione od zmian w DNA. Obydwie sprawy są, rzecz oczywista, ściśle
powiązane.
Z małymi wyjątkami wszystkie cechy, które przechodzą z rodziców na potomstwo poprzez
jajo i nasienie, są przenoszone przez DNA. Każda zmiana właściwości jakiegoś organizmu,
która ma być odziedziczona, wymaga zmian w DNA. Może być rezultatem rozmaitych
kombinacji DNA dostarczanych przez rodziców, a kolejność samych zasad potrafi się zmienić
z powodu mutacji wywołanych błędem w replikacji albo uszkodzeniem przez czynniki
środowiskowe - przez jakiś proces zmieniający naturę DNA, tak że przekształca się także wzór
protein syntetyzowanych w komórkach. Ewolucja jest więc zmianą dokonującą się w DNA
komórek z pokolenia na pokolenie. Jedyną istotną różnicą pomiędzy najprymitywniejszą
komórką a najbardziej skomplikowanym zwierzęciem jest odmienna kolejność zasad DNA. Co
więcej, przypadkowe jest pochodzenie w DNA zmian, które wywołują te zróżnicowania.
Zachowanie zwierzęcia ani jego doświadczenie życiowe nie zmienia DNA tak, aby nabyte
cechy - siła, wiedza, lęki, miłość - mogły zostać odziedziczone. Fakt, że istoty ludzkie
powstają w ten sposób, musi przynajmniej niekiedy zdumiewać biologów. Tych jednak, którzy
nadal wątpią, przekonuje całkowicie niezbity dowód, choć techniczny, matematyczny i trudny.
Niestety, potrzeba kilku lat pracy, by w pełni zrozumieć przedmiot badań biologii
molekularnej, a tym bardziej wprowadzać innowacje.
Psycholog behawiorysta Burrhus F. Skinner był tym samym bliższy prawdy określającej
naturę nauki, niż Whitehead czy Huxley: „Cóż zatem możemy zaprezentować nienaukowcom
albo trafnym przewidywanym osądom czy zdrowemu rozsądkowi, wreszcie przekonaniom
zdobytym przez osobiste doświadczenie? Naukę albo nic".
Uważam, że jeśli coś zgadza się ze zdrowym rozsądkiem, prawie na pewno nie jest nauką. A
to dlatego, że sposób działania wszechświata nie jest tożsamy ze sposobem funkcjonowania
zdrowego rozsądku. Nie ma między nimi zgody. W toku ewolucji nasze mózgi - i stąd wzięło
się nasze zachowanie - dokonały selekcji i przestały zajmować się bezpośrednio otaczającym
nas światem. Doskonale wykształciliśmy określone typy myślenia, szczególnie te, które
prowadzą do prostej i jednocześnie złożonej techniki oraz kontrolują najbliższe otoczenie.
Naukowe rozumienie jest jednak nie tylko nienaturalne: nie było też konieczne dla rozwoju
człowieka, a wobec tego, jak zobaczymy (rozdział II), technika nie zależy od nauki.
Oto owa nienaturalna natura nauki, która jednak w historii objawia się bardzo rzadko. W
przeciwieństwie bowiem do nauki ludzkim zachowaniem kieruje myślenie nie uświadomione.
Mimo nieznajomości fizyki większość ludzi podejmuje bardzo skomplikowane działania, takie
jak jazda rowerem - arcytrudny problem w pojęciu Newtona. Dobry przykład na to, jak
najbardziej prymitywne wyobrażenia mogą zostać użyte do złożonych zadań, dają metody, za
których pomocą Polinezyjczycy wyznaczają kurs ku odległym wyspom. Stosują oni
„obliczanie na oko" (dead recfwning), wyobrażając sobie, że łódź to nieruchomy punkt, wyspy
poruszają się obok, a gwiazdy krążą ponad głową. Przypomina to chodzenie po omacku
pomiędzy dwoma krzesłami w dużym holu, gdy jednocześnie stale wskazuje się na trzecie
krzesło, stojące poza główną trasą. Ta metoda nawigacji nie wymaga żadnego zrozumienia,
dlaczego wypadki zachodzą tak, jak zachodzą; różni się zasadniczo od nawigacji opartej na
nauce i technice, podkreślającej ludzką umiejętność rozmyślania nad niezliczonymi zagadnie-
niami. Chociaż wiedza jest tu istotna, rozumienie natury zjawiska- nie.
W przeciwieństwie do nauki codzienne myślenie oparte na zdrowym rozsądku określane jest
za pomocą swojej naturalności. Idzie tu o złożone procesy umysłowe, których zazwyczaj
jesteśmy nieświadomi, a które pozwalają nam zaspokajać potrzeby życia codziennego. W
większości wypadków całkowicie to wystarcza, ale nauka potrzebuje czegoś więcej. Myślenie
potoczne pozbawione jest bowiem rygoru, logiczności i obiektywizmu. Większość ludzi
traktuje swoje opinie o świecie jako prawdziwe, nie uświadamiając sobie motywów poszcze-
gólnych sądów. Tymczasem to rozumowanie stanowi przeciwieństwo świadomej i
samokrytycznej metodologii nauki. Zdroworozsądkowe myślenie wykazuje skłonności do
popełniania błędów, szczególnie wtedy gdy problemy mają charakter formalny, a dostęp do
informacji jest ograniczony. Tak naprawdę nie zmaga się ono z formą i nie tworzy ogólnych
rozwiązań. Różnice pomiędzy myśleniem zdroworozsądkowym a naukowym można wyjaśnić
na dwa sposoby: przez obserwację rozwoju intelektualnego dzieci i rozpatrując pewne aspekty
rozumowania dorosłych.
Małe dziecko postrzega świat w sposób o wiele bardziej złożony, niż pierwotnie sądzono.
Dwulatki rozumieją już przyczynę i skutek, pytając nad stłuczoną filiżanką: „Kto to zrobił?"
Potrafią także rozpoznać, że symbole - na przykład słowa - mogą funkcjonować niezależnie od
rzeczy, te zaś z kolei dadzą się uszeregować według koloru i wielkości. Kończąc cztery lata,
dzieci uznają, że pojawienie się jakiegoś przedmiotu - na przykład kamiennego jaja - nie musi
objawiać jego prawdziwej tożsamości. Uczą się przez bezpośrednie doświadczenie, autorytet,
intuicję i logikę. Wszystko to prowadzi do zdroworozsądkowego, ale nie naukowego poglądu
na świat.
Każde dziecko we wczesnym etapie rozwoju, jak dowiódł szwajcarski psycholog Jean
Piaget, zapełnia świat spontanicznym ruchem oraz siłami witalnymi. Fale wznoszą się same,
chmury wzbudzają wiatr, a przedmioty i zjawiska mają własną wolną wolę. Jezioro przyciąga
rzekę, która chce płynąć w jego stronę. Niektóre interpretacje starszych dzieci są nawet
zbliżone do fizyki Arystotelesa - na przykład pomysł, że rzucony przedmiot jest po części
poruszany powietrzem, przez które przelatuje.
W dziecięcym myśleniu istnieje zatem jakiś „magiczny" aspekt, co częściowo spowodowane
jest niezdolnością dziecka do rozróżniania granicy między nim a światem. Jakkolwiek nie
próbowalibyśmy tego wyjaśniać, dzieci wierzą, że myśl może wpływać na zdarzenie, które jest
pożądane lub budzi lęk. Zilustrował to pisarz i krytyk Edmund Gosse, wychowany w surowym
wiktoriańskim środowisku, gdzie wszelka twórczość wyobrażeniowa była zakazana. Nigdy nie
opowiadano mu bajek. Nie miał przyjaciół, a jedynymi jego lekturami były książki naukowe i
modlitewnik. O sobie jako pięcio czy sześciolatku mówi:
„Miewałem przedziwne przesądy. Wmawiałem sobie, że jeśli tylko znajdę właściwe słowa lub
zdam odpowiednie egzaminy, mogę spowodować, że wszystkie ptaki i motyle z ilustrowanych
podręczników mojego Ojca ożyją i wylecą z książki... Podczas porannych i wieczornych
modlitw... wyobrażałem sobie, że jedna z moich dwóch natur się oddaliła i uczepiwszy się
kurczowo gzymsu, spogląda w dół na moją drugą jaźń i całą resztę. Gdybym tylko mógł
znaleźć do nich klucz... "
Piaget opisał dwa aspekty dziecięcej teorii świata: animizm - skłonność do traktowania
przedmiotów jako istot żywych i obdarzonych wolą, oraz artyficjalizm - przekonanie, że
wszystko zostało zrobione przez kogoś i w jakimś celu. Kiedy zapytamy sześciolatka, z czego
zrobione jest słońce, odpowie: „Z ognia". Ale w jaki sposób? „Dlatego że tam jest ogień". Ale
skąd on pochodzi? „Z nieba". W jaki sposób ogień znalazł się na niebie? „Zapalono go
zapałką..." Dzieci przejawiają spontaniczną skłonność do animizmu, myśląc tak, jak gdyby
natura działała celowo, a przypadek nie istniał. Kiedy dziecko mówi, że słońce podąża za
nami, przypisuje mu celowość. Ale gdy zapytamy: „Co to jest widelec?", padnie odpowiedź:
„Przyrząd do jedzenia" - odpowiedź wskazująca na artyficjalizm rzeczy.
A oto dziecięce uzasadnienia narodzin młodszego rodzeństwa. Czasami dziecko przyjmuje,
że niemowlę żyło przed urodzeniem, i po prostu pyta, gdzie przedtem przebywało. Może
zapytać, z czego niemowlęta zostały wykonane, a narodziny wyobrażać sobie jako proces
produkcyjny, jak na przykład lepienie figurek z plasteliny. Innym razem powtarza opinię, że
niemowlaki wychodzą z krwi rodziców albo z matczynych ust lub pępka.
Jedna z najważniejszych idei zdrowego rozsądku to myślenie w kategoriach przyczyny i
skutku. U trzylatków przyczynowe pojmowanie mechanicznych interakcji jest już w miarę
wykształcone. Rozumienie przyczynowości zaczyna się w niemowlęctwie, udowodniono
nawet, że już w szóstym miesiącu. Wbrew klasycznym osiemnastowiecznym spekulacjom
Davida Hume'a, który zakładał, że percepcja przyczynowości jest wynikiem powtarzających
się obserwacji związku pomiędzy dwoma wydarzeniami, istnieją dowody postrzegania jej
niemal jako postaci (gestalt) - tzn. całości, dla której doświadczenie nie jest istotne. Dorośli
poddani oddziaływaniu abstrakcyjnych bodźców, takich jak dwa szeregi kolorowych światełek
osobliwie poruszających się jedne w stosunku do drugich, stwierdzają związki przyczynowe
między nimi, mimo że widzieli, jak je zapalano. Tym samym zamiast oceniać przy-czynowość
jako rezultat stopniowego doświadczenia, system percepcyjny jest skłonny zakładać jaz góry.
Jeśli podobnie przebiegają inne procesy uczenia się, tym bardziej należy zrezygnować z tego,
co podpowiada zdrowy rozsądek.
Dzieci nabywaj ą sprawności wykonywania określonych zadań w kilku etapach, zawsze
jednak potrafią przekonująco wyjaśnić swoje zachowanie. W słynnym zadaniu Piageta dziecko
widzi dwa identyczne szklane naczynia wypełnione wodą i ocenia, że zawierają one tę samą
ilość cieczy. Następnie w jego obecności zawartość jednego z nich przelewa się do wyższego i
węższego pojemnika, w którym poziom wody się podnosi. Zanim dzieci dowiedzą się, na
czym polega zasada
zachowania objętości cieczy, będą utrzymywać, że po przelaniu ilość wody wzrosła. I to
zarówno te, które nie rozumieją tej zasady, jak i te, które bardzo chcą przedstawić logiczne
wyjaśnienie swej odpowiedzi. Na przykład będą dowodzić, że poziom wody wzrósł w
wyższym, węższym naczyniu, więc niewątpliwie znajduje się jej tam więcej. Zdaniem dziecka
taka odpowiedź jest prawidłowa i oczywista. Podobnie, być może, jak dla każdej rozsądnej
osoby „oczywiste" jest to, że Słońce porusza się wokół Ziemi.
Starsze dzieci mają dobrze rozwinięte wyobrażenia o naturze świata jeszcze przed
rozpoczęciem nauki w szkole. Wiele z tych wyobrażeń można uznać za przykłady myślenia
naiwnego lub naturalnego, które najlepiej przedstawić w odniesieniu do fizyki. Dziecko uważa,
na przykład, że im wyżej podniesiemy jakiś przedmiot, tym więcej będzie ważył, jeśli bowiem
upadnie, silniej uderzy o ziemię. Uznaje się, że „ciepło" i „zimno" mają odmienne, ale
pokrewne właściwości. Obserwując proces topnienia, sądzi mianowicie, że pewna ilość zimna
opuszcza kostkę lodu i przedostaje się do otaczającej ją wody, a nie odwrotnie - to ciepło jest
potrzebne do stopienia lodu, który potem oziębia wodę. Pora na przykład biologiczny.
Powszechnie mniema się, że rośliny czerpią pożywienie raczej z gleby niż ze światła
słonecznego (z gleby otrzymują azot, który jednak nie jest pożywieniem, gdyż nie dostarcza
roślinom żadnej energii życiowej). Wszystkie te teorie opierają się na zdrowym rozsądku, lecz
są fałszywe.
Z badań nad sposobem myślenia studentów wynika, że zazwyczaj nie zauważają oni
sprzeczności w swoich wypowiedziach, a jeśli nawet dzieje się inaczej, nie widzą w tym
istotnego problemu. Wiele argumentacji studenckich rozpatruje zmiany w kategoriach prostej
sekwencji przyczynowej lub jako łańcuch wydarzeń. Może to stać się źródłem trudności, gdy
problem odnosi się do pojęć zakładających odwracalność. Studenci rozumieją, w jaki sposób
energia zmienia ciało stałe w ciecz, lecz nie pojmują procesu odwrotnego - zamiany cieczy w
ciało stałe. Badania wykazały, że trzeba dziecko nauczyć niektórych podstawowych metod
rozumowania, zanim pojmie ono naturę fizycznego świata. Wchodzi tu w grę pojęcie
zmiennych w myśleniu o zdarzeniach
przyczynowych, jak również konieczność zmiany owych zmiennych, jeśli skutki ich działania
mają być właściwie porównane (rozważając prosty przykład równoważenia sił, taki jak
funkcjonowanie wagi, bierze się pod uwagę cztery zmienne - dwa ciężary i dwie odległości od
punktu oparcia). Trzeba objaśnić również pojęcia prawdopodobieństwa i współzależności, a
także wszelkie abstrakcyjne modele, wyjaśniające na przykład budowę Układu Słonecznego
czy zmiany pogody. Żadne z tych wyobrażeń nie jest naprawdę naturalne, kiedy natomiast staje
się przedmiotem nauczania, przyczynia się znacznie do osiągania przez dzieci sukcesów w
nauce.
Badania nad uczniami i studentami potwierdzają tezę, iż myślenie naukowe różni się od
codziennego nie tylko pojęciami, ale także wyjaśnieniami, które uznaje za zadowalające.
Myślenie zdroworozsądkowe, na przykład o ruchu, nie zajmuje się szczegółowo wzajemnymi
stosunkami pomiędzy terminami takimi jak siła czy prędkość - a każdy z nich wymaga ściśle
określonej i trudnej teorii - lecz zadowala się nieprecyzyjnym przedstawieniem faktów.
Kolejną różnicę wyznaczają cele myślenia naukowego i codziennego. W życiu codziennym
interesuje nas głównie użyteczność, w nauce - abstrakcyjne rozumowanie. Podkreśla to
Sherlock Holmes, kiedy skarcony przez Watsona za niewiedzę o odkryciu Kopernika, zwraca
się do przyjaciela tymi słowy: „Cóż znaczy, u licha, dla mnie to, że -jak powiadasz - kręcimy
się dookoła Słońca? Gdybyśmy nawet kręcili się wokół Księżyca, i tak nie miałoby to
najmniejszego znaczenia ani dla mnie, ani dla mojej pracy".
Oto najpoważniejszy dowód istnienia dystansu pomiędzy zdrowym rozsądkiem a nauką: ta
ostatnia jest całkowicie oderwana od codziennego życia większości ludzi. Z jednej strony
można zupełnie dobrze żyć, nie znając ani mechaniki Newtona, ani teorii komórki i DNA czy
też odkryć innych dziedzin naukowych. Z drugiej jednak strony wiedza potrafi znacznie
wzbogacić życie człowieka, a we współczesnym społeczeństwie spełnia istotną rolę służebną
przy podejmowaniu niezliczonych decyzji politycznych, które zasadniczo wpływają na nasze
życie codzienne (patrz rozdziały VIII i IX).
Zjawisko zdrowego rozsądku dokładnie opisał amerykański psycholog, George Kelly, który
rozwinął teorię konstruktów osobistych (Personal Construct Theory). Dotyczy ona sposobu
porządkowania wiedzy o świecie w codziennym życiu, a wychodzi z założenia, że ludzie orga-
nizują informację, by przewidywać przyszłość. Teorie zdroworozsądkowe dostarczają wiedzy o
schematach, według których funkcjonuje codzienny świat. Ludzie sprawdzają sensowność tych
modeli, obserwując, czy pomagają one przewidywać przyszłe wydarzenia. Własne
interpretacje wydarzeń stają się roboczymi hipotezami, które następnie ponownie są
konfrontowane z doświadczeniem. Człowiek może posługiwać się rozmaitymi, często nie
powiązanymi ze sobą strukturami myślowymi, chociaż wcale sobie tego nie uświadamia.
Znaczy to, że nawet na bardzo niskim poziomie umysłowego rozwoju możemy uczyć się
uprawiania „nauki" w codziennym życiu przez stawianie hipotez i doświadczalne ich
weryfikowanie. Typowy przykład to gotowanie, które polega na próbowaniu; nie jest ono
jednak nauką, gdyż nie wymaga żadnej teorii, a jedynie prób i błędów, aby osiągnąć właściwy
smak. Z drugiej strony uprawianie nauki wymaga odrzucenia bagażu osobistych doświadczeń i
próby takiego zrozumienia zjawisk, które oddziałują na codzienne życie i pośrednio na czyjąś
osobistą interpretację. Na co dzień nie jest potrzebna żadna interpretacja przyczyn spadania
ciał lub podobieństwa dzieci do rodziców; wystarczy, że tak się dzieje. Zdrowy rozsądek nie
oferuje niczego więcej poza surowym materiałem wykorzystywanym w myśleniu naukowym.
Najprostsze ludzkie działanie wymaga określenia jakiegoś celu i modyfikacji postępowania,
aby go osiągnąć. Ten uproszczony model uwydatnia zdroworozsądkowy charakter naszego
zachowania i jego praktyczne przeznaczenie. Nie potrzebuje nauki i dlatego wczesna technika
odnosiła znaczące sukcesy. Ponadto rzadko wymaga on dokładności i ścisłej wiedzy - zupełnie
odwrotnie niż nauka. Podejmujemy decyzje oparte na danych przechowywanych w pamięci,
która sprzyja nadmiernemu uogólnianiu zjawisk powszednich, przesadnemu uwydatnianiu
sprzeczności i wszelkich skrajnych przypadków.
Podczas gdy teorie naukowe wolno oceniać na podstawie ich zakresu, ekonomiczności - im
mniej założeń i praw, tym lepiej -jasności, zwartości logicznej, precyzji, możliwości
weryfikacji, poparcia empirycznego i płodności, do teorii dyletantów odnosi się tylko kilka
tych
kryteriów, które rzadko są jasne, sformalizowane lub logiczne, zwykle zaś pozostają
dwuznaczne. Jasny lub sformalizowany charakter teorii naukowych posiada znaczenie nie
tylko dla samych praw nauki, lecz wskazuje na zasadniczą cechę procedury naukowej:
świadomą naturę wszelkich usiłowań. Ów aspekt uprawiania nauki niemalże ex definitione
odróżnia ją od innych form aktywności i sprawia, że różni się ona od zdrowego rozsądku,
ponieważ, co także wynika z definicji, zdrowy rozsądek nie jest świadomy. Uczony zawsze
świadomie „uprawia naukę", z czym wiąże się wiele trudnych do wytłumaczenia założeń. Poza
wcześniej wymienionymi cechami nauki jest to uogólnienie o wielkim znaczeniu (rozdział VI).
Myślenie naukowe zazwyczaj opisuje się podkreślając różnicę między tym, co obiektywne, a
tym, co subiektywne. W istocie to ważna umiejętność, jeśli można oddzielić dowód od teorii i
spojrzeć na nią obiektywnie, by poznać ją jako rzecz samą w sobie. Idea obiektywizmu ma tu
jednak ograniczoną wartość, ponieważ naukowe pomysły rodzą się w sposób wysoce
subiektywny, a naukowcy zawzięcie bronią swych poglądów. Obiektywizm w nauce dochodzi
do głosu, gdy pragniemy ocenić, czy subiektywne poglądy są prawdziwe, czy nie. Trzeba być
przygotowanym na ich zmianę, kiedy napotka się dowód - obiektywną informację.
Przekonanie, że uczeni beznamiętnie przywiązują się do własnych poglądów naukowych
(rozdział V), jest jednak złudzeniem: wolą oni doznać niepowodzenia i rezygnować z nich, gdy
napotkają przeciwstawne dowody. Teorie naukowe tym się ponadto różnią od
zdroworozsądkowych sądów dyletantów, że wymagają od naukowca stałej współpracy z
innymi badaczami, uwzględniania ich sądów i wcześniej zdobytej wiedzy. Nie zajmują się
bowiem poszczególnymi zjawiskami życia codziennego, lecz dążą do odkrycia wspólnego wy-
jaśnienia dla wszystkich warunkujących się zjawisk, i to tak, aby inni uczeni to zaakceptowali.
Teorie dyletantów zbyt szybko dostosowują się i modyfikują w zależności od warunków, w
których żyją ludzie, ponieważ ci ludzie pragną wierzyć w mniej lub bardziej uporządkowany
świat, nad którym sprawują kontrolę. Wiele wniosków powstaje pod wpływem emocjonalnej
zawartości danych. Bertrand Russel proponował, by uznać, iż „popularna indukcja była
zależna od emocjonalnego zaangażowania w konkretne przypadki, nie zaś od ich liczby". W
takie „przypadki" obfituje codzienne życie. Przypuśćmy, że kierując się opiniami wcześniej-
szych nabywców oraz zaufanego mechanika, przemyślałeś starannie, który samochód kupić,
decydujesz się wreszcie na model X. Następnie spotkałeś bliskiego kolegę i powiedziałeś mu o
swojej decyzji. Jeśli zaskoczony opowie ci o swych strasznych doświadczeniach z samocho-
dem X, wyliczając wszystkie kłopoty, które z nim miał, czy naprawdę nie zmienisz zdania?
Nawet gdy ostrzeżenie przyjaciela okaże się przesadzone, i tak z trudem odrzucisz jego radę.
Badanie sposobów analizowania złożonych, rzeczywiście ważnych problemów, takich jak
zbrodnia lub bezrobocie, znowu wskazuje różnicę pomiędzy zdrowym rozsądkiem a bardziej
od niego sformalizowanym myśleniem naukowym. Istnieją dwie przeciwstawne postawy
wobec wiedzy. Jedna to wygodna ignorancja, która nie dopuszcza myśli, że niektóre zjawiska
mogą zachodzić inaczej; druga to ustawiczna świadoma ocena dowodów i wynikająca z niej
modyfikacja poglądów. Odzwierciedlają one różnicę pomiędzy wiedzą, że coś jest prawdziwe,
a spekulowaniem, czy ktoś w to wierzy, czy nie. Jedynie około 15 % ludzi, jak się wydaje,
posiada zdolność spekulowania, ale uczeni - nawet jeśli spekulowania nie lubią- muszą
zaakceptować je jako metodę.
W procesie wyprowadzania logicznych wniosków z przesłanek, takich jak dedukcja na temat
przyczyn pojedynczego wydarzenia, często biorą udział mechanizmy, których nie jesteśmy
świadomi. Są one niezrozumiałe. Wiadomo, że trudno naśladować „zdrowy rozsądek" za po-
mocą komputera. Jeśli któregoś ranka po wyjściu z domu zauważysz, że trawa jest mokra,
będziesz prawie pewny, że w nocy padało. Kiedy jednak stwierdzisz, że przez całą noc
pracował zraszacz, „hipoteza o deszczu" straci wiarygodność. Rozumowanie to trudno
zaprogramować na komputerze. Psycholog Johnson Laird twierdzi, że myślenie
zdroworozsądkowe nie opiera się ani na sformalizowanych regułach logicznego
wnioskowania, ani na specyficznej wiedzy. Sposób, w jaki wyciągamy ważne wnioski z
jakiegoś układu przesłanek, polega prawdopodobnie na budowaniu modeli myślowych. Umysł
może kierować modelem, który wytworzył, wypróbowywać rozmaite możliwości i wy-
prowadzać wnioski. Rozważmy następujący problem, trudny do rozwiązania poprzez myślenie
zdroworozsądkowe. W pewnym pokoju znajdują się archeolodzy, biolodzy i szachiści; jeśli
żaden z archeologów nie jest biologiem, a wszyscy biolodzy są szachistami, to jakie można
wysnuć wnioski? W tym wypadku lepiej postępować według utartych schematów myślowych,
niż stosować logikę formalną. Jedyna poprawna odpowiedź brzmi: „Niektórzy szachiści nie są
archeologami". Zadanie to dowodzi, jak trudne bywa rozumowanie sformalizowane.
Lubimy postrzegać siebie samych jako z natury racjonalnych i logicznych, ale istnieje
mnóstwo dowodów, że nie zawsze tak jest. Chociaż w codziennym myśleniu umysł może
wykorzystywać formy logicznego wnioskowania, natura problemu potrafi je podważyć.
Ilustracją niech będzie klasyczny, podstawowy eksperyment. Wyobraź sobie karty - na jednej
stronie każdej z nich widnieje litera, a na odwrocie cyfra. Na stole położono cztery kartoniki,
które pokazują A, J, 2 oraz 7. Masz zdecydować, który z nich trzeba odwrócić, ażeby określić
prawdę lub fałsz następującego zdania: „Jeśli na jednej stronie jest samogłoska, na drugiej
znajduje się liczba parzysta". Większość ludzi prawidłowo odwraca kartę z literą A, ale
niektórzy wybierają kartę z 2. Chociaż istnieje logiczne uzasadnienie wyboru, część osób
odwraca kartę z 7, mniemając, że gdyby samogłoska wystąpiła na odwrocie karty z 7, reguła
byłaby fałszywa. W istocie odwrócenie J czy 2 nic nie daje. Cokolwiek znalazłoby się na
drugiej stronie 2, nie dostarczy potrzebnej informacji, zarówno bowiem samogłoska, jak i
spółgłoska nie decydują o słuszności reguły. Eksperyment ten ujawnia też, że ludzie - nie wy-
kluczając uczonych - mają skłonność do potwierdzania hipotez, nie zaś do ich odrzucania.
Prawdopodobieństwo i osąd dokonywany na podstawie niepewnych informacji ujawnia
szczególną podatność codziennego myślenia na błędy. Wiele naukowych badań trzeba
wykonywać w ściśle określonych warunkach, do pewnego więc stopnia uczeni są wolni od
tych powszednich błędów.
Dzieci pojmuj ą przypadek w stopniu ograniczonym. Wierzą, że wyniki gier losowych zależą
od praktyki, inteligencji i wysiłku. Dorośli także mają kłopoty z prawdopodobieństwem i
naturą przypadku. Czy podczas gry w ruletką, gdy czerwone wypada pięć razy pod rząd, zwię-
ksza się prawdopodobieństwo, że następnym razem kulka zatrzyma się na czarnym polu?
Odpowiedź brzmi „nie", a przeciwne oczekiwania określa się jako „złudę hazardzisty"
(gambler'sfallacy). A jeśli podrzucona moneta upadnie reszką do góry dziesięć razy z rzędu,
prawdopodobieństwo wystąpienia orzełka lub reszki za każdym następnym razem wynosi 50
procent. Moneta nie posiada pamięci. Wielu ludzi sądzi, że przy użyciu dokładnie wyważonej
monety, następstwo 0-R-O-R-O-R jest bardziej prawdopodobne niż 0-0-0-0-0-0, tymczasem w
rzeczywistości obie sekwencje są tak samo możliwe.
Sądy związane z rachunkiem prawdopodobieństwa często mają charakter antyintuicyjny.
Zdumiewające zbiegi okoliczności prowadzą do przekonania, że w grze uczestniczą siły
nadprzyrodzone. Pewna kobieta z New Jersey wygrała na loterii dwa razy w ciągu czterech
miesięcy. Wydawało się to nadzwyczajne, a szansę takiego zdarzenia oceniano jak l do 17
trylionów (17 x 1012). Dalsze analizy wykazały jednak, że możliwość wygranej przez
mieszkańca Stanów Zjednoczonych wynosiła jeden do trzech, ponieważ bardzo dużo ludzi
wykupiło losy. Inny przykład: trzeba zgromadzić w jednym pomieszczeniu dwudziestu trzech
ludzi, żeby prawdopodobieństwo, iż dwoje z nich urodziło się w tym samym roku, wynosiło
jeden do dwóch.
Jakiś czas temu wiele artykułów prasowych sugerowało związek samobójstw nastolatków z
grą o nazwie „Lochy i Smoki" (Dungeons & Dragons). Mówiono, iż może ona stać się obsesją
i prowadzić do utraty poczucia rzeczywistości. Jako dowód przytaczano fakt, że samobójstwo
popełniło dwudziestu ośmiu nastolatków, często w tę grę grywających. Sprzedano jednak
mnóstwo jej kopii i prawdopodobnie interesowały się nią bez mała trzy miliony młodzieży.
Ponieważ rocznie odbiera sobie życie dwanaścioro na sto tysięcy nastolatków, liczba
prawdopodobnych samobójstw w trzymilionowej populacji młodzieży wynosi trzysta
sześćdziesiąt. Tym samym ujawnienie owych dwudziestu ośmiu przypadków miało niewielkie
albo zgoła żadne znaczenie.
Przykłady braku zrozumienia rachunku prawdopodobieństwa i rozumowania w kategoriach
statystycznych są szczególnie ważne, kiedy należy ocenić stopień ryzyka. Mało kto przyznaje,
że prawie niemożliwe jest udzielenie gwarancji, iż jakiś lek nie spowoduje śmierci, powiedzmy
jednego zgonu na sto tysięcy. A badania kliniczne rzadko uzyskują akceptację. Chcąc
zademonstrować skuteczność pojedynczego leku lub terapii klinicznej, trzeba postępować
zgodnie z wyrazistą procedurą, wyodrębniając grupę pacjentów, w której niektórzy będą
poddani leczeniu, a inni nie. Przydzielenie do grupy, której podaje się środki farmakologiczne
lub otrzymującej placebo, musi być losowe, a jeśli to możliwe, sami lekarze nie powinni
wiedzieć, do której grupy daną osobę wyznaczono. Co więcej, rezultaty doświadczenia
wymagają ostrożnych analiz statystycznych. Te testy są nieodzowne, choć kosztowne,
ponieważ zmniejszenie śmiertelności do jednego przypadku na sto tysięcy wymaga wielu prób.
Przytaczane jako przykłady liczby wypadków wyleczenia raka potrafią być bardzo zwodnicze.
Do powstania wielu błędów przyczynia się stopień reprezentatywności jednego wydarzenia
względem drugiego, a ustala się to oceniając ich podobieństwa. Przykładowo osobom
poddanym eksperymentowi zaprezentowano opis grupy ludzi, złożonej w 70% prawników, a w
30% z inżynierów. Proszono badanych o odgadnięcie, jaki zawód każda z opisywanych osób
wykonuje. Chociaż ankietowani znali skład grupy i tym samym powinni pojąć, że
prawdopodobieństwo „bycia" prawnikiem było ponad dwa razy większe niż „bycia"
inżynierem, niemniej zgodnie odnieśli opis do drugiego zawodu, jeśli wykazywał nawet
najmniejszy związek ze stereotypowym obrazem przedstawiciela tego środowiska. Ignorowali
prawdopodobieństwo związane z wyborem pojedynczego przypadku z grupy o znanym
składzie. Tendencja ta była jeszcze wyraźniejsza podczas analizy małych prób. Ankietowani
nie potrafią pojąć prawdopodobieństwa, że liczba chłopców rodzących się każdego dnia jest
większa o 60 %w dużym niż w małym szpitalu położniczym. Sądzą zazwyczaj, że nie ma
żadnej statystycznej różnicy między tymi placówkami medycznymi, chociaż w małej grupie
badanych zmiany odsetka rodzących się chłopców są o wiele większe
w niewielkim szpitalu, ponieważ każde narodziny stanowią tam większy procent całości.
Większość z nas nie docenia więc roli przypadku, gdy w grę wchodzą małe liczby.
Niedocenianie reprezentatywności sprawia, że ludzie bardziej ufają swym zdolnościom
przewidywania niż oczywistym faktom. Powierzchownie rozumiejąc związek pomiędzy
przyczyną a skutkiem, stają się pewni siebie i lekceważą wszelkie dane, które mogłyby
zakwestionować trafność przewidywań. Załóżmy, że kierownictwo szkoły medycznej
przeprowadza egzaminy wstępne i wierzy w prawidłowość selekcji. Później ma tylko
możliwość oceny przyjętych uczniów, nie mogąc porównać ich z wyeliminowanymi
kandydatami. Dobrą ilustracją tego zjawiska jest także przekonanie prowadzących ankietę
psychologów o posiadaniu umiejętności wyboru najlepszych respondentów, nawet jeśli bogata
literatura przedmiotu dowodzi, jak niewiarygodne są wszelkie wywiady. Badacze ci nie
potrafią podać w wątpliwość własnej nieomylności.
Inny przykład - ludzie oceniają zjawiska według dostępnych informacji - szacują
częstotliwość, korzystając ze znanych sobie przykładów. Wierzą więc, że jest więcej słów
zaczynających się na r niż wyrazów, w których litera ta występuje jako trzecia, ponieważ
łatwiej wymyślić słowa rozpoczynające się na r. Podobnie o wiele niżej szacują wynik
mnożenia 1x2x3x4x5x6x7x8 niż 8x7x6x5x4x3 x 2 x l, a tymczasem w obu wypadkach iloczyn
jest jednakowy i wyższy od przewidywanego. Typowa odpowiedź brzmi: około 500, natomiast
prawidłowa - 40 320. Wiarygodność spontanicznie wymyślonych scenariuszy pomaga
zaakceptować prawdopodobieństwo wydarzeń. Jeśli żaden rozsądny scenariusz nie przychodzi
do głowy, wydarzenie uważa się za niemożliwe lub nieprawdopodobne; gdy jednak pojawi się
wiele scenariuszy, nabierze ono cech prawdopodobieństwa. Nawet lekarze zniekształcają
czasem obrazy zagrożeń rozmaitymi chorobami niezależnie od ich prawdziwego zasięgu.
Mamy skłonność do generalizowania własnych doświadczeń, na przykład dajemy wiarę
złudnym zależnościom, poczynając od opinii, że grubi są wesołymi ludźmi, lub przesądu Jeśli
umyjesz samochód, wkrótce spadnie deszcz", a kończąc na najróżniejszych teoriach na temat
chorób. Nawet psycholodzy potrafią w planowanych testach odkrywać związki między
zmiennymi przypadkowymi, choć nic później nie potwierdza istnienia tych relacji. Proste
skojarzenia są natomiast bardzo pożyteczne w życiu codziennym.
Na ogół przyznaje się priorytet prostym, nie zaś skomplikowanym wyjaśnieniom. Można to
zrozumieć z perspektywy historycznej. W wyniku ewolucji człowiek pierwotny szybko
poznawał środowisko i relacje przyczynowe. Rozum, który bezpośrednio ocenia prawdopodo-
bieństwo wydarzeń i ich skutki, nie może jednak dokonywać selekcji w środowisku wrogim,
gdzie potrzebne są natychmiastowe oceny. Także użycie narzędzi i postęp techniczny w
hutnictwie i rolnictwie nie wymaga myślenia naukowego. Aby jednak uprawiać naukę, trzeba
posiadać zdolności do precyzyjnego rozumowania i przełamywać wiele schematów
narzuconych przez zdrowy rozsądek i naturalny sposób myślenia.
Rozdział II
spółczesna technika w dużej mierze opiera się na nauce, lecz niedawne uzależnienie się
tych dziedzin zaciemnia dzielące je różnice. Nie sprzyja to rozumieniu natury nauki. Krótko
mówiąc, wytwarza ona pojęcia, podczas gdy celem działalności technicznej jest produkcja
przedmiotów użytkowych. Technika, a rozumiem przez to sztuki stosowane, jest o wiele starsza
od nauki. Doskonaliła wciąż kunszty pierwotnego człowieka, takie jak uprawa roli czy obróbka
metali, doprowadziła do triumfów chińskiej inżynierii, pozwoliła zbudować renesansowe ka-
tedry, a nawet silnik parowy. Aż do XIX wieku nauka nie miała wpływu na technikę. Do
rozwoju ludzkości znacznie przyczyniła się zdolność konstruowania narzędzi i tym samym
kontrolowania otoczenia, natomiast umiejętność uprawiania nauki prawie nie istniała.
Dla niektórych historyków zaczyna się ona wtedy, kiedy podejmuje się próby rozwiązania
niezliczonych problemów środowiska naturalnego. Technika stanowi dla nich, począwszy od
wyrobu narzędzi, umiejętność rozwiązywania problemów - czyli naukę. W samej rzeczy
umiejętność uprawy roli, oswajanie zwierząt, metalurgia, farbiarstwo i wyrób szkła zostały
wykorzystane na wiele tysięcy lat przed pojawieniem się myśli naukowej. W „Myśli
nieoswojonej" francuski antropolog Ciaude Levi-Strauss dowodzi, że „każda z tych technik
każe domyślać się wieków czynnej i metodycznej obserwacji, śmiałych hipotez, sprawdzanych
w celu odrzucenia lub wykazania prawdziwości za pomocą niestrudzenie ponawianych
eksperymentów"*. Francuski strukturalista wyraził tu formułę uprawiania nauki; wydawało mu
się,
Przeskok Talesa:
Zachód i Wschód
Kreatywność
W
^ v śród niejasności związanych z naturą nauki znaleźć można pogląd, że sztuka i nauka to
dziedziny w gruncie rzeczy podobne: obie są wytworem twórczej wyobraźni ludzkiej. Błędne
są przeto próby ich odgraniczania. Pogląd ten podzielają nawet sami uczeni, a wielki niemiecki
fizyk, Max Pianek, twierdził, że pionierzy nauki „muszą mieć żywą, intuicyjną fantazję,
ponieważ nowe pomysły nie pojawiają się na drodze dedukcji, lecz dzięki artystycznej
wyobraźni twórczej". Podobne stanowisko przedstawił Jacob Bronowski w książce „Popularne
rozumienie nauki" (The Common Sense of Science): „Odkrycia naukowe, dzieła sztuki to
dociekania - więcej, to erupcje ukrytych podobieństw. Odkrywca lub artysta dostrzega dwa
aspekty natury i łączy je. Akt kreacji, w którym rodzi się oryginalna myśl, jest taki sam
zarówno w prawdziwej nauce, jak i w sztuce". Stanowisko to jest jednak mylne i chyba
sentymentalne. Uczonym oczywiście potrzeba „żywej intuicyjnej wyobraźni", ale ich
kreatywność niekoniecznie musi mieć związek z kreacją artystyczną. Tylko na podstawowym
poziomie kreatywność w sztuce i w nauce może być podobna: mam na myśli prawie wszystkie
ludzkie działania, które wiążą się z rozwiązywaniem problemów od księgowości po tenisa.
Rozbieżności pomiędzy kreacją artystyczną a naukową odzwierciedlają zasadniczą
odmienność tych form aktywności człowieka. Kreatywność w sztuce jest bardzo osobista,
ukazuje zarówno uczucia, jak i myśli artysty. Kreatywność naukowa przeciwnie - ulega zawsze
presji własnej logiczności, tego, co już znane, i wysiłku włożonego w zrozumienie natury.
Jakże odmiennie brzmi pogląd francuskiego powieściopisarza Allaina Robbe-Grilleta na temat
powieści, która „krzyżuje się, powtarza, przepoławia, przeczy sobie". Poza tym „wytwory"
uczonych zostaną w końcu włączone do ogólnego zasobu wiedzy społecznej - znajdą się na
przykład w podręcznikach, oni sami zaś pozostaną ostatecznie - z rzadkimi wyjątkami -
anonimowi (rozdział V). Dla artystów najważniejsza jest twórczość oryginalna, natura dzieła.
Przez swą wieloznaczność zachęca ono do wielu odczytań i interpretacji, podczas gdy odkrycia
naukowe mają ściśle określone znaczenie. Dzieło artystyczne może zawierać ponadto wyraźne
przesłanie moralne, natomiast nauka z zasady pozostaje wolna od wartościowania (zob.
rozdział VIII). Dzieła sztuki, będąc wytworami osobistymi, wyrażają indywidualne
doświadczenia, często nawet intymne przeżycia, naukowcy zaś dążą do uogólnień i formułują
sądy, które odnoszą się do całych klas zjawisk, a nie tylko do poszczególnych faktów. Bez
względu na to, czy pracy uczonych towarzyszą jakieś uczucia, końcowe dzieło ich nie wyraża.
Istnieją wreszcie obiektywne i odrębne kryteria osądu prac naukowych, czego nie można
powiedzieć o sposobach oceny licznych utworów artystycznych. Wiedząc o wszystkich tych
różnicach, należy z niedowierzaniem traktować rzekome podobieństwo między twórczością
naukową i artystyczną.
Rozważmy stosunek do piękna matematyka, Henri Poincarego:
„ Uczony nie bada przyrody, dlatego ze jest ona użyteczna; bada ją, gdyż jest nią urzeczony, i
dlatego, ze jest ona piękna. Nie mówię tu, oczywiście, o pięknie zmysłowym, o jakości i
wyglądzie; owszem, doceniam ten rodzaj piękna, ale ono nie ma nic wspólnego z nauką. Mam
tu na myśli głębokie piękno, które wyłania się z harmonijnego ładu i które może uchwycić
czysta inteligencja ".
Niełatwo definiować piękno nauki, ale można dostrzec jego związek z prostotą,
systematycznością i przede wszystkim zdziwieniem, które towarzyszy odkrywaniu
nowatorskich metod doświadczalnych albo tworzeniu teorii ukazujących sprawy w nowym
świetle.
W nauce istnieje mnóstwo stylów, a twórczość naukowa przejawia się w wielu formach. Nie
utożsamiajmy jej wyłącznie z odkrywczymi koncepcjami Newtona czy Darwina. Czasami
wielkie postępy czyni się przy projektowaniu nowej aparatury doświadczalnej, takiej jak
komora mgłowa do obserwacji zderzeń elementarnych cząstek atomu; czasami nagłe olśnienie
umysłu następuje przy projektowaniu doświadczeń i ich przeprowadzaniu. We wszystkich tych
wypadkach tło dla postępu stanowi przygotowawcza praca wyobraźni. Nie ma jednak sensu
udawać, że właściwie zdefiniowaliśmy proces twórczy w odniesieniu do różnych form ludzkiej
aktywności. Psychoanalityczne koncepcje twórczości zajmują się przecież prawdopodobnymi
przyczynami wyboru drogi życiowej, którego dokonali wielcy intelektualiści, na przykład:
Kafka, Newton i Einstein. Anthony Storr w książce „Dynamika twórczości" (The Dynamics of
Creation) twierdzi, że działalność twórcza jest „szczęśliwie wybranym sposobem wyrażania
siebie przez jednostkę schizoidalną". Tak czy inaczej, naszego rozumienia źródeł geniuszu
Newtona czy Einsteina ani trochę nie pogłębia fakt, iż kontaktowali się oni z innymi ludźmi w
sposób powierzchowny. Sąd Paula Valery'e-go o twórczości Racine'a wydaje się równie
prawdziwy w odniesieniu do Newtona czy Darwina: „Jeżeli zgromadzisz wszystkie dostępne
fakty z życia Racine'a, i tak nigdy nie pojmiesz kunsztu jego poezji". W najlepszym wypadku
można mieć tylko przebłyski wyobrażenia o pracy ich umysłów.
Jeśli nawet nasze rozumienie twórczości pozostaje ograniczone, można zbadać niektóre
opinie, które wyjaśnią genezę pojęć naukowych i pozwolą naświetlić proces badawczy,
operując wybranymi przykładami historycznymi.
W przekonaniu wielu ludzi kreatywność nauki opiera się na tym, co nazywamy ewolucyjną
epistemologią lub modelem przypadkowej zmiany (chance permutation model). Model ten
zakłada, że uczeni przypadkiem tworzą teorie, z których próbę czasu - ze względu na wartość
wyjaśniającą- przetrwają jedynie najlepsze. Proces twórczy, jak głoszą inni, polega na
ustanawianiu elementarnej zasady całości myślowej, w nie zamierzony sposób zamienianej
potem przez inne, selekcjonowane w kolejnych stadiach duchowego rozwoju ludzkości, co
sprawia, że w grze pozostają tylko koncepcje najlepsze. Ten pogląd ma długą historię; już
Kartezjusz, poruszając kwestię neutralności przebiegu wytwarzania hipotez naukowych, za
istotne zagadnienie uważał obserwowanie, w którym kierunku one prowadzą. Doszukał się
podobieństwa omawianego procesu do odszyfrowania depeszy, kiedy metodą prób i błędów
można w końcu ustalić prawidłowe cyfry. Zdaniem Kartezjusza hipoteza powinna być
oceniana według użyteczności wniosków, które można z niej wysnuć.
Myśl tę wyraziła współcześnie Dorothy Sayers. Posłuchajmy lorda Petera Wimseya:
„ Zawsze ustanawiam regułę badania wszystkiego, czym chętnie się zajmuję... ale oto mój
prawdziwy przyjaciel — detektyw inspektor Parker ze Scotland Yardu. Tylko on naprawdę
pracuje. Ja wysuwam głupawe hipotezy, a on dokłada starań, by je odrzucić. Po
przeprowadzeniu ścisłej selekcji znajdujemy prawidłowe wyjaśnienie i wówczas świat mówi:
»Mój Boże, cóż za intuicję ma ten młody człowiek!« "
O metodzie Wimseya, która odniosła taki sukces, wolno sądzić, iż nie nadaje się do niczego
innego niż do eksperymentów z małpami. Gdyby zasiadły one do komputerowych edytorów
tekstów, uderzając w klawisze na chybił trafił, wówczas po jakimś czasie, przy założeniu, że
potrafiłyby rozpoznać dobre i ważne pomysły, na ekranach monitorów pojawiłyby się takie
teorie naukowe, jak teoria ewolucji, mechanika Newtona, teoria względności i inne. Ta metoda
nie daje żadnej możliwości wglądu w sposób wytwarzania idei, ponieważ problem tkwi w
pochodzeniu przypadkowych koncepcji, w pytaniu, czy są one naprawdę przypadkowe i czy
twórcze myślenie nie polega jedynie na wytwarzaniu samych wariantów? Niemądre to
przekonanie, że jedna myśl nie ma odpowiednika w innej, a każdy pomysł posiada równe
szansę rozwoju. Dobry naukowiec potrafi opracowywać nowe warianty. We wszystkich
gałęziach nauki istnieje sporo zagadnień, które trzeba poznać głębiej, żeby postawić właściwe
pytania, zanim będzie mogło na nie odpowiedzieć pokolenie awangardzistów. Liczba kompe-
tentnych uczonych zajmujących się daną dyscypliną wiedzy jest przypuszczalnie mała: istnieje
silna selekcja, zanim jeszcze ktoś wkroczy na dany obszar twórczości. Talent, dar, geniusz
ludzi nauki pozwalają właściwie zrozumieć aktualny stan danej dyscypliny naukowej, a nastę-
pnie rozpoznać, jakie problemy mogą zostać rozwiązane, i wreszcie
stworzyć nowe koncepcje. Pomysły nie pojawiają się przypadkiem, ale trudno powiedzieć, czy
jednocześnie nie przyczyniają się do odkrycia szerokiego kręgu nowych idei, nawet takich,
które na pierwszy rzut oka wydają się absurdalne. Najbardziej oryginalne rozwiązania
powstają w środowisku wybitnych uczonych. Analogię znajdziemy zapewne w szachach - w
wyborze właściwej koncepcji gry na wiele ruchów naprzód: niesłuszny jest wniosek, że mistrz
szachowy - tak jak nie dokończony program komputerowy - odnajduje właściwe rozwiązanie
przypadkiem.
Kiedyś usuniemy z operacji tworzenia nowych myśli przypadkowe składniki, możemy
jednak zaprzepaścić śmiałe domysły, które później mogłyby zostać potwierdzone lub
zdyskwalifikowane. Oto wspomnienia biologa molekularnego, Sydneya Brennera:
„ Przez dwadzieścia lat dzieliłem biuro z Francisem Crickiem i ustaliliśmy, że możemy
powiedzieć wszystko, co przychodzi nam do głowy. Teraz większość tamtych rozmów jawi mi
się jako całkowity nonsens. Ale co jakiś czas na wpoi ukształtowany pomysł mógł przejąć ktoś
inny i naprawdę go dopracować. Sądzę, że ogromna liczba dobrych rzeczy, które wymyśliliśmy,
narodziła się podczas tamtych zwariowanych posiedzeń. Na tym czy innym etapie życia
przekonywaliśmy się wzajemnie do teorii, które nigdy nie ujrzały światła dziennego... Mam na
myśli rzeczy całkowicie szalone ".
Fizyk Richard Feynman przedstawiał naukę jako rozwiązywanie zagadek:
„ Na ogól poszukujemy nowego prawa według następującej procedury. Najpierw zgadujemy.
Potem obliczamy wyniki zagadek, aby sprawdzić, co by to oznaczało, gdyby prawo, które
odgadliśmy, okazało się prawdziwe... Jeśli nie zgadza się ono z doświadczeniem, jest
nieprawdziwe. W tej prostej wypowiedzi tkwi klucz do badań naukowych... Bez względu na to,
jak bardzo uprzejmie się zachowuje i jak wielkie nazwisko nosi ten, kto zgaduje - prawo
niezgodne z doświadczeniem jest nieprawdziwe. To prawda, że rozwiązanie należy sprawdzić,
aby nabrać pewności, że tak jest w istocie... "
Nie należy się wstydzić popełnionego błędu, chociaż doznaje się wówczas uczucia
rozczarowania. Feynman zdaje się nie dostrzegać, że
niektóre zagadki są o wiele trudniejsze od innych i bagatelizuje wpływ pracy doświadczalnej.
Niezależnie od przedstawionych poniżej niedostatków, jego metoda jest podobna do
zastosowanej przez Newtona.
Analiza metod badawczych Newtona wykazała, że odpowiadaj ą one modelowi zgadywania
Feynmana. Sposób postępowania opisany w dziele Newtona „Philosophiae Naturalis Principia
Mathematica" implikuje przemienność dwóch faz badań. W pierwszej przy użyciu technik
matematycznych wyprowadza się wnioski dotyczące znaczenia wyobrażonych operacji. W
drugiej fazie badań fizykalny odpowiednik założeń porównujemy z wynikami obserwacji
natury. Pierwsze stadium odrzuca wszelkie ograniczenia - Newton mógł badać znaczenia wszy-
stkich działań, które uznał za interesujące z punktu widzenia matematyki. Analizował
konsekwencje ruchu planet bez skupiania uwagi na naturze sił powszechnego ciążenia zgodnie
z hipotezą Hooke'a, że ciała przyciągają się nawzajem. Dopiero później opracował mechanikę
ciał niebieskich i zajął się zagadnieniem sił.
Można by wysunąć przypuszczenie, że śmiałe, nieskrępowane myślenie jest procesem,
którego nie można poznać. Bez odpowiedzi pozostaje także pytanie, skąd pochodzą
wyobrażone idee. Mimo to powinniśmy przynajmniej obalić niesłuszny pogląd, że metoda
naukowa to jedynie cierpliwe gromadzenie faktów i nudnych obserwacji. Wielkie zasługi
położył w tej dziedzinie filozof Kari Popper, który podkreślał innowacyjny charakter myślenia
naukowego.
Przeciwnicy rozumienia nauki jako uświadomionego zgadywania za charakterystyczną jej
cechę uznają niespodziewaną, nieuświadomioną iluminację. Klasyczny przykład podał
Poincare, opowiadając o rozwiązaniu pewnego matematycznego problemu:
„ Zacząłem wtedy poszukiwać odpowiedzi na pewne arytmetyczne pytania, bez wiary w
powodzenie i nie spodziewając się, że mają one związek z moimi poprzednimi badaniami.
Rozgoryczony niepowodzeniami, spędziłem kilka dni nad morzem, rozmyślając o czymś
zupełnie innym. Pewnego ranka podczas spaceru nad urwiskiem przeniknęła mnie z
charakterystyczną krótkością, nagłością i natychmiastową pewnością myśl, że przekształcenia
arytmetyczne nieokreślonych trójmianów...
form kwadratowych są identyczne z formami geometrii nieeuklidesowej".
Tak oto uczyniono poważny postęp w naukach matematycznych. O podobnych przeżyciach
opowiadał angielski matematyk Christopher Zeeman. Po siedmiu latach poszukiwań dowodu
topologicznego twierdzenia, za którego pomocą można było połączyć pewną sferą w węzeł o
pięciu wymiarach, wydarzyło się nagle, co następuje:
„Pewnego sobotniego ranka pomyślałem: Spróbuję inaczej rozwiązać ten cholerny problem. I
cóż, ku swojemu zdziwieniu spostrzegłem nagle, że udowodniłem cos zupełnie przeciwnego...
poczułem się tak podniecony, że cały weekend spędziłem na opisaniu odbycia. Wyszło tego ze
dwadzieścia kilka stron. Potem, już późną nocą, poszedłem do ubikacji i tam autentyczny błysk
natchnienia uderzył mnie jak bomba. Zrozumiałem w jednej chwili, jak zmniejszyć dowód z
dwudziestu stron do dziesięciu linii".
Nagłe intuicje miewali nie tylko matematycy. „Oglądałem jakiś film bez znaczenia. Opadłem
na fotel i mgliście uświadamiam sobie związki między poszczególnymi obrazami... Ogarnia
mnie nagłe podniecenie zmieszane z niewyobrażalną przyjemnością. Odrywa mnie ono od te-
atru, od moich sąsiadów, którzy wpatrują się w ekran. I nagle błysk. Zdziwienie tym, co
oczywiste. Jakże mogłem nie pomyśleć o tym wcześniej?" Oto w jakich okolicznościach nagłe
olśnienie pojawiło się w myślach laureata Nagrody Nobla, Francoisa Jacoba, który odkrył, że
synteza enzymów u bakterii jest wykorzystywana do replikacji bakteriofagów; oba te procesy
są kontrolowane przez specjalne molekularne wiązanie DNA.
Kiedy mówimy o intrygującym, choć świadomym procesie wytwarzania idei, który kojarzy
się z romantycznym kręgiem artystycznych geniuszy w stylu Coleridge'a, możemy odnieść
mylne wrażenie, że przebadano już i zweryfikowano wiele obrazów i asocjacji myślowych,
które mimowolnie pojawiają się w podświadomości. Tymczasem jest inaczej. Czy jest jakiś
dowód na to, że niezwykłe pomysły przychodzą nam do głowy poprzez podświadomość?
Nagłą iluminację poprzedza długi okres intensywnych, świadomych badań. Kiedy pragniemy
wy
tchnienia, kiedy ogarnia nas chęć podjęcia pracy od początku, ulec możemy złudzeniu
bliskości nagłego odkrycia, gdyż w takim momencie nasze umysły potrafią operować jedynie
kilkoma pojęciami. Jeżeli człowiek rozwiązujący problem przez pewien czas od niego
odpoczywa, może zapomnieć informację przechowywaną w pamięci krótkotrwałej, nie
stwierdzono jednak, że przyczynia się ona do poprawnego rozwiązania zagadki. Kiedy
powraca się do problemu, można podążać zupełnie inną ścieżką. Z tego właśnie powodu budzi
wątpliwości opowieść Coleridge'a o procesie tworzenia „Kubła Khana". Angielski romantyk
pisał go, jak wspomina, w opiumowym transie zakłóconym przez przybysza z Porlock, który
chciał porozmawiać o interesach. Kekule z kolei opowiadał o śnie, w którym węże gryzą się w
ogony. Sen ten doprowadził ponoć do odkrycia sześcioczłonowego pierścienia benzenu, bardzo
istotnego dla chemii, lecz związek między snem a odkryciem jest być może mniejszy, niżby
Kekule pragnął nam zasugerować. Jego zalecenie „Nauczmy się marzyć, panowie" wolno
uznać za niezbyt mądrą radę, w wypadku takich odkryć, które są dalekie od typowych i zależą
niezmiennie od ogromu wykonanej pracy i mozołu wcześniejszych przygotowań. Gdy na
przykład Crick i Watson badali strukturę DNA, rozwiązanie pojawiło się jako uwieńczenie
długiego procesu ciężkich zmagań. Wielu innych wynalazków dokonano w mniej
dramatycznych okolicznościach.
W dziejach nauki Poincare wsławił się tym, że sporo rozmyślał o naturze twórczości.
Zaproponowany przez niego schemat odkrycia naukowego obejmował następujące stadia:
świadomą pracę, pracę nie uświadamianą, iluminację (gdy dochodzimy do odkrycia) i w końcu
jego „weryfikację". Autor przyznawał, że to, co nazywa pracą nie uświadamianą, zawsze
poprzedzają okresy zajęć świadomych. Wierzył również niezachwianie w przynależność
pokoleniową i selekcję twórców nauki. Zapytano go jednak słusznie, w jaki sposób
przeprowadza się selekcję, jeśli proces twórczy jest nie uświadomiony? Odpowiedź Poincarego
nie może nikogo zadowolić, gdyż mówi o „intuicji", sterującej rzekomo wyborami uczonego w
niezwykle subtelny i delikatny sposób. Same wybory należeć mają raczej do sfery przeżyć niż
zracjonalizowanej ekspresji słownej, a francuski matematyk, fizyk i filozof w jednej osobie te
same przeżycia odnosił do odczucia piękna.
Wielu uczonych nadawało wielkie znaczenie podświadomości, a dziewiętnastowieczny fizyk
niemiecki von Helmholtz cytował słowa Goethego:
Czego się nie wie Lub nie ma na myśli Po nocy bladzi Labiryntami umysłu.
Trudno powstrzymać się od komentarza, że intuicja (i wszystko, co nieświadome),
pojmowana w duchu Poincarego, przypomina czarną skrzynkę zawierającą proces twórczy, o
którego działaniu nic jednak nie wiemy. Niestety, psychologia poznawcza ze swoim
charakterystycznym uwydatnieniem znaczenia sieci i programów komputerowych przestaje
być w tym porządku myślenia użyteczna. Nie należy jednak mylić intuicji twórczej, o której
mówiliśmy, z intuicją wykorzystywaną w życiu codziennym. Einstein zauważył na przykład,
że intuicja naukowa polega na sformalizowanym poznawaniu tego, co można uznać za istotne i
godne zaufania. Jej zdroworozsądkowa odmiana to zjawisko całkowicie odmienne. Chociaż
obie opierają się na doświadczeniu, jego natura jest różna. Intuicja naukowa nie odnosi się do
doświadczenia zdroworozsądkowego, ale do ogromnego kapitału specjalistycznej wiedzy,
którą uczony zdobył wcześniej; obejmuje wiadomości o naukowych sposobach rozwiązywania
problemów, o oczekiwaniach, które teoria ma spełnić, wreszcie - o możliwościach rozwikłania
danego problemu. Jakże mocne wyczucie własnych możliwości posiadał Einstein, iż
zrezygnował z kariery matematyka: wiedział, że nie ma „nosa", aby rozstrzygnąć, które
problemy są w tej dziedzinie naprawdę ważne.
Przeciwieństwem tezy o wyobrażeniowo-artystycznej metodzie naukowego badania procesu
twórczego jest koncepcja laureata Nagrody Nobla, Herberta Simona i jego kolegów. Sądzą oni,
że naukę można tworzyć za pomocą programów komputerowych: nie ma tym samym
istotnej różnicy między dziełem „genialnego" naukowca a dokonaniami uczonych o
mniejszych zdolnościach, idea twórczości naukowej jest więc mitem. Według Simona i jego
kolegów proces wynalazczy można opisać i modelować.
Zgodnie z hipotezą wspomnianej grupy, badania naukowe należy rozpatrywać jako
szczególny rodzaj mechanizmów biorących udział w rozwiązywaniu problemów. Badacze ci
uznają naukę za działalność społeczną, a także - ponieważ jej cele w początkowym stadium
rozwiązania zagadnienia nie są zwykle jasno określone - potrafią określić, co odróżnia ją od
zwykłego rozstrzygania problemów: odkrywanie ich i wyrażanie w precyzyjnej formie okazuje
się integralną jej częścią. W psychologii poznawczej przeciwnie - proces rozwiązywania
problemów rozpatruje się jako tworzenie ich symbolicznej ekspresji. Rozwiązań nie poszukuje
się metodą prób i błędów, lecz heurystycznie -opierając się na praktyce. Istnieje na przykład 50
bilionów bilionów (50 x l O18) możliwych układów dziesiętnych na tarczy zamka szyfrowego
sejfu, jeśli każdy z nich ponumerować od O do 99, ale trzask zamka w momencie zbliżania się
do prawidłowego układu zmniejsza liczbę prób otwarcia sejfu do około pięciuset. Wybitni
uczeni funkcjonują podobnie - posiadają po prostu lepiej rozwiniętą Jleurystykę i nie potrze-
bują „intuicji".
Simon i jego współpracownicy postawili sobie za cel układanie programów komputerowych z
zastosowaniem własnych metod rozwiązywania problemów, programów, za których pomocą
można dokonywać odkryć w wielu dziedzinach. Słowo „odkrycie" nie jest tu najwłaściwsze,
ponieważ uczeni ci nie wymyślali niczego nowego; zademonstrowali jedynie działanie
programu, który potrafi sformułować prawo powszechnego ciążenia na podstawie informacji
dostępnych Newtonowi albo stałą Plancka - zasadniczą wielkość w mechanice kwantowej
-korzystając z informacji, do których miał dostęp odkrywca, tak więc wszystkie te
informatyczne manewry dotyczą wiedzy już ugruntowanej.
Wykryte prawo powinno zgadzać się z danymi - błąd nie może wynosić więcej niż 3 procent -
takie kryterium proponowali przyjąć programiści z zespołu Simona. Członkowie tej grupy
twierdzą, że uogólnienie, które komputer znajduje dopasowując dane, nigdy nie będzie
odkrywcze. Metoda ta pomaga eliminować małe błędy i przede wszystkim ogarniać całość
zagadnienia. Weryfikacja procedur badawczych nie powinna dawać naukowcom niezachwianej
pewności czy poczucia, że dokonali niezwykłego odkrycia, lecz informować o ryzyku, które
ponoszą, formułując hipotezy, wreszcie - dostarczać wskazówek zwiększających szansę na
nowe osiągnięcia.
Chociaż programy komputerowe wspomnianej grupy mogły z powodzeniem znaleźć
praktyczne zastosowanie, poddano je krytyce, która jednak nie doprowadziła do wyjaśnienia
ich budowy: programiści sami przecież znają odpowiedź. Programy nie dokonują nowatorskich
odkryć. Poważniejszy zarzut przeciwko nim wynika natomiast z założenia, że realizacja
projektu naukowego obejmuje o wiele więcej działań niż tylko rozwiązywanie problemów:
zbieranie danych, ich opis, tworzenie i weryfikacja teorii. Programy komputerowe nie są w
stanie wynaleźć nowych narzędzi badawczych: ich działanie polega wyłącznie na
„wyprowadzaniu z konkretnych danych teorii opisowych i wyjaśniających". Chociaż potrafią
docenić znaczenie prawidłowego sformułowania problemów, sugerują, że poza różnorodnością
sposobów ich rozwiązywania nic więcej nie istnieje, a jest to twierdzenie dyskusyjne.
Przytoczmy tylko jeden przykład: na odkrycie teorii względności przez Einsteina bezpośredni
wpływ wywarło sformułowanie następującego problemu: jakie byłyby konsekwencje
poruszania się wzdłuż fali światła obiektu, który następnie dopędziłby znajdujący się na tej fali
wybrany punkt? Komputery nie mogłyby „wydumać" czegoś podobnego.
Istotną sprawą jest również wybór problemu. Jak stwierdził laureat Nagrody Nobla, Peter
Medawar, nauka jest „sztuką rozwiązywania", a jej ważną częścią pozostaje wybór
zagadnienia, które można rozwiązać. Doskonale zrozumiał to Francis Crick, analizując budowę
białka. Początek biologii molekularnej doprowadził do hipotezy, że o właściwościach białka
(rozdział I) decyduje ukształtowane przez DNA następstwo aminokwasów. I chociaż proteiny
zsyntetyzowano jako linearny
łańcuch aminokwasów, samoistnie zwija się on w bardziej złożone formy. Trójwymiarowa
forma przybrana przez ów łańcuch decyduje o właściwym funkcjonowaniu białek. Ich
poszczególne właściwości także wynikają z formy łańcuchów, która daje każdemu z nich
jedyną w swoim rodzaju konfigurację i określa jego funkcję. Chociaż znajomość następstwa
aminokwasów właściwie wystarczyła do sprecyzowania budowy zwiniętej struktury, dotąd nie
zostało to zbadane. Nie potrafimy także przewidzieć jej samej na podstawie następstwa amino-
kwasów. Crick i jego koledzy postanowili nie zajmować się problemem zwijania się białek,
chociaż powinien on stanowić następny krok w badaniach. Niezwykle trudno ocenić, czy mieli
rację, ponieważ jeszcze trzydzieści lat później porzucony problem nie był w pełni
rozstrzygnięty.
Inny aspekt rozwiązywania problemów, którego uwzględnienie w komputerowym programie
wydaje się niemożliwe, stanowi wybór chwili, w której należy zacząć opracowywanie
doświadczalnych danych. Mamy skłonności do formułowania ogólnikowych założeń, które
łagodzą ostrość problemu i zwiększają ryzyko, że uprościmy i tym samym pomniejszymy
wartość rozwiązania. Nadto należy sobie uświadomić, kiedy zakończyć pracę nad problemem
lub porzucić jakąś szczegółową linię badań. Niweczy się w ten sposób wielki wysiłek włożony
w zgłębianie nowych zagadnień, co może okazać się bolesne.
Bez względu na to, czy metoda rozwiązywania problemu opracowana przez Simona jest
prawidłowa, a osobiście w to wątpię, nasuwa ona istotną myśl, że przynajmniej jedno stadium
rozumowania naukowego pozostaje w ścisłym związku z rozwiązywaniem problemów tak
ustrukturowanych, że można je naśladować w programach komputerowych. Stanowi to
również przejaw nienaturalnej natury nauki, ponieważ programy komputerowe, których
używają Simon i jego koledzy, są zupełnym przeciwieństwem myślenia zdroworozsądkowego.
Komputery w ogóle bardzo źle naśladują zdrowy rozsądek i takie ludzkie działania, jak
rozpoznawanie odręcznego pisma, a gdy to już się im uda, robią użytek z zupełnie innych
mechanizmów niż nasze mózgi. Jakiekolwiek jednak talenty posiadałyby komputery, nie
dorównują ludzkiemu geniuszowi.
Genialność fascynuje, wszak czyni z niektórych uczonych półbogów w oczach innych
naukowców, ale jej natura wciąż pozostaje tajemnicza. Doceniany zazwyczaj po pewnym
czasie geniusz naukowy wywiera ogromny wpływ na współczesne i przyszłe pokolenia.
Niezależnie od tego, czy został nim okrzyknięty słusznie, czy nie, każdy uczony szybko
rozpoznaje liderów i prawdziwe talenty - wybitne jednostki są często szybsze, bardziej
pracowite, potrafią się lepiej wysławiać, liczą szybciej albo posiadają przynajmniej niektóre z
tych przymiotów.
Geniusz naukowy daje się poznać także poprzez cechy przywódcze i ogromny wpływ tak na
współczesne, jak i na przyszłe pokolenia. Newton, Darwin i Einstein na pewno zasługują na to
miano. Geniusza nagradza się wielkimi zaszczytami i rozgłosem, co odzwierciedla jego wkład
w poznanie natury świata. Pojawiają się czasem próby interpretacji (rozdział VI) „genialności"
jako wytworu sil społecznych, które rozstrzygają, kogo nagradzać, ale chociaż o geniuszu
decyduje z pewnością jakiś element uznania społecznego, pozostaje on zawsze zjawiskiem
obiektywnym. I chociaż potrafimy się spierać, czy ktoś jest obdarzony nadzwyczajnym
talentem, rozpoznanie wybitnych reprezentantów jakiejś dziedziny wiedzy przychodzi nam z
niesłychaną trudnością.
Geniusz naukowy różni się diametralnie od artystycznego. W historii jego istnienie okazuje
się niekonieczne: wszystkie odkrycia i tak zapewne zostaną dokonane, gdyż nauka jest
wysiłkiem grupy ludzi i liczy się w niej czas, środki finansowe oraz doświadczona i
zaangażowana w jej sprawy społeczność. Hipoteza Ortegi, którą omawiam w dalszej części
książki, zakłada, że nauki eksperymentalne rozwinęły się głównie dzięki pracy ludzi o średnim
talencie.
Odkrycia i postęp w nauce nie muszą zależeć od jednej osoby: jeśli nie Newton, to wielu
innych opracowałoby znane nam prawa; jeśli nie Einstein, wówczas X, Y i Z... Do celu można
dochodzić różnymi drogami, ale rezultat będzie najprawdopodobniej ten sam. Zupełnie inaczej
niż w wypadku „Hamleta" czy „Cosi fan tutte" - Szekspir i Mozart nie mają sobie równych.
Wypowiedź Franęoisa Jacoba przedstawia zresztą jeszcze inne osobliwe cechy naukowego
geniusza:
„ Wielki człowiek nauki przede wszystkim wie, jak we właściwym momencie sformułować
najistotniejsze problemy, gdy jest szansa na ich rozwiązanie. On jedynie wie, jak zorganizować
pracę zespołowa, jak spośród gromady uczniów wybrać najzdolniejszych sukcesorów i kon-
tynuatorów rozpoczętego dzieła... "
Zgodzimy się, że nie jest to charakterystyka Szekspira, Mozarta czy Picassa.
Psycholog Howard Gruber zastanawiał się, w jaki sposób dziecięce talenty przekształcają się
w oryginalną twórczość. Osądził, iż Thomas Henry Huxley był wszechstronniej uzdolniony niż
współczesny mu Darwin, a komisja, która oceniałaby ich wczesne projekty badawcze
-Huxleya, związany z rejsem Rattiesnake, oraz koncepcję podróży Dar-wina na Beagle -
dałaby pierwszeństwo Huxleyowi. Kiedy usłyszał o teorii Darwina, oświadczył: „Dlaczego o
tym nie pomyślałem?" Właśnie, dlaczego? Najprawdopodobniej to samo pytanie można zadać
wielu innym ludziom. Gruber odpowiada na nie następująco: otwartość - wielka, niewyrażalna
wrażliwość młodego Darwina na świat przyniosła lepsze rezultaty niż podejście analityczne
Huxleya. Nie jest to jednak uniwersalna formuła sukcesu. A na czym polega różnica pomiędzy
talentem a oryginalnością?
Rozprawy na temat utalentowanych dzieci kreślą portrety osobników o chłonnej,
niezawodnej pamięci. O wiele jednak ważniejsze ich cechy to metaświadomość
(metacognition) i metapamięć (metamemo-ry). Pierwsza z nich odnosi się do jednostkowej
świadomości procesów myślowych i z założenia ma decydujące znaczenie przy wyborze i
wprowadzaniu w życie strategii rozwiązania problemu. Metapamięć jest składnikiem
metaświadomości i dotyczy samowiedzy, w tym wypadku systemu pamięciowego jednostki.
Wybitnie uzdolnione dzieci, jak zauważono, miały głęboką świadomość własnych strategii
pamięciowych, takich jak zainteresowanie tematem czy rozmaite asocjacje myślowe.
Osiągający sukcesy naukowcy także posiadają samoświadomość -jest to jedna z ich najbardziej
charakterystycznych cech.
Analizy umysłowości wybitnie utalentowanych szachistów pozwalają objaśnić niektóre
aspekty zdolności naukowych. Kiedy porównywa-
no wielkich mistrzów szachowych z wybitnymi teoretykami tej dziedziny, okazało się, że nie
ma między nimi żadnej różnicy w podejściu do problemów, a także pod względem
umiejętności ich rozwiązania. Tego rodzaju dysproporcje powstają na skutek motywacji,
charakteru i wiedzy. Mistrz szachowy uzyskuje gruntowną wiedzę podczas tysięcy godzin gry i
studiów. Trzeba pasji i dyscypliny, by poświęcić jednej sprawie tak wiele czasu i energii, a to
sprawa charakteru. Wśród wybitnie utalentowanych naukowców istnieje silna potrzeba prawdy
- są oni ludźmi o ogromnej witalności; zdolni do poświęcenia i gotowi do odważnych działań,
mają „charakter" i potrafią niezmordowanie pracować nad rozwiązaniem problemu.
Okrzyk „Eureka!" ludzie wydają rzadziej, niż się powszechnie przypuszcza, ale mimo to
rozlega się poprzez wieki. Sugeruje, że rozwiązanie naukowego problemu nadchodzi w
momencie olśnienia. Ktoś, kto w to wierzy, lekceważy powolny i często bolesny proces
rozwojowy, począwszy od sformułowania problemu, przez fałszywe hipotezy, na upragnionej
chwili rozwiązania skończywszy.
Czynniki te zostały skondensowane jak w pigułce w odpowiedzi Newtona na pytanie, jak
odkrył prawo grawitacji: „Myślałem o nim stale". Gruber sądzi, że nauka i wielka twórczość w
ogóle funkcjonuje w rozległej skali czasowej - minęło wiele lat, nim rozwinięto pomysły
Newtona, Darwina i Einsteina. Jeśli istnieje jakiś oślepiający błysk, jakaś „Eureka!", nie
powinniśmy zapominać o poprzedzających ją „latach" rozmyślań. Czyż naprawdę są one mniej
ważne? Upłynie wiele czasu, zanim ludzie ostatecznie rozwiążą jakieś zagadnienie i to właśnie
stanowi charakterystyczną- niemal definicyjną- cechę nauki. Powodem tego stanu rzeczy są po
części trudności, które tkwią w samym problemie, ale także fakt, iż nauka ma charakter
społeczny i trzeba znać stan dotychczasowych badań, aby zasymilować najnowszą wiedzę.
Wybitnych uczonych, co odnotowaliśmy już w związku z Crickiem, wyróżnia zdolność
rozpoznawania, które problemy warto rozwiązywać, które świadectwa i pomysły
zaakceptować, a które odrzucić. Kwestionowanie obowiązujących, utrwalonych poglądów na
świat może okazać się niezwykle trudnym zadaniem, podobnie jak osąd danych
doświadczalnych: Francis Crick wykazał, że teoria, która pasuje do wszystkich faktów, jest z
pewnością fałszywa, ponieważ niektóre fakty błędnie ukazują rzeczywistość (zob. rozdział I).
Przeprowadzone przez Grubera szczegółowe badanie genezy pomysłów Darwina na temat
ewolucji okazało się wnikliwą analizą roli przypadku w nauce. Jeden z pierwszych ambitnych
projektów Darwina nie dotyczył wcale ewolucji w świecie zwierząt, ale problemu geologicz-
nego - narastania raf koralowych. Podczas pobytu na zachodnim wybrzeżu Ameryki
Południowej w roku 1835 Darwin wyraził przekonanie, że powstały one na skutek
pączkowania korali przy równoczesnym pogrążaniu się lądu w wodzie. Zagadnienie to wiąże
się z ewolucją w tym sensie, że stawia pytanie, co hamuje wzrost koralowców - nie egzystują
one poniżej określonej głębokości - i że wyjaśnia przyczynę stałego rozwoju różnorodnych
form jamochłonów na wyspach koralowych.
Podzielamy zdziwienie Grubera, że pierwsza wersja teorii ewolucji zwierząt zmierzała do
celu zawiłymi ścieżkami. Aby wyjaśnić przemiany gatunków, ich zdolność przystosowania się
do otoczenia, wreszcie -trwanie niektórych z nich bez widocznych zmian Darwin powołał się
na wyłanianie się w poszczególnych pokoleniach pojedynczych form życia, zwanych
monadami. Monady, wyjaśniał, rozwijają się wskutek bezpośredniego oddziaływania
warunków zewnętrznych, ale mają ograniczoną przestrzeń życiową, tak więc gatunki, którym
dały początek, po pewnym czasie giną.
Zrozumieć tę na pozór absurdalną myśl możemy jedynie wtedy, kiedy przyjmiemy, że
gatunki żyją w określonym czasie. Twierdzono, że każdy z nich posiada własną,
niepowtarzalną istotę, i trudno było sobie wyobrazić, żeby mogła ona ulec zmianie lub
podlegać ewolucji. Koncepcje geologa Charlesa Lyella (1797 - 1875), który znacznie wpłynął
na Darwina, ilustrują to bardzo wyraźnie. Lyell nie mógł zrozumieć, że jeden gatunek może
przeobrazić się w inny. A jeżeli badacz, któremu myślenie ewolucyjne było bliskie, nie mógł
sobie tego uświadomić, o ileż bardziej było to nie do przyjęcia dla jego poprzedników, na przy-
kład Lamarcka. Lyell krytykował szczególnie ostro jego poglądy na te-
mat postępu dążącego do doskonałości. Zdawał sobie sprawę, że gatunki stanowią klucz do
zagadki ewolucji i zastanawiał się, dlaczego powstają i wymierają, nie czyniąc postępu. W
odróżnieniu od Lamarcka stawiał hipotezę, że dzieje się to nie na skutek czynników fizycznych
i nie z powodu współzawodnictwa z innymi gatunkami. O pochodzeniu nowych gatunków
powiedział po prostu: „Gatunki powstawały sukcesywnie w takich epokach i w takich
miejscach, w których należące do nich osobniki mogły rozmnażać się i przetrwać..." Doktryna
ta zainspirowała Darwina przy tworzeniu koncepcji monad, chociaż w późniejszym okresie
autor rozprawy „O pochodzeniu gatunków" (Origin of Species) wiele wysiłku włożył w
zanegowanie idei Lyella.
Można by zapewne stworzyć programy komputerowe, które ukazywałyby dzieje teorii
ewolucji przez dobór naturalny - mądrość po szkodzie wypada efektownie - nie
uwzględniałyby jednak one żadnych paradygmatów czy idei epoki, takich jak na przykład myśl
o niezmienności gatunków. Trudno zrozumieć, jak ciężko obalić obowiązujące teorie.
Sam tytuł notatnika, w którym Darwin w lipcu 1837 roku po raz pierwszy zapisał teorię
ewolucji, okazał się w gruncie rzeczy objawieniem - „Przeobrażanie się gatunków"
(Transmutation ofSpecies). Na początku czytamy: „Każdy gatunek ulega przemianie... Prosta
forma nie może uniknąć przemiany w bardziej złożoną".
Do nowej wersji teorii monad Darwin wprowadził rozstrzygającą innowację: ideę
rozgałęzionej ewolucji, drzewa życia: „Istoty zorganizowane tworzą nieregularnie rozgałęzione
drzewo". Ów model jednak zakładał jednoczesne wymieranie wielu gatunków, czego nie
można było udowodnić. Dlatego Darwin zaczął się zastanawiać, czy długość życia monad się
zmienia, ale szybko zrozumiał słabe strony swej idei i do września 1837 umarła ona śmiercią
naturalną. Oznaczało to zaniechanie dalszych badań pochodzenia życia, co ogromnie
upraszczało wiele zawiłych kwestii. Darwin wyjaśnił tę decyzję latem 1838, gdy zakazał sobie
prób analizowania odległych czasowo spraw, jeśli bowiem cofnie się wskazówki zegara, trzeba
będzie pokazać, jak kształtowało
się pierwsze oko -jak jeden z nerwów stał się bardziej wrażliwy na światło... a to jest
niemożliwe".
W obrazie rozgałęzionego drzewa różnicowanie się gatunków to wynik dziedzicznej
skłonności do rozwoju, a jednak Darwin zdawał sobie sprawę, że w ten sposób nie wyjaśnia
samego mechanizmu ewolucji. W gruncie rzeczy przyczyny zróżnicowania form wciąż
pozostawały zagadką, ponieważ genetyka była jeszcze w powijakach. Nie znano powodów
różnicowania się wielkości i kształtu zwierząt. Darwin uświadamiał sobie tę lukę i okazał
wielką intelektualną odwagę - Gruber nazywa ją heroiczną- gdy zasadniczym elementem swej
teorii uczynił mechanizm przekształceń, którego implikacji nie umiał wyjaśnić. Posunął jednak
teorię ewolucji w kierunku wytyczonym przez Lamarcka, według którego nabyte cechy w
zasadzie mogą być dziedziczone.
Darwin znalazł się niemal w takiej samej sytuacji jak Newton, który także bronił tezy o
siłach powszechnego ciążenia, nie znając zasady ich działania. Porwani przez nurt faktów, obaj
ci badacze musieli się przekonać, że nie są w stanie wszystkiego objaśnić. Charakterystyczną
cechą wielkich naukowców bywa właśnie to, że potrafią powziąć decyzję, co uznać, a co
porzucić.
W słynnej notatce z 1836 roku Darwin daje wyraz ostatecznemu zwątpieniu w niezmienność
gatunków: „Kiedy widzę wyspy, położone względem siebie w zasięgu wzroku, które posiadaj ą
ubogi zwierzostan, złożony z ptaków niewiele różniących się pod względem budowy, a
zajmujących to samo miejsce w Naturze, podejrzewam, że są to tylko odmiany... takie właśnie
fakty osłabiają wiarę w niezmienność gatunków". Podobną myśl znajdziemy na początku
pierwszej wersji książki „Przeobrażenie się gatunków" (Transmutation ofSpecies): „Zgodnie z
tym przekonaniem zwierzęta żyjące na osobnych wyspach powinny się różnicować, gdy
dostatecznie długo przebywają w izolacji..." Dopiero w marcu 1837 roku Darwin w pełni
docenił znaczenie fauny wyspiarskiej. Ornitolog, John Gould, pokazał mu swą kolekcję i
opowiedział o zróżnicowaniu kolibrów pochodzących z trzech wysp archipelagu Galapagos.
Darwin pozostawał wówczas pod wrażeniem książki przytaczającej dowody, że
mikroorganizmy mogą rozmnażać się niezwykle szybko. Kilka dni później przeczytał „Esej o
zaludnieniu" (Essay on Population) Malthusa, ukazujący w jaskrawym świetle ogromną
zupełnie niekontrolowaną nadproduktywność przyrody: „Od razu zorientowałem się, że
osobniki o cechach korzystnych w stosunku do środowiska mają największą szansę przeżycia,
natomiast gorzej przystosowane muszą zginąć. Efektem tej selekcji są nowe gatunki". Tak oto
narodziła się teoria ewolucji przez dobór naturalny. Praca Malthusa pozwoliła Darwinowi
pojąć, że dobór naturalny polega nie tylko na odrzucaniu osobników źle przystosowanych, ale
faworyzuje także odmiany przystosowujące się lepiej niż inne.
Rzecz zrozumiała, Darwin potrzebował na opracowanie swej teorii wiele czasu, podążał też
niejednym fałszywym tropem. Budowanie i formułowanie teorii wymagało dobrej zdolności
oceny stanu badań, wielkiej wytrwałości, odwagi intelektualnej i wreszcie - geniuszu. Ścieżka
prowadząca do rozwiązania nie biegła prosto.
Gruber dowodzi, że „realizowanie najtrudniejszych zadań nie może obejść się bez
najwyższych aspiracji i w konsekwencji stawia strukturę ego w sytuacji stresującej". W
psychice człowieka rodzi się poczucie szczególnej misji, wzrasta odwaga w zmaganiu się z
bardzo trudnym zagadnieniem - czym się wykaże, jeśli plan zawiedzie, okaże się błędny.
Prawdopodobnie można dać wiele przykładów takiego rozumowania, ale większość
naukowców przyjmuje bardziej bezpieczną strategię - że podczas badań pojawi się coś
pozytywnego, cokolwiek. Gdyby Watsonowi i Crickowi nie powiodła się próba określenia
struktury DNA, ich wspólny wysiłek przyniósłby niewielkie efekty.
Innym przykładem są badania amerykańskiego mikrobiologa Marka Ptashne nad regulatorem
białka. W 1965 roku dwudziestopięcioletni naukowiec zdecydował się na wyodrębnienie
głównego regulatora białka, co postulowali wcześniej francuscy biolodzy Franęois Jacob i
Jacques Monod. Zakładano, że białko to dołącza do określonego genu w wirusie bakteryjnym i
tym samym odgrywa ważną rolę w wyłączeniu tego genu. Kontrola aktywności genu decyduje
o zachowaniu się
komórki zarówno podczas normalnego rozwoju embrionu, jak i w warunkach patologicznych,
takich jak rak. Wyizolowanie proteiny odpowiedzialnej za włączanie lub wyłączanie genu
byłoby najwyższym osiągnięciem i pozwoliłoby na zrozumienie tego procesu na poziomie
molekularnym. Dowód istnienia kontrolującej komórkę proteiny był w owym czasie tylko
pośredni i pochodził z doświadczeń genetycznych. Publicyście naukowemu Philipowi J.
Hiltsowi Ptashne zwierzył się ze swoich rozterek:
„im hardziej się w to zagłębiam... staje się jasne, że inni podejmowali ryzyko tylko do pewnego
stopnia. Pytanie brzmi, jak zamierzasz pracować, czy jesteś skłonny to robić z 1q_
perspektywa^ że w ogóle niczym się nie wykażesz? Możesz pracować dwa lub trzy lata, ponieść
porażkę i zrobić z siebie głupca. A przynajmniej pozostać z pustymi rękami".
Ptashne odważył się na to ryzyko.
Pracujący piętro niżej w tym samym budynku Harvardu inny biolog molekularny, Wally
Gilbert, próbował wyizolować regulator całkowicie odmiennym sposobem (później otrzymał
Nagrodę Nobla za pracę o sekwencyjności DNA). Uczeni prowadzili badania niezależnie i
rywalizowali, choć dopisywało im zmienne szczęście, jeśli idzie o sponsorów i możliwość
ogłaszania wyników. Ptashne pracował niezmordowanie, aż zachorował z wyczerpania.
„Najważniejszym doznaniem naukowca-eksperymentatora jest uświadomienie sobie, że w
każdej chwili może zostać wystrychnięty na dudka, gdy emocje i osobiste aspiracje sprawią, iż
uwierzy w rzeczy, które nie mają nic wspólnego z faktami". Jak to ujął w kilku słowach Hilts,
możliwość porażki stanowi podstawowe doświadczenie w karierze uczonego. W osiemnastym
miesiącu badań Ptashne wyodrębnił jednak regulator i jednocześnie zrobił to Gilbert: zaszczyty
zostały rozdzielone.
Oto inna próbka stylu Ptashne: „Wyróżniam i pobudzam przynajmniej tych studentów, dla
których mam wielki szacunek. Powód? Większość ludzi nie rozumie, jak trudną rzeczą jest
nauka, jak ciężko zrobić coś naprawdę znaczącego bądź oryginalnego". Wytrwałość w obliczu
niepowodzenia to powtarzający się motyw sprawozdań z działalności naukowej uwieńczonej
sukcesem.
Okoliczności odkrycia informacyjnego (messenger) RNA to przykład złożonej natury
naukowych odkryć i wypadków olśnienia („Eureka!"). Ośrodkami syntezy białka są rybosomy
- kuliste struktury zbudowane z kwasu rybonukleinowego i białek. Informacyjny RNA* to
klucz do wiedzy o molekularnym przenoszeniu informacji w białkach od DNA do rybosomów
- pozwala zrozumieć następstwo białkowych aminokwasów (rozdział I).
Francis Crick opowiadał, że pod koniec lat pięćdziesiątych idea kodu genetycznego, to
znaczy myśl, że informacje o sekwencjach DNA docierają do syntetyzowanych komórek
białkowych w zakodowanej formie, nie znalazła w świecie nauki pozytywnego oddźwięku.
Szeroka naukowa społeczność czuła, że Crick i jego koledzy uprościli problem. Co więcej - że
mają trudności z odnalezieniem właściwego kodu. Ogólny zarys ich koncepcji uznano za
prawidłowy. „Zrobiliśmy poważny błąd. Używając współcześnie przyjętych terminów
biologicznych można rzecz wyrazić tak: sądziliśmy, iż rybosomowy RNA to informacyjny
RNA, a to opóźniło naszą pracę badawczą o kilka lat. Miarka przebrała się któregoś dnia, było
to, o ile pamiętam, w Wielki Piątek". Zespół Cricka sądził, że ponieważ ośrodkami syntezy
białek w komórkach są rybosomy, które zawierają cząsteczki RNA, to rybosomowy RNA
przenosi kod. Doznali wielkiej iluminacji - podobnej do chwili odkrycia struktury DNA - kiedy
w bardzo krótkim czasie przedmiot ukazał się z zupełnie innej perspektywy. Tylko ten jeden
jedyny raz grupa zrobiła rzeczywisty krok naprzód; rozpoznanie kodu genetycznego trwało
kilka lat.
Wydarzenia miały następujący przebieg. Do 1957 roku akceptowano dogmat Cricka, że
łańcuchy RNA są syntetyzowane na matrycy DNA, pełnią więc istotną rolę w procesie syntezy
białek. Wiadomo było również, iż białka są wytwarzane za pomocą rybosomów, także
zawierających RNA. Sądzono, że RNA w rybosomie to to samo, co informacyjny RNA, ale
pozostawał problem kontroli procesów syntezy. Francois Jacob argumentował, że zmiany ilości
syntez białkowych zachodzących m-RNA (przyp. red.) - zwany też matrycowym
ko i pod kontrolą genetyczną. Rybosomy, przeciwnie, są raczej stabilne, a to pozostaje
sprzeczne z szybkimi włączeniami i wyłączeniami syntezy białka. Dzięki czemu nowe
rybosomy mogą być wytwarzane tak szybko? Zespół badawczy Cricka wytrwale pracował nad
rozwikłaniem tej zagadki. Rozpatrywano nawet poglądy sprzeczne z dowiedzionymi
prawdami, na przykład, że DNA jest bezpośrednim producentem białka.
Sydney Brenner uświadamiał sobie złożoność problemu i w Wielki Piątek 1960 roku kilka
przybyłych do Londynu znanych osób zebrało się w pokoju w King's College w Cambridge. W
ich obecności Jacob przeprowadził ponownie swoje doświadczenia, związane z szybką zmianą
podczas syntezy; eksperymenty te powtórzono i wydawały się teraz bardziej przekonujące.
Jeśli synteza nowego białka może być szybko włączana i wyłączana, trudno to pogodzić z
istnieniem genu, który kontroluje białko, o ile zostało ono wytworzone na bazie rybosomu.
Warto zauważyć, że francuski zespół, do którego należał Jacob, interesował się bardziej
genetycznymi wyłącznikami niż kodem genetycznym - przedmiotem studiów zespołu
brytyjskiego. Podczas dyskusji w pokoju Brennera Jacob opisał doświadczenie
przeprowadzone przez pewnego Amerykanina z Berkeley; wykazało ono, że w procesie
syntezy białka oprócz genów kodujących rybosomowego i informacyjnego RNA - bierze stale
udział gen struktury. Nasunęło to myśl, że uczestniczy on w wytwarzaniu niestabilnego
pośrednika, który niszczeje i zanika w jego obecności.
„Wtedy -jak mówi Crick - miarka się przebrała i zdaliśmy sobie z wszystkiego sprawę".
Zgromadzeni przypomnieli sobie eksperyment Amerykanów, którzy odkryli rodzaj cząsteczek
RNA podobny do DNA, ale uważali, iż to element poprzedzający syntezę DNA. Crick i
Brenner zrozumieli wówczas, że te cząsteczki stanowią matrycowy RNA, który przekazuje
informacje o wytwarzaniu białka od DNA do rybosomu. Zjawisko zostało odkryte już
wcześniej, ale zespół badaczy paryskich nie zdawał sobie sprawy z jego znaczenia. Rybosom
jest strukturą wytwarzającą białko, lecz jego RNA pełni odmienną funkcję i rybosom
potrzebuje jakiegoś sygnału RNA od DNA, określającego,
które białka mają być wytworzone. Brenner wpadł na pomysł, jak można zweryfikować pogląd
o informacyjnym RNA, i wraz z Jacobem zaplanował tego dnia odpowiednie doświadczenia.
Uczeni wyjechali do Kalifornijskiego Instytutu Techniki (Califomia Institute of Technolo-gy),
zamierzając przeprowadzić ów eksperyment w laboratorium Me-sehisohna, ponieważ
dysponowało ono odpowiednimi urządzeniami technicznymi.
Nowe pomysły większość Amerykanów potraktowała sceptycznie; wielki Delbriick
powiedział: „Nie wierzę w to". Eksperyment polegał na zainfekowaniu komórki bakterii
bakteriofagiem (czego skutkiem była nowa białkowa synteza bakteriofagów), aby wykryć, czy
nowe rybosomy zostaną wytworzone, czy też - jak przypuszczano - nowo powstały matrycowy
RNA przejdzie do już istniejących rybosomów. Eksperyment wymagał podwójnego
odwirowywania, aby wyizolować rybosomy zależnie od tego, czy przyłączają one ciężkie
izotopy węgla i azotu. Doświadczenie przebiegało bardzo niepomyślnie. Uczeni nie potrafili
przyłączyć izotopów do rybosomów. Przez kilka dni spędzali popołudnia na plaży. Brenner -
co było do niego niepodobne - milczał, lecz nagle podskoczył z okrzykiem: „To magnez!"
Odtworzywszy w myślach przebieg doświadczenia, uświadomił sobie, że nie dodał dosta-
tecznej ilości magnezu i tym samym rybosomy zostały zniszczone. Obaj uczeni pognali do
laboratorium i powtórzyli eksperyment, stosując więcej magnezu - zwykłego, lecz w tym
wypadku najważniejszego komponentu. Doświadczenie udało się i istnienie transportowego
RNA zostało dowiedzione. Trzeba było jeszcze sześciomiesięcznej ciężkiej pracy w
Cambridge, aby dokończyć dzieło.
Opisane wydarzenie stanowi charakterystyczny przykład nagłej intuicji, pojawiającej się w
zespole, który przez dłuższy okres nie czynił postępów, zmagając się z trudnym zagadnieniem.
Rozwiązanie go wymaga zarówno wyobraźni, jak i wiedzy oraz bogatej infrastruktury, którą
przygotowuj ą inni ludzie. Crick, Brenner i Jacob posiadali ogromną wiedzę szczegółową na
temat wielu eksperymentów. Należało jednak wiedzieć, które z nich są najwłaściwsze.
Niełatwo odnaleźć przykład tego rodzaju kreatywności w naukach humanistycznych.
Odkrycie informacyjnego RNA jest dla nas szczególnie interesujące, ponieważ moment
odkrycia można uchwycić, a chwilę intuicji ustalić. Nie jest to jednak typowy przejaw postępu
naukowego, który narasta powoli, a przełom następuje w okolicznościach mało
dramatycznych. Gdyby rewolucyjnego przełomu w badaniach struktury DNA dokonali
badacze mniej charyzmatyczni niż Crick i Watson, rezultaty odkryć na pewno nie wywołałyby
równie silnego zainteresowania, nie zostałyby także w takim stopniu nagłośnione. Równie
istotny postęp w drugiej połowie XIX wieku spowodowało odkrycie, że chromosomy są nośni-
kami cech dziedzicznych. Dokonano go wskutek wielu małych, ale rozstrzygających
doświadczeń, lecz bez dramatycznych wydarzeń czy też olśnienia konkretnego uczonego.
Pojawia się pytanie o rolę geniuszu w nauce. W jakim stopniu przedsięwzięcia geniuszy
determinują powstawanie nowych idei i wyznaczają perspektywy dalszego rozwoju ludzkości?
Hipoteza zawarta w dziele Jose Ortegi y Gasseta „Bunt mas" (The Revolt ofthe Masses) głosi,
że geniusz nie jest konieczny, a „nauka eksperymentalna rozwinęła się w dużej mierze dzięki
pracy ludzi średnio zdolnych, a nawet mniej niż średnio". Nauka posługuje się zdrowym
rozsądkiem, wykorzystując go do swoich potrzeb, a zgodnie z tym poglądem rozwija się- w
pewnych przynajmniej dziedzinach - dzięki sumowaniu drobnych osiągnięć, ale bez żadnych
spektakularnych przełomów.
Poglądowi temu można przeciwstawić argumenty wynikające z analizy stopnia
wykorzystania literatury naukowej. Okazuje się, że osiemdziesiąt pięć procent prac
zamieszczanych w czasopismach naukowych cytuje się każdego roku raz albo ani razu, a
jedynie jeden procent-pięć lub więcej razy. W humanistyce dziewięćdziesiąt osiem procent
opublikowanych prac nie spotyka się z tego rodzaju oddźwiękiem w ciągu pierwszych czterech
lat, a w naukach ścisłych czterdzieści procent. Przedstawione dane niezbicie dowodzą, że
niezmiernie mały odsetek dzieł naukowych inspiruje uczonych i cieszy się uznaniem. W
biologii molekularnej dane procentowe są podobne. Dziesięć najważniejszych periodyków
tworzy autorytet tej dyscypliny, a pozostałe sto pięćdziesiąt ogłasza drukiem prace naukowe z
nastawieniem, że są one istotne.
Chociaż niektóre z pism mogą dominować w jakiejś dziedzinie, nie wiadomo, do jakiego
stopnia podlegają infrastrukturze tworzonej przez przeciętnych ludzi nauki. I znów nie idzie o
nagłe przełomy, lecz o długotrwałą pracę badawczą.
Hipoteza Ortegi dotyczy spornych kwestii: czy proces poznawczy następuje stopniowo, czy
nagłymi skokami, czy postęp nauki dokonuje się powoli, czy polega na radykalnym odrzucaniu
tradycyjnych twierdzeń i metod, a jego motorem jest praca zespołów badawczych, czy też
wynika on z intelektualnego buntu jednostek, od czasu do czasu dokonujących rewolucji.
Historyk Thomas Kuhn w książce „Struktura rewolucji naukowych" (The Structure ofScientific
Revolutions) uważa, iż do rozwoju wiedzy przyczyniają się badacze, którzy uprawiają „nor-
malną nauką", czyli wkładają wiele wysiłku w ustalanie ważnych faktów, w dopasowywanie
ich do teorii i w artykułowanie jej samej, ale pozostają wewnątrz danego paradygmatu, to
znaczy - nie rozwijają twórczo idei swego czasu. W przeciwieństwie do nich uczeni-
rewolucjoniści, tacy jak Darwin czy Einstein, dokonują zmiany paradygmatu. Nasuwa się
pytanie, dlaczego koncepcja skokowego postępu cieszy się niewielką popularnością, skoro
perspektywa sławy wielkich odkrywców wydaje się kusząca. Odpowiedzi można poszukiwać
wśród historycznych czynników sprzyjających doskonaleniu wiedzy naukowej. Najbardziej
jednak prawdopodobne wyjaśnienie brzmi: ponieważ niezmiernie trudno przedstawić nowe
idee.
Wielu naukowców zastanawia się nad tymi samymi zagadnieniami, dlatego mamy liczne
przykłady odkryć jednoczesnych i wielokrotnych. Wallace pojął istotę ewolucji przez dobór
naturalny prawie w tym samym czasie, co Darwin. Metody określania następstwa zasad w
DNA -fundamentalną kwestię inżynierii genetycznej - odkryli niezależnie od siebie Gilbert i
Maxam w Harwardzie oraz Sanger w Cambridge. Pod koniec ubiegłego stulecia prawa
genetyki odkryło prócz Mendla przynajmniej trzech biologów. Jedność dwóch zasadniczych sił
przyrody została ujawniona przez niezależnie pracujących fizyków (zob. rozdział V). A do
miana odkrywców wirusa AIDS pretendują zarówno biolodzy amerykańscy, jak i francuscy.
Ich lista jest długa.
Tradycyjna interpretacja równoczesnych odkryć głosi, że postęp naukowy zachodzi
ponadindywidualnie, a jego charakter determinuje środowisko naukowe jakiejś epoki -
Zeitgeist. Zgodnie z tym poglądem odkrycia są nieuniknione, a nauka nie zależy od działań
geniusza. Jedno, oczywiście, nie przeczy drugiemu; dlaczego w krótkim okresie nie może
pojawić się cała plejada genialnych uczonych? Odkrycie staje się koniecznością dopiero
wówczas, gdy nagromadzony opis zaobserwowanych faktów (zjawisk) zachęca
utalentowanych badaczy do postawienia problemu, skupienia na nim uwagi i wysunięcia
hipotezy, jak go rozwiązać.
Szerzy się pogląd, moim zdaniem fałszywy, że w okryciu naukowym istotną rolę odgrywa
„mądrość po fakcie" (serendipity). Ten niefortunny termin stworzył w 1754 roku Horace
Walpole dla nazwania odkryć dokonanych „mimochodem, przez przypadek i dzięki
roztropności umysłu". Mówię „niefortunny", ponieważ wydaje się on nie na miejscu w
kontekście dokonywania odkryć naukowych. Często czytamy doniesienia o odkryciach
ubocznych lub przypadkowych. Wymienia się wiele historycznych przykładów tego zjawiska:
odkrycie penicyliny przez Fleminga, radioaktywności przez Becquerela, wynalezienie środków
uspokajających itd. Główną rolę w każdym z tych osiągnięć odegrało ponoć szczęśliwe
zrządzenie losu. Czy tak było w istocie? Czy przypadkiem idea mądrości, o której mówimy,
nie została oparta na fałszywym wyobrażeniu natury nauki, a także samego przypadku? Sądzę,
że szczegółowe wyjaśnienie każdego z wymienionych przykładów doprowadziłoby do
odmiennych wniosków. Podstawą badań naukowych jest znajomość przedmiotu i metod,
ponadto samoświadomość i zdolność do refleksji, nie zaś przypadek.
Ludwik Pasteur, wybitny francuski biolog i lekarz, miał opinię szczęściarza. W wieku
dwudziestu pięciu lat, krótko po otrzymaniu dyplomu lekarza, przeprowadzał analizę kwasu
gronowego, związku chemicznego, który osadza się w beczkach podczas fermentacji
winogron. Pasteura zaintrygowało udokumentowane już spostrzeżenie, że kwas gronowy nie
rozpada się po przepuszczeniu wiązki spolaryzowanego światła, podczas gdy kwas winny, o
pozornie identycznym składzie chemicznym, obraca tę wiązkę w osobliwym kierunku. Pasteur
przygotował zatem kryształki kwasu gronowego i kiedy badał je pod mikroskopem, zauważył
wśród nich dwa rodzaje będące zwierciadlanymi odbiciami -jak lewa i prawa ręka. Znakomici
chemicy obserwowali kryształki już w przeszłości, ale pominęli to subtelne zróżnicowanie.
Pasteur dowiódł, że „praworęczne" kryształki są podobne do drobin kwasu winnego, a kwas
gronowy jest mieszaniną kryształków „lewo-" i „praworęcznych", które nie rolują światła. To
badanie zachęciło innych uczonych do poszukiwania „ręczności" (handedness) molekularnych
struktur. Samo życie w ogromnej mierze zależy od jednego rodzaju molekuł: lewoskrętne (wg
Pasteura leworęczne) aminokwasy to związki chemiczne, z których wytwarzane jest białko.
Twierdzenie, że Pasteur był szczęściarzem, oparto na mniemaniu, że francuskiemu biologowi
dopomogły same właściwości kwasu gronowego: analizował szczególną postać kryształków,
jedyną, którą można zobaczyć pod mikroskopem; jej rozdzielenie na dwie formy następuje
wyłącznie w temperaturze poniżej 26°C. Tymczasem Pasteur sam powziął świadomą decyzję,
aby zbadać kwas gronowy.
Innym przykładem tak zwanego „szczęścia" jest odkrycie przez Pasteura odporności
immunologicznej. Prowadził on badania bakterii wywołujących cholerę. Hodował je na
płytkach z agarem, a następnie zarażał nimi kurczaki. Pewnego razu zwierzętom zaszczepiono
starą kulturę, w której, jak się wydawało, bakterie obumarły. Ptaki nie zachorowały. Kiedy te
same osobniki zaszczepiono później nową kulturą, przeżyły one infekcję. Zdając sobie sprawę
ze znaczenia rozprawy Edwarda Jennera o szczepieniu krowianką przeciwko ospie, Pasteur do-
strzegł w tej praktyce podobieństwo do własnych badań i na cześć Jennera i jego prac nad
krowianką nazwał tę metodę szczepieniem (ang. vaccination; łac. vacca - krowa).
Gdy sugerowano Pasteurowi, że wiele jego osiągnięć to rezultat szczęśliwego zrządzenia
losu, odpowiadał z narastającą irytacją: „W dziedzinie obserwacji naukowej fortuna zawsze
sprzyja dobrze przygotowanemu umysłowi". To nie przypadek, że wielcy uczeni zawsze mają
szczęście.
W 1908 Aleksander Fleming zdał końcowy egzamin z medycyny i został nagrodzony Złotym
Medalem Uniwersytetu w Londynie. Roz
prawę „Ostra infekcja bakteryjna" napisał na konkurs o Medal Cheadle'a i wygrał go. Opisał w
niej wszystkie sposoby obrony przed bakteriami, jakie znała ówczesna medycyna. Oprócz
odporności pacjenta należy tu wymienić antyseptyki, środki przeciwko niektórym bakteriom
(takie jak rtęć używana w leczeniu syfilisu) oraz szczepionki. Te ostatnie były pasją
przełożonego Fleminga, Almotha Wrighta, a leczenie infekcji bakteryjnych -jego głównym
zajęciem. Rok później Fleming miał sposobność nadzorować badania salvarsanu, odkrytego
przez Paula Ehriicha związku chemicznego, który zabija wywołujące syfilis krętki blade.
Zadziwiający efekt leczenia salvarsanem pozwolił Flemingowi zrozumieć, że bakterie można
unicestwiać, stosując specjalną terapię chemiczną. Zastanawiał się nad metodami doboru
związków przeciwko poszczególnym chorobom. Podczas I wojny światowej Fleming
przebywał we Francji, gdzie zauważył, że antyseptyki nie zapobiegają infekcjom ran: rezultaty
leczenia były często lepsze, gdy w ogóle nie używano tych środków.
Jeśli to nie wystarczy, aby przekonać czytelnika o najwyższej gotowości umysłu Fleminga,
odkrycie przezeń lizozymu musi usunąć wszelkie wątpliwości. W 1922 roku szkocki noblista
dodał nieco śluzówki ze swego nosa, a był w tym czasie przeziębiony, do wyhodowanej kul-
tury bakteryjnej: wszystkie bakterie wokół zostały zabite. Z wielką starannością i cierpliwością
udowodnił, że w śluzówce aktywnie działa składnik ludzkich łez. Fleming nazwał go
lizozymem; tym samym jako pierwszy zwrócił uwagę świata na istnienie naturalnych
mechanizmów obronnych ludzkiego organizmu. Kiedy zatem pleśń zwana Penicilinum w 1928
roku spłynęła na płytkę z bakteriami i wszystkie bakterie wokół wymarły, Fleming był
doskonale przygotowany do poznania zjawiska. Biograf słynnego uczonego, Andre Maurois,
tak odtworzył tok myślenia wielkiego mikrobiologa:
„ Często widywałem zakażenia. Nigdy wcześniej nie widziałem jednak gronkowca ulegającego
rozkładowi wokół skażonej kolonii. Oczywiście, wydarzyło się cos nadzwyczajnego. W świetle
znanych mi faktów to zdarzenie było o wiele bardziej interesujące niż moje studia nad
gronkowcem, wiec bezzwłocznie je zarzuciłem. Jestem teraz rad, że kierowałem uwagę na
antyseptyki i że kilka lat temu w podobny sposób
dokonałem odbycia lizozymu - naturalnego środka antyseptycznego występującego w stanie
naturalnym. Biorąc pod uwagę poprzednie doświadczenia, prawdopodobnie wyrzuciłbym
płytkę, tak jak uczyniło to przede mną wielu bakteriologów".
Rzecz oczywista, że pleśń szczęśliwym trafem znalazła się na płytce uczonego, ale czyż nie
było przypadkiem także to, że Fleming urodził się w danym czasie, został lekarzem i
zainteresował się mikrobiologią? Tysiące, jeśli nie miliony epizodów kształtują nasze życie.
Dlaczego mamy skupić uwagę tylko na jednym? Byłoby to równie nierozsądne, jak uznanie
niektórych odkryć za całkowicie przypadkowe. Gdyby penicylinę odkrył Bobby Jones podczas
gry w golfa - to dopiero byłaby jaskrawa ilustracja przypadkowości.
W 1896 roku Henri Becquerel wykonał eksperymenty z solami uranu, które po naświetleniu
na słońcu emitują światło w ciemności. Doszedł do wniosku, że skoro uran potrafi zaciemnić
światłoczułą płytę fotograficzną, musi dzięki słońcu wydzielać pewien rodzaj promieni. Mimo
że słońce przestało tego dnia świecić, co opóźniło eksperymenty, Becquerel wywołał płytę
fotograficzną umieszczoną wcześniej w pobliżu uranu i stwierdził, że została zaciemniona,
chociaż nie naświetliło jej słońce. W ten sposób odkrył radioaktywność. Nie ma to jednak żad-
nego związku ze szczęściem: wywołanie płyt bez naświetlenia ich światłem słonecznym to
rodzaj oczywistej weryfikacji, którą przeprowadziłby każdy uczony.
Wynalazek wulkanizacji gumy wiąże się bardziej z historią techniki niż nauki, zresztą
większość odkryć związana jest z użytkowością i nie może być rozpatrywana w związku z
dążeniem czystej nauki do bezinteresownego poznania świata. Charles Goodyear podjął wielki
wysiłek wytworzenia gumy odpornej na zmiany temperatury - stało się to właściwie jego
obsesją. Poddawał gumę działaniu rozmaitych substancji, mieszał ją między innymi z siarką,
ale bez powodzenia. W 1844 roku przypadkiem przytknął mieszaninę gumy i siarki do
gorącego pieca i ku swemu zdziwieniu spostrzegł, że tylko trochę się zwęgliła, ale - co było
najbardziej przejmujące - pozostała elastyczna i mocna w dużej skali temperatur. Wynalazek
wulkanizacji jest, jak mi się wydaje, doskonałym przykładem postępu technicznego, który
dokonał się zarówno przed, jak i po odkryciu nauki przez Greków. Nie nauka, lecz ciekawość i
zdrowy rozsądek były potrzebne do wypróbowywania rozmaitych metod i wyboru najlepszej.
We współczesnej nauce jedynie najlepsi jej adepci są szczęściarzami. Rozwija się ona jak
podróż w nieznane, nieuchronnie stawiając uczonych wobec nieoczekiwanych problemów. Ani
to szczęście, ani przypadek. Naturę nauki stanowi to, że jeśli badamy zjawiska albo idee z jej
pogranicza, nie oczekujemy, że dostarczy to wskazówek do dalszej pracy. Rozstrzygając tę
kwestię Bruce Alberts, znakomity mikrobiolog, znalazł przekonujące argumenty przeciwko
przyznawaniu zbyt wielu funduszy jednemu badaczowi, który może stracić kontakt z rzeczywi-
stością, by zacząć żyć w sztucznym świecie sprawozdań spreparowanych przez młodszych
pracowników nauki. W tych okolicznościach, jak słusznie zauważa Alberts, istotne i
niespodziewane spostrzeżenia znikną z pola widzenia badacza, który dzięki swoim
zdolnościom i doświadczeniu potrafi pojąć ich prawdziwe znaczenie.
W istocie wielu uczonych dopiero poniewczasie zrozumiało znaczenie pojedynczego
zdarzenia. W jakimś sensie Arystoteles nie ukończył swych odkryć z tego właśnie powodu.
Powinien dostrzec sprzeczność w pomysłach, które dotyczyły spadania ciał, a z pewnością
odkryłby prawa rządzące kołysaniem się wahadła. Absurdalność mitu o przypadkowości
wynalazków wychodzi na jaw także wówczas, kiedy uświadomimy sobie, że dopiero dwa
tysiące lat po śmierci Arystotelesa Galileusz odkrył wahadło - kołyszącą się na ołtarzu lampkę.
Nowszego przykładu dostarcza lektura książki Petera Medawara „Republika Plutona" (Pluto 's
Republic). Autor opowiada o pomyłce w ocenie znaczenia pewnej obserwacji, która zdarzyła
się w jego zespole badawczym, co zniweczyło szansę poznania nowego i istotnego zjawiska z
zakresu immunologii. Chodziło o zachowanie się przeszczepionej tkanki w organizmie biorcy;
w owym czasie skupiono uwagę na reakcji biorcy na przeszczep. Przez całe życie otoczeni
jesteśmy niezliczoną ilością „faktów" i „przypadków". Umiejętność uczonego polega na tym,
by wiedzieć, które są ważne i jak je interpretować.
Rozdział V
Nienauka
•)QS\I wiedza naukowa jest szczególna i uprzywilejowana - w tym sensie, że oferuje nam
dokładniejsze rozumienie świata - to jak odróżnić naukę od nienauki? Jak potraktować żądanie
włączenia do grona uprzywilejowanych tych dziedzin, które większość uczonych odrzuca?
Ludzie, którzy zajmują się astrologią czy parapsychologią nieustannie apelują, by uznać te
dziedziny za naukowe. Poważniejszy charakter mają natomiast żądania akceptacji wysuwane
przez osoby zajmujące się skomplikowanymi obszarami ludzkiego zachowania, na przykład
psychoanalityków. Sporną kwestią jest także zgodność nauki z religią i z twierdzeniami
kreacjonistów.
Nie zawsze łatwo przytoczyć dostateczne powody odróżniania nauki od nienauki, uzasadnić
na przykład, dlaczego odrzuca się niektóre twierdzenia odnoszące się do zjawisk
paranormalnych. Kryterium falsyfikacji Poppera („Jeśli jakaś hipoteza nie może zostać
poddana procedurze stwierdzającej fałszywość twierdzeń, nie powinna być uznawana za
naukę") jest, niestety, mało przydatne, ponieważ wiele łatwych do sfalsyfikowania sądów,
takich jak na przykład: „Jedzenie hamburgerów zrobi z ciebie dobrego poetę", to oczywisty
absurd. Falsyfikacja stanowi kryterium konieczne, ale nie wystarczające. Dziedzina musi
spełniać szereg warunków, by mogła być uznana za naukę:
zjawiska, których dotyczy, powinni potwierdzić niezależni obserwatorzy; stosowane w niej
pojęcia muszą być spójne, a wyjaśnienia, które podaje, łączyć się z innymi gałęziami nauki. Do
wytłumaczenia złożonych zjawisk powinna wystarczać niewielka liczba praw i mechanizmów;
byłoby ideałem, gdyby nauka miała charakter „ilościowy", a jej teorie dały się wyrazić
matematycznie.
Rodzi się wątpliwość, czy dyscypliny wiedzy o społeczeństwie spełniają wymagania
naukowości. Posługują się one oczywiście niektórymi metodami stosowanymi przez tak zwane
nauki „ścisłe" - fizykę, biologię i inne. Hipotezy typowo naukowe winny być jednak
formułowane i sprawdzane tak często, jak to możliwe, chociaż osobliwością nauk społecznych
jest złożoność ich tematyki, i co się z tym wiąże - ogromna trudność interpretacji
przypadkowych związków. Niełatwo tu na przykład przeprowadzić takie doświadczenia jak w
fizyce, w której można zmienić jedną zmienną, zachowując pozostałe, i w ten sposób
obserwować wpływ badanej operacji na cały układ. Prosty przykład to badanie zmian ciśnienia
gazu o stałej objętości przy zmieniającej się temperaturze. W naukach „ścisłych" wielkim
powodzeniem cieszy się stanowisko „izolacjonisty". Nawet jeśli reprezentanci nauk społecz-
nych sami dostrzegą zależności pomiędzy różnymi zdarzeniami, trudno kontrolować wyniki i
rozstrzygać, które są niezbędne i godne zaufania. To dlatego wyrywkowe testy kliniczne są
istotne przy ocenianiu zabiegów leczniczych: efekt kuracji można sprawdzać przez porównanie
dwóch wybranych losowo grup, z których tylko jedna była leczona. W zestawieniu z biologią
jednak - bardzo trudno pozostać redukcjonistą na gruncie nauk społecznych.
Jako szczególny przykład teorii należącej do nauk społecznych wybrałem psychoanalizę.
Freud zaoferował nam bowiem wybór kuszących koncepcji, które miały i nadal mają istotny
wpływ na próby wyjaśniania ludzkich zachowań. Chciałbym się zastanowić, czy koncepcje te
odpowiadają wymaganiom stawianym przez naukę, w moim przekonaniu jeśli psychoanaliza w
ogóle jest nauką, to bardzo prymitywną i w pewnym sensie niedojrzałą. Dowód zaś zostanie
oparty na analogii pomiędzy osiemnastowieczną embriologią a psychoanalizą współczesną.
Dylemat, czy embriony są od początku ukształtowane, czy też rozwijają się stopniowo, może
dostarczyć użytecznego modelu początkującej nauki.
Początki wiedzy embriologicznej wiążą się z działalnością Hipokratesa (V wiek przed naszą
erą). Ten największy lekarz starożytnego świata za punkt wyjścia rozwoju przyrody uznał dwa
główne elementy
ciał naturalnych: ogień i wodę. Ta koncepcja może teraz wydawać się takim samym absurdem,
jak zafascynowanie Talesa wodą (rozdział III), ale stanowiła przynajmniej próba wyjaśnienia
natury rzeczy za pomocą ogólnej teorii. Do triumfu greckiej myśli embriologicznej przyczynił
się jednak Arystoteles, który sądził, że zarodek powstaje z krwi menstruacyjnej, a kształt
nadaje mu dynamiczny składnik męski. Arystoteles zadał sobie pytanie, czy wszystkie części
embrionu kształtują się w tym samym czasie, czy też rozwijają się sukcesywnie, a ów proces
przebiega jak wiązanie sieci rybackiej. Zainicjował tym samym kontrowersję między
preformacją a epigenezą. Otwierając jaja kurze w różnych fazach rozwoju, opierał dowodzenie
na analogii do wiązania sieci, a tym samym opowiadał się za teorią epigenezy, czyli za stopnio-
wym rozwojem organów embrionu. Odrzucił główne twierdzenie teorii preformacji - iż
zarodek od początku jest uformowany, tylko w miniaturze - opierając się jednak na
argumentach filozoficznych, nie na obserwacji.
Podstawą stworzonej przez Arystotelesa teorii rozwoju nie były żadne rzeczywiste
świadectwa. Obecnie wiemy, że embriony naprawdę rozwijają się w procesie epigenezy,
Arystoteles miał więc rację, choć przyjął fałszywe przesłanki: uczynił trochę więcej niż
rozwiązanie fascynującej zagadki. Postawił przy tej okazji ważne pytania dotyczące natury
ewolucji, a myślenie o niej niewiele zmieniło się aż schyłku lat XIX wieku. Po
przeprowadzeniu w XVII wieku szczegółowych badań rozwoju embrionu dwaj uczeni
angielscy, Fabricius i William Harvey, poparli teorię epigenezy, zgodną z wykładnią
Arystotelesa.
Pojęcie preformacji, przeciwstawiając się epigenezie, głosi, że wszystkie zarodki istnieją od
początku świata. Pogląd ten został po raz pierwszy dokładnie zdefiniowany w latach
siedemdziesiątych XVII wieku - między innymi przez biologów - Malebranche'a we Francji
oraz Swammerdama w Holandii. Podstawą koncepcji było przekonanie, że pierwszy embrion
zawierał już wszystkie następne. Istniały poważne wątpliwości, czy epigenezą jest możliwa,
wydawało się bowiem, że pomniejsza ona znaczenie sił boskich. Czy rzeczywiście można
cudowny rozwój tłumaczyć za pomocą mechanizmów opartych na naukowych
zasadach, takich jak siły fizyczne? Zwolennicy preformacji wierzyli, że wszystkie części
organizmu istnieją od samego początku i po prostu rosną. Jeśli teoria ta byłaby prawdziwa,
wówczas każdy embrion musiałby zawierać w zminiaturyzowanej formie wszystkie przyszłe
zwierzęta (albo rośliny), którym da początek. Malebranche'owi nie wydawało się niedorzeczne
to, że w jednym nasionku znajduje się niezliczona liczba drzew: taka myśl mogła wydawać się
przesadną tylko tym, którzy moc Boga mierzyli siłą własnej wyobraźni.
Osiemnastowieczni zwolennicy preformacji znajdowali odpowiedź na każdy rodzaj krytyki.
Kiedy francuskiemu wyznawcy tej teorii, Charlesowi Bonnetowi, przedstawiono argument
mówiący, że gdyby pierwszy królik zawierał zalążki wszystkich królików, to musiałby mieć w
sobie l010000 już ukształtowanych zarodków, odpowiedział po prostu, że wyobraźnię zawsze
można zmiażdżyć ciężarem cyfr. Bonnet opisał teorię preformacji jako najbardziej imponujące
zwycięstwo racjonalizmu: „Jeden z największych triumfów pojmowania rozumowego nad
zmysłowym".
Dzięki powstaniu teorii preformacji można było wyjaśnić wiele poważnych problemów
filozoficznych. Gdyby materia mogła kształtować istoty organiczne, niewielka rola
pozostawałaby Stwórcy. Ponadto sprawowanie kontroli nad rozwojem przez mechanizmy
fizyczne, jak sugerował Kartezjusz, wydawało się niemożliwe, ponieważ są one (np. prawa
ruchu) ślepe, tzn. nie maj ą określonego celu. W jaki sposób siły te mogłyby wygenerować
doskonały organizm? Według francuskiego biologa, Buffona, istnieje wewnętrzna matryca,
która nadaje embrionowi formę za pomocą „sił przenikliwych". Inni twierdzili, że zarodek za-
wiera jakiegoś „mistrza konstrukcyjnego". Ale takie teorie nie dawały żadnej rozsądnej
odpowiedzi i były ostro krytykowane przez innych zwolenników preformacji, takich jak
szwajcarski naukowiec Albrecht von Haller. Niezmienne wytwarzanie podobnych, harmonijnie
zbudowanych zwierząt wydawało się zbyt skomplikowane wobec prostych sił, które tworzą na
przykład kryształ soli.
Caspar Friedrich Wolff był natomiast gorącym zwolennikiem teorii epigenezy, a swoje
poglądy opierał na dwóch zasadach: na zdolności
zespolenia się fluidów roślinnych i zwierzęcych oraz na vis essentialis czy też sile witalnej,
które to czynniki miały wyjaśniać ewolucję. Wolff był racjonalistą, zwolennikiem i
propagatorem idei wystarczającego powodu (sufficient reason). Istota owej vis essentialis była
mu obojętna: „Wystarczy mieć świadomość, że ona jest, i rozpoznawać ją po przejawach
istnienia..." Nie podobało mu się, że preformacjoniści uznawali Boga za jedyną przyczynę
tworzenia. Jeden z głównych problemów słynnego sporu Wolffa z Hallerem dotyczył rozwoju
naczyń krwionośnych otaczających embrion, które u pisklęcia pojawiają się zadziwiająco
wcześnie. Haller był pewien, że istnieją one od początku i stopniowo stają się widoczne,
podczas gdy Wolff twierdził, że powstają w trakcie rozwoju zarodka. Założenie Wolffa, że jeśli
struktura nie istnieje, nie można jej zobaczyć, Haller uznał za nieuzasadnione.
Jedną z najbardziej atrakcyjnych cech fizyki jest to, że opisuje ona zbiór podstawowych
mechanizmów, za których pomocą można wyjaśniać wiele zjawisk. Zrozumienie tych
mechanizmów, na przykład praw Newtona, może nie być łatwe, ale i tak są one znacznie
prostsze niż różnorodne ruchy ciał, których objaśnienie stanowią. Główną trudność
rozwiązania kontrowersji między preformacją a epigenezą stanowił fakt, że proponowane
wyjaśnienia były tak skomplikowane, jak same zjawiska. Preformacją, wyrażając przekonanie,
że wszystko istniało od początku, jedynie wstępnie tłumaczyła zjawiska, a jej podstawowe po-
jęcia - „mistrz konstrukcyjny" (building master) i „siła witalna", gdy porównać je z teorią
epigenezy, są tak samo trudne do pojęcia, jak rozwój embrionalny.
Czy jakiś dowód mógł rozstrzygnąć spór na korzyść epigenezy lub preformacji? Odpowiedź
na to pytanie jest negatywna, ponieważ problemu nie udało się rozwiązać jeszcze przez
następne półtora wieku. Embriologia pozostawała nauką opisową i nie prowadzono żadnych
badań przyczynowych. Dopiero pod koniec XIX wieku, wraz z narodzinami embriologii
eksperymentalnej, kwestię tę zaczęto dokładniej definiować i ustalono niektóre wyniki.
Odkrycie, że wszystkie organizmy składają się z komórek, ukazało problem w zupełnie innym
świetle, ponieważ uświadomiono sobie, że nowe komórki powstają w trakcie rozwoju, przez
podział starych. Cytologia uczyniła postępy dzięki coraz lepszym mikroskopom, dowodząc, że
embriony mogą rozwijać się w procesie epigenezy, niedawno zaś odkryto, iż cały program tego
rozwoju jest zawarty w DNA. Idea preformacji umierała jednak powoli i jeszcze pod koniec
ubiegłego stulecia teoria Augusta Weismanna, który głosił, że determinanty znajdujące się w
jądrze komórkowym jaja kurzego są czynnikami kontrolującymi rozwój, była z założenia
preformistyczna.
Osiemnastowieczny i dziewiętnastowieczny spór wokół preformacji i epigenezy
odzwierciedlał początkowe stadium embriologii jako nauki, lecz pojawił się przedwcześnie.
Problem okazał się na tamte czasy zbyt trudny, ponieważ ludzie mogli pojąć w pełni proces
rozwoju organizmów tylko wobec postępu innych dziedzin biologii, zwłaszcza cytologii. W
tym miejscu można by przytoczyć słynny aforyzm Petera Medawara: „Nauka jest sztuką
rozwiązywania problemów".
Przedstawiona tutaj karta z dziejów embriologii pozwala na odnalezienie paraleli do
obecnego stanu teorii psychoanalitycznej. Czy psychoanaliza jest nauką? Czy pożyteczne może
okazać się rozważanie, czy zdrowy rozsądek istnieje, czy nie? Czy da się tu zastosować kryte-
rium falsyfikacji Poppera? Zagadnienie, które podejmuję, dotyczy jedynie twierdzeń
psychoanalizy na temat ludzkiego zachowania, nie zajmuję się natomiast jej terapeutyczną
skutecznością.
„Zamiarem naszym jest stworzenie psychologii, która będzie nauką naturalną, czyli
przedstawieniem procesów psychicznych jako wyrażanych ilościowo konkretnych stanów
cząstek materii". Oto pierwsze zdanie rękopisu Zygmunta Freuda z 1895 roku pt. „Projekt
psychologii naukowej" (Projectfor a Scientific Psychology). Pod koniec życia Freud
utrzymywał, że jego przedsięwzięcia mają status nauki naturalnej, a korzyści, które można
wyciągnąć z badań nad nieświadomym umysłem, „uprawniają do uznania psychologii za
naukę".
Niektórzy współcześni badacze obwiniają jednak Freuda o naukowe nieporozumienie
(scientific selfmisunderstanding). Część z nich uważa bowiem, że kryteria i metody nauk
fizycznych nie są odpowiednie do rozważań o psychoanalizie i złożonych aspektach ludzkiego
zachowania. W zamian proponują natomiast hermeneutykę, co oznacza, że psychoanaliza
powinna być rozpatrywana jako interpretacja zapisanego tekstu. Wyjaśnienia o charakterze
narracyjnym zawsze bowiem zależą od kontekstu i w skomplikowany sposób odnoszą się do
wszystkich zróżnicowanych wpływów kulturowych, które nań oddziałują. A jednak, jak
zawzięcie dowodził Adolf Griinbaum, takie podejście do zagadnienia tylko gmatwa sprawę.
Psychoanaliza mówi o tendencjach lub prawdopodobieństwie występowania pewnych
zachowań i są to faktycznie twierdzenia przyczynowe. Zjawiska rządzące podświadomością-
libido, kompleks Edypa i przede wszystkim zahamowania, weszły do naszego myślenia jako
zwyczajne schematy funkcjonowania psychiki człowieka. Pragniemy poznać stopień ich
wiarygodności, skoro psychoanaliza zmieniła już nasz sposób myślenia o ludzkim zachowaniu.
W centrum uwagi psychoanalizy znajduje się idea powstrzymywania niepożądanych myśli,
zbyt bolesnych czy też odrażających. Teoria ta wywodzi się z oryginalnych pomysłów Breuera
i Freuda z roku 1893 i można uznać ją za kamień węgielny, na którym zbudowano całą kon-
strukcję psychoanalizy. W trakcie leczenia hipnozą osób cierpiących na histerię Freud i Breuer
zauważyli, że symptomy ustępują, jeśli pacjent doznaje „kataraktycznego" oczyszczenia, które
ujawnia przyczynę choroby. Zaobserwowane zjawisko pozwoliło sformułować wniosek, że
pacjenci tłumią wspomnienia sytuacji związanej z powstaniem urazu, poprzedzającej
pojawienie się symptomu choroby, oraz że uraz ma kilka cech analogicznych do cech
symptomu. Słynnym przykładem stała się pacjentka Breuera, Anna O., którą dręczył lęk przed
płynami. Breuer i Freud twierdzili, że usiłowała ona stłumić obraz psa pijącego wodę ze
szklanki jej przyjaciela, co budziło w niej odrazę. Podczas przywoływania tego wydarzenia
tłumienie zostało zlikwidowane i nastąpił zanik symptomu. Przypadek ten został uznany przez
Freuda za model, w którym istotne były nie tylko niedawne urazy, ale również stare, a ich
objawy odzwierciedlały dziecięce przeżycia o charakterze seksualnym. Jak na ironię najnowsze
świadectwa wskazują, że Anna O. była daleka od wyleczenia i miała kilka nawrotów choroby.
Psychika człowieka, zdaniem Freuda, składa się z trzech warstw:
ego, id oraz superego, a każda z nich w inny sposób kontroluje przepływ „energii psychicznej".
Id jest częścią podświadomości, którą rządzą siły irracjonalne, takie jak agresja i pożądanie
seksualne, podczas gdy ego działa racjonalnie, a superego funkcjonuje jako sumienie moralne.
Ego pozbawia energii wszystkie nieprzyjemne skojarzenia, tłumiąc pewne wspomnienia lub
uczucia, które wciąż jednak tkwią w podświadomości. Ego chcąc utrzymać tłumione myśli pod
kontrolą, nie ma oczywiście łatwego zadania, przykładowo podświadome pragnienie, aby
komuś zaszkodzić, wymaga obronnych manewrów, w których wyniku przyjmuje całkiem inną
postać. Może także pojawić się we śnie. Nawet jeśli niektóre z idei Freuda są nowatorskie i
zaskakujące, to noszą znamiona rozumowania potocznego, ponieważ umieszczają w naszym
umyśle jak gdyby trzy osoby, których zachowanie i uczucia znamy lepiej lub gorzej. Nasze
postępowanie jest efektem ścierania się ich postaw.
Kiedy około 1920 roku Popper zetknął się z pomysłami Freuda, stwierdził, że
psychoanalitycy dostrzegają we wszystkim przykłady potwierdzające ich założenia: świat jest
pełen dowodów przyjętej teorii. Bez względu na okoliczności zawsze chętnie przykłady te
wyjaśniali. W ich ciągłym poszukiwaniu racji Popper dostrzegał słabość indukcyjnej
metodologii psychoanalityków. Odrzucił tym samym weryfikację teorii jako podstawy
naukowej metody i sugerował, że tylko falsyfikacja stanowi ważne kryterium naukowości.
Według Poppera „obserwacje kliniczne, które -jak naiwnie wierzą psychoanalitycy -
potwierdzają ich teorie, nie czynią tego lepiej niż dowody, które powszechnie stosują
astrolodzy". Czy oznacza to jednak, że gdyby psychoanaliza okazała się podatna na
falsyfikacie, byłaby nauką?
Griinbaum dowodzi, że krytyka Poppera była niesprawiedliwa, czyż bowiem Freud nie
zmodyfikował swych teorii po doświadczeniach klinicznych? Czyż nie rozważał nawet
możliwości odejścia od psychoanalitycznej metody badania, gdy jego teoria histerii, oparta na
uwiedzeniu, upadła, skoro okazało się, iż pacjenci z rozpoznaniem tej przypadłości
fantazjowali. (Jedną z osobliwości i słabości metody psy-
choanalitycznej jest to, że zwykle nie sposób stwierdzić, czy wspomnienia z wczesnych lat
życia pacjenta to fakty, czy fantazja. Zagmatwało to problemy dotyczące nadużyć
seksualnych.) Inne uwagi odnoszą się do teorii paranoi. Freud zakładał, że paranoiczne
fantazmaty wywołuje wyłącznie tłumiona miłość homoseksualna. Jedna z jego pacjentek,
młoda kobieta, sądziła, że mężczyzna, z którym była związana, organizuje intymne spotkania
tak, aby je sfotografować i ją zhańbić. Podczas wstępnej sesji psychoanalitycznej Freud nie
stwierdził żadnych skłonności homoseksualnych, stanął więc przed wyborem: albo teoria jest
fałszywa, albo podejrzenia młodej kobiety wobec kochanka uzasadnione? Gdyby rzeczywiście
była ona paranoiczką, Freud porzuciłby teorię, że mania prześladowcza zależy od
homoseksualizmu. Zamiast jednak chwalić Freuda za akceptowanie falsyfikacji, powinniśmy
podchodzić do jego wniosków krytycznie. Czy mógł być pewien, że pacjentka nie ma
skłonności homoseksualnych? Jak, nawet po latach analiz, mógł wykluczyć obecność
homoseksualnego uczucia w jej życiu? Przecież nie musiało się ono pojawić podczas seansów.
Tym samym niełatwo nam podać dobry przykład obalający psychoanalizę, wręcz przeciwnie:
widać, jak trudno, jeśli to w ogóle możliwe, wykazać, że podobna teoria jest fałszywa.
Freud traktował sny jak łatwą drogę do wiedzy o nieświadomych działaniach umysłu i
twierdził, że przyczyną wszystkich snów są pragnienia tłumione w okresie dzieciństwa. Krótko
mówiąc, w czasie snu czuwanie ego nad id słabnie, niepożądane myśli próbują przedostać się
do świadomości i jeśli im się to uda, mogą spowodować przebudzenie. Niechciane myśli
kojarzą się z niedawnymi przeżyciami i prawdziwe „znaczenie" lub „utajona treść" snu zostają
przeobrażone w przedziwne i symboliczne formy. Można by zapytać o przyczynę tego rodzaju
transformacji.
Freud zrewidował swoją podstawową teorię, że wszystkie sny są spełnieniem nieświadomych
życzeń. Miał poczucie, iż skutecznie wyzbył się obiekcji na temat idei opartej na
występowaniu snów lękowych i związanych z karą- sny te, wyjaśniał, były zaspokojeniem nie
instynktownych impulsów, ale zaspokojeniem cenzurującego, krytycznego
superego. Nadal jednak uważał część snów za niewytłumaczalne, np. sny ofiar urazów (viclims
oftraumas), takich jak wojna. W rojeniach tych pojawiają się zwykle przeżycia związane z
samym urazem, przy czym Freud nie mógł zrozumieć, jaka psychiczna potrzeba może być
zaspokajana przez ciągłe powracanie do przykrych doświadczeń. Nie ma bowiem żadnej
wskazówki, jak zdefiniować pojęcie urazu, ani dowodu, że jakaś potrzeba została zaspokojona.
Opisywane tu sposoby rozumowania to raczej parafraza nauki i jej metod, ponieważ zarówno
same zjawiska, jak i teoria zostały po prostu niewłaściwie opisane. Problematyka
psychoanalizy nie należy do filozofii, ale tkwi w naturze samej teorii i jej przedmiocie: wiele, a
może nawet wszystkie pojęcia zdefiniowano tak niedokładnie, że niepodobna jasno i
obiektywnie interpretować zjawiska, które brane jest pod uwagę. Jak na przykład wyjaśnić
problem urazu? Jeżeli powstał on na tle widoku psa pijącego ze szklanki, to charakter
traumatogenny mogą mieć tysiące wydarzeń z naszego życia. Czy wobec tego ktokolwiek jest
wolny od urazów psychicznych? Kolejna słabość teorii Freuda dotyczy roli tłumienia popędów
w powstawaniu nerwic: wydaje się, że jest ono warunkiem koniecznym, lecz
niewystarczającym. W jakich bowiem okolicznościach tłumienie urazów staje się przyczyną
objawów klinicznych? Dopóki nie zostanie to szczegółowo i jasno opisane, o żadnej teorii
naukowej nie może być mowy: w najlepszym razie mamy do czynienia ze słabą, nieprecyzyjną
interpretacją zjawisk. Co gorsza, podstawowych danych psychoanalizy nie mogą zweryfikować
niezależni obserwatorzy.
Zajmijmy się zatem pojęciami id, ego i superego, choć każde z nich jest tak skomplikowane,
jak zjawisko, które usiłuje określić. Dodajmy do tego pojęcia: energia psychiczna, różne stadia
rozwoju, takie jak stadium oralne i analne, a każde z nich wyraźmy całą gamą ludzkich emocji
- odrazą, gniewem, pożądaniem czy zazdrością, uzupełnijmy je wreszcie pozytywnymi, jak i
negatywnymi interakcjami. W zasadzie wysnuwanie jakichkolwiek sensownych przesłanek lub
tworzenie wyjaśnień w takiej sytuacji wydaje się niemożliwe: pojęcia są tak niejasne, że prawie
nie można wyobrazić sobie zachowań, które potwierdzałyby lub negowały opisywaną teorię. W
pewnym sensie jednak psychoanalityczne pomysły rozszerzają zdroworozsądkowe rozumienie
ludzkiego zachowania i dlatego są tak nęcące. Nie powinniśmy negować pożytku zbierania
danych, które pomagają ustalić związki wcześniejszych przeżyć z wzorcami zachowań. Bardzo
istotne jest na przykład stwierdzenie, że wczesna rozłąka dziecka z rodzicami ma poważny
wpływ na jego rozwój.
Inny aspekt nienaukowej natury psychoanalizy to współistnienie różnych „szkół" - Freuda,
Klein, Junga itd. Zapytajmy, czy można zlikwidować dzielące je różnice. Czy jakieś dowody,
badania lub nowe dane mogłyby przekonać jedną z grup do zmiany poglądów? Moim zdaniem
to raczej niemożliwe. Między innymi dlatego, iż każda grupa stworzyła zamknięty system.
W tej chwili nie uda się też przeprowadzić doświadczeń negujących teorię psychoanalizy na
niższym poziomie organizacji, to jest dotyczących czynności mózgu. Współczesne wyjaśnienia
marzeń sennych, formułowane za pomocą terminów neurofizjologicznych czy
informatycznych, nie objaśniaj ą zawartość i poszczególnych snów. Jakże zatem można
wykazać, że nie istnieje id lub kompleks Edypa? Nie sposób dziś powiązać pomysły
psychoanalizy z jakąkolwiek dziedziną wiedzy: są one, jak dotąd, całkowicie
samowystarczalne.
Obecna sytuacja w psychoanalizie przypomina badania rozwoju embrionu w XVIII wieku.
Nie można było wówczas rozstrzygnąć sporu między zwolennikami teorii epigenezy i
wyznawcami preformacji z powodu niskiego poziomu wiedzy biologicznej i techniki. Trudno
zaprzeczyć, że osiemnastowieczni embriolodzy byli naukowcami: przeprowadzali
doświadczenia i obserwacje na miarę swoich możliwości -ale tworzyli argumenty niedojrzałe i
prymitywne. Rywalizujące grupy miały ogromne trudności z wyjaśnieniem, dlaczego w
embrionie pojawiają się wysoko uorganizowane formy, odwoływały się zatem do koncepcji
mistrza konstrukcji (building master) bądź siły witalnej (vital force), czy też zakładały po
prostu, że wszystko zostało stworzone wcześniej. Były to w istocie teorie sformułowane ad
hoc, równie skomplikowane, jak zjawiska, które miały objaśniać. Pod tym względem
przypominają one system ego, id i superego oraz klasyfikację uczuć przypisywanych
podświadomości.
Zwolennicy psychoanalizy mają do czynienia z problemami o wiele trudniejszymi niż rozwój
embrionu. Nie tylko poruszaj ą bardziej złożoną tematykę, ale i dostęp do badań
eksperymentalnych mają w większym stopniu utrudniony. Nie wiadomo, jaki ekwiwalent
„komórki" pozwoli zrozumieć ludzkie zachowanie ani też - czy w ogóle taki istnieje. Z tego
punktu widzenia psychoanaliza staje przed większymi problemami niż osiemnastowieczna
embriologia.
Nie powinniśmy ufać teoriom, które bardzo łatwo włączyć do naszego codziennego
myślenia, a do takich należy psychoanaliza. Jeżeli świat przyrody rządzi się prawami
odbiegającymi od zdrowego rozsądku, byłoby zaskakujące, gdyby działania mózgu, najbardziej
skomplikowanego organu, dały się tak łatwo rozpoznać. Najnowsze badania ujawniły na
przykład, jak niezwykłym zjawiskiem jest mówienie. Samogłoski funkcjonują inaczej niż
spółgłoski, a czasowniki i rzeczowniki, jak okazuje się przy uszkodzeniach poszczególnych
obszarów mózgu, przechowywane są w różnych jego częściach. Nawet rzeczowniki żywotne
oraz nieżywotne są umiejscowione osobno.
Można dowieść, że ludzkiego zachowania i myślenia nigdy nie uda się wyjaśnić, tak jak
zjawisk omawianych w fizyce czy naukach biologicznych. Uważa się na przykład, że próba
zredukowania świadomości do fizyki czy biologii molekularnej jest po prostu niemożliwa.
Założenie takie tym bardziej należy uznać za bezpodstawne, że nie potrafimy stwierdzić, czego
nie wiemy i co nam przyniesie przyszłość. Bez względu na to, czy analogia pomiędzy
komputerami a mózgiem jest właściwa, opinie o sposobie myślenia i funkcjonowaniu mózgu
pozostają pod jej wpływem. Nauka charakteryzuje się tym, że nie można zrobić postępów w
jednej dyscyplinie, dopóki nie nastąpią one w dziedzinie pokrewnej. Ostatnie osiągnięcia w
badaniach nad nowotworami byłyby całkowicie uzależnione od rozwoju biologii molekularnej.
Proces starzenia się to kolejne zagadnienie, które zdaje się jeszcze przerastać możliwości
współczesnych badaczy. Pomimo burzliwych dyskusji na ten temat, w których rozważano, czy
starzenie się jest zdeterminowane genetycznie, czy też odzwierciedla nagromadzenie przy-
padkowych pomyłek w genach i białkach w komórce, uczyniono niezwykle małe postępy.
Dopóki nie poznano mechanizmu działania genów i ich sposobu kontrolowania zachowania się
komórek, nie można było nawet myśleć o tym problemie w konkretnych kategoriach, a nawet
teraz trudno określić, jaki program badawczy byłby odpowiedni. Z tego powodu stosunkowo
niewielu naukowców bada proces starzenia się.
Czy zjawiska paranormalne powinny być traktowane w ten sam sposób? Czy należy uznać je
za obszar niedostępny nauce, który w końcu okaże się produktywny? Ci, którzy wierzą w
lewitację, telepatię, psychokinezę i astrologię, twierdzą, że współczesna nauka nie określa isto-
ty i charakteru tych zjawisk. Więcej, narzekają, że konwencjonalna nauka całkowicie ignoruje
te tematy, które pozostają w sprzeczności z głównym nurtem myśli ludzkiej i dzięki temu
mogłyby ukazać nowe wymiary ludzkich możliwości i zachowań.
Znamy liczne relacje o zjawiskach paranormalnych, ale prawie wszystkie te opowieści mają
charakter anegdotyczny. Dobry dowód przeprowadzony w obecności niezależnych
obserwatorów, najlepiej z udziałem zawodowego iluzjonisty, który potrafiłby wykryć
oszustwo, jest praktycznie nie do wykonania. Uważa się, że w takiej sytuacji przedmiot badań
zyskuje samoświadomość i tym samym eliminuje zjawisko paranormalne. Dostęp do jego
istoty jest zatem bardzo trudny. A jednak krąży wiele opowieści na temat zjawisk
paranormalnych. Pojawia się też pytanie, w jaki sposób nauka ma zajmować się lewitacją lub
telepatią. Zjawiska te nie zostały dotychczas naukowo wyjaśnione. Co więcej, pozostają w
takiej niezgodzie z fizyką, że przy braku przekonujących dowodów trudno je traktować
poważnie. Lewitacją i telepatia może istnieją, Jej Wysokość, królowa Anglii, może być
rosyjskim szpiegiem - oba te twierdzenia wymagają jednak solidnego dowodu, aby przekonać
nas do zmiany poglądów. Trudno się jednak nie dziwić Michaelowi Faradayowi, który,
namawiany do uczestniczenia w doświadczeniach spirytystycznych, odpowiedział ostro:
„Zostawię duchy, aby same odkryły, w jaki sposób mogą zwrócić moją uwagę. Jestem nimi
zmęczony".
Wiele tak zwanych zjawisk paranormalnych odpowiada kryteriom Irvinga Langmuira nauki
patologicznej. Ów wybitny chemik wymyślił ten termin przed czterdziestu laty na
nieoficjalnym, a obecnie sławnym wykładzie. Skupił się na tych zjawiskach, które w pewnym
momencie wstrząsnęły światem nauki, a o których później zapominano. Kryteria uznania
zjawisk za patologiczne są według Langmuira następujące:
maksymalny obserwowany efekt jest bardzo mały, więc niezmiernie trudno go wykryć;
nasilenie efektu pozostaje niezależne od przyczyny;
od obserwatorów należy żądać wielkiej dokładności; zjawiskom towarzyszy zwykle
fantastyczna teoria; krytykę równoważą doraźne usprawiedliwienia. Wymienione kryteria
doskonale spełniają bardzo popularne w swoim czasie próby czytania w myślach, oparte na
spostrzeganiu pozazmysłowym. Uczestników tego typu eksperymentów proszono o
odgadnięcie litery napisanej na kartce, zasłoniętej przez przeprowadzającego doświadczenie.
Często osiągano wynik statystycznie lepszy niż prawdopodobieństwo odgadnięcia przez
przypadek, więc założono, że telepatyczna komunikacja istnieje. Podczas analiz statystycznych
okazało się jednak, że pewne grupy danych były lepsze od innych. Pojawiły się oskarżenia o
oszustwo i w kilku przypadkach zostało ono dowiedzione. Po fali entuzjazmu eksperymentów
całkowicie zaniechano, choć bez wątpienia pojawią się ponownie w tej czy innej formie.
Wiele dowodów na istnienie zjawisk paranormalnych mówi o bardzo banalnych sprawach,
takich jak odgadywanie wartości zakrytych kart czy współwystępowanie dwóch rzeczy lub
zjawisk. Mogą one prowadzić do wniosku, że każdy może zajmować się nauką i nie wymaga to
żadnego przygotowania. Podczas gdy tradycyjną wiedzę naukową zdobywa się w staranny
sposób, bez nagłych przełomów i przebłysków geniuszu, charakterystyczną cechą wszystkich
odkryć dotyczących zjawisk paranormalnych pozostaje to, że dokonuje się ich bez specjalnej
wiedzy. Oferują one wiedzę „za darmo". Muszę tutaj powiedzieć, jak trudno w dziedzinie,
którą uprawiam - embriologii - ustalić nawet najprostszą prawdę, chociażby to, kiedy komórki
rozwijającego się ramienia zaczynają stawać się kością, jak więc zestawić to rozumowanie
z dowodami na istnienie takich zjawisk nadprzyrodzonych, jak lewitacja czy psychokineza.
Maleńka cząstka mojej wiedzy wymaga wieloletniej pracy, a doświadczenie z lewitacją-
chociaż kwestionuje podstawy fizyki - może zostać zaakceptowane w mgnieniu oka.
Brak ścisłych wymagań, które ma spełniać wiedza naukowa, oraz koncepcja witalizmu łączą
zjawiska paranormalne z niektórymi elementami paramedycyny. Witalizm jest ideą, która
odniesiona do ludzkiego życia, szczególnie świadomego, oznacza specjalną jakość zawsze
pozostającą poza tradycyjną nauką. Zwykle wiąże się z poglądem anty-redukcjonistycznym, że
życia nie można rozpatrywać jedynie w kategoriach fizyki i chemii, a jest bardziej wskazane
podejście holistyczne. Chociaż nauka rozstrzyga problem, jak powiązać różne stopnie
organizacji organizmu - wewnątrzatomowy, chemiczny, komórkowy i wewnątrz organiczny - a
następnie decyduje, od którego z nich rozpocząć rozwiązywanie jakiejś grupy zagadnień, to
kwestia ta nie interesuje witalistów czy antyredukcjonistów. Filozofia holistyczna z założenia
bowiem musi zmierzać ku nienaukowości, ponieważ wyklucza oddzielne studiowanie części
systemu, uniemożliwiając tym samym ich izolowanie i badanie rozważania do pozostałych.
Gdyby każdy proces poznawania całości zależał od jednej części, nauka nie mogłaby osiągać
swych celów. Można badać komórki poza organizmem żywym, a poszczególne reakcje
chemiczne niezależnie od komórki - na takiej izolacji poszczególnych części polega sukces
biochemii - ale nie można zaprzeczyć doniosłości studiów nad całością. Niechęć holistów do
biologii molekularnej i ich dążenie do odkrycia specjalnych sił życiowych skutecznie
przywracają wiarę w duszę i życie pozagrobowe. Opisy zjawisk nadprzyrodzonych także
mówiąc magicznych siłach, które umożliwiają ludziom bezpośrednią kontrolę otoczenia i
swego zdrowia. Takie przekonania są bardzo kuszące i w luźny sposób wiążą się z witalizmem.
Zastanawiające, że tak wielu ludzi pozwoliło się oszukiwać Uriemu Gellerowi, który
twierdził, że posiada nadzwyczajną moc, a swe zdolności demonstrował wyginając na
odległość łyżki. (Nikogo nie niepokoiło, że zginały się zawsze w najcieńszym miejscu -
zniekształcenie miseczki łyżki byłoby bardziej imponującą sztuczką). Nawet niektórzy
socjologowie sądzili, że być może właśnie dokonuje się rewolucja naukowa - w rozumieniu
Kuhna -jak osiągnięcia Einsteina czy Darwina. Ci, którzy badali problem, nie wiedzieli, czy
metal wyginał się „rzeczywiście", czy nie - to ich zresztą nie obchodziło, tak jak nie obchodziło
socjologów - nie przedstawiało żadnej wartości dla ich analiz. Niestety, pominęli oni naprawdę
interesujący aspekt - dlaczego tak wielu ludzi daje się nabierać na absurdalne historyjki. Z
jakiego punktu widzenia nie spojrzeć na tę kwestię, w rzeczywistości znaczenie ma tylko fakt,
czy wyginanie było oszustwem. Choć ze zrozumiałych powodów socjologowie pragną
zachować neutralność w tym sporze, powinni pojąć, że twierdzenia Gellera znajdują się poza
obszarem nauki. W przeciwnym wypadku można by równie dobrze prowadzić badania nad
wyciąganiem królików z cylindrów czy przepiłowywaniem na dwie części zamkniętych w
skrzyni kobiet.
Czy jednak, zachowując tradycyjny naukowy punkt widzenia, nie pominiemy odkryć
dokonanych przez „amatorów"? Znakomity, niedoświadczony naukowiec, pracujący poza
ośrodkiem akademickim, być może w suterenie, pogardzany przez rządzące elity, mógłby
funkcjonować podobnie jak wielki artysta, zaniedbany i głodujący na poddaszu. W bieżącym
stuleciu historia nauki nie dostarczyła takiego przykładu. Owemu romantycznemu
wizerunkowi bliski był młody Einstein, który pracował, nieznany nikomu, w szwajcarskim
urzędzie patentowym. Dopiero kiedy w redakcji czasopisma naukowego artykuł młodego fi-
zyka wywarł silne wrażenie na wydawcy, ów wysłał do Zurychu kolegę, aby dowiedzieć się
czegoś więcej o godnym uwagi autorze. Geolog Wegener też był bardzo źle traktowany, gdy
przedstawił swą teorię dryfowania kontynentów. Mimo to opowiadam się za zdecydowanym
odrzucaniem absurdu: całkowicie otwarte umysły mogą okazać się całkowicie puste. Hipotezę,
że Mars składa się z czerwonego sera, można zanegować, stosując kategorie Poppera. Czy
powinniśmy jednak traktować twierdzenia tego typu poważnie? Nie, powinniśmy je odrzucać,
ponieważ nie mają nic wspólnego z nauką.
Fizyk Richard Feynman po wysłuchaniu opowieści o latających spodkach powiedział, że ich
istnienie nie jest niemożliwe, lecz po pro-
stu nieprawdopodobne. Jego rozmówca oświadczył wówczas, że Feynman wyraża się w
sposób nienaukowy. Jak można powiedzieć, że coś jest nieprawdopodobne, skoro nie sposób
udowodnić, iż jest niemożliwe? Feynman odpowiedział, że naukowe jest jedynie to, co można
określić jako bardziej lub mniej prawdopodobne, toteż jego przypuszczenie jest tym bardziej
wiarygodne. Według Feynmana rozwój nauki następuje śladem kolejnych przypuszczeń,
których implikacje są sprawdzalne eksperymentalnie.
Astrologia to kolejna dziedzina słusznie zapewne uznawana przez uczonych za absurdalną.
Za moment decydujący o życiu osoby uważa ona chwilę narodzin: astrolog wykonuje więc
obliczenia, aby ustalić, w jakim położeniu znajdowały się wówczas planety. Wykres momentu
narodzin ukazuje wzór „kosmicznych oddziaływań", których interpretacja zawiera ocenę
różnych interakcji pomiędzy Słońcem, Księżycem a dziewięcioma planetami, co daje mnóstwo
kombinacji do wyboru.
Przez wiele stuleci astrologia cieszyła się ogromnym autorytetem. Powszechnie
utrzymywano, że niebiosa mają wpływ na wszelkie ziemskie wydarzenia. Mniemanie to
odnajdziemy w dziełach Arystotelesa, Bacona i Keplera. Już jednak święty Augustyn ostro
potępiał astrologię, uznając, iż ujarzmia ona ludzką wolną wolę. Bliźnięta, które urodziły się w
tym samym czasie, mogą mieć przecież zupełnie różne charaktery. Astrolodzy odpowiadali na
to, że momenty narodzenia bliźniąt są w rzeczywistości różne. Augustyn replikował, że jeśli
bierze się pod uwagę tak małe odstępy czasu, to prawdziwość przepowiedni jest bardzo
podejrzana - nie mógł uwierzyć w taką precyzję. Jak to często bywa w pseudonauce, dyskusje
tego rodzaju nie spowodowały wielkiego postępu.
Szesnastowieczny astrolog Hieronim Wolf przepowiedział datę własnej śmierci i rozdał swe
dobra, kiedy się ów termin zbliżał. Wyznaczonego dnia nic się jednak nie wydarzyło, a Wolf
był zbyt zawstydzony, aby domagać się zwrotu własności; swą pomyłkę tłumaczył
niewłaściwym określeniem położenia planety Mars, pokazując tym samym, jak można
uchronić przepowiednie astrologiczne przed falsyfikacją. I nawet jeśli pewne twierdzenia da się
sfalsyfikować, nie znaczy to, że astrologia jest nauką.
Wysuwano teorie, że układy gwiazd wpływają na życie psychiczne jednostki. Wielu
naukowców rodzi się, na przykład, kiedy wzejdzie Saturn, bardzo mało zaś pod domeną
Jowisza. Każda jednak współzależność opiera się na poszukiwaniu przyczyny i skutku, toteż
nie jest jasne, które twierdzenia można uznać za naprawdę astrologiczne. Nie-wiarygodność
powodu, dla którego planety miałyby wywierać wpływ na nasze życie, stwierdzono już za
czasów Newtona, kiedy to nastąpił wówczas zanik zainteresowania astrologią wśród poważnie
myślących ludzi. Jeśli nie uda się zbudować pomostu między tą dyscypliną a resztą nauki,
pozostanie ona pseudonauką, podobnie jak i inne teorie związane ze zjawiskami
paranormalnymi. A ponieważ wierzy w nią tak wielu ludzi na całym świecie, jest ona kolejnym
przykładem atrakcyjności magicznego myślenia.
Naukowe rozumowanie jest dla psychiki niewygodne, podczas gdy magię można postrzegać
jako sposób obrony ludzkiego Ja" przed wrogim światem. Zachodzi uderzające podobieństwo
między pewnymi wyobrażeniami pozazmysłowymi, a wierzeniami dzieci, które nadają
magiczny kształt swemu obrazowi świata, tak jak opisał to Piaget (rozdział I). W wielu
wypadkach dziecko odnosi wrażenie, że rzeczywistość może zostać przekształcona przez myśl,
a wola jednego przedmiotu może oddziaływać na wolę innych. Wyobraźnię dziecka chara-
kteryzuje magiczna p rży czy nowość, zgodnie z którą wszystkie rzeczy obracają się wokół ja".
Nie wolno nie doceniać zdolności okłamywania siebie samych, nawet wśród naukowców,
przekonania mogą mieć ogromny wpływ na obserwacje. W XVII wieku Marcello Malpighi
wierzył, że embrion kurczęcia jest ukształtowany już w jaju, choć dokładne obserwacje do-
starczały dowodów wręcz przeciwnych. Inny przykład sprawy, której nigdy należycie nie
wyjaśniono, to promienie N.
W 1895 roku odkryto promienie X, a wkrótce potem zidentyfikowano promieniowanie
radioaktywnych materiałów innego typu. Renę Blondlot, znakomity fizyk francuski, ogłosił w
1903 roku, że odkrył formę promieniowania, którą na cześć uniwersytetu w Nancy nazwał
promieniami N. Inni naukowcy także zaczęli badać to nowe zjawisko
o nadzwyczajnych właściwościach, na przykład wszystkie materiały, przez które przechodziły
promienie N, nie przepuszczały zwykłego światła. Wielu fizyków kwestionowało zasługi
Blondlota twierdząc, że już wcześniej odkryto promieniowanie N. Liczba artykułów na ten te-
mat w największym francuskim czasopiśmie osiągnęła apogeum w 1904 roku i wówczas
laboratorium Blondlota odwiedził amerykański fizyk, R.W. Wood, a relację z tej wizyty ogłosił
w czasopiśmie Naturę. Wood był przekonany, że promieniowanie N nie istnieje. Nie tylko wy-
konał wszystkie testy Blondlota przy uszkodzonej aparaturze, ale napisał jeszcze, iż rezultaty
nie zmieniały się nawet wtedy, gdy złośliwie usunął najważniejszą część urządzenia. Blondlot
początkowo starał się odeprzeć krytykę Wooda, ale nawet francuscy zwolennicy odkrycia za-
częli odnosić się doń coraz bardziej sceptycznie, zrezygnował więc z udziału w
rozstrzygającym teście zaproponowanym przez jedno z francuskich pism.
Podobna historia wydarzyła się w 1989 roku. Jacques Benvaniste, senior immunologów
pracujących w dotowanym przez rząd francuski laboratorium, opublikował w Naturę artykuł,
w którym twierdził, że woda ma pamięć. Jego doświadczenie polegało na rozpuszczeniu pew-
nej substancji tak bardzo, że według tradycyjnej chemii w roztworze nie powinno pozostać ani
śladu po pierwotnie obecnym związku. A jednak ten rozrzedzony roztwór miał podobne
działanie biologiczne do działania nie rozpuszczonej substancji. Benvaniste twierdził, że sub-
stancja chemiczna pozostawia w wodzie wspomnienie i jej czynności biologiczne nie zmieniają
się podczas nieobecności owego składnika. Uznano to za argument za homeopatią, według
której pewne leki działają tym skuteczniej, im bardziej są rozrzedzone. Na ów artykuł zamie-
szczony w najbardziej prestiżowym czasopiśmie naukowym wielu uczonych zareagowało
zdziwieniem, niektórzy nawet autorowi ubliżali. Jednym z warunków publikacji tej teorii miała
być wizyta przedstawicieli Naturę w laboratorium Benvaniste'a. Przybył tam więc wydawca
wraz z iluzjonistą (znanym z ujawniania oszustw) i specjalistą od wykrywania hochsztaplerów
naukowych. Nie znaleźli żadnego śladu oszustwa, ale twierdzenia francuskiego immunologa
też nie zostały udowodnione. Benvaniste uważał, że próbę przeprowadzono niewłaściwie i
nadal obstawał przy swoich tezach. I na tym polega problem. Może on zniknąć, podobnie jak
sprawa promieni N, ale najprawdopodobniej, poparty równie nieprzekonującymi dowodami,
pojawi się znowu jako kolejny przykład patologii nauki.
Pozostała jeszcze jedna część układanki. W dziejach ludzkiej wyobraźni fenomenalna okazała
się myśl Newtona o wzajemnym przyciąganiu się wszystkich ciał, choć w zjawisku tym -
przynajmniej teoretycznie - nie miało uczestniczyć żadne medium. Kiedy jednak Newton
sformułował teorię grawitacji, głosząc, że wszystkie ciała przyciągają się na pewną odległość z
siłą proporcjonalną do swojej masy, skomentowano tę koncepcję niczym omówienie zjawisk
nadprzyrodzonych. „Niektórych cieszy powrót do jakości okultystycznych... ale ponieważ
przestały być one szanowane, nazwano je siłami, zmieniając tylko nazwę..." - napisał wielki
filozof Leibniz. Dla niego przyciąganie grawitacyjne było „nie mającą sensu jakością
okultystyczną..której nikt nie zdoła wytłumaczyć, nawet duch, czy sam Bóg". Naukowiec
holenderski, Christian Huygens, również był nastawiony krytycznie: „Tego zjawiska nie
mógłbym uznać, ponieważ nie da się go objaśnić za pomocą założeń mechaniki czy praw
ruchu".
Newton wyjaśnił z typowym dla siebie temperamentem, że Leibniz zanegował wnioski, nie
poddając krytyce przesłanek, a jego argumenty oparł na hipotezach metafizycznych, podczas
gdy Newtona interesują wyłącznie doświadczenia. Zarzucał ponadto Leibnizowi, że ucieka się
do emocjonalnych wyrażeń, jak na przykład „cuda" czy „tajemnicze właściwości", ubliżając
prawu powszechnego ciążenia. Newton napisał nadto:
„ To niepojęte, że martwa, ślepa materia może bez przekształcania czegoś jeszcze, co nie jest
materialne, oddziaływać na inny przedmiot bez materialnego kontaktu... To, że grawitacja jest
wrodzona, nieodłączna i konieczna dla materii, tak że jedno ciało może oddziaływać na drugie
na odległość, poprzez próżnia i bez pośrednictwa czegokolwiek... jest dla mnie tak wielkim
nonsensem, iż wierzę, że nikt, kto potrafi myśleć w kategoriach filozoficznych, nigdy tego nie
zaakceptuje ".
Kontynuował jednak: „Grawitacja musi być spowodowana przez jakiś czynnik, który działa
według stałego prawa, ale czy jest on materialny, czy nie, pozostawiam do rozważenia moim
czytelnikom". W Philosophiae Naluralis Principia Mathematica jasno wyłożył swoje
stanowisko: „Nie jestem w stanie ze zjawisk dedukować ich przyczyn i nie tworzę żadnych
hipotez".
Stanowisko Newtona daje podstawy zrozumienia natury nauki. Grawitacja nie była
„tajemniczą właściwością, lecz założeniem, które można sprawdzić za pomocą obserwacji,
wyjaśniającym w logiczny sposób mnóstwo zjawisk. Przedmiotem sporu były nie same
obserwacje, lecz propozycje ich wyjaśnienia, sam Newton zaś przyznawał, że nie potrafi w
zadowalający sposób wytłumaczyć zjawiska grawitacji (rozdział IV). Także Darwin,
formułując zasadę biologicznego różnicowania się gatunków, posiadał doskonałe dane,
brakowało mu zaś jakiegokolwiek wyjaśnienia. Sytuacja uczonych w tamtych czasach nie
różniła się zbytnio od dzisiejszego postrzegania nowoczesnej fizyki kwantowej. Murray Gell-
Mann, jeden z jej twórców, mówi:
„ Współczesną fizyką rządzi imponująca i bałamutna dziedzina, zwana mechaniką kwantową
którą wynaleziono pięćdziesiąt lat temu. Przetrwała ona wszystkie próby i przypuszczamy, że
jest koncepcją prawidłową. Nikt jej nic rozumie, ale wszyscy wiedzą jak ją stosować i jak
odnosić do wszystkich zagadnień. Nauczyliśmy się więc żyć ze świadomością faktu, że nikt jej
nie rozumie ".
Oto jeden z bolesnych aspektów nauki, z którym badacze muszą nauczyć się żyć - nie
dysponując wszechwiedzą, posługujemy się zjawiskami.
W przeciwieństwie do nauki religia opiera się na dogmatach. Dla większości ludzi życie w
niepewności nie jest ani łatwe, ani naturalne, religia natomiast może ofiarować rozwiązanie
wielu problemów, zwłaszcza moralnych. Tym samym wszystkie wierzenia można uznać za na-
turalne. Większość społeczeństw bowiem, zarówno teraz, jak i w przeszłości, miała swoje
religie, które mogły wyjaśnić chociażby ich genezę czy nadać sens życiu. Naukowcy muszą
albo godzić swe poglądy z religią, albo j ą odrzucić, ponieważ, jak to spróbuję pokazać, wiara
i nauka wykluczają się wzajemnie. Z tym zagadnieniem łączy się jeszcze inna niezwykle
istotna kwestia, gdyż -jak zauważył Tołstoj: „Nauka nie ma sensu, bo nie daje odpowiedzi na
jedyne liczące się dla nas pytanie: »Co powinniśmy robić i jacy powinniśmy być?«". Tołstoj
miał rację. Nauka nie może udzielić żadnej wskazówki moralnej.
Zagadnienie to ma długą historię. Dawno temu (rozdział III) Awerroes twierdził, że
uprawianie nauki powinno być całkowicie niezależne od zasad wiary muzułmańskiej. Unikał
dyskusji o cudach opisanych w Koranie: „Zasady religijne to sprawy boskie, które przekraczają
możliwości ludzkiego rozumienia, muszą być jednak uznane, chociaż nie znamy ich
przyczyny".
David Hume wyciągnął z tego logiczny wniosek i ujął go zwięźle: „Nasza najświętsza
religia opiera się na wierze, nie na rozumie". Sprzeciwiając się tradycyjnej doktrynie o
dopełnianiu się religii i nauki, Hume utrzymywał, że wykluczają się one wzajemnie. Religia,
jak dowodził, nie jest formą wiedzy, ale raczej złożonym uczuciem. Wierzący nie mogą
używać dowodów materialnych lub racjonalnych argumentów dla poparcia swych przekonań.
Człowiek religijny może być tylko fideistą, kimś, kto wierzy, nie uciekając się do nauki.
Według 1-Iume'a religia zakłada po prostu istnienie nieznanych przyczyn. Sprzeciwiał się on
naturalnej teologii, idei opartej na majestatycznym i cudownym modelu boskiego świata.
Uważał, że zakres poznania rozumowego ogranicza się do ludzkich doświadczeń i dlatego
człowiek nie może rozstrzygać zagadnień metafizycznych, takich jak powstanie wszechświata:
nie potrafi przeniknąć do sfery boskich przymiotów czy działań.
Naukowcy stają wobec co najmniej dwóch problemów, które prowadzą ich w przeciwnych
kierunkach. Z jednej strony, bez względu na to, czy teorie odnoszą sukcesy, czy nie, zawsze
istnieje zbiór elementarnych założeń, które należy przyjąć bez żadnego zastrzeżenia. Zawsze
pojawia się problem, którego genezy nie znamy i nie potrafimy go wyjaśnić. Pochodzenie
wszechświata będzie musiało pozostać tajemnicą, nawet gdy jakiś jego element uznamy za
bezsporny punkt początkowy. Nauka nigdy nie dostarczy odpowiedzi na wszystkie pytania:
nawet jeśli istnieje uniwersalna teoria, która mogłaby wszystko wyjaśnić, zawsze pewien jej
składnik, uzasadnienie albo podstawowe założenia pozostaną niejasne, niewytłumaczalne, a
naukowcy muszą to zaaprobować. Stwierdzenie takie może doprowadzić niektórych uczonych
do przekonania, że Bóg stworzył punkt początkowy, natchnął wszechświat i skłonił go do
ruchu. Ale założenie, że istnieje Bóg, oznacza akceptację mechanizmu przyczynowego, którego
nie można udowodnić, czyli założenia, którego nie da się sfalsyfikować. Naukowiec może
wierzyć w Boga, ale nie powinien wyjaśniać jego istnieniem zjawisk naturalnych. Bóg unika
ucieleśnionej obecności i percepcji, ponieważ nie występuje w przestrzeni, jego istnienia
niepodobna więc wykazać. Tym samym musi mieć ono zupełnie inny charakter niż
rzeczywistość ziemska. W tym sensie Bóg jest bytem, który nie istnieje. A w jaki sposób
naukowiec może sobie poradzić z istotą, która nie istnieje?
Religia może dać naukowcom zadowolenie, a nawet pouczenie, mimo że nie sposób jej
pogodzić z przekonaniami naukowymi. Gdyby jednak ze świata nauki wiodła ku religii jakaś
intelektualnie uzasadniona droga, to nie ma powodu sądzić, że zaprowadziłaby nas ona do ła-
skawego Boga chrześcijańskiego lub Boga jakiejś innej wiary.
Wielu wybitnych naukowców, od Galileusza po Einsteina, nie miało żadnych wątpliwości
religijnych. Newton uważał się nawet za głosiciela Bożych idei i spędzał mnóstwo czasu na
objaśnianiu tajemnic natury ukrytych w Biblii. Twórczość Michaela Faradaya ściśle wiąże się z
wiarą chrześcijańską. Był on członkiem małej sekty sandemanianów, którzy wierzyli w
dosłowną interpretację fi;A/«. Faraday uważał, że naukowcy także powinni odczytywać księgę
natury jak najprościej za pomocą doświadczeń, unikając abstrakcyjnych, matematycznych
teorii. Dla Einsteina „człowiek pozostaje pobożny, gdy nie wątpi w doniosłość
nadprzyrodzonych postaci i celów, które ani nie wymagają, ani nie dopuszczaj ą racjonalnych
założeń... Słuszny konflikt między nauką a religią nie może trwać długo. Nauka bez religii jest
ułomna, religia bez nauki ślepa". Owa myśl Einsteina przypomina zacytowane wcześniej
zdanie Tołstoja.
Paradoks ten można zrozumieć w kategoriach naturalnej natury religii, porównując jaz nauką.
Powtórzę za Tołstojem: niewierzący nauko
wiec, tak jak każdy człowiek, musi zmierzyć się z obojętnym chaosem i uznać, że wszystkie
ludzkie nadzieje i obawy, ekstatyczne radości i przeraźliwe bóle, męki twórcze uczonych,
artystów, świętych i inżynierów rozpłyną się w pustce i przeminą bez śladu. Jeżeli, jak to
ujmuje Halevy, „rozum nic nie znaczy w porównaniu z instynktem, dzięki któremu żyjemy", to
niektórzy naukowcy są w stanie zachować neutralne stanowisko w konflikcie między nauką a
wiarą. Religijność nie musi przeszkadzać działalności naukowej, a nawet może mieć na nią
wpływ pozytywny - tak różne są te dwa sposoby myślenia.
Jednym z podejść, które reprezentuje wierzący naukowiec John Polkinghome, jest
pojmowanie teologicznego punktu widzenia tak, jak wyraził je w swym powiedzeniu św.
Anzelm: wiara szuka zrozumienia. Zgodnie z definicją Whiteheada teologia to refleksja na
temat doświadczenia religijnego: „Dogmaty religijne są próbą precyzyjnego sformułowania
prawd religijnego doświadczenia ludzkości. Dokładnie w ten sam sposób pewniki nauk
fizycznych za pomocą precyzyjnych terminów określają prawdy odkrywane przez ludzkie
umysły". Podejście to wymaga jednak odpowiedzi na podstawowe pytanie, czy przeżycie re-
ligijne różni się zasadniczo od wszystkich innych doznań. Dlaczego ma być traktowane inaczej
niż pozostałe przeżycia, poddawane kryteriom obowiązującym w nauce? Silne i niezwykłe
doświadczenie religijne, którego nie da się wytłumaczyć, może być jednak w jakiś sposób
uprzywilejowane. Nie ma w nim niczego, czego nie da się pogodzić z nauką. Niezgodność
pojawia się jedynie wtedy, gdy twierdzi się, że przeżycia religijne są przeciwieństwem
wszystkich innych i powodują nadprzyrodzone zjawiska, jak na przykład objawienia lub cuda.
Jednym z rozwiązań tego dylematu byłoby twierdzenie, że religia, podobnie jak dziwnie
zachowujące się cząstki atomu rządzi się swoim własnym, szczególnym rodzajem reguł
dyskursu.
Spojrzenie z nieco innej perspektywy pozwala uznać za podstawę religii, tak jak to się dzieje
w tradycji chrześcijańskiej, pisane źródła historyczne, na przykład Pismo Święte. Wtedy jednak
od razu powstaje problem cudów: „wiara w istnienie Boga osobowego i możliwość cudów
wynikają jedna z drugiej". Odwołując się do cudów, można stworzyć koherentny obraz
boskiego działania, który obejmuje zarówno
fakt, że zgodnie z naszym doświadczeniem zmarli pozostają, zmarłymi, jak i to, że Jezus
zmartwychwstał. Nauka nie jest w stanie zaprzeczyć tym szczególnym przypadkom na
podstawie uogólniających badań. Z naukowej perspektywy cuda nie są postrzegane jako magia
niebiańska, lecz jako znaki - „wglądy w rzeczywistość głębszą od tej, którą normalnie
widzimy". Podobnie argumentuje się, że tak jak w nauce anomalia mogą być ważną
wskazówką przy wytyczaniu postępu, tak analizując wydarzenia z życia Jezusa, które miały
niekonwencjonalny charakter i były sprzeczne z nauką, należy brać pod uwagę ich duchowy
wymiar i wykorzystywać je jako przykłady jego istnienia. Już Hume jednak odparł te
argumenty: „Żadne świadectwo cudu nie wystarcza jako dowód, chyba że jego zaprzeczenie
wyda się bardziej cudowne niż zjawisko, które chce się udowodnić".
Niektórzy wierzący uczeni zakładali, że używanie argumentów naukowych przeciw cudom
nie ma logicznego uzasadnienia, gdyż przeświadczenie, że nie mogą się one zdarzyć, jest w
równym stopniu aktem wiary, jak mniemanie, że istnieją. W pewnym stopniu naukowcy ci
mają rację, ponieważ logiczna spójność i uniwersalizm to fundament praw rządzących naturą,
zazwyczaj przyjmowanych jako założenia. Dadzą się one jednak sprawdzić i dlatego są
zupełnie różne od tych, których wymagają wierzenia religijne. Zjawisk pozazmysłowych, ist-
nienia cudów czy nieba, piekła bądź życia pozagrobowego nie można potwierdzić naukowo,
badacze powinni więc nadal zaprzeczać cudom, dopóki nie zostaną przedstawione dowody
przeciwne. Ci, którzy sądzą, że można pogodzić religię i naukę, muszą wierzyć w rzeczy o
charakterze nienaukowym i utrzymywać, że istnieją byty i procesy, których nie sposób
udowodnić.
Przeprowadzona tu analiza daleka jest od ujawnienia zgodności między nauką a religią,
pomija również kwestię bezpośredniego konfliktu dostrzeżonego przez Awerroesa. A przecież
dane naukowe pozostają w sprzeczności z Pismem Świętym. Ludzie, jak głosi nauka, są blisko
spokrewnieni z małpami, a kobieta nie powstała z żebra Adama. W odpowiedzi na to grupa
chrześcijańskich fundamentalistów poświęciła wiele sił, aby dowieść, że teoria ewolucji ma
poważne braki, a kreacjonizm zgodny z księgą Genesis oferuje o wiele lepsze wyjaśnienie po
chodzenia człowieka. Kampania ta stanowiła atak nie tylko na teorię ewolucji, ale na całą
naukę, gdyby bowiem protagoniści koncepcji ewolucyjnej doprowadzili do jej odrzucenia, to
inne dziedziny nauki musiałyby podzielić jej los. Kreacjoniści utrzymują, że Ziemia ma tylko
kilka tysięcy lat. Jeśli to prawda, to wszystkie oszacowania jej wieku, oparte na
radioaktywności, a więc i na fizyce, są fałszywe, zatem większość tez astronomii i geologii
trzeba odrzucić. Należy zrozumieć, że kreacjonizm opiera się na Biblii, a więc wiąże się z
szeregiem założeń, których nie można zmienić ani też udowodnić, że swą fałszywe.
Kreacjonizm nie jest nauką, dlatego że wyklucza zmianę pojęć, która stanowi podstawę nauki.
Kreacjoniści, podobnie jak niektórzy zwolennicy zjawisk pozazmysłowych, naśladują naukę,
aby wzmocnić swe argumenty. Odrzucają kryteria naukowości, a następnie dowodzą, że teoria
ewolucji ich nie spełnia. Twierdzą, że nauka wymaga dowodu, a dane, których dostarcza
biologia, chcąc potwierdzić ewolucję, w żadnym razie nim nie są. Kreacjoniści oskarżają więc
naukowców-ewolucjonistów o opieranie przekonań na wierze, nie na dowodach.
Nauka jednak, jak widzieliśmy, nie dowodzi prawdy absolutnej, oferuje tylko użyteczną i
wiarygodną wiedzę o naturze świata. O rozwoju nauki decydują zmiany, ale jedynie te, które
poparto przekonującymi dowodami. Wielki fizyk, lord Kelvin, szacując wiek Ziemi, mylnie
ocenił, że nie jest bardzo stara, ponieważ oparł obliczenia na szybkości ochładzania się planety,
a w tamtych czasach nie uświadamiano sobie jeszcze istnienia radioaktywności, ważnego
źródła ciepła w jądrze naszej planety.
Kreacjoniści skoncentrowali swój atak na tym, że teorii ewolucji nie można sfalsyfikować
zgodnie z twierdzeniem Poppera. Oczywiście falsyfikacja nie stanowi jedynego aspektu nauki,
ale może się okazać, że obecna teoria ewolucji jest nieprawdziwa. Gdyby, na przykład, wyka-
zano, że dziedziczymy cechy, które dotychczas uznawano za nabyte, albo znaleziono by
skamieliny ssaków starsze od prymitywnych kręgowców, czy też stwierdzono, że DNA ptaków
jest bardziej podobne do DNA glist niż kotów, czy wreszcie - że zwierzęta zmieniały się
gwałtownie z pominięciem doboru naturalnego, wpływ tych odkryć na obecny stan wiedzy o
mechanizmach ewolucji okazałby się zgubny.
Nawet jeżeli nauka i religia pozostają w zasadniczym konflikcie, należy ostrożnie wysuwać
przypuszczenia, że w ostatnich latach nastąpił radykalny upadek wierzeń religijnych lub że
wiąże się on z nauką. Wielu naukowców, a dokładniej około 50 procent, to ludzie wierzący, a w
USA ponad 90 procent ludności przyznaje się do wyznawania jakiejś religii. Ponadto historyk
rozwoju społeczeństw, David Martin, wskazał, że badając ten problem, należy brać pod uwagę
coś więcej niż dane frekwencyjne z kościołów, nadal bowiem silnie tkwi w nas zabobon. Oto
wypowiedź Martina na temat sekularyzacji w tak zwanym wieku nauki:
„Nasza kultura daleka od bieguna swieckości waha się pomiędzy częściowym wchłanianiem
chrześcijaństwa, nastawionego na pocieszenie i zaspokajanie poczucia bezpieczeństwa, a
wiarą w los, szczęście i moralne przywództwo opatrzności, bezsensownie przez nas toczone.
Jeżeli do tych warstw ludzkiej religijności dodamy atrakcyjność freudyzmu i marksistowski
mechanicystyczny pogląd na temat inteligencji, to staje się oczywiste, że trudności
zinstytucjonalizowanej religii mają bardzo maty związek z zanikiem zdolności do wiary ".
Z punktu widzenia Martina ogromna większość ludzi kieruje się dwiema podstawowymi
zasadami: prawem przypadku, przeznaczenia i prawem moralnej równowagi, wedle którego złe
uczynki są karane. Sądzę, że wielu z nas wciąż akceptuje ten magiczny, naturalny obraz świata.
Rozdział VIII
Nauka i społeczeństwo