You are on page 1of 264

POD PRĄD

GŁÓWNEGO
NURTU EKONOMII
POD PRĄD
GŁÓWNEGO
NURTU EKONOMII

Pod redakcją Mateusza Machaja

Instytut Ludwiga von Misesa


Wa r sz awa 2 017
Copyright © 2017 by Instytut Misesa

Redaktor: Mateusz Machaj

Recenzent: dr hab. Robert Ciborowski, prof. UwB

Redakcja techniczna: Witold Falkowski

Redakcja językowa: Anna Szymanowska

Korekta: Weronika Sygowska-Pietrzyk

Indeks: Weronika Sygowska-Pietrzyk

ISBN 978-83-65086-12-9

Instytut Misesa
ul. Długa 44/50, p. 214
00-241 Warszawa
www.mises.pl
mises@mises.pl

Projekt okładki: Barbara Bernardyn

Łamanie: PanDawer

Organizacja druku: PanDawer

Drugie wydanie elektroniczne


Książkę tę dedykujemy naszemu Profesorowi, Witoldowi Kwaśnickiemu,
który nauczył nas, że warto patrzeć na problemy naukowe, korzystając
z dorobku różnych tradycji intelektualnych –

studenci i seminarzyści
Prof. dr hab. Witold Kwaśnicki
(ur. 1952) pracuje w Instytucie Nauk
Ekonomicznych Uniwersytetu Wro-
cławskiego. Opublikował książki:
Knowledge, Innovation, and Economy
– An Evolutionary Exploration, Hi-
storia myśli liberalnej – wolność, wła-
sność, odpowiedzialność oraz Zasady
ekonomii rynkowej. Jest autorem wielu
artykułów publicystycznych i nauko-
wych (w tym publikowanych w presti-
żowych zagranicznych periodykach).
Należy do European Association for
Evolutionary Political Economy, Jo-
seph A. Schumpeter Society oraz Pol-
skiego Towarzystwa Ekonomicznego.
Jest szefem Rady Naukowej Instytutu
Misesa.
Od lat siedemdziesiątych prowadzi
badania dotyczące procesów ewolucyjnych w kontekście rozwoju biolo-
gicznego, kulturowego i gospodarczego. Jego zainteresowania naukowe
koncentrują się wokół takich obszarów jak: ekonomia ewolucyjna, pro-
cesy innowacyjne, problematyka wiedzy w naukach społecznych, meto-
dologia nauk, symulacje systemów gospodarczych, doktryna liberalizmu
i teoria austriackiej szkoły ekonomii.
Spis treści
Spis treści

M AT E U S Z M AC H A J

P r z e d mowa XIII

O konsekwentny popperyzm XIII

Bibliografia XVIII

P R Z E M Y S Ł AW L E S Z E K

P roble m at yk a w ie d z y w n au k ac h sp o łe c z nyc h: o je d ny m
z p owo dów z awo d no ś c i ekonom i i g łów ne go nu r t u
w w y ja ś n i a n iu r z e c z y w i s to ś c i go s p o d a rc z e j 1

Wprowadzenie 1

Wiedza w ekonomii 1

Urok Newtona. Problem wiedzy w naukach społecznych a urok


Newtona 6

Bunt przeciwko wiedzy doskonałej: wiedza rozproszona


i niepewność 14

Zamiast podsumowania 25

Bibliografia 26

A L I C J A KU R O PAT WA

P roble my ne ok l a s yc z nej t e or i i kon k u re nc ji 31

Założenia modelu doskonałej konkurencji 32

Nierealistyczność założeń modelu doskonalej konkurencji 35

Model konkurencji monopolistycznej oparty na konkurencji


doskonałej 37

Realna konkurencja jako zjawisko dynamiczne. Czy model


neoklasyczny pokazuje istotę konkurencji? 41

Możliwość socjalizmu, czyli konsekwencje neoklasycznej


koncepcji konkurencji 42
X SPIS TREŚCI

Podsumowanie 44

Bibliografia 45

JAC E K KU B I S Z

Te or i a Ron a ld a C oa s e ’a a w ł a sno ś ć i o dp ow ie d z i a l no ś ć
z a s z ko d ę 49

Geneza teorematu 49

Rozmaite interpretacje teorematu Coase’a 50

Teoremat Coase’a i nierealistyczne założenia 53

Cicha rewolucja, czyli subiektywizm i antysubiektywizm


w analizie Coase’a 57

Subiektywizm w prawie a pojęcie efektywności 60

Ekonomiczne koszty prawnego subiektywizmu Coase’a 64

Istotna rola wymiaru sprawiedliwości 68

Podsumowanie 71

Bibliografia 73

ŁU K A SZ GAJ EWSK I

P r z e c iwko pl a n i s t yc z ne mu p ojmowa n iu i n nowac y jno ś c i 77

Wprowadzenie 77

Analiza tradycyjnych wskaźników innowacyjności gospodarki 78

Krytyka tradycyjnych wskaźników pomiaru innowacyjności


gospodarki według NESTA 81

Krytyka prawa własności intelektualnej według Stephana Kinselli 85

Krytyka prawa własności intelektualnej według Boldrina i Levine’a 88

Podsumowanie 90

Bibliografia 92
Spis treści XI

STA N I S Ł AW KW I AT KOW S K I

Te or ia dóbr publ ic z nyc h i r y n kowe me c h a n i z my


ic h pro du kc ji 95

Wstęp 95

Paul Samuelson i teoria dóbr publicznych 96

Teoretycy austriackiej szkoły ekonomii 107

Podsumowanie 118

Bibliografia 120

M AT E U S Z M AC H A J

Ry n kowa stopa pro centowa a s y stem cenow y 125

Stopa procentowa jako cena a radykalna krytyka ekonomii 125

Stopa procentowa jako cena w systemie gospodarczym a teoria


imputacji 127

Stopa procentowa w teorii neoklasycznej i austriackiej 130

Stopa procentowa w dynamicznym ujęciu heterogenicznej


struktury kapitału i kalkulacji kapitałowej 132

Mikroekonomiczna a makroekonomiczna stopa procentowa 143

Stopa procentowa a polityka pieniężna 148

Reguła Taylora i stopa naturalna w głównym nurcie 153

Podsumowanie 155

Bibliografia 156

JA N L E W I Ń S K I

D ef l ac ja a p ol it yk a 161

Wprowadzenie 161

Taksonomia Salerno 163

Polityka inflacjonizmu a obawy deflacyjne 174

Podsumowanie 187

Bibliografia 188
XII SPIS TREŚCI

M A RC I N ZI E L I Ń SK I

Sy s t e m pie n i ę ż ny b e z b a n k u c e nt r a l ne go 193

Wstęp 193

Wolna bankowość oparta na stuprocentowej rezerwie 194

Wolna bankowość oparta na rezerwie cząstkowej 196

Konkurencja pomiędzy prywatnymi papierowymi walutami 203

Podsumowanie 205

Bibliografia 207

WO J C I E C H PA RY N A

Ad a m Heydel: p ol sk i „ Au s t r i a k ” w me to dolog ic z ny m b oju 211

Adam Heydel 1893–1941 211

Metoda w ekonomii 216

Adam Heydel a ekonomia austriacka 226

Bibliografia 230

WI L L I A M J O H N M AC Q U O R N R A N K I N E

Z a ko c h a ny m ate m at yk 2 33

I nd e k s n a z w i sk 235
Mateusz Machaj

P R Z E D M OWA

O konsekwentny popper yzm

Philip Mirowski zauważył, że w ekonomii neoklasycyzm, który mo-


glibyśmy określić jako ekonomię głównego nurtu, rozwinął się za sprawą
„kohorty” ekonomistów, takich jak Jevons, Walras, Edgeworth, Fisher,
czy Pareto. Metoda ekonomii neoklasycznej czerpała inspirację z matema-
tycznych metafor, które z powodzeniem stosowano w fi zyce. Zastosowa-
nie w ekonomii aparatu znanego z fi zyki wiązało się ze zmianą słownika
pojęć. Zamiast „energii” wstawiono pojęcie „użyteczności”, która mia-
ła być maksymalizowana w warunkach „równowagi” (Mirowski 1991,
s. 147). Ekonomia „pozazdrościła” fi zyce i pożyczyła od niej narzędzia
badawcze. Kontynuacją owej tradycji neoklasycznej, która opierała się na
matematyzacji i rachunku marginalnym, jest dzisiejszy główny nurt eko-
nomii (Ekelund, Hébert 2002, s. 198).
Zapożyczenie przez ekonomię metod stosowanych w fizyce skazało ją
na metodologiczny monizm. Ów monizm zawierał założenie implicite, że
człowiek jako przedmiot badań ekonomii nie różni się istotnie od atomu
i może być obiektem analizy korzystającej z takich samych metod, jakimi
posługuje się fizyk badający oddziaływania między atomami. Takie poję-
cia ekonomiczne jak dobrobyt, użyteczność, czynniki produkcji, można
traktować w sposób uproszczony. Jak zauważa Ludwig Lachmann, w mo-
delach, które budują przedstawiciele głównego nurtu, nie opisuje się dzia-
łania, lecz reagowanie. Jednostkom przypisuje się spójne mapy preferencji,
a wynik ich działań jest z góry określony za pomocą znanych funkcji.
Taka analiza jest oderwana od obserwowanej na co dzień działalności
gospodarczej (Lachmann 1996, s. 278). Trafność tej krytycznej charakte-
rystyki metod ekonomii głównego nurtu potwierdza wypowiedź jednego
z najważniejszych twórców neoklasycznej ortodoksji Gary’ego Beckera.
Jego zdaniem „ekonomiczne podejście” wymaga konsekwentnego odwo-
ływania się do optymalizacyjnych założeń dotyczących maksymalizacji
funkcji, stabilnych preferencji i rynkowej równowagi (Becker 1976, s. 5).
Słabość obowiązującego dziś wzorca uprawiania ekonomii tkwi w jego
formalizmie. To on powoduje, że decyzje ludzi oraz świat, w którym ludzie
XIV MATEUSZ MACHAJ

działają, sprowadza się do prostych i mierzalnych wielkości, traktowanych


tak, jakby były wielkościami fizycznymi. W zderzeniu ze złożonymi zja-
wiskami gospodarczymi formalizm ów prowadzi do błędów, które można
ująć w dwie kategorie. Po pierwsze są to błędy polegające na uproszczeniu
skomplikowanych struktur i instytucji gospodarczych (za pomocą alge-
braicznych formuł stosowanych w ekonomii nie da się przedstawić istot-
nych jakościowych cech1). Po drugie są to błędy związane z założeniem, że
w gospodarce istnieją „optymalne” rozwiązania, które można łatwo od-
kryć w wyniku analizy przyjętego modelu. Formalizm ten prowadzi zatem
do wyeliminowania ze świata niepewności, spekulacji i przedsiębiorczego
działania, które występują na co dzień w życiu gospodarczym.
Analiza jakościowa pozwalałaby na wierniejszy opis rzeczywistości,
więc rodzi się pytanie, jakie argumenty przemawiają za stosowaniem
w ekonomii nierealistycznych modeli operujących nadmiernymi uprosz-
czeniami. Otóż za modelami przemawiają względy pragmatyczne. Na ich
podstawie można formułować prognozy. Wybitni przedstawiciele głów-
nego nurtu dobrze wiedzą, że taka ekonomia jest oderwana od realiów,
dlatego podkreślają konieczność weryfikacji jej teorii na podstawie sku-
teczności prognoz, które można dzięki nim sformułować (Becker 1976,
s. 5; Friedman 1953, s. 31). Ściślej mówiąc, nie chodzi tu właściwie o we-
ryfikację teorii, lecz o poddanie jej wielokrotnym testom falsyfikacyjnym.
Jeśli wyniki testów są zadowalające, teorię można uznać za użyteczną,
mimo że jest z zasady nierealistyczna.
Metoda ta koncentruje się na selekcji teorii przez odrzucanie poglądów
niepotwierdzonych empirycznie. Z tego powodu stanowisko Friedmana
uważa się często za odmianę popperyzmu, gdyż to Popper podkreślał, że
teorii nie sposób ostateczne zweryfikować; można ją tylko odrzucić lub
pokazać, że nie ma podstaw do jej odrzucenia. Tymczasem staranniejsze
przyjrzenie się metodologii Poppera prowadzi do wniosku, że metoda pro-
ponowana przez Friedmana ma z nią niewiele wspólnego.
Popper przede wszystkim rozumiał, że proces „falsyfikacji” nie polega
na prostej konfrontacji „modelu” z „danymi”. Jak mówi teza Duhema–
– Quine’a, każda obserwacja empiryczna wymaga założenia jakiejś teo-
rii. Na przykład pomiar temperatury w trakcie eksperymentu fizycznego
nie polega wyłącznie na odczytaniu wskazania termometru, lecz ponadto
wymaga akceptacji określonych teorii matematycznych i fi zycznych doty-
czących właściwości rtęci (Popper 2002, s. 69). Konieczność powiązania
obserwacji z teorią ma istotne znaczenie w teoriach fizycznych. Jednak
ze szczególną siłą uwidacznia się w naukach społecznych, w których ta-
kie pojęcia, jak „dobrobyt”, „podaż pieniądza”, a nawet „podatki”, nie
są danymi, które można łatwo zmierzyć bez odwoływania się do teorii.

1
Na przykład nie da się wyrazić różnicy między podatkiem a ceną za pomocą
wzorów stosowanych w ekonomii matematycznej.
O konsekwentny popperyzm XV

Ponadto Popper wielokrotnie wyrażał sprzeciw wobec instrumentalizmu,


jaki prezentował Friedman:

Jest pewna grupa filozofów [i ekonomistów – MM] (…) Wyznają


bowiem pogląd, że tworząc nasze teorie naukowe, nie powinniśmy
lub nie możemy dążyć do „czystej” wiedzy, czyli do prawdy; że teo-
rie naukowe to tylko narzędzia – to znaczy narzędzia służące prze-
widywaniu i zastosowaniom praktycznym [ Friedman, Becker etc.
– MM] – i że łudzimy samych siebie, jeśli sądzimy, że teorie mogą
nam dostarczyć wyjaśnień czy pozwolić na zrozumienie tego, co
rzeczywiście zachodzi w świecie. (…)

Co my, antyinstrumentaliści, twierdzimy? Przyznajemy oczywiście,


że teoria naukowa może być zastosowana do rozwiązywania wszel-
kiego rodzaju problemów praktycznych, bądź od razu gdy zostaje
wynaleziona, bądź później. Nie mamy więc nic przeciw twierdze-
niu, że wszystkie teorie naukowe są narzędziami – aktualnymi lub
rzeczywistymi. Twierdzimy jednak, że są one nie tylko narzędziami.
Twierdzimy bowiem, że od nauki możemy dowiedzieć się czegoś
o strukturze naszego świata, że teorie naukowe mogą dostarczać
autentycznie zadowalających wyjaśnień, które można zrozumieć,
a więc wzbogacać nasze rozumienie świata (Popper 1997, s. 196).

W innym miejscu Popper podkreśla, że obiektywność naukowa wyma-


ga, by żadnej teorii, czy założenia, nie uznawać za dogmat, gdyż „wszyst-
kie teorie są próbne i otwarte zawsze na surową krytykę, na racjonalną,
krytyczną dyskusję, zmierzającą do usuwania błędów” (ibidem, s. 179).
Dotyczy to również wszelkich aksjomatów, które przyjmują systemy
ekonomii neoklasycznej. Wbrew stanowisku Friedmana dyskusja nie po-
winna się ograniczać wyłącznie do zagadnienia wewnętrznej spójności
modelu i pojedynczych prognoz. Krytyczny racjonalizm nie polega na
„ratowaniu życia niedających się utrzymać systemów, lecz przeciwnie,
na rzuceniu ich wszystkich w wir najzacieklejszej walki o przetrwanie”
(Popper 2002, s. 41).
Dodajmy jeszcze, że Popper był metodologicznym dualistą, czy-
li uważał, że nauki społeczne różnią się co do charakteru od nauk ści-
słych – Friedman (1953, s. 10) uważał inaczej. Według niego „metoda
Newtonowska” nie ma szerszego zastosowania i proponuje zamiast niej
„wyjaśnienie i zrozumienie zdarzeń w terminach ludzkich oraz instytucji
społecznych” (Popper 1997, s. 187). Jeśli zgodzimy się ze stanowiskiem
Poppera dotyczącym różnicy między ekonomią a fizyką, to w istocie za-
kwestionujemy tradycyjny pogląd neoklasycyzmu2.

2
Popper w swojej obronie specjalnego statusu nauk społecznych posługuje się
przykładem skrzyżowania, które przekracza jeden człowiek. Aby dokładnie zbadać
XVI MATEUSZ MACHAJ

Autorzy tej książki próbują podążać tropem sokratejskiego poppe-


ryzmu. Rzucają neoklasyczne założenia „w wir najzacieklejszej walki
o przetrwanie”.
W rozdziale pierwszym Przemysław Leszek porusza problematykę
szeroko rozumianej wiedzy w naukach społecznych. Zbyt schematyczne
stanowisko w kwestii wiedzy, pomijanie ignorancji podmiotów gospodar-
czych i nieznajomości złożonych zjawisk ekonomicznych to podstawowe
problemy teorii głównego nurtu, którymi zajmuje się autor.
Rozdział drugi, autorstwa Alicji Kuropatwy, dotyczy krytyki szcze-
gólnego aspektu teorii rywalizacji gospodarczej, znanego jako założenie
o „konkurencji doskonałej”, które chociaż jest powszechnie uznawa-
ne za nierealistyczne, to jednak często bywa stosowane w analizie eko-
nomicznej (a także przyjmowane w kalkulacjach dotyczących polityki
gospodarczej).
W rozdziale trzecim Jacek Kubisz przedstawia teoremat Ronalda Coase’a
dotyczący ekonomii praw własności i konfliktu. Często uważa się, że teo-
ria Coase’a i bogata literatura z nią związana wskazuje na to, że rynek
jest mechanizmem alokacyjnym, który może automatycznie rozwiązywać
problemy prawne. Autor tego rozdziału pokazuje, że tak nie jest, i udo-
wadnia, iż możliwość dostosowań rynkowych nie oznacza, że systemem
prawnym można swobodnie manipulować, osiągając praktycznie te same
rezultaty. Sam teoremat zaś może być uzasadnieniem podważania praw
własności.
Rozdział czwarty, autorstwa Łukasza Gajewskiego, podejmuje proble-
matykę pomiaru w ekonomii, a ściślej, kwestię ograniczonych możliwości
pomiaru innowacyjności. Jak wskazuje autor, ujmowanie zagadnienia in-
nowacji w kategoriach statystycznych za pomocą makroekonomicznego
podziału na dziedziny, czy określanie go za pomocą liczby patentów, pro-
wadzi na manowce, gdyż pomija ukryty, indywidualny i zdecentralizowa-
ny charakter innowacji i udoskonaleń w produkcji. Oznacza to również,
że można zakwestionować politykę gospodarczą, która próbuje stymulo-
wać innowacyjność gospodarki za pomocą „zwiększania nakładów finan-
sowych”. Wynika to z faktu, że agregatowe podejście nie oddaje auten-
tycznego charakteru innowacji gospodarczych, więc trudno wykazać, że
„więcej pieniędzy” gwarantuje większą innowacyjność.

tę sytuację, nie rozważamy tylko aspektów fi zycznych (przeszkody na drodze, grawi-


tacja), ale uwzględniamy również inne czynniki o charakterze obiektywnym, np. in-
stytucje społeczne (kodeks drogowy, sygnalizacja), i subiektywnym (cele, informacja)
(Popper 1997, s. 188–189). Co ciekawe, dokładnie ten sam przykład stosował na swo-
ich seminariach jego rodak Ludwig von Mises (Rothbard 1985). Zapewne wynikało
to z tego, że obydwaj wywodzili się z tradycji wiedeńskiej, która w odróżnieniu od
anglosaskiej nie postulowała traktowania ludzi niczym trybów w wielkiej maszynie.
Przykład ten również dobrze pokazuje problemy z „pomiarem” w naukach społecz-
nych i znajomością z góry znanych „danych”.
O konsekwentny popperyzm XVII

Autor piątego rozdziału Stanisław Kwiatkowski omawia mikroekono-


miczne pojęcie „dóbr publicznych”, które stosowane jest w ekonomii sek-
tora publicznego, i zastanawia się, czy przymusowe finansowanie podaży
niektórych dóbr jest konieczne. Jak utrzymuje autor w ślad za innymi kry-
tykami, nie da się wskazać w rzeczywistości przykładów czystych dóbr
publicznych; wątpliwe jest też przyjmowane po cichu założenie, że takie
dobra muszą i mogą być dostarczane przymusowo.
Rozdział szósty, mojego autorstwa, zamyka część mikroekonomiczną
książki, podejmując dyskusję na temat teorii kapitału i stopy procentowej.
Są to dwa zjawiska, które mają łączyć teorie makroekonomiczne z mikro-
ekonomicznymi podstawami. Tymczasem, jak się okazuje, teoria stopy
procentowej zawiera jedną z największych niespójności tych dwóch sfer
ekonomii, ponieważ radykalnie inaczej się ją traktuje na poziomie mikro-
ekonomicznym, gdzie jest ceną (elementem rynku), a inaczej na poziomie
makro, gdzie jest narzędziem ingerencji w rynek.
W rozdziale siódmym Jan Lewiński systematyzuje pojęcie deflacji
i omawia polityczne obawy przed jej wystąpieniem. Często zjawisko to
prezentowane jest jako niebezpieczeństwo, któremu koniecznie należy
zapobiec. Uporządkowanie tego pojęcia pozwala autorowi na wskazanie
wielokrotnie pomijanych niewątpliwych walorów deflacji i jej pożąda-
nych skutków, a także na przedstawienie politycznych pobudek, którymi
kierują się ci, którzy przedstawiają ją jako zagrożenie.
W rozdziale ósmym, autorstwa Marcina Zielińskiego, omówiono alter-
natywne sposoby podejścia do polityki monetarnej. W makroekonomii
głównego nurtu za narzędzie polityki monetarnej niemal zawsze uważa
się instytucję korzystającą z aparatu przymusu (państwowa emisja wa-
luty). Tymczasem istnieją różne sposoby traktowania tego zagadnienia,
co wskazuje, że rozmaicie rozumiana polityka pieniężna nie musi się ko-
niecznie opierać na przymusie.
Książkę zamyka prezentacja sylwetki Adama Heydla, jednego z naj-
wybitniejszych polskich ekonomistów. W okresie międzywojennym prze-
ciwstawiał się on intelektualnym prądom, które tworzyły podatny grunt
dla koncepcji dziś określanych jako główny nurt w ekonomii. Autor tego
rozdziału Wojciech Paryna dotarł do mało znanych źródeł, by przybliżyć
czytelnikom życie oraz twórczość tego wielkiego człowieka i naukowca.
Mamy nadzieję, że książka ta stanie się inspiracją do dyskusji na temat
różnych założeń i twierdzeń ekonomii teoretycznej.
XVIII MATEUSZ MACHAJ

Bibliografia

Becker Gary, 1976, Economic Approach to Human Behavior, Chicago, University of


Chicago Press.

Ekelund Robert B. Jr., Hébert Robert F., 2002, Retrospectives: The Origins of Neoclas-
sical Microeconomics, „The Journal of Economic Perspectives”, vol. 16, no. 3.

Friedman Milton, 1953, Methodology of Positive Economics, w: Friedman Milton,


1953, Essays in Positive Economics, Chicago, University of Chicago Press.

Lachmann Ludwig M., 1996, Expectations and the Meaning of Institutions. Essays in
economics by Ludwig Lachmann, red. Lavoie Don, London–New York, Routledge.

Mirowski Philip, 1991, The When, the How and the Why of Mathematical Expression
in the History of Economic Analysis, „Journal of Economic Perspectives”, vol. 5,
no. 1.

Popper Karl R., 1997, Mit schematu pojęciowego. W obronie nauki i racjonalności, War-
szawa, Książka i Wiedza.

Popper Karl R., 2002, Logika odkrycia naukowego, Warszawa, PWN.

Rothbard Murray N., 1985, Preface, w: Mises Ludwig von, 1985, Theory and His-
tory. An Interpretation of Social and Economic Evolution, Auburn, Al, Auburn
University.
Przemysław Leszek jest doktorantem Instytutu Nauk Ekonomicznych Uni-
wersytetu Wrocławskiego. W 2007 roku obronił pracę magisterską Idea
wiedzy rozproszonej Friedricha Augusta von Hayeka a idea wiedzy ukrytej
Michaela Polanyi’ego napisaną pod kierunkiem prof. Kwaśnickiego.
Przemysław L eszek

P ROBL E M AT Y K A W I E DZ Y W NAU K AC H SP O Ł E C Z N YC H:
O J E D N Y M Z P O W O D Ó W Z AW O D N O Ś C I E KO N O M I I
G ŁÓW N EG O N U RT U W W Y JA ŚN I A N I U
R Z E C Z Y W I S TOŚ C I G OSP ODA RC Z EJ

Wprowad z en ie

W rozdziale tym twierdzimy, że współczesna ekonomia głównego nur-


tu w wielu obszarach swoich naukowych dociekań systematycznie igno-
ruje bądź bagatelizuje problematykę wiedzy. Uważamy, że jest to jeden
z ważniejszych powodów tego, iż wyjaśnienia podawane przez „ortodok-
syjnych” teoretyków często nie odpowiadają rzeczywistości rynkowej,
a nierzadko zaciemniają jej prawdziwy obraz.
Najpierw postaramy się wskazać przyczynę, która, naszym zdaniem,
przesądziła o zepchnięciu problematyki wiedzy – pozyskiwanej i wyko-
rzystywanej przez podmioty rynku we wszystkich podejmowanych przez
nie decyzjach – do podrzędnej roli. Ową przyczynę nie przez przypadek
określiliśmy mianem „uroku Newtona”.
Następnie przedstawiamy krytykę podejścia ortodoksyjnego – porów-
namy to, co wiemy na temat wiedzy i sposobów jej pozyskiwania i wy-
korzystywania przez ludzi, z tym, co postuluje teoria ekonomii głównego
nurtu.

Wied za w ekonom ii
Chociaż temat wiedzy w kontekście rozważań nad funkcjonowaniem
systemu społeczno-gospodarczego pojawił się stosunkowo wcześnie, na
długo przedtem nim ekonomia wyodrębniła się jako osobna dyscyplina na-
uki1, to w owym czasie raczej nie był przedmiotem teoretycznej refleksji.

1
Na przykład Arystoteles, analizując stosunki społeczne panujące w greckich
miastach, za główną przeszkodę w ich rozwoju uznał ograniczenia poznawcze przy-
wódców. Uzasadniał, że przetrwanie państwa większego niż polis jest w dłuższej
2 PRZEMYSŁAW LESZEK

Nie istnieje jedna, ogólnie przyjęta definicja terminu „wiedza”, choć


jest on powszechnie stosowany. Próby ustalenia, czym jest wiedza, po-
dejmowane w literaturze naukowej i filozoficznej, odnoszą się zwykle do
dziedzin związanych z obszarami zainteresowań poszczególnych badaczy.
W obrębie tych dziedzin pojęciu „wiedzy” nadaje się specyficzne znacze-
nia, z czego wynika jego niejednoznaczność.
Ponieważ przedmiotem badań ekonomii są – mówiąc najogólniej
– ludzkie działania i ze względu na to, że człowiek podejmuje decyzje na
podstawie tego, co wie, w rozdziale tym opowiadamy się za stosunkowo
szeroką i chyba najbardziej intuicyjną interpretacją pojęcia wiedzy. Zgod-
nie z nią wiedzę poszczególnych ludzi stanowi to, co wiedzą. Ujmując
rzecz bardziej szczegółowo, na wiedzę człowieka składa się ogół będących
w jego posiadaniu informacji, poglądów, przekonań, wierzeń i zdobytych
doświadczeń. Części z nich nie można nawet zwerbalizować. Tak zdefi-
niowana wiedza jest pojęciem szerszym niż wiedza sprowadzana przez
niektórych naukowców i filozofów do uporządkowanego zespołu infor-
macji czy obiektywnie uzasadnionych przekonań. Uczestnicy rynku nie
podejmują bowiem decyzji ekonomicznych, kierując się zbiorem „uzasad-
nionych przekonań”, lecz zgodnie z własnymi przekonaniami 2.
Pierwszym ekonomistą, który podkreślał znaczenie wiedzy w działal-
ności gospodarczej, był Richard Cantillon. W książce Essai Sur la Nature
du Commerce en Général, napisanej w latach 1730–1734, po raz pierw-
szy zostało użyte słowo „przedsiębiorca” (Kwaśnicki 2001, s. 92), rozu-
miane jako synonim słowa arbiter, który robiąc użytek ze swojej wiedzy,
dokonuje wyboru alternatywnych zastosowań różnych zasobów. Żyjący
kilkadziesiąt lat później Jean-Baptiste Say uznał tak określoną przedsię-
biorczość za czwarty czynnik produkcji. W okresie późniejszym w dzie-
łach Johna Stuarta Milla, Carla Mengera i wielu innych autorów odnajdu-
jemy nawiązania do kwestii wiedzy: dawała ona przewagę w interesach,

perspektywie niemożliwe, gdyż wymagałoby to od jego władców posiadania „bo-


skiej” wiedzy, daleko wykraczającej poza ludzkie możliwości. Możemy zatem przyjąć,
że to Arystoteles jako pierwszy analizował temat związku pomiędzy wiedzą ludzi
i koordynacją ich działań w obrębie systemu społeczno-gospodarczego. Doszedł do
wniosku, że „(…) nadmiernie wielka liczba nie może pomieścić się w ramach pewnego
porządku” (Arystoteles 1953, s. 238). Pamiętajmy, iż „porządek” oznacza tu rezultat
sprawowania kontroli nad członkami społeczeństwa i zasadniczo jest to jedyna for-
ma zoorganizowania społeczeństwa, jaką filozof rozważał – zob. komentarz Hayeka
(2004, s. 19). Ciekawe, że to, co spostrzegł Arystoteles, w XIX i XX wieku całkowicie
umknęło teoretykom socjalizmu.
2
Nie będziemy zagłębiać się w rozważania na temat tego, czym jest i „jak istnieje”
wiedza, gdyż oznaczałoby to zbyt dalekie odejście od głównego przedmiotu naszej
analizy. Z tego samego powodu nie podejmiemy próby sytuowania „wiedzy” na tle
terminów bliskoznacznych, takich jak „dane”, „informacja”, „inteligencja”, „mą-
drość” itp. Przedstawiony tu ogólny pogląd w razie potrzeby rozwiniemy w kolejnych
częściach tego rozdziału. Słownikowe defi nicje rzeczonego pojęcia w odniesieniu do
ekonomii przedstawił i opatrzył krótkim komentarzem np. Yeager (2005).
Problematyka wiedzy w naukach społecznych 3

a stojący za nimi motyw zysku gwarantował jej efektywne wykorzystanie


(Kostro 2001, s. 119).
Przełom XIX i XX wieku przyniósł całkowicie odmienną perspektywę
postrzegania wiedzy oraz jej roli w kontekście rozważań ekonomicznych.
Druga połowa XIX wieku obfitowała w wynalazki, z których przynajmniej
kilka miało fundamentalne znaczenie dla rozwoju gospodarki. Mamy tu
na myśli silnik spalinowy oraz żarówkę, które uchodzą za symbole współ-
czesnej cywilizacji (należy do nich także tranzystor wynaleziony w pierw-
szej połowie XX wieku). Oblicza gospodarek ulegały gwałtownym trans-
formacjom. Szybkie i zasadnicze zmiany otoczenia rynkowego wiązały się
w dużej mierze z rozwojem naukowo-technicznym, stąd też nie dziwi, że
gdy pisano o wiedzy w ekonomii, coraz częściej miano na myśli wiedzę
naukową, ujawniającą się pod postacią wynalazków oraz innowacji, nie
zaś wiedzę osobistą, wykorzystywaną przez przedsiębiorcę działającego
na rynku.
W opublikowanej w 1912 r. Teorii wzrostu gospodarczego Joseph
Schumpeter wprowadził do analizy ekonomicznej specyficzną kon-
cepcję przedsiębiorczości. Wiedza, ucieleśniona w owocach postępu
technicznego i organizacyjnego (w wynalazkach, innowacjach, a także
w nowych zastosowaniach już istniejących zasobów wiedzy i środków
produkcji), była implementowana do gospodarki przez przedsiębior-
ców, co zwiększało ich zyski, ale także przeobrażało dotychczasowo
funkcjonujący system produkcji dóbr i usług, powodując rewolucyjne
zmiany w wielu sferach życia3 (Schumpeter 1960, s. 103–104 i passim).
Początki współczesnej teorii wzrostu gospodarczego wiążą się z mo-
delem skonstruowanym pod koniec lat 50. przez Roberta Solowa (Solow
1956). Neoklasyczna funkcja produkcji została przez niego wzbogacona
o parametr symbolizujący wiedzę (ściślej: postęp techniczny). Za kolejny
etap na drodze do lepszego zrozumienia i wyjaśnienia zjawiska rozwoju
gospodarczego możemy uznać próbę potraktowania wzrostu jako procesu
endogenicznego. Dynamika jest tu określona wewnątrz modelu, a jej siłą
napędową są efekty zewnętrzne związane z kumulacją wiedzy w formie
technologii oraz kapitału ludzkiego (np. Mankiw i in. 1992; Romer 2000,
s. 149–163; Romer 1990).
Rozwój wiedzy pod postacią „szoków technologicznych” odgrywa za-
sadniczą rolę w koncepcjach formułowanych przez przedstawicieli szkoły
realnych cykli koniunkturalnych. W 1982 roku Erling Kydland i Edward

3
Schumpeter spopularyzował również charakterystyczny schemat rozwoju go-
spodarczego, oparty na kolejno następujących po sobie „falach”, które nazwał – od
nazwiska ich odkrywcy – falami Kondratiewa. Każda z takich fal została zapocząt-
kowana serią wynalazków, które prowadziły do transformacji systemu społecznego.
(Austriak argumentował również, że obserwowane fluktuacje gospodarcze stanowią
„wypadkową” fal Kondratiewa oraz cykli o mniejszych okresach, na przykład, Jugla-
ra i Kitchina).
4 PRZEMYSŁAW LESZEK

Prescott zaprezentowali model makroekonomiczny, w którym za fluktu-


acje PKB odpowiadały częste losowe „wstrząsy technologiczne”4.
W połowie ubiegłego wieku ekonomiści ponownie zaczęli przywiązy-
wać większą wagę do zachowań pojedynczych podmiotów rynku. Okre-
ślona w sposób doskonały „wiedza niedoskonała” – wraz z odgórnie
wyspecyfikowanymi i całkowicie sformalizowanymi schematami podej-
mowania decyzji w takim „niedoskonałym” otoczeniu informacyjnym5
– została szeroko opisana w literaturze. Takie podejście reprezentują kon-
cepcje rozwijane w obrębie tzw. nowej ekonomii klasycznej (chodzi tu
zwłaszcza o zasadę tworzenia prognoz ekonomicznych opartych na hi-
potezie racjonalnych oczekiwań, którą ostatecznie zaakceptowali również
przedstawiciele szkół konkurencyjnych), nowy keynesizm (zwłaszcza eko-
nomika informacji), a także teoria gier.
Począwszy od lat 80. obserwujemy umacnianie się pozycji nowego key-
nesizmu, którego przedstawiciele – na czele z Josephem Stiglitzem oraz
George’em Akerlofem, laureatami Nagrody Nobla – uczynili przewodnim
motywem swoich badań poszukiwanie wiarygodnych mikropodstaw,
tj. „prawdziwych” fundamentów, na których mogliby oprzeć tradycyjne,
keynesistowskie postulaty dotyczące niedoskonałości rynku o charakterze
makroekonomicznym6. Nowość ich ujęcia polegała przede wszystkim na
wprowadzeniu do rozważań ekonomicznych wysoko sformalizowanych
analiz sytuacji, w których jednostki zmagają się z asymetrią informacji
oraz niedoborami informacyjnymi7 (np. Akerlof 1970; idem 2003; Stiglitz
2004; por. Wojtyna 2000).

4
Wcześniejsze teorie ukazywały zazwyczaj cykle koniunkturalne jako odchylenia
PKB od pewnej krzywej trendu. Trend ten nie miał jedynie charakteru statystycz-
nego: starano się zidentyfi kować mechanizmy odpowiedzialne za powrót do „nor-
malnej” wartości. Nelson i Plosser uznali jednak, że wstrząsy wywołują zazwyczaj
trwałe zmiany – produkcja nigdy nie wraca do pierwotnego poziomu. Dlatego PKB
będzie dowolnie dryfował, bez tendencji do automatycznego podążania w kierunku
wyznaczonym przez trend. Nie oznacza to, że PKB nigdy nie będzie oscylował między
pewnymi wartościami. Gdy się jednak tak zdarzy, będzie to kwestia przypadku, a nie
działania jakiegoś mechanizmu (por. Snowdon i in. 1998, s. 248–300).
5
Kwestię doskonałej „wiedzy niedoskonałej” szerzej omawiamy w drugiej części
rozdziału.
6
Dotyczące na przykład fluktuacji produkcji i zatrudnienia, „niesprawiedliwej”
dystrybucji dóbr w gospodarce rynkowej czy niekompletności rynków – ta ostatnia
jest rezultatem negatywnej selekcji i w szczególności dotyczy rynku pracy (np. Akerlof
1984), kredytów (np. Greenwald i in. 1984), ubezpieczeń (np. Levinson 1992).
7
Niedobory informacyjne zdarzają się wtedy, gdy rynek dostarcza zbyt mało infor-
macji, by na ich podstawie dało się podejmować „racjonalne decyzje”. Asymetria infor-
macji to taka sytuacja, kiedy jakieś podmioty, konkurenci bądź kooperanci, stojąc przed
koniecznością rozstrzygnięcia określonej kwestii, nie dysponują jednakowo pełnymi
informacjami, które by to umożliwiły. Badania prowadzone wokół tych zagadnień do-
prowadziły niektórych przedstawicieli nowego keynesizmu do radykalnych wniosków:
„idee te podważyły teorię Smitha i wypływający z niej pogląd na rolę państwa. Z idei
Problematyka wiedzy w naukach społecznych 5

Rozwój matematycznej teorii gier pociągnął za sobą niebywały rozkwit


koncepcji ekonomicznych opisujących proces podejmowania decyzji przez
podmioty, które pozostają względem siebie w stosunku interakcji i dzia-
łają w warunkach wiedzy niedoskonałej. „Wiedza niedoskonała” stała się
tutaj synonimem ryzyka lub częściej (całkowicie błędnie) niepewności8.
Podsumujmy: oto rozpoznaliśmy trzy cechy podejścia ortodoksyjnego
do problemu będącego przedmiotem naszej analizy.
Po pierwsze, pojęcie wiedzy oraz jemu pochodne („wiedza doskonała”,
„niedoskonała”) nie są precyzyjnie zdefiniowane, toteż posługiwanie się
nim może stanowić przyczynę nieporozumień9.
Po drugie, ekonomiści mają skłonność do łączenia w swoich pracach
pojęcia wiedzy z wynalazczością czy technologią, mówiąc ogólnie: z na-
uką oraz jej rozwojem. Wiedza występuje tu w pewnej zagregowanej
formie, w roli jednego z czynników produkcji (obok kapitału oraz pra-
cy), zwykle w kontekście badań makroekonomii nad dynamiką wzrostu
gospodarczego.
Po trzecie, jeśli nawet rozważania prowadzone są na gruncie mikroeko-
nomii, to temat wiedzy albo nie występuje (zakładamy najpierw, że wie-
dza jest „doskonała”, następnie koncentrujemy się na właściwościach za-
stosowanego aparatu matematycznego), albo sprowadza się do określenia
„niedoskonałości” wiedzy w sposób doskonały (wprowadzamy do analizy
kiepską imitację „niedoskonałości”, dalej postępujemy zgodnie z tą samą
procedurą jak w przypadku wspomnianym wyżej).
Nie ulegając pokazanej tu swoistej logice myślenia części ortodok-
syjnych teoretyków, twierdzimy, że temat wiedzy w ekonomii nadal jest
ignorowany przez główny nurt i w związku z tym konieczny jest jego ob-
szerniejszy opis. Zagadnienia, które się z tym tematem łączą, będziemy
określać jako „problem” bądź „problematyka wiedzy”. „Wiedza”, jaką po-
sługują się modelowe podmioty (tudzież centralny planista), ma niewie-
le wspólnego z wiedzą osobistą, na podstawie której jednostki układają
swoje plany i podejmują decyzje. Wykażemy to w dalszej części rozdziału.
Teraz jednak spróbujemy odpowiedzieć na ważne dla nas pytanie: dlacze-
go ekonomia tak zaciekle broni się przed wiedzą?

tych wynika, że ręka, o której pisał Smith, jest niewidzialna po prostu dlatego, że nie
istnieje, a jeśli nawet istnieje, to jest sparaliżowana” (Stiglitz 2004, s. 78).
8
Więcej o teorii gier, hipotezie racjonalnych oczekiwań oraz o rozróżnieniu nie-
pewności i ryzyka (czyli prawdopodobieństwa niemierzalnego od prawdopodobień-
stwa mierzalnego) powiemy dalej.
9
Wiedza bywa utożsamiana np. z informacją, danymi, technologią, kapitałem
ludzkim, innowacjami, wiedzą naukową, wiedzą osobistą podmiotów rynku. Nato-
miast pojęcia: asymetria informacji, niedobory informacyjne, ignorancja, niepew-
ność, ryzyko itp. często używane są jako synonimy „wiedzy niedoskonałej”. „Wiedza
niedoskonała” to z kolei przeciwieństwo „wiedzy doskonałej”, co samo w sobie stano-
wi kiepskie objaśnienie terminu, gdyż tak naprawdę nie wiadomo, co to jest „wiedza
doskonała”.
6 PRZEMYSŁAW LESZEK

Urok New tona. Problem wiedzy


w naukach społecznych a urok New tona

Począwszy od XVI wieku, kierunki zmian, jakie dokonały się w sposo-


bie postrzegania świata oraz w systemach metodologicznych, wyznaczały
rozwój nauk przyrodniczych. Szczególną rolę w tym względzie odegrała
fizyka. Owe zmiany znacznie wykroczyły poza obszar badań należący do
„królowej nauk”. W czasie jednego stulecia nowożytna fizyka odcisnęła
piętno na większości dyscyplin przyrodniczych, społecznych10, a nawet
na sztuce i literaturze11.
W okresie oświecenia silniej ugruntował się wyznawany już wcześniej
pogląd, że „wiedzę” należy łączyć tylko ze sferą badań, rozwoju i przeko-
naniami naukowców:

w ciągu wieków większość filozofów „wiedzą” – a tym bardziej „na-


uką” – skłonna była nazywać jedynie takie poglądy, które byłyby
nie tylko prawdziwe, ale o których wiedzielibyśmy, że takie są. Nie
wystarczy prawda odgadnięta szczęśliwym trafem – nauka to zbiór
twierdzeń dowiedzionych (Sady 2008, s. 5).

Wiedza została utożsamiona znaczeniowo z nauką; słowa „nauka”


oraz „wiedza” często stosowano zamiennie. Zgodnie z Kartezjańskim
racjonalizmem (później nieco złagodzonym przez Kanta i praktykę na-
ukową) tradycja, obyczaj, skumulowane doświadczenie – jako słabo lub
w ogóle nieuzasadnione rozumowo – tracą swój sens. Zasadność „wiedzy

10
Uważamy, że systemowi mechaniki klasycznej przypisywano (i nadal tak się
czyni) nadmierną uniwersalność w kwestii zastosowania jego elementów jako ana-
logonów we wszystkich innych obszarach nauki. Szerzej myśl tą rozwiniemy w dal-
szej części rozdziału. W tym miejscu chcielibyśmy jedynie wspomnieć, że zwolenni-
cy szkoły austriackiej za przykład poważnego nadużycia w tym względzie wskazują
nawet zasadę malejącej użyteczności krańcowej, sformułowaną niezależnie przez
S.W. Jevonsa oraz L. Walrasa na wzór koncepcji szybkości w fi zyce. Niekiedy analogie
pomiędzy zjawiskami społecznymi i przyrodniczymi sięgały jeszcze dalej – do granic
absurdu. Na przykład, Heryng przedstawił (1896) „zasadnicze pojęcia ekonomicz-
ne ze stanowiska nauki o energii”. W książce o takim właśnie tytule odnajdujemy
defi nicje w rodzaju: „Energią zatem społeczną nazywać będziemy tę część ogólnej
energii kosmicznej, która się przejawia w procesach indywidualnego i społecznego
życia jednostek, tworzących pewien społeczny układ, i dzięki której żywotność całe-
go układu społecznego oraz oddzielnych jego składników podtrzymuje się i wzmaga”
(Heryng 1896, s. 52, za: Kwaśnicki 2005), czy: „Siła robocza – to potencyalna energia
biologiczna jednostek, wchodząca w skład układów społecznych. Praca – to przejaw
kinetycznej energii biologicznej tych jednostek” (Heryng 1896, s. 243, za: Kwaśnicki
2005).
11
Np. naturalizm francuski, pod którego wpływem była część pozytywistycz-
nych twórców, proponował upodobnienie powieści literackiej do studium naukowego
(Markiewicz 1998, s. 70).
Problematyka wiedzy w naukach społecznych 7

praktycznej” czy „osobistej” została zakwestionowana, ponieważ jej praw-


dziwości, a dokładniej, prawdziwości logicznych przesłanek działania, nie
potrafiono udowodnić.
Co więcej, „wiek rozumu” przyniósł ważne rozstrzygnięcia w sferze fi-
lozofii nauki: od tej pory jedyne słuszne i akceptowane w środowisku na-
ukowym odpowiedzi na pytania: „W jaki sposób należy poszukiwać takiej
wiedzy?” oraz „Jak odróżnić prawdę od fałszu?” odnajdywano w systemie
wypracowanym przez fizyków i matematyków. Coś, co w jakiś istotny
sposób nie przypominało systemu Newtonowskiej mechaniki lub z niej
nie wynikało, nie tylko nie zasługiwało na miano wiedzy lub nauki, ale
w ogóle nie było przedmiotem uwagi:

(…) system mechaniki zyskał, w powszechnej opinii, status wzorco-


wej teorii naukowej: jeśli odtąd jakakolwiek teoria miała pretendo-
wać do miana naukowej, to musiała pod pewnymi istotnymi (choć
nie zidentyfi kowanymi wyraźnie) względami przypominać Newto-
nowską mechanikę (Sady 2008, s. 7).

To, że powszechnie i mocno wierzono w fizykę oraz w wypracowane


przez fizyków narzędzia i metody poznawania rzeczywistości, nie wzięło
się stąd, że owi reprezentanci nauk przyrodniczych byli wyjątkowo pory-
wającymi osobowościami i mieli dar perswazyjnej retoryki, ani nie było
rezultatem rzeczowej i spójnej pod względem logicznym argumentacji fi-
lozofów nauki oraz samych naukowców12.
Metody te stały się tak atrakcyjne, gdyż dowiodły swojej – wręcz
niebywałej i bezprecedensowej w historii ludzkiego poznania – przy-
datności praktycznej w wyjaśnianiu rzeczywistości materialnej. W re-
zultacie ich stosowania naukowcy świętowali nieprzerwane pasmo
sukcesów w objaśnianiu i prognozowaniu zjawisk przyrodniczych
(określane niekiedy mianem „wielkiej rewolucji naukowej”). W prze-
ciągu zaledwie jednego stulecia ukształtowało się oblicze nowożytnej
nauki. O jej wyrazie zdecydowały wnikliwe obserwacje nieba prowa-
dzone przez Tychona Brahe i Galileusza oraz nowatorskie, antyanimi-
styczne, fizyczne koncepcje Keplera, odkrycia Bernoulliego, Laplace’a,
Huygensa, Boyle’a czy Hooke’a, a także najprawdopodobniej najważ-
niejsze dokonanie – sformułowanie prawa ruchu i powszechnego cią-
żenia przez Newtona.

12
Właściwie rzecz miała się zgoła na odwrót: wykorzystywanie do analizy ota-
czającej nas rzeczywistości – której obrazu pierwotnie dostarczają nam zmysły i do-
świadczenie – koncepcji o charakterze wybitnie abstrakcyjnym i nieempirycznym
(np. idea siły czy pojęcie nieskończoności) zaowocowało licznymi sprzecznościami
i wątpliwościami (por. Sady 2008, s. 7–12). Część trudności wiązała się również
z porzuceniem antropomorficznej interpretacji zjawisk przyrodniczych (o czym pi-
szemy dalej).
8 PRZEMYSŁAW LESZEK

Nawet w dobie romantyzmu, który za sprawą literatury tamtego okresu


kojarzy się raczej z porywami serca niż afirmacją nauki, jak przekonuje
Kochanowska (1998):

Intelektualiście angielskiemu i niemieckiemu (…) nie wypadało po-


zostawać obojętnym na najnowsze osiągnięcia fi zyki, biologii czy
geografii. Nawet ci, którzy nie mogli się poszczycić odpowiednim
dyplomem, czynili starania, by zaznajomić się bliżej z naukami
matematyczno-przyrodniczymi.

Wielu z nich, np. Schlegel czy Goethe, słynęło z bardzo rozległych za-
interesowań naukowych13.
Artystów romantycznych oczarowała nauka. Znalazłszy się pod wpły-
wem jej oszałamiających sukcesów, uważali, że wykorzystując niektóre
z nich, zdołają przeniknąć zagadkę życia czy zrozumieć przeznaczenie
świata. O ile tę ich fascynację moglibyśmy uznać za „poetyckie mrzonki”,
całkiem nieistotne dla toku naszego wywodu, o tyle podobne w swym
charakterze (a niekiedy także co do treści) rozważania naukowców nie
mogą ujść naszej uwagi.
Jak wspomniano, sukcesy mechanistycznego sposobu rozumowania
doprowadziły uczonych i filozofów do przekonania, że mechanika kla-
syczna stanowi podstawę nie tylko fizyki, ale też nauki w ogóle. Co wię-
cej, we wszechświecie poddanym prawom Newtona nie było miejsca na
przypadek, a przynajmniej nie w takim sensie, w jakim za przypadek
uznaje się wynik rzutu symetryczną monetą. Laplace twierdził z pełnym
przekonaniem, że gdyby idealnemu rachmistrzowi dostarczyć parametry
określające położenie wszystkich cząstek uniwersum, mógłby bezbłędnie
przewidzieć jego przyszłość oraz poznać przeszłość. Liczne interpretacje
oraz analizy doktryny Laplace’a czy też systemu Newtona (niekiedy zbyt
daleko idące i nie zawsze zgodne z intencjami samych twórców)14 istotnie
wsparły koncepcję „kompletności nauki”, stanowiącą wyraz wiary w to,
że nauka zbliża się do rozwiązania swoich zadań i że wkrótce poznamy
wszystkie odpowiedzi (Shattuck 1999, s. 63).
Artyści, przedstawiciele nauk przyrodniczych i społecznych – poza nie-
licznymi wyjątkami – ulegli urokowi Newtona. Kolejne dziedziny uzy-
skiwały status nauki: wystarczyło je upodobnić do dyscypliny twórców
technicznego sukcesu.
Urok Newtona oznaczał zatem fascynację uczonych oraz intelektuali-
stów systemem mechaniki. W świetle triumfu ludzkiej myśli nad przyrodą
– fascynację naturalną i zrozumiałą. Często jednak dzieje się tak, jak to
trafnie zaobserwował Hayek (2002b, s. 101):

13
Ten ostatni toczył nawet zacięty spór dotyczący teorii rozszczepialności światła
z samym Newtonem (Kochanowska 1998).
14
Por. przypis 23.
Problematyka wiedzy w naukach społecznych 9

Nigdy człowiek głębiej nie pogrąży się w błędzie niż wtedy, gdy da-
lej podąża drogą, która doprowadziła go do wielkiego sukcesu. Ni-
gdy też duma z osiągnięć nauk przyrodniczych (…) nie mogła być
bardziej uzasadniona niż na przełomie XVIII i XIX wieku.

W przeciągu stu lat urokowi Newtona ulegli również przedstawiciele


nauk społecznych (w szczególności ekonomiści) i wstąpili na drogę wyty-
czoną przez fizyków, wierząc zapewne w to, że tym sposobem będą mieli
choćby niewielki udział w sukcesie swoich kolegów przyrodników. W re-
zultacie zaczęto niemal bezkrytycznie stosować w analizie ludzkich dzia-
łań „fizyczne” schematy oraz sposoby opisu przyrody.
Najważniejsze pytanie – z perspektywy poruszanych tu zagadnień
– nadal jednak pozostaje bez odpowiedzi: Dlaczego, jak twierdzimy, fi-
zykalistyczny sposób uprawiania ekonomii oznacza, de facto, odsunięcie
problematyki wiedzy na dalszy plan? Podejmiemy teraz próbę rozstrzy-
gnięcia tej kwestii.
Wydaje się, że dokładnie to, co stało za sukcesem fi zyki i spektaku-
larnymi osiągnięciami rewolucji naukowej, w sporej mierze przyczyniło
się do zastoju w naukach społecznych, który – nie będzie to stwierdzenie
szczególnie ryzykowne – trwa nadal. W tendencji do ignorowania proble-
matyki wiedzy w ekonomii upatrujemy ważną przyczynę i jeden z syndro-
mów tego zastoju.
Nie chodzi nam o to, że nauki społeczne zostały nagle przyćmione
blaskiem fizyki i przestały cieszyć się zainteresowaniem oraz poważa-
niem naukowców, gdyż stało się dokładnie na odwrót: ów blask spłynął
na ekonomię, dzięki czemu uzyskała ona status „prawdziwej nauki”. Nie
mamy też na myśli spowolnienia pojawiania się nowych koncepcji eko-
nomicznych, przeciwnie – nastąpił wówczas ich prawdziwy wysyp. Nowe
idee, czerpane wprost z fizyki i tworzone per analogiam doprowadziły do
wybuchu „rewolucji marginalistycznej” i intensywnego rozwoju szkoły
neoklasycznej (por. Kwaśnicki 2005), której piętno ekonomia – przynaj-
mniej w swym głównym nurcie – nosi do dziś (por. Blaug 1994, s. 589;
Leszek 2009b). Zastój w ekonomii należy rozumieć w tym sensie, że nasza
wiedza o funkcjonowaniu systemu społeczno-gospodarczego nie powięk-
szyła się istotnie od czasów Richarda Cantillona i Adama Smitha, a już na
pewno nie tak, jak moglibyśmy tego oczekiwać, przyglądając się z zazdro-
ścią osiągnięciom przyrodników. Jak zauważył Mayer (1996, s. 12–15),
z każdym rokiem badaniom ekonomicznym poświęcamy więcej godzin
niż przez całe stulecie 1776–1876, a przy tym dysponujemy nieporówny-
walnie lepiej rozwiniętym aparatem matematycznym i większą ilością da-
nych. „Czy nasza wiedza wzrosła współmiernie do tego?” – pyta Mayer,
by natychmiast samemu sobie odpowiedzieć: „zapewne nie!” (Mayer
1996, s. 12).
Zanim fizyka odniosła swoje największe sukcesy i zanim, za sprawą
tych osiągnięć, metody fizyki wyniesiono na epistemologiczny piedestał,
10 PRZEMYSŁAW LESZEK

naukowcy musieli odrzucić – co dokonywało się stopniowo – niektóre idee


stanowiące istotną przeszkodę w jej rozwoju. Hayek twierdził, iż

Nauka15 musiała wywalczyć ten swój sposób myślenia w starciu


z obrazem świata, zbudowanym w większości z pojęć powstałych
na tle naszych stosunków z innymi ludźmi i w interpretacji ich dzia-
łań (Hayek 2002b, s. 15).

Stąd też, mając na uwadze, że nauki społeczne – zgodnie z tym, co su-


geruje ich nazwa – badają społeczeństwo, czyli właśnie sieć wzajemnych
stosunków między ludźmi, w pełni zgadzamy się z Hayekiem, iż w walce,
o której pisał,

nauka mogła się tak rozpędzić, iż wykroczyła poza początkowy cel,


i powstała sytuacja, w której niebezpieczeństwo jest wprost prze-
ciwne – dominacja scjentyzmu zagraża postępowi w rozumieniu
społeczeństwa (Hayek 2002b, s. 15)16.

Do największych przeszkód, które badacze odrzucili – co bezpośrednio


poprzedziło rewolucję naukową – należały:
a) zwyczaj kierowania większości wysiłków badawczych na analizę
idei innych ludzi (zazwyczaj starożytnych filozofów), tak jak gdyby
ich sądy i opinie od początku miały zawierać w sobie całą prawdę
o rzeczywistości;
b) kultywowany od najdawniejszych czasów i wszechobecny w myśli
ludzkiej antropomorfizm oraz animizm (anima mundi).
Pierwsza z powyższych kwestii nie wymaga obszerniejszych wyja-
śnień, skoncentrujemy się więc na drugiej. Antropomorfi zm stanowił
integralną część ówczesnego światopoglądu, natomiast w kontekście
epistemologii oznaczał, że człowiek rozpoczynał analizę zjawisk po-
przez interpretację ich na swoje podobieństwo, tzn. jako ożywione
przez jakiś umysł, z konieczności podobny do jego własnego umy-
słu17. Innymi słowy, tłumaczono zjawiska przyrodnicze, stosując ana-
logię do funkcjonowania ludzkiego umysłu, co zwykle oznaczało, że

15
W części swoich studiów filozoficznych Hayek pisze wyraz „Nauka” wielką li-
terą, by odróżnić te dyscypliny, które tradycyjnie zaliczamy do nauk przyrodniczych,
od nauki rozumianej w szerszym znaczeniu. Takie rozróżnienie nabiera sensu w świe-
tle tego, o czym już wcześniej pisaliśmy, a mianowicie, że wyraz „nauka” często by-
wał odnoszony jedynie do dziedzin przyrodniczych.
16
Hayek uzasadnia owo „prawo wahadła”, czy raczej „prawo bezwładności”, kil-
kakrotnie, a gdy wspomina o nim po raz pierwszy, powołuje się na prace L. Misesa,
H. Münsterberga i E. Bernheima (Hayek 2002b, s. 15 w przypisie).
17
Konieczność ta wynika z oczywistego faktu, że żaden człowiek nie potrafi sobie
wyobrazić sposobu funkcjonowania jakiegoś innego umysłu (również zwierzęcego),
przynajmniej w takiej mierze, w jakiej umysł ten jest nie-ludzki.
Problematyka wiedzy w naukach społecznych 11

dopatrywano się w nich skutków celowego działania jakiejś świadomo-


ści. Najbardziej oczywiste przykłady antropomorfi zmu odnajdujemy
w przednaukowych systemach kosmologicznych: od starożytności po
późne średniowiecze ciałom niebieskim (bądź „poruszycielom” tych
ciał) przypisywano świadomość, wolę, wiedzę, a nawet organy zmy-
słów. Dopiero w czasach Keplera i Kartezjusza dusza poruszająca, anima
motrix, stopniowo poczęła przeradzać się w siłę poruszającą, vis motrix
(por. Koestler 2002, s. 19–25, 255, 337–340; Hayek 2002b, s. 15–16).
Jeżeli współczesnym niełatwo jest pojąć istotę „rozumnej materii”, to
dzieje się tak właśnie dlatego, że już dawno odrzuciliśmy taki sposób
postrzegania świata i przyjęliśmy całkiem odmienny, ten zaproponowa-
ny parę wieków temu przez nauki przyrodnicze. Zauważmy, że pionie-
rzy nowożytnej fi zyki musieli uporać się z niemal dokładnie tym samym
problemem: z jego lustrzanym odbiciem. Samo wyobrażenie sobie sto-
sunków fi zycznych – w kategoriach pozbawionych celu, bezosobowych
sił – dla nas tak oczywiste, dla nich było wielkim intelektualnym wy-
zwaniem. W jednym z listów napisanych przez Keplera odnajdujemy
taką deklarację:

Za cel stawiam sobie pokazanie, że machina niebieska nie jest ro-


dzajem boskiej, żywej istoty, lecz rodzajem mechanizmu zegarowe-
go (a ten, kto wierzy, że zegar ma duszę, przypisuje dziełu chwałę
twórcy), z tym, że niemal wszystkie spośród rozmaitych ruchów są
spowodowane działaniem niezwykle prostej, magnetycznej i mate-
rialnej siły, tak samo jak ruchy zegara są spowodowane działaniem
zwykłego ciężarka. Pokazuję również, w jaki sposób należy wyrazić
te siły liczbowo i geometrycznie (list Keplera do Herwarta z lutego
1605, cyt. za: Koestler 2002, s. 337–338).

Zgadzamy się z Koestlerem (2002, s. 338), iż w powyższym fragmencie


została wyrażona istota rewolucji naukowej.
Rozbrat umysłu z materią, wraz z jednoczesną negacją starożyt-
nych idei jako nośników transcendentalnych i ponadczasowych prawd,
oznaczał, po pierwsze, odrzucenie wszelkich koncepcji, które zawie-
rały wyjaśnienie takiego a nie innego zachowania pewnych elemen-
tów rzeczywistości materialnej w kategoriach ich celowego działania,
opartego na ludzkiej percepcji świata. Po drugie, wyznaczył on nowy
cel nauce: badanie (obserwacja) „martwych” obiektów i bezosobowych
relacji pomiędzy nimi przez poznawanie jedynie ich „zewnętrznych”
przejawów, czyli „obiektywnych” właściwości fi zycznych, a następ-
nie ich klasyfi kacja ze względu na te właściwości. Doprowadziło to do
tego, czego już w XVI wieku domagał się Francis Bacon, a mianowicie
do dalszej eliminacji z rozważań o przyrodzie „pierwiastka ludzkie-
go” i przezwyciężenia słabości ludzkiego umysłu, ulegającego różnym
złudzeniom.
12 PRZEMYSŁAW LESZEK

Mówiąc krótko, celem nauki stało się poznawanie rzeczywistości ta-


kiej, jaka ona jest, nie zaś takiej, jaka myślimy, że jest – a co więcej – nie
takiej, jakiej ogląd pierwotnie dostarczają nam nasze zmysły w doświad-
czeniu. Jak zauważył Hayek:

świat, którym interesuje się Nauka, nie jest światem naszych usta-
lonych pojęć czy nawet wrażeń zmysłowych. Jej zadaniem jest wy-
tworzenie nowej organizacji całego naszego doświadczenia świata
zewnętrznego i w tym celu musi ona nie tylko przemodelować nasze
pojęcia, lecz także odejść od jakości zmysłowych oraz zastąpić je
odmienną klasyfikacją zdarzeń. Obraz świata, który człowiek so-
bie faktycznie ukształtował i którym się dość dobrze kieruje w co-
dziennym życiu, oraz ludzkie postrzeżenia i pojęcia nie są dla Nauki
przedmiotem badań, lecz niedoskonałym narzędziem, które trzeba
poprawić (Hayek 2002b, s. 21)18.

Większość wysiłków podejmowanych przez naukowców przynajmniej


od XVIII wieku podporządkowano osiągnięciu celu, o którym pisał
Hayek. Podobnie rzecz się ma ze wszystkimi narzędziami, schematami
myślowymi i koncepcjami, wykorzystywanymi przez badaczy przyrody
z tak wielkim powodzeniem. Do ich sukcesu przyczyniło się to, że w toku
rozwoju nauki zostały one odpowiednio dobrane (w sposób świadomy lub
nie) pod kątem ich przydatności we wspieraniu owych wysiłków.
Skutki ich bezkrytycznego rozciągnięcia na nauki społeczne, zwłaszcza
na ekonomię, są dzisiaj łatwo dostrzegalne. Podążanie ekonomii ślada-
mi fizyki oznacza, między innymi, prymat myślenia, „jak jest rzeczywi-
ście”, i wynikających stąd konsekwencji nad tym, „jak myślimy, że jest”,
i wniosków płynących z takiego ujęcia. Problem polega na tym, że w na-
ukach zajmujących się badaniem elementów przyrody materialnej takie
rozróżnienie nie istnieje – w tym sensie, iż ze względu na ustalony w czasie

18
Nie możemy tutaj przytoczyć całej argumentacji, która prowadzi do takich
wniosków. W dużym skrócie chodzi o to, że w toku rozwoju nauki zastępujemy te
pierwotne obrazy i klasyfi kacje, które są obciążone „ułomnością” (charakterystyką)
naszych zmysłów, przez następne, w coraz większym stopniu pozbawione tej cechy.
Rozpatrzmy prosty przykład. Łatwo możemy sobie wyobrazić mieszkańców odosob-
nionej wyspy, którzy – w myśl powszechnie akceptowanego na wyspie naukowego
poglądu – będą postrzegali wodę i lód jako dwie różne substancje, natomiast lód
i szkło, jako takie same. Pierwotne kryterium takiego podziału, które niejako „narzu-
ca” się ich zmysłom, to stan skupienia. Tak ustalone relacje pomiędzy wodą, lodem
oraz szkłem będą stanowiły obiektywne fakty: punkt wyjścia ewentualnych dalszych
dociekań i jednocześnie „niedoskonałe narzędzie”, o którym pisał Hayek. Jednakże
w toku dalszych badań mieszkańcy wyspy mogą dojść do wniosku, że w zdecydo-
wanej większości przypadków i w okolicznościach, których wcześniej nie znali, lód
ujawnia większe podobieństwo z wodą niż ze szkłem. „Punkt wyjścia” zmieni się
i będzie teraz w mniejszym stopniu odpowiadał klasyfikacji dostarczonej przez zmy-
sły w wydaniu pierwotnym (zob. też Hayek 2002b, s. 17–22).
Problematyka wiedzy w naukach społecznych 13

„rewolucji naukowej” charakter przedmiotu badań jest ono tak oczywiste


i naturalne, że nikt się nawet nad nim nie zastanawia. Tymczasem w eko-
nomii, podobnie jak w fizyce, w zasadzie również ono nie istnieje, chociaż
obiekt badań, jakim jest jednostka ludzka, istotnie różni się od planety czy
atomu (por. Mises 2007, s. 1–60). Podstawowe różnice sprowadzają się do
tego, że podmioty rynku posiadają umysły podobne do umysłu badacza
oraz – co tutaj interesuje nas nawet bardziej – działają na podstawie swojej
wiedzy i potrafią się uczyć. Wprawdzie nawet Kepler – jeden z ojców re-
wolucji naukowej – przypisywał planetom posiadanie wiedzy dotyczącej
ich położenia w przestrzeni (Koestler 2002, s. 339), jednak od czasów
Newtona taki pogląd uznawany jest za anachronizm19. Nowoczesne spo-
soby rozumowania po prostu nie biorą pod uwagę takiej ewentualności:
badaniu podlega sam obiekt, taki, jakim jest, natomiast – co oczywiste
– badaniu nie podlega wrażenie tego obiektu o sobie samym lub o innych
obiektach. Fizycy mogą odkrywać prawa przyrody i formułować je we-
dług następującego schematu: „Jeżeli wystąpią takie czy inne obiektywne
i obserwowalne fakty (okoliczności), badane zjawisko (lub obiekt) zacho-
wa się w taki czy inny sposób”. W takim sensie układ faktów determinu-
je określone zjawisko. Jeśli badacz tylko rozpozna ten układ (odkryje te
„obiektywne” fakty) oraz ich powiązanie z badanym zjawiskiem, będzie
mógł, z ogromnym prawdopodobieństwem, przewidzieć jego rozwój.
Tymczasem w naukach społecznych badaczowi w celu wytłumacze-
nia określonego zachowania podmiotów rynku nie wystarczy znajomość
„obiektywnych” czy „stylizowanych” faktów (typu: wielkość PKB, cena
produktu, jakość produktu czy treść rozporządzenia ministra finansów
itp.). Niekiedy takie „obiektywne” fakty nie wpływają na zachowanie
jednostki na rynku. Jeżeli w ogóle możemy mówić o tym, że zachowa-
nie człowieka jest jakoś „zdeterminowane”, to czynnikiem determinują-
cym nie będą „obiektywne” fakty, ale to, co ten człowiek o nich wie i jak
– zgodnie z tą wiedzą – je interpretuje. Zatem w naukach społecznych fak-
ty, od których wychodzi badacz w swej analizie, obejmują (a raczej winny
obejmować) także opinie i poglądy podmiotów rynku. Zasadniczo, waż-
niejsze są atrybuty, jakie ludzie przypisują danym obiektom i sytuacjom,
niż „prawdziwe”, tj. „obiektywne”, cechy i właściwości tych obiektów
i sytuacji (por.: Hayek 1998, s. 42–88; idem 2002b, s. 15–48).
Podsumujmy nasz dotychczasowy wywód. Jak wspomnieliśmy we wstę-
pie, współczesna ekonomia głównego nurtu ignoruje bądź niepoprawnie
określa problematykę wiedzy, co ma negatywny wpływ na jakość teorii
formułowanych przez ekonomistów. Za przyczynę takiego stanu rzeczy
uznaliśmy przede wszystkim specyficzne „fizykalistyczne” stanowisko

19
Należy jednak dodać, że M. Friedman w The Methodology of Positive Economics
(1953, s. 3–43) dopuszcza w zasadzie stosowanie każdego modelu, nawet najbardziej
absurdalnego, pod warunkiem, że jest potwierdzony serią skutecznych predykcji.
Przekonującą krytykę takiego stanowiska przedstawił Hayek.
14 PRZEMYSŁAW LESZEK

epistemologiczne i metodologiczne badacza-ekonomisty. Sukcesy mecha-


nistycznego sposobu wyjaśniania rzeczywistości materialnej doprowadziły
uczonych do przekonania, że jest to jedyne słuszne podejście do problemu
badawczego, i to bez względu na przedmiot badań. Ponadto wskazali-
śmy źródło tendencji do „obiektywizowania” wiedzy, tj. utożsamiania jej
z poglądami naukowców, co z kolei znalazło wyraz w różnych próbach
„ucieleśnienia” wiedzy, na przykład pod postacią parametru opisującego
postęp technologiczny w modelu wzrostu gospodarczego. Uważamy, że
takie „makroekonomiczne” ujęcie może być bardzo przydatne20. Jest jed-
nak możliwe, że tendencja, o której tu mowa, dodatkowo odwróciła uwa-
gę ekonomistów od odmiennej w swym charakterze „wiedzy osobistej”,
którą jednostki kierują się w swoich decyzjach.
Krótko mówiąc, w pierwszej części staraliśmy się zidentyfikować
ułomność teorii ekonomicznej głównego nurtu na poziomie fundamen-
talnym, tj. na poziomie idei mówiącej o niemal bezgranicznych możliwo-
ściach stosowania schematów mechanistycznych w naukach społecznych.
Gdy się przyjrzeć w tym świetle wysiłkom zmierzającym do usprawnie-
nia teorii, które polegają na wprowadzaniu do fizykalistycznych modeli
kosmetycznych zmian (np. ustanawiania zależności probabilistycznych
w miejsce funkcyjnych czy dodawania parametrów określających „wiedzę
niedoskonałą”), można mieć uzasadnione wątpliwości, czy są one właści-
wie ukierunkowane.
W drugiej części rozdziału polemizujemy z konkretnymi rozwiązania-
mi, jakie oferuje nam współczesna teoria ekonomii głównego nurtu.

Bu nt przec iwko w ied z y doskonałej:


wiedza rozproszona i niepewność
W rzeczywistym świecie dysponowanie pewnymi informacjami (lub
ich brak) przesądza o ekonomicznych wyborach dokonywanych przez
podmioty rynku (co w konsekwencji może określać sposób funkcjono-
wania całych rynków). Niezależnie od tego – jak by się mogło wydawać
– banalnego spostrzeżenia kwestie związane z problematyką wiedzy
nie stanowią ważnego przedmiotu rozważań teoretycznych. Od czasów
tzw. rewolucji marginalistycznej w XIX wieku, kiedy ekonomia uległa

20
Rodzi ono jednak niekiedy poważne problemy „pomiarowo-wymiarowe”. W fi-
zyce zwraca się szczególną uwagę na to, by po obu stronach równania stały te same
„wymiary” (powierzchnia, waga, odległość, siła itp.), gdyż jest to warunek konieczny
poprawności wszelkich obliczeń. Ekonomiści natomiast – jak zauważył W. Barnett II
(2004) – przejąwszy od fi zyków ich metody, wyliczają wartości „agregatów” makro-
ekonomicznych, często nie zwracając uwagi na zgodność wymiarów i jednostek. Oka-
zuje się, że uwzględnienie ich w rachunkach często powoduje trudności z odniesie-
niem tak uzyskanych wyników do rzeczywistości gospodarczej.
Problematyka wiedzy w naukach społecznych 15

wpływowi nauk przyrodniczych, były one zbywane założeniem o wiedzy


doskonałej. W powszechnej interpretacji postulat ten oznacza, że badacz
przyjmuje, iż ludzie podejmują decyzje ekonomiczne w taki sposób, jak
gdyby znali wszystkie fakty, które w rzeczywistości mogłyby mieć wpływ
na te decyzje21.
Dopiero w XX wieku Hayek – podczas zapoczątkowanej przez Mi-
sesa debaty nad sprawnością gospodarki socjalistycznej – poruszył pro-
blem wiedzy, nadając mu fundamentalne znaczenie (por. Kostro 2001,
s. 117–163; Godłów-Legiędź 1992, s. 209–241).
„Debata kalkulacyjna” była jednym z najważniejszych epizodów w hi-
storii myśli ekonomicznej (por. Kirzner 1988). Ludwig von Mises rzucił
w jej trakcie wyzwanie teoretykom socjalizmu: bez własności prywatnej
nie ma rynku dóbr kapitałowych, bez rynku nie ma cen. Nie jest zatem
możliwa kalkulacja ekonomiczna, która z kolei stanowi podstawę racjo-
nalnej (efektywnej) alokacji kapitału (Mises 1990). Teoretycy socjalizmu,
niejako w odpowiedzi na ten argument, adaptowali do własnych celów
neoklasyczne narzędzie, pozwalające im imitować bodźce rynkowe: me-
chanistyczny model równowagi ogólnej. Zaczęło ono służyć do opisu
funkcjonowania kolektywnej gospodarki planowej. Z jego pomocą można
było ustalić ceny równoważące popyt i podaż w skali całego „rynku”, i to
bez konieczności odwoływania się do określonych transakcji rynkowych.
Uczestnikom debaty umknęła ważna sprawa, że pojęcia ceny w rozumie-
niu neoklasycznym oraz ceny rynkowej, poza samym określającym je ter-
minem, nie mają ze sobą wiele wspólnego (por. Machaj 2009), co spra-
wiło, że szala zwycięstwa w sporze przechyliła się na korzyść socjalistów.
Wykazali oni (przynajmniej w mniemaniu opinii publicznej, na gruncie
„obowiązującego” wówczas, neoklasycznego paradygmatu), że jednak
istnieje aparat teoretyczny umożliwiający optymalną alokację zasobów
w gospodarce planowej.
W sukurs Misesowi przyszedł Hayek. Swoje stanowisko w debacie
zawarł w kilku artykułach22 , wskazując w nich na istnienie dotychczas
pomijanego, a przy tym bardzo ważnego aspektu analizy ekonomicznej:
problemu wiedzy. Nawet gdyby teoria neoklasyczna wskutek nadmierne-
go uproszczenia, nie fałszowała natury rynku, to i tak planista do skon-
struowania modelu naśladującego gospodarkę musiałby dysponować wie-
dzą, której nie zdołałby posiąść. Musiałby mianowicie poznać wszystkie

21
Nie próbujemy analizować znaczenia praktycznego tego postulatu, tj. wyobra-
żać sobie takiej sytuacji w rzeczywistości. Nie mamy jednak wątpliwości co do tego,
że wiązałoby się to z koniecznością brnięcia coraz głębiej w absurd.
22
Są to: Socialist Calculation: The Nature and History of the Problem (1935), So-
cialist Calculation: The State of the Debate (1935), Socialist Calculation: The Competi-
tive Solution (1940). Z naszego punktu widzenia ważniejsze są jednak Economics and
Knowledge (1937) oraz The Use of Knowledge in Society (1945), a także późniejsze. Wy-
mienione w tym przypisie artykuły zostały ponownie wydane jako rozdziały w książ-
ce Indywidualizm i porządek ekonomiczny (1998).
16 PRZEMYSŁAW LESZEK

parametry określające poprawnie stan systemu społeczno-gospodarczego


w określonym czasie. Podobnie jak fizycy nie są w stanie (przynajmniej
dziś) pozyskać informacji dotyczących położenia wszystkich cząsteczek
materii, nie jest też możliwe, by jakikolwiek człowiek (w tym planista) po-
znał całość współczynników charakteryzujących system społeczno-eko-
nomiczny. W szczególności nie będą dla niego dostępne takie parametry,
które by wiernie pokazywały gusty, preferencje, wiedzę oraz działania po-
szczególnych ludzi. Nie będzie także mógł zgromadzić wielu innych infor-
macji, które decydują na przykład o indywidualnym charakterze każdego
urządzenia wykorzystywanego w produkcji dóbr (choćby o stopniu zuży-
cia poszczególnych maszyn w gospodarce, por. Hayek 1998, s. 173–176).
Wiedza jest bowiem rozproszona i nie poddaje się agregacji:

Suma wiedzy wszelkich jednostek nigdzie nie istnieje jako integral-


na całość. Wielki problem polega na tym, w jaki sposób możemy
wszyscy korzystać z tej wiedzy, która występuje tylko w rozprosze-
niu jako oddzielne, cząstkowe i niekiedy sprzeczne przekonania
wszystkich ludzi. (Hayek 2007, s. 38)

Nawet jeśli się przyjmie całkowicie nierealistyczne założenie, że wyma-


gane dane zostałyby w jakiś sposób zgromadzone, jest to niewystarczające,
aby móc skutecznie zarządzać gospodarką. Pozostawałyby jeszcze proble-
my związane z ich opracowaniem i podejmowaniem decyzji na podstawie
tych danych. Z matematycznego punktu widzenia znalezienie warunków
równowagi modelu równowagi ogólnej nie stanowiłoby żadnego proble-
mu. W praktyce rozwiązanie układu liczącego miliardy lub nawet biliony
równań byłoby barierą nie do pokonania. Hayek był zdania, że algoryt-
my, które wskazano jako rozwiązanie problemu alokacji, nie mają sensu,
gdyż ich złożoność pozbawia je obliczalności praktycznej (Hayek 1998,
s. 171, 175).
Teorie ekonomiczne oraz ilustrujące je modele są konstruowane na
podstawie określonych zespołów danych. Hayek zwrócił uwagę na to, że
słowo „dane” było nader często (choć zwykle nieświadomie) nadużywa-
ne przez ekonomistów. Dane to pewne elementarne, niekiedy szczątkowe
sygnały, których znamienną cechą jest to, że są one dane, czyli dostępne
i przedstawione w postaci umożliwiającej ich dalszą analizę. Hayek jako
pierwszy zadał pytanie: „Komu te fakty mają być dane?” (Hayek 1998,
s. 48). Zauważył ponadto, że kwestia ta zawsze budziła podświadomy nie-
pokój ekonomistów. Świadczyć o tym może stosowanie przez nich pleo-
nazmów typu given data, jako rodzaju zabezpieczenia przed trapiącymi
ich wątpliwościami. Samo podkreślanie tego, że dane są dane, nie roz-
strzyga przecież zasadniczej kwestii, o której pisaliśmy w pierwszej części
rozdziału: czy są to „obiektywne” fakty dane ekonomiście obserwatoro-
wi, czy może osobom, których działanie chce on wyjaśnić? Czy te same
zespoły danych są znane wszystkim? Czy fakty składające się na wiedzę
Problematyka wiedzy w naukach społecznych 17

poszczególnych jednostek są zależne od percepcji tych osób, a wiec mają


charakter subiektywny, czy też nie?
Samo przedstawienie problematyki wiedzy ekonomicznej z takiej per-
spektywy natychmiast demaskuje absurd idealizacyjnych założeń leżą-
cych u podstaw wielu współczesnych teorii ekonomicznych. Należy bo-
wiem podkreślić, że choć nasza krytyka bezpośrednio wymierzona jest
w mechanistyczną teorię neoklasyczną, to rykoszetem godzi w główny
nurt współczesnej ekonomii. Jak zauważył M. Blaug (1994, s. 589):

Kiedy użalamy się nad formalizmem Walrasa, musimy również


pamiętać, że cała prawie dzisiejsza teoria ekonomii jest teorią
Walrasowską. Niewątpliwie, współczesne teorie pieniądza, handlu
międzynarodowego, zatrudnienia i wzrostu są teoriami równowa-
gi ogólnej w uproszczonej postaci (…) Na całą współczesną teo-
rię mikro- i makroekonomiczną można patrzeć jako na rozmaite
sposoby wyposażania analizy równowagi ogólnej w przydatność
operacyjną (…).

Jak wspomniano, istnieje bardzo wiele przeszkód, jakie ekonomista


musiałby pokonać na drodze do stworzenia takiego modelu rynku, który
dawałaby mu możliwość poprawnej ilościowej predykcji zdarzeń (lub ta-
kiej jego imitacji, na której planista mógłby oprzeć swój plan). Trudność
związana z koniecznością posiadania wiedzy niemożliwej do zdobycia to
jedna z nich.
Wiedzy, którą posiłkują się jednostki w procesach rynkowych, nie
da się bowiem połączyć w jeden zwarty zbiór. Posługując się terminami
„wiedza społeczeństwa” czy „wiedza społeczna”, zawsze należy pamię-
tać, że mają one znaczenie metaforyczne, tzn. że wiedza, o której mowa,
w rzeczywistości nigdy nie występuje w postaci skoncentrowanej, lecz
jako fragmenty niepełnych i często sprzecznych ze sobą informacji. Wie-
dza, którą ekonomiści często przyjmują za daną, jest w istocie rozpro-
szona pomiędzy podmioty gospodarujące, toteż jej agregacja okazuje się
niemożliwa. Nie stanowi ona ponadto z góry określonego i zamkniętego
zespołu informacji potrzebnych do prowadzenia działalności gospodar-
czej i podejmowania decyzji ekonomicznych, ale dzięki konkurencji jest
ona dopiero odkrywana i przyswajana w trakcie procesu gospodarczego
przez poszczególne jednostki (Hayek 2002a). Nie chodzi więc jedynie
o absurdalny wymóg zgromadzenia niewyobrażalnie wielkiego zasobu
wiedzy w pojedynczych umysłach. Zauważmy, że lepsze rozwiązania
techniczne często powstają jako rezultat zetknięcia się przedsiębiorcy
z nowymi okolicznościami, których nie da się określić z góry. Zatem
uwzględnienie wiedzy technicznej i jej rozwoju przez neoklasycznego
ekonomistę nie sprowadza się tylko do kwestii jej zgromadzenia, przy-
swojenia i zmaterializowania w postaci równań i parametrów modelu.
Musiałby on być zdolny do samodzielnego odkrywania wiedzy tego
18 PRZEMYSŁAW LESZEK

rodzaju (ewentualnie zainstalować w swoim modelu jakiś cudowny me-


chanizm jej odkrywania).
Tradycja intelektualna w filozofii i nauce dominująca w XVIII i XIX wie-
ku znalazła swój wyraz między innymi w głębokiej i niepodważalnej wie-
rze w naukę i racjonalny umysł. Nawet ci spośród badaczy społecznych,
którzy dostrzegali problem wiedzy, przywiązywali wagę jedynie do wiedzy
naukowej lub technicznej wiedzy ekspertów oraz – co stanowiło tego kon-
sekwencję – do skutków jej posiadania bądź braku. Zaledwie pół wieku
temu Hayek poczynił następujące spostrzeżenie: „w dzisiejszych czasach
sugestia, że wiedza naukowa nie jest sumą wszelkiej wiedzy, brzmi niemal
jak herezja” (Hayek 1998, s. 92).
W chwili gdy Austriak pisał te słowa, wybitny węgierski uczony i filozof
Michael Polanyi wnikliwie analizował przyczyny oraz konsekwencje tego,
że poza wieloma innymi swoimi ograniczeniami nasz umysł funkcjonuje
w sposób, który wyklucza możliwość zamiany w słowa, w tekst czy w ja-
kąkolwiek inną wyartykułowaną formę większości posiadanej przez nas
wiedzy. Jak twierdził Polanyi, „całkowicie wyartykułowana wiedza jest
nie do pomyślenia” (1969, s. 144), co w innym miejscu wyraził w słowach:
we can know more than we can tell (Polanyi 1983, s. 4).
Co więcej, wiedza ukryta (tacit knowledge) ma charakter podstawowy
w stosunku do wiedzy zwerbalizowanej. Zarówno z punktu widzenia ge-
nezy wiedzy, jak i jej funkcjonowania, wiedza zwerbalizowana jest uzależ-
niona od reguł, które są znane określonemu podmiotowi działania w for-
mie czynnościowej, a reguły te nie muszą lub nie mogą być ujęte w formie
pojęciowej. Znaczna część naszej wiedzy pozostaje zatem z konieczności
subiektywna i nieuświadomiona (np. Polanyi 1969, s. 144). To oczywiste,
że ekonomista lub planista nie może jej w żaden sposób wykorzystać.
W naturze człowieka leży chęć odkrywania prawidłowości otaczające-
go go świata oraz – co prawdopodobnie się z tym łączy – instynktowna
obawa przed tym, co nieznane i nieprzewidywalne. Chociaż starożytne
mitologiczne kosmologie często wywodziły świat z chaosu, to on sam
był już opisywany jako stabilny i przewidywalny, zaprojektowany z roz-
mysłem i celowo. Przez tysiąclecia panował pogląd, że świat funkcjonuje
według pewnych ścisłych, deterministycznych reguł, a zadaniem nauki
winno być ich odkrywanie. W niektórych epokach lęk przed nieznanym
okazywał się tak silny (albo pycha tak wielka), że naukowcy i filozofowie
zamiast odkrywać owe prawa, często je „wynajdywali” (na przykład: do-
skonały i niezmienny Platoński świat idei, dogmat koła i ruchu jednostaj-
nego, antropomorfizm, wiara w opatrzność i przeznaczenie czy nieubłaga-
ne prawa historycznego rozwoju oraz wiele innych).
Świat po rewolucji naukowej był pod tym względem miejscem bardzo
atrakcyjnym: pozwalał intelektualistom zapomnieć o niepewności i na-
karmić pychę rozumu. We wszechświecie poddanym prawom Newtona
nie ma miejsca na czysty przypadek. Laplace twierdził z pełnym przekona-
niem, że gdyby doskonałemu rachmistrzowi dostarczyć dane określające
Problematyka wiedzy w naukach społecznych 19

położenie wszystkich cząstek uniwersum, to – wykorzystując sformuło-


wane przez Newtona prawa ruchu i ciążenia – mógłby bezbłędnie przewi-
dzieć przyszłość świata oraz poznać jego przeszłość:

rozpatrzmy inteligencję, która znałaby, w danej chwili, wszystkie


działające w przyrodzie siły i wzajemne położenie wszystkich ele-
mentów przyrody (…) i wystarczająco rozległą, aby te dane poddać
analizie. (…) Dla takiej inteligencji nic nie byłoby nieznane, przy-
szłość, podobnie jak przeszłość, jawiłaby się jej oczom (…) Odkrycia
[ludzkiego umysłu] w mechanice i geometrii, w połączeniu z od-
kryciem prawa powszechnego ciążenia, umożliwiły mu poznanie
w takich samych kategoriach analitycznych przeszłych i przyszłych
stanów świata (Laplace 1995, s. 2).

Wprawdzie Laplace dodał, iż osiągnięcie takiego absolutu jest niemożli-


we, ale równocześnie przekonywał, że podejmowane przez człowieka wy-
siłki poznawcze (w obrębie systemu mechaniki) wiodą go konsekwentnie
ku opisanej przez niego „inteligencji” (Laplace 1995, s. 2, 3 i passim)23.
Owego rachmistrza czy też „inteligencję” – hipotetyczną postać posia-
dająca doskonałą wiedzę – nazwano później „demonem Laplace’a” oraz
uczyniono zeń symbol filozofii fatalizmu i determinizmu. Świat widziany
przez pryzmat neoklasycznej teorii ekonomii podobny jest do determi-
nistycznego świata Newtonowskiego, a zamieszkujący go ludzie – dyspo-
nując całą „doskonałą” wiedzą – przypominają demony Laplace’a. O ile
jednak fizyczna doktryna Newtona–Laplace’a dowiodła swej ogromnej
użyteczności w praktyce, to jej ekonomiczny odpowiednik jest po prostu

23
W literaturze naukowej i fi lozoficznej często powraca pewien krytyczny pogląd,
godzący w Laplace’a i jego doktrynę. Zgodnie z nim wizjonerski projekt Laplace’a nad-
miernie upraszcza rzeczywistość, co daje uczonym fałszywe poczucie „pewności”
i stanowi naukowe wsparcie dla idei konstruktywizmu oraz determinizmu (wszystko,
co się wydarza, jest nie do uniknięcia i z góry wiadome). Należy jednak zaznaczyć, że
sam Laplace nie postawił znaku równości pomiędzy swoją hipotetyczną wizją i świa-
tem realnym, lecz określił pewne warunki, których spełnienie – jak sam podkreślał
– jest praktycznie niemożliwe (na przykład założenie o doskonałej wiedzy i nadludz-
kich możliwościach analitycznych podmiotu poznawczego). Oczywiście pomylił się,
utożsamiając prawidłowości rządzące zjawiskami z zasadami ruchu i dynamiki New-
tona. Pomimo to, tak kategoryczne potępianie go za samą ideę głoszącą, iż przyrodą
rządzą pewne uniwersalne i precyzyjne prawa, wydaje się niesłuszne, gdyż kwestia
ta nadal jest otwarta i do dzisiaj stanowi przedmiot sporów naukowców i filozofów
(por. Amsterdamski i in. 1964). Bardziej niż sam Laplace na krytykę zasługują nato-
miast ci uczeni, którzy usilnie starają się odnieść jego hipotetyczny twór bezpośred-
nio do rzeczywistości. O ile w obrębie fizyki takie działanie można w jakimś stopniu
uzasadnić (w warunkach laboratoryjnego eksperymentu zdarza się, że analizowany
układ jest stosunkowo prosty i odizolowany, więc dla celów praktycznych można
często przyjąć, iż fi zyk istotnie wie o nim wszystko), o tyle nie znajdujemy usprawie-
dliwienia dla analogicznej postawy reprezentowanej przez część ekonomistów.
20 PRZEMYSŁAW LESZEK

zbiorem formalizmów pozbawionych głębszej treści i przydatności do opi-


su rzeczywistości gospodarczej.
Nawet pobieżny przegląd XX-wiecznej literatury ekonomicznej po-
kazuje, że w pierwszej połowie stulecia nastąpiła wyraźna – choć, jak
uważamy, niewiele wnosząca do naszego rozumienia rynku – zmiana
w badawczej perspektywie głównego nurtu. Część ekonomistów podjęła
wysiłek teoretycznego ujęcia niepewności i ignorancji, które towarzyszą
gospodarczej aktywności człowieka. Zapoczątkowane wówczas próby
trwają do dziś.
Zmianę tę możemy wytłumaczyć, wskazując na zjawisko, które opi-
saliśmy w pierwszej części artykułu: znowu chodzi o wpływ, jaki nauki
przyrodnicze wywierają na kształt i charakter nauk społecznych.
Na początku XX wieku fizykę dotknął kryzys. Fizycy coraz śmielej
zaczęli naruszać fundament swojej nauki – system mechaniki. Już pod
koniec XIX wieku mnożyły się odkrycia, z którymi nie umiano sobie po-
radzić za pomocą koncepcji klasycznych. Wobec zaskakujących wyników
doświadczeń i eksperymentów zaczęto podważać podstawy teoretyczne
oraz metodologiczne, na jakich dotychczas opierała się nowożytna fizy-
ka. Mamy tu przede wszystkim na myśli tezy Bohra o indeterminizmie
w przyrodzie mikrofizycznej (atomowej), a także epistemologiczne rozwa-
żania Heisenberga (zasada nieoznaczoności), które, jak twierdzą niektórzy,
były zdecydowanie sprzeczne z wizją Laplace’a24 (por. Jakubowski 1997,
s. 123–125; Tatarkiewicz 2009, t. 3, rozdz. Zagadnienia filozoficzne w fizy-
ce, s. 271–280). Do fizyki włączono rachunek prawdopodobieństwa i pro-
cesy stochastyczne, a za jej przykładem podobnie działo się w ekonomii.
Różnice pomiędzy deterministycznym modelem neoklasycznym
a „niedeterministycznym” modelem współczesnym sprowadzają się za-
zwyczaj do tego, że w tych pierwszych zależności pomiędzy zmiennymi
objaśniającymi i objaśnianymi są stałe i zdeterminowane funkcyjnie, na-
tomiast te drugie dopuszczają zmiany (parametrów lub formuły funkcyj-
nej) i zawierają składniki losowe. Przykładowo, w modelach makroeko-
nomicznych takie zmienne jak zasób pieniądza, wielkości dochodu, stóp
procentowych czy poziom cen często określane są przez błądzenie losowe
ze stałym dryfem (Frydman, Goldberg 2008, s. 31).
Ponieważ jednak, za przykładem fizyki, od „prawdziwych” i w pełni
„naukowych” modeli wymaga się, żeby dostarczały ścisłych prognoz ilo-
ściowych, najlepiej takich, które nadają się do weryfikacji na podstawie
kryteriów statystycznych, to modele te – jeśli chodzi o uwzględnienie

24
Systemowi Newtona nie przysłużyły się również nieudane próby wykrycia spo-
dziewanego wpływu ruchu Ziemi względem hipotetycznego eteru na przebieg zjawisk
optycznych i elektromagnetycznych na jej powierzchni, a także wyniki dotyczące
widma promieniowania ciał czarnych, efektu fotoelektrycznego i zmian ciepła wła-
ściwego ciał stałych w niskich temperaturach oraz wiele innych (por. Sady 2008,
s. 14–16).
Problematyka wiedzy w naukach społecznych 21

w nich ignorancji i niepewności – tylko pozornie różnią się od swoich


neoklasycznych odpowiedników.
Ekonomiści, chcąc uzyskać opisane tu właściwości modelu, muszą
bowiem z góry dokładnie określić, jak uczestnicy rynku zmieniają swoje
decyzje i jak będące rezultatem tych decyzji zagregowane wyniki zmie-
niają się w czasie. A więc, zarówno harmonogram zmian, jak też rozkład
prawdopodobieństwa czynników losowych musi być z góry precyzyjnie
określony. Na paradoks ten zwrócili ostatnio uwagę Frydman i Goldberg,
zauważając, że:

Ścisłe, probabilistyczne przewidywania zmiany oznaczają po prostu


losowe odstępstwa od przewidywania deterministycznego. Wnio-
skujemy, że jakkolwiek mogą wydawać się odmienne, współczesne
probabilistyczne modele są tak samo restrykcyjne jak ich determini-
styczne odpowiedniki liniowe bądź nieliniowe: zakładają, że ekono-
mista może całkowicie określić, w jaki sposób zmiany indywidual-
nego zachowania i zagregowanych wyników zależą od specyfikacji
modelu w punkcie początkowym (Frydman, Goldberg 2009, s. 58).

Oznacza to, że nawet jeśli w mikroekonomicznych podstawach teo-


rii – które posłużyły do zbudowania takiego modelu – nie założono wie-
dzy doskonałej podmiotów rynku, to implicite wynika z nich, że badacz-
-ekonomista sam jest demonem Laplace’a i pod tym względem nie brakuje
mu absolutnie niczego do bycia – krytykowanym przez Hayeka – wszyst-
kowiedzącym planistą. Innymi słowy, albo taka teoria musi zakładać, że
w rzeczywistym świecie w ogóle nie ma kreatywności i ludzie nigdy się
nie uczą, albo że ekonomista jest wszechwiedzący niczym Laplace’owska
„inteligencja”.
We współczesnej ekonomii coraz większą popularnością cieszy się teo-
ria gier. Nie wdając się w szczegóły, przypomnijmy jedynie, że opisuje ona
proces podejmowania decyzji, na przykład przez podmioty rynku, w wa-
runkach niedoskonałej wiedzy o otoczeniu rynkowym. Sytuacja okre-
ślonego podmiotu determinowana jest nie tylko przez decyzje, jakie on
podejmie, ale również przyszłym stanem otoczenia, w którym podmiot
ten funkcjonuje. Natomiast stan otoczenia, w zależności od rodzaju gry,
albo jest wynikiem realizacji pewnego zdarzenia losowego, co dokonuje
się niezależnie od działań podmiotu (gra z naturą), albo jego kształt jest
rezultatem decyzji podejmowanych przez wszystkie podmioty (por. For-
licz 2001, s. 38–44).
Sama koncepcja mówiąca o tym, że podmioty rynku wywierają wpływ
na swoje otoczenie rynkowe oraz pozostają ze sobą we wzajemnej interak-
cji, czy też że otoczenie podlega zmianom, idzie o krok dalej w stosunku
do teorii neoklasycznej. Jednak gdy zrobimy ten krok, natychmiast co-
famy się do pozycji początkowej, ponieważ, jak się okazuje, zmiany te
są z góry określone. Każdy gracz posługuje się bowiem pewną strategią.
22 PRZEMYSŁAW LESZEK

W teorii gier strategia to rodzaj planu, który opisuje działania gracza


w każdej sytuacji. Krótko rzecz ujmując, strategia stanowi zbiór instrukcji
typu: „Zrób A1, jeśli zajdzie B1, zrób A2, jeśli zajdzie B2 itd.”. Oznacza to,
że podmiotom przyznaje się znajomość wszystkich możliwych B1, B2, B3
itd. (niekiedy również znajomość prawdopodobieństwa realizacji każdego
scenariusza).
Użyteczność modeli opartych na teorii gier czy modeli dopuszczają-
cych zmienność jedynie w zakresie z góry ustalonego harmonogramu lub
zawierających składnik losowy, którego rozkład jest z góry określony, jest
ograniczona do prognozowania zdarzeń w krótkich okresach i specy-
ficznych sytuacjach. Teoria, na której się opierają, wyklucza rozwiązania
o charakterze kreatywnym, gdyż kreatywność ze swojej natury nie daje
się z góry określić. Kreatywne rozwiązania nie mogą wcielać w życie ist-
niejących wcześniej reguł dlatego, że nie byłyby wówczas rozwiązaniami
kreatywnymi. Jest to wyraźnie widoczne w świetle koncepcji wiedzy roz-
proszonej czy koncepcji niepewności Knighta.
W 1921 roku wydano książkę Risk, Uncertainty and Profit autorstwa
Franka Knighta. Amerykański ekonomista pokazał w niej różnicę pomię-
dzy niepewnością (uncertainty) oraz ryzykiem (risk). W przeciwieństwie
do niepewności ryzyko można mierzyć, nadaje się ono do ubezpieczenia.
Ryzyko to sytuacja, w której rozkład prawdopodobieństwa jest znany
i kompletny. Chodzi o to, że większości zdarzeń i sytuacji na rynku nie
sposób objąć w kategoriach rachunku prawdopodobieństwa i statystyki,
ponieważ są to sytuacje jakościowo nowe (np. oryginalne projekty po-
wstałe jako rezultat innowacyjnej działalności przedsiębiorców czy nawet
zwykłe decyzje biznesowe, być może z wyjątkiem niektórych najbardziej
rutynowych).
Wciąż podejmowane przez ekonomistów próby prognozowania takich
zdarzeń na podstawie danych historycznych „dotyczą sytuacji, które są
zdecydowanie zbyt wyjątkowe (…) by tabele statystyczne mogły dostar-
czyć użytecznych wskazówek” (Knight 1921, s. 231). Knightowska nie-
pewność nie jest jakąś radykalną i rzadką odmianą niepewności, ale jest
po prostu niepewnością rynkową. Rachunek prawdopodobieństwa moż-
na stosować wtedy, gdy z góry znane są wszystkie warianty rozwoju nowej
sytuacji, a często nikt takiej wiedzy nie ma i nie może jej posiąść. Progno-
zowanie statystyczne ma sens tylko pod warunkiem, że wiemy, jak anty-
cypowana zmienna zachowywała się w przeszłości. Skoro jednak znaczna
część zdarzeń ma unikatowy charakter, to nie możemy nic powiedzieć na
temat tego, jak rozwiną się one w przyszłości. Na przykład ludzkie decy-
zje dotyczące przyszłości nie mogą zależeć od ścisłych „matematycznych
oczekiwań”, ponieważ brak jest podstaw do odpowiednich wyliczeń.
Zakres stosowania rachunku prawdopodobieństwa jest ograniczony do
zdarzeń, które są wielokrotnie powtarzane. Interpretacja częstościowa (lub
klasowa) prawdopodobieństwa (class probability) – na której mógłby się
opierać rachunek – wymaga bowiem, aby sąd probabilistyczny traktować
Problematyka wiedzy w naukach społecznych 23

jako wypowiedź o ilościowym stosunku między wyodrębnionymi grupami


(klasami) określonych zdarzeń. Jeśli jednak każde zdarzenie ma charakter
unikatowy, to wtedy brak obiektywnego kryterium, na podstawie którego
poszczególne zdarzenia mogłyby zostać przydzielone do jednej lub drugiej
grupy. Wobec tego nie jest możliwe ustalenie względnej częstości – czyli
prawdopodobieństwa – występowania zdarzeń jednej grupy wśród zdarzeń
drugiej grupy (po prostu dlatego, że nie istnieją same grupy albo zawierają
tylko jeden element). Dane dotyczące przeszłości, choćby były bardzo boga-
te i precyzyjne, mogą nie zawierać żadnej informacji o przyszłości, podob-
nie jak zapisane wyniki tysiąca rzutów kostkami, z których każda ma inną
liczbę ścian, nie ujawnią żadnych informacji na temat szansy wystąpienia
„jedynki” w tysiąc pierwszym rzucie. W takim wypadku mamy do czy-
nienia z prawdopodobieństwem zdarzeń jednostkowych (case probability),
którego nie da się wyrazić liczbowo (por. także Mises 2007, s. 90–101).
Spostrzeżenia Knighta dotyczące tego, że rynkowa rzeczywistość często
nie spełnia założeń teorii prawdopodobieństwa, przez dłuższy czas nie cie-
szyły się popularnością i były ignorowane przez ekonomistów. Naukowcy
niechętnie akceptowali sytuację, w której wyjaśnieniem rządzą mechani-
zmy niemożliwe do ujęcia w postaci liczbowej, starali się więc odnaleźć
ścisły i uniwersalny model perfekcyjnie przewidujący zmiany gospodarcze.
Kończąc zaprezentowany tu przegląd, chcielibyśmy zwrócić uwagę
na to, że wiedza, o której była mowa, to nie tylko znajomość zdarzeń
historycznych oraz aktualnych okoliczności i warunków panujących na
rynku. Bardzo ważną rolę odgrywają oczekiwania podmiotów dotyczą-
ce przyszłego rozwoju sytuacji. Jednostki formułują plany uwzględniają-
ce ich oczekiwania dotyczące przyszłości, na podstawie których później
podejmują decyzje. Dlatego problem wiedzy dotyczy również zagadnień
predykcji zdarzeń przez podmioty rynku. W tym kontekście chcielibyśmy
zwrócić uwagę na hipotezę racjonalnych oczekiwań, jako na powszechnie
stosowaną regułę tworzenia prognoz ekonomicznych.
W 1961 roku John Muth, uznany później za ojca teorii racjonalnych
oczekiwań, wysunął następującą hipotezę:

skoro oczekiwania są opartymi na informacjach prognozami przy-


szłych wydarzeń, to są one w zasadzie tym samym, co przewidy-
wania dostarczone przez odpowiednią teorię ekonomiczną (Muth
1961, s. 316).

W swoim bardziej aktualnym brzmieniu – sformułowanym przez Ro-


berta Lucasa i tzw. nowych klasyków – głosi ona, że subiektywne ocze-
kiwania podmiotów gospodarczych w odniesieniu do zmiennych eko-
nomicznych są zbieżne z rzeczywistymi, obiektywnymi oczekiwaniami
co do tych zmiennych (por. Snowdon i in. 1998, s. 201). Innymi słowy,
jednostki zachowują się tak, jakby znały „właściwy” model, dlatego
w ich prognozach mogą wystąpić jedynie błędy losowe, niezależne od
24 PRZEMYSŁAW LESZEK

zbioru informacji dostępnych w czasie, kiedy te oczekiwania kształto-


wano. Przeciętnie rzecz biorąc, prognoza będzie trafna, a więc błędy
będą się „znosić”, tzn. ich wartość oczekiwana będzie wynosiła zero.
Ponadto oczekiwania formułowane przez podmioty nie mogą być wciąż
mylne – to ważna implikacja hipotezy racjonalnych oczekiwań – gdy-
by tak było, to podmioty wyciągnęłyby wnioski ze swoich pomyłek
i zmieniły sposób kształtowania oczekiwań, tak by wyeliminować błąd
systematyczny.
Mając w pamięci rozważania Misesa, Hayeka, Knighta czy Polanyi’ego
trudno oprzeć się pokusie, i nie nazwać hipotezy racjonalnych oczekiwań
(HRO) empiryczną próżnią. Twierdzenie, że ludzie zachowują się tak, jak-
by znali „prawdziwy” model gospodarki, jest oczywiście nie do przyjęcia,
skoro poszczególne jednostki dysponują niepełnymi, różnymi, jedynymi
w swoim rodzaju, a niekiedy niemożliwymi do zakomunikowania „okru-
chami” wiedzy. A więc z punktu widzenia człowieka taki model po prostu
nie istnieje. Ponadto w warunkach prawdziwej niepewności, o jakiej pisali
Keynes i Knight, brak jest podłoża do kształtowania się subiektywnych
„racjonalnych” oczekiwań, a tym bardziej brak podstaw, by twierdzić, iż
owe oczekiwania miałyby być zbieżne z jakimiś oczekiwaniami obiektyw-
nymi, które można wyrazić za pomocą matematyki i rachunku prawdopo-
dobieństwa. Innymi słowy, hipoteza ta wychodzi z błędnego założenia, że
w systemie społeczno-gospodarczym wszystkie przyszłe zdarzenia mogą
być rozpatrywane w kategoriach prawdopodobieństwa klas, które to kate-
gorie dają się modelować i „nakładać” na subiektywne oczekiwania pod-
miotów rynku.
Ciekawe, że HRO jest tak poważnie traktowana, podczas gdy nawet
część przedstawicieli ekonomii ortodoksyjnej, na przykład noblista Ed-
mund Phelps, wyraża na jej temat krytyczną opinię:

W teorii szoków makroekonomicznych (…), do których często sto-


sowano hipotezę racjonalnych oczekiwań, trudno jest uzasadnić za-
łożenie, że każdy działający podmiot uważa swoje przewidywanie
za uniwersalne – tak jakby istniała jakaś Jungowska nieświadomość
zbiorowa eliminująca rozbieżność oczekiwań. Nie istnieją ogólno-
krajowe oczekiwania co do skutków polityki Reagana, której istnie-
nie jest elementem wspólnej wiedzy (Phelps 1983, s. 32).

O zawodności hipotezy racjonalnych oczekiwań przekonani są rów-


nież Frydman i Goldberg (por. Frydman, Goldberg 2008, 2009; zob. Le-
szek 2009a). W swoich pracach dowodzą, że modele deterministyczne,
w których wszystkie zmiany są z góry ustalone (czy to funkcyjnie, czy
probabilistycznie, tj. z wykorzystaniem zmiennych losowych o ustalo-
nych rozkładach), w szczególności zaś modele oparte na hipotezie racjo-
nalnych oczekiwań, okazują się wewnętrznie niespójne, jeśli dopuścimy
możliwość, że jednostki żyją w świecie wiedzy niedoskonałej.
Problematyka wiedzy w naukach społecznych 25

Zamiast podsumowania

Udając, że podmioty rynku wiedzą więcej, aniżeli wiedzą w istocie,


tworzymy tylko fałszywe teorie. Postulując, że my, ekonomiści, wiemy
więcej, niż wiemy w istocie, wytwarzamy w sobie oraz w innych przeko-
nanie, że manipulacja gospodarką, zgodnie z naszymi intencjami, leży
w naszym zasięgu. Taka postawa z kolei prowadzi do katastrofalnych re-
zultatów nie tylko w teorii, lecz także przede wszystkim w praktyce gospo-
darczej. Dlatego kończąc ten rozdział, chcielibyśmy podzielić się refleksją,
którą Hayek zawarł w następującym zdaniu:

Przedkładam prawdziwą i niepełną wiedzę, nawet jeśli pozostawia


ona wiele zjawisk nieokreślonymi i nieprzewidywalnymi, nad pre-
tensję do wiedzy ścisłej, która jest prawdopodobnie fałszywa (Hayek
1978, s. 29).
26 PRZEMYSŁAW LESZEK

Bibliografia

Akerlof George A., 1970, The Market for „Lemons”: Quality Uncertainty and the Market
Mechanism, „The Quarterly Journal of Economics”, vol. 84, no. 3, s. 488–500.

Akerlof George A., 1984, Gift Exchange and Efficiency-Wage Theory: Four Views, „The
American Economic Review”, vol. 74, no. 2, s. 79–83.

Akerlof George A., 2003, Makroekonomia behawioralna a funkcjonowanie gospodarki,


„Gospodarka Narodowa”, nr 10.

Amsterdamski Stefan, Augustynek Zdzisław, Mejbaum Wacław, 1964, Prawo. Ko-


nieczność. Prawdopodobieństwo, Książka i Wiedza, Warszawa.

Arystoteles, 1953, Polityka, Zakład Narodowy im. Ossolińskich, Wrocław.

Blaug Mark, 1994, Teoria ekonomii. Ujęcie retrospektywne, Wydawnictwo Naukowe


PWN, Warszawa.

Barnett William II, 2004, Dimensions and Economics: Some Problems, „The Quarterly
Journal of Austrian Economics”, vol. 7, no. 2, s. 95–104.

Forlicz Stefan, 2001, Niedoskonała wiedza podmiotów rynkowych, Wydawnictwo


Naukowe PWN, Warszawa.

Friedman Milton, 1953, Essays In Positive Economics, The University of Chicago


Press, Chicago.

Frydman Roman, Goldberg Michael D., 2008, Macroeconomic Theory for a World of
Imperfect Knowledge, „Capitalism and Society”, vol. 3.

Frydman Roman, Goldberg Michael D., 2009, Ekonomia wiedzy niedoskonałej. Kurs
walutowy i ryzyko, Wydawnictwo Krytyki Politycznej, Warszawa.

Godłów-Legiędź Janina, 1992, Doktryna społeczno-ekonomiczna Friedricha von


Hayeka, Wydawnictwo Naukowe PWN.

Greenwald Bruce C. N., Stiglitz Joseph E., Weiss Andrew, 1984, Informational Imper-
fections in the Capital Market and Macroeconomic Fluctuations, „The American
Economic Review”, vol. 74, no. 2, s. 194–199.

Hayek Friedrich A. von, 1978, New Studies in Philosophy, Politics, Economics and the
History of Ideas, Routledge & Kegan Paul, London.
Problematyka wiedzy w naukach społecznych 27

Hayek Friedrich A. von, 1998, Indywidualizm i porządek ekonomiczny, Znak,


Kraków.

Hayek Friedrich A. von, 2002a, Competition as a Discovery Procedure, „The Quarterly


Journal of Austrian Economics”, vol. 5, no. 3.

Hayek Friedrich A. von, 2002b, Nadużycie rozumu, Oficyna Wydawnicza Volumen,


Warszawa.

Hayek Friedrich A. von, 2004, Zgubna pycha rozumu. O błędach socjalizmu, Arcana,
Kraków.

Hayek Friedrich A. von, 2007, Konstytucja wolności, Wydawnictwo Naukowe PWN,


Warszawa.

Jakubowski Rafał, 1997, Teoria Ryzyka. Stosunek do ryzyka a zachowania ludzi, w:


Współzależność między wiedzą ekonomiczną a funkcjonowaniem gospodarki w ska-
lach mikro i makro, red. Forlicz Stefan, Wydawnictwo Akademii Ekonomicznej
im. Oskara Langego, Wrocław.

Kirzner Israel M., 1988, The Economic Calculation Debate: Lessons for Austrians, „The
Review of Austrian Economics”, vol. 2, no 1.

Knight Frank H., 1921, Risk, Uncertainty and Profit, Houghton Mifflin, Boston.

Kochanowska Ewa, 1998, Szkiełko i oko, czyli romantyczny poeta i nauka: http://archi-
wum.wiz.pl/1998/98104500.asp (pierwotnie: „Wiedza i Życie”, nr 10).

Koestler Arthur, 2002, Lunatycy, Zysk i S-ka, Poznań.

Kostro Krzysztof, 2001, Hayek kontra socjalizm. Debata socjalistyczna a rozwój teorii
społeczno-ekonomicznych Friedricha Augusta von Hayeka, DiG, Warszawa.

Kwaśnicki Witold, 2001, Zasady ekonomii rynkowej, Wydawnictwo Uniwersytetu


Wrocławskiego, Wrocław.

Kwaśnicki Witold, 2005, Analogie fizykalistyczne jako źródła inspiracji w analizie eko-
nomicznej; http://prawo.uni.wroc.pl/~kwasnicki/todownload/Analogie%20fi zy-
kalistyczne.pdf (pierwotnie w: Fizyka dla ekonomii, „Wrocławski Biuletyn Gospo-
darczy”, nr 34).

Laplace Pierre Simon, 1995, Philosophical essay on probabilities, Springer Verlag, New
York.
28 PRZEMYSŁAW LESZEK

Leszek Przemysław, 2009a, Imperfect Knowledge Economics: zapowiedź nowego para-


dygmatu w ekonomii?, w: Nowe idee początku XXI wieku, red. Winiarski Marcin,
Cyfrowa Biblioteka Prawnicza Uniwersytetu Wrocławskiego, Wrocław.

Leszek Przemysław, 2009b, Koncepcje zawodności rynku: teoria a rzeczywistość


(w przygotowaniu).

Levinson Marc, 1992, Nie tylko wolny rynek. Odrodzenie aktywnej polityki gospodar-
czej, PWE, Warszawa.

Machaj Mateusz, 2009, Prawa własności w systemie kapitalistycznym i socjalistycznym


– studium porównawcze (w przygotowaniu).

Mankiw Gregory N., Romer David, Weil David N., 1992, A Contribution to the Empi-
rics of Economic Growth, „The Quarterly Journal of Economics”, vol. 107, no. 2,
s. 407–437.

Markiewicz Henryk, 1998, Literatura pozytywizmu, Wydawnictwo Naukowe PWN,


Warszawa.

Mayer Thomas, 1996, Prawda kontra precyzja w ekonomii, Wydawnictwo Naukowe


PWN, Warszawa.

Mises Ludwig von, 1990, Economic Calculation In The Socialist Commonwealth, Lud-
wig von Mises Institute, Auburn.

Mises Ludwig von, 2007, Ludzkie działanie. Traktat o ekonomii, Instytut Ludwiga von
Misesa, Warszawa.

Muth John F., 1961, Rational Expectations and the Theory of Price Movements, „Econo-
metrica”, vol. 29, no. 3.

Phelps Edmund S., 1983, The Trouble with ‘Rational Expectations’, and the Problem of
Inflation Stabilization, w: Individual Forecasting and Aggregate Outcomes: Rational
Expectations Examined, red. Frydman Roman, Phelps Edmund S., Cambridge Uni-
versity Press, New York.

Polanyi Michael, 1969, Knowing and Being. Esseys by Michael Polanyi, red. Grene M.,
The University of Chicago Press, Chicago.

Polanyi Michael, 1983, The Tacit Dimension, Anchor Books, New York.

Romer David, 2000, Makroekonomia dla zaawansowanych, Wydawnictwo Naukowe


PWN, Warszawa.
Problematyka wiedzy w naukach społecznych 29

Romer Paul M., 1990, Endogenous Technological Change, „The Journal of Political
Economy”, vol. 98, no. 5, cz. 2, s. 71–102.

Sady Wojciech, 2008, Spór o racjonalność naukową. Od Poincarégo do Laudana,


http://www.scribd.com (pierwotnie: FUNNA, Wrocław 2000).

Schumpeter Joseph A., 1960, Teoria wzrostu gospodarczego, PWN, Warszawa.

Shattuck Roger, 1999, Wiedza zakazana. Od Prometeusza do pornografii, TAiWPN


Universitas, Kraków.

Snowdon Brian, Vane Howard, Wynarczyk Peter, 1998, Współczesne nurty teorii ma-
kroekonomii, Wydawnictwo Naukowe PWN, Warszawa.

Solow Robert M., 1956, A Contribution to the Theory of Economic Growth, „The
Quarterly Journal of Economics”, vol. 70, no. 1, s. 65–94.

Stiglitz Joseph E., 2004, Informacja i zmiana paradygmatu w ekonomii, cz. I, „Gospo-
darka Narodowa”, nr 3.

Tatarkiewicz Władysław, 2009, Historia filozofii, Wydawnictwo Naukowe PWN,


Warszawa.

Wojtyna Andrzej, 2000, Ewolucja keynesizmu a główny nurt ekonomii, Wydawnictwo


Naukowe PWN, Warszawa.

Yeager Leland B., 2005, Why Distinguish Between Information and Knowledge?, „Econ
Journal Watch”, vol. 2, no. 1, s. 82–87.
Alicja Kuropatwa jest doktorantką Instytutu Nauk Ekonomicznych Uni-
wersytetu Wrocławskiego. W 2009 roku obroniła pracę magisterską In-
terwencjonizm w katolickiej nauce społecznej – analiza krytyczna napisaną
pod kierunkiem prof. Kwaśnickiego.
A licja Ku ropat wa

P ROBL E M Y N E OK L A SYC Z N EJ T E OR I I KON K U R E NCJ I

Konkurencja może być rozumiana dwojako. W pierwszym znaczeniu


jest to proces biologiczny, polegający na rywalizacji między zwierzęta-
mi w celu zdobycia pożywienia. Konkurencja oznacza tu nieuchronne
konflikty powodowane chęcią przetrwania. W drugim znaczeniu chodzi
o swoistą współpracę społeczną, dzięki której jednostka może znaleźć dla
siebie jak najkorzystniejszą pozycję w społeczeństwie. Ten rodzaj konku-
rencji jest nieodłączną częścią każdej organizacji społecznej. Jedynym
przykładem sytuacji, gdzie on nie występuje, jest modelowa gospodarka
centralnie planowana. Życie opiera się w niej na odgórnych dyrektywach
– rządzący wyznaczają każdemu obywatelowi określone miejsce w społe-
czeństwie, tzn. przypisują go do określonego sektora przemysłu, wyzna-
czają wysokość zarobków miesięcznych, decydują o ewentualnym awansie
etc.1 W warunkach socjalistycznych rywalizacja ekonomiczna zostałaby
zlikwidowana na rzecz pełnego planowania i egzekwowania jednej woli
(jednego planu).
W wyniku rozwoju cywilizacyjnego, a przede wszystkim „racjo-
nalności” człowieka, konkurencja społeczna, inaczej zwana katalak-
tyczną, wypiera konkurencję biologiczną. W warunkach prymitywnej
cywilizacji ludzie toczą zwierzęce walki o zasoby rzadkie, czyli takie,
z których nie mogą korzystać jednocześnie. Jednakże racjonalność
człowieka pozwala mu dostrzec, że korzystniejsze od tych walk jest
ustalenie zasad współpracy społecznej, co prowadzi do podziału za-
dań i konkurencji na polu gospodarczym. Dzięki rywalizacji ekono-
micznej możliwa staje się zgodność interesów członków społeczeństwa.

1
Można wyróżnić dwa rodzaje socjalizmu. Pierwszy to wzorzec leninowski lub
rosyjski o charakterze czysto biurokratycznym. Zgodnie z tą koncepcją państwo jest
jedynym właścicielem czynników produkcji, toteż cały przemysł jest znacjonalizowa-
ny. Drugi rodzaj socjalizmu, zwany modelem niemieckim lub modelem Hindenburga,
to taki, w którym pozornie zachowana jest własność czynników produkcji, rynki,
ceny i stopy procentowe. O strukturze produkcji decydują menedżerowie, a nie przed-
siębiorcy. Z pozoru wszystko wygląda jak gospodarka kapitalistyczna, jednak nią nie
jest, głównie z jednej, podstawowej przyczyny: działania menedżerów są uzależnione
od decyzji rządzących. Zobacz: Hoppe 2005, s. 39–64; Blankertz 2005, s. 83.
32 ALICJA KUROPATWA

Immanentne konfl ikty i potencjalne wojny plemienne o istniejące rzad-


kie zasoby mogą zostać wyparte przez stosunki handlowe. Oznacza to,
że dzięki zwiększonej produktywności kilka jednostek bez większych
przeszkód może uzyskać to samo dobro, nie walcząc o nie (Mises 2007,
s. 237–242 i 571–572).
Wobec tego konkurencja w swojej genezie odnosi się do wielkiej
racjonalnej przemiany człowieka, który odkrywa, że zróżnicowanie
między ludźmi może w obrębie obowiązujących reguł prawa stworzyć
podłoże do produktywnej konkurencji w przestrzeni gospodarczej.
Tymczasem w ekonomii neoklasycznej rozwinęła się specyficzna kon-
cepcja tzw. konkurencji doskonałej (ang. perfect competition)2 , odbiega-
jąca od koncepcji konkurencji, która pojawiała się w pracach ekono-
mistów przez setki lat. Chociaż neoklasycyzm traktuje ją z rezerwą, to
uważa się, że

stanowi ona odpowiedni model oceny efektywności konkurencji


w realnym świecie oraz że rzeczywista konkurencja w tym zakre-
sie, w jakim odbiega od tego modelu, jest niepożądana, a nawet
szkodliwa (Hayek 1998, s. 105).

Z ałożen ia modelu doskonałej kon ku rencji


Konkurencja doskonała opiera się na czterech istotnych założeniach,
których autorem jest Frank Knight3. Zgodnie z pierwszym w gospodar-
ce opartej na tym rodzaju konkurencji musi istnieć nieskończenie wielu
przedsiębiorców, z których każdy będzie miał znikomy udział w produk-
cji całej gałęzi. Ponadto produkt powinien być jednorodny, a informacja
o jego jakości pomiędzy nabywcami musi być doskonała. Ostatecznie na
takim rynku nie ma barier wejścia oraz wyjścia (Begg, Fischer, Dornbusch
2003, s. 223).
Jeżeli określony rynek spełnia wszystkie te założenia, to mówimy, że
jest on doskonale konkurencyjny. Jeśli zaś choć jeden warunek nie zosta-
nie spełniony, to mamy wtedy do czynienia z jedną z dwóch innych struk-
tur rynku: oligopolem albo konkurencją monopolistyczną, która według

2
Warto dodać, że Edward Chamberlin, uważany za współtwórcę modelu kon-
kurencji monopolistycznej, w swoim sławnym tekście z 1933 r. The Theory of Mono-
polistic Competition wprowadził rozróżnienie: pure competition i perfect competition.
Pierwszy rodzaj konkurencji zdefi niował jako stan, w którym funkcja popytu dla
przedsiębiorstwa jest doskonale elastyczna; perfect competition jego zdaniem charak-
teryzuje się np. brakiem niepewności, idealną mobilnością czynników produkcji itp.
(Robinson 1934, s. 104–120).
3
Więcej na temat założeń konkurencji doskonałej i teorii Knighta zob.: Knight
1921, s. 76–80.
Problemy neoklasycznej teorii konkurencji 33

tego ideału znajduje się pomiędzy konkurencją doskonałą a pełnym mo-


nopolem4.

Cena

P* DD

Ilość

Wykres 1. Krzywa popytu dla przedsiębiorstwa


działającego na rynku doskonałej konkurencji
Źródło: Czarny, Rapacki 2002, s. 191.

Zgodnie z pierwszym założeniem na rynku musi istnieć wielu przed-


siębiorców, aby każdy miał jakiś udział w produkcji całej gałęzi. Wów-
czas pojedyncze działania jednego z nich – zmiany wielkości jego podaży
– nie będą wpływały na wielkość ceny określonego dobra. Krzywa popytu
dla takiego przedsiębiorstwa jest poziomą linią prostą (DD), jak widać
na wykresie 1. Oznacza to, że bez względu na wielkość sprzedaży przed-
siębiorstwo uzyskuje dokładnie cenę rynkową (P*). Gdyby przedsiębiorca
chciał sprzedać swój produkt po cenie wyższej niż P*, nie sprzedałby ni-
czego. Konsumenci w tej sytuacji zdecydowaliby się nabyć dokładnie to

4
Konkurencja doskonała i pełny monopol są skrajnymi przypadkami struktury
rynku. Różnią się między sobą przede wszystkim tym, że w przypadku konkuren-
cji doskonałej „zarówno sprzedający, jak i kupujący uznają, że ich decyzje o kupnie
i sprzedaży nie wpływają na poziom ceny rynkowej”, natomiast „monopolistą jest je-
dyny sprzedawca lub jedyny potencjalny sprzedawca w danej gałęzi”. Ibidem, s. 223.
Więcej na temat oligopolu i konkurencji monopolistycznej zob. np. Czarny, Rapacki
2002, s. 202–213.
34 ALICJA KUROPATWA

samo dobro od jego konkurencji. Gdyby jednak ten sam biznesmen chciał
obniżyć cenę za produkt poniżej ustalonej ceny rynkowej P*, osiągnąłby
mniejszy zysk, ponieważ po cenie P* może sprzedać dowolną ilość swoje-
go produktu5.
Zgodnie z kolejnym założeniem produkt wytwarzany przez przedsię-
biorstwo musi być jednorodny, co oznacza, że cechy wszystkich dóbr na
rynku powinny być takie same. W tej sytuacji konsumenci nie zważają na
to, od kogo nabywają określone dobro. Gdyby nabywcy inaczej traktowali
poszczególne produkty i potrafili je odróżnić, to rynek doskonale konku-
rencyjny rozpadłby się na wiele segmentów. Wówczas dostawca szczegól-
nej odmiany wpływałby na jej podaż, a zatem również na cenę. Trzecie
założenie polega na przyjęciu doskonałej informacji o produkcie. Dzięki
niej konsument wie, że identyczne wyroby pochodzące z różnych źródeł
są rzeczywiście takie same.
Ostatecznie przyjmuje się także, że w omawianym przez nas mode-
lu rynku nie ma barier wejścia i wyjścia na rynek. Oznacza to, że gdy
przedsiębiorcy zmówią się i ograniczą całkowitą podaż danego dobra,
podwyższając przy tym cenę, stanie się to bodźcem dla innych, aby wejść
na rynek i przez działalność konkurencyjną obniżyć ceny do poprzednie-
go poziomu. Istnieje także odwrotna zależność tego mechanizmu: kiedy
przedsiębiorstwa ponoszą długookresowe straty, to niektóre z nich zosta-
ną zlikwidowane. Zmniejszenie ich liczby wpłynie na obniżenie podaży
określonego produktu i taki spadek jego ceny, aby było możliwe przetrwa-
nie pozostałych firm w tym sektorze gospodarki6.
We wszystkich tych założeniach łatwo wskazać na istotne słabości.
Każdy ekonomista zgodzi się, że w rzeczywistości nie istnieje rynek, który
spełniałby założenia konkurencji doskonałej. A jednak to właśnie ten mo-
del stanowi teoretyczną podstawę neoklasycznej teorii konkurencji. Jego
obrońcy wysuwają takie argumenty, jak gdyby bronili idealnego mode-
lu geometrii euklidesowej – w matematyce stosujemy także nieistniejące

5
Zgodnie z neoklasycznymi schematami maksymalizacji, kiedy przedsiębiorstwo
chce sprzedać swój produkt poniżej ceny rynkowej, to jego działanie w tym wypadku
„jest bezsensowne” (Begg, Fischer, Dornbusch 2003, s. 224). Teza ta jest prawdziwa
jedynie pod warunkiem przyjęcia istnienia homo oeconomicus, który zainteresowany
jest tylko maksymalizacją zysków pieniężnych. Sprawa się jednak komplikuje, gdy ce-
lem jednostki jest nie tylko zysk pieniężny, lecz satysfakcja związana z zaspokojeniem
jej subiektywnych preferencji. Więcej na ten temat zob. np. Mises 2007, s. 87–89.
6
Jak pisze Begg w swojej książce: „Bariery wejścia do określonej gałęzi i wyjścia
z niej mogą wynikać z wielu powodów. Do roku 1980 de Beers kontrolował niemal
wszystkie kopalnie diamentów poza krajami socjalistycznymi, zapobiegając wejściu
nowych fi rm na rynek diamentów. W wielu krajach lekarze i prawnicy, działając za
pośrednictwem swych organizacji zawodowych, ograniczyli innym dostęp do tych
profesji. Państwo może również wywierać nacisk na przedsiębiorstwa, aby nie opusz-
czały pewnej gałęzi, w której oferują wiele miejsc pracy” (Begg, Fischer, Dornbusch
2003, s. 225).
Problemy neoklasycznej teorii konkurencji 35

w rzeczywistości pojęcia kąta prostego czy prostych doskonale równo-


ległych, lecz mimo to służą one do opisu rzeczywistości. W podobnym
celu możemy wykorzystać idealny model konkurencji doskonałej. Teoria
neoklasyczna traktuje go jako system umożliwiający maksymalizację do-
brobytu, a także jako teorię pozwalającą pokazać szkodliwość społecz-
ną działań oddalających nas od konkurencji doskonałej (Rothbard 2008,
s. 105–106).
Zaprezentujemy teraz krytykę neoklasycznej teorii konkurencji z per-
spektywy szkoły austriackiej. Zwolennicy tej doktryny nie zatrzymują się
tylko na konstatacji, że model doskonałej konkurencji jest nierealistyczny,
lecz odrzucają również wspomniane neoklasyczne konkluzje. Po pierwsze,
nie uznają, że konkurencja doskonała maksymalizuje dobrobyt. Po dru-
gie, uważają, że na podstawie modelu doskonałej konkurencji nie można
udowodnić, jak bardzo konkurencyjna jest gospodarka.

Nierealist yczność założeń


modelu doskona lej kon ku rencji
Usystematyzowanie warunków modelu konkurencji doskonałej, które
z założenia nie są realistyczne, jest dobrym punktem wyjścia, by wyka-
zać, że model ten nie powinien służyć do opisu konkurencyjności danego
sektora.
Zgodnie z pierwszym założeniem na rynku konkurencji doskonałej jest
wielu nabywców i sprzedawców, a każdy z nich ma znikomy udział w pro-
dukcji całej gałęzi i w związku z tym nikt w pojedynkę nie jest w stanie
zmienić ceny produktu. Cena ta jest dana przez rynek, dlatego funkcja
popytu dla takiego przedsiębiorstwa jest doskonale elastyczna7.
Nie jest jednak jasne, co kryje się za stwierdzeniem, że powinno być
wielu producentów. Co to oznacza? W jaki sposób rynek może stworzyć
wystarczająco „wielu” przedsiębiorców?
Stosowanie liczby producentów jako wskaźnika decydującego o stop-
niu konkurencyjności danej gospodarki może być łatwo podane w wąt-
pliwość (Rothbard 2008, s. 111, 112; Laffer, Fama 1972). W rzeczywi-
stości bowiem nie istnieje taka sytuacja, w której przedsiębiorstwo nie
ma wpływu na cenę swojego produktu. Byłoby tak, gdyby możliwe było
istnienie „nieskończenie wielu” producentów. Ta granica nigdy jednak nie
zostanie przekroczona. Pojedyncza firma, nawet zupełnie mała, zawsze
ma widoczny udział w całkowitej podaży, a tym samym wpływa na cenę
dobra. Nawet gospodarstwa rolne zajmujące się uprawianiem pszenicy
często są podawane jako wzór rynku doskonałej konkurencji, gdyż mają
swój udział w całkowitej podaży oferowanego zboża. Według Murraya

7
Więcej na temat samej elastyczności zob. np.: Czarny, Rapacki 2002,
s. 101–106.
36 ALICJA KUROPATWA

Rothbarda nierealistyczne założenie o doskonałej elastyczności funkcji


popytu przedsiębiorstwa działającego w warunkach doskonałej konku-
rencji pochodzi z zastosowania w ekonomii takich pojęć matematyki do-
tyczących liczb rzeczywistych, jak „nieskończenie małe zmiany”8. Jednak
ekonomia jest nauką o ludzkim działaniu9, która ma charakter dyskretny,
więc nie występują w niej „nieskończenie małe zmiany”10.
Zgodnie z kolejnym założeniem modelu produkowane (przez różnych
producentów) dobro musi być homogeniczne. Jest to warunek nierealny już
z tego choćby powodu, że gdy rzeczywiste dobra opuszczają zakład pro-
dukcyjny, muszą znaleźć się w różnych miejscach, a więc przestają być
homogeniczne. Ponadto, jak zwraca uwagę Friedrich Hayek:

wiara w zalety konkurencji doskonałej często skłania jej entuzja-


stów do twierdzenia, że dostępne zasoby można by wykorzystać le-
piej, wprowadzając przymusową standaryzację tak zróżnicowanych
obecnie produktów (Hayek 1998, s. 112).

Jednak przekonanie to prowadzi do zlekceważenia gustów ludzkich


i likwidacji konkurencji pomiędzy produktami, co powoduje brak moż-
liwości doskonalenia dóbr. W sytuacji długookresowej jednolitej oferty
trudno sobie wyobrazić występowanie postępu technicznego albo lepsze
wykorzystanie czynników produkcji, skoro wszystkie firmy zachowują się
tak samo. Niełatwe wobec tego będzie określenie pojęcia innowacji, skoro
wszyscy przedsiębiorcy jednocześnie musieliby jakimś dziwnym trafem
dokonać tego samego.
Model doskonałej konkurencji zawiera również warunek istnienia do-
skonałej wiedzy wszystkich uczestników rynku. Uczestnikami rynku są: po
jednej stronie producenci oferujący swoje towary, po drugiej zaś – kon-
sumenci pragnący nabyć preferowane przez siebie dobra. Przedsiębiorcy
zdobywają wiedzę na temat metod produkcji oraz coraz lepszej alokacji
zasobów, obniżają koszty, dzięki czemu mogą między sobą konkurować.
Nie możemy uznać, że „gdzieś w jakiejś informacyjnej przestrzeni” istnie-
je wiedza, która umożliwia ich funkcjonowanie, i że ta wiedza jest ode-
rwana od ich decyzji. Wręcz przeciwnie – informacje dotyczące rynku są

8
Tłumaczenie przytoczonej nazwy własnej pochodzi z polskiego przekładu
książki Rothbarda: Rothbard 2008, s. 107.
9
Według Ludwiga von Misesa ekonomia jest nauką o ludzkim działaniu (ang.
praxeology). W Polsce pojęcie to ma nieco inne wydźwięk i odznacza naukę o sku-
tecznym działaniu (ang. praxiology). Ogólnie rzecz ujmując, można powiedzieć, że
prakseologia opiera się na fundamentalnym aksjomacie, iż jednostki angażują się
w świadome działania, żeby za pomocą posiadanych środków osiągnąć preferowane
przez siebie cele. Więcej na temat prakseologii jako metodologii stosowanej przez
szkołę austriacką zob. Rothbard 1976, s. 9–59 Mises 2007, s. 9–59.
10
Rothbard 2008, s. 106, 107. Więcej o niebezpieczeństwach stosowania pojęcia
nieskończoności zob. Jabłecki 2007.
Problemy neoklasycznej teorii konkurencji 37

generowane w ramach rynku i działań konkurencyjnych na nim podej-


mowanych11. W związku z tym nie możemy po prostu założyć, że w sy-
tuacji konkurencyjnej przedsiębiorca posiadł doskonałą wiedzę za spra-
wą jakiegoś rodzaju objawienia. Podobna sytuacja występuje po stronie
konsumenckiej – informacja nie leży odłogiem, czekając na zdobycie, lecz
jest generowana dopiero dzięki procesowi konkurencji, w której klienci
biorą czynny udział, zdobywając wiedzę na temat oferty produktów, ale
także tę wiedzę tworząc. Wcześniej nie są w stanie przewidzieć tego, co
się będzie działo na rynku, ponieważ taka informacja nie została jeszcze
wytworzona (Hayek 1998, s. 108–109 i 114). Dopiero dzięki podjętym de-
cyzjom i ich antycypacjom wpływającym na koszty sprzedaży dochodzi
do zmian i rozpowszechnienia informacji o produkcie i firmie.

Model kon ku rencji monopolist ycznej


opa r t y na kon ku rencji doskonałej
Ekonomiści stworzyli model konkurencji monopolistycznej oparty na
modelu konkurencji doskonałej. Chociaż jest to model bliższy różnorod-
ności świata, to nadal jego skuteczność w opisie zjawiska konkurencji jest
wątpliwa. Krytykę tego modelu obszernie przedstawił Murray Rothbard.
Zajmiemy się tutaj analizą jego argumentacji12.
Z wcześniejszych rozważań wiemy, że krzywa popytu w modelu do-
skonałej konkurencji, oznaczona na wykresie 2 jako D jest doskonale ela-
styczna. Proste D* i D** odnoszą się do konkurencji monopolistycznej.
AC to koszt przeciętny kojarzony w ekonomii przede wszystkim z „opti-
mum technicznym”, czyli optymalnym poziomem produkcji, przy któ-
rym koszt przeciętny na jednostkę produktu jest najmniejszy. W naszym
przypadku znajduje się on w punkcie styczności prostej D z krzywą AC,
czyli w punkcie E. Oznacza to, że każdy poziom produkcji, który będzie
wyższy, bądź niższy niż ten w punkcie E, będzie generował wyższy koszt
przeciętny. Jeżeli spojrzymy na przypadek konkurencji doskonałej, to
zgodnie z jej założeniami w stanie równowagi krzywa kosztu przecięt-
nego (AC) będzie styczna do doskonale elastycznej krzywej popytu (D).
Ilustracją tej zależności jest wyznaczony punkt E. Jeżeli dane przedsię-
biorstwo uzyska przychód (cenę) większy niż koszt przeciętny, będzie to

11
„Nikt nie jest w stanie przekazać komuś innemu wszystkiego, co wie, ponie-
waż większa część informacji, które mogą przez niego zostać wykorzystane, zostanie
uzyskana wyłącznie w procesie tworzenia planu działań, zdobyta w trakcie pracy
nad konkretnym zadaniem, jakiego się podjął w określonych warunkach, np. gdy
występują względne niedostatki różnego rodzaju materiałów, do których ma dostęp.
Tylko w ten sposób jednostka może odnaleźć to, czego szuka” – co oznacza, że czło-
wiek zdobywa wiedzę na podstawie swojego działania, a nie przed jego rozpoczęciem.
Zob. Hayek 2004, s. 117–121.
12
Zob. Rothbard 2008, s. 113.
38 ALICJA KUROPATWA

sygnał dla innych, że warto wejść na taki rynek. W ostateczności dojdzie


do tego, że krzywe będą względem siebie styczne. Jeśli natomiast AC bę-
dzie wyżej niż D, a fi rma nie poradzi sobie z taką sytuacją, to wypadnie
z tego sektora.

Ceny
AC

H
F
E
G

D **
D*

0 J K Wielkość produkcji

Wykres 2. Stan równowagi końcowej


w warunkach doskonałej konkurencji
i konkurencji monopolistycznej
Źródło: Rothbard 2008, s. 113

W przypadku konkurencji monopolistycznej widzimy, że krzywa po-


pytu D* jest styczna z AC w punkcie F. Krzywa ma kształt opadający,
ponieważ produkt jest różnicowany w stosunku do innych. Porównując
tę sytuację z konkurencją doskonałą – czyli zastawiając ze sobą punkty
E i F, możemy więc stwierdzić, że konkurencja monopolistyczna skut-
kuje większymi cenami (cena 0H jest wyższa niż 0G) i niższą produkcją
(produkcja 0J jest mniejsza niż 0K). Ta obserwacja pozwala wielu ekono-
mistom utrzymywać, że w gospodarce opartej na zasadach konkurencji
monopolistycznej będziemy mieli niższy standard życia, ponieważ każde
przedsiębiorstwo będzie produkowało poniżej optimum technicznego, co
doprowadzi do powstania nadmiaru mocy produkcyjnych. Widzimy za-
tem, że mimo iż konkurencja doskonała nie może w rzeczywistości ist-
nieć, to służy do pokazania rzekomej wyższości nad gorzej funkcjonującą
gospodarką opartą na warunkach konkurencji monopolistycznej.
Tymczasem nie możemy porównać konkurencji monopolistycznej
z konkurencją doskonałą, jak to czynią neoklasycy, ponieważ dla każdego
modelu krzywa kosztów przeciętnych jest inna. Oznacza to, że wykres 2
Problemy neoklasycznej teorii konkurencji 39

nie jest poprawny, gdyż obrazuje założenie o dokładnie takim samym ty-
pie krzywej AC. Ponadto w rzeczywistości odpowiednie krzywe kosztów
są znacznie bardziej płaskie, niż przedstawia się w podręcznikach ekono-
mii. Dla firm o długookresowych planach krzywe zarówno kosztów, jak
i popytu są faktycznie bardziej płaskie niż w krótkim okresie. W związku
z tym punkty E i F na wykresie 2 są w rzeczywistości położone bardzo
blisko siebie lub nawet się pokrywają.
Ponadto nie należy zapominać o efektach skali. Wielkie koncerny czę-
sto produkują różne dobra na szeroką skalę. Podjęcie decyzji o podziale
fi rmy na wiele segmentów spowodowałoby wzrost kosztów jednostko-
wych, a każdy z nowo powstałych segmentów miałby wyższe całkowite
koszty prowadzenia swojej działalności. W konsekwencji doprowadziło-
by to do wzrostu cen produktów i niektórzy konsumenci przestaliby ku-
pować towary, na które mogli pozwolić sobie wcześniej. Prawdopodob-
nie fi rma „monopolistyczna” oferowałaby wtedy taki sam asortyment
po niższej cenie, gdyż ponosiłaby niższe koszty w porównaniu z poje-
dynczym segmentem przedsiębiorstwa działającego na podstawie zasad
doskonałej konkurencji. Ponadto miałaby ona większe możliwości roz-
woju, łatwiejszy dostęp do wszelkich innowacji itp. Konkurencja mono-
polistyczna nie skutkowałaby więc obniżeniem standardu życia klien-
tów, wręcz przeciwnie.
Rothbard zwraca również uwagę na to, że porównanie konkurencji
monopolistycznej i doskonałej przebiega tylko w jedną stronę. Przejście
od konkurencji doskonałej do monopolistycznej ma obrazować marno-
trawstwo zasobów, ale wychodząc od odwrotnej sytuacji można pokazać,
że przejście od konkurencji monopolistycznej do doskonałej prowadzi do
błędnej alokacji.
Musimy również zauważyć, że na wykresach 1 i 2, przedstawia-
jących oba rodzaje konkurencji, zakłada się, że optimum techniczne
znajduje się w punkcie styczności krzywej kosztu z funkcją popytu.
Nigdy jednak przedsiębiorstwo nie zdoła ustanowić produkcji na takim
poziomie, by jej koszt był optymalny, ponieważ zgodnie z przyjętymi
warunkami musiałoby ono wytwarzać dokładnie tyle, ile wyznacza
wyżej rzeczony punkt styczności. W przypadku konkurencji monopoli-
stycznej przyjmuje się, że jej funkcja popytu jest styczna do AC jedynie
w punkcie, który na naszych wykresach znajduje się u góry, na lewo od
optimum technicznego, a takie założenie jest błędne. Równie dobrze
funkcja popytu mogłaby być styczna do AC, która przyjmuje kształt
litery U, w każdym innym jej punkcie. Dodatkowo AC wcale nie musi
być krzywą takiej postaci. Jeżeli zrozumiemy, że produkcja składa się
z wielu różnych procesów i nie jest ciągła w przechodzeniu z jednego
spośród jej etapów w kolejny, to tym samym zgodzimy się z faktem,
że krzywa kosztów również ma charakter nieciągły, co oznacza, że jej
wykres może być przerywany bądź będzie występować jako skompliko-
wana krzywa łamana (i przerywana).
40 ALICJA KUROPATWA

Ceny
AC

F
G

H
E
D*

0 K Wielkość produkcji

Wykres 3. Procentowy zwrot z inwestycji


w stanie równowagi
Źródło: Rothbard 2008, s. 122

Koncepcja styczności krzywej kosztu przeciętnego z funkcją popytu jest


wynikiem stosowanej przez neoklasyków analizy stanu równowagi, w któ-
rym zakłada się, że całkowite koszty równe są całkowitym przychodom.
Zależność tę nazywa się w ekonomii złotą regułą. Zgodnie z tą regułą przed-
siębiorstwo nie poniesie w stanie równowagi ani zysków, ani strat. Choć
mogłoby się wydawać, że w tym wypadku dana firma nie odnosi żadnych
korzyści materialnych, to taka supozycja jest błędna. Zarobkiem przedsię-
biorstwa w opisanej sytuacji jest zwrot z inwestycji, którym jest procent13.
Powyżej na wykresie 3 przedstawiliśmy ponownie stany równowagi
w warunkach konkurencji doskonałej i konkurencji monopolistycznej,
ale tym razem w ślad za Rothbardem uwzględniliśmy zwrot z inwestycji,
jaki osiągają przedsiębiorstwa. Jak widać, funkcja popytu dla konkurencji
monopolistycznej nie jest już styczna z AC, optymalną wielkością produk-
cji jest odcinek 0K, a minimalny koszt przeciętny wynosi KE. W naszej

13
W ekonomii jest wiele defi nicji procentu. O rozbieżnościach pomiędzy różnymi
szkołami w historii myśli ekonomicznej w tej kwestii zob. Böhm-Bawerk 1959, rozdz.
VIII–XV. Na uwagę zasługuje również artykuł Hülsmanna opisujący m.in. różnice
w ujmowaniu teorii procentu przez przedstawicieli szkoły austriackiej (Hülsmann
2002, s. 77–110).
Problemy neoklasycznej teorii konkurencji 41

nowej, poprawnej wersji cena w wypadku konkurencji monopolistycz-


nej wcale nie jest wyższa, a nowa krzywa AC położona jest niżej niż na
wykresach 1 i 2, ponieważ wcześniej procent utożsamiany był z kosztem
ponoszonym przez dane przedsiębiorstwo. Pole GHEF obrazuje teraz wiel-
kość procentowego zwrotu z inwestycji14.

Rea l na kon ku rencja ja ko zjaw isko dy na m iczne.


Czy model neok lasyczny pokazuje
istotę kon ku rencji?
Jak już zaznaczyliśmy na wstępie, istnieją różne interpretacje pojęcia
konkurencja. Często termin ten rozumiany jest przede wszystkim jako stan,
w którym dana jednostka rywalizuje z innymi. Musi wykazać się wtedy
większą kreatywnością produkcyjną, np. oszczędzając więcej czasu, czyn-
ników produkcji, oferując tańsze produkty. Prościej rzecz ujmując – pod-
miot taki musi lepiej od konkurentów zaspokajać potrzeby konsumenc-
kie. Z kolei w pojęciu neoklasycznych ekonomistów konkurencja, a ściślej
mówiąc konkurencja doskonała, charakteryzuje się brakiem rywalizacji
pomiędzy podmiotami na rynku, gdyż każdy z nich działa tak samo jak
pozostali. W związku z tym nie ma impulsu do doskonalenia produkcji,
a cena dana jest przez rynek (inaczej mówiąc: ustalana za pomocą bez-
osobowego „mechanizmu rynkowego”, odzwierciedlającego materialne
środki produkcji). Pochodną tego stanu rzeczy jest m.in. brak zachęty do
konkurowania z innymi podmiotami (Kirzner 1973, s. 88–90).
Zdaniem Israela Kirznera podstawowym błędem twórców neoklasycz-
nego modelu doskonałej konkurencji jest przyjęcie założenia, że konku-
rencja to jednostkowa sytuacja, a nie proces, ciąg następujących po sobie
zmian. Rozważają oni swoją koncepcję jedynie w warunkach statycznych,
czyli niezmiennych, które są według nich efektem wcześniejszej rywali-
zacji na rynku pomiędzy przedsiębiorcami. Adam Smith natomiast uwa-
żał, że konkurencja jest dynamicznym procesem, a nie tylko określonym
stanem. Inaczej jeszcze twierdził Cournot, który zrezygnował z koncepcji
procesu na rzecz osiągniętego stanu równowagowego, i to jego ujęcie obo-
wiązuje w głównym nurcie (Blaug 2000, s. 63). Szczegółowej rewizji doko-
nał dopiero ekonomista austriacki Friedrich August von Hayek w swojej
pionierskiej pracy Znaczenie konkurencji (Hayek 1998, s. 105–120). Wyja-
śnił tam zasadniczą różnicę między konkurencją pojmowaną jako proces
dynamiczny a jej ujęciem statycznym (Kirzner 1973, s. 88–90). Konku-
rencja w świecie rzeczywistym prowadzi do ciągłych zmian na rynku,
a model neoklasyczny przedstawia jedynie przykład jednostkowej sytuacji
opartej na danych zamrożonych w określonym momencie. W związku
z tym model ten nie przedstawia rywalizacji pomiędzy podmiotami na

14
Rothbard 2008, s. 105–122.
42 ALICJA KUROPATWA

rynku, gdzie konkurencja jest procesem odbywającym się w czasie, gdy


dane ulegają ciągłym zmianom. Krótko mówiąc, nie pokazuje, jak docho-
dzi do konkurencji w realnym świecie.
Jeżeli ponownie przyjrzymy się szczegółowo warunkom modelu do-
skonałej konkurencji (pomijając to, że są one nierealistyczne), to przeko-
namy się, że nie są one korzystne ekonomicznie ani dla dostawców, ani
dla nabywców.
Założenie, że na rynku istnieje wielu przedsiębiorców, z których każdy
ma znikomy udział w produkcji, a ewentualne zmiany danego produktu
nie wpłyną w żaden sposób na cenę, powoduje, że producentom brak im-
pulsu do świadczenia lepszych usług oraz wytwarzania wyższej jakości
dóbr, ponieważ osiągnięty stan jest już najlepszy. Jeżeli zmienią oni cokol-
wiek w swojej ofercie, to i tak otrzymają wcześniej ustaloną cenę. Dodat-
kowe problemy rodzi założenie, że produkt jest homogeniczny. W takiej
sytuacji konsumenci nie dokonują w ogóle wyboru, ponieważ nie oferuje
się im zróżnicowanej oferty dóbr. Występujące w tym wypadku zjawisko
jest sprzeczne z samym charakterem konkurencji, która powinna prowa-
dzić do powstania coraz lepszych dóbr, zaspokajających rosnące wymaga-
nia klientów. Teoria konkurencji powinna opisywać rozwój przedsiębior-
czości, a nie taką sytuację, kiedy zostaje całkowicie zahamowana (Hayek
1998, s. 109, 110). Ułomność omawianego przez nas modelu neoklasycz-
nego nie polega tylko na tym, że jego założenia są nierealistyczne, lecz
także na tym, że nie opisują one dobrze charakteru i skutków procesu,
jakim jest konkurencja.

Moż liwoś ć socja li zmu , cz yli konsek wencje


neok lasycznej koncepcji kon ku rencji
Ze statycznego charakteru modelu konkurencji doskonałej wynikają
istotne konsekwencje. Model ten opiera się na opisie dokonanym za po-
mocą równań różniczkowych, czyli wyliczonych funkcji pochodnych dla
określonych zmiennych. Tego typu równania są wykorzystywane na przy-
kład do teoretycznego obliczenia maksimum funkcji produkcji, malejącej
użyteczności krańcowej etc. Nie pominięto tego w debacie na temat moż-
liwości funkcjonowania socjalizmu, która odbyła się w pierwszej połowie
XX wieku. Poza aspektami polityczno-gospodarczymi socjalizmu debata
ta dotyczyła stricte teoretycznej strony, przede wszystkim teorii mikroeko-
nomii i jej ograniczeń.
Zasadniczą kwestią debaty była odpowiedź na pytanie: jak w gospo-
darce centralnie planowanej będzie się odbywać alokacja czynników
produkcji?

Marks nie powiedział w tej sprawie nic i nikt – poczynając od Schäf-


fego, a kończąc na Barone – nie zwrócił uwagi na literaturę na ten
Problemy neoklasycznej teorii konkurencji 43

temat ani na ekonomię socjalizmu w ogóle aż do lat dwudziestych


XX w. (Landreth, Colander 2005, s. 391–395).

Wpływ na dalszą analizę tej problematyki miał ekonomista ze szkoły


austriackiej Ludwig von Mises, autor artykułu Die Wirtschaftsrechnung
im sozialistischen Gemeinwesen, który przyczynił się do kontynuowania
dyskusji15.
Przeciwnicy Misesa, jak na przykład Fred Taylor16 czy polski ekonomi-
sta Oskar Lange17, bronili stanowiska, że mimo braku własności prywat-
nej kalkulacja ekonomiczna jest całkowicie zasadna i możliwa, jeżeli tylko
wykorzystamy w tym celu równania równowagowe określające pojedyncze
procesy produkcji. Z tego punktu widzenia nie byłby potrzebny pieniądz,
rozumiany jako przedmiot własności prywatnej w środowisku prywatnie
posiadanych czynników. Oznacza to, że w socjalistycznej kalkulacji nie
brałoby się pod uwagę różnych ilości dóbr produkcyjnych i konsumpcyj-
nych wraz z ich cenami pieniężnymi, które kupowano by lub sprzedawano
na rynku. Zamiast tego kalkulacja opierałaby się na wzajemnych relacjach
między różnymi ilościami danego czynnika produkcji, który został wy-
korzystany do produkcji różnych dóbr. Źródłem tych relacji byłby odpo-
wiedni model matematyczny bez pieniądza.
Założenie dotyczące próby kalkulacji bez użycia jednostki obrachun-
kowej, jaką jest pieniądz, opiera się na statycznym modelu konkurencji
doskonałej stworzonym przez neoklasycyzm. Zgodnie z tym podejściem
dla każdego rynku można ułożyć równania równowagowe dotyczące pro-
cesu produkcji. Sztywno przyjęte statyczne założenia co do wszystkich
procesów i znajomość ich warunków pozwalają na stworzenie matema-
tycznego modelu obrazującego „krańcowe stopy substytucji”, a tym sa-
mym mapę potencjalnych planów gospodarowania. Ustalenie tych relacji
sprawia, że rynek przestaje być w ogóle potrzebny, ponieważ może go za-
stąpić planowanie18.
A zatem przyjęcie tezy o tym, że neoklasycyzm dobrze opisuje real-
ne zjawiska konkurencji, ma jedną z bardziej radykalnych konsekwencji:

15
Więcej na ten temat zob. Mises 1922, zwł. s. 13–20.
16
O argumentacji Taylora zob. Taylor 1929.
17
Na temat kalkulacji ekonomicznej wg Oskara Langego zob. Lange 1973.
18
Mises, kontynuując krytykę socjalizmu, krytykował również to stanowisko.
W Ludzkim działaniu wyjaśnia, że sytuacje opisywane przez równania różniczkowe
nie dostarczają żadnej informacji na temat ludzkiego działania, które doprowadziłyby
do hipotetycznego stanu równowagi. Ponadto uważa, że stan równowagi jest kon-
strukcją czysto abstrakcyjną, której nie da się osiągnąć w zmieniającym się świecie.
Przedsiębiorcy podejmujący decyzje produkcyjne nie uwzględniają cen równowago-
wych, ale analizują rozbieżność między cenami dóbr komplementarnych czynników
produkcji a przyszłymi cenami produktów. Innymi słowy, hipotetyczne ceny rów-
nowagi nie grają roli w rzeczywistych decyzjach gospodarczych. Zob. Mises 2007,
s. 601–604, 198–199; por. Machaj 2009, s. 65.
44 ALICJA KUROPATWA

przyjęcie tezy o możliwości sprawnego funkcjonowania socjalizmu, który


wykorzystuje ten model.
Stosując model doskonałej konkurencji, można zatem kalkulować bez
użycia pieniądza. W takiej gospodarce nie byłoby w ogóle środka wymiany,
toteż nie istniałby system cenowy. Przedsiębiorcy podejmowaliby decyzje
na podstawie porównania ilości czynników produkcji wykorzystanych do
różnych procesów produkcji. Z łatwością jednak mogliby ich w tym zastą-
pić państwowi menedżerowie publicznych przedsiębiorstw w środowisku,
w którym nie istniałby rynek, lecz centralne planowanie. Widzimy zatem,
że przyjęcie założeń statycznej teorii konkurencji otwiera drogę do zało-
żenia, że gospodarka socjalistyczna może działać efektywnie. Nadal jest
to jednak założenie, ponieważ nie odnosi się do świata heterogenicznego,
w którym informacja nie jest z góry dana, a ceny nie są automatycznymi
parametrami, odzwierciedlającymi materialne warunki produkcji.

Podsumowanie
Jak widzimy, ze stosowaniem modelu konkurencji doskonałej wiąże się
kilka istotnych problemów. Pierwszy problem polega na tym, że nie jest to
model, który dobrze opisuje zjawisko konkurencji, ponieważ rywalizacja
między przedsiębiorcami polega w rzeczywistości na zachowaniach całko-
wicie odmiennych niż te, które przedstawia model neoklasycyzmu. Stąd
też nie możemy posłużyć się tym modelem do wytłumaczenia fenomenu
ekonomicznego, jakim jest konkurencja. Jest on sprzeczny z samą naturą
tego procesu, więc nie spełnia swojej podstawowej roli.
Drugi problem wiąże się z tym, że nie dość, iż konkurencja w sensie
neoklasycznym opiera się na błędnych założeniach i źle opisuje mecha-
nizmy konkurencji, to przede wszystkim nie jest ona pożądana ze spo-
łecznego punktu widzenia. Świat doskonałej konkurencji wcale bowiem
nie oznacza efektywnego wykorzystania zasobów ani osiągnięcia duże-
go dobrobytu gospodarczego, ponieważ konsument tak naprawdę nie ma
możliwości wyboru.
Jednym ze skutków ubocznych stosowania modelu konkurencji dosko-
nałej do opisu rzeczywistości gospodarczej jest uznanie, że gospodarka
socjalistyczna może sprawnie funkcjonować. Tymczasem jest to sprzeczne
nie tylko z praktyką gospodarczą takich systemów, lecz przede wszyst-
kim z osiągnięciami dyskusji teoretycznej na ten temat – i to jest trzeci
problem.
Problemy neoklasycznej teorii konkurencji 45

Bibliografia

Begg David, Fischer Stanley, Dornbusch Rudiger, 2003, Mikroekonomia, Warszawa,


Polskie Wydawnictwo Ekonomiczne.

Blankertz Stefan, 2005, Kritische Einführung in die Őkonomie des Sozialstaates,


http://docs.mises.de/Blankertz/Blankertz_Oekonomie_Sozialstaat.pdf (grudzień
2009).

Blaug Mark, 2000, Teoria ekonomii. Ujęcie retrospektywne, Warszawa, Wydawnictwo


Naukowe PWN.

Böhm-Bawerk Eugen von, 1959, Capital and Interest, South Holland, Libertarian
Press.

Czarny Bogusław, Rapacki Ryszard, 2002, Podstawy ekonomii, Warszawa, Polskie


Wydawnictwo Ekonomiczne.

Hayek Friedrich A. von, 1998, Indywidualizm i porządek ekonomiczny, Kraków, Wy-


dawnictwo Znak.

Hayek Friedrich A. von, 2004, Zgubna pycha rozumu. O błędach socjalizmu, Kraków,
Wydawnictwo Arcana.

Hoppe Hans-Hermann, 2007, A Theory of Socialism and Capitalism, Alabama, Lud-


wig von Mises Institute.

Hülsmann Jörg Guido, 2002, A Theory of Interest, „The Quarterly Journal of Austrian
Economics”, vol. 5, no. 4.

Jabłecki Juliusz, 2007, Infinity in Economics. On the Significance of Assumption in


Economic Theory, working paper.

Kirzner Israel M., 1973, Competition and Entrepreneurship, Chicago, The University
of Chicago Press.

Knight Frank, 1921, Risk, Uncertainty, and Profit, Chicago, University of Chicago
Press.

Kwaśnicki Witold, 2001, Zasady ekonomii rynkowej, Wrocław, Wydawnictwo Uni-


wersytetu Wrocławskiego.

Laffer Arthur B., Fama Eugene F., 1972, The Number of Firms and Competition,
„The American Economic Review”, vol. 62, no. 4.
46 ALICJA KUROPATWA

Landreth Harry, Colander David C., 2005, Historia myśli ekonomicznej, Warszawa,
Wydawnictwo Naukowe PWN.

Lange Oskar, 1973, Dzieła, Warszawa, Państwowe Wydawnictwo Ekonomiczne.

Machaj Mateusz, 2009, Prawa własności w systemie kapitalistycznym i socjalistycz-


nym – studium porównawcze, praca doktorska, Uniwersytet Ekonomiczny we
Wrocławiu.

Mises Ludwig von, 1922, Die Gemeinwirtschaft. Untersuchungen über Sozialismus,


Jena, Gustav Fischer.

Mises Ludwig von, 2007, Ludzkie działanie, Warszawa, Instytut Ludwiga von
Misesa.

Robinson Joan, 1934, What is Perfect Competition, „The Quarterly Journal of Eco-
nomics”, vol. 49, no. 1.

Rothbard Murray N., 1976, Praxeology: The Methodology of Austrian Economics,


http://mises.org/rothbard/praxeology.pdf (grudzień 2009).

Rothbard Murray N., 2008, Ekonomia wolnego rynku, t. 3, Warszawa, Fijorr


Publishing.

Taylor Fred M., 1929, The Guidance of Production in a Socialist State, „The American
Economic Review”, vol. 19, no. 1.
Jacek Kubisz jest absolwentem ekonomii Uniwersytetu Wrocławskiego.
Obecnie pracuje nad doktoratem pod kierunkiem prof. Kwaśnickiego.
Jacek Kubisz

T E O R I A R O N A L D A C O A S E ’A A W Ł A S N O Ś Ć
I O D P OW I E DZ I A L N O Ś Ć Z A S Z KO D Ę1

W XX wieku ekonomiści głównego nurtu w przeciwieństwie do swych


poprzedników ze szkoły klasycznej zaczęli poświęcać więcej uwagi za-
wodności nieskrępowanego rynku. Jako ważną przyczynę zawodności
mechanizmu „niewidzialnej ręki” wskazywali efekty zewnętrzne, coraz
istotniejsze wraz z postępem technologicznym, wyrażające się na przy-
kład w zanieczyszczeniu środowiska. Stanowisko ortodoksyjnej teorii
z pierwszej połowy XX wieku zostało w tej kwestii oparte na analizie
Arthura Cecila Pigou (1887–1959), który sugerował rozwiązanie proble-
mu „różnicy pomiędzy produktem społecznym a prywatnym” – później
nazwanym problemem efektów zewnętrznych – w ten sposób, że państwo
wprowadzi odpowiednie podatki i opłaty. Jednakże w latach sześćdziesią-
tych pojawiło się nowe teoretyczne rozwiązanie tego problemu, autorstwa
Ronalda Coase’a. Jest ono często rozumiane jako stanowisko prorynko-
we, ponieważ zgodnie z tą teorią sam rynek bez ingerencji państwa może
– pod warunkiem niskich kosztów transakcyjnych – rozwiązać problem
efektów zewnętrznych przez negocjacje. Stąd słynna „niewidzialna ręka
rynku” wydawała się w tej materii rozwiązaniem najlepszym. W tym tek-
ście zamierzamy pokazać, że podejście Coase’a jest dalekie od tradycyjnej
obrony wolnego rynku, a gdy się je ściślej interpretuje, okazuje się ono
nawet poważnym atakiem na własność i podważa odpowiedzialność za
jej naruszanie.

Geneza teoremat u
W 1959 Ronald Coase opublikował w „Journal of Law and Econo-
mics” artykuł zatytułowany The Federal Communications Commission,
w którym rozwijał argumentację za rynkową alokacją częstotliwości ra-
diowych jako alternatywnym rozwiązaniem wobec decyzji urzędniczych.

1
Tekst oparto na pracy magisterskiej napisanej na Uniwersytecie Wrocławskim
pod kierunkiem prof. Janiny Elżbiety Kundery.
50 JACEK KUBISZ

Zaproponował pewną procedurę: przyznawania praw własności i ich wy-


miany, by zapewnić ich najefektywniejsze użycie. Swoje stanowisko Coase
tłumaczył następująco:

Jeśli tylko tytuły własności są przyznane, możliwe są negocjacje


modyfikujące uwarunkowania prawne, jeśli prawdopodobieństwo
ich powodzenia uzasadnia poniesienie kosztów tych negocjacji.
Rozgraniczenie (…) tytułów własności jest niezbędnym warunkiem
wstępnym transakcji rynkowych. Jednakże ostateczny rezultat
(maksymalizujący wartość produkcji) jest niezależny od prawnych
rozstrzygnięć (Coase 1959, s. 26–27, cyt. za Šima 2007, s. 25).

Przywołana tu argumentacja została wówczas uznana za błędną przez


przedstawicieli szkoły chicagowskiej, ale Coase nie przyjął krytyki i po-
stanowił bronić swego stanowiska. W związku z tym w domu Aarona Di-
rectora zorganizowano spotkanie głównych ekonomistów chicagowskich,
między innymi z udziałem Miltona Friedmana i George’a Stiglera. Celem
spotkania było ustalenie, czy argumentacja Coase’a jest słuszna. Na po-
czątku spotkania dwudziestu uczestników przyznało rację Pigou, nato-
miast Coase nadal trwał przy swoim stanowisku. Po tym wstępnym okre-
śleniu poglądów nastąpiła dyskusja, którą George Stigler wspominał jako
jedno z najbardziej ekscytujących zdarzeń intelektualnych jego życia. Pod
koniec spotkania wszyscy zgromadzeni zgodzili się z Coase’em, a Director
zasugerował mu napisanie artykułu na temat teorii, będącej przedmiotem
odbytej dyskusji. Tak powstał najsłynniejszy artykuł Coase’a The Problem
of Social Cost, liczący 44 strony. Jednak dla szerokiego kręgu ekonomi-
stów najważniejszy jest tak zwany „teoremat Coase’a”. Jak wspomniano,
samą ideę przewodnią Coase przedstawił już wcześniej, w artykule The
Federal Communications Commission. Jednakże w żadnym z tych arty-
kułów teoremat nie został udowodniony, ani precyzyjnie sformułowany.
Dodajmy, że jego znana nam nazwa, autorstwa George Stiglera, pojawiła
się dopiero w 1966 roku.

R o z m a i t e i n t e r p r e t a c j e t e o r e m a t u C o a s e ’a
W zależności od przedmiotu własnych badań ekonomiści uwypuklali
w teorii Coase’a inne elementy, czego konsekwencją są różne ujęcia teore-
matu Coase’a. Dokonajmy ich przeglądu:

Przy założeniu racjonalności, braku kosztów transakcyjnych i bra-


ku prawnych przeszkód do negocjowania, każda błędna alokacja
zasobów zostanie całkowicie naprawiona w drodze rynkowych ne-
gocjacji (Calabresi).
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 51

W świecie doskonałej konkurencji, doskonałej informacji i zerowych


kosztów transakcyjnych alokacja zasobów w gospodarce będzie efek-
tywna i niezależna od reguł prawnych dotyczących początkowego
wpływu kosztów wynikających z efektów zewnętrznych (Regan).

Jeśli koszty transakcyjne są zerowe, struktura praw nie ma zna-


czenia, ponieważ rezultaty w każdym przypadku będą efektywne
(Polinsky).

Gdyby nie było: a – efektów dochodowych na popyt, b – żadnych


kosztów transakcyjnych ani c – praw do zatruwania lub kontroli za-
truwania, rozwiązanie alokacyjne byłoby niezmienne i optymalne
bez względu na początkowy rozkład tytułów własności (Frech).

W świecie zerowych kosztów transakcyjnych alokacja zasobów bę-


dzie efektywna i niezmienna w odniesieniu do zasad odpowiedzial-
ności prawnej, z pominięciem efektów dochodowych (Zerbe).

Zmiana w regule odpowiedzialności nie zmieni decyzji produkcyj-


nych ani konsumpcyjnych podmiotów gospodarczych ani nie wpły-
nie na ich ekonomiczną efektywność w obrębie następujących (do-
rozumianych założeń): a – dwa podmioty negocjują kwestię każdego
efektu zewnętrznego, b – doskonała wzajemna wiedza o funkcjach
produkcji i zysku lub użyteczności, c – konkurencyjne rynki, d – ze-
rowe koszty transakcyjne, e – system sądów działający bez kosztów,
f – producenci maksymalizujący zysk i konsumenci maksymalizują-
cy użyteczność, g – brak efektów dochodowych, h – podmioty będą
dokonywały obustronnie korzystnych negocjacji w przypadku bra-
ku kosztów transakcyjnych (Hoff man i Spitzer).

Jeśli strony będą negocjować i rozwiązywać spory przez współpracę,


ich zachowanie będzie efektywne bez względu na podstawę prawną
(Cooter i Ulen).

Zmiana prawa nie wpłynie ani na efektywność kontraktów, ani na


dystrybucję bogactwa między stronami (Schwab)2.

W polskiej literaturze można spotkać interpretację Wiesława Karsza,


który wyróżnił dwie wersje teorematu – podstawową i komplementarną.
Wersja podstawowa:

W sytuacji niezgodnego użycia zasobów przez przedsiębiorstwa


działające w warunkach pewności, w przypadku gdy: 1) liczba stron

2
Wszystkie cytaty za Medema i Zerbe 2000, s. 2 i 3.
52 JACEK KUBISZ

jest niewielka, 2) koszty transakcji są zerowe, 3) strony dysponują


pełną informacją, a 4) efekty dochodowe mogą być pominięte – po-
czątkowa struktura stosunku prawnego (…) nie posiada znaczenia
alokacyjnego, gdyż i tak finalna alokacja zasobów ukształtuje się
w wyniku wynegocjowania przez strony porozumienia, które bę-
dzie efektywne w sensie Pareta (…) (Karsz 1987, s. 118).

Wersja komplementarna ma zdaniem Karsza kształt następujący:

W przypadku dodatnich kosztów transakcji realokacja zasobów


zwiększająca ich efektywność (…) ma szanse realizacji tylko wów-
czas, gdy towarzyszący jej wzrost wartości produkcji przekroczy
wielkość kosztów, jakie są z nim związane. W przypadku przeciw-
nym wyjściowa regulacja prawna konfliktu będzie miała charakter
trwały i wpłynie decydująco na ostateczną alokację zasobów oraz
efektywność ich wykorzystania (Karsz 1987, s. 118).

Pomimo podobieństw przytoczone tu ujęcia teorematu zawierają istot-


ne różnice, z których wiele stało się przedmiotem debaty o teorii Coase’a.
Jednakże z porównania tych różnych ujęć wyłaniają się dwa ogólne postu-
laty dotyczące wyników. Pierwszy to teza, że bez względu na początkowe
przypisanie praw własności wynikająca z transakcji alokacja zasobów bę-
dzie efektywna. Ów postulat – tezę o efektywności – znajdujemy w każ-
dej interpretacji teorematu. Drugi postulat, niewystępujący u wszystkich
autorów brzmi: końcowa alokacja zasobów będzie niezróżnicowana (jed-
nakowa) w obrębie alternatywnych systemów prawnych. Jest to tak zwana
teza o niezróżnicowaniu. Spór co do poprawności teorematu Coase’a i jego
właściwego kształtu dotyczył obu postulatów, co znajduje obecnie wyraz
w tendencji do odwoływania się do dwóch wersji teorematu – silnej, za-
kładającej obie tezy, oraz słabej, zakładającej jedynie efektywność.
Przykład argumentacji obrazującej mocniejszą wersję podał w swej
pracy Josef Šima:

Załóżmy, że mamy ranczera i farmera. Krowy ranczera wchodzą


w szkodę, niszcząc uprawy farmera. Aby zapobiec szkodzie, można
zbudować ogrodzenie za 10 tysięcy dolarów. Przypuśćmy, że farmer
może sprzedać swoje zboże z zyskiem 30 tysięcy dolarów oraz że
zysk ze sprzedaży krów przez ranczera wynosi 20 tysięcy dolarów.
Przejdźmy teraz do przeanalizowania sytuacji w odniesieniu do róż-
nych zasad odpowiedzialności.

Przypadek 1. Jeśli ranczer jest odpowiedzialny za zniszczenie upraw,


to wolałby raczej zrezygnować z dalszej hodowli bydła lub byłby
skłonny zapłacić do 20 tysięcy dolarów rekompensaty za straty far-
mera. Farmer będzie skłonny zaakceptować zapłatę, jeśli przekroczy
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 53

ona koszty postawienia ogrodzenia. A więc w rezultacie negocjacji


cena może wynieść 15 tysięcy dolarów. Za te pieniądze farmer może
postawić ogrodzenie i zostanie mu jeszcze 5 tysięcy dolarów. Ran-
czer może zatrzymać swoje krowy i mieć zysk wynoszący 5 tysięcy
dolarów.

Przypadek 2. Ranczer nie jest prawnie odpowiedzialny za szkody


wyrządzone farmerowi. Tak więc uprawy farmera zostaną zniszczo-
ne lub może on zaproponować ranczerowi umowę. Ze swego zysku
30 tysięcy dolarów może zaoferować ranczerowi pieniądze za nie-
niszczenie jego wartościowych zasobów. Ranczer będzie skłonny za-
wrzeć układ. Załóżmy, że w wyniku negocjacji zgodzą się na zapłatę
25 tysięcy dolarów ranczerowi. Za tę cenę ranczer może zbudować
ogrodzenie i zostanie mu jeszcze 15 tysięcy dolarów. Farmer nato-
miast będzie miał zysk wynoszący 5 tysięcy dolarów.

Tak więc w obu przypadkach rezultat końcowy jest taki sam. Po-
stawienie ogrodzenia okazało się rozwiązaniem problemu efektów
zewnętrznych (Šima 2007, s. 27–28).

W świetle powyższego przykładu okazuje się, że bez względu na roz-


kład praw (czy też odpowiedzialności) rezultat jest ten sam – farmer i ran-
czer produkują te same ilości zbóż i bydła. Przez opłacenie innych stron
konfliktu prawa własności znajdą się w posiadaniu tych, którzy stawiają
je najwyżej.
Argumenty dotyczące błędności lub poprawności teorematu zwykle
opierają się na jego analizie opartej na określonych założeniach. Pojawia
się przy tym problem odmiennego rozumienia poszczególnych pojęć. Na
przykład założenie o braku kosztów transakcyjnych może mieć różne zna-
czenie w zależności od tego, co przez taki koszt rozumiemy. Wskutek róż-
nych zastrzeżeń wobec teorematu zbiór jego założeń ewoluował, co znaj-
duje odbicie w przytoczonych tu jego różnych interpretacjach. Przykładem
takiej ewolucji jest założenie o doskonałej konkurencji – wśród głosów
krytycznych wobec Coase’a pojawiały się wątpliwości co do rygorystycz-
nego respektowania przez niego tego modelu. W odpowiedzi na krytykę
dotyczącą łamania warunków doskonałej konkurencji Coase odrzucił to
założenie, uznając je za nieistotne dla jego teorii (Coase 1988, s. 175).

Te o r e m a t C o a s e ’ a i n i e r e a l i s t y c z n e z a ł o ż e n i a
W rzeczywistym świecie zawieranie transakcji nie jest darmowe. Poszu-
kiwanie kontrahentów, ustalanie stanu prawnego czy negocjacje – wszystkie
te działania związane z dokonaniem transakcji wiążą się z kosztami. Można
więc zarzucić modelowi Coase’a brak realizmu. Ten argument jest słuszny
54 JACEK KUBISZ

wobec części autorów, którzy dowodząc skuteczności rynkowych negocja-


cji, powołują się na teoremat Coase’a, by wzmocnić swoje tezy. Sam Coase
jednak doskonale zdawał sobie sprawę, że w jego modelu pewne czynniki
są wyabstrahowane z rzeczywistości w celu zbadania mechanizmów go-
spodarczych. W przeciwieństwie do ekonomistów, których krytykował za
wyciąganie wniosków dla realnego świata na podstawie nierealistycznych
modeli, zawsze pamiętał o przyjętych założeniach modelu i nigdy nie trak-
tował świata rzeczywistego jako wolnego od kosztów transakcyjnych. Świat
darmowych transakcji jest dla Coase’a jedynie konstrukcją myślową, służą-
cą ukazaniu ich istotności w rzeczywistym świecie i ich roli jako przeszkody
w efektywnym działaniu nieskrępowanego rynku. Coase przejawiał zainte-
resowanie problemami rzeczywistego świata – funkcjonowaniem firm, sku-
tecznością prawa i polityki. W swoich tekstach zwykle nie buduje modeli,
odwrotnie niż wielu ekonomistów neoklasycznych. Ponadto Coase krytyko-
wał ekonomistów za to, że w ich modelach ludziom brak człowieczeństwa,
firmy są pozbawione wewnętrznej organizacji, a transakcje dochodzą do
skutku w świecie bez rynków. W świecie bez kosztów transakcyjnych firmy
nie miałyby racji bytu – takie jest główne przesłanie The Nature of the Firm.
Również treść prawa byłaby tam bez znaczenia – to z kolei zasadnicza myśl
The Problem of Social Cost. Coase utrzymuje, że chciał wyjaśnić funkcjono-
wanie świata darmowych transakcji, aby ukazać, iż najistotniejsze i warte
zbadania są właśnie te koszty – konflikty wynikające z różnic w oczekiwa-
niach, niedoskonałej wiedzy i tym podobnych. Napisał:

Gdy nie ma kosztów zawierania transakcji, nic nie kosztuje ich przy-
spieszenie tak, że wieczności można doświadczyć w mgnieniu oka.
Nie wydaje się, że warto spędzać dużo czasu na badaniu właściwo-
ści takiego świata (Coase 1988, s. 15).

Takie stanowisko prowadzi do pytania o sens analizowania pewnych


zjawisk gospodarczych w nierealnych warunkach. Dokonanie niektórych
analiz wymagałoby rezygnacji z jego założeń, aby wnioski z nich miały
jakiekolwiek znaczenie dla świata. Niemniej Coase poświęcił nieco uwagi
analizie właściwości gospodarki o darmowych transakcjach. Nawet jeśli
zamierzał zwrócić uwagę ekonomistów na problemy rzeczywistej gospo-
darki, to jego artykuł z 1960 roku (nota bene jeden z najczęściej cyto-
wanych artykułów ekonomicznych w historii) posłużył zupełnie innemu
celowi. Jednak przesłaniem, którego się w nim doczytano, było raczej we-
zwanie do drobiazgowego zbadania nieistniejącego świata niż apel o sku-
pienie się na rzeczywistości. W istocie Coase sugerował, że istnieje:

Potrzeba wyraźnego wprowadzenia pozytywnych kosztów transak-


cyjnych do analizy ekonomicznej tak, abyśmy mogli badać świat
taki, jakim jest, choć nie taki był efekt (…) tego artykułu (Coase
1988, s. 15).
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 55

W innym miejscu Coase wypowiedział się w podobnym duchu:

The Problem of Social Cost (…) jest szeroko cytowany i dyskuto-


wany w literaturze ekonomicznej. Jednakże jego wpływ na anali-
zę ekonomiczną był mniej istotny, niż się spodziewałem. Dyskusje
w znacznej mierze poświęcone są częściom III i IV – analizie świata
o zerowych kosztach transakcyjnych – a pomijają pozostałe aspekty
analizy (Coase 1988, s. 13).

Przytoczone tu wypowiedzi Coase’a świadczą o tym, że zdaje on sobie


sprawę z różnicy pomiędzy światem rzeczywistym a modelem świata bez
kosztów transakcyjnych i nie postuluje bezpośredniego odnoszenia wnio-
sków z modelu do rzeczywistości. Proponuje natomiast głębsze zbadanie
kwestii, które owe dwa światy różnią. Dlatego krytyka Coase’a wydaje się
chybiona i oparta na nadinterpretacji.
Coase’a można natomiast skrytykować z innego punktu widzenia.
Krytykę poprawności teorematu ze stosunkowo daleko idącymi wnio-
skami rozwinął w swej pracy Josef Šima (2007, s. 29). Przekonywał, że
teoremat przestaje być poprawny, gdy efekt zewnętrzny powodowany
przez producenta narusza interesy osoby o niewielkim dochodzie. Zda-
niem Šimy w takiej sytuacji wniosek o jednakowych rezultatach nie
może się obronić. Przykładem takiej sytuacji może być zmodyfi kowa-
ny model farmera i ranczera. Wyobraźmy sobie, że farmer wciąż ceni
swoje uprawy na około 30 tysięcy dolarów. Jednak w odróżnieniu od
oryginalnego przykładu wartość rynkowa upraw nie jest aż tak wysoka.
Farmer nie chce sprzedać swych upraw za mniej niż 30 tysięcy dolarów,
ale nikt nie chce ich kupić za więcej niż 5 tysięcy dolarów. Farmer może
przecież uprawiać rośliny nie na rynek, ale na własne potrzeby, używając
do tego celu jakiejś metody odziedziczonej po przodkach. Emocjonalne
przywiązanie do upraw może być dla niego bardzo ważne, ale zupełnie
nie ma znaczenia dla reszty świata, także dla ranczera (Šima 2007, s. 30).
(Sytuacja będzie podobna, gdy farmer jako jedyny prawidłowo oszacuje
przyszłą wartość upraw). Obojętność reszty świata nie jest przeszkodą
w analizie ekonomicznej, która uwzględnia indywidualne oceny alter-
natywnych rozwiązań, zarówno pod względem wartości wymiennej,
jak i psychicznej (jako przykład można podać Marshallowską nadwyżkę
konsumenta, która jest zjawiskiem zachodzącym w psychice nabywcy,
dla którego nabywana rzecz ma znacznie większą wartość niż wartość
wymienna, którą konsument uiszcza). Można zaobserwować, że gdy far-
mer ma prawo do swych upraw, ranczer musi podjąć działania służące
powstrzymaniu swojej trzody przed niszczeniem pola farmera. Może
więc zmniejszyć pogłowie trzody, albo wznieść ogrodzenie, lub zastoso-
wać jeszcze inne środki.
W przeciwnym razie – gdy prawo ma druga strona – ranczer dysponuje
prawem do emisji efektów zewnętrznych – farmera może nie być stać na
56 JACEK KUBISZ

„kupienie prawa” do zachowania upraw. Jeśli pole nie przynosi dochodu


pieniężnego, z którego można zapłacić drugiej stronie sporu, a jedynie do-
chód psychiczny i nie istnieje inne dostępne źródło pieniędzy (farmer jest
biedny), ogrodzenie nigdy (nawet w świecie bez kosztów transakcyjnych)
nie powstanie i uprawy zostaną zniszczone. Bardzo istotny jest więc po-
czątkowy rozkład praw własności.
Stąd Josef Šima postulował następujące doprecyzowanie teorematu
Coase’a:

Pomijając efekt dochodowy w systemie prywatnej przedsiębiorczo-


ści, nie ma znaczenia, kto co posiada, gdyż i tak zostaną osiągnięte
te same rezultaty (Šima 2007, s. 30).

Pominięcie efektu dochodowego to jednak bardzo istotna kwestia.


Efekty dochodowe występują dlatego, że dobra w rzeczywistym świecie
są rzadkie i jeśli określona część dochodu jest własnością jednej oso-
by, to nie może być równocześnie własnością drugiej. Prawa własności
wyłączają z używania ich przedmiotu wszystkich poza samym wła-
ścicielem. Gdyby nie były zdefi niowane i chronione, ciągłe konfl ikty
o rzadkie zasoby prowadziłyby do ich marnotrawstwa. Jeżeli jednak
założylibyśmy powszechność wszelkich dóbr, takie spory straciłyby
rację bytu. Każdy miałby bowiem dowolną ilość każdego dobra w każ-
dej chwili. Zniknęłaby więc przyczyna konfl iktów i prawa własności
straciłyby swój sens. Jeśli więc efekty dochodowe wynikają ze zjawiska
rzadkości, to pominięcie ich w analizie oznacza właściwie wyłączenie
z analizy zjawiska rzadkości dóbr. To z kolei stawia pod znakiem zapy-
tania sensowność takiego ujęcia. W końcu w świecie bez rzadkich dóbr
nie byłoby problemu efektów zewnętrznych (czyste powietrze, woda
lub cicha przestrzeń mieszkalna byłyby dobrami dostępnymi dla ludzi
w nieskończonej obfitości). Co więcej, w takim świecie straciłoby sens
dokonywanie jakichkolwiek transakcji (bez względu na ich koszty) – je-
żeli nie ma rzadkich dóbr, to wszyscy wszystko mają. W takiej fi kcyjnej
rzeczywistości ekonomia jako nauka przestaje być potrzebna.
Wydaje się, że najlepszym sposobem, by utrzymać teoremat
Coase’a jest rezygnacja z założenia o jednakowości rezultatów, co wy-
stępuje w przypadku jego słabszej wersji. Jednakże nawet to ujęcie, ak-
centujące efektywność, daje się dość łatwo obronić jedynie w odniesie-
niu do teoretycznego modelu świata zerowych kosztów transakcyjnych
oraz sytuacji dwóch producentów, których dochody pieniężne można
łatwo porównać. Trudniej jest jednak zastosować ten model do świata
rzeczywistego, gdzie producenci współistnieją z konsumentami, nie ma
stałych cen, a przede wszystkim koszty transakcyjne są dodatnie.
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 57

Cicha rewolucja, czyli subiekt y w izm


i a n t y s u b i e k t y w i z m w a n a l i z i e C o a s e ’a

Coase w artykule The Problem of Social Cost oprócz analizy działania go-
spodarki rynkowej w określonych uwarunkowaniach, takich jak koszty trans-
akcyjne lub różne reguły odpowiedzialności, poruszył pewną istotną kwestię
prawną. Nie tylko ukazał różne możliwe ujęcia zjawiska efektów zewnętrz-
nych, ale też zanegował tradycyjne podejście dotyczące reakcji prawa na ten
problem. Przed opublikowaniem teorii Coase’a dotyczącej kwestii naruszeń
własności prywatnej dominowało klasyczno-liberalne podejście przyczyno-
wo-skutkowe – wyróżniano agresora i ofiarę. Można napotkać w literaturze
poglądy uznające opodatkowanie agresora w celu wyrównania wyrządzonej
szkody za rozwiązanie równie pożądane, jak przyznanie mu subsydium za
zaprzestanie szkodliwej działalności (Block 1995, s. 1), aczkolwiek panowała
zgoda co do samej istoty problemu. Główną postacią w teorii ekonomii re-
prezentującą takie ujęcie efektów zewnętrznych był Arthur C. Pigou. Wnioski
formułowane przez niego i jego zwolenników Coase podsumował następują-
co: emitent zanieczyszczeń (dymu, hałasu, etc.) powinien zapłacić za szkody
pokrzywdzonemu, zostać opodatkowany przez władzę lub przenieść swoją
działalność na tereny niezamieszkane (Coase 1988, s. 95).
Niezwykłym zjawiskiem jest to, że Pigou, mający poglądy socjalistycz-
ne, przychylił się do obrony prywatnej własności przed naruszaniem, pod-
czas gdy Coase, utożsamiany z rzekomo prorynkową szkołą chicagow-
ską, odmówił poszkodowanemu uprawnienia do automatycznej ochrony
prawnej. Coase przedstawił istotę problemu w zupełnie nowym świetle:

Tradycyjne podejście cechowała tendencja do zaciemniania natury


wyboru, którego należy dokonać. Pytanie, zwykle stawiane w sytu-
acji, gdy A wyrządza krzywdę B, dotyczące tego, jaką należy podjąć
decyzję, brzmi: jak powinniśmy powstrzymać A? Jednak to podejście
jest błędne. Mamy tu bowiem do czynienia z problemem natury mają-
cym dwa aspekty. Oszczędzenie krzywdy B wyrządziłoby krzywdę A.
Prawdziwe pytanie, na które trzeba odpowiedzieć, brzmi: czy zezwo-
lić A krzywdzić B lub czy zezwolić B krzywdzić A? Problemem jest
uniknięcie poważniejszej krzywdy (Coase 1988, s. 96).

Od strony analizy prawnej Coase wprowadza wobec tego swoisty subiek-


tywizm, odrzucając tradycyjne rozumienie szkód i odpowiedzialności za
szkody. Chwilę później jednak, od strony ekonomicznej, subiektywizm po-
rzuca na rzecz jakiegoś obiektywizmu, ponieważ postuluje uniknięcie większej
szkody na podstawie jakiejś obiektywnej kalkulacji. Uniknięcie poważniejszej
krzywdy wymaga orzeczenia, które rozwiązanie łączy się z wyższym kosz-
tem. Należałoby w związku z tym zastanowić się nad zjawiskiem kosztu.
James Buchanan podkreślił subiektywizm kosztów, co uzasadnił tym,
że podejmujący decyzję wybiera w obrębie jakiejś alternatywy. Koszt jest
58 JACEK KUBISZ

więc subiektywną oceną działającego człowieka dotyczącą korzyści lub


użyteczności, która według jego oczekiwań ma wynikać z samego wybo-
ru. Podejmując określone działanie, człowiek rezygnuje z alternatywnych
sposobów zachowania, które odrzucił. Stanowią one koszt alternatywny
jego decyzji. Z tej definicji kosztu wynikają różnorakie wnioski. Koszt
jest ponoszony wyłącznie przez osobę dokonującą wyboru i nie ma moż-
liwości jego przerzucenia na innych ludzi. Jednocześnie jest zjawiskiem
subiektywnym, istniejącym jedynie w umyśle podmiotu podejmującego
decyzję. Oparty na oczekiwaniach dotyczących przyszłych wydarzeń, jest
nakierowanym na przyszłość konceptem ex ante. Ów koncept nigdy nie
zostaje zrealizowany, ponieważ zostaje unicestwiony w momencie pod-
jęcia alternatywnej decyzji, której staje się kosztem. A przede wszystkim
koszt nie może być mierzony przez kogoś innego niż podejmujący decyzję,
gdyż nie ma możliwości bezpośredniej obserwacji wewnętrznych przeżyć
osób dokonujących wyboru (Buchanan 1969, s. 14–15).
Mamy więc do czynienia z ujęciem kosztu jako zjawiska dotyczące-
go subiektywnej użyteczności, a nie wymiaru realnego czy monetarne-
go gospodarki. Takiego kosztu nie da się zaobserwować, a co ważniejsze,
zmierzyć i uczynić przedmiotem porównań. Jednakże nawet gdy się po-
minie problem subiektywizmu kosztów i ograniczeń w interpersonalnym
porównywaniu użyteczności, kwestia posługiwania się cenami z realne-
go niepewnego świata w kalkulowaniu efektywności pozostaje wątpliwa.
Bierze się to stąd, że ceny w świecie realnym nie są nigdy doskonałe, lecz
z pewnego punktu widzenia są ciągle fałszywe.
M. J. Rizzo w artykule na temat kosztu społecznego (Rizzo 1979)
zwrócił uwagę na występujący w ekonomii od czasów Williama Jevonsa
pogląd, że koszty, rozumiane jako zjawisko historyczne, nie mają wpły-
wu na cenę. Ćwierć wieku po Jevonsie Böhm-Bawerk w swoich pracach
o kapitale i produkcji dokonał syntezy podejścia marginalistycznego,
dotyczącego wyceny w ujęciu klasycznym. Uzasadniał w nowy sposób
wpływ kosztów produkcji na cenę i podkreślał, że produkcja wymaga
czasu. Z jego analiz wynika, że oczekiwane koszty alternatywnych za-
stosowań krańcowych jednostek danego dobra wpływają na jego cenę
– spodziewana wartość (porównaj Böhm-Bawerk 1894–95, s. 149–208),
jaką potrzebne zasoby będą miały w alternatywnych zastosowaniach,
wyznaczy rozmiary produkcji za spodziewaną cenę. Rizzo zauważył, że
rozróżnienie pomiędzy historyczną a spodziewaną wielkością jest nie-
zbyt istotne w świecie ogólnej równowagi. W takim modelu błędy nie są
popełniane, a oczekiwania okazują się trafne. Co najważniejsze, w mo-
delu ogólnej równowagi ceny zasobów odzwierciedlają wartość ich alter-
natywnych zastosowań. Gdyby bowiem tak nie było, ich ceny zostałyby
natychmiast podniesione lub obniżone do tego właśnie poziomu – jest
to zgodne z defi nicją stanu równowagi, czyli sytuacji, w której wszystkie
okazje do osiągnięcia zysków są przez wszechwiedzących przedsiębior-
ców wykorzystywane.
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 59

Ceny w rzeczywistej gospodarce nie są poprawnymi cenami ogólnej


równowagi, ponieważ przynajmniej po części opierają się na błędnych
oczekiwaniach. Oczekiwania co do rzeczywistej wartości alternatywnych
zastosowań nie są dane obiektywnie. Rizzo zauważył również, iż nawet
jeśli niektóre ceny byłyby w danej chwili cenami ogólnej równowagi (czy
raczej byłyby równe tym cenom), uczestnicy rynku nie zdołaliby tego
stwierdzić (Rizzo 1979, s. 85). Nie można więc jego zdaniem argumento-
wać, że dana cena jest „bliżej” bądź „dalej” od ceny równowagi. W sta-
nie ogólnej nierównowagi uczestnicy rynku próbują niejako „odgadnąć”
ceny. W rezultacie niektóre czynniki produkcji będą wycenione poniżej,
inne zaś powyżej swojej „prawdziwej” wartości, odpowiadającej stano-
wi równowagi, który wytworzyłby się w sytuacji doskonałego działania
rynku. W nierównowadze istnieje wiele możliwości osiągania zysków, te
zaś w ocenie Rizzo wynikają z alokacji zasobów przez przedsiębiorców
w sposób zbliżający gospodarkę do stanu równowagi. Tymczasem gdy
okazje do osiągnięcia zysku uważa się za dostępne, prawdziwy koszt alter-
natywny jakiejkolwiek działalności musi zawierać w sobie te oczekiwane
utracone korzyści, dostępne gdzieś indziej w gospodarce. Jeśli więc kosz-
ty i korzyści, nawet pieniężne, są przez ludzi subiektywnie postrzegane,
to jak ktoś inny ma dokonać wyboru, która krzywda jest poważniejsza
bez standardu równowagowego, gdy nie wiadomo, jak ceny rzeczywiste
mają się do niego odnosić? Rizzo w rozdziale czwartym książki Time,
Uncertainty and Disequilibrium zamieścił analizę ukazującą, że pojęcie
obiektywnego kosztu społecznego poza stanem równowagi ogólnej nie
ma sensu. Utrzymuje też, że nigdy nie możemy się znaleźć w takim sta-
nie równowagi, a co najważniejsze, nie potrafi libyśmy rozpoznać, iż się
w nim znaleźliśmy.
Zdaniem Murraya Rothbarda już tytułowe pojęcie „kosztu społeczne-
go” w artykule Coase’a jest podstawowym błędem, jeśli jest rozumiane
jako koszt przypisywany więcej niż jednej osobie (Rothbard 1979, s. 91).
Jeśli bowiem cele różnych ludzi kolidują ze sobą, to korzyść jednego jest
stratą drugiego. Coase proponuje swego rodzaju „potrącenie” tych warto-
ści, jednak zdaniem Rothbarda jest to nierealistyczne. Jeśli ujmujemy kosz-
ty jako zjawisko subiektywnie zachodzące w pojęciu działającego człowie-
ka, to nie da się ich porównać. Podobnie argumentował Peter Lewin:

Koszty są indywidualne i prywatne, nie mogą być „społeczne”. Po-


jęcie kosztu społecznego zakłada zsumowanie kosztów indywidual-
nych, co jest zadaniem niemożliwym, jeśli rozumiemy koszty jako
związane z subiektywną użytecznością. Ujęcie cen rynkowych jako
odzwierciedlających ewentualny poziom kosztu społecznego (lub
cen występujących w hipotetycznym stanie równowagi lub braku
rynku na dane dobro) ma określone znaczenie jedynie po przyję-
ciu założeń mocno odbiegających od rzeczywistości (Lewin 1982,
s. 220).
60 JACEK KUBISZ

Zatem niestety efektem pracy Coase’a jest porzucenie subiektywi-


zmu tam, gdzie jest niezbędny, czyli w ekonomicznej koncepcji kosztów,
a wprowadzenie go tam, gdzie jest groźny, czyli w analizie prawnej.

Subiekt y w izm w praw ie a pojęcie efekt y w ności


Za prekursora ekonomicznej analizy prawa może uchodzić sędzia
Hand, który w 1947 roku zdefiniował zaniedbanie jako brak przedsię-
wzięcia środków uzasadnionych kalkulacją korzyści i kosztów (Stelmach,
Brożek, Załuski 2007, s. 14). Obecnie z chicagowskim podejściem do eko-
nomicznej analizy prawa kojarzy się najbardziej sędziego Richarda Po-
snera. Stwierdził on, że Coase i Calabresi wywarli zasadniczy wpływ na
rozwój dyscypliny ekonomicznej analizy prawa, przez zastosowanie teo-
rii i empirycznych metod ekonomii do analizy systemu prawnego (North
1992, s. 24). Posner zaś kontynuuje i doprecyzowuje pogląd Coase’a do-
tyczący użycia mechanizmów prawnych w celu minimalizacji kosztu
społecznego.
Prace Posnera wyznaczają nowy rozdział w rozwoju tej dyscypliny
– ekonomicznej analizy prawa naucza się powszechnie w szkołach praw-
niczych w Stanach Zjednoczonych. Wraz z ukazaniem się pierwszego ze-
szytu „Journal of Legal Studies” oraz traktatu Posnera Economic Analysis
of Law rozpoczęło się szersze uczestnictwo prawników w tworzeniu tej
dyscypliny. Z czasem książka Posnera stała się jednym z podstawowych
dzieł o tej tematyce. Wykorzystując analizę Coase’a dotyczącą dwustron-
nej natury konfliktu, Posner ujmuje w swej analizie działanie człowieka
jako zjawisko mające wpływ na innych ludzi w społeczeństwie. Posner
kontynuuje analizę, wychodząc z założenia, że dobrowolne negocjacje
maksymalizujące dobrobyt mogą w świecie wysokich kosztów transak-
cyjnych nie dojść do skutku (bądź nie być efektywne), a w związku z tym
w istocie mamy do czynienia z wieloma konfliktami, które muszą być
rozwiązane za pomocą nierynkowych metod, aby zapewnić efektywność
wyników. Zasadnicza koncepcja Posnera polega na tym, że ta rola powin-
na przypaść sędziom i systemowi prawnemu. Sędziowie powinni zasądzać
uprawnienia (odpowiedzialność) tak, jak się to by działo za pomocą wy-
mian rynkowych, gdyby nie istniały koszty transakcyjne. Posner widzi
teorię ekonomii jako źródło analiz dotyczących kosztów i korzyści wy-
nikających z alternatywnych uwarunkowań prawnych. Te analizy mogą
być następnie użyte przez sędziów do naśladowania rynku – takiego za-
projektowania prawa, aby zapewniało wyższą produktywność. Poglądy te
wynikają z Posnerowskiej wizji ekonomii:

Ekonomia zajmuje się wyjaśnianiem i przewidywaniem raczej ten-


dencji i agregatów niż zachowaniem każdej indywidualnej osoby
(Posner 1998, s. 19, cyt. za Šima 2007, s. 38).
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 61

Posner uznaje więc, że subiektywne koszty jednostek są poza obszarem


zainteresowań ekonomicznej analizy prawa. Wynika to z jego rozważań
dotyczących oceny wartości dóbr, którą wprost utożsamia z wyceną za
pomocą pieniędzy.

Najważniejszą rzeczą, o której należy pamiętać na temat pojęcia


wartości jest to, że jest ono oparte na tym, ile ludzie są skłonni za
coś zapłacić, a nie na tym, ile radości czerpaliby z posiadania tego.
Jednostka, która bardzo chciałaby posiadać jakieś dobro, ale jest
niechętna lub niezdolna do zapłaty za nie – być może z powodu
ubóstwa – nie wartościuje określonego dobra w sensie, w jakim ja
używam terminu wartościować (Posner 1983, s. 71, cyt. za North
1992, s. 46).

Ludzkie preferencje zademonstrowane za pomocą pieniędzy posia-


dają „etyczną wagę”, zgodnie z Posnerowską definicją maksymalizacji
bogactwa.

(…) jeśli dobrobyt społeczny mierzy się za pomocą miary pieniężnej,


tj. jeśli zakłada się, że jakaś opcja ma dla X taką wartość, ile był-
by on gotów zapłacić za jej realizację, wtedy nakaz maksymalizacji
dobrobytu społecznego przyjmuje postać nakazu maksymalizacji
naszych „chęci zapłaty” (willingnesses to pay), a więc nakazu do-
konania takich alokacji dóbr i uprawnień, aby trafiły one do osób,
które mogą i chcą za nie zapłacić najwięcej, a nie do osób, które
czerpią z nich największą użyteczność. Takie rozumienie efektyw-
ności ekonomicznej jest przyjmowane przez Posnera – nazywa je on
nakazem maksymalizacji bogactwa społecznego (Stelmach, Brożek,
Załuski 2007, s. 30).

Zasadniczy pomysł Posnera co do wymiaru sprawiedliwości polega na


tym, że sędziowie powinni dysponować zbiorem uprawnień dotyczących
praw własności. Ostatecznie chodzi o to, aby osiągnąć wyższy poziom
produkcji w gospodarce.

Problemem często nie jest prawo własności lub jego brak, ale raczej
(…) ograniczone lub nieograniczone prawa własności, bez żadnych
ograniczeń zaprojektowanych dla wspomagania prawidłowego (nie
niedostatecznego lub nadmiernego) poziomu inwestycji w wykorzy-
staniu wartościowego zasobu (cyt. za Šima 2007, s. 39).

Jeśli więc prawo w ujęciu Coase’a i Posnera ma na celu optymali-


zację wykorzystania zasobów i wymianę praw własności, to ich teoria
jest refleksją o przekształcaniu układu praw własności – o zmianach
prowadzących ku większej efektywności. Gdyby bowiem transakcje
62 JACEK KUBISZ

rynkowe odbywały się bez kosztów, nie miałoby znaczenia, komu pier-
wotnie przysługiwały prawa własności. Proces dobrowolnej wymiany
bez kosztów realokowałby prawa do posiadaczy, którzy wartościowali-
by je najwyżej. Jednak gdy zrezygnuje się z nierealistycznego założenia
dotyczącego braku kosztów transakcyjnych, to zasada maksymalizacji
bogactwa wymaga spełnienia warunku co do początkowego posiada-
nia praw własności przez tych, którzy najprawdopodobniej wartościują
je najwyżej, aby zminimalizować koszty transakcyjne. Jest tak, gdyż
w pewnych przypadkach, nawet przy niskich kosztach transakcyjnych,
wartościujący prawa najwyżej mogliby ich nie odkupić, gdyż nie było-
by ich stać.
Wobec przedstawionej tu koncepcji prawa i efektywności można wy-
sunąć zarzut, że jest to pewien sąd normatywny formułowany arbitral-
nie. Poza obszarem owego sądu zostaje kwestia występowania kosztów
niepieniężnych, co w efekcie może doprowadzić do stworzenia prawa,
które daje większe przywileje bogatszym niż biedniejszym. Paradoksal-
nie taki rezultat jest dokładnym przeciwieństwem wniosków intuicyjnie
wyciąganych z zasady malejącej użyteczności krańcowej, o których bę-
dzie więcej powiedziane przy okazji rozważań o pojęciu efektywności.
Należy również zauważyć, że traktowanie przez Posnera ekonomii jako
nauki niezajmującej się poszczególnymi ludźmi, ale agregatami czy ten-
dencjami nasuwa pytanie o poprawność nazwy „ekonomiczna analiza
prawa”. Skoro istnieją w teorii ekonomii nurty zajmujące się analizo-
waniem działań jednostek, ich motywów oraz subiektywnych kosztów,
być może należałoby stanowisko prezentowane przez Posnera nazwać
określeniem nieco bardziej szczegółowym, wskazującym na szkołę
chicagowską.
Myśl ekonomicznej analizy prawa opiera się na tezie, że efektyw-
ność ekonomiczna jest jedynym celem, jaki prawo powinno realizo-
wać (Stelmach, Brożek, Załuski 2007, s. 25). Nie jest jednak jasne, jak
dokładnie należy rozumieć ten postulat. Przede wszystkim trzeba od-
różnić pojęcie „prawa efektywnego ekonomicznie” od pojęcia „prawa
efektywnego”, które oznacza po prostu rozwiązanie prawne, za pomo-
cą którego zostaje osiągnięty cel przyświecający jego twórcy (zwykle
ustawodawcy). W samej teorii ekonomii pojęcie efektywności rozumia-
no rozmaicie.
Efektywność ekonomiczną można rozumieć jako maksymalizację do-
brobytu społecznego. W tym ujęciu ekonomiczną analizę prawa traktuje
się jako pewną formę utylitaryzmu społecznego, odniesionego do proble-
mów prawnych. Z tego punktu widzenia dziwi nieco pogląd wyrażony
przez Posnera, że:

do czasu Coase’a utylitaryzm dominował w teorii prawa, a został


zastąpiony przez wyraźną analizę ekonomiczną (Posner 1983, s. 51,
cyt. za North 1992, s. 25).
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 63

Postulaty ekonomicznej analizy prawa można rozumieć jako modyfika-


cję utylitarnego założenia maksymalizacji społecznej użyteczności, która od
filozoficznego pierwowzoru różni się jedynie proponowanymi metodami.
W literaturze ekonomicznej można spotkać również bardziej subiek-
tywistyczne poglądy na kwestię efektywności. Zdaniem Mario J. Rizzo
efektywność odnosi się tylko do pewnych celów. Wąsko ujęta, jak w przy-
padku ekonomicznej analizy prawa, oznacza co najwyżej maksymalizację
produktu narodowego brutto. Efektywność to termin, którego znaczenie
ogranicza się do modelu, w jakim się go zwykle używa. Jest ona względna
wobec celów i poddana regułom wyszczególnionym w założeniach. Na
pytanie o efektywność systemu prawnego common law Rizzo odpowie-
dział, iż jest ono efektywne. Dodał jednak, że właściwie postawione pyta-
nie powinno brzmieć:

czy jest ono efektywne względem pewnych arbitralnie dobranych


celów lub czy jest efektywne w znaczeniu efektywnego popytu (lub
zademonstrowanych preferencji) sędziów (Rizzo 1979, s. 72).

Rizzo nie uniknął pewnej relatywizacji – pojęcie efektywności nie ma


żadnego znaczenia bez związku z określonymi celami. Jednak zdaniem
Rothbarda Rizzo nie ma racji, gdy pisze, że common law jest efektywne
w odniesieniu do pewnych szczególnych celów. Rothbard nie podziela od-
niesienia efektywności do instytucji prawnych i gospodarczych. Istnieje
jego zdaniem kilka warstw błędu w orzekaniu o efektywności społecz-
nych instytucji lub polityk. Są to błędy następujące: a) problemem jest nie
tylko określanie celów, ale decyzja, „czyje” cele należy realizować; b) in-
dywidualne cele są z góry skazane na popadanie w konflikt, co powoduje,
że addytywna koncepcja efektywności staje się błędna, gdyż efektywność
w osiąganiu celu jednej osoby może zmniejszać efektywność osiągania
celów innej (Rothbard 1979, s. 90).
Przypadki kolizji interesów jako takie prowadzą właśnie do problemu
kosztów zewnętrznych i kosztu społecznego. Pierwszym pytaniem, jakie
zadaje Rothbard w odniesieniu do teorii Coase’a, jest: dlaczego w ogóle
koszty społeczne powinny być minimalizowane? Lub dlaczego efekty
zewnętrzne należy zinternalizować? Odpowiedzi są zdaniem Rothbar-
da proste i intuicyjne, jednak nigdy nie zostały one jasno sformułowa-
ne w literaturze o ekonomii prawa. W tym miejscu rozważań Rothbard
formułuje drugie, dużo istotniejsze pytanie: czy cel minimalizowania
kosztu społecznego powinien być absolutny, czy też podporządkowany
innym celom? I z jakich powodów? Podobne stanowisko można spotkać
w pismach prawników wyrażających zastrzeżenia wobec postulatu nad-
rzędnej roli efektywności ekonomicznej. Nie kwestionują oni słuszno-
ści sprzyjania efektywności, lecz zwracają uwagę na dwa zarzuty, które
można sformułować z prawniczego punktu widzenia przeciwko domi-
nacji tej zasady:
64 JACEK KUBISZ

Zarzut 1. Niektóre sensy efektywności ekonomicznej mogą prowa-


dzić do naruszenia zasad stanowiących rdzeń myślenia etycznego
i prawnego: zasady dobrowolności umów, zasady pacta sunt servan-
da, zasady poszanowania praw nabytych oraz zasady nieuznawania
przez prawo skrajnie niemoralnych preferencji.

Zarzut 2. Co najmniej równie istotną wartością prawa jak efektyw-


ność ekonomiczna jest sprawiedliwość [ Posner ze sobą te dwie rze-
czy utożsamia – przyp. JK] (Stelmach, Brożek, Załuski 2007, s. 40).

Przede wszystkim stwierdzenia, że koszt społeczny powinien być mini-


malizowany lub że należy zinternalizować koszty zewnętrzne, są stwier-
dzeniami normatywnymi. Już sformułowanie takiego postulatu powoduje
przeniesienie wywodu z gruntu teorii na grunt polityki gospodarczej. Opinia
Coase’a na temat tradycyjnej reguły odpowiedzialności jest zajęciem pew-
nego stanowiska etycznego i wymaga przedstawienia etycznego uzasadnie-
nia. Jednak Coase tego nie robi. Przyjmuje niejako za pewnik, że uniknięcie
„poważniejszej krzywdy” i maksymalizacja dobrobytu jest powszechnie
pożądana i słuszna. Nie porusza również problemu kalkulacji użyteczności
konkurencyjnych rozwiązań. W tej kwestii jasne stanowisko zajmuje Po-
sner. Jego ujęcie redukujące kwestię kosztów do wymiaru pieniężnego może
się wydawać na gruncie teorii oznaką pewnej pokory poznawczej, jako
uznanie niemożliwości kalkulacji subiektywnych kosztów, jednak gdy się je
potraktuje jako postulat normatywny, to można uznać, że jest on słusznie
oskarżany o uprzywilejowanie bogatych. Wydaje się więc, iż subiektywi-
styczna krytyka nie jest bezpodstawna – albo, konsekwentnie kalkulując
koszty, napotykamy barierę poznawczą dotyczącą kosztów postrzeganych
subiektywnie przez uczestników sporu i unikając „poważniejszej krzywdy”,
to sędzia sam subiektywnie decyduje, które koszty uważa za poważniejsze.
Albo idąc śladem Posnera, już a prori odrzucamy koszty, których nie mo-
żemy zmierzyć, co oznacza de facto narzucenie własnych, normatywnych
sądów uprzywilejowujących ludzi majętnych. Żadna z tych możliwości nie
sprzyja idealnemu ujęciu minimalizacji kosztu społecznego.

E konom icz ne koszt y


p r a w n e g o s u b i e k t y w i z m u C o a s e ’a
Zgodnie z teorią Coase’a możliwość wyrządzenia szkody w świecie kosztów
transakcyjnych ma wpływ na alokację zasobów. W takim ujęciu państwowa
decyzja zakazująca naruszania cudzej własności sama przez się narzuca pe-
wien koszt. Odpowiedzialność lub zakaz dokonywania pewnych działań są
porównywalne z utratą czynnika produkcji. Jeśli więc postrzegamy czynniki
produkcji jako pewne prawa, łatwiej zrozumieć, że prawo do czynienia czegoś
(wytwarzania dymu, hałasu, smrodu etc.) jest również czynnikiem produkcji
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 65

(Coase 1988, s. 44). Interesujące, że tego typu podejście ma o wiele głębszą


treść niż ta, którą Coase wyraził wprost w swym wywodzie. Otóż każde wy-
korzystanie jakiegoś czynnika produkcji zakłada, że ktoś, kto decyduje o jego
użyciu, jest właścicielem lub działa w imieniu właściciela.
Gary North przedstawił w swojej pracy analizę odmienną od
Coase’owskiej, pozostającą jednak w duchu Coase’a. Jego zdaniem
ochrona prawna udzielana właścicielowi w celu wykluczenia innych lu-
dzi z używania i naruszania jego własności jest zasadniczym czynni-
kiem produkcji w kapitalizmie. Jest to czynnik osobistej pewności co do
przyszłych praw posiadania owoców swojej pracy, kapitału czy zasobów
naturalnych. Jeśli system prawny odmawia przewidywalnej ochrony
właścicieli, rynek zaczyna się rozpadać i nie może poprawnie spełniać
swoich funkcji. Coase wzywa do zwrócenia uwagi na całokształt efek-
tów rozwiązań dotyczących użycia zasobów i reguł odpowiedzialności.
Jednak on sam ignoruje znaczną część efektów własnych idei, mianowi-
cie prawa do określania, czy osoba trzecia ma prawo naruszać osobisty
obszar wolności i własności właściciela. Coase pomija koszt wynikający
z odrzucenia prawa do stwierdzenia „zabieraj swoje bydło z mojej ziemi”3
– należy w tym miejscu zauważyć, że podejście tradycyjne zachowuje tak-
że szacunek dla prawa własności agresora – mamy tu bowiem jego bydło
naruszające cudzą własność, czyli moją ziemię. W przypadku podejścia
w duchu Coase’a nikt nie może być już pewien sądowego rozstrzygnięcia
i przyszłości swojej własności. Pomijanie ekonomicznej wartości prawa
do odszkodowania za naruszenie własności jest zdaniem Northa głów-
nym błędem popełnianym przez Coase’a i ekonomistów zajmujących
się ekonomicznym analizowaniem kosztów społecznych w jego duchu.
Coase przedstawia ekonomiczną analizę prawa do wyrządzania szkody,
pomijając analizę efektów tradycyjnej odmowy agresorowi takiego pra-
wa. Pisze wprost, że podejście tradycyjne jest błędne, lecz nie rozważa
kwestii jego ewentualnej zgodności z zasadą minimalizowania kosztów
społecznych. Coase zdaniem Northa wyraźnie odmawia przewidywal-
nej ochrony prawnej właścicielom, pisząc, że jakiekolwiek prawo żąda-
nia zadośćuczynienia jest uzależnione od okoliczności. North doszedł
w swych rozważaniach do daleko idącego wniosku, że jeśli prawo do od-
szkodowania za naruszenia własności nie jest przewidywalne, to prawo
własności przestaje być „prawem” sensu stricto.
Coase implicite uznaje nieefektywność ekonomiczną doktryny bez-
względnej odpowiedzialności. Jako rozwiązanie dla świata, w którym
nie istnieją transakcje bez kosztów, Coase zaproponował, aby w przy-
padku, gdy cudza własność jest naruszana przez agresora, sędzia
przyznawał uprawnienie, kierując się najwyższym poziomem społecz-
nej użyteczności. Taka zasada prawna poświęca konkretną własność

3
W 1974 r. na konferencji w South Royalton Walter Block rozpoczął tymi słowa-
mi referat o teoremacie Coase’a ( North 2002, s. 77).
66 JACEK KUBISZ

prywatną na rzecz hipotetycznego dobra publicznego. Może ona skut-


kować pojawieniem się specyficznej pogoni za rentą – wyrażającą się
w działalności podmiotów, które naruszając cudzą własność, będą się
powoływać na interes publiczny i użyją orzeczeń sądowych do upra-
womocnienia swoich żądań. Dzięki zasadzie prawnej proponowanej
przez Coase’a agresor będzie mógł argumentować, że naruszając cudzą
własność, w istocie pomaga przywrócić bądź polepszyć efektywność
gospodarowania.
Teoria Coase’a pozostaje zatem wroga wobec konkretnych praw wła-
sności prywatnej. Coase’owskie ujęcie prawa własności jako czynnika
produkcji i uzasadnianie jego przyznania przez odwołanie do efektyw-
ności ekonomicznej jest odwróceniem tradycyjnego podejścia do efek-
tywności gospodarczej. Zdaniem Blocka przed Coase’em maksymalizo-
wanie bogactwa było produktem praw własności, a nie ich warunkiem.
Innymi słowy, „rozważania ekonomiczne były ogonem, a prawa wła-
sności były psem” (Block 1995, s. 62). Block przywołuje jako przykład
Johna Locke’a, który w swojej teorii praw własności nie rozważał, czy
zawłaszczający określony obszar był jego najefektywniejszym użytkow-
nikiem. Dla Locke’a najistotniejsze było to, że, jak pisze, dany człowiek
jako pierwszy, zmieszał pracę z ziemią – i już to wystarczało, by uznać
go za prawowitego właściciela.
Sytuacja została odwrócona przez Coase’a i zwolenników jego teo-
rii – prawa własności stały się produktem ekonomicznej efektywności
(dość wąsko rozumianej). Określanie praw własności uzależniono tu od
rozważań dotyczących kosztu. Do czasu Coase’a kwestię legalności praw
własności teoretycy traktowali jako egzogeniczną wobec gospodarki.
Podobnie reguła automatycznej ochrony prawa własności przed naru-
szeniem zakłada uzasadnienie tego prawa poza systemem rynkowym
– z wyjątkiem sytuacji, kiedy źródłem nabycia własności była dobro-
wolna wymiana w obrębie rynku. Jednak nawet kwestia prawowitego
nabycia własności w drodze transakcji kupna rozważana była w ode-
rwaniu od jej efektów gospodarczych, jedynie na gruncie etycznym
– na przykład istotne było, czy strony transakcji nie oszukały się co do
właściwości przedmiotu wymiany. Block zwrócił też uwagę, że zasada
dwustronności efektu zewnętrznego zajęła miejsce wcześniejszej zasady
przyczynowo-skutkowej. Zgodnie z tą zasadą legalność praw własności
jest uzależniona od efektywności ekonomicznej. Rozkład praw własności
jest zależny od minimalizacji kosztów. Na gruncie teorii Coase’a (może
raczej: na gruncie dorozumianej etyki Coase’a) nie jest już prawdą, że
fabryka zatruwająca środowisko jest winna utraty zdrowia okolicznych
mieszkańców czy że jest sprawcą zniszczenia upraw (sama koncepcja
winy w systemie Coase’owskim nie występuje). Mieszkańcy są, a priori
rzecz ujmując, równie odpowiedzialni, gdyż nie ma podstaw, by wskazać
prawowitych posiadaczy uprawnień bez uprzedniej oceny kosztów ewen-
tualnych różnych rozstrzygnięć sądowych.
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 67

Jak pisał Coase:

Nie tylko ten, kto hoduje króliki, jest odpowiedzialny za [szkody


w okolicznych gospodarstwach], właściciel zjedzonych upraw jest
w równym stopniu odpowiedzialny. (Coase 1988, s. 37).

Ta analiza nigdy nie rozważała możliwości, że niektóre żądania mogą


być nieuprawnione i że nagle może dojść do istnej inwazji na prawa wła-
sności. W powyższym przykładzie nie ma znaczenia, czy utrata upraw
oznacza naruszenie słusznych praw własności farmerów. Naprawdę li-
czy się tu istnienie szkody. Analizę Coase’a można krytykować za brak
uwzględnienia etycznego wymiaru praw własności. Trafnie wyraził ten
pogląd Gary North, pisząc:

Jak możemy dyskutować o prawach różnych stron, jeśli porzucimy


rozważania o słuszności – kwestię co jest dobre, a co złe. Krótko
mówiąc, jak możemy rozważać „prawa” w oderwaniu od tego, co
jest prawe? (North 2002, s. 85).

Coase w swoim artykule The Problem of Social Cost, omawiając kwestię


wydawania wyroków przez sędziów, ani razu nie powołuje się na zasadę
sprawiedliwości. Czy rezygnacja z tej zasady jest na pewno ekonomicznie
efektywna? Coase wyraźnie stwierdza już na początku swego wywodu,
że podejście tradycyjne jest błędne, jednak nie wszyscy zwolennicy eko-
nomicznej analizy prawa podzielają jego stanowisko. Na przykład David
Friedman, postulujący zastosowanie ekonomicznych narzędzi do kwe-
stii prawnych, we wstępie do swej książki Law’s Order stwierdza, że wie-
le wniosków z tej analizy jest zgodnych z intuicyjnymi czy tradycyjnymi
rozwiązaniami (Friedman 2000, s. 5). Nie jest wykluczone, że Coase, od-
rzucając efektywność ekonomiczną tradycyjnych rozwiązań, postępuje
zbyt pochopnie. Gdyby ekonomiści dysponowali możliwościami pomiaru
wszystkich subiektywnych kosztów występujących w gospodarce, być może
potwierdziliby stanowisko Friedmana, iż efektywność, sprawiedliwość i in-
tuicja ostatecznie podpowiadają takie same rozwiązania. Niestety, takich
możliwości nie mamy, więc próba takich kalkulacji pozostaje mrzonką.
Zdaniem Waltera Blocka moralnie problematyczne jest podważanie
praw własności, będących kamieniem węgielnym zachodniej cywilizacji,
nawet przez powoływanie się na niewątpliwie szczytny cel maksymalizacji
społecznej użyteczności. Jest to tym bardziej kłopotliwe, gdy się uwzględ-
ni niejasność pojęcia owej użyteczności i trudność jej pomiaru, a także
odrzucenie zasady sprawiedliwości. Pomijając kłopoty z subiektywnym
postrzeganiem wartości dóbr przez różnych ludzi, w analizie należy wziąć
pod uwagę możliwe koszty innej natury – na przykład koszty moralne
wynikające z odrzucenia tradycyjnej zasady odpowiedzialności agresora
za naruszanie własności. Już to, że sądy nie udzielałyby automatycznie
68 JACEK KUBISZ

ochrony poszkodowanym, mogłoby w ludziach wywoływać dyskom-


fort i frustrację, będące specyficznym przykładem kosztu niepieniężnego
– kosztu psychicznego. Block przyznaje Coase’owi rację w odniesieniu do
ogólnej uwagi, że „delikt jest zjawiskiem dwustronnym (wzajemnym)”,
jednak inaczej rozumie to wyrażenie i nie podziela jego wniosków. Delikt
jest bowiem zdaniem Blocka dwustronny lub obustronnie uwarunkowa-
ny w tym sensie, że gdyby ofiara deliktu nie istniała, toby nie doszło do
naruszenia prawa. Ta obserwacja odnosi się również do każdego innego
przypadku złamania prawa, a nawet zbrodni. Jednak czy rozważając przy-
padek morderstwa, uznajemy, że wina jest dwustronna tylko dlatego, że
ofiara przez samo swoje istnienie wzbudziła w mordercy potrzebę jej za-
bicia? Teoremat Coase’a zatarł różnicę pomiędzy aktem agresji a aktem
obrony, pomiędzy napastnikiem a ofiarą. Koncepcje te są bardzo istotne
dla prawa własności. Jeśli każda krzywda jest obustronna, to pojęcia takie
jak atak, kradzież, pokój i tym podobne tracą dotychczasowe znaczenie.
Wobec teorii Coase’a można również wysunąć zarzut, że nie jest to
w ogóle teoria praw własności, lecz jedynie teoria ich redystrybucji. Teo-
remat Coase’a mówi bowiem wprost, iż w świecie bez kosztów transakcyj-
nych rozkład praw własności (reguł odpowiedzialności) nie ma znaczenia.
W tym miejscu należy zwrócić uwagę na dwie kwestie. Po pierwsze, to, że
dana alokacja uprawnień nie jest ważna, nie oznacza jeszcze, że może jej
w ogóle nie być. Zależy to bowiem od drugiej kwestii, a mianowicie od
tego, jak rozumiemy koszty transakcyjne. Jeśli bowiem włączymy do ich
definicji koszty ustanowienia reguły pierwotnej alokacji praw, to w istocie
nie ma problemu. Jednak konstrukcja takiego świata będzie następująca
– nie ma w nim kosztów znalezienia reguły pierwotnej alokacji tytułów
własności, która by wszystkim odpowiadała, więc nie ma w ogóle proble-
mu, który teoria praw własności musiałaby rozwiązać. Należy tutaj pod-
kreślić, że Coase żadnej przydatnej w tym celu reguły nie podaje, gdyż jego
odniesienie do rynku już zakłada istnienie jakiejś alokacji. Jeśli jednak
do definicji kosztów transakcyjnych nie włączymy kosztów ustanawiania
praw własności, a ograniczymy się jedynie do kosztów zawierania umów,
to przy pierwotnej alokacji pozostajemy w teorii Coase’a bez żadnej regu-
ły. Coase kreśli więc wizję zasad redystrybucji już istniejących praw wła-
sności bez nadawania im podstawy poza porządkiem rynkowym.

Istot na rola w y miar u spraw iedliwości


Coase zakłada, że spory wynikają z takich sytuacji, w których pra-
wa są niejasno zdefiniowane (np. czyste powietrze) lub nie są prawidłowo
rozpoznane (problem hałasu i jego dopuszczalnej intensywności). Z tym
ujęciem zgadza się wielu krytyków Coase’a, choć on sam rozszerza zakres
tego typu problemów na sytuacje, w których prawa własności są jasne.
Nawet jeśli przyjmiemy Coase’owskie postulaty wyłącznie do sytuacji
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 69

niejasnych lub nieprawidłowo rozpoznanych praw własności, to pozosta-


je pytanie, czy należy w rozstrzyganiu takiego konfliktu uciekać się do
kalkulacji efektywności, czy też do pewnych pozaekonomicznych zasad
i wartości. Warto się przyjrzeć, czy proponowane przez niego rozwiązanie
„zminimalizuje, czy zwiększy koszt społeczny”, że użyjemy jego własnej
terminologii.
Z podejścia Coase’a do systemu prawnego wynika również nowe za-
danie dla przedstawicieli wymiaru sprawiedliwości. Według niego sę-
dziowie powinni dążyć do takich rozstrzygnięć, które maksymalizują
dobrobyt płynący z działalności gospodarczej. Zgodnie z teorematem
Coase’a w świecie bez kosztów transakcyjnych nie ma znaczenia – w od-
niesieniu do samej kwestii alokacji zasobów – kto jaki zasób początkowo
posiada, gdyż jeśli nawet jest on w posiadaniu osoby A, która wartościuje
ów zasób niżej niż osoba B, to osoba B będzie w stanie odkupić ów zasób.
Z kolei w świecie wysokich kosztów transakcyjnych takiej łatwej wymien-
ności praw nie ma. Ze względu na efekty dochodowe sądowa alokacja ty-
tułów własności będzie trwała i nie będzie możliwości jej zmiany ex post.
Z tych rozważań krytycy Coase’a wyciągają wniosek, że prawnik powi-
nien ignorować tradycję, prawa własności, posiadanie oraz precyzję teorii
Locke’a pierwotnego zawłaszczenia, a w ich miejsce zastosować mniej lub
bardziej arbitralne oceny dotyczące maksymalizacji społecznego bogac-
twa. W świecie bez kosztów transakcyjnych przegrany, który wartościuje
dane uprawnienie wyżej niż zwycięzca, odkupiłby od niego prawo, jednak
w świecie rzeczywistym taki scenariusz nie musi wystąpić.
W opinii Waltera Blocka rada Coase’a dla sędziów jest arbitralna i pro-
wadzi do niechcianych konsekwencji. Ze względu na subiektywność kosz-
tów i wartościowania oraz niemożliwość międzyosobowych porównań
użyteczności nie jest bowiem możliwe określenie, kto jest najefektywniej-
szym użytkownikiem. Niezwykle trudne zadanie oceny, kto w ewentual-
nym świecie kosztów transakcyjnych od kogo ostatecznie odkupiłby pra-
wo, jest zdaniem Blocka analogiczne do problemów gospodarki centralnie
planowanej. Nawet w kwestii naśladowania systemu rynkowego czy stanu
równowagi zwolennicy ekonomicznej analizy prawa przypominają nie-
co teoretyków socjalizmu rynkowego4 . Zarówno socjaliści rynkowi, jak
i zwolennicy ekonomicznej analizy prawa odwołują się do koncepcji rów-
nowagi ogólnej jako źródła informacji o efektywnym wykorzystaniu za-
sobów. Kwestia wykorzystania tej konstrukcji myślowej została już wcze-
śniej poruszona. Jednak nawet jeśli pominiemy problemy, o których była
mowa, to analizując stanowisko uzależniające od niej prawowitość wła-
sności, napotykamy swoistą pętlę w rozumowaniu, do której dojdziemy,
analizując konsekwencje tego podejścia.

4
Na przykład Oskar Lange powoływał się na możliwość użycia równań ogólnej
równowagi w celu zastąpienia mechanizmu rynkowego.
70 JACEK KUBISZ

Jeżeli, na przykład, emitentem szkodliwych efektów zewnętrznych jest


producent jakiegoś dobra o wysokiej wartości rynkowej, a owe efekty do-
tykają jedynie biednych mieszkańców okolicy, nieprowadzących żadnej
działalności wartościowej rynkowo, to sąd powinien wziąć pod uwagę nie
tylko stratę samego emitenta (w razie jego odpowiedzialności), ale i wszyst-
kich konsumentów produkowanych przez niego dóbr (ich cena wzrosłaby
ze względu na koszty lub w ogóle by ich nie dostarczano). W przedsta-
wionej sytuacji spór powinien, zdaniem Coase’a, wygrać emitent kosztów
zewnętrznych, gdyż jego działalność jest bardziej dochodowa, a ewentu-
alna strata dla całego społeczeństwa, wynikająca z zakazu działalności,
bądź kary – większa. Na pierwszy rzut oka to ujęcie może się wydawać
spójne, z założeniem pominięcia subiektywnych kosztów psychicznych.
Sąd działałby w takim przypadku, imitując rozwiązania, które pojawiły-
by się w sytuacji rynku bez kosztów transakcyjnych. W „Coase’owskim
świecie” emitent dotarłby bez kosztów do wszystkich „pokrzywdzonych”
i zapłaciłby im za szkody, kupując w ten sposób „prawo do jej wyrządza-
nia”. Pomijając problem, czy bez tradycyjnej reguły odpowiedzialności
negocjacje w świecie bez kosztów transakcyjnych w ogóle miałyby miejsce
i czy dałyby efekt zakładany przez Coase’a, należy zwrócić uwagę na inną,
znacznie istotniejszą kwestię – przyznając prawo do emitowania kosztów
zewnętrznych, ze względu na ewentualne większe koszty społeczne (wy-
rażone w pieniądzu) sąd musiałby oprzeć się w swoich kalkulacjach na
rzeczywistych cenach określonych dóbr.
Ten fundamentalny problem jest szczególnie istotny w uwzględnieniu
kwestii efektów dochodowych. W swoim teoretycznym modelu Coase
przyjął jawne założenie o pominięciu w analizie efektów dochodowych,
jednak w odniesieniu do rzeczywistego świata są one ważną kwestią.
W przypadku dwóch producentów biorących udział w sporze o prawo do
narzucania kosztów zewnętrznych bądź o jego zakaz sąd powinien zade-
cydować na korzyść tego producenta, którego dochód zmniejszyłby się
bardziej. Należy jednak zauważyć, że nawet mniejsze zmiany w dochodzie
przegranego spowodowałyby dalsze zmiany w gospodarce. Ten utracony
przez niego dochód zostałby wydany przez zwycięzcę sporu być może na
inne dobra, niż te, które zakupiłby przegrany. Tak oto sąd, przyznając pra-
wo i kierując się efektywnością gospodarczą sam pośrednio decydowałby
o dochodowości, a więc efektywności różnych procesów produkcyjnych.
Ponieważ ceny rynkowe są wynikiem wartościowania, na które wpływ
mają pieniądze wydawane na określone dobra, zmiana w dystrybucji do-
chodu w wyniku decyzji sądu będzie miała wpływ na ceny dóbr na rynku
i opłacalność ich produkcji. A więc sądy będą mogły de facto kształtować
przyszłe wyniki sporów – wcześniejszymi decyzjami zmienią efektywność
alternatywnych rozwiązań, a także podstawy swoich przyszłych decyzji.
Sądy stałyby się więc dość istotnym „graczem” rynkowym, decydującym
o kształcie rynku. W obronie Coase’a można by w tym miejscu odpowie-
dzieć, że tradycyjne reguły odpowiedzialności za naruszenie własności też
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 71

wpływają na rynek i opłacalność wytwarzania określonych dóbr. Istotnie


tak jest. A teraz w naszych rozważaniach dochodzimy do najistotniejszej
kwestii. Sposób legitymizacji własności w ujęciu Coase’owskim wydaje się
tworzyć swoistą pętlę rozumowania. Jeśli o zakwestionowanym prawie
własności ma decydować dochodowość jego wykorzystania, to właściwie
oznacza to, że decyduje sposób wykorzystania innych praw własności
(warunkujący dochodowość). Skąd mamy czerpać pewność, że owe decy-
dujące prawa własności są „uprawnione”?
Jeśli Coase widzi problem sporu o odpowiedzialność jako konflikt
o rzadkie zasoby (w przypadku bydła niszczącego uprawy zdaniem
Coase’a problem ogranicza się do kwestii „mięso czy uprawy”; Coase
1988, s. 96) i odrzuca tradycyjny podział na odpowiedzialnego agresora
i uprawnionego poszkodowanego, to dlaczego ta nowa reguła nie miałaby
być konsekwentnie rozciągnięta na każdy przypadek konfliktu o rzadkie
zasoby – na przykład kradzież? Złodziej też może bardzo potrzebować
cudzego mienia – na przykład do produkcji jakiegoś wynalazku, na który
ma pomysł, a ktoś, komu by ukradł pieniądze, nie zrobiłby z nimi nic
pożytecznego. Jest konflikt, jest obustronna krzywda, jest wreszcie efek-
tywność gospodarcza – ów wynalazek byłby bardzo użyteczny i wysoko
wyceniany przez nabywców. W ten sposób udałoby się podważyć całość
układu praw własności. Te prawa, które w danym momencie nie byłyby
zakwestionowane, służyłyby razem z efektami dochodowymi wcześniej-
szych orzeczeń sądów za probierz przyszłych orzeczeń. W najlepszym ra-
zie sądy stałyby się organami współdecydującymi o kształcie gospodarki;
często odgrywałby tu rolę przypadek, decydujący o kolejności zakwestio-
nowania uprawnień. W czarnym scenariuszu sądy mogłyby zostać zalane
pozwami kwestionującymi efektywność wykorzystania praw własności,
co spowodowałoby chaos. Sądy przyznawałyby wtedy tytuły własności
arbitralnie, nie mogąc się oprzeć na żadnej kalkulacji, skoro wszystkie ty-
tuły własności zostały zakwestionowane i nie byłoby czego wymieniać na
rynku, a naśladować można by wyłącznie wyimaginowaną konstrukcję
ogólnej równowagi.

Podsumowanie
Pracę Coase’a poddano krytyce z wielu powodów. Krytykowana była
m.in. jako argumentacja na rzecz rozwiązań rynkowych. Celem moje-
go tekstu było pokazanie, że ten zarzut jest daleki od prawdy i że teoria
Coase’a może stanowić poważną podstawę do naruszania praw własności
i tradycyjnie rozumianej gospodarki rynkowej. Prawo własności jest w eko-
nomicznej analizie prawa rozumiane jako „wiązka uprawnień (a bundle of
rights), w skład której może wchodzić uprawnienie do naruszania cudzej
własności bądź roszczenie o zaprzestanie takiego naruszania. Konkretny
kształt takiej wiązki uprawnień jest uzasadniany przez jej efektywność
72 JACEK KUBISZ

gospodarczą. Własność mniej efektywnie wykorzystywana (w sensie do-


chodowości) będzie obarczona cudzym uprawnieniem do naruszania,
własność zaś bardziej dochodowa (efektywniejsza) będzie zawierała pra-
wo do naruszania. Oprócz kwestii pominięcia w rozważaniach o efektyw-
ności problemu subiektywnej użyteczności pozostaje kwestia praktyczne-
go uzależniania legitymizowania jednych praw własności przez inne. Na
gruncie teorii można tej konstrukcji zarzucić niebezpieczeństwo regresu
w nieskończoność podczas próby legitymizowania konkretnej własności.
W praktyce gospodarczej i sądowniczej może to oznaczać, że rozkład praw
własności i struktura gospodarki będą uzależnione od kolejności składania
pozwów przez podmioty, które widzą szansę wykazania wyższej docho-
dowości własnych pomysłów, wymagających naruszenia cudzej własności
w fazie ich realizacji. Sądy stałyby się wtedy państwowymi urzędami do
spraw redystrybucji zasobów zgodnie z zasadą efektywności.
Teoria Ronalda Coase’a a własność i odpowiedzialność za szkodę 73

Bibliografia

Block Walter, 1977, Demsetz on private property rights. „Journal of Libertarian Stu-
dies”, vol. 1, no. 2.

Block Walter, 1995, Ethics, Efficiency, Coasian Property Rights, and Psychic Income:
A Reply to Demsetz, „The Review of Austrian Economics”, vol. 8, no 2.

Böhm-Bawerk Eugen von, 1894–95, The Ultimate Standard of Value, „Annals of the
American Academy of Political and Social Science”, vol. 2. http://mises.org/etexts/
ultimate.pdf

Buchanan James M., 1969, Cost and Choice, Chicago, Markham Publishing Co.

Coase Ronald, 1959, The Federal Communications Commission, „Journal of Law and
Economics”, vol. II, październik 1959.

Coase Ronald, 1988, The Firm, the Market and the Law, Chicago IL, University of
Chicago Press.

Friedman David, 2000, Law’s Order, Princeton, Princeton University Press.

Karsz Wiesław, 1987, O twierdzeniu Coase’a i związanej z nim problematyce, „Studia


Prawno-Ekonomiczne”, t. 39.

Lewin Peter, 1982, Pollution Externalities: Social Cost and Strict Liability, „Cato Jour-
nal”, vol. 2, no. 1. http://www.cato.org/pubs/journal/cj2n1/cj2n1-6.pdf

Medema Steven G., Zerbe Richard, 2000, The Coase Theorem, w: Encyclopedia of Law
and Economics, Edward Elgar. http://encyclo.fi ndlaw.com/0730book.pdf

North Gary, 1992, The Coase Theorem, A Study in Economic Epistemology, Tyler TX,
Institute for Christian Economics.

North Gary, 2002, Undermining Property Rights: Coase and Becker, „Journal of Liber-
tarian Studies”, vol. 16, no. 4.

Posner Richard A., 1983, The Economics of Justice, Cambridge, Massachusetts, Har-
vard University Press.

Posner Richard A., 1998 [1973], Economic Analysis of Law, New York, Aspen Law &
Business.
74 JACEK KUBISZ

Rizzo Mario J., 1979, Uncertainty, Subjectivity and the Economic Analysis of Law.
Time, Uncertainty and Disequilibrium, Lexington, Lexington Books.

Robbins Lionel, 1945, An Essay on Nature and Significance of Economic Science, Lon-
don: Macmillan and co.

Rothbard Murray N., 1979, The Myth of Efficiency. Time, Uncertainty and Disequilib-
rium, Lexington, Lexington Books.

Rothbard Murray N., 1994, Toward a Reconstruction of Utility and Welfare Econo-
mics. On Freedom and Free Enterprise, New York, van Nostrand Comp. Inc.

Stelmach Jerzy, Brożek Bartosz, Załuski Wojciech, 2007, Dziesięć Wykładów o Ekono-
mii Prawa, Warszawa, Wolters Kluwer.

Šima Josef, 2007, Introduction to the Logic of Social Action, nieopublikowana praca
dostępna na stronie Liberalnego Instytutu w Pradze. http://www.libinst.cz/osob-
ni/sima/law_and_economics/BOOK_print.doc
Łukasz Gajewski jest doktorantem Instytutu Nauk Ekonomicznych
Uniwersytetu Wrocławskiego. W 2008 roku obronił pracę magister-
ską Zarządzanie wiedzą i zarządzanie innowacjami jako współczesne na-
rzędzia walki konkurencyjnej przedsiębiorstw napisaną pod kierunkiem
prof. Kwaśnickiego.
Łu kasz Gajewsk i

P R Z E C I W KO P L A N I S T YC Z N E M U P O J M OWA N I U
I N N OWAC Y J N O Ś C I

Wprowad z en ie

Planistyczne podejście do innowacji, o którym traktuje ten tekst, uwzględ-


nia założenie, że innowacyjność da się ująć w sztywne i obiektywne kate-
gorie, jakie rzekomo mają ułatwiać państwową politykę „proinnowacyjną”.
Autor stara się pokazać, że innowacyjności nie da się planować, wobec czego
nie da się jej również łatwo odgórnie pobudzić. Stawia to pod znakiem za-
pytania preferowaną dziś państwową politykę dotowania „innowacyjności”
oraz „badań i rozwoju” z publicznych pieniędzy, strategię promowania dużej
liczby patentów, a ponadto prawa własności intelektualnej w ogóle.
Innowacje, choć ogromnie ważne dla rozwoju gospodarczego, nie były
raczej przedmiotem głębszych studiów w teorii ekonomii. Pierwsze prace
Josepha Schumpetera o ekonomicznych aspektach innowacji nie wywarły
szczególnego wpływu na późniejszych badaczy1. W głównym nurcie eko-
nomii dopiero analizy Paula Romera wskazały na „endogeniczny” cha-
rakter innowacji. Postęp technologiczny został uznany za jeden z trzech
czynników wzrostu (do tego doszły jeszcze kapitał i praca)2. Dzięki tym
badaniom uznano, że innowacyjna działalność przedsiębiorców ma prze-
myślany charakter, co już wcześniej podkreślał w swojej książce Peter
Drucker, mówiąc, że „innowacja jest raczej pojęciem ekonomicznym lub
społecznym niż technicznym” i wskazywał na siedem źródeł okazji do in-
nowacji (Drucker 1985, s. 42). Powrót do badań nad innowacjami nastąpił
w 1992 roku wraz z opublikowaniem raportu OECD Technology and the

1
Schumpeter innowacje określał rozmaicie, np. w Teorii rozwoju gospodarcze-
go używał określenia „nowe kombinacje”, później „przedsięwzięcia”, a w Business
Cycles – „innowacje”.
2
Technologia pozwala lepiej wykorzystać zasoby i nakłady w produkcji, stosuje
się ją równolegle obok tradycyjnych czynników.
78 ŁUKASZ GAJEWSKI

Economy. The Key Relationships, a następnie dokumentów Oslo Manual


z lat 1996 i 2005, gdzie definiuje się innowację jako

wdrożenie nowego lub znacząco udoskonalonego produktu (wyro-


bu lub usługi) lub procesu, nowej metody marketingowej lub nowej
metody organizacyjnej w praktyce gospodarczej, organizacji miej-
sca pracy lub stosunkach z otoczeniem (OECD 2005, s. 48).

Przedsiębiorstwo innowacyjne prowadzi prace badawczo-rozwojowe,


przeznaczywszy na ich realizację znaczne nakłady finansowe i zasoby we-
wnętrzne. Wprowadza systematycznie nowe rozwiązania, które zastępu-
ją dotychczasowe i zyskują znaczny udział w wolumenie produkcji. Stąd
rodzi się pojęcie aktywności innowacyjnej, która odnosi się do dynamiki
działań podmiotów gospodarczych. Pojęcie to można przenieść z poziomu
przedsiębiorstwa na bardziej złożone struktury: alianse, konsorcja, klastry
czy sieci. Aktywnością innowacyjną może się również odznaczać region,
kraj lub grupa krajów stowarzyszonych w bloku gospodarczym. Przykła-
dem może tu być Unia Europejska3 lub wspomniana już OECD. Tradycyj-
ne podejście do innowacji oparte jest na założeniu, że każda aktywność
posiada swój miernik, który poniekąd pokazuje, czy dane działanie było
prawidłowe, czy też nie. Aktywność innowacyjną w tym ujęciu cechują
dwa elementy, nazwane sumarycznymi indeksami innowacyjności. Jeden
z nich odnosi się do Unii Europejskiej (sumaryczny indeks innowacyjności
– SII), a drugi ma zasięg globalny (globalny sumaryczny indeks innowa-
cyjności – GSII).
Chociaż innowacje są w istocie niezwykle ważne w teorii ekonomii,
to można dostrzec swoisty rodzaj przesytu i powierzchowne nią zainte-
resowanie, szczególnie w czasach nadużywania terminów (np. ostatnio
zrobiło karierę określenie: „gospodarka oparta na wiedzy”). Nie bacząc
na to, zajmiemy się rozmaitymi wskaźnikami innowacyjności. Celem tego
rozdziału jest ich omówienie oraz krytyka dokonana przez brytyjską in-
stytucję NESTA. Ponadto spróbujemy udowodnić, że inną błędną metodą
oceny innowacyjności gospodarek jest liczba zgłoszonych patentów oraz
sumaryczne ujęcie wydatków na badania i rozwój.

A na li za t radyc y jnych wska ź n i ków


innowac y jności gospodark i
Pomiar innowacyjności za pomocą sumarycznego indeksu innowa-
cyjności gospodarki kraju nie może być dokonany żadną bezpośrednią

3
Przejawem tego ma być tzw. Strategia Lizbońska, czyli plan przyjęty na 10 lat,
którego celem jest uczynienie z Unii Europejskiej najbardziej konkurencyjnego regio-
nu gospodarczego na świecie (rozwijającego się szybciej niż USA i Japonia).
Przeciwko planistycznemu pojmowaniu innowacyjności 79

metodą, lecz tylko z użyciem parametrów i zmiennych, które są ze sobą


logicznie powiązane. Te parametry i zmienne można zakwalifikować do
jednej z trzech kategorii:
– stymulujących innowacyjność,
– rezultatów prac badawczo-rozwojowych,
– wynikowych.
Zależności między nimi wyrażone zostały za pomocą klasycznego mo-
delu procesu, na którym oparta jest porównawcza analiza aktywności in-
nowacyjnej krajów Unii Europejskiej. Są trzy grupy parametrów wejścio-
wych stymulujących proces innowacyjny (EIS 2007, s. 44–48):
– potencjał innowacyjności charakteryzowany przez 5 wskaźników,
które mierzą warunki strukturalne potencjału innowacyjnego: absol-
wenci studiów inżynierskich i przyrodniczych na tysiąc osób w wieku
20–29 lat, populacja z wykształceniem wyższym na 100 osób w wie-
ku 25–64 lat, stopień nasycenia szerokopasmowym internetem (licz-
ba linii na 100 mieszkańców), udział w szkoleniu ustawicznym na
100 osób w wieku 25–64 lat, szkolenie młodzieży (procent populacji
w wieku 20–24 lat, która ukończyła co najmniej liceum);
– tworzenie wiedzy określane przez 5 wskaźników, które mierzą sto-
pień inwestowania w sferę badań i rozwoju; są one niezbędne do
stworzenia „gospodarki opartej na wiedzy”: wydatki publiczne na
badania i rozwój (jako procent PKB), wydatki przemysłu na badania
i rozwój (jako procent PKB), udział przedsiębiorstw średniowyso-
kich i wysokich technologii w badaniach i rozwoju (jako procent
wydatków na badania i rozwój), udział przedsiębiorstw otrzymują-
cych fundusze publiczne na innowacje;
– innowacyjność i przedsiębiorczość wyrażona przez 6 wskaźników,
które są miarami wysiłku skierowanego na innowacje na poziomie
firm. Ta grupa wskaźników faworyzuje małe i średnie przedsiębior-
stwa4: udział MSP wdrażających innowacje (procent wszystkich
MSP), innowacyjne MSP współpracujące z innymi (procent wszyst-
kich MSP), wydatki na innowacje (procent przychodów), kapitał
ryzyka (udział procentowy venture capital w PKB), wydatki na tech-
nologie informacyjne i telekomunikacyjne (jako procent PKB), MSP
wdrażające innowacje organizacyjne (procent wszystkich MSP).
Przekształcenie tych trzech grup parametrów następuje w procesie in-
nowacyjnym, a uzyskane wyniki mierzy się, stosując dwie grupy parame-
trów wyjściowych (wynikowych) (EIS 2007, s. 48–50):
– uzyskane zastosowanie (5 parametrów wydajnościowych w zakresie
biznesu i pracy): zatrudnienie w usługach high-tech (procent ogółu
zatrudnionych), eksport produktów high-tech jako udział w całym
eksporcie, sprzedaż produktów nowych na rynku (procent całko-
witej sprzedaży), sprzedaż produktów nowych dla firmy (procent

4
Dalej nazywane MSP, czyli małe i średnie przedsiębiorstwa.
80 ŁUKASZ GAJEWSKI

całkowitej sprzedaży), zatrudnienie w sektorach średnich i wyso-


kich technologii (procent ogółu zatrudnionych);
– własność intelektualna (5 parametrów związanych z rozwojem know-
-how): Patenty europejskie (EPO) na mln mieszkańców, paten-
ty amerykańskie (USPTO) na mln mieszkańców, patenty krajowe
i EPO i USPTO (triada) na mln mieszkańców, marki handlowe na
mln mieszkańców, wzory użytkowe na mln mieszkańców.
Wskaźnik ten jest dosyć skomplikowany, a liczba wskaźników cząstko-
wych jest bardzo duża. Pojawia się więc potrzeba utworzenia wskaźnika
sumarycznego, który pozwoliłby prościej przedstawić wielowymiarowy
problem oraz jego interpretację. Poza tym wskaźnik sumaryczny pomaga
zmniejszyć liczbę danych i zwiększa moc informacyjną samego wskaźni-
ka, co upraszcza komunikację ze społeczeństwem. Obliczenie sumarycz-
nego wskaźnika odbywa się w trzech stadiach (OECD 2005, s. 35–39):
– wybór wskaźników cząstkowych;
– wybór metody normalizacji;
– znalezienie procedury (metody agregacji).
Na podstawie podobnej metodologii obliczany jest globalny sumarycz-
ny indeks innowacyjności (GSII), lecz tylko dla 12 wskaźników cząstko-
wych. Większość z nich jest identyczna jak w SII, ale występują też pewne
różnice. Składa się on z pięciu złożonych składników: potencjał, tworzenie
wiedzy, innowacje i przedsiębiorczość (dyfuzja), zastosowania, własność
intelektualna (Hollanders 2006, s. 5–7). Wskaźniki wejścia to:
– potencjał innowacyjności: absolwenci studiów inżynierskich i przy-
rodniczych na 1000 osób w wieku 20–29 lat, populacja z wykształ-
ceniem wyższym na 100 osób w wieku 25–64 lat, pracownicy ba-
dawczy na milion mieszkańców;
– tworzenie wiedzy: wydatki publiczne na badanie i rozwój (jako pro-
cent PKB), wydatki przemysłu na badania i rozwój (jako procent
PKB), liczba artykułów naukowych na milion mieszkańców;
– innowacje i przedsiębiorczość (dyfuzja): wydatki na ICT.
Wskaźniki wyjścia to:
− zastosowanie: eksport wyrobów high-tech, udział aktywności śre-
dniowysokiej i wysokiej techniki w wartości dodanej przemysłu
wytwórczego;
− własność intelektualna: patenty EPO, patenty USPTO na milion
mieszkańców, patenty krajowe i EPO i USPTO (triada) na milion
mieszkańców.
Wskaźniki te mają swoje wady i ograniczenia. Zastrzeżenia dotyczą
przede wszystkim sposobu pomiaru, a nie samej konstrukcji wskaźnika.
Dlatego też w 2006 roku zastrzeżenia co do konstrukcji omówionych tu
wskaźników zaproponowała National Endowment for Science, Technolo-
gy and the Arts (Narodowa Fundacja na rzecz Nauki, Techniki i Sztuki)
ustanowiona w 1998 roku przez brytyjski Parlament z pieniędzy Loterii
Narodowej (National Lottery Act).
Przeciwko planistycznemu pojmowaniu innowacyjności 81

K r y t yka t radyc y jnych wska ź n i ków pom ia r u


i n n o w a c y j n o ś c i g o s p o d a r k i w e d ł u g N E S T A5

Zgodnie z poglądem NESTA tradycyjne wskaźniki pomiaru innowa-


cyjności gospodarki uwzględniają tylko naukowe i technologiczne inno-
wacje. Jej zdaniem tradycyjny pogląd na innowacyjność jako aktywność
technologiczną (zgodnie z modelem neoklasycznym) jest przestarzały.
NESTA uważa, że era liniowych modeli procesów innowacyjnych, kie-
dy centralnym punktem były prace badawczo-rozwojowe (mowa tu-
taj szczególnie o pracach naukowych i technologicznych), a głównymi
podmiotami uniwersytety, nie ma racji bytu w XXI wieku. Nawet jeśli
taki model dobrze opisywał rzeczywistość w latach pięćdziesiątych, to
obecnie stracił swoje uniwersalne zastosowanie. To, co warte jest pod-
kreślenia, a czego brakuje tradycyjnym wskaźnikom pomiaru, to nie-
uwzględnianie innowacji w zakresie usług i mediów. W sektorze usług
innowacje dotyczące produktów oraz procesów są połączone i powstają
poza działem badawczo-rozwojowym (NESTA 2006, s. 16–17). Dlatego
też NESTA podkreśla, że w sektorach charakteryzujących się dużą inten-
sywnością badawczo-rozwojową większy nacisk kładzie się na rozwój
niż badania, a wiedza przepływa z działu badawczego do rozwojowego.
Z tego powodu traktowanie badań naukowych jako źródła innowacji
jest błędne. NESTA stwierdza nawet, że fi rmy pytane o źródła wiedzy
wykorzystywanej do wprowadzania innowacji odpowiadają, że badania
uniwersytetów mają dla nich niewielkie znaczenie (czego przeciwieństwo
podkreśla prowadzona polityka; NESTA 2006, s. 17). NESTA uważa, że
tradycyjne wskaźniki uwzględniają jedynie innowacje w postaci nowych
produktów bądź procesów, które powstają wskutek postępu techniczne-
go. Takie innowacje mają ogromne znaczenie w zaawansowanej techno-
logicznie produkcji, ale ich znaczenie w innych dziedzinach gospodarki
jest niewielkie.
Kolejnym problemem poruszanym przez NESTA jest uzasadnienie
ekonomiczne wydatków na badania i rozwój. NESTA zastanawia się, czy
wydatki te przyczyniły się do wzrostu dobrobytu. Podkreśla, że innowa-
cyjność jako taka musi brać pod uwagę rezultaty, a nie nakłady (NESTA
2006, s. 20). Organizacja krytykuje również miernik, jakim jest liczba
zgłoszonych patentów (zarówno krajowych, jak i europejskich EPO czy
amerykańskich USPTO), bo jeśli uzna się, że patenty jako takie rzeczywi-
ście stanowią zachętę do wprowadzania innowacji, to trzeba uwzględnić
to, że nie wszędzie powstrzymują one naśladowców, a większość nie znaj-
duje zainteresowania na rynku (NESTA 2006, s. 21).
Doprowadziło to ekspertów NESTA do konkluzji, że wysokie wydatki
na badania i rozwój mogą w rzeczywistości przesłaniać wielką nieefek-
tywność rozwoju innowacji, a niewielka ilość patentów może oznaczać
sukces innowacyjny, jeśli te patenty mają dużą wartość i znajdą swoje za-
stosowanie na rynku (NESTA 2006, s. 21).

5
Na podstawie wersji roboczej Zieliński 2014.
82 ŁUKASZ GAJEWSKI

Podobnego zdania są przedstawiciele fi rmy konsultingowej Booz Allen


Hamilton, którzy w swoim raporcie z badań Money isn’t everything („Pie-
niądze to nie wszystko”) przeprowadzonych na próbie 1000 organizacji
z całego świata, wydających najwięcej na badania i rozwój, twierdzą, że
nie istnieje korelacja pomiędzy wydatkami na te cele a innowacjami za-
kończonymi sukcesem ( Jaruzelski 2005, s. 4–6). Oznacza to zatem,
wbrew popularnemu myśleniu, obecnemu szczególnie w państwowych
instytucjach, że wydawanie dużych sum pieniędzy na enigmatycznie
pojmowane „badania i rozwój” wcale nie przekłada się na rzeczywiste
korzyści i innowacje.

Rysunek 1. Brak korelacji pomiędzy wydatkami na badania i rozwój


a innowacjami zakończonymi sukcesem
Źródło: Jaruzelski, Dehoff, Bordia, Money isn’t everything,
Booz Allen Hamilton 2005, str. 4

Sama organizacja, jaką jest NESTA, podkreśla, że innowacyjność nie


jest synonimem prac badawczych. Doskonale pasuje tutaj cytat z wypo-
wiedzi byłego premiera Finlandii Esko Aho, który powiedział, że „działal-
ność badawczo-rozwojowa to przemiana pieniędzy w wiedzę, a innowacja
to przemiana wiedzy w pieniądze”. Warto więc pamiętać, że współcze-
śnie innowacje powstają dzięki współpracy pomiędzy organizacjami a ich
partnerami (dostawcami, kontrahentami, klientami czy konsumentami).
Dlatego też NESTA podkreśla, że innowacyjność jest procesem złożonym
i interakcyjnym (NESTA 2007, s. 15). Innowacyjność według NESTA to
nie tylko przełomowe produkty będące skutkiem badań naukowych lub
technicznych, lecz także nowe modele biznesowe (NESTA 2008a, s. 4).
Każda branża potrzebuje innych innowacji. Cel i forma zależą od sektora,
w którym działa dana organizacja. Dlatego też NESTA proponuje odrzu-
cić dawną definicję innowacji rozumianych jako „skuteczne wykorzysty-
wanie nowych pomysłów”, ponieważ nadal traktuje prace badawcze jako
główne źródło innowacji. Gdy się zrezygnuje z liniowego modelu innowa-
cji, trzeba zwrócić uwagę na ich rezultaty, a następnie prześledzić, jakie
Przeciwko planistycznemu pojmowaniu innowacyjności 83

działania się na nie złożyły. Innowacyjne jest takie działanie, które pro-
wadzi do zaspokojenia potrzeb w nowy sposób (NESTA 2008a, s. 25–26).
Tradycyjne wskaźniki nie uwzględniają wielu działań mających do tego
doprowadzić, dlatego NESTA definiuje je jako ukryte i wyróżnia cztery
ich rodzaje:
– innowacje, które są takie same bądź podobne do innowacji uwzględ-
nianych przez tradycyjne wskaźniki, ale mimo to nie brane pod
uwagę przy pomiarze;
– innowacje, których podstawą nie jest postęp naukowy czy technicz-
ny (np. te dotyczące organizacji przedsiębiorstwa);
– innowacje, które są efektem połączenia już istniejącej technologii
i procesów;
– innowacje lokalne o niewielkim zasięgu, których z tego powodu nie
obejmuje pomiar tradycyjnych wskaźników.
Dodatkowo NESTA podkreśla, że ukryte innowacje nie są zjawiskiem
wyłącznie charakteryzującym sektory o niskim zaangażowaniu technolo-
gicznym. To zjawisko można zaobserwować w tych branżach, w których
postęp zależy od odkryć naukowych i technicznych (NESTA 2007, s. 13).
Innowacje pierwszego rodzaju NESTA ilustruje przykładem z sekto-
ra wydobycia ropy naftowej. Kiedy złoża łatwiejsze w eksploatacji wy-
czerpią się, wydobycie ropy z tych trudniejszych wymaga innowacji.
Przykładem takich ukrytych innowacji pierwszego rodzaju w przemyśle
wydobywczym może być jądrowy rezonans magnetyczny czy czterowy-
miarowe sondy sejsmiczne, które nie tylko zmniejszają koszty wydoby-
cia, ale również zwiększają samą produkcję. Nie są one jednak wlicza-
ne do czynnika, jakim są badania i rozwój, ponieważ według raportu
OECD Frascati Manual są to badania mające zastosowanie bezpośrednie
(NESTA 2007, s. 29). Raport NESTA pokazuje również, że innowacje
pierwszego rodzaju mogą występować w sektorach zaawansowanych
technologicznie. Podaje tutaj przykład fi rm farmaceutycznych, które
zbadawszy wprowadzone wcześniej leki, są w stanie je ulepszyć. Taka
sama sytuacja dotyczy przemysłu motoryzacyjnego, gdzie adaptacja już
istniejącej technologii nie jest co prawda czymś nowym w branży, ale
stanowi nowatorskie rozwiązanie dla fi rmy. W dodatku NESTA sugeruje,
że choć wiele małych czy średnich przedsiębiorstw nie prowadzi formal-
nych programów badawczo-rozwojowych, to wcale nie znaczy, że nie
zajmują się one badaniami i pracami rozwojowymi jako takimi (NESTA
2008a, s. 20–21).
Innowacje drugiego rodzaju można odnaleźć przede wszystkim
w branży budowlanej. Przykładem podanym przez NESTA jest budowa
terminalu nr 5 lotniska Heathrow. Zarządzający BAA zawarł porozumie-
nie ze swoimi głównymi dostawcami, czego następstwem było powołanie
zespołu ekspertów. Pozwoliło to rozpoznać problemy, zanim zaczęła się
budowa (NESTA 2007, s. 36–37). NESTA podkreśla, że innowacje drugie-
go rodzaju są niezwykle ważne dla sektora usług, zwłaszcza pośredników
84 ŁUKASZ GAJEWSKI

finansowych oraz firm zajmujących się usługami komputerowymi i bizne-


sowymi, ponieważ łączą się one z procesem modularyzacji (czyli podziału
na poszczególne komponenty), które składają się na daną usługę, w celu
oceny efektywności produkcji i jakości komponentów.
Innowacje trzeciego rodzaju występują przede wszystkim w instytucjach
takich jak banki, gdzie dzięki zastosowaniu technologii informacyjno-
-komunikacyjnej został ulepszony Back Office. Na przykład bankowość
elektroniczna pomogła zredukować koszty transakcji bankowych. Pomi-
mo ogromnych wydatków na te cele nie są one wliczane jako wydatki
na badania i rozwój, gdyż nie prowadzą do postępu naukowego (NESTA
2008b, s. 72).
Innowacje czwartego rodzaju są wprowadzane na przykład przez na-
uczycieli w szkołach. Takie innowacje według NESTA biorą się przede
wszystkim ze specyficznych potrzeb klientów. Często skala zastosowania
takiej innowacji jest na tyle nieduża, że nie podlega ochronie patentowej
(NESTA 2007, s. 20). Innym przykładem tego typu innowacji jest na przy-
kład system produkcyjny Toyoty, stanowiący świetną ilustrację tego, jak
tworzone są mikroinnowacje. Przykład Toyoty jest o tyle dobry, że wła-
śnie to przedsiębiorstwo wprowadza setki, a nawet tysiące mikroinnowa-
cji. Ich większość stanowią małe, ale skuteczne rozwiązania rozmaitych
problemów, dzięki czemu poprawia się efektywność oraz jakość produkcji
(NESTA 2008a, s. 23).
Z tego względu NESTA zdecydowała się na opracowanie indeksu, któ-
ry ma dokładniej odzwierciedlać innowacyjność w różnych sektorach,
a przez to byłby lepszy w porównywaniu, stawiając nie na długowieczność
wskaźnika, lecz na jego precyzję (NESTA 2008c, s. 3). Pomiar innowacyj-
ności w poszczególnych sektorach NESTA pokazuje na przykładach: a)
sektora bankowego, gdzie uwzględnia się inwestycje w technologie infor-
macyjno-komunikacyjne i innowacje organizacyjne (NESTA 2007, s. 45),
b) edukacji, gdzie o innowacyjności stanowią również czynniki prowadzą-
ce do rozwoju nowych praktyk (NESTA 2007, s. 55).
Wśród trudności, jakie napotyka się w opracowywaniu nowego wskaź-
nika, NESTA wymienia (NESTA 2008c, s. 3):
– trudność zdefiniowania, czym jest innowacja;
– rozmaitość sposobu dokonywania innowacji w różnych branżach;
– fakt, że innowacyjne projekty często kończą się porażką, ale mimo
to mogą mieć istotny wpływ na rozwój gospodarczy – wpływ, który
trudno zmierzyć;
– ogromną rolę, jaką odgrywa dyfuzja innowacji;
– globalny charakter jakim odznaczają się innowacje.
Niezależnie od wymienionych tu przeszkód należy podkreślić, że NESTA
wręcz narzeka na brak danych potrzebnych do pomiaru. Żeby zapropono-
wany przez NESTA indeks innowacyjności mógł być wiarygodny, każda
firma musiałaby dostarczać urzędowi statystycznemu szczegółowych in-
formacji na temat swojego funkcjonowania. To z kolei prowadziłoby do
Przeciwko planistycznemu pojmowaniu innowacyjności 85

zwiększenia państwowej kontroli nad gospodarką (NESTA 2008b, s. 17).


Ponadto innowacyjność jako kreatywny proces jest nieprzewidywalna, co
powoduje, że „trudno jest wyliczyć nakłady i wyniki w procesie produkcji
w przypadku działań charakteryzujących się dużym wykorzystaniem wie-
dzy” (NESTA 2008b, s. 17).
Raporty NESTA pokazują, że w XXI wieku nie występuje już klasyczne
rozumienie innowacji jako równoważnych z pracami badawczo-rozwojo-
wymi. Innowacyjność okazuje się pojęciem znacznie szerszym i wykra-
cza poza modele neoklasyczne, co prezentują przywołane tu przykłady.
NESTA pokazuje nie tylko ukryte innowacje, lecz także trudności (gra-
nice) związane z ujęciem ich w jakiś teoretyczny model. Niemniej jednak
instytucja ta zdecydowała się na próbę uchwycenia tego, co niewidoczne
w formalny model i niestety działa zgodnie z hasłem, że „trzeba coś zro-
bić, trzeba zrobić cokolwiek, bez względu na to, czy to działa czy nie”.
Wnioski z raportu NESTA przypominają konkluzje z prac F.A. Hayeka
dotyczące tego, że wielkości ekonomiczne borykają się z poważnym pro-
blemem złożoności. Dane gospodarcze są heterogeniczne i zindywidu-
alizowane, toteż nie poddają się łatwo biurokratycznej obróbce gospo-
darczego planowania. W dodatku planowanie oparte na informacjach
statystycznych nie może uwzględniać parametrów czasu i miejsca, dlatego
planista będzie musiał pozostawić komuś innemu zależne od nich decyzje
(Kwaśnicki 1996, s. 77; Hayek 2001, s. 89–105).

K r y t yka prawa własności intelekt ualnej


wedł ug Stephana Kinselli
Omówimy teraz krytykę tradycyjnych wskaźników innowacyjności
dokonaną przez krytyków tzw. własności intelektualnej. Przedstawione
zostaną tutaj przede wszystkim te argumenty, które doprowadzą nas do
zakwestionowania tezy, że ilość zgłoszonych patentów ma odwzorowy-
wać innowacyjność danego kraju. Okazuje się bowiem, że prawo własno-
ści intelektualnej ma jeszcze inny, mniej podkreślany w literaturze aspekt,
a mianowicie wpływ na innowacyjność sztucznie stworzonego monopo-
lu, który nie tylko zakłóca funkcjonowanie instytucji, jaką jest rynek, lecz
także wpływa na obniżenie innowacyjności danego regionu.
Kinsella w swoim eseju Against Intellectual Property (przeciw własności
intelektualnej) zauważa, że nie każda innowacja lub odkrycie mogą zostać
zarejestrowane w urzędzie patentowym, na przykład decyzją Sadu Najwyż-
szego Stanów Zjednoczonych wyróżnia się trzy kategorie przedmiotów, któ-
re nie mogą zostać poddane prawu patentowemu: „prawa natury, zjawiska
naturalne oraz abstrakcyjne idee” (Kinsella 2001, s. 5). Stwierdza on, że pa-
tent to prawo własności wynalazków, a ściślej środków lub metod służących
„użytecznej” funkcji” (Kinsella 2001, s. 4). Patent daje prawo do powstrzy-
mania osób trzecich przed wprowadzeniem opatentowanego wynalazku,
86 ŁUKASZ GAJEWSKI

nawet jeżeli chcą one skorzystać ze swojej własności. Tak oto kontrolowanie
niematerialnych dóbr przez właściciela patentu daje mu w pewnym stopniu
władzę nad własnością innych jednostek (Kinsella 2001, s. 8). Na przykład
autor X może zabronić drugiej osobie Y zapisania jej własnym atramen-
tem określonych słów na jej własnych, pustych kartkach. Patent i prawa
autorskie nieodmiennie przenoszą częściową własność fizycznych obiektów
z ich naturalnych właścicieli na osoby wynalazców, innowatorów i arty-
stów. W ten sposób podmioty działające na rynku nie tylko nie mogą sko-
rzystać z pewnego rodzaju wynalazku, ale nie mogą również wprowadzić
innowacji (pamiętajmy, że innowacja to taki wynalazek, który zaspokaja
nową potrzebę na rynku. Bez konkretnego zastosowania wynalazek nie jest
innowacją, lecz bezużytecznym przedmiotem).
Opinie co do istnienia prawa własności intelektualnej są podzielone.
Z jednej strony uważa się, że każdy ma prawo czerpać korzyści ze swojej
własności (rolnik może czerpać korzyści z plonów własnej ziemi, którą sam
uprawia, podobnie twórca ma prawo do czerpania korzyści z koncepcji, któ-
rą wymyślił, i ze sztuki, którą stworzył), co wskazuje na racje zwolenników
prawa własności intelektualnej, z drugiej strony zaś spotyka się poglądy nie
do końca zgodne z tym prawem lub wręcz je negujące. Kinsella wśród po-
glądów zgodnych z koncepcją praw własności wymienia utylitaryzm oraz
ujęcie oparte na utylitaryzmie i prawach naturalnych. Utylitaryści zakłada-
ją bowiem, że ludzie powinni wybierać takie prawo, które maksymalizuje
ich „dobrobyt” i „użyteczność”. Zgodnie z tym poszanowanie i przestrze-
ganie prawa autorskiego i rozwiązań patentowych bierze się stąd, że bardziej
artystyczna lub oryginalna innowacja prowadzi do zwiększenia dobrobytu.
Dobra publiczne i efekt gapowicza obniżają je poniżej optymalnego pozio-
mu, to znaczy takiego, który osiągnęłaby ludzkość, gdyby funkcjonowały
odpowiednie rozwiązania w zakresie własności intelektualnej. Zatem opty-
malizujemy, a przynajmniej podnosimy poziom dobrobytu przez wprowa-
dzanie praw autorskich i patentów, które zachęcają autorów i wynalazców
do tworzenia i unowocześniania swych dzieł (Kinsella 2001, s. 10). Celem
prawa własności intelektualnej według utylitarystów jest zachęcenie do in-
nowacyjności i kreatywności. Kinsella przedstawia także poglądy grupy, do
której sam się zalicza, a mianowicie przeciwników własności intelektualnej.
Grupa ta krytykuje własność intelektualną w ujęciu utylitarnym i zwraca
uwagę na fundamentalne problemy:
– Czy dobrobyt i użyteczność mogą wzrosnąć dzięki przyjęciu kon-
kretnych rozwiązań prawnych?
– Czy prawa autorskie i patenty są niezbędne, by zachęcić do twór-
czości i innowacji (Czy korzyści płynące ze wzrostu innowacyjności
przewyższają ogromne koszty systemu prawnej ochrony własności
intelektualnej)?
Kinsella wskazuje na nierozwiązywalne problemy trywialnego utyli-
taryzmu, który chciałby maksymalizować odgórnie zdefiniowany czyn-
nik – „dobrobyt”. Taki utylitaryzm jest niespójny, ponieważ wymaga
Przeciwko planistycznemu pojmowaniu innowacyjności 87

porównania użyteczności, na przykład odejmowania „kosztów” od „ko-


rzyści” własności intelektualnej w celu ustalenia, czy dzięki wprowadze-
niu norm prawnych osiągnięto korzyść netto. Tymczasem zauważa słusz-
nie, że wartość nie powinna być utożsamiana z ceną rynkową. Jeśli dobro
posiada cenę rynkową, nie może ona posłużyć za miernik jego wartości,
więc taka kalkulacja utylitarna jest niemożliwa (Kinsella 2001, s. 13).
Co do drugiej grupy problemów (w tym również w odniesieniu do wąt-
pliwej teorii o tym, że patenty miałyby odzwierciedlać innowacyjność
gospodarek) Kinsella zauważa, że badania ekonometryczne nie wskazują
jednoznacznie na to, że prawa patentowe wpływają na większą liczbę in-
nowacji. Patent co prawda stymuluje do dalszych odkryć w celu uzyskania
intelektualnego monopolu, lecz jednocześnie blokuje możliwość szerszego
wykorzystania innowacji, a przez to zniechęca do innowacyjnej działalno-
ści (ponadto uniemożliwia oszczędzanie kapitału, który jest konsumowa-
ny przez opłaty patentowe). Sam brak prawa własności intelektualnej też
motywowałby przedsiębiorstwa do wprowadzania nowinek technicznych
podobnie jak gwarancja 20-letniego monopolu (Cole 2001, s. 79–105).
Kinsella zauważa, że rozróżnienie tego, co jest chronione, i tego co nie
jest chronione, siłą rzeczy ma charakter arbitralny. Podaje przykład prawd
matematycznych, filozoficznych czy naukowych i stwierdza, że nie mogą
być chronione przez obecne prawo, bo gdyby trzeba było koniecznie chro-
nić każdą nową zasadę, prawdę itp. jako wyłączną własność jej twórcy,
zahamowałoby to bieg życia w jego wielu przejawach. Z tego też powodu
opatentować można wyłącznie tzw. praktyczne zastosowanie określonej
koncepcji, a nie samą abstrakcyjną bądź teoretyczną myśl.
Tymczasem rozróżnienie między odkryciem a wynalazkiem nie jest
jednoznaczne. Nikt nie tworzy materii – można nią manipulować oraz
mocować się z nią, przestrzegając praw fizyki. W tym sensie nikt tak na-
prawdę nie tworzy czegokolwiek. Można jedynie formować z materii nowe
wzory czy konfiguracje. Kinsella podaje przykład mechanika, który wyna-
lazł pułapkę na myszy, przekształcił już istniejące części, by stworzyć nie-
wykorzystane dotychczas możliwości. Inni, którzy dowiedzieli się o tym
przekształceniu, mogą wykonać ulepszoną pułapkę. Pułapka na myszy
działa jednak tylko w zgodzie z prawami fizyki. Wynalazca nie stworzył
ani materii, z której została ona wykonana, ani wykorzystanych faktów
czy praw, by mogła zadziałać (Kinsella 2001, s. 16). Kinsella zauważa,
że podobna sytuacja dotyczy odkrycia Einsteina, E = mc2. Bez wysiłku
Einsteina inni wynalazcy byliby nieświadomi istnienia niektórych praw
przyczynowo-skutkowych lub sposobów, w jaki można wykorzystywać
różne substancje. Zarówno wynalazca, jak i naukowiec teoretyk angażują
się w proces efektywnego, twórczego myślenia, aby stworzyć nowe i uży-
teczne idee. W rezultacie jeden z nich zostaje nagrodzony, inny zaś nie.
Arbitralnie i niesprawiedliwie nagradza się więc wynalazki praktycz-
ne oraz twórczość służącą czystej rozrywce, a naukowcy, na przykład
matematycy czy filozofowie nie dostają żadnych nagród (Kinsella 2001,
88 ŁUKASZ GAJEWSKI

s. 16–17). Właśnie dlatego Kinsella uważa, że stosowanie tych arbitralnych


kryteriów (łącznie z zasadą, że ochronę ustanowiono na 20 lat, bo 19 to
za krótko, a 21 za długo) jest nie tylko niejednoznaczne, ale też nieuargu-
mentowane rzeczową analizą empiryczną. Kinsella zauważa również, że
gdy rozciągniemy terminy ważności patentów oraz praw autorskich w nie-
skończoność, zrzucimy na kolejne pokolenia ogrom rosnących bez ustan-
ku ograniczeń w korzystaniu z ich własności, które sprawią, że w końcu
nikt nie będzie mógł już nic produkować. Nie można byłoby użyć żarówki
bez pozwolenia spadkobierców Thomasa Edisona ani wybudować domu,
nie mając zezwolenia potomków pierwszego człowieka, który zdecydował
się opuścić jaskinię i wybudował sobie chatę.
Zwolennicy patentów odpowiedzieliby naturalnie, że należy je ograni-
czyć do rozsądnego czasu. Nikt jednak jeszcze nie zbadał tego, czym jest
tu „rozsądny czas”, i można wątpić, czy w ogóle jest to możliwe. Taka ana-
liza musiałaby pokazywać rozmaite scenariusze innowacyjności w róż-
nych porządkach prawnych z uwzględnieniem różnych długości trwania
patentu. Wtedy mogłoby się okazać, czy rozsądny czas dla innowacyjnej
gospodarki to 20 lat czy może zero.
Patent może być w analizie ekonomicznej traktowany jako swoista renta
monopolowa. Oznacza bowiem wyłączność na wykorzystanie w jakiś spo-
sób danego czynnika produkcji. Ta wyłączność sprawia, że inni nie mogą
korzystać z podobnego pomysłu, co ogranicza podaż danego wykorzysta-
nia czynnika produkcji, a także podaż produkowanego dobra. Zwiększa się
więc jego cena, a w ślad za tym zyski. Owe zyski są większe niż średni zwrot
z zainwestowanego kapitału, ponieważ zawierają w sobie rentę monopolo-
wą. Strumień tych rent na przestrzeni kilkunastu lat wykorzystania patentu
może być zdyskontowany o stopę procentową tak, aby odpowiedział dzisiej-
szej cenie. Ta cena to właśnie cena patentu – czyli monopolu na wykorzysty-
wanie danego pomysłu (Rothbard 2009, s. 103–109).

K r y t yka prawa własności intelekt ualnej


w e d ł u g B o l d r i n a i L e v i n e ’a
Boldrin i Levine w swojej pracy zastanawiają się, czy rzeczywiście in-
telektualny monopol, jakim niewątpliwie są prawa własności intelektual-
nej, wpływa na poprawę innowacyjności. W pierwszym rozdziale swojej
książki przytaczają następujący pogląd Roberta Barro:

byłoby [dobrze] gdyby istniejące odkrycia były swobodnie do-


stępne dla wszystkich producentów, ale praktyka ta nie zawiera
[...] zachęt do dalszych odkryć. Kompromis powstaje pomiędzy
ograniczeniami w korzystaniu z istniejących pomysłów a korzy-
ściami wynikającymi z działalności wynalazczej ( Boldrin, Levine
2008, s. 6).
Przeciwko planistycznemu pojmowaniu innowacyjności 89

Boldrin i Levine zgadzają się z tym, że na przykład wiele osób swo-


bodnie ściągających muzykę z internetu nie zastanawia się, jak muzyk ma
zarabiać na swojej twórczości, kiedy ta jest rozdawana za darmo. Odnoto-
wują trwający spór pomiędzy zwolennikami własności intelektualnej, dla
których zyski monopolistyczne są „prawie” wystarczające, a wrogami tej
formy własności, dla których zyski monopolistyczne są za duże. Konstatu-
ją też: „wszyscy chcą mieć monopol; nikt nie chce konkurować ze swoimi
klientami czy naśladowcami”, jednak nie uważają, że patenty i prawa au-
torskie są najlepszą i jedyną drogą do zapewnienia wynagrodzenia twór-
com (Boldrin, Levine 2008, s. 7).
Autorzy tłumaczą, że obecnie uważa się, iż koszty stałe działalności
innowacyjnej są tak duże, że w przypadku doskonałej konkurencji nie-
które rzeczy po prostu nie zostałyby wymyślone. Marża z działalności na
doskonale konkurencyjnym rynku jest za mała i może okazać się, że nikt
nie będzie chciał tworzyć, ponieważ to, na co poniósł duże nakłady pie-
niężne, zacznie być wykorzystywane przez konkurencję. Dlatego teore-
tycznie może się okazać, że sytuacja monopolu będzie korzystniejsza dla
przedsiębiorstwa niż konkurencja. Zastanawiają się jednak, czy intelektu-
alny monopol zwiększa innowacyjność bardziej niż konkurencja (Boldrin,
Levine 2008, s. 208). Z teoretycznego punktu widzenia odpowiedź jest
niejasna, o czym wspomniano wcześniej.
Boldrin i Levine zauważają, że w dłuższym okresie intelektualny mo-
nopol zapewnia wzrost dochodów tym, którzy wprowadzają innowacje,
lecz stają się one znacznie droższe. Ponadto każda innowacja opiera się
na już istniejących ulepszeniach. Chociaż każdy twórca innowacji może
zarabiać na niej więcej dzięki swojemu monopolowi intelektualnemu,
musi zapłacić innym monopolistom za możliwość użycia ich wynalaz-
ku. W skrajnych przypadkach, gdy każda innowacja wymaga stosowania
wielu wcześniejszych pomysłów, obecność prawa własności intelektualnej
może stworzyć pewien krzyżowy hamulec rozwoju. Wskutek tzw. efektu
zniechęcenia monopolizacja powoduje, że konkurowanie jest mniej sku-
teczne. Monopolista korzysta z wysokich cen, aby innowacje były zbyt
kosztowne dla konkurencji (Boldrin, Levine 2008, s. 209). Przypomina
to trochę sytuację, w której wszyscy przedsiębiorcy optują za większą in-
flacją, aby dzięki temu sprzedawać po wyższych cenach. Nie zauważa się
jednak przy tym, że taka inflacja prowadzi też do wzrostu cen zakupu
i uderza w przedsiębiorców z drugiej strony. W podobny sposób działa
mechanizm inflacji prawa patentowego.
Wielu ekonomistów, w tym Douglass North, twierdzi, że przyspie-
szenie powstawania innowacji, które kojarzy się nam z rewolucją prze-
mysłową, spowodowane było rozwojem ochrony praw własności in-
telektualnej wynalazków. Uważają oni, że znacznie lepszy jest system
monopolowy, umożliwiający czerpanie zysków z własnej pracy, niż
taki, jaki panował w XVII wieku w Europie, a więc pozwalający ary-
stokracji zawłaszczać efekty cudzej pracy. To jednak zdaniem Boldrina
90 ŁUKASZ GAJEWSKI

i Levine’a nie stanowi dowodu na to, że coraz większa powszechność


monopolistycznych praw jest korzystna społecznie. Odejście cztery-
sta lat temu od średniowiecznych rządów absolutystycznych i ustano-
wienie patentów stanowiło krok ku stworzeniu praw własności, które
sprzyjały przedsiębiorczości i wolnemu rynkowi. Podobnie w obecnych
czasach zniesienie patentów i zakłócających praw monopolistycznych
mogłoby wzmóc działalność przedsiębiorczą i konkurencyjną ( Boldrin,
Levine 2008, s. 210).

Podsumowanie
Rozdział ten pokazuje problemy, które wiążą się z zagadnieniem inno-
wacyjności. Tradycyjne wskaźniki pomiaru innowacyjności nie są pozba-
wione istotnych wad i ułomności, ponieważ są oparte na „planistycznym”
błędzie. Tradycyjna taksonomia definiuje aktywność innowacyjną jako
zjawisko pewne i przewidywalne, które można zmierzyć za pomocą zsu-
mowania kilku czynników, wśród których wydatki na badania i rozwój
oraz ilość patentów stanowią największą część. Nie wszystko jednak da
się przedstawić w postaci ilościowej. Pewne zmienne, nazwijmy je tutaj
fundamentami innowacyjności, mają charakter jakościowy, a więc są nie-
uchwytne i nie daje się ich modelować. Ważną sprawą jest też analiza
samego ładu prawnego, na przykład swobody działalności gospodarczej.
Swoboda działalności gospodarczej oraz brak barier w zakresie przedsię-
biorczości mogą doprowadzić do tego, co Peter Drucker nazywał systema-
tyczną przedsiębiorczością. Jego zdaniem każdy przedsiębiorca poszukuje
zmiany, reaguje na nią i wykorzystuje jako okazję (Drucker 1985, s. 37).
Konkurujący przedsiębiorcy, którzy posiadają pełną swobodę działania,
mogą szukać i odnajdywać te okazje, posługując się swoją wiedzą i do-
świadczeniem. Gospodarka będzie sprzyjać innowacyjności, jeżeli jej ład
instytucjonalny będzie umożliwiał takie odnajdywanie i poszukiwanie,
lecz nie stanie się tak, jeśli publiczne pieniądze będą wydawane na enig-
matycznie i biurokratycznie zdefiniowane „badania i rozwój” albo finan-
sowanie patentów.
W rozdziale tym pokazano również, że nie cała ludzka aktywność jest
widoczna albo zaliczana w tradycyjnej taksonomii jako innowacyjna,
co widać na przykładzie czterech rodzajów innowacji ukrytych według
NESTA czy krytyki prawa własności intelektualnej. Warto pamiętać, że
nie wszystko to, co stanowi aktywność innowacyjną społeczeństwa, jest
objęte oficjalną ochroną patentową6. Pewne innowacje, które powstają,
stają się ukryte, ale nie chronione. W dodatku nie wszystko to, co

6
To tak jak w przypadku zatrudnienia – nie wszyscy, który pracują, stanowią
osoby pracujące. Są to tylko oficjalne dane. Należy jeszcze pamiętać, że istnieje szara
strefa.
Przeciwko planistycznemu pojmowaniu innowacyjności 91

chronione, musi znaleźć zastosowanie i zainteresować rynek. Może zatem


warto – zamiast arbitralnie stawiać sobie cele, które uznaje się za wzrost
innowacyjności – zastanowić się nad pewnym niearbitralnym podejściem
i skupić uwagę na sposobach usunięcia przeszkód i barier w innowacyjno-
ści. Należałoby jednakowoż zrezygnować z „planistycznej mentalności”,
aby odejść od planistycznego pojmowania innowacyjności.
92 ŁUKASZ GAJEWSKI

Bibliografia

Boldrin Michele, Levine David, 2008, Against Intellectual Monopoly, „Economic and
Game Theory”, styczeń 2008.

Cole Julio, 2001, Patents and Copyrights: Do the Benefits Exceed the Costs?, „Journal
of Libertarian Studies”, vol. 15, no. 4.

Drucker Peter Ferdinand, 1985, Innovation and Entrepreneurship: Practice and Prin-
ciples, New York, Harper & Row.

European Innovation Scoreboard 2007. Comparative analysis of innovation perfor-


mance, styczeń 2008, PRO INNO Europe.

Hayek Friedrich A. von, 1998, Indywidualizm i porządek ekonomiczny. Wykorzystanie


wiedzy w społeczeństwie, Kraków, Wydawnictwo Znak.

Hollanders Hugo, Arundel Anthony, 2006, Global Innovation Scoreboard GIS Report,
European Trend Chart on Innovation, European Commision.

Jaruzelski Barry, Dehoff Kevin, Bordia Rakesh, 2005, Money isn’t everything: The Booz
Allen Hamilton Global Innovation 1000, Booz Allen Hamilton, McLeasn, VA.

Kinsella Stephan, 2001, Against Intellectual Property, „Journal of Libertarian Stu-


dies”, vol. 15, no. 2.

Kwaśnicki Witold, 1996, Knowledge Innovation and Economy. An evolutionary explo-


ration, Edward Elgar Publishing LTD, Wrocław

National Endowment for Science, Technology and the Arts, 2006, The Innovation
Gap: Why policy needs to reflect the reality of innovation in the UK, London.

National Endowment for Science, Technology and the Arts, 2007, Hidden Innovation:
How innovation happens in six ‘low innovation’ sectors, London.

National Endowment for Science, Technology and the Arts, 2008a, Total Innovation:
Why harnessing the hidden innovation in high-technology sectors is crucial to retain-
ing the UK’s innovation edge, London.

National Endowment for Science, Technology and the Arts, 2008b, Taking Services
Seriously: How policy can stimulate the ‘hidden innovation’ in the UK’s services
economy, London.
Przeciwko planistycznemu pojmowaniu innowacyjności 93

National Endowment for Science, Technology and the Arts, 2008c, Measuring Inno-
vation, Policy Briefi ng, London.

OECD, 2005, Oslo Manual, wyd. 3.

Rothbard Murray N., 2009, Interwencjonizm, czyli władza i rynek, Fijorr Publishing
Company, Warszawa.

Zieliński Marcin, 2014, O ukrytych innowacjach, możliwościach ich pomiaru i polityce


proinnowacyjnej, „Ekonomia – Wroclaw Economic Review”, vol. 20, no. 1.
Stanisław Kwiatkowski jest studentem uzupełniających studiów magister-
skich z ekonomii na Uniwersytecie Wrocławskim. W latach 2009–2010
był stypendystą amerykańskiego Instytutu Misesa w Alabamie. Obecnie
pod kierunkiem prof. Kwaśnickiego przygotowuje pracę magisterską na
temat zjawiska pokusy nadużycia.

Autor chciałby podziękować doktorowi Radosławowi Antonowowi za


wsparcie naukowe i komentarze w czasie pracy nad niniejszym tekstem.
S t a n i s ł a w Kw i a t k o w s k i

TE O R I A D Ó B R P U B L I C Z N YC H
I RY N KOW E M E C H A N I Z M Y IC H PRODU KCJ I

Ws t ę p

Teorię dóbr publicznych często wykorzystuje się do uzasadniania funkcji


państwa, a także konieczności opodatkowania. W obu sytuacjach stosuje
się argument zawodności rynku. Teoria ta jest elementem wielowiekowej
debaty na temat efektywności ekonomicznej. Choć samo sformułowanie
market failure jest stosowane dopiero od lat pięćdziesiątych XX wieku,
teoretycy zwracali uwagę na hipotetyczne funkcje państwa naprawiające-
go niedostatki rynku już w czasach Adama Smitha, uznanego za ojca na-
uki ekonomii, a nawet wcześniej, za czasów Richarda Cantillona, twórcy
pierwszego traktatu ekonomicznego. Wspominali oni o sytuacjach, kiedy
wypadkową „prywatnych interesów” nie będzie „publiczne dobro”. Pomi-
mo deklaracji, że prawdziwa nauka musi być wolna od wartościowania,
zalecali – a za nimi całe pokolenia ekonomistów aż do dziś – konkretne
rozwiązania dla rządów, które miały urzeczywistnić wizję świata odpo-
wiadającą ich preferencjom co do instytucjonalnych rozwiązań, których
rynek nie mógł według nich zrealizować.
Nawet szczególnie pryncypialni liberałowie klasyczni są zazwyczaj
skłonni twierdzić, że teoria dóbr publicznych stanowi podporę modelu
państwa jako stróża nocnego, zapewniającego takie usługi jak bezpieczeń-
stwo zewnętrzne i wewnętrzne. Argumentacja na rzecz państwowej pro-
dukcji dóbr publicznych obecna jest we wszystkich podręcznikach mikro-
ekonomii, ekonomii sektora publicznego, polityki gospodarczej, a czasem
również przytacza się ją przy okazji analizy finansów publicznych. Tezę,
że dobra publiczne powinny być dostarczane przez państwo, zdaje się po-
twierdzać historia: każde państwo – nawet państwo minimum – dostar-
czało te właśnie dobra, które ekonomiści klasyfikują jako publiczne.
Czy jednak pomijanie milczeniem w podręcznikach alternatywnych
teorii oznacza, że również z perspektywy czytelnika tekstów stricte nauko-
wych konsensus w teorii dóbr publicznych jest tak oczywisty? W pracy
96 STANISŁAW KWIATKOWSKI

tej spróbujemy przedstawić selektywny przegląd debaty, która – wbrew


pozorom – odbyła się i trwa nadal. Celem pracy będzie więc, w szcze-
gólności, próba obalenia tezy o istnieniu zgody pomiędzy ekonomistami
w tym temacie.
W części pierwszej zajmiemy się poglądami Paula Samuelsona. Nieco
rozcieńczona wersja jego dociekań teoretycznych jest bowiem podstawą
mainstreamowego, podręcznikowego ujęcia problemu dóbr publicznych.
Przyjrzymy się najpierw wkładowi noblisty w teorię ekonomii i jego roz-
ważaniom metodologicznym. Następnie postaramy się przeanalizować,
czym dla Samuelsona jest efektywność i określić granice poznania eko-
nomicznego. W końcu przeanalizujemy Samuelsonowski model produkcji
i dystrybucji dóbr publicznych, wyrażony w najsłynniejszych jego artyku-
łach na ten temat: The Pure Theory of Public Expenditure oraz Diagram-
matic Exposition of a Theory of Public Expenditure, a także zaprezentujemy
wnioski z przeprowadzonej analizy.
W części drugiej zajmiemy się wkładem ekonomistów reprezentujących
austriacką szkołę ekonomii w debatę na temat dóbr publicznych. Doko-
namy krótkiego opisu tych elementów, z których szkoła austriacka zasły-
nęła w teorii ekonomii, a których znaczenie dla teorii dóbr publicznych
jest najistotniejsze. Omówimy metodologię szkoły austriackiej. Następnie
zajmiemy się przeglądem teoretycznych zarzutów, które stawiali Austria-
cy Samuelsonowskiej teorii dóbr publicznyh na gruncie jej założeń oraz
własnego, odmiennego podejścia. Przedstawimy stosunek szkoły austriac-
kiej do teorematu Coase’a i jego inne wykorzystanie. Na koniec przedsta-
wimy zarys pozytywnego planu dostarczania dóbr publicznych w sposób
rynkowy.
Mamy zamiar pokazać, że zgodność co do teorii dóbr publicznych jest
raczej kwestią jej wielokrotnego powtarzania w podręcznikach, niż siły
argumentów Samuelsona. Nie jest naszą intencją autora wykazywanie, że
państwo nie powinno dostarczać dóbr publicznych. Chcemy jedynie za-
demonstrować istnienie poważnych argumentów świadczących o tym, że
wszechobecna w głównym nurcie racjonalizacja tej funkcji państwa przez
Samuelsona jest niewystarczająca, nadinterpretowana i nadużywana.

Paul Samuelson i teoria dóbr publicznych

Sta now isko metodolog iczne Sa muelsona


Stanowisko Samuelsona wobec epistemologii ekonomicznej było jasno
wyrażone zarówno w Foundations of Economic Analysis, jak i w artykule
Economic Theory and Mathematics – An Appraisal. W tym drugim tekście
Samuelson pisał: „każda nauka jest w gruncie rzeczy oparta na indukcji
– na obserwowaniu empirycznych faktów (...) dedukcja zaś ma skromną
lingwistyczną funkcję tłumaczenia pewnych empirycznych hipotez na ich
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 97

»logiczne odpowiedniki«” (Samuelson 1952, s. 57, tłum. SK). Jest on więc


zwolennikiem klasycznego modelu indukcyjno-redukcyjnego. W modelu
tym, w sposób regresywny, tj. uogólniając znany implicans, poznaje się im-
plicandum: szerszą zazwyczaj (zawsze niewęższą; Wong 1973, s. 313–314)
zasadę przyporządkowującą zdarzenie do szerszej klasy zdarzeń, którą
można ponownie wykorzystywać jako ustaloną relację – prawo ekonomii
(Zorde 2004, s. 80–84). Ujawnia się tu istota metodologii Samuelsona,
który de facto utrzymuje, że ekonomia nie ma mocy wyjaśniającej, lecz
jedynie deskryptywną. Wszystko, co potocznie nazywamy wyjaśnieniem,
może być tylko szerszym opisem niezmieniającym jakościowo naszej wie-
dzy na temat zjawiska, jedynie ujmującym obserwacje w szersze ramy. Od-
rzuca on więc zarówno koncepcję Miltona Friedmana mówiącą wyłącznie
o użyteczności teorii, abstrahując od logicznej spójności pomiędzy prze-
słankami a wnioskami (Samuelson 1963, s. 231–236), jak i wcześniejszy
paradygmat aprioryczny1.
Paul Samuelson, pionier matematyzacji ekonomii, jest odpowie-
dzialny za formalistyczną rewolucję w ekonomii, w czym inspirował
się pracami takich ekonomistów jak Cournot, Jevons, Walras, Pareto,
Edgeworth i Fisher (Landreth, Colander 2005, s. 451). Jego koncepcje
teoretyczne cechują się konstrukcją wzorowaną na matematyce sto-
sowanej przez fi zyków – zestaw uprzednio ustalonych przesłanek jest
analizowany w taki sposób, aby znaleźć związek między nimi a ob-
serwowanymi następstwami – konsekwencjami praw ekonomii. Jeżeli
uda się odnależć związki pomiędzy przesłankami a podmiotem badań,
otrzymamy deskryptywny, szeroki opis występowania danych zjawisk
w określonych warunkach. W przypadku Samuelsona będą to stany
równowagi rynkowej opisywane za pomocą zestawu „warunków brze-
gowych” – warunków koniecznych i dostatecznych dla jej utrzymania
(Glapiński 2005, s. 121).

Efekty wność i dobrobyt

Kluczowe pojęcia, którymi się posługuje Samuelson jako teoretyk, to


koncepcja efektywności oraz zawodności rynku na gruncie nowej ekono-
mii dobrobytu.

1
Por. słynne zdanie: „W związku z przesadzonymi konstatacjami, które były cza-
sem wygłaszane przez ekonomistów w kwestii siły dedukcji i rozumowania apriorycz-
nego – przez ekonomistów klasycznych, Carla Mengera, Lionela Robbinsa z 1932 r.,
uczniów Franka Knighta, Ludwiga von Misesa – drżę o przyszłość mojej nauki” (Sa-
muelson 1964, tłum. SK). Warto pamiętać, że An Essay on the Nature and Significan-
ce of Economic Science Robbinsa z 1932 r. stanowił przez lata metodologiczne credo
większości ekonomistów. Wspomniany tu Frank Knight nie jest ekonomistą austriac-
kim jak pozostali wymienieni autorzy, jego stanowisko metodologiczne jest jednak
bliższe austriackiemu niż Samuelsonowskiemu czy Friedmanowskiemu (Knight 1999,
s. 372–394).
98 STANISŁAW KWIATKOWSKI

Naturalnym dążeniem ekonomii jest próba ustalenia, jakie są warunki


i determinanty dobrobytu społecznego. Aby jednak tego dokonać, nale-
ży pamiętać, że obecnie zdecydowana większość szkół ekonomicznych
– w tym neoklasyczny główny nurt – przyjmuje explicite, iż wartość, jaką
reprezentują dobra, usługi i stany funkcjonowania w społeczeństwie, jest
czysto subiektywna, a więc nie można analizować zmian obiektywnie
istniejących „utyli”, hipotetycznych jednostek użyteczności. Co więcej,
uznaje się, że użyteczność, którą czerpią jednostki, można opisywać je-
dynie ordynalnie, a nie kardynalnie. Wiąże się to z historycznymi pró-
bami tworzenia rachunku użyteczności przez utylitarystów spod znaku
Jeremy’ego Benthama. Zakładał on bowiem, że dobrobyt społeczny jest
sumą dobrobytów indywidualnych, co implikuje możliwość sumowania,
a więc możliwość ustalenia jednostek użyteczności, co z kolei wymaga
pewnej formy kardynalizacji wartości. Jednak obecnie uznaje się, że uży-
teczności można jedynie ustalać ordynalnie, co oznacza porządkowanie
ich względem siebie bez możliwości orzekania, ile razy użyteczność jedne-
go dobra lub usługi przewyższa inne.
Metodą badania wzrostu dobrobytu, która zakładała ten specyficz-
ny agnostycyzm poznawczy, stało się optimum Pareta, konstrukcja
ustanowiona przez Vilfreda Pareto w jego Manuel d’economie politique
z 1906 roku. Mówi tam, że możemy z pewnością mówić o wzroście do-
brobytu społecznego, kiedy nie spada indywidualny dobrobyt żadnego
członka zbiorowości, a dobrobyt chociaż jednego z nich rośnie. Unika
się w ten sposób, niebezpiecznych z punktu widzenia metodologicznego,
interpersonalnych porównań użyteczności. Optimum Pareta nie zostało
docenione przez współczesnych mu ekonomistów. Dopiero w 1932 roku,
w dziele zatytułowanym An Essay on the Nature and Significance of Econo-
mic Science, charakteryzującym ówczesną metodologię i próbującym pod-
sumować Methodenstreit (Huerta de Soto 1998, s. 75–113) – spór o ekono-
mię pomiędzy pruską szkołą historyczną a teoretyczną szkołą austriacką
– i oddzielić ekonomię naukową od opisowej, przedstawiciel Austriaków
Lionel Robbins starał się usunąć na dobre z ekonomii interpersonalne po-
równania użyteczności jako nienaukowe. Pozostawił on tylko optymali-
zację dobrobytu w myśl optimum Pareto (Blaug 2000, s. 604–608). Dzieło
to odciśnie piętno na całej ekonomii, a wnioski dotyczące analizy zmian
poziomu dobrobytu zdominują ją na lata.
Samuelson, pomimo wyrażanego wprost krytycznego stosunku do An
Essay on the Nature and Significance of Economic Science Robbinsa2 , przyj-
muje pewne podstawowe założenia wynikające z analizy Robbinsa i Pa-
reta. Stosuje on przy tym klasyczną analizę wykorzystującą pojęcie map
obojętności, w myśl której w sytuacji wyboru pomiędzy dwiema możli-
wościami określanymi w sposób ilościowy (na przykład pomiędzy grusz-
kami i jabłkami), można zawsze ustalić zestaw kombinacji ilościowych,

2
Por. przyp. 1.
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 99

które będą dla podmiotu względem siebie obojętne (3 sztuki dobra A


i 2 dobra B mogą być równie użyteczne jak 5 jednostek dobra A i 1 dobra B).
Wynika z tego, że nie mając dodatkowego bodźca do podjęcia decyzji,
podmiot będzie czerpał taką samą użyteczność ze wszystkich kombina-
cji leżących na danej krzywej obojętności. Konsument będzie natomiast
zyskiwał przy przechodzeniu na wyższe krzywe obojętności, na ilustracji
U1, U2, U3 (kiedy w koszyku będą 3 dobra A i 3 dobra B lub 6 dobra A
i 1 dobro B.).

Wykres 1. Krzywe obojętności, zgodnie z prawem


malejącej użyteczności krańcowej, są wypukłe3

Wpływ Pareta i wieloletniej dominacji metodologicznej austriackiego


eseju Robbinsa widać w następującym fragmencie:

Jeżeli chcemy wypowiadać normatywne sądy dotyczące względ-


nie pożądanej – z punktu widzenia etyki – konfiguracji, w której
obrębie pewne jednostki będą na wyższym poziomie obojętno-
ści, inne zaś na niższym, potrzebujemy zestawu uporządkowa-
nych, międzyludzkich norm lub funkcji dobrobytu społecznego,

3
Należy pamiętać, że jest to przykładowa mapa użyteczności. Pokazane na niej
dobra, pomiędzy którymi dokonuje się wyboru, nie są wobec siebie ani doskonałymi
substytutami, ani nie są doskonale komplementarne. Gdyby tak było, wtedy kształt
krzywych obojętności odbiegałby od pokazanych na rysunku, choć nadal byłyby one
wypukłe do dołu lub – w przypadku doskonałych substytutów – byłyby odcinkami
(dla uproszczenia rysunku zakłada się doskonałą podzielność dóbr).
100 STANISŁAW KWIATKOWSKI

reprezentującej spójny zestaw etycznych preferencji ze wszystkich


możliwych stanów systemu. Nie jest „naukowym” celem ekono-
misty „dedukowanie” postaci takiej funkcji; może ona mieć tak
wiele postaci, jak wiele jest możliwych różnych poglądów na to,
co pożądane z punktu widzenia etyki; na potrzeby analizy je-
dynym ograniczeniem tej funkcji jest to, że zawsze jej wartość
będzie rosła lub malała, kiedy użyteczności dowolnej jednostki
będą rosły lub malały, podczas gdy wszyscy pozostali utrzyma-
ją się na swoim poziomie obojętności (Samuelson 1954, s. 387,
tłum. SK).

Model dóbr publicznych

Samuelson zakłada w modelu istnienie dwóch typów dóbr, które defi-


niuje następująco: dobra konsumpcji prywatnej (ang. private consumption
goods), które można rozdzielić pomiędzy jednostki, oraz dobra konsumpcji
zbiorowej (ang. collective consumption goods). Ten drugi typ dóbr cechuje
się tym, że raz wyprodukowane dobro może być konsumowane przez ko-
lejne jednostki przy zerowym koszcie krańcowym takiej konsumpcji (Sa-
muelson 1955, s. 350–356). Klasyczne przykłady podawane przez Samuel-
sona i przewijające się później w literaturze to latarnie morskie i obrona
narodowa. Raz wybudowana i działająca latarnia morska służy wszystkim
przepływającym statkom, niezależnie od ich liczby. Dzieje się tak, ponie-
waż światło musi być wyemitowane ze względów bezpieczeństwa, a ko-
rzyść odnosi każdy przepływający statek. Podobnie jest z obroną narodo-
wą: utrzymywana na danym terytorium chroni wszystkich mieszkańców,
niezależnie od ich liczby. Jeżeli cecha ta wystąpi w połączeniu z niemożli-
wością wyłączenia kolejnych konsumentów z konsumpcji, otrzymamy tak
zwane czyste dobro publiczne.
Należy jednak pamiętać, że w pierwotnym ujęciu, zawartym w przeło-
mowym The Pure Theory of Public Expenditures, Samuelson zwraca uwa-
gę, że jego analiza dotyczy również przypadku, gdy tylko pierwsza cha-
rakterystyka – nierywalizacyjność konsumpcji – jest zachowana. To, że
w literaturze nierywalizacyjność i niemożliwość wyłączenia z konsumpcji
są wymieniane, gdy omawiane są dobra publiczne, jest owocem później-
szych analiz innych autorów oraz faktu bardzo częstego współwystępo-
wania obu cech (Hoppe 1989). Także Samuelson zmodyfikował z czasem
nieco swoją definicję, co widać w kolejnych wydaniach jego popular-
nego podręcznika do ekonomii, gdzie definicja dóbr publicznych brzmi
następująco:

Towary, które mogą być dostarczane wszystkim (w kraju lub mieście),


gdy koszt nie jest większy od kosztu koniecznego do dostarczenia ich
jednej osobie. Korzyści wynikające z takich dóbr są niepodzielne i ludzi
nie można wyłączyć z korzystania z nich. Na przykład środek ochrony
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 101

zdrowia likwidujący ospę chroni wszystkich, a nie tylko tych, którzy


płacą za szczepienia. Są przeciwieństwem dóbr prywatnych, takich
np. jak chleb, które skonsumowane przez jedną osobę nie mogą być już
konsumowane przez kogoś innego (Samuelson 1998, s. 509).

W artykułach The Pure Theory of Public Expenditures oraz Diagramma-


tic Exposition of a Theory of Pubilc Expenditures Samuelson zestawia typo-
we założenia neoklasycznej ekonomii matematycznej. Posługuje się wcze-
śniej zaprezentowanym w Foundations of Economic Analysis sposobem
formułowania warunków brzegowych koniecznych do utrzymania rów-
nowagi na rynku jako matematycznie, precyzyjnie określonych. W pierw-
szym artykule robi to w sposób analityczny, w drugim zaś graficzny. Na-
leży jednak pamiętać, że co do istoty oba ujęcia nie różnią się – punkty
styczności i charakterystyki krzywych prezentowanych w Diagrammatic
Exposition… można wyznaczać za pomocą równań różniczkowych, tak
jak zostało to zrobione w The Pure Theory…
Zaprezentujemy teraz nowe przedstawienie modelu Samuelsona, bliż-
sze duchem ujęciu w drugim artykule i łatwiej poddające się analizie.
Przedstawmy najpierw ostateczne dane (ang. ultimate given) opisują-
ce świat, który będziemy analizować. Świat ten składa się z dwóch kon-
sumentów opisanych mapami krzywych obojętności pomiędzy dobra-
mi publicznymi a prywatnymi. Umieśćmy dobra prywatnie i publicznie
konsumowane odpowiednio na osi pionowej i poziomej – indeks górny
będzie odróżniał pierwszego konsumenta (1) od drugiego (2), indeks dol-
ny odróżnia dobro prywatne (1) od dobra publicznego (2). Konwencja ta,
przejęta z Diagrammatic Exposition…, zostanie zachowana na wszystkich
wykresach. Takie hipotetyczne krzywe mogą wyglądać następująco:

Wykres 2. Fragment hipotetycznej Wykres 3. Fragment hipotetycznej


mapy użyteczności konsumenta (1) mapy użyteczności konsumenta (2)
102 STANISŁAW KWIATKOWSKI

Następnie obiektywnie dane warunki technologiczne oraz rzadkość


dóbr produkcyjnych determinują stopę transformacji, którą obrazuje
kształt krzywej możliwości produkcyjnych. Krzywa ta pokazuje koszt al-
ternatywny produkowania dóbr prywatnych kosztem dóbr publicznych,
i na odwrót. Będziemy również potrzebowali „nienaukowej” mapy społecz-
nej użyteczności. Kiedy będziemy znali już możliwą wysokość produkcji
efektywnej w sensie Pareto, pozwoli nam to dokonać pierwotnej dystry-
bucji dóbr pomiędzy konsumentów zgodnie z „użytecznością społeczną”,
od której będzie zależała ostateczna wysokość produkcji dóbr publicznych
i prywatnych.

Wykres 4. Krzywa możliwości Wykres 5. „Nienaukowe” krzywe


produkcyjnych, dla dóbr użyteczności społecznej
publicznych i prywatnych

Samuelson nazywa te mapy „nienaukowymi”, ponieważ jego zdaniem


rola wolnej od wartościowania ekonomii nie polega na wypowiadaniu
się na temat preferowanego stanu pierwotnej dystrybucji dóbr. Co więcej,
na osiach pojawiają się użyteczności konsumentów pierwszego i drugie-
go, które powinny być ordynalne. Uszeregowanie obu użyteczności na
osi wymaga jednak jakiejś formy kardynalizacji. Samuelson twierdzi tym-
czasem, że jest to jedynie monotoniczne przekształcenie, niezmieniające
istoty ordynalnych krzywych użyteczności – punkty na płaszczyźnie nie
oznaczają bowiem wielokrotności danych wartości, lecz jedynie umiesz-
czenie na kolejnej, ordynalnej krzywej obojętności indywidualnego kon-
sumenta. Hipoteza Samuelsona dotycząca „społecznych krzywych obo-
jętności” US1, US2, US3 mówi więc, że z punktu widzenia społeczeństwa
może być obojętne, czy „koszyk” użyteczności konsumentów składa się
z konsumentów o użyteczności z krzywej trzeciej i piątej, czy – na przykład
– pierwszej i dziewiątej, czyli że możliwe jest zastępowanie użyteczności
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 103

jednych użytecznością innych. Ponieważ rozważania takie stanowią do-


menę etyki, a nie ekonomii, Samuelson wyłącza je z badań. Pozostawia
je jednak jako narzędzie analityczne, które pozwala sformułować to, co
moglibyśmy powiedzieć, gdyby ostateczną daną były również – nieznane
obecnie – „społeczne” preferencje dotyczące dystrybucji.
Samuelson wykonuje następnie eksperyment myślowy, dzięki któremu
będzie badał, jak wyglądałaby produkcja dóbr publicznych i prywatnych,
gdyby chcieć utrzymać drugiego konsumenta na danej krzywej obojętności.
Załóżmy, że będzie to krzywa U12. Nakładając tę krzywą na krzywą moż-
liwości produkcyjnych i odejmując je pionowo, możemy ustalić, jak dużo
dóbr prywatnych pozostałoby dla pierwszego konsumenta przy każdym hi-
potetycznym poziomie produkcji dobra publicznego utrzymującego drugie-
go konsumenta na poziomie U12. Ilustrują to poniższe wykresy. Odejmując
pionowo krzywe na wykresie 6, otrzymujemy ilości dóbr prywatnych pozo-
stałych dla konsumenta pierwszego, przedstawione na wykresie 7. Stanowi
ona dla konsumenta pierwszego swoistą krzywą ograniczenia budżetowego
lub też krzywą możliwości produkcyjnych dóbr prywatnych, utrzymującą
użyteczność drugiego konsumenta na poziomie U12:

Wykres 6. Nałożenie wybranej Wykres 7. Ilości dóbr prywatnych


krzywej użyteczności pozostałych dla konsumenta (1),
konsumenta (2) na krzywą przy których konsument (2)
możliwości produkcyjnych utrzymany zostaje na poziomie
użyteczności U12

Na krzywą możliwości produkcyjnych utrzymującą drugiego konsumen-


ta na poziomie U12 możemy nałożyć mapę użyteczności pierwszego konsu-
menta, aby określić, na jakim najwyższym poziomie możemy ustalić jego
konsumpcję dóbr publicznych i prywatnych, aby drugi konsument nic nie
stracił. Zauważmy, że jest to – zgodnie z postulatami Robbinsa – rozwiązanie
104 STANISŁAW KWIATKOWSKI

Pareto-optymalne. Co więcej, trzeba pamiętać, że ilość wyprodukowanego


raz dobra publicznego nie podlega rywalizacyjnej konsumpcji, a więc pla-
suje obu konsumentów na poziomie użyteczności czerpanym z konsumpcji
całości tego dobra. Na wykresie 9 nałożymy ten wynik na oryginalną krzy-
wą możliwości produkcyjnych, co pokaże nam poziom produkcji dobra pu-
blicznego oraz podział pozostałych dóbr prywatnych.

Wykres 8. Dla danej użyteczności Wykres 9. Możliwe do


konsumenta (2), użyteczność wyprodukowania dobra publiczne
konsumenta (1) zostaje zostają skonsumowane przez obu
zmaksymalizowana w punkcie konsumentów nierywalizacyjnie
styczności (b1 , a) na poziomie a. Dobra prywatne
konsumowane są rywalizacyjnie, na
poziomie b1 dla konsumenta (1) i b2
dla konsumenta (2)

Widzimy więc, że najwyższa możliwa krzywa użyteczności pierwszego


konsumenta to krzywa U11. Aby ją osiągnąć, należy produkować a dóbr
publicznych i b1 dóbr prywatnych dla pierwszego konsumenta i b2 dóbr
prywatnych dla drugiego konsumenta. W ten sposób utrzymując konsu-
menta drugiego na poziomie U12 , znaleźliśmy Pareto-optymalny podział
dóbr pomiędzy dobra publiczne i prywatne oraz dystrybucję dóbr prywat-
nych gwarantującą pierwszemu konsumentowi najwyższą możliwą uży-
teczność U11.
Jednak nie jest to koniec rozważań. Nasze początkowe założenie o utrzy-
maniu drugiego konsumenta na poziomie U12 było czysto arbitralne.
W rzeczywistości moglibyśmy przedstawić podobną analizę dla wszystkich
poziomów obojętności (U22, U32, itd.) możliwych do uzyskania przez dru-
giego konsumenta, niewykraczających w całości poza krzywą możliwości
produkcyjnych. Potrzebne jest nam kryterium dyskryminujące, mówiące
o tym, jaki poziom użyteczności byłby preferowany dla obu konsumentów,
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 105

ze świadomością, że spadanie na niższe krzywe obojętności przez jednego


z nich oznaczałoby wspinanie się na wyższe krzywe przez drugiego.
Powtarzając powyższe rozumowanie w odniesieniu do wszystkich po-
ziomów użyteczności drugiego konsumenta, otrzymamy pary poziomów
użyteczności czerpanych przez obu konsumentów. Możemy wykreślić je
na nietypowej krzywej możliwości produkcyjnej, przedstawiającej możli-
wość „produkowania” użyteczności dla konsumentów, zwaną teraz krzywą
U1U2. Jej krzywiznę determinują wyżej modelowane czynniki – indywidu-
alne mapy użyteczności i krzywa możliwości produkcyjnych. Obrazuje ona
koszt alternatywny między podwyższaniem poziomu użyteczności jednego
z konsumentów kosztem drugiego. Wszystkie one reprezentują Pareto-opty-
malne poziomy produkcji dóbr publicznych i prywatnych. Co więcej, pamię-
tając o hipotezie „społecznych krzywych użyteczności”, możemy znaleźć
punkt styczności pomiędzy krzywą U1U2 a najwyższą społeczną krzywą
użyteczności. W ten sposób z całej rodziny Pareto-optymalnych poziomów
produkcji – do której należała również ustalona wcześniej para (U21, U12)
– Samuelson wybiera ten, który jest najbardziej społecznie pożądany:

Wykres 10. Wklęsła krzywa możliwości „wyprodukowania” danych par


użyteczności dla dwóch konsumentów. Punkt styczności z krzywą US2
z wykresu 5 maksymalizuje „użyteczność społeczną”
106 STANISŁAW KWIATKOWSKI

W naszym przykładzie najwyższą krzywą okazała się US2, a pozioma-


mi użyteczności obu konsumentów para poziomów (U11, U22). Na tej pod-
stawie Samuelson cofnąłby się do początku modelu, nałożył na podsta-
wową krzywą możliwości produkcyjnych krzywą U12 , odjął je pionowo,
znalazł punkt styczności krzywej po odjęciu z krzywą U22 i w ten sposób
ustaliłby społecznie pożądaną ilość dóbr publicznych i podział pozosta-
łych dóbr prywatnych pomiędzy obu konsumentów.
Ten formalny model i wnioski z niego wyciągnięte są obecne w więk-
szości współczesnych podręczników mikroekonomii. W wyniku wspólnej
konsumpcji dóbr i nieefektywności pobierania opłaty za produkt, którego
krańcowy koszt produkcji jest zerowy, Samuelson i wraz za nim wielu in-
nych teoretyków twierdzą, że nie jest możliwe zdecentralizowane rynkowe
dostarczanie owych dóbr4. Z jednej strony zdecentralizowane jednostki
nie zdołają pobierać opłat na utrzymanie produkcji od podmiotów korzy-
stających z dobra dzięki „efektowi gapowicza”, a więc wolny rynek nie
może dostarczyć ilości dóbr odpowiadających krzywej U1U2. Z drugiej
zaś strony, jeżeli państwo finansowałoby dostarczanie dóbr publicznych,
mogłoby ono, z braku orientowania swoich działań na zysk, alokować
swoje usługi „za darmo”, to jest po pokryciu kosztów wyprodukowania
dobra, ustalić jego cenę zgodnie z modelem, a więc opierając się na koszcie
krańcowym równym zero. Według Samuelsona to by wystarczało, żeby
nakazać produkcję dóbr publicznych – a tym samym uruchomić efekt wy-
pierania środków produkcji z rynku dóbr prywatnych – na jednym z po-
ziomów odpowiadającym użytecznościom z krzywej U1U2, zależnie od
ustalonej mapy społecznej użyteczności.
Konkluzja Samuelsona jest więc następująca: choć – jak wiemy – okre-
ślone dobra są nam potrzebne i zwiększyłyby nasz dobrobyt, to jednostki,
które racjonalnie rozumują i kierują się własnym interesem, nie są w sta-
nie osiągnąć optymalnego wyniku. Również najprostsze wykorzystanie
przedstawionego modelu nie jest możliwe ze względu na niepożądane
skutki procesu politycznego, jaki trzeba by uruchomić, by państwo pro-
dukowało dobra publiczne. Samuelson sugeruje więc, żeby posłużyć się
strategiami zastępczymi, które pozwalałyby osiągnąć jakiś poziom pro-
dukcji dóbr publicznych, co zbliżyłoby nas do krzywych US2 (Samuel-
son 1958, s. 334). Stosowanie neoklasycznego opisu świata doprowadziło
Samuelsona do stwierdzenia nieskuteczności prywatnych rozwiązań dla
maksymalizacji użyteczności.

4
Dotyczy to wszystkich popularnych podręczników, poczynając od Samuelso-
na, poprzez podręczniki Stiglitza, Begga et al. oraz polskie Czarnego i Rapackiego.
Wyjątkiem od tej reguły jest nietypowy podręcznik teoretyczno-historyczny Blauga,
w którym autor w ogóle nie zajmuje się modelem Samuelsonowskim, lecz odwołuje
się do starszych teoretyków dóbr publicznych, a także – co niespotykane – do po-
tencjalnego prywatnego rozwiązania problemu dóbr publicznych w ujęciu Ronalda
Coase’a (Blaug 2000, s. 600–601).
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 107

Te o r e t y c y a u s t r i a c k i e j s z k o ł y e k o n o m i i

Osią g nięcia szko ł y aust r iack iej


a teoria pr y watnej i publicznej produkcji

Austriacka szkoła ekonomii narodziła się w intelektualnym tyglu dru-


giej połowy XIX wieku, w Wiedniu. Działający tam Carl Menger, profesor
Uniwersytetu Wiedeńskiego, wydał w 1871 roku Grundsätze der Volkswirt-
schaftslehre („Zasady ekonomii”)5. Tym samym nieświadomie przyłączył
się do tzw. rewolucji marginalistycznej, którą współtworzyli z nim – rów-
nież nieświadomi wzajemnie istnienia swoich dzieł – William Stanley Je-
vons i Léon Walras. Rewolucja ta, po silnej matematycznej formalizacji
wbrew duchowi analizy Mengera, stanie się podstawą budowania modeli
równowagowych na podstawie wartości krańcowych, a więc z użyciem
równań różniczkowych, jak życzył sobie tego później Samuelson. Ponadto
Menger rozpoczął tzw. Methodenstreit – spór o metodę – wieloletnią deba-
tę między teoretyczną szkołą austriacką a niemiecką szkołą historyczną,
w której stawką był status ekonomii jako nauki. Jak twierdzili Carl Men-
ger, Eugen Böhm-Bawerk i Ludwig von Mises, jeden z najwybitniejszych
Austriaków, ekonomia była nauką zwiększającą poznanie w ogóle, czyli
pozwalającą analizować zjawiska gospodarcze ze względu na ich przyczy-
nowo-skutkową „esencję”, niezależnie od czasu, w którym następowały.
Tymczasem Gustav von Schmoller i inni historycyści, członkowie szkoły
zwanej przez Misesa „samozwańczą intelektualną strażą przyboczną dy-
nastii Hohenzollernów” (Mises 2008), określali ekonomię jako deskryp-
tywną dziedzinę poznania, zajmującą się gospodarką w konkretnych
uwarunkowaniach historycznych (Landreth, Colander 2005, s. 348–351).
Dalekim echem tej debaty będzie również stanowisko Samuelsona, któ-
ry uważał, że twierdzenia ekonomii są coraz szerszymi opisami, które ja-
kościowo nie zmieniają naszej wiedzy, lecz jedynie pozwalają dostrzec je
w szerszym kontekście zdarzeń, czyli niejako kiedy występują, nie zaś dla-
czego występują, jak chcieliby Austriacy. Przywiązanie szkoły austriackiej
do werbalnej, logicznej metody poznawczej opisującej związki przyczyno-
wo-skutkowe wypchnęło jej teorie poza mainstream ekonomiczny. Relacje
funkcyjne zaś, łatwe do spisania językiem matematyki i nieprzedstawia-
jące świata w kategoriach wynikania przesłanek ze skutków stosowane
przez Samuelsona, lecz umożliwiające analizę przypominającą badanie
zjawisk fizycznych, pozbawionych czynnika wolnej woli, stały się jednym
z fundamentów budowy „naukowej” ekonomii. Jej przeciwieństwem była
ekonomia polityczna, zepchnięta do lamusa historii nauki i obejmująca
również wiele osiągnięć Austriaków (Huerta de Soto 1998).
Ważnym wkładem szkoły austriackiej była też debata z ekonomiczny-
mi podstawami wszelkiego rodzaju projektów socjalistycznych, rozpoczęta

5
Tu posłużymy się cytatami z wydania amerykańskiego (Menger 2007).
108 STANISŁAW KWIATKOWSKI

przez Eugena von Böhm-Bawerka, ucznia Mengera, w jego słynnym


Zum Abschluss des Marxschen Systems ( Böhm-Bawerk 1949), konty-
nuowana przez Misesa i Hayeka, którzy udowadniali, że efektywna
kalkulacja ekonomiczna jest niemożliwa w ustroju pozbawionym wła-
sności prywatnej. Co więcej, według Hayeka wiedza ekonomiczna jest
zawsze rozproszona ( Kwaśnicki 1996, s. 77), a więc organy centralne
nie mogą – nawet z założeniem ich dobrej woli – ustalić, czego będą
chcieli poszczególni konsumenci i jak pogodzić ich, często sprzeczne,
preferencje. Będą oni stosowali argumentację z debaty kalkulacyjnej,
aby wielokrotnie udowadniać niemożliwość efektywnej alokacji dóbr
przez państwo.
Widać więc, że metodologiczne skupienie się na mikroekonomicz-
nych podstawach ekonomii nie przeszkodziło Austriakom w wyciąga-
niu makroekonomicznych wniosków. Teoria dóbr publicznych, którą się
tutaj zajmujemy, dotyczy raczej sfery mikroekonomii. Austriacy próbo-
wali włączyć się ze swoimi koncepcjami do głównego nurtu ekonomii
z o wiele gorszym skutkiem, przypuszczalnie ze względu na swoje ra-
dykalne wnioski, sprzeczne z nurtem Samuelsonowskim i podważające
samą istotę teorii. Ostatnie pokolenie Austriaków to, w głównej mierze,
amerykańscy uczniowie Israela Kirznera, profesora Uniwersytetu Nowo-
jorskiego, wybitnego teoretyka problemu przedsiębiorczości (Douhan,
Eliasson, Henrekson 2007, s. 213–223), i Murraya Rothbarda, jednego
z najwierniejszych uczniów Misesa, ekonomisty, historyka, twórcy anar-
chokapitalizmu – radykalnie wolnorynkowego nurtu odrzucającego ist-
nienie państwa na rzecz instytucji czysto rynkowych (Antonów 2004,
s. 216). Duży wpływ tych autorów da się zauważyć w pracach Walte-
ra Blocka, Hansa-Hermanna Hoppego, Larry’ego Sechresta, Roberta
P. Murphy’ego i innych teoretyków zajmujących się problematyką dóbr
publicznych w tradycji austriackiej.

Metodolog ia szko ł y aust r iack iej

Austriacy w swoich pracach bardzo dużo miejsca poświęcają meto-


dologii, przypuszczalnie dużo więcej niż inne szkoły ekonomii. Z jed-
nej strony prowadzi to do wysokiego poziomu świadomości problemów
metodologicznych wśród reprezentantów tej szkoły. Z drugiej zaś, jak
pisał Bryan Caplan, profesor ekonomii w eklektycznym George Mason
University, eks-Austriak, obecnie krytyk Austriaków z perspektywy
neoklasycznej:

(...) Zbyt duża grupa Austriaków nie zajmuje się w ogóle ekonomią,
a raczej meta-ekonomią: filozofią, metodologią i historią myśli. (...)
Neoklasyczni ekonomiści idą zbyt daleko, pozbywając się prawie
całkowicie meta-ekonomii z obszaru zainteresowań, ale z pewno-
ścią można mieć podejrzenia wobec akademików, którzy mówią
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 109

o ekonomii, praktycznie jej nie uprawiając. Parafrazując Deng


Xiaopinga, „Nie powinno się mówić o metodologii każdego dnia.
W prawdziwym życiu nie wszystko jest metodologią” (Caplan 1997,
tłum. SK).

Metodologia szkoły austriackiej wywodzi się od Carla Mengera, który


w Principles of Economics, dziele przełomowym zarówno dla szkoły au-
striackiej, jak i dla historii myśli ekonomicznej w ogóle, zwracał uwagę,
że ekonomia jako nauka badająca zachowania ludzi musi zajmować się
przyczynowo-skutkowymi zależnościami6, co pozwoli wyjść poza proste
matematyczne związki dające się obserwować w gospodarce i analizować
samą „naturę (czy też esencję) zjawisk gospodarczych”7. Mengerowską
metodologię można określić jako aprioryczną, co wprost sformułował
jako pierwszy Ludwig von Mises. Mises miał zamiar nazwać gałąź nauki,
do której zaliczał ekonomię – i zarazem metodę całej tej gałęzi – „socjo-
logią”, jednak ze względu na coraz szersze wykorzystanie tego terminu
w sensie, w jakim znamy go dzisiaj, użył terminu „prakseologia” (Hüls-
mann 2007, s. 594), mającego oznaczać „ogólną teorię ludzkiego działa-
nia” (Mises 2007, s. 3). Owa prakseologia miała być systemem „syntetycz-
nych postulatów a priori, niezależnych od obserwacji i zawsze empirycznie
prawdziwych” (Zorde 2004, s. 92), następujących po sobie i wynikających
z „ostatecznie danych” pojęć, takich jak np. fakt, że człowiek działa (Zor-
de 2004, s. 14–16). Mises szeroko prezentował swoje stanowisko meto-
dologiczne w innych dziełach, zwracając uwagę na to, że „czysta teoria”
ekonomii musi być apriorycznie opracowana, zanim podejmie się próbę
interpretacji wydarzeń historycznych, które są celem nauki ekonomii (Mi-
ses 1957), oraz na specyficzne problemy poznawcze dotyczące ekonomii,
odróżniające ją od innych nauk (Mises 1960). To stanowisko, podkreślają-
ce znaczenie subiektywizmu i indywidualizmu metodologicznego, zostało
utrzymane w szkole austriackiej aż do dziś, bez względu na metodologicz-
ne kontrowersje, pochodzące z wewnątrz, jak i z zewnątrz szkoły8.

6
Por.: „Wszystkie rzeczy podlegają prawu przyczyny i skutku. Ta wielka zasada
nie zna wyjątków, i byłoby próżnym trudem szukać przykładów jej zaprzeczających
w obrębie naszego doświadczenia” (Menger 2007, s. 51, tłum. SK). W podobnym to-
nie wypowiadał się wybitny polski ekonomista, Adam Heydel, o którym w tej książce
pisze Wojciech Paryna.
7
Z listu Carla Mengera do kolejnego z uznanych twórców rewolucji marginali-
stycznej i jednego z twórców silnie zmatematyzowanej wersji ogólnej teorii równowa-
gi Léona Walrasa (za: White 1977, s. 8, tłum. SK).
8
Do najistotniejszych należy tzw. inwazja hermeneutyczna w ekonomię austriac-
ką, której przewodził Don Lavoie (Rothbard 2007; Gordon 1986), kontrowersja wo-
kół Friedricha von Hayeka dotycząca tego, czy jest on popperystą-falsyfi kacjonistą,
(Hennecke 2007; van den Hauwe 2007), oraz wątpliwości dotyczące podłoża filozo-
ficznego aprioryzmu – czy jest to aprioryzm czysto kantowski (Hoppe 1995), czy też
raczej aprioryzm refleksyjny (Smith 1990).
110 STANISŁAW KWIATKOWSKI

Te o r i a d ó b r p u b l i c z n y c h u A u s t r i a k ó w
Austriacy zgadzają się z Samuelsonem co do tego, że takie specyficzne
dobro jak dobro publiczne może istnieć, czyli że dopuszczenie krańcowe-
go konsumenta do konsumpcji dobra po jego wyprodukowaniu będzie się
wiązało z zerowym kosztem. Twierdzą jednak, że taka definicja dóbr pu-
blicznych nie rodzi szczególnych problemów z dostarczaniem ich na warun-
kach rynkowych (w porównaniu z dobrami prywatnymi w sensie Samuel-
sonowskim). Klasyczny jest tu przykład Waltera Blocka, który w artykule
Public Goods and Externalities: The Case of Roads argumentuje, że na mocy
definicji Samuelsona i jej rozpatrywania w kategoriach korzyści zewnętrz-
nych ekonomista musi dojść do konkluzji, że zdecentralizowane, rynkowe
dostarczanie skarpetek uczestnikom rynku jest nieefektywne i że jedynie
stosując zasady wyłożone przez Samuelsona w The Pure Theory of Public
Expenditures, można je efektywnie produkować. Dobra prywatne również
generują wiele korzyści zewnętrznych, z których korzystają strony trzecie
bez udziału w kosztach:

Weźmy przykład oczywistego dobra prywatnego – skarpetek. Po


pierwsze, pojawia się kwestia zdrowotna. Ludzie, którzy nie noszą
skarpetek, są bardziej narażeni na przeziębienie, obolałe stopy, od-
ciski, a być może także zapalenie płuc. A choroby te oznaczają stratę
roboczodniówek i mniejszą produkcję; mogą skutkować podwyższe-
niem opłat lekarskich i zwiększeniem składek ubezpieczeniowych
osób ubezpieczonych zdrowotnie ze względu na choroby zakaźne;
zwiększony popyt na usługi lekarskie będzie oznaczał pogorszenie
jakości opieki zdrowotnej dla innych. Co więcej, pojawia się pro-
blem estetyczny: wielu ludzi czuje się urażonych widokiem bosych
stóp. Restauratorzy zabraniają bosych stóp w swoich lokalach, przy-
puszczalnie dlatego, aby utrzymać część wrażliwej na ten problem
klienteli. (...) Problem w żadnym razie nie ogranicza się do skarpe-
tek, gdyż wszystkie dobra prywatne w jakiś sposób wpływają na
postronnych. Czytelnik jest zachęcany, by znaleźć przykład dobra
prywatnego, które nie będzie generowało „przelewania” korzyści na
strony trzecie (ang. spillover effects). (...) Jednak wielu ekonomistów
nadal twierdzi, że samo występowanie korzyści zewnętrznych jest
dowodem na występowanie niedoskonałości rynku, na które jedyną
odpowiedzią są interwencje państwa (Block 1983, s. 3, tłum. SK).

Block stosuje nieskomplikowany dowód nie wprost, wykazując, że


z poznawczego punktu widzenia zarówno dobra publiczne, jak i prywatne
dysponują tym samym zestawem charakterystyk, które, według Samuel-
sona, uniemożliwiają ich efektywne dostarczanie przez rynek. Nie jest to,
rzecz jasna, dowód na to, że rynek jest w stanie efektywnie dostarczać
dóbr publicznych, lecz jedynie wskazanie na wewnętrzną sprzeczność
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 111

w argumentacji Samuelsona, który uznaje za pewne to, że dobra prywatne


są dostarczane przez rynek efektywnie.
Należy tu zwrócić uwagę, że Austriacy kładą szczególny nacisk na potrze-
by, które są zaspokajane przez dane dobra. W przykładzie dotyczącym skar-
petek okazuje się, że dobro, które wydawało się czysto prywatne, świadczy
w rzeczywistości dwa typy usług: prywatne, z których korzysta ich nabywca;
oraz publiczne, generowane jako pozytywny efekt zewnętrzny. Mechanizm
ten może więc być wykorzystany do dostarczania dóbr publicznych. Podob-
nie argumentuje Daniel Klein w artykule Tie-Ins and the Market Provision of
Public Goods. Nie będąc ekonomistą austriackim, dochodzi on do wniosku,
że wiele dóbr publicznych w sensie Samuelsonowskim może być i jest dostar-
czane w sposób efektywny poprzez celowe ich powiązanie z dobrami prywat-
nymi (Klein 1987). Pomoc techniczna dla programów komputerowych jest
łączona z zakupem oprogramowania, które przed opracowaniem technolo-
gii utrudniających kopiowanie było w dużym stopniu dobrem publicznym.
Sygnał telewizyjny, nadawany do wszystkich potencjalnych odbiorców bez
możliwości wyłączenia kogokolwiek z jego odbioru, jest wiązany z reklamami
nadawanymi pomiędzy programami, które są sprzedawane przedsiębiorcom
jako dobro całkowicie prywatne (Holcombe 2007, s. 7–8). Przykłady można
mnożyć. Jak zwraca uwagę Randall Holcombe, nie oznacza to, że prywatne
dostarczanie takich dóbr jak sygnał telewizyjny czy program komputerowy
stanowi dowód na możliwość dostarczania wszelkich innych dóbr – takich jak
na przykład obrona narodowa – w sposób prywatny. Można bowiem wskazać
wiele cech odróżniających obronę narodową od sygnału telewizyjnego, które
utrudnią jej dostarczenie przez podmioty prywatne. Nie to jest jednak istotą
tej krytyki Samuelsonowskiej wizji. Holcombe zwraca uwagę, że:

Jakiekolwiek różnice pomiędzy oprogramowaniem komputerowym


a obroną narodową są całkowicie nieistotne dla naszej dyskusji.
Problem nie polega na tym, czy obrona narodowa bądź jakiekol-
wiek inne dobro mogą być dostarczane przez rynek, ale na tym, czy
dobra publiczne definiowane jako wspólnie konsumowane dobra,
z których konsumpcji nie da się wyłączyć pojedynczych podmiotów,
mogą (podkreślenie SK) być dostarczane przez rynek. Przykłady ta-
kie jak oprogramowanie czy sygnał radiowy wskazują, że tak jest.
A więc jeśli rządowa produkcja obrony narodowej (czy jakiegokol-
wiek innego dobra) jest konieczna ze względu na efektywność, nie
wynika to stąd, że jest to dobro publiczne. Jeżeli korzysta się z defi-
nicji dóbr publicznych takiej, jaką formułują ekonomiści, dobra pu-
bliczne mogą być i są dostarczane przez rynek w sposób efektywny.
Teoretyczne argumenty wspierają tę tezę, przykłady zaś pokazują,
że dzieje się tak w praktyce (Holcombe 2007, s. 8, tłum. SK).

A więc zgodnie z analizą austriacką, definicja, na której Samuelson


opiera swoją teoretyczną konstrukcję, jest niekompletna. Ostateczne
112 STANISŁAW KWIATKOWSKI

wnioski z The Pure Theory of Public Expenditures okazują się nieprawdzi-


we, przynajmniej dla niektórych dóbr publicznych. Tym samym Austriacy
dowodzą, że natura dóbr publicznych w rozumieniu mainstreamowym nie
powoduje konieczności dostarczania ich przez państwo.
Niektórzy Austriacy, atakując mainstreamowe postawienie problemu,
idą dalej. Korzystając ze specyfi ki tradycji austriackiej, stosują charak-
terystyczną, subiektywistyczną defi nicję dobra, stworzoną przez Carla
Mengera we wzmiankowanych Principles Economics. Na przykład Larry
Sechrest stwierdza, że samo ujęcie pewnych świadczeń dostarczanych
przez państwo jako „dóbr” jest mylące – niezależnie od tego, czy mają to
być dobra publiczne, czy też prywatne. Dobra publiczne są według niego
„podkategorią szerszego zbioru”, czyli dóbr w sensie ogólnym. Jeżeli więc
z jakichś przyczyn świadczenie produkowane przez państwo nie będzie
dobrem w sensie ogólnym, nie może być dobrem publicznym (Sechrest
2003, s. 52). Argument brzmi następująco: jak udowadniał Menger, aby
nazwać coś dobrem, muszą być spełnione 4 warunki. (Menger 2007,
s. 52). Po pierwsze, musi istnieć potrzeba ludzka. Po drugie, dana rzecz
musi mieć takie cechy, aby można było użyć tej rzeczy do zaspokojenia
danej potrzeby. Po trzecie, konsument musi wiedzieć o tych cechach. I po
czwarte, musi mieć możliwość zastosowania danej rzeczy do zaspokoje-
nia potrzeby, zgodnie ze swoją wiedzą. Z bycia dobrem wyklucza to, na
przykład, planetę Neptun, ponieważ nawet jeżeli ktoś odczuwa potrzebę
spaceru po Neptunie, wie o tym, że taka planeta istnieje i że spacer ten
zaspokoiłby tę potrzebę, to przy obecnym stanie rozwoju technologicz-
nego nie istnieją możliwości realizacji tej potrzeby przez konsumenta.
Idąc tym tokiem rozumowania, Sechrest zwraca uwagę, że aby dobro
można było ekonomizować, musi go być mniej, niż jest to konieczne
do zaspokojenia wszystkich potrzeb. To z kolei wyklucza z bycia do-
brem ekonomicznym na przykład powietrze, klasycznie uznawane przez
ekonomistów za dobro powszechne, czy też dobro wolne. Sechrest od-
wołuje się następnie do tak zwanego problemu pryncypała–agenta. Jest
to klasyczny problem teorii organizacji, mówiący o różnicach między
celami, do których dąży agent, a celami pryncypała, na rzecz którego
agent powinien działać9. O ile Austriacy twierdzą zazwyczaj, że w przy-
padku wolnorynkowego ładu typowe narzędzia kalkulacji ekonomicz-
nej pozwolą przedsiębiorcy na przezwyciężenie możliwych problemów
związanych z konfl iktem interesów i oceny efektywności pracownika
(Foss 1994), o tyle problem zlecania wykonawstwa usług państwu łączy
się z problemem pryncypała–agenta. Oznacza to, że produkowane przez
państwo świadczenie nie jest ani dokładnie tym świadczeniem, którego
życzą sobie jego konsumenci, ani nie zaspokaja ich potrzeb, ani nie mają
oni dostatecznego wpływu na dane świadczenie, by nazwać je dobrem
(Sechrest 2003, s. 6).

9
Klasyczne przedstawienie teorii można znaleźć w: Laffont, Martimort 2002.
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 113

Podobne rozważania dotyczące pojęcia „dobra”, odwołujące się bez-


pośrednio do ekonomii dobrobytu można znaleźć u innego Austria-
ka, Hansa-Hermanna Hoppego, który obok kategorii dóbr, wprowadził
tzw. zła (ang. bads, w przeciwieństwie do goods). Co prawda zgadzał się
z tym, że z punktu widzenia definicji coś takiego jak dobro publiczne ist-
nieje, jednak jako uczeń Murraya Rothbarda kierował się jego analizą eko-
nomii dobrobytu, która prowadzi do wniosku, że nie każde świadczenie,
którego jest się odbiorcą, prowadzi do zwiększenia dobrobytu, zarówno
indywidualnego, jak i społecznego (Rothbard 1956).
Rothbard próbował tak zrekonstruować teorię dobrobytu na gruncie
austriackim, aby uniknąć wszystkich założeń, które stosują w swoich teo-
riach neoklasycy, a których unikają Austriacy. Jego teoria opierała się na
dwóch podstawowych elementach: demonstrowanej preferencji ex ante
i rozwiązaniach optymalnych w sensie Pareto. Według Rothbarda, aby
pozostać w obrębie naukowej analizy, można mówić o wzroście dobro-
bytu tylko wtedy, kiedy zaobserwujemy akt dobrowolnej wymiany ryn-
kowej, który będzie implikował wzrost użyteczności czerpanej z dóbr dla
obu stron wymiany – inaczej do wymiany by nie doszło. Jeżeli natomiast
transfer bogactwa jest wymuszony, nie wiadomo, czy którakolwiek strona
na tym zyskuje, jeżeli żadna z nich nie zademonstrowała swoich preferen-
cji10. Z pewnością natomiast traci na niej ta strona, której pozbawia się
bogactwa, bo gdyby w jej interesie było zmniejszenie zasobu posiadanych
przez nią dóbr, zrobiłaby to dobrowolnie. Zatem na gruncie efektywności
w sensie Pareto rozwiązania Pareto-optymalne to takie, wskutek których
nikt nie traci i przynajmniej jedna ze stron zyskuje. Rothbard zwraca uwa-
gę, że ekonomiści mogą wypowiadać się jedynie na temat użyteczności
ex ante – czyli o oczekiwaniu uczestnika rynku, że będzie czerpał korzyść
z dobra, które stara się uzyskać – i stwierdza, że wyłącznie dobrowolne
transakcje optymalizują dobrobyt społeczny w sensie Pareto, natomiast
przymusowe, państwowe transfery nie mogą tego zapewnić (Rothbard
1956, s. 224–263).
Idąc tym tropem, Hoppe zwraca uwagę, że de facto transfery państwo-
we będą co najwyżej utrzymywały dobrobyt społeczny na niezmienionym
poziomie, a najprawdopodobniej będą go zmniejszały ze względu na pro-
dukcję dóbr – czy też, jak stwierdza, „zeł” publicznych, na które zapotrze-
bowanie nie zostało zademonstrowane przez dobrowolną wymianę. Co

10
Pojawia się problem, gdy beneficjent redystrybucji demonstruje chęć bycia jej
odbiorcą, co w rzeczywistości zdarza się dość często. Co więcej, nawet czysto hi-
potetyczna możliwość bycia odbiorcą redystrybuowanych dóbr, bez deklarowania
preferencji, aby nim być, powoduje problemy z Rothbardowską teorią dobrobytu:
czy bowiem bycie odbiorcą przelewu bankowego nie jest korzyścią, nawet jeżeli nie
zrobiliśmy niczego, aby go otrzymać? Więcej o problemach z Rothbardowską teorią
dobrobytu w: Kvasnička 2008, s. 41–52.
114 STANISŁAW KWIATKOWSKI

ciekawe zastosowana tu koncepcja demonstrowanej preferencji wywodzi


się od samego Samuelsona11.
Jeszcze inne podejście do krytyki Samuelsonowskiej teorii dóbr pu-
blicznych prezentuje Randall Holcombe w artykule Why does Govern-
ment Produce National Security (Holcombe 2008). Zwraca w nim uwa-
gę na pewne istotne założenia, które implicite zawarte są w teorii dóbr
publicznych. Przede wszystkim, jak twierdzi Holcombe, w teorii dóbr
publicznych tkwi nienaukowe założenie dotyczące motywacji uczest-
ników rynku. Z jednej strony powiedziane jest, że jednostki, kierujące
się w działaniu własnym interesem, nie zdołają zorganizować się w celu
produkcji dóbr publicznych ze względu na efekt gapowicza. Z drugiej
strony jednostki należące do scentralizowanego aparatu państwowego są
w stanie zorganizować ich produkcję. Co więcej, będą dostarczać je efek-
tywnie, nie czerpiąc z tego bezpośrednich zysków. Są to, de facto, dwa
założenia. Pierwsze dotyczy zmian w zachowaniu człowieka ze względu
na jego umiejscowienie w systemie, polegające na tym, że urzędnik staje
się zdolny do altruizmu, na co nie zdobyłaby się osoba prywatna. Drugie
założenie konstatuje przewagę państwa w produkowaniu dóbr publicz-
nych w porównaniu z sektorem prywatnym. Pierwszego z tych założeń,
jak się wydaje, można próbować bronić na gruncie socjologicznym. So-
cjologia nie należy jednak do obszaru zainteresowań ekonomii, zarówno
z przyczyn odmiennego charakteru badań, jak i odmiennej epistemolo-
gii i mocy wiążącej twierdzeń socjologicznych. Nie można więc na jej
podstawie tworzyć teorii ekonomicznych i twierdzić, że argumenty na
rzecz produkcji dobra publicznego są argumentami efektywności pro-
dukcji i maksymalizacji dobrobytu, tak jak twierdził Samuelson w The
Pure Theory... Co więcej, jeżeli spróbuje się usunąć tę analityczną niedo-
godność i założy, że w obu sektorach, prywatnym i publicznym, jednost-
ki maksymalizują indywidualną użyteczność, okazuje się, że państwo
będzie produkować takie dobra publiczne jak obrona narodowa nie dla-
tego, że generuje ono wysokie efekty zewnętrzne, ale dlatego, że chroni
w ten sposób swoje źródło przychodów – opodatkowanie, które pocho-
dzi przecież z bogactwa chronionego przez obronę narodową. Jednakże
pomija się tu fakt, że uczestnicy rynku również mają silną motywację do
ochrony swojego mienia.
Jak widać, Holcombe nie skupia się na analizie tego, czy dobra pu-
bliczne mogą być dostarczane przez rynek. Dostrzega sprzeczność w teorii
Samuelsonowskiej: teoria mówiąca o niemożliwości prywatnego dostar-
czania dóbr publicznych wyklucza, na mocy swoich założeń, dostarczanie
ich przez państwo.
Z metodologicznego punktu widzenia ciekawy argument przeciwko
dobrom publicznym podnosi Hans-Hermann Hoppe w Fallacies of Public
Goods Theory and the Production of Security. Zwraca on tam uwagę na to,

11
U Samuelsona jest to tzw. revealed preference (Samuelson 1948, s. 243–253).
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 115

że arbitralne stwierdzenie, iż jakieś dobro jest bądź nie jest dobrem pu-
blicznym, to powrót do presubiektywistycznej epoki w ekonomii.
Należy tu zauważyć, że współczesna ekonomia – zarówno neokla-
syczna, jak i większość szkół heterodoksyjnych – jest oparta explicite
na subiektywizmie metodologicznym. Oznacza to przyjęcie założenia,
że wiele elementów, które ekonomiści muszą przyjmować jako dane
ostateczne – takie jak wartościowanie, określanie użyteczności dobra
– wynika z subiektywnej interpretacji rzeczywistości przez konsumenta,
który postrzega ją zmysłami w sposób niedoskonały i musi stale przyj-
mować pewne założenia dotyczące otaczającego go świata, żeby móc
w ogóle podjąć działanie. Nawet krytycy austriackiej teorii zgadzają
się co do tego, że zapoczątkowane przez Austriaków podejście subiek-
tywistyczne jest słuszne i dodają, że obecnie główny nurt jest równie
subiektywistyczny jak teoria Austriaków (Caplan 1997).
Jeżeli jest więc prawdą, że wartościowanie dóbr wynika z subiektyw-
nych ocen użyteczności, to rację ma Hoppe, gdy twierdzi, że nie potra-
fi my powiedzieć, czy jakiekolwiek dobro jest publiczne czy prywatne
( Hoppe 1989, s. 7–9). To, czy jakieś efekty zewnętrzne dotykają jednost-
ki nienabywające bezpośrednio danego dobra, zależy bowiem od ich
subiektywnej oceny. A więc konstrukcja oparta na konsumpcji przez
dodatkowe podmioty zakłada implicite, że będą one zainteresowane ich
konsumpcją, co więcej, że nie wystąpią takie podmioty, które nie będą
zainteresowane podleganiem systemowi dostarczania dóbr publicznych.
Przykładem mogą być tu mieszkańcy domów w okolicy latarni morskiej,
którzy cierpią niedogodności z powodu światła emitowanego w nocy,
czy też pacyfi ści, których, za sprawą systemu opodatkowania, zmusza
się do fi nansowania wojen i sił zbrojnych. Aby uznać, że dobra te mają
charakter publiczny, należałoby odrzucić głęboko ugruntowany i expli-
cite formułowany subiektywizm metodologiczny i założyć, że korzyści
czerpane z efektów zewnętrznych są obiektywne. Co więcej, jeżeli by
się chciało udowadniać sumaryczne korzyści z dostarczania dóbr pu-
blicznych, trzeba byłoby zaangażować się w sumowanie użyteczności.
Jednak zarówno Austriacy, jak i ekonomiści mainstreamowi zgadzają
się, że interpersonalne porównania użyteczności są niedopuszczalne.
O ile jednak mainstream będzie stosował zastępcze formuły ustalania
optymalności w rodzaju efektywności Kaldora– Hicksa, o tyle Austriacy
stwierdzą, że jest to próba przekroczenia epistemologicznej granicy po-
znania ekonomisty, poza którą znajdzie się on w obszarze określanym
nawet przez Samuelsona jako „nienaukowa ekonomia dobrobytu” (Sa-
muelson 1954, s. 387).
Ciekawe podejście do problemu dóbr publicznych prezentuje Robert
P. Murphy w swoim zbiorze esejów Chaos Theory (Murphy 2002). Po-
kazuje tam pozytywne przykłady tego, jak system dostarczania dóbr pu-
blicznych mógłby funkcjonować w warunkach tzw. anarchizmu rynko-
wego, czy też anarcho-kapitalizmu, czyli systemu, w którym nie istnieje
116 STANISŁAW KWIATKOWSKI

państwo, rozumiane jako organizacja, która w danym regionie ma mono-


pol na stosowanie przemocy i ustanawianie norm prawnych12.
Murphy zaczyna od zastrzeżenia, że jego analiza to jedynie spekulacja,
ponieważ nie potrafimy przewidzieć, jak wyglądałyby optymalne rozwią-
zania rynkowe. Gdybyśmy bowiem potrafili odpowiedzieć na tak posta-
wione pytanie z całkowitą pewnością, to instytucja rynku jako weryfika-
tora nie byłaby potrzebna (Murphy 2002, s. 54–55). Niemniej Murphy
wpisuje się w szerszy nurt badaczy posługujących się modelem anarchi-
zmu rynkowego i, podobnie jak jego poprzednicy (Hoppe 1998), stwier-
dza, że najłatwiej wyobrazić sobie, iż spośród znanych i obecnie funkcjo-
nujących instytucji rynkowych firmy ubezpieczeniowe mogą pełnić rolę
efektywnego dostarczyciela usług bezpieczeństwa, tak wewnętrznego, jak
i zewnętrznego.
Udaje mu się to dzięki przedstawieniu rynkowej realizacji ideału zmi-
nimalizowania kosztów transakcyjnych, wymaganych dla efektywności
przez Ronalda Coase’a, niemal do zera. Zdaniem noblisty Coase’a wystę-
powanie dodatnich kosztów transakcyjnych to właściwie jedyna przeszko-
da, która powoduje, że indywidualni uczestnicy rynku nie zawsze mogą
osiągnąć efektywne rozwiązania i dlatego konieczna jest interwencja pań-
stwowa, czy to legislacyjna, czy sądownicza. Wyłożył on tę teorię w The
Problem of Social Cost (Coase 1960), jednym z najczęściej cytowanych
artykułów w historii myśli ekonomicznej13. Chociaż komitet noblowski
docenił Coase’a zwłaszcza za „odkrycie i objaśnienie znaczenia kosztów
transakcyjnych i praw własności dla instytucjonalnej struktury i funkcjo-
nowania gospodarki”14, Austriacy byli sceptyczni szczególnie wobec tej
części jego prac, z których można było wyciągnąć wniosek, że prawa wła-
sności da się realokować na podstawie rachunku kosztów transakcyjnych,
które minimalizowałby sąd lub inny regulator.

12
Więcej o „anarchistycznej” defi nicji państwa i anarchizmie rynkowym zob.
Tannehill 2005; Rothbard 2005, gdzie autorzy próbują dokonać pozytywnej analizy
możliwości funkcjonowania anarchistycznego społeczeństwa opartego na absolut-
nym poszanowaniu własności prywatnej.
13
Kwerenda dokonana za pomocą akademickiego silnika wyszukiwań Google
Scholar pokazuje, że teksty The Nature of The Firm i The Problem of Social Cost były
cytowane odpowiednio ponad 12000 i 8000 razy. Dla porównania: najczęściej cy-
towane teksty Paula Samuelsona – wspominane wcześniej Foundations of Economic
Analysis i The Pure Theory of Public Expenditures – przywoływane były odpowiednio
ponad 3300 i 2800 razy; Capitalism and Freedom oraz The Role of Monetary Policy
Miltona Friedmana 4800 i 3000 razy; najpopularniejsze dzieło Johna Maynarda Key-
nesa General Theory of Employment, Interest and Money ponad 8000 razy. Dane te
dotyczą tylko cytowań anglojęzycznych, jednak dają reprezentatywną próbkę różnicy
pomiędzy liczbą cytowań Coase’a i innych ważnych postaci w historii myśli eko-
nomicznej. Niektórzy twierdzą wręcz, że The Problem of Social Cost jest najczęściej
cytowanym artykułem w historii (Posner 1993, s. 195).
14
Z uzasadnienia komisji Banku Szwecji, za: http://nobelprize.org/nobel_prizes/
economics/laureates/1991.
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 117

Austriacy, od czasu rozpowszechnienia się teorematu Coase’a, argu-


mentowali jednak, że koszt transakcyjny jest takim samym kosztem jak
każdy inny, toteż będzie minimalizowany przez przedsiębiorców tak
samo, jak minimalizują wszystkie pozostałe koszty produkcji. Wszelkie
próby wkraczania w rolę przedsiębiorcy przez państwo nie będą sku-
teczne ze względu na ich pozarynkowy charakter. Państwo nie wykonu-
je bowiem przedsiębiorczego eksperymentu i nie może go rynkowo zwe-
ryfi kować (Šima s. 68–72). A więc w pozytywnym planie Murphy’ego,
ubezpieczalnie są dostarczycielami bezpieczeństwa ze względu na własny
zysk wynikający z pomniejszenia potencjalnych wypłat odszkodowań.
Pozwala im to zinternalizować efekty zewnętrzne w postaci chronienia
niepłacących „gapowiczów”. Murphy jednak nie poprzestaje na tym.
W kolejnym artykule inkorporuje pewną wersję teorematu Coase’a do
teorii austriackiej i argumentuje, że praktycznie zerowe koszty transak-
cyjne można osiągnąć dzięki wykorzystaniu istniejących już instrumen-
tów rynkowych i niejako podłączania nowych rozwiązań do instrumen-
tów i kontraktów, które są i tak zawierane na rynku (Murphy 2004).
Jest to możliwe dzięki wykorzystywaniu opcji budowlanych, których
wartość zależy od bezpieczeństwa przyszłych inwestycji i wspomina-
nych już wcześniej ubezpieczeń. Jeśli idzie o ubezpieczenia, to może
się okazać, że taniej jest utrzymywać system obronności, niż wypłacać
odszkodowania, co stoi całkowicie w sprzeczności z Samuelsonowską
wizją dostarczania dóbr publicznych. Kluczowym argumentem, niejako
podsumowującym stanowisko Austriaków przeciwko mainstreamowej,
Samuelsonowskiej teorii dóbr publicznych jest następujące stanowisko
Murphy’ego:

Oczywiście puryści mogą oponować, że powyższa analiza uprasz-


cza problem, zatrzymując się w kluczowym momencie. Na przykład
inne ubezpieczalnie mogą również wykorzystywać efekt gapowicza
i obniżać ceny, co sprawi, że cała procedura stanie się nieopłacalna.
(...) Jednak takie obiekcje nie trafiają w sedno problemu. Istnienie
ubezpieczeń i rynku na opcje budowlane typu call powodują, że
klasycznie przedstawiany przypadek niedostarczania w ogóle usług
bezpieczeństwa nie może prowadzić do stanu równowagi rynkowej15.
Jak wskazuje bowiem powyższa analiza, czyste okazje do zysku ist-
nieją, tym samym nie jest możliwe, żeby w „wolnym”16 społeczeń-
stwie nie produkowano obrony przeciwpowietrznej w opisanych
warunkach (Murphy 2004, s. 7, tłum. SK).

15
Przeciwnie twierdzi ekonomia mainstreamowa.
16
Poprzez „wolne” autor ma tu na myśli bezpaństwowe, anarchistyczne społe-
czeństwo, zapewniające sobie ład społeczny wyłącznie mechanizmami rynkowymi.
118 STANISŁAW KWIATKOWSKI

Podsumowanie

Przedstawiony fragment debaty na temat dóbr publicznych to jedynie


wąski jej wycinek. Pominięto rozwinięcie teorii Samuelsona m.in. u Jame-
sa Buchanana i alternatywną teorię Ronalda Coase’a. Mimo to autor ma
nadzieję, że wykazał, iż zawarta w podręcznikach popularna wersja teo-
rii przemilcza wiele argumentów przeciwko państwowej produkcji dóbr
publicznych. Nie oznacza to, rzecz jasna, że dobra publiczne – zgodnie
z definicją Samuelsona – nie powinny być dostarczane przez państwo. Ist-
nieją inne argumenty za tym, aby państwo dostarczało pewnych usług
obywatelom, finansując je z przymusowych danin. Niemniej jedna z kla-
sycznych teoretycznych konstrukcji była i jest podważana przez przedsta-
wicieli szkoły austriackiej. Konstrukcja ta nie zawsze jest prawdziwa, jak
wydawało się Samuelsonowi na gruncie jego podejścia metodologicznego.
Krytycy zwracają uwagę na trzy aspekty analizy Samuelsona. Po pierwsze,
nie odnosi się on do istniejących mechanizmów rynkowych, które można
wykorzystać w procesie dostarczania dóbr publicznych. Po drugie, posłu-
guje się narzędziami, które wypaczają analizę i prowadzą do sformułowa-
nia modelu nieuwzględniającego rzeczywistych możliwości dostarczania
dóbr publicznych. A po trzecie, pomija w swoim modelu te elementy sys-
temu rynkowego, na które zwracają uwagę późniejsi badacze.
Krytyczne spojrzenie na teorie Samuelsona i Austriaków kieruje naszą
uwagę na jeszcze jeden istotny fakt. Abstrahując od wątpliwości metodo-
logicznych, krytycy Samuelsona nie obalili modelu tak, aby móc powie-
dzieć, że nie opisuje on rzeczywistego świata. To, czym się zajęli, to raczej
wykazanie, że opis ten pomija inne metody internalizowania kosztów niż
bezpośrednia wymiana pieniądza za nabywane dobro, które przecież nie
jest jedyną rynkową możliwością.
Wydaje się, że czytelnik rozległej literatury przedmiotu może być za-
skoczony obfitością kontrargumentów przeciwko teoriom, które bezkry-
tycznie przytacza zdecydowana większość podręczników i tekstów popu-
larnych. Szersza lektura ukazuje wizję o wiele bardziej złożoną, niż można
by sądzić na podstawie pobieżnej analizy popularnych źródeł. W literatu-
rze, wbrew pozorom, można znaleźć sporo kontrpropozycji dla państwo-
wego dostarczania dóbr publicznych.
Trudno ocenić, z czego wynika dość znaczna, jak się wydaje, podatność
modelu Samuelsonowskiego na omawiane głosy krytyki. Warto jednak
podzielić się prostym spostrzeżeniem: Austriacy nie stosują sztywnych for-
malnych modeli, po które sięga Samuelson ze względu na ich podatność
na badanie narzędziami analizy matematycznej. Można przypuszczać, że
równowagowe myślenie o skomplikowanych zjawiskach ekonomicznych
siłą rzeczy pomija ich zanurzenie w instytucjonalnym otoczeniu. Co wię-
cej, korzystanie ze współczesnej analizy ekonomii matematycznej wymaga
wielu ukrytych założeń, gdyż traktuje dyponujących wolną wolą uczest-
ników rynku w sposób uproszczony, sprowadzając ich do roli automatów,
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 119

reagujących na bodźce zgodnie z zadanymi mapami użyteczności. Jest to


jednak temat na kolejną analizę, tym razem ściśle metodologiczną.
Autor ma nadzieję, że ten tekst będzie zachętą do uważnego śledzenia
debat w teorii ekonomii. Różne perspektywy metodologiczne prowadzą
często do różnych wniosków. Wydaje się wręcz, że niektóre odkrycia teore-
tyczne są niemożliwe przy zastosowaniu niektórych metodologii. W myśl
anarchizmu metodologicznego Paula Feyerabenda autor nie przyznaje
prymatu żadnej metodologii, lecz jedynie proponuje refleksję nad ogra-
niczeniami każdej z nich. Jednak wbrew Feyerabendowi nie zgadzamy się
z opinią, że wszystkie metodologie są równie dobre. Stosunkowo łatwiej
jest odrzucić jakąś metodologię, niż przyjąć alternatywną. W opinii auto-
ra konieczne są epistemologiczna świadomość „ponurej nauki”, jak zwa-
na była w przeszłości ekonomia, zdrowy rozsądek i unikanie logicznych
sprzeczności. Jak się wydaje, specyficzne problemy poznawcze ekonomii,
wbrew twierdzeniom Samuelsona, mają spore znaczenie, co stawia na-
ukowca w sytuacji tyleż ciekawej, co trudnej: może on próbować zmieniać
metodologię swojej nauki, jednocześnie narażając się na usunięcie poza
ekonomiczny mainstream. Jednak, jak dowodził Thomas Kuhn, paradyg-
maty naukowe czy metodologiczne przychodzą i odchodzą, ostatecznie
zaś pamięta się tych naukowców, którzy doprowadzili do naukowych re-
wolucji. Warto również przypomnieć inną tezę tego wybitnego filozofa:
nauka nie musi być nieustającym „marszem ku światłości”. Wbrew temu,
co twierdzi wigowska teoria historii, wiedza raz uzyskana bywa tracona
i zastępowana starymi, błędnymi koncepcjami. Warto więc czasem spoj-
rzeć krytycznym okiem na osiągnięcia ekonomii, które od lat uznawa-
ne są za prawdziwe i odkrywcze. Czasem może się okazać, że były tylko
chwilowym zejściem z właściwej drogi.
120 STANISŁAW KWIATKOWSKI

Bibliografia

Antonów Radosław, 2004, Pod czarnym sztandarem, Wrocław, Wydawnictwo Uni-


wersytetu Wrocławskiego.

Blaug Mark, 2000, Teoria Ekonomii. Ujęcie retrospektywne, Warszawa, PWN.

Block Walter, 1983, Externalities and Public Goods: The Case of Roads, „Journal of
Libertarian Studies”, vol. 7, no. 1.

Böhm-Bawerk Eugen von, 1949, Karl Marx and the Close of his system, New York,
Kelley.

Caplan Bryan, 1997, Why I Am Not An Austrian Economist, http://www.gmu.edu/


departments/economics/bcaplan/whyaust.htm

Coase Ronald, 1960, The Problem of Social Cost, „The Journal of Law and Economics”,
vol. 3.

Douhan Robin, Eliasson Gunnar, Henrekson Magnus, 2007, Israel M. Kirzner: An


Outstanding Austrian Contributor to the Economics of Entrepreneurship, „Small
Business Economics”, vol. 29.

Foss Nicolai, 1994, The Theory of the Firm: The Austrians as Precursors and Critics of
Contemporary Theory, „The Review of Austrian Economics”, vol. 7.

Friedman Milton, 1966, The Methodology of Positive Economics, w: Friedman Milton,


1953, Essays in Positive Economics, Chicago, The University of Chicago Press.

Glapiński Adam, 2005, Meandry historii ekonomii. Między ekonomią a poezją, Warsza-
wa, Oficyna Wydawnicza SGH.

Gordon David, 1986, Hermeneutics Versus Austrian Economics, Auburn, Mises


Institute.

Hauwe Ludwig van den, 2007, Did F. A. Hayek Embrace Popperian Falsificationism?
A Critical Comment About Certain Theses of Popper, Duhem and Austrian Methodo-
logy, „Procesos de Mercado – Revista Europea de Economía Política Primavera”,
vol. 4, no. 1.

Hennecke Hans Jörg, 2007, Friedrich August von Hayek – Die Tradition der Freiheit,
Düsseldorf, Wirtschaft und Finanzen.

Holcombe Randall, 2007, A Theory of The Theory of Public Goods, „Review of Aus-
trian Economics”, vol. 10, no. 1.
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 121

Holcombe Randall, 2008, Why Does Government Produce National Security, „Public
Choice”, vol. 137.

Hoppe Hans-Hermann, 1989, Fallacies of the Public Goods Theory and The Production
of Security, „Journal of Libertarian Studies”, vol. 9, no. 1.

Hoppe Hans-Hermann, 1995, Economic Science and the Austrian Method, Auburn,
Mises Institute.

Hoppe Hans-Hermann, 1998, The Private Production of Defense, „Journal of Liber-


tarian Studies”, vol. 14.

Huerta de Soto Jesús, 1998, The ongoing Methodenstreit of the Austrian School, „Jour-
nal des Economistes et des Etudes Humaines”, vol. 8, no. 1.

Hülsmann Jorg Guido, 2007, Mises: The Last Knight of Liberalism, Auburn, Mises
Institute.

Klein Daniel, 1987, Tie-Ins and the Market Provision of Collective Goods, Harvard,
„Journal of Law and Public Policy”, vol. 451.

Knight Frank, 1999, What is Truth in Economics, w: Selected Essays by Frank H. Knight,
red. Emmett Ross B., Chicago, Chicago University Press.

Kvasnička Michal, 2008, Rothbard’s Welfare Theory: A Critique, „New Perspectives


on Political Economy”, vol. 4, no. 1,

Kwaśnicki Witold, 1996, Knowledge, Innovation and Economy. An Evolutionary Explo-


ration, Cheltenham-Brookfield, Edward Elgar.

Laffont Jean-Jacques, Martimort David, 2002, The Theory of Incentives: The Princi-
pal-agent Model, Princeton, Princeton University Press.

Landreth Harry, Colander David C., 2005, Historia myśli ekonomicznej, Warszawa,
Wydawnictwo Naukowe PWN.

Manne Henry, 1965, Mergers and the Market for Coporate Control, „The Journal of
Political Economy”, vol. 73, no. 2.

Menger Carl, 2007, Principles of Economics, Auburn, Mises Institute.

Mises Ludwig von, 1957, Theory and History: An Interpretation of Social and Economic
Evolution, New Haven, Yale University Press.
122 STANISŁAW KWIATKOWSKI

Mises Ludwig von, 1960, Epistemological Problems of Economics, Princeton, Prince-


ton University Press.

Mises Ludwig von, 2007, Ludzkie działanie. Traktat o ekonomii, Warszawa, Instytut
Misesa.

Mises Ludwig von, 2008, Dlaczego napisałem „Ludzkie działanie”?, Instytut Misesa,
http://mises.pl/699/

Murphy Robert, 2002, Chaos Theory. Two Essays on Market Anarchism, New York, RJ
Communications LLC.

Murphy Robert, 2004, Private Solutions to Positive Externalities: Military Expendi-


tures, Insurance, and Call Options, Auburn, Mises Institute.

Posner Richard A., 1993, Nobel Laureate: Ronald Coase and Methodology, „The Jour-
nal of Economic Perspectives”, vol. 7, no. 4.

Robbins Lionel, 1945, An Essay on the Nature and Significance of Economic Science,
London, Macmillan.

Rothbard Murray N., 1956, Toward a Reconstruction of Utility and Welfare Economics,
w: On Freedom and Free Enterprise: The Economics of Free Enterprise, red. Senn-
holz May, Princeton, Princeton University Press.

Rothbard Murray N., 2005, O nową wolność. Manifest libertariański, Warszawa, Fun-
dacja Odpowiedzialność Obywatelska.

Rothbard Murray N., 2007, The Hermeneutical Invasion of Philosophy and Economics,
„Review of Austrian Economics”, vol. 3.

Samuelson Paul, 1948, Consumption Theory in Terms of Revealed Preference, „Eco-


nomica”, New Series, vol. 15, no. 60.

Samuelson Paul, 1952, Economic Theory and Mathematics – An Appraisal, „The Amer-
ican Economic Review”, vol. 42.

Samuelson Paul, 1954, The Pure Theory of Public Expenditure, „Review of Economics
and Statistics”, vol. 36.

Samuelson Paul, 1955, A Diagrammatic Exposition of a Theory of Public Expenditure,


„Review of Economics and Statistics”, vol. 37.

Samuelson Paul, 1963, Problems of Methodology – Discussion, „The American Eco-


nomic Review”, vol. 53.
Teoria dóbr publicznych i rynkowe mechanizmy ich produkcji 123

Samuelson Paul, 1964, Theory and Realism. A Reply, „The American Economic Re-
view”, vol. 54.

Samuelson Paul, 1965, Foundations of Economic Analysis, New York, Atheneum.

Samuelson Paul, 1997, Credo of a Lucky Textbook Author, „The Journal of Economic
Perspectives”, vol. 11, no. 2.

Samuelson Paul, Nordhaus William, 1998, Ekonomia 2, Warszawa, Wydawnictwo


Naukowe PWN.

Sechrest Larry, 2003, Private Provision of Public Goods: Theoretical Issues and Some
Examples from Maritime History, Auburn, Mises Institute.

Smith Barry, 1990, The Question of Apriorism, „Austrian Economics Newsletter”,


jesień 1990.

Šima Josef, Introduction to the Logic of Social Action. Law & Economics Primer.
http://libinst.cz/osobni/sima/law_and_economics/BOOK_print.doc.

Tannehill Linda, Tannehill Morris, 2005, Rynek i wolność, Warszawa, Fijorr


Publishing.

White Lawrence, 1977, The Methodology of the Austrian School Economists, New
York, Center for Libertarian Studies.

Wong Stanley, 1973, The „F-Twist” and the Methodology of Paul Samuelson, „The
American Economic Review”, vol. 63.

Zorde Kristof, 2004, Metafizyczne wątki w ekonomii, Warszawa, Wydawnictwo


Naukowe PWN.
Mateusz Machaj jest adiunktem w Instytucie Nauk Ekonomicznych
i Społecznych Uniwersytetu Przyrodniczego we Wrocławiu. W 2009 roku
obronił pracę doktorską Prawa własności w systemie kapitalistycznym
i socjalistycznym – studium porównawcze napisaną pod kierunkiem
prof. Kwaśnickiego.
Mateusz Machaj

RY N KOWA S T O PA P R O C E N T OWA A S Y S T E M C E N OW Y

Zagadnienie stopy procentowej ma długą historię i zawsze budziło wie-


le emocji, ponieważ dotyczyło kosztów kredytu. Ostatnio dyskusje na ten
temat, zwłaszcza w teorii neoklasycznej, nabrały charakteru sofistycznych
sporów, w których trudno doszukać się związku z rzeczywistością. Celem
tego rozdziału jest prezentacja stopy procentowej jako pewnej szczególnej
ceny pieniężnej. Nie twierdzimy przy tym, że stopa jest zjawiskiem tylko
pieniężnym w sensie Keynesowskim – co by znaczyło, że można ją trwale
obniżać za pomocą wzrostów podaży pieniądza. Przeciwnie – uważamy,
że stopa jest zjawiskiem pieniężnym, lecz głęboko zależnym od czynni-
ków „realnych”, i właśnie dlatego nie może być trwale i skutecznie mani-
pulowana przez politykę pieniężną.
Najpierw przedstawimy problem stopy z punktu widzenia historii
„ekonomii politycznej” i pokażemy, co było pierwotnym celem teorii
stopy procentowej. Następnie zajmiemy się, naszym zdaniem, nie do
końca trafnymi uzasadnieniami procentu przez szkoły neoklasyczną
i austriacką, które oddaliły analizę natury stopy procentowej od jej
najistotniejszych problemów. Potem przedstawimy rolę stopy procen-
towej w procesie imputacji. Na końcu zaś pokażemy, że zasadniczy
problem makroekonomii głównego nurtu polega na braku właściwej
teorii stopy.

Stopa procentowa ja ko cena


a radyka l na k r y t yka ekonom ii
Pobieżny rzut oka na gospodarkę pozwala na konstatację, że stopa pro-
centowa to pewna cena za poświęcenie posiadanych oszczędności na daną
inwestycję, spełniająca konkretną funkcję ekonomiczną. Dla dziewiętna-
stowiecznych debat istotne było, czy cena ta spełnia korzystne funkcje
ekonomiczne, czy też jest raczej przeszkodą w budowaniu dobrobytu, któ-
rą należy zlikwidować za pomocą radykalnej reformy instytucjonalnej,
czyli przez poważne ograniczenie własności prywatnej, lub też jej całko-
wite podważenie.
126 MATEUSZ MACHAJ

Mamy tutaj na myśli zwłaszcza dwa nurty w historii myśli: kry-


tyków tak zwanego „prawa Saya” (także jego „miękkiej” wersji) oraz
socjalistów i marksistów. W rozumieniu tych ostatnich stopa procen-
towa była niesprawiedliwą ceną, która umożliwiała wyzyskiwanie
robotników i była uprzedmiotowieniem pozyskiwania wartości do-
datkowej z pracy proletariatu. A skoro wartość dodatkową i wyzysk
proletariatu należy znieść, to zapewne podobny los miałby spotkać
stopę procentową1.
Podobne stanowisko zajmowali radykalni krytycy prawa Saya. Prawo
Saya, wychodząc z założenia, że produkcja poprzedza konsumpcję, ma na
celu opis funkcjonowania rynków podaży i popytu w kontekście gospo-
darki pieniężnej i mechanizmu cen. W swojej najbardziej miękkiej wersji
głosi ono, że w gospodarce rynkowej nie istnieją zasadnicze powody, któ-
re uniemożliwiałyby zapobieganie cyklicznym kryzysom gospodarczym.
Swobodne funkcjonowanie wyceny dóbr i usług powinno być w tej mierze
wystarczające, nawet jeśli czasem zdarzają się kryzysy (Blaug 2000, s. 167
i nast.).
Krytyków Saya można podzielić na dwie grupy. Pierwsza, do której
zalicza się większość, dyskutuje nad długością procesu dostosowaw-
czego i tym, jakie koszty mogą się wiązać z oczyszczaniem rynków
i pewnymi „hamulcami” przepływu, które łączą się z istnieniem pie-
niądza w gospodarce. Do tej grupy moglibyśmy zaliczyć współczesnych
nowych keynesistów, którzy raczej zgodziliby się na „miękką” wersję
prawa Saya. Druga grupa natomiast to radykalni przedstawiciele teorii
podkonsumpcji, dla których sam problem wiąże się nie tylko z istnie-
niem specyficznego rynku, rynku pieniądza, lecz w ogóle z istnieniem
takiego zjawiska jak stopa procentowa. Problemów gospodarki rynko-
wej nie upatrują w hamulcach przepływu pieniądza (sztywnościach
nominalnych etc.), lecz twierdzą, że polega on na tym, iż część docho-
du społecznego wypływa z systemu gospodarczego w postaci procen-
tu, a więc wynagrodzenia dla kapitału. Stąd umiarkowani przeciwnicy
Saya twierdzą, że pieniądz nie przepływa w sposób skoordynowany
z istniejącymi cenami. Przeciwnicy radykalni zaś utrzymują, że prze-
szkodę w sprawnym przepływie tworzy jedna specyfi czna cena: wyna-
grodzenie dla kapitalistów, czyli właśnie procent, który jest większy od
zera.
W XIX wieku przedstawiciele teorii ekonomii stanęli przed wyzwa-
niem rzuconym przez dwa radykalne obozy socjalistyczne (lub socjalizują-
ce); jeden chciał znacjonalizować gospodarkę, drugi zaś znacjonalizować
kredyt. W odpowiedzi na to wyzwanie musieli przedstawić teorię stopy
procentowej jako zjawiska „naturalnego” dla gospodarki rynkowej, to
znaczy takiego, które nie jest skazą na systemie gospodarowania, lecz nie-

1
Choć inaczej uważali socjaliści rynkowi tacy jak Oskar Lange.
Rynkowa stopa procentowa a system cenowy 127

zbędnym elementem efektywnej alokacji zasobów, a wynika z pewnych


fundamentalnych realnych czynników.

Stopa procentowa ja ko cena w system ie


gospodarczy m a teoria imputacji
Najlepiej opisać zjawisko stopy procentowej przez jej empiryczną
identyfi kację: stopa procentowa to fi zyczna nadwyżka jednostek pie-
niężnych, która powstaje wskutek wydatkowania posiadanego kapitału
pieniężnego. Nie może to być jakikolwiek wydatek, lecz wydatek specy-
ficzny, ponoszony właśnie w celu osiągania takiej fi zycznej nadwyżki.
Nie jest to wobec tego wydatek mający przynieść jakąś subiektywną
użyteczność (lub precyzyjniej: wyłącznie subiektywną użyteczność)
w postaci dobra konsumpcyjnego (jak to się dzieje, gdy wydajemy pie-
niądze na coś, co zaspokaja naszą potrzebę), lecz wydatek już z zało-
żenia mający przynieść pewną fi zyczną nadwyżkę pieniędzy w postaci
zwrotu kapitału z nawiązką. Debata na temat stopy procentowej to-
czy się wokół kwestii tej nawiązki, rozumianej jako fizyczna nadwyżka
pieniędzy.
Wyjaśnienie takiej nadwyżki wymaga skupienia się na czynnikach po-
daży i popytu na rynku stopy procentowej, podobnie jak w wyjaśnieniu
funkcjonowania cen na dowolnym rynku. Czynnikiem podażowym są
ludzie oszczędzający pieniądze, którzy nie chcą ich skonsumować, to zna-
czy wydać na dobra zaspokajające bieżące potrzeby, lecz wolą je zacho-
wać na później. Mogą zwiększyć popyt na pieniądz i trzymać go w sal-
dzie gotówkowym na przyszłe potrzeby. W tym czasie jednak pojawia się
czynnik popytu – skoro posiadający pieniądz gotowi są na razie z niego
nie korzystać, to pojawiają się przedsiębiorcy, którzy pragną jednak go
spożytkować. Chcą skorzystać z jego siły nabywczej, a więc z tego, że pie-
niądz jest powszechnie akceptowanym środkiem wymiany (na przykład
dokonają zakupu czynników produkcji od ludzi akceptujących w zamian
za nie pieniądz).
Aby jednak nabyć pieniądz, muszą zapłacić za niego pewną cenę jego
posiadaczom, czyli oszczędzającym. Cena ta wynika z tego, że w zamian
za pieniądz przedsiębiorca (pożyczający) oferuje jego posiadaczowi do-
bro przyszłe, czyli obietnicę wypłaty pieniędzy za jakiś czas. Takie dobra
przyszłe jednak różnią się od pieniędzy dzisiejszych, ponieważ oddając
pieniądze na jakiś czas (w zamian za obietnicę przyszłych), ich posiadacz
traci niezwykle ważną funkcję i użyteczność pieniędzy w saldzie gotówko-
wym: możliwość sprzedania ich na rynku, gdyż jest to najbardziej płynne
dobro. Weksel czy obietnica przyszłych pieniędzy jest dobrem zdecydo-
wanie mniej płynnym w świecie niepewnym. Wobec tego wymiana ta
– wymiana pieniędzy dzisiejszych w zamian za przyszłe – nie odbywa się
w takiej sytuacji w stosunku 1:1. Oddanie stu jednostek pieniądza dzisiaj
128 MATEUSZ MACHAJ

w zamian za sto jednostek pieniądza jutro oznaczałoby, że nie ma się uży-


teczności z posiadania pieniądza. Istnienie pieniądza w gospodarce jest
jednak dowodem na to, że taka użyteczność istnieje.
Stąd stopa procentowa jest ceną, którą pożyczający płacą w zamian
za to, że jego posiadacze tracą użyteczność z jego posiadania na czas
pożyczki. W tym znaczeniu częściowo rację ma Keynes, gdy sugeruje,
że stopa procentowa ma związek z preferencją płynności (ale tylko wte-
dy, gdy saldo gotówkowe zwiększa się kosztem wydatków na oszczęd-
ności-inwestycje, a nie na konsumpcję)2 . W całości zaś należy przyznać
rację Böhm-Bawerkowi, gdy mówi, że stopa istnieje, ponieważ dobra
przyszłe mają mniej zastosowań niż dobra dzisiejsze3. Stanowisko tego
pierwszego bierze się stąd, że stopa procentowa to, jak już wspomnie-
liśmy, fi zyczna nadwyżka pieniędzy. Pogląd tego drugiego natomiast
ma związek z tym, że kluczową rolę w tej nadwyżce odgrywają ludzkie
potrzeby, kwestia, kiedy się pojawiają, a także realna, nie nominalna
wartość kapitału4.
Z punktu widzenia podaży stopa pełni istotną funkcję w procesie
imputacji cenowej, gdyż motyw osiągania pozytywnych zwrotów na
pożyczony kapitał niesie ze sobą wiele niezwykle korzystnych efektów
zewnętrznych.
Przedsiębiorcy, starając się antycypować potrzeby konsumentów i ich
decyzje co do zakupu produktów, poszukują dysproporcji cenowych mię-
dzy cenami zakupu czynników produkcji a cenami sprzedaży produktów.
Przeszacowanie przez nich kosztów oznacza, że poniosą straty. Wypatrze-
nie niedoszacowanych kosztów otwiera drogę do zysku. Przedsiębiorcy
szukają zatem niedowartościowanych czynników produkcji, które mają
„maksymalizować” w danych warunkach stopę zwrotu na kapitał. Poszu-
kiwanie wysokiej stopy zwrotu oznacza potencjalny proces dostosowaw-
czy: przesuwanie zasobów z miejsc, gdzie są niedowartościowane, w stro-
nę alokacji umożliwiającej odpowiednie dowartościowanie. Postulując

2
Owa „preferencja płynności”, wbrew temu, co utrzymywał Keynes, nie jest
w żadnym razie siłą sprawczą. Ludzie chcieliby po prostu uzyskiwać opłaty za wiele
rzeczy. Nie tylko za oddawanie pieniędzy, ale za zwykłą konsumpcję również, gdyby
to było możliwe (oglądanie telewizji etc.). W wypadku pożyczek (pozbycia się pienią-
dza na jakiś czas) otrzymują procent nie dlatego, że istnieje „preferencja płynności”,
lecz dlatego że korzystający z pożyczki opłacają dzięki niej dzisiejsze wynagrodzenia
dla czynników produkcji, które stworzą dobro cenne w przyszłości.
3
Przyszłe pieniądze mają tylko potencjalnie przyszłe zastosowania. Dzisiejsze pie-
niądze mają zastosowania i dzisiejsze, i przyszłe. Przemiana pieniędzy dzisiejszych na
przyszłe oznacza zatem utratę pewnych ich potencjalnych zastosowań. Dziękuję za tę
uwagę Jackowi Kubiszowi.
4
Jak trafnie stwierdza Robert Murphy (2003, s. 127 i n.), pieniądze są „produk-
tywne” w subiektywnym sensie. Sprzedaż ich dzisiaj na rynku oznacza osiągnięcie
w przyszłości zysku, tak samo jak w każdym procesie produkcji jakichkolwiek dóbr
i usług.
Rynkowa stopa procentowa a system cenowy 129

w ślad za inspiracjami socjalistycznymi osiąganie przez przedsiębiorców


zerowej stopy procentowej, postulujemy zaniechanie dążenia do osiągania
takiej stopy zwrotu na kapitał. Jednakże rezygnując z osiągania pozytyw-
nej stopy zwrotu na kapitał, szkodzimy także procesowi alokacji zaso-
bów tam, gdzie mają służyć zwiększeniu produktywności. Wobec tego
odejście od osiągania dodatniej stopy zwrotu na kapitał (stopy procento-
wej) oznacza zrezygnowanie z celu efektywnej alokacji zasobów. Zakaz
osiągania dodatnich zwrotów oznacza de facto zakaz eliminacji błędnej
alokacji i sensownej wyceny czynników. Taki zakaz poskutkowałby rów-
nież znaczną redukcją oszczędności, zmniejszeniem źródła akumulacji ka-
pitału i wzrostu gospodarczego. Zadziałałby tutaj jak cena maksymalna
(maksymalna stopa procentowa w wysokości zero), powodując ogromny
niedobór na rynku.
W dodatku wolna stopa (jako rozbicie cen w czasie), będąca warun-
kiem sine qua non efektywnej produkcji, jest taką samą ceną w kapita-
lizmie jak ceny czynników produkcji, dóbr kapitałowych, ziemi i pracy.
Taka stopa jest elementem planu produkcyjnego – gdybyśmy ujęli w sche-
mat obieg okrężny, który obrazowałby, jak sumują się globalne wynagro-
dzenia w porównaniu z agregatowymi wydatkami, to w sytuacji braku
dynamicznych zmian w popycie na pieniądz okazałoby się, że księgowo te
sumy muszą się zgadzać. Suma pieniędzy, spływająca w postaci dochodów
dla czynników produkcji, równa jest całej sumie pieniędzy dóbr, które są
wydatkowane na inwestycje i konsumpcję5.
Nasze wyjaśnienie zjawiska stopy procentowej i podkreślanie jej
roli w wycenie czynników wystarcza, jak sądzimy, do obrony jej przed
atakiem przeciwników pobierania procentu. Inaczej jednak rzecz uj-
mują przedstawiciele teorii neoklasycznej i austriackiej, którzy wpraw-
dzie zgodzą się z naszą analizą, jednak próbują ją rozszerzać o inne
elementy.

5
Undergroundowe teorie podkonsumpcji (niedostatku popytu; klasyczny przy-
kład to Major Douglas) opierają się na wyszukaniu jakiegoś księgowego odpływu,
dochodu, który jakoś znika ze struktury wydatków (chodzi tu o procent na kapitał).
Na temat krytyki teorii podkonsumpcji w aspekcie agregatowej zgodności wydatków
i dochodów zob. np. North 1993, s. 256–258; zob. też bardziej wyrafi nowaną analizę
Hayeka (1929). Nawet model Keynesowski jest bardziej wyrafi nowany niż socjali-
styczne teorie podkonsumpcji, ponieważ zrównuje wydatki i dochody, a ich agrega-
towe wahania współwystępują albo z wahaniami podaży pieniądza, albo popytu na
salda gotówkowe. Tymczasem teorie typu Douglasa skupiają się na konkretnej cenie:
stopie procentowej, którą usilnie starają się wyrzucić poza obszar kalkulacji, i zakła-
dają, że uzyskiwane dyskonto (procent) musi jakoś umniejszać globalny popyt. Tym-
czasem tak nie jest. Stopa to tylko cena i kolejny zarobek, który potem jest na rynku
wydawany (albo na konsumpcję, albo na kolejne inwestycje). Innymi słowy, robot-
nicy wcale nie muszą dostawać tyle pieniędzy, ile wynosi wartość produktu, który
wytworzą, aby popyt wystarczył na kupno podaży. Część pieniędzy może spłynąć
do rąk kapitalistów, którzy tym samym nie umniejszą w żaden sposób „efektywnego
popytu”.
130 MATEUSZ MACHAJ

Stopa procentowa w teorii neok lasycznej


i aust r iack iej

Szkoły neoklasyczna i austriacka, chcąc obronić stopę procentową jako


naturalną cenę w systemie gospodarczym, próbowały ją powiązać z ja-
kimiś czynnikami realnymi (słowo „realnymi” rozumiano w dosyć oso-
bliwy sposób: to znaczy z takimi czynnikami, które nie mają związku
z istnieniem pieniądza). W tym celu tworzą model, w którym istnieje jakaś
stopa zwrotu, wyrażana w jednostkach fizycznych lub innych.
Szczególnie widoczne jest to w przypadku uzasadnień neoklasycz-
nych, które korzystają z różnych wariantów „rośliny” Robinsona Crusoe.
Jest to model jednego dobra, dobra odtwarzalnego w naturalny sposób,
tj. w postaci naturalnego przyrostu, wynikającego z immanentnej fizycz-
nej produktywności. Ta produktywność ma być czynnikiem decydującym
o istnieniu stopy procentowej, która z konieczności musi być dodatnia,
ponieważ roślina się rozrasta. Można zobrazować to na przykładzie lasu,
którego naturalne tempo wzrostu wynosi 5% rocznie. Ponieważ taka jest
naturalna produktywność lasu, to różnica między początkiem a koń-
cem roku wynosi 5%. Stąd fizyczne dyskontowanie nakładów i efektów
w przypadku lasu. W podobny sposób teoria neoklasyczna próbuje tłu-
maczyć zjawisko dodatniej stopy procentowej jako rezultat pewnej ukrytej
produktywności w czynnikach produkcji.
Teoria ta ma wiele mankamentów, które łatwo wskazać. Opieranie się
na modelu jednego dobra jest wygodne, ponieważ zakłada homogenicz-
ność czynników produkcji i rzeczy, do których produkcji służą. Sprawy
jednak zaczną się komplikować, gdy rozpatrzymy produkcję heteroge-
niczną (taką, z jaką mamy zazwyczaj do czynienia w rzeczywistości). Jak
wskazać na immanentną fi zyczną produktywność czynników w przy-
padku produkcji książki, skoro do jej produkcji nie używa się książek,
lecz heterogenicznych czynników, takich jak papier, druk, farba, ma-
szyna etc.? Wystarczy już samo rozszerzenie modelu z jednym dobrem
na model z dwoma dobrami, a sprawy się komplikują i ważniejszą rolę
zaczynają odgrywać relacje wymienne między dobrami. Neoklasyczne
podejście opiera się na stosowaniu w modelu jednego dobra (Solow 1955,
s. 101).
Najważniejszy problem wiążący się z teorią neoklasyczną zauważył
Böhm-Bawerk. Przykład naturalnej produktywności (cokolwiek miałby
ten termin oznaczać) danego czynnika produkcji tłumaczy tylko daną
cenę tego czynnika, ale nie dyskonto między jego obecną ceną a przyszłymi
zarobkami z tytułu zatrudnienia. Załóżmy, podobnie jak w jednym z przy-
kładów, że jakaś maszyna ma pewną wysoką fizyczną produktywność
i może produkować ogromne ilości jakiegoś dobra, które będzie sprze-
dawane po wysokiej cenie. Te przyszłe strumienie przychodów z tytułu
zatrudnienia maszyny oznaczają jej wysoką produktywność. Będzie to za-
tem powód do tego, aby maszyna miała dzisiaj wysoką cenę. Jednakże ta
Rynkowa stopa procentowa a system cenowy 131

produktywność nie decyduje o stopie procentowej, lecz staje się bodźcem


do podbicia jej dzisiejszej ceny.
Jeśli zatem jakiś czynnik produkcji jest bardzo produktywny i przy-
niesie spore strumienie pieniędzy w przyszłości, to będzie to bodziec
do tego, aby podbijać jego dzisiejszą cenę. Natomiast teoria stopy pro-
centowej jako istotnego, dodatniego zjawiska, ma wyjaśnić, skąd bierze
się dyskonto, czyli różnica między dzisiejszą ceną maszyny a przyszłymi
przychodami z jej zatrudnienia. Innymi słowy, teoria ta ma pokazać,
dlaczego dzisiejsza cena maszyny nie jest równa sumie przyszłych przy-
chodów osiąganych z jej zatrudnienia. Gdyby te dwie wielkości się po-
krywały, stopa procentowa wynosiłaby zero (produktywność mogłaby
nadal być bardzo wysoka przy zerowej stopie). Na tym polega sedno
teorii stopy – pokazać, dlaczego dzisiejsza cena nie jest podbita do po-
ziomu produktywności samych czynników. Stopa jest wobec tego czymś
odrębnym od jakkolwiek rozumianej produktywności czynników.
W dodatku przez „produktywność” rozumie się raczej nie fizyczną zdol-
ność do pomnażania, lecz fizyczną zdolność do pomnażania, która przekła-
da się na większe pieniądze. Decyzja, czy zatrudnimy dodatkowego konia
na polu uprawnym, nie zależy od tego, jak dużą fizyczną produktywność
skrywa zarówno koń, jak i nasza ziemia, ale od tego, ile wynosi cena konia
oraz ceny produktów rolnych. Należy wobec tego w rozważaniach stopy
skupić się na wartościowaniu w pieniądzu (Shackle 1992, s. 196–197).
Przedstawiciele szkoły austriackiej, świadomi ograniczeń i nieścisło-
ści ujęcia neoklasycznego, postanowili inaczej podejść do kwestii stopy
procentowej, próbując ją wyjaśnić innymi czynnikami „realnymi” niż fi-
zyczna produktywność. Nadal jednak chcieli, aby to były realne czynniki
niemonetarne, to znaczy niepowiązane z istnieniem samego pieniądza.
Odwoływali się tutaj przede wszystkim do pojęcia „preferencji czasowej”,
które w miękkiej wersji jest do zaakceptowania przez wszystkich eko-
nomistów. Miękka wersja brzmi: ludzie ekonomizują swój czas. Poważ-
niejsze problemy jednak zaczynają się, gdy tę miękką wersję próbujemy
uściślać tak, aby miała precyzyjnie wyjaśniać zjawisko dodatniej stopy
procentowej.
Idąc w ślady Böhm-Bawerka, Fetter, Mises, Rothbard i Kirzner starali
się pokazać zjawisko rozbicia wartości między dobrami przyszłymi a te-
raźniejszymi. Ponieważ ludzie ekonomizują czas i dlatego wolą otrzymać
dobra dzisiaj zamiast później, to wartościują inaczej te dobra. Owo war-
tościowanie miałoby się stać przyczyną rozbicia cenowego. W podobny
sposób próbuje postępować Hülsmann (2002) – dla niego rozbicie warto-
ści występuje nie na płaszczyźnie czasowej, lecz teleologicznej – środki są
zawsze warte mniej niż cele, więc między pierwszymi i drugimi występuje
rozbicie wartości6.

6
Jak ktoś zasugerował, Hülsmann jednak nie ma racji, ponieważ ludzie nie wy-
bierają między środkami i celami, tylko między alokacją środków między różne cele.
132 MATEUSZ MACHAJ

Rozważania austriackie bez względu na to, czy uznamy je za słuszne,


czy też nie, pokazują ucieczkę od sedna teorii stopy procentowej i wyzwań,
przed jakimi ta teoria pierwotnie stała w świetle radykalnych krytyków
prawa Saya i socjalistów. Jeśli nawet zaakceptujemy któreś z proponowa-
nych wyjaśnień, to i tak nie wiąże się ono bezpośrednio z istotą problemu,
a więc ze stopą procentową jako fizyczną nadwyżką pieniędzy, która poja-
wia się w procesach produkcji w gospodarce pieniężno-towarowej. Może-
my uznać, że wartość przyszłych dóbr jest dyskontowana w stosunku do
wartości dóbr dzisiejszych, albo przyjąć, że wartość celów jest dyskonto-
wana w stosunku do środków. Nadal jednak w tym dyskontowaniu war-
tości nie ma deterministycznego powiązania, które oznaczałoby fizyczne
dyskonto ilości pieniędzy 7. Zamiast wobec tego uciekać w sofistyczne teorie
dyskonta wartości, lepiej pozostać przy sednie samej teorii stopy procen-
towej, ponieważ stopa procentowa od zawsze interesowała ekonomistów
jako coś pieniężnego i coś dodatniego. Jeśli stopa, rozumiana jako fizyczne
dyskonto jednostek pieniężnych, byłaby zerowa, to wszystkie kontrower-
sje znane nam z historii myśli łączące się z jej istnieniem znikają, cho-
ciaż austriackie dywagacje dotyczące wartościowania pozostają tak samo
istotne.

Stopa procentowa w dy namiczny m ujęciu


heterogenicznej str ukt ur y kapitał u
i kalkulacji kapitałowej
Stopa procentowa ma na celu godzić preferencje ludzi z dostępnymi
zasobami kapitałowymi. W tym kontekście nie sposób opisać hipotetycz-
nej funkcji stopy procentowej, która przypisywałaby wybranym zmien-
nym określone parametry w obrębie równowagowego modelu. W ogó-
le stworzenie modelu kapitału jest niemożliwe, aczkolwiek niezwykle
kuszące. Eugen von Böhm-Bawerk, jeden z najwybitniejszych ekonomi-
stów XIX wieku, mimo swojej niechęci do stosowania formalizmu ma-
tematycznego przedstawił statyczne ujęcie struktury kapitałowej, która

7
Mówiąc inaczej, różnice w wartościowaniu mogą zawsze pozostać. Powiedz-
my, że mamy transakcję A, w której jednostka oddaje dzisiaj 100 zł w zamian za
105 zł za rok. Mamy też transakcję B, gdzie jednostka wymienia 100 zł na 100 zł za
rok. W obydwu przypadkach mówimy o różnicy co do wartości i czasowej preferencji
(w przypadku B jednostka woli dostać 100 zł za rok niż dostać je jeszcze później).
Ale tylko w jednym przypadku mielibyśmy dodatnią pieniężną stopę procentową.
Dyskontowanie wartości nie jest wobec tego tak istotne, bo nie zawsze prowadzi do
fi zycznego dyskontowania pieniądza, co właśnie jest przedmiotem kontrowersji teo-
retycznych. To oczywiste, że ludzie mają preferencje czasowe, czyli wolą realizować
swoje cele szybciej niż później (bo czas jest rzadki), ale nie przekłada się to automa-
tycznie na fi zyczne dyskonto pieniędzy (choć ma to wpływ, na który się składa wiele
czynników).
Rynkowa stopa procentowa a system cenowy 133

w odpowiedzi na zmiany stopy procentowej odpowiednio się rozrasta


bądź w szczególnych przypadkach kurczy (Böhm-Bawerk 1959, t. 2,
s. 106–107). Na zaprezentowanym schemacie podzielił gospodarkę od-
powiednio na poszczególne kręgi:

Rysunek 1. Struktura produkcji

Każdy krąg oznacza jeden etap produkcyjny. Kręgi zewnętrzne sym-


bolizują wyższe stadia produkcyjne, bardziej oddalone od konsumpcji.
Krąg finalny, znajdujący się w samym środku, oznacza etap konsump-
cji, który następuje po procesie produkcji8. Kiedy ludzie zaczynają więcej
oszczędzać, mówimy o spadku czasowej preferencji ludności. Ten spadek
z kolei przekłada się na obniżkę stopy procentowej, uruchamiającą wcze-
śniej nieopłacalne inwestycje, jakie teraz można wspomóc dodatkowymi
oszczędnościami. Dzięki temu zasoby czynników produkcji mogą tworzyć
bardziej zewnętrzne kręgi i przez to „wydłużać” procesy produkcji, uży-
wając terminologii samego autora.
Do przedstawionego schematu jednak można mieć wiele zastrzeżeń,
ponieważ wynikają z niego nie tylko problemy dydaktyczne, ale także teo-
retyczne. Böhm-Bawerk niestety przyjął perspektywę równowagową, któ-
ra z jednej strony ułatwia analizę, z drugiej zaś pokazuje też jego nacisk na
realne aspekty gospodarki z jednoczesnym minimalizowaniem wyzwań,
jakie wiążą się z teorią pieniądza. Tylko wtedy możemy łatwo przełożyć
(lub przynajmniej próbować) zmiany czasowej preferencji na długość pro-
cesów produkcji, a przy tym zachować wygodną zasadę ceteris paribus,
gdy struktura produkcji jest jednolita i nie podlega istotnym wahaniom.
W dodatku model zostaje podparty założeniem o traktowaniu pieniądza
jako numeraire, pasywnej jednostki rozliczeniowej, która li tylko rozdziela

8
U Böhm-Bawerka było na odwrót, ale ze względu na nasze potrzeby odwracamy
tę ilustrację.
134 MATEUSZ MACHAJ

realne decyzje posiadaczy zasobów między konsumowanie i oszczędzenie


(a zatem w modelu mamy tak naprawdę równowagowe ceny-cienie; Varian
1999, s. 536). W ten sposób wyrzucając poza obrazek pieniądz i politykę
monetarną, w tym także teorię posiadania przez ludzi sald gotówkowych,
pozbywamy się problemów, których źródłem mogą być zakłócenia na
rynku pieniądza.
W duchu krytyki, którą Böhm-Bawerk, a w szczególności jego na-
stępcy zbudowali przeciwko schematom neoklasycznym, chcielibyśmy
uwolnić się od tej równowagowej skazy. Naszym celem jest odejście
od statycznego podejścia i wprowadzenie dwóch zmian do modelu.
Po pierwsze, nie zamierzamy trzymać się zasady ceteris paribus, któ-
ra na przykład wymaga zachowania technologii na stałym poziomie.
Po drugie, zamierzamy potraktować pieniądz jako rzadki towar, który
również ma swój rynek, poddany istotnym wahaniom. Te dwie zmia-
ny mają dla nas zasadnicze znaczenie. Będziemy bowiem mogli mó-
wić o tym, jak na gospodarkę wpływają „szoki technologiczne”, oraz
o tym, jak zmiany pieniężne mogą zaburzać wycenę czynników pro-
dukcji w pieniądzu.
Jak moglibyśmy udoskonalić schemat zaprezentowany przez Böhm-
-Bawerka? Proponujemy zamiast niego, naszym zdaniem, lepsze narzę-
dzie dydaktyczne, które z jednej strony przedstawia istotę ujęcia Böhm-
-Bawerka, z drugiej zaś pomaga wprowadzić do tego ujęcia kolejne, nie-
zwykle ważne kwestie. Spójrzmy na rysunek 2:

Stadia produkcji
Konsumpcja

Rysunek 2. Heterogeniczna struktura produkcji w ujęciu Böhm-Bawerka

Przede wszystkim w poszczególnych kręgach postanowiliśmy zazna-


czyć istnienie heterogenicznych dóbr kapitałowych, które ze względu na
swoje różne poziomy substytucyjności i komplementarności nie mogą być
dobrowolnie przesuwane do poszczególnych stadiów. Małe koła sym-
bolizują takie dobra, które nie mogą zostać sprowadzone do wspólnej
Rynkowa stopa procentowa a system cenowy 135

jednostki ze względu na swój charakter – do pewnego stopnia specyficz-


ny, a w jakimś stopniu niespecyficzny. Ponieważ każde dobro kapitałowe
ma swoje unikatowe i charakterystyczne cechy, mówimy o ich złożonym
charakterze, który na przykład nie może zostać prosto wyrażony w uni-
wersalnej jednostce fizycznej, tak jak to się dzieje w przypadku funkcji
Cobba– Douglasa. Funkcja ta dopuszcza daleko idące uproszczenia wraz
z negatywnym konsekwencjami w postaci pominięcia podstawowej cechy
fizycznego środowiska działającego człowieka.
Stopień zastępowalności czy specyficzności danego dobra kapitałowego
jest reprezentowany przez wielkość okręgu symbolizującego dane dobro.
Im okrąg większy, tym bardziej specyficzne dobro kapitałowe, które ma
wąskie zastosowania pasujące do mniejszej liczby etapów. Jeśli okrąg jest
mniejszy, to oznacza, że dobro kapitałowe jest bardziej niespecyficzne
i może być przesuwane i wpasowane łatwiej między poszczególne stadia.
Stąd na przykład żelazo będzie mniejszym okręgiem aniżeli młotek. Że-
lazo jako potencjalny surowiec ma dużo więcej możliwości zatrudnienia
niż sam młotek.
Strzałki na naszym rysunku wskazują na przykładowe możliwości alter-
natywnego wykorzystania czynników produkcji (ze względu na estetykę
rysunku umieszczamy ograniczoną liczbę strzałek). Każde dobro produk-
cyjne, symbolizowane przez okrąg na rysunku może zostać przesunięte
do innego procesu produkcji. Decyzja o przesuwaniu tych dóbr oznacza
rewizję planu produkcyjnego, która może wynikać z nieprzewidywalności
pewnej zmiany gospodarczej, powodowanej na przykład zmianami w po-
lityce pieniężnej lub innowacyjnymi odkryciami. Strzałka może być skie-
rowana w dowolnym kierunku, tak jak niespodziewana zmiana w proce-
sie produkcji może prowadzić albo do wydłużenia procesu produkcji, albo
do jego skrócenia.
Problem neoklasycznej ekonomii polega na tym, że zamiast przyj-
mować różne wielkości okręgów w modelach, proponuje zastąpienie ich
okręgami jak najmniejszymi, czyli de facto – punktami. Punkt tymcza-
sem symbolizuje dobro, które nie wykazuje najmniejszych cech specy-
ficzności i może być łatwo, a także bez kosztów umieszczane w dowol-
nym schemacie produkcji. Dlatego w neoklasycyzmie zamiast mówić
o heterogenicznym kapitale na poszczególnych stadiach, mówi się o ja-
kimś zasobie kapitałowym ogółem, który występuje w całej gospodar-
ce niczym galareta porozklejana między stadiami, tak jak punkty po-
ustawiane w wybranych kręgach. Zamiast zatem widzieć poszczególne
okręgi w kręgach, które oznaczałyby problemy dopasowania dóbr ka-
pitałowych, trudności adaptacyjne, ekonomista neoklasyczny widzi
wypełnione punktami kręgi, w których przemieszczanie punktów jest
niezwykle łatwe i nie wymaga kosztów. Podobnie jest z funkcją Cobba–
– Douglasa – w jej obrębie nie ma najmniejszych problemów z przenie-
sieniem jednej jednostki kapitału z jednego miejsca na drugie. Schemat
wyglądałby wobec tego następująco:
136 MATEUSZ MACHAJ

Stadia produkcji
Konsumpcja

Rysunek 3. Homogeniczna struktura produkcji w ujęciu neoklasycznym

Każde dobro produkcyjne jest nieskończenie małym punktem, więc


odpowiednio i bez kosztów podzielone zmieści się w każdym procesie pro-
dukcji. Między punktami nie ma również żadnej wolnej przestrzeni, która
oznaczałaby niedopasowania czasowe i oczekiwanie niektórych niezatrud-
nionych czynników produkcji na najbardziej opłacalny moment. Ich nie-
zatrudnienie bowiem oznaczałoby jedynie nieefektywność w porównaniu
z dziwnym światem neoklasycznej funkcji, gdzie każde dobro jest idealnie
podzielnie i potencjalnie dostosowywane do wszystkich procesów pro-
dukcji. W świecie realnym natomiast taka sytuacja nie zachodzi, w związ-
ku z czym pojawiają się momentami nie do końca wykorzystane czynniki,
czynniki pseudo-niewykorzystane (Hutt 2007, s. 45; idem 1977).
Warto tutaj również zwrócić uwagę na autentyczne odkrycie Böhm-
-Bawerka. W jego teorii nie chodzi bowiem tylko o wprowadzenie czasu
do analizy kapitału. Prawdziwe odkrycie Böhm-Bawerka polega na czymś
innym – jest nim heterogeniczność kapitału na tle upływu czasu. Dobrze
ujął to Lachmann:

Wbrew temu, co się powszechnie uważa, istotą wkładu Böhm-


-Bawerka w teorię kapitału nie było wprowadzenie czasu, lecz kom-
plementarności w czasie. W tym ujęciu z pewnością „zasób realnego
kapitału” jest przepływem, ale nie jest przepływem homogenicz-
nym (Lachmann 1947, s. 205).

Stąd wniosek, że nawet odrzucając pieniądz i teorię zmiany techno-


logicznej, system Böhm-Bawerka ma istotną przewagę nad neoklasycz-
nym. U Austriaka równowaga wciąż obejmuje kwestie komplementarności
i tego, jak poszczególne dobra produkcyjne muszą do siebie pasować, aby
osiągnąć równowagę. Ich przesunięcie oznaczałoby rozpad równowagi.
Rynkowa stopa procentowa a system cenowy 137

U neoklasyków natomiast przesunięcie dóbr z jednego miejsca na inne nie


zmieniłoby nic, ponieważ równowaga zostałaby zachowana przez idealne
dopasowanie.
Zaproponowana przez nas zmiana nie tylko pozwala uchwycić różnicę
między realistyczną (heterogeniczność) a wyimaginowaną (neoklasycz-
ną) teorią kapitału, ale także idzie dalej. Zależało nam również na tym,
aby porzucić statyczne założenia o ujednoliconej strukturze produkcji,
w której w warunkach stałej technologii i równowagi wynikającej z do-
brego przewidywania przyszłości przez przedsiębiorców, nie ma strat ani
zysków, więc siłą rzeczy nie ma koniecznych dostosowań między stadia-
mi. W stanie równowagi mielibyśmy poukładane kręgi, między którymi
w sposób przewidywalny przemieszczają się dobra komplementarne, by na
samym końcu wytworzyć dobro konsumpcyjne. Co więcej, w warunkach
przewidywalności preferencji i dostępności zasobów, a także braku zmian
technologicznych, proces produkcyjny rzeczywiście mógłby się tylko
wydłużać w celu wzrostu produktywności. A Böhm-Bawerk dostawałby
w prezencie swoje „wydłużanie procesów”. Innymi słowy, ujęcie Böhm-
-Bawerka można sprowadzić do tautologii – przyjmując założenia ceteris
paribus o stałości zasobów i technologii, o przewidywalności preferencji
oraz braku rynku pieniądza, rzeczywiście skazujemy model gospodarki
tylko na dwa ruchy – wydłużenie bądź skrócenie stadiów. Nam jednak nie
chodzi tylko o to, jak gospodarka równowagowa może wydłużać stadia
(bądź je skracać), lecz także o to, jak zmiana stadiów odbywa się w świe-
cie rzeczywistym, gdzie dominuje niepewność i nieprzewidywalne zmiany
w pieniężnym systemie cenowym.
Bez względu na to, jak dalece podejście Böhm-Bawerka jest przydatne
dla teorii, postulujemy pewne zdynamizowanie jego modelu i wprowa-
dzenie nowych elementów. Posłużymy się modelem poszerzonym o hete-
rogeniczne dobra w kręgach i założymy, że co chwila pojawiają się zmiany
technologiczne. Owe zmiany, mówiąc językiem neoklasycznym, powodują
radykalne zmiany „funkcji produkcji” (czyli zmieniają optymalne w danej
chwili rozwiązania). Dodajmy, że ponadto zachowania przedsiębiorców
i konsumentów nie są przewidywalne, wobec czego nie możemy mówić
ani o równowadze ogólnej, ani o zuniformizowanej strukturze produk-
cji, której długość dostosowuje się w prosty sposób do zmian preferencji
społecznych.
Innymi słowy, pozwalamy sobie na wprowadzenie małej anarchii
w naszym ujęciu przez wpuszczenie do niego demonów Shackle’a, któ-
re sieją niepewność i obracając kręgi o kilkadziesiąt stopni, tworzą przed
naszymi oczyma prawdziwie kalejdoskopowy obraz świata. Na czym mia-
łaby tutaj polegać owa kalejdyczna metoda? Obrócenie wszystkich krę-
gów o 90 stopni (co mogłoby symbolizować na przykład egzogeniczny
szok technologiczny) sprawi, że kapitałowe dobra komplementarne będą
musiały odnaleźć nowe miejsce zatrudnienia. Taka zmiana „funkcji pro-
dukcji” w języku neoklasycznym nie może jednak zostać zmodelowana,
138 MATEUSZ MACHAJ

ani kompletnie przedstawiona w teoretycznej konstrukcji. Obraz, jaki się


wyłania, będzie kalejdyczny, jeśli za punkt odniesienia przyjmiemy ład-
ne i przewidywalne kształty prostej geometrii neoklasycznej ekonomii.
Zamiast tego jednak lepiej jest mówić o różnych potencjalnych scenariu-
szach, które mogą się pojawiać w wyniku takiej kalejdycznej natury świa-
ta, oraz o tym, jaką rolę odgrywa w jej porządkowaniu własność prywat-
na i mechanizm rynkowy. Shackle stwierdza to w sposób następujący:

Koncepcję kalejdycznej równowagi (…) można porównać do łodzi


płynącej na burzliwych przypływach morza. Z pewnością łódź ma
zunifikowaną strukturę, ale to, co się z nią dzieje, nie będzie tylko
rezultatem jej konstrukcji (możliwości na odpowiedź na wpływ róż-
nych czynników, jej elastyczności), ale postawy, przeszkolenia i lo-
kalnej wiedzy załogi, a także zachowań innych sił otoczenia takich
jak: wiatry i fluktuacje polityczne, dyplomacja, technologia, moda
i społeczne przewroty. Możemy uzyskać wiedzę o tym, jak ekono-
miczna łódka będzie reagować na te bądź inne zmiany w siłach oto-
czenia; nie możemy mieć nadziei, że będziemy wiedzieć, jakie będą
te zmiany (Shackle 1992, s. 438).

Zgadzamy się z istotą przekazu Shackle’a co do niemożliwości zbu-


dowania kompletnego modelu świata gospodarczego, a także co do jego
uwagi na temat rozmaitości czynników decydujących, aczkolwiek uważa-
my, że szczególny czynnik, o którym Shackle zapomina, to struktura wła-
snościowa, rzecz jak najbardziej realna i dużo istotniejsza od oczekiwań,
których moc bywa przez niego przeceniana.
W kalejdycznej strukturze kapitału w wyniku zmian preferencji czy
technologii niektóre dobra kapitałowe są przenoszone z jednego stadium
do drugiego. Inne zupełnie wypadają poza istniejącą strukturę kręgów i ze
względu na brak potrzebnych dóbr komplementarnych pozostają nieza-
trudnione. Zamiast zunifikowanej struktury widzimy niewyraźne przeno-
szenie się dóbr między stadia. Jedne stadia stają się krótsze, inne dłuższe.
Przesuwanie czynników produkcji z jednego do drugiego nie ma związku
z długością procesów, o której rozprawiał Böhm-Bawerk. Shackle w swo-
jej radykalnej krytyce modeli równowagowych ma rację – ponieważ nie
istnieją regularności w gospodarce, prawa ekonomii stają się do pewnego
stopnia konwencją. Patrząc na świat gospodarczy przez pryzmat modeli
neoklasycznych, można dojść tylko do jednej konkluzji: ekonomia niewiele
mówi o rzeczywistości, w której następują ciągłe kalejdoskopowe zmiany,
czyli zmiany charakterystyczne dla gospodarki rynkowej, gdzie główną siłą
sprawczą są oczekiwania (Shackle 1992, s. 183–185)9.

9
Podobny krytycyzm ze strony Lachmanna zauważa Hicks, wybitny przedsta-
wiciel neoklasycznej ortodoksji: „Wielu z moich krytyków było (i z pewnością bę-
dzie) równowagowcami; ale jest jeden, którego bardzo szanuję, który przypuścił atak
Rynkowa stopa procentowa a system cenowy 139

Naszym zdaniem natomiast sytuacja wcale nie musi być tak beznadziej-
na, ponieważ ów wniosek jest rezultatem próby widzenia świata w aspek-
cie funkcji produkcji. Tak jednak nie musimy postępować, ponieważ dla
teorii ekonomii ważne powinno być przede wszystkim zastosowanie ana-
lizy pieniężnej i teorii monetarnej kalkulacji, która u nas również zajmuje
istotne miejsce.
Mówiliśmy o tym, że poszczególne dobra kapitałowe mają do pewne-
go stopnia specyficzny charakter, w związku z czym nie możemy trakto-
wać kapitału jako zasobu kapitałowego, który daje się łatwo modelować
niczym plastelina, elastyczna i dająca się przykleić w każdym miejscu.
Nie oznacza to jednak, że heterogeniczne dobra kapitałowe nie mogą
w pewien sposób zostać „uformowane”, to znaczy w miarę łatwo dosto-
sowane do zmienionych warunków. Otóż mogą, a więc ta funkcja jest za-
rezerwowana dla kalkulacji pieniężnej i wyceny czynników produkcji.
Panowanie w naszym ujęciu demonów Shackle’a oznacza, że nie
istnieją domknięte funkcje produkcji. Istniejące „funkcje” ulegają cią-
głym zmianom, co skutkuje nieregularnymi i nieprzewidywalnymi wa-
haniami w zatrudnieniu i decyzjach gospodarczych. Tymczasem taki
pozorny chaos, wynikający z ciągłych zmian, może zostać uporządko-
wany. Nawet jeśli jakiś czynnik produkcji jest całkowicie specyficzny,
to w zasadzie zawsze może znaleźć jakieś zatrudnienie – wystarczy, że
jego cena zostanie obniżona do odpowiedniego poziomu, gwarantują-
cego nabywcę jego usług. W praktyce dotyczy to każdego dobra pro-
dukcyjnego, które w wyniku nieprzewidzianej zmiany lub, ogólniej,
nieprzewidzianych zdarzeń gospodarczych znalazło się poza etapem
produkcji, będącym dotychczas miejscem jego zatrudnienia. Aby po-
nownie włączyć je w któryś z projektów gospodarczych, należy po pro-
stu obniżyć cenę tego czynnika, aby zachęcić innego przedsiębiorcę do
jego zakupu.
Naturalnie, taki proces dostosowawczy nie jest ani natychmiastowy,
ani pozbawiony kosztów podjętych działań. Wprost przeciwnie, proces
ten jest kosztowny i wiąże się często z upływem czasu niezbędnego na
koniecznie dostosowania. Nie implikuje to immanentnej nieefektywności
systemu cenowego, podobnie jak system cenowy nie jest wyrocznią, nie-
widocznym superkomputerem dostosowującym idealnie swoje parametry
(jak chcieliby nowi klasycy10). Odpowiedź jest zasadniczo inna, ponieważ

z innej flanki [ Lachmann] (…) Nie może, oczywiście, znieść stanu stacjonarnego.
Nawet najmniejszy jego użytek (…) będzie go napawał niechęcią. (…) Jego idealna
ekonomia nie jest tak odległa od mojej idealnej ekonomii, ale uważam ją za cel usta-
wiony w raju. Nie możemy mieć nadziei na jego osiągnięcie; musimy tylko zbliżać
się do niego tak bardzo, jak tylko można” (Hicks 1976, s. 275). Wydaje się jednak, że
niedoskonali śmiertelnicy mogą sobie pozwolić na realistyczną analizę ekonomiczną,
zanim znajdą się w raju.
10
Czy też Oskar Lange, który sugerował, że rynek to taki prymitywny mecha-
nizm obliczeniowy i maksymalizacyjny (Lange 1967). Stąd w jego ujęciu w przypadku
140 MATEUSZ MACHAJ

system cenowy jest czymś innym niż zasłoną skrywającą zaawansowa-


ne liczydło przed uczestnikami rynku. Ze względu na wspomniany brak
„naturalnej” jednostki dla zasobu kapitałowego system cenowy to jedyne,
co mamy, aby uczynić kapitał niejako „galaretą” – to znaczy, aby sprowa-
dzić go do jednej wspólnej jednostki – wartości pieniężnej. Mimo iż jest
to system niedoskonały, gdyż nie gwarantuje idealnej równowagi między
decyzjami ex ante a efektami ex post.
A zatem Shackle’owskie demony niepewności, które uporczywie ści-
gają równowagowe procesy, przeganiając je w każdej chwili (gdyż rów-
nowaga nigdy nie zostaje osiągnięta, ani nawet nie można powiedzieć, że
jest coraz bliżej), mogą zostać potencjalnie ujarzmione przez skonkretyzo-
waną metodę myślenia – kalkulację pieniężną. Wbrew temu, co sugeruje
nazwa, nie oznacza ona prostego liczenia, lecz intelektualne rachowanie
i spekulację. Najlepiej to oddaje najwybitniejszy teoretyk teorii kalkulacji
w ekonomii:

Zasadniczymi elementami kalkulacji ekonomicznej są progno-


zy co do przyszłych warunków oparte na domysłach. (…) Ra-
chunek kosztów nie jest zatem procesem arytmetycznym, który
mógłby zostać ustanowiony i kontrolowany przez neutralnego
arbitra. Nie operuje jednoznacznie określonymi wielkościami,
które można by obiektywnie ustalić. To, co w nim najważniej-
sze, wynika ze zrozumienia przyszłych warunków, zrozumienie
zaś z konieczności jest nacechowane oceną przedsiębiorcy co do
przyszłego stanu rynku. (…) Kalkulowanie kosztów, intelektual-
ne narzędzie działania, to świadomy plan, którego celem jest jak
najlepsze wykorzystanie dostępnych środków do poprawy przy-
szłych warunków. Z konieczności ma charakter wolicjonalny,
a nie obiektywny ( Mises 2007, s. 299).

Niepewność przyszłości, brak podatności gospodarki na proste


schematy predykcyjne i znane z góry przez uczestników rynku mo-
dele ekonomiczne, nie oznaczają zatem, że przedsiębiorcy są całkowi-
cie bezradni w racjonalnym projektowaniu i planowaniu produkcji.
Podstawą racjonalizacji heterogenicznej i nieuporządkowanej funk-
cjami produkcji struktury kapitałowej jest jej wycena w pieniądzu.
I tylko ona daje nam możliwość zaprowadzenia takiego porządku,
ponieważ świat gospodarczy jest zbyt złożony, aby dało się go spro-
wadzić do zamkniętego modelu, obejmującego wszystkie potencjalne
układy input i output, spośród których dałoby się następnie wykonać
optymalizację.

rynku lepiej chyba byłoby mówić o metafi zycznym „niewidzialnym liczydle”, a nie
jak Adam Smith o „niewidzialnej ręce”.
Rynkowa stopa procentowa a system cenowy 141

Rozszerzając koncepcję Shackle’a, nie interesuje nas, czy przebiegają-


cy tu proces jest „uporządkowany” w jakimś metaekonomicznym sensie.
Rozważania na ten temat przypominałyby rozważanie, czy dobro A ma
wysoką wartość, czy jej nie ma. Ekonomista zada pytanie umożliwiające
ocenę w ujęciu relatywnym: w porównaniu z czym dobro A ma mieć wy-
soką wartość? Porzucając zatem chęć osiągnięcia złotego metastandardu,
zwracamy się w stronę alternatywy. Analogicznie postępujemy w przy-
padku mechanizmu alokacji w gospodarce pieniężnej. Pytanie, czy go-
spodarka rynkowa jest w jakimś sensie „uporządkowana”, lepiej zadać,
gdy się doda: uporządkowana w porównaniu z którą gospodarką? A wtedy
porównuje się funkcjonowanie gospodarek rynkowych wolnych, gospo-
darek regulowanych i gospodarki planowanej.
Przejdźmy teraz do kalkulacji jako sposobu myślenia. Wszystkie czyn-
niki produkcji mają na rynku swoje ceny, a suma tych cen jest wyrazem
„wartości kapitałowej” posiadanych czynników produkcji. Obecna wyce-
na posiadanego zasobu produkcyjnego może być zestawiona z potencjal-
ną wyceną ich produktywnych owoców. W wyniku tego przedsiębiorcy
mogą dyskryminować poszczególne czynniki produkcji i adaptować je
do permanentnie reorganizowanej struktury gospodarki. Kalkulacja jest
wobec tego przedsiębiorczym szacowaniem, które polega na zestawianiu
posiadanego w księgach kapitału z potencjalnymi scenariuszami, które
można za jego pomocą zrealizować. Pozwala codziennie kapitalizować zy-
ski i straty, a więc jednocześnie rozpoznawać błędne i poprawne decyzje
gospodarcze.
Przedsiębiorcze rachowanie ma wytyczone granice. Przedsiębiorca ni-
gdy nie będzie mógł zrealizować dowolnego projektu, który mu się spodo-
ba, gdyż zawsze jest ograniczony wartością posiadanego kapitału (a ten
nigdy nie pozwala na zakupienie dowolnej liczby czynników produkcji).
A zatem kapitał oznacza ograniczenie – przedsiębiorca musi się liczyć
z tym, że za pomocą kalkulacji nie zdobędzie wszystkich środków posia-
danych przez innych.
Dotyczy to każdego czynnika produkcji. Jeśli jakiś czynnik produkcji
jest „zbyt drogi”, oznacza to, że znajduje się poza kapitałowym zasięgiem
przedsiębiorcy. I jednocześnie nie oznacza to rozwiązania nieefektywne-
go, lecz w danej chwili efektywne – analizowany przez nas czynnik ma
istotniejsze zatrudnienie lub też potencjalne (oczekiwane przyszłe) zatrud-
nienie, które uzasadni (bądź nie) jego wyższą cenę.
Nie znaczy to jednak, że uniknie się popełnienia błędów, a jeśli one
wystąpią, mechanizm cenowy spełnia dwa istotne zadania. Pierwsze to
przede wszystkim wykrycie popełnionych błędów. Bez wyceny kapitału
i czynników produkcji niemożliwe byłoby szacowanie ich produktywno-
ści i skutecznego zatrudnienia. Każda decyzja byłaby w zasadzie tak samo
dobra. Drugie zadanie polega na tym, że dzięki wykryciu i kapitalizacji
strat możliwa jest adaptacja do zmienionych warunków, czyli konieczne
dostosowanie produkcji.
142 MATEUSZ MACHAJ

Stopa procentowa jest jedną z takich cen, która pozwala godzić „prefe-
rencje czasowe” ludzi na ich indywidualnych horyzontach wraz z dostęp-
nymi zasobami kapitałowymi i technologicznymi, które ulegają ciągłym
zmianom. Aby to stwierdzić, nie potrzebujemy krępować teorii kapitało-
wej okowami ryzykownego konceptu ceteris paribus, który tak naprawdę
uniemożliwia badanie dynamicznych systemów, a przecież właśnie takim
systemem jest rozwijająca się gospodarka. Mechanizm rynkowy, rozumia-
ny jako wzajemne „równoważenie” popytu i podaży, w zasadzie działa
również, gdy czynniki, które go determinują, mają stały charakter, co nie
znaczy, że przestaje działać w sytuacji dynamicznej. Analogicznie jest ze
stopą procentową, która odzwierciedla ludzką skłonność do budowania
kapitału kosztem konsumpcji oraz posiadania płynnego dobra w saldach,
i to niezależnie od stałego rozwoju technologii czy związanego z tym
„skracania” procesów produkcyjnych.
Dzięki kalkulacji ekonomicznej, czyli intelektualnej metodzie imple-
mentacji przedsiębiorczości w ramach ograniczeń własnościowych, pro-
wadzącej do ciągłej kapitalizacji zysków i strat, możliwe staje się kory-
gowanie procesów produkcji. W istocie dlatego również socjalizm będzie
prowadził do gospodarczej zapaści – ponieważ uśmierci ową kalkulację
poprzez zniesienie ograniczeń własnościowych.
Schumpeter (1954, s. 847) twierdzi, że Menger kiedyś powiedział do
niego: „Przyjdzie czas, kiedy ludzie uświadomią sobie, że teoria Böhm-
-Bawerka jest jednym z największych błędów, jakie kiedykolwiek popeł-
niono”. Jeśli Menger wypowiedział się tak stanowczo, to wnosząc z jego
publikacji na temat teorii kapitału (1888), możemy się domyślać, że chodzi-
ło mu o zbyt „materialne” traktowanie sfery kapitału. Dla Böhm-Bawerka
„kapitał” był swoistym zestawem różnych materialnych dóbr, dostępnych
w całym społeczeństwie jako osobliwy „realny zasób”, umożliwiający pro-
dukcję (zgodnie ze schematycznym grafem powyżej). W dodatku możliwe
byłoby policzenie całego agregatowego kapitału w gospodarce w oderwa-
niu od działań indywidualnych podmiotów i ich wartościowania. Tym-
czasem Menger uznawał bardziej Misesowskie11 znaczenie „kapitału” jako
pieniężnej wartości własności, która służy do produkcji (por. Kirzner 1976,
s. 57). Stąd Menger zgodziłby się z tezą Misesa dotyczącą socjalizmu, któ-
ra głosiła, że w momencie likwidacji własności i pieniężnej wyceny społe-
czeństwo zostaje pozbawione „kapitału”, a pozostaje tylko z historyczną
koncepcją wyprodukowanych, materialnych dóbr kapitałowych, które nie
mogą zostać wykorzystane jako „kapitał”. Pasowałoby to również do na-
szej innowacji w ilustracji koncepcji Böhm-Bawerka, w której główną rolę
zaczyna grać wycena w pieniądzu, a nie fizyczna struktura i długość pro-
cesu produkcyjnego w bliżej niepojętej równowadze. Bez pieniężnej wy-
ceny własności dóbr kapitałowych i kalkulacji procesów produkcji system

11
To oczywiście anachronizm, ponieważ poprawniej byłoby stwierdzić, że to Mi-
ses uznawał Mengerowskie znaczenie.
Rynkowa stopa procentowa a system cenowy 143

gospodarczy rzeczywiście byłby kalejdyczny i pozbawiony jakiegokolwiek


porządku zorganizowanego pod kątem potrzeb konsumentów, jak utrzy-
mywał Shackle.

M i k roekonom iczna a ma k roekonom iczna


stopa procentowa
Podział nauki ekonomii na sferę mikro i makro ma podstawy w odręb-
nym obszarze badań tych nauk, a ponadto jest to również głęboki podział
teoretyczny. Między obecnie uznawanymi teoriami mikroekonomicznymi
i makroekonomicznymi istnieje głęboki konflikt. Jego źródło miało bar-
dzo często podstawy ideologiczne. Makroekonomia jako nauka oderwana
od mikro istniała tak naprawdę już od czasów Mandeville’a, który do-
wodził, że indywidualne decyzje podmiotów korzystne dla nich samych
mogą prowadzić do porażek w skali całej gospodarki. Do pewnego stopnia
podobnie myślał Karol Marks, który chciał pokazać, jak kapitaliści, dążąc
do realizacji swoich interesów, prowadzą paradoksalnie do swojego uni-
cestwienia. Podobne myślenie prezentował John Maynard Keynes, który
utrzymywał, że rozsądnie działające jednostki, które chcą oszczędzać do-
chód, powodują makroekonomiczną katastrofę. A więc podział ekonomii
na mikroekonomię i makroekonomię nie jest wynalazkiem dwudziestego
wieku, ale jest zakorzeniony już w dobie merkantylizmu.
Wprawdzie konflikt między tymi dwoma dziedzinami ekonomii miał
zostać zażegnany przez „syntezę neoklasyczną”, ale naszym zdaniem tak
się nie stało.
Mikroekonomia opiera się w swoich założeniach albo na równowadze,
albo przynajmniej na równowagowych tendencjach mechanizmu rynko-
wego. System cenowy ma za zadanie eliminację błędnych alokacji (nadwy-
żek, niedoborów etc.), a także sprawne odpowiadanie na zmiany pojawia-
jące się w środowisku niepewności (innowacje, przetasowania „funkcji
produkcji” etc.). Tymczasem makroekonomia wykształciła się jako nauka,
w której główną rolę gra państwo, gdyż rynek, mimo swojej mikroekono-
micznej efektywności, ma prowadzić do makroekonomicznej nieefektyw-
ności w postaci braku osiągnięcia „pełnego zatrudnienia”. Paradoksalnie
więc i na przekór teorii mikroekonomii ma się pojawiać „równowaga
z bezrobociem”, wynikająca z zawodności mechanizmu cenowego.
W odpowiedzi na ten teoretyczny defekt od lat siedemdziesiątych
XX wieku ekonomiści poczynili istotne kroki w budowaniu „syntezy neo-
klasycznej”, która miała godzić teorie mikroekonomiczne z makroekono-
micznymi. W modelach makroekonomicznych zaczęto uwzględniać jakieś
mikropodstawy, w których indywidualne podmioty maksymalizują wy-
brane parametry.
Niestety, tej syntezie neoklasycznej nie udało się zrobić jednej
istotnej rzeczy i, naszym zdaniem, nigdy to nie będzie możliwe bez
144 MATEUSZ MACHAJ

porzucenia obecnie obowiązującej teorii makroekonomicznej. Nie


zdołała połączyć mikroekonomicznej teorii stopy procentowej z teo-
rią makroekonomiczną. W teorii mikroekonomicznej stopa procento-
wa jest czynnikiem zależnym od preferencji podmiotów rynkowych
i danych warunków rzadkości kapitału. Co więcej, stopa procentowa
spełnia istotną ekonomiczną funkcję – buduje specyficzną krzywą
możliwości produkcyjnych, która obrazuje wymienność między kon-
sumpcją a inwestycjami (Garrison 2001, s. 62). Jeśli stopa procentowa
spada, oznacza to ograniczenie konsumpcji przez posiadaczy kapita-
łu na rzecz zwiększenia inwestycji. Dobrze oddaje to guru schematów
neoklasycznych:

Istnieją dwa czynniki określające wielkość akumulacji kapitału


i przychodów z kapitału. Po pierwsze, popyt na kapitał wynika stąd,
że pośrednie (okrężne) metody wytwarzania dóbr konsumpcyjnych
przynoszą wymierne efekty; że powstrzymując się od bieżącej kon-
sumpcji, można zwiększyć konsumpcję w przyszłości. Po drugie,
ludzie muszą być zainteresowani rezygnacją z konsumpcji bieżącej;
muszą być zainteresowani gromadzeniem zasobów, udzielaniem po-
życzek z zaoszczędzonych funduszy przedsiębiorstwom inwestują-
cym w pośrednie metody produkcji.

Działanie obu tych czynników – związane z jednej strony z proce-


sami technologicznymi, z drugiej zaś z pewnym poziomem ludz-
kiej cierpliwości – dopasowuje do siebie nawzajem stopa procen-
towa, gwarantująca przedsiębiorstwom dokładnie tyle kapitału,
ile ludzie skłonni są zgromadzić (Samuelson, Nordhaus 1998, t. 2,
s. 155–156)12.

Stąd też Samuelson traktuje tutaj stopę jak każdą inną cenę rynkową
w mikroekonomii – jako efekt działania mechanizmu rynkowego, który
godzi subiektywne preferencje ludności z obiektywnymi ograniczeniami,
narzucanymi przez fizyczną rzeczywistość. Niemniej jednak takie ujęcie
sprawy stoi w sprzeczności z większością modeli makroekonomicznych,
ponieważ w modelach tych (pieniężnych) stopa procentowa nie jest indy-
widualnym i mikroekonomicznym mechanizmem wymienności oszczęd-
ności i konsumpcji, lecz makroekonomiczną wajchą, państwowym dekre-
tem, który umożliwia brak wymienności13.

12
Zob. też Begg, Fischer, Dornbusch 1996, s. 366–367.
13
Zauważa to też Samuelson (1998, t. 2, s. 158–160), gdy stwierdza, że ta kla-
syczna teoria stopy nie uwzględnia „najnowszych osiągnięć makroekonomii”, ponie-
waż poziom dochodu narodowego wpływa za pomocą mnożnika na popyt na kapitał
i jego podaż (mamy tu niejako nieuzasadnione odwrócenie procesu typowe dla ma-
kroekonomii – to nie działalność gospodarcza decyduje o ogólnym PKB, ale ogólny
Rynkowa stopa procentowa a system cenowy 145

Mówiąc szerzej – w mikroekonomii neoklasycznej inwestycje i kon-


sumpcja poruszają się w przeciwnych kierunkach po krzywej możliwości
produkcyjnych. Ilustruje to dobrze pojęcie wyboru międzyokresowego,
który ma być wyborem takim samym jak wybór między dwoma różnymi
dobrami. Varian opisuje to od strony krzywych obojętności, czyli od stro-
ny konsumenta:

Wyniki statyki porównawczej, wyprowadzone wcześniej dla ogól-


nego problemu wyboru, mogą być stosowane również w problematy-
ce konsumpcji wielookresowej. (…) Realna stopa procentowa mierzy
dodatkową konsumpcję, którą można otrzymać w przyszłości dzię-
ki rezygnacji z części konsumpcji dzisiejszej ( Varian 1999, s. 225;
wyróżnienie MM).

A zatem tak, jak mikroekonomia opisuje podejmowanie optymalnych


decyzji między wyborem dobra A i B, w analogiczny sposób może opisać
wybór dotyczący międzyokresowej alokacji dochodu przez konsumen-
ta przy istniejących stopach procentowych. Niestety, Varian poprzestaje
w swoim podręczniku tylko na analizie konsumenta i nie dokonuje bliź-
niaczo podobnej analizy od strony producenta, która w identyczny (choć
trochę odwrócony) sposób pokazałaby, że te schematy mogłyby zostać
zastosowane również w odniesieniu do produkcji wielookresowej. Zobrazo-
wałoby to krzywą możliwości produkcyjnych na rynkach czynników pro-
dukcji i możliwość zatrudniania środków między konsumpcję i inwesto-
wanie. Te dwie zmienne poruszałyby się w przeciwnych kierunkach.
Stałoby to jednak w sprzeczności z tym, co zwykle można przeczytać
w podręczniku makroekonomii.
Sprzeczność ta wynika z tego, że w makroekonomii po Keynesie inwe-
stycje i konsumpcja poruszają się w tym samym kierunku (razem rosną
i razem spadają). Jest to oczywiście następstwo uznania koncepcji „rów-
nowagi z bezrobociem”. Niestety, jest ono okupione defektem – niemożli-
wością stworzenia zintegrowanej teorii stopy procentowej, która łączyła-
by elementy mikroekonomiczne i makroekonomiczne. Skoro na poziomie
mikro istnieje wymienność, a na poziomie makro nie, to wydaje się, że

PKB decyduje o działalności gospodarczej). Swój wywód kończy stwierdzeniem, że


„rząd powinien prowadzić odpowiednią politykę dotyczącą oszczędności i inwesty-
cji, jak również wziąć pod uwagę konieczność sterowania realną stopą procentową
i zasobami kapitału w długim okresie”. Należy podkreślić, że Samuelson przyjmuje
to jako założenie, i to zaraz po tym, jak stwierdza, że rynek stopy procentowej ma
godzić poziom „ludzkiej niecierpliwości” z „procesami technologicznymi”. Nie czyni
jednak starań, aby wyjaśnić w swoim kursie, jak pogodzić te dwie mocno skonfl ikto-
wane opinie. Skoro stopa jako cena rynkowa ma w mikroekonomicznej przestrzeni
godzić te dwie zmienne, to w jaki sposób nagle w makroekonomii staje się niedosko-
nałością rynku, uzasadniającą tak daleko posunięte rekomendacje interwencjonizmu
podawane przez Samuelsona?
146 MATEUSZ MACHAJ

jedynym wyjściem prowadzącym do zakończenia syntezy neoklasycznej


jest albo porzucić teorię mikroekonomii, albo makroekonomii.
Wydaje się, że do powstania tej rozbieżności teoretycznej przyczynił
się głównie wybitny szwedzki teoretyk Knut Wicksell, który zajmował
się koncepcją struktury produkcji i poszczególnych jej stadiów. Zwrócił
w swoich badaniach uwagę na to, że stopa procentowa spełnia istotne
funkcje, o których już tu była mowa. Najważniejszą z nich jest godzenie
procesów inwestycyjnych z dostępnymi zasobami kapitałowymi lub, mó-
wiąc inaczej, ustawienie takiego poziomu, przy którym „popyt na kapitał”
zostaje zrównany z „podażą kapitału” (Wicksell 1962, s. 103). Jeśli takie
zrównanie następuje, to możemy powiedzieć, że stopa procentowa osią-
gnęła swój naturalny poziom, czyli oznaczający pewną stabilną sytuację.
Taka stopa zależna jest od wielu zmieniających się czynników, takich jak
dostępność różnych form kapitału, podaż ziemi, pracy i licznych aspek-
tów, które określają daną gospodarkę (Wicksell 1962, s. 106).
Jednakże od razu po takim sformułowaniu pojawiają się wątpliwości.
„Kapitał” (rozumiany jako struktura produkcji) nie posiada bowiem ta-
kich wielkości jak „popyt” czy „podaż”. Dobra kapitałowe są porozrzu-
cane po rozmaitych stadiach produkcji i są heterogeniczne. Nie sposób
zbudować ich jednej funkcji, opisującej zasób i poszczególne wykorzysta-
nia. Nie można wobec tego nawet teoretycznie zademonstrować, czym
miałoby być zrównanie podaży kapitału i popytu nań.
Wicksell postanowił przyjąć inne założenie. Otóż przyjął, że zrówna-
nie popytu na kapitał i jego podaży, a zatem osiągnięcie naturalnej stopy
procentowej występuje jednocześnie z osiągnięciem stabilności cen. Jeśli
więc w danej gospodarce ceny za dobra pozostają mniej więcej na nie-
zmienionym poziomie, to możemy mówić o tym, że stopa jest na pozio-
mie naturalnym, zrównującym popyt na kapitał i jego podaż, a przez to
umożliwiającym osiągnięcie stabilności makroekonomicznej. Właśnie
tej Wicksellowskiej obserwacji zawdzięczamy koncepcję współczesnej
polityki pieniężnej, zgodnie z którą bank centralny ma tak manipulo-
wać stopą procentową, aby osiągać stabilne ceny konsumpcji (rosnące
o 2 procent). Z koncepcji tej wyrasta pomysł na uczynienie stopy ma-
kroekonomicznym instrumentem, na traktowanie stopy jako symulanta
globalnego popytu:

W każdym momencie i w każdej gospodarczej sytuacji istnieje taki


poziom średniej stopy procentowej, który powoduje, że ogólny po-
ziom cen nie wykazuje tendencji rosnącej ani spadającej. Nazywa-
my ten poziom normalną stopą procentową. Jest to wielkość, którą
określa aktualny poziom naturalnego zasobu kapitału, a która ro-
śnie i spada razem z nim.

Jeśli z jakiegokolwiek powodu średnia stopa procentowa jest usta-


wiona i utrzymana poniżej tego normalnego poziomu, nieważne,
Rynkowa stopa procentowa a system cenowy 147

w jakim stopniu, ceny będą rosnąć, i to w nieskończoność ( Wicksell


1962, s. 120).

Takie ujęcie nasuwa jednak dwa dylematy. Pierwszy to skoncentrowa-


nie się Szweda na powiązaniu stopa procentowa–ceny. Określa on bowiem
ceny ogółem w makroekonomicznej relacji do pieniężnej stopy procen-
towej, która może korespondować lub nie z jakimś „naturalnym” pozio-
mem, odzwierciedlającym zwroty realne. Tymczasem sama stopa nie jest
po prostu w relacji z cenami ogółem, ponieważ stopa jest różnicą między
cenami kupna a sprzedaży, gdyż odzwierciedla zjawisko dyskontowania
przyszłych cen w stosunku do dzisiejszych. Stąd wahania stopy rynkowej
oznaczają wahania w różnicach między poszczególnymi cenami, które
Wicksell w swojej analizie pomija i przyjmuje skalę całości gospodarki.
Tymczasem mechanizm transmisji, wpływania stóp na ceny, nie może zo-
stać sprowadzony do relacji „stopa a ceny”, lecz wymaga dokładniejszego
określenia „stopa a konkretne ceny”, i dopiero dzięki temu możliwe jest
przeanalizowanie dynamiki stóp i ich wpływu na ceny ogółem (zobacz
również przypis 18).
Drugi dylemat dotyczy kwestii podaży pieniądza. Przypadek, o którym
mówi Wicksell, nie może wystąpić, jeśli system pieniężny nie zwiększa
długookresowo ilości środka wymiany w obiegu. Sama obniżka stóp była-
by prezentem dla kredytobiorców i nie skutkowałaby długotrwałym wzro-
stem cen. Jak zwrócił uwagę w swojej krytyce Frank Fetter, Wicksell pomi-
ja w analizie akcji kredytowej konieczność zwiększenia podaży pieniądza
dla wystąpienia efektów ciągłych wzrostów cen. W przeciwnym razie taki
skok cen w nieskończoność nie może wystąpić (Fetter 1977, s. 306–307).
Na skutek tego zaniedbania Wicksellowskie podejście doprowadziło do
rozkwitu makroekonomii, w której ustawianie stopy procentowej jest naj-
ważniejszym czynnikiem aktywności gospodarczej i kształtowania się
ogólnego poziomu cen, lecz niestety, w oderwaniu od pojęcia podaży pie-
niądza (Anderson 2005).
Istnieje poważne wyzwanie, przed jakim stoi zwolennik Wicksellow-
skiej koncepcji, stawiającej znak równości między naturalną stopą a sta-
bilnymi cenami. Można sobie wyobrazić sytuację, kiedy w warunkach
„równowagi kapitału” występuje spadek cen. Powiedzmy chociażby, że
gospodarka w wyniku akumulacji, rozwoju technologii i wzrostu produk-
tywności doświadcza efektu podażowego na indywidualnych rynkach
– wskutek wzrostu ilości dóbr spadają ich ceny. W sytuacji tej nie ma żad-
nych zasadniczych przeszkód, żeby stopa procentowa równoważyła „po-
daż i popyt” na kapitał w poszczególnych stadiach, a efektem tego byłby
spadek cen dóbr. A zatem osiągnięcie naturalnej stopy nie stoi na prze-
szkodzie temu, żeby ceny spadały. Nawet rozsądne wydaje się założenie,
że jeśli wzrastają oszczędności, stopa procentowa osiąga swój naturalny
poziom, to skutkiem tego będzie wzrost produkcji, a w jego następstwie
spadek cen finalnych.
148 MATEUSZ MACHAJ

Wicksell jednak kwestionał taki scenariusz, twierdząc, że nie ma takiej


możliwości, aby wzrost produkcji doprowadził do ogólnego spadku cen,
gdyż wzrost ilości produktów na określonym rynku będzie oznaczał niższe
ceny, ale jednocześnie wyższy popyt na inne dobra (Wicksell 1962, s. 105).
Stąd spadek cen w jednym miejscu będzie występował jednocześnie ze
wzrostem cen w innym. Zauważmy jednak, że Wicksell mówi o swoistych
cenach relatywnych, a nie cenach nominalnych. Jeśli wzrasta produkcja
jednego typu dóbr i usług, a drugiego wzrasta mniej, to następstwem jest
spadek cen jednych i drugich, choć w różnym stopniu. Nie zmienia to
jednak zasadniczej konkluzji, iż w sytuacji tej ceny ogólnie spadają wraz
z osiągnięciem poziomu naturalnej stopy.
Należy się zgodzić częściowo z Wicksellem – naturalna stopa pro-
centowa to taka stopa, która godzi dostępne zasoby kapitału i innych
dóbr z preferencjami konsumentów. Nie jest ona wobec tego główną
zmienną ogólnego poziomu cen dóbr konsumpcyjnych. Stopa nie osiąga
optymalnego, naturalnego poziomu, kiedy ceny są stabilne, lecz wtedy
kiedy poddana jest takim samym rygorom kalkulacji ekonomicznej jak
wszystkie inne ceny. Innymi słowy, stopa naturalna to po prostu stopa
rynkowa.

Stopa procentowa a polit yka pieniężna


Polityka pieniężna sprowadza się do zwiększania ilości pieniądza
w obiegu. Cała alchemia współczesnej bankowości centralnej może być
podsumowana następującym stwierdzeniem: politykę pieniężną prowadzi
się po to, aby zwiększać podaż pieniądza i kredytu. Specyficzną kwestią
w polityce pieniężnej są cztery elementy: sposób, miejsce, czas oraz tempo
przyrostu podaży pieniądza i kredytu. Większość szkół makroekonomicz-
nych spiera się o to, jak instytucjonalnie rozwiązać państwowe zwiększa-
nie ilości pieniądza w obiegu, przyjmując milczące założenie konieczności
takiego zwiększania.
Sam pomysł na zwiększanie ilości pieniądza w obiegu kłóci się z ilo-
ściową teorią pieniądza w wersji twardej, która oznacza neutralność
pieniądza, a zatem brak wpływu jego ilości na wielkości realne. Zwięk-
szanie podaży ma prowadzić tylko do wzrostów cen. Tymczasem jeśli
ta ilościowa zależność w ogóle działa, to działa tylko w pewien sposób
w ogólnikowym długim okresie. Wynika to z stąd, że nowo wykreowa-
ne pieniądze wpływają do gospodarki w konkretnych miejscach, a więc
wpływają na ceny nierównomiernie, w efekcie mając wpływ na dane
realne.
Zwiększanie podaży pieniądza powoduje coś, co jest nazywane efek-
tami Cantillona bądź efektami „pierwszej rundy”. Nowe pieniądze ozna-
czają efekty redystrybucyjne – przynoszą korzyści tym, którzy nowe pie-
niądze otrzymują, a także uczestnikom rynku, którzy działają w sektorze
Rynkowa stopa procentowa a system cenowy 149

promowanym przez inflację podaży pieniądza (Friedman 1969, s. 6–714).


Jest to zresztą efekt, bez którego polityka pieniężna nie miałaby sensu
– któż bowiem chciałby prowadzić politykę pieniężną i po co, jeśli nie
przynosiłoby to jakiejś redystrybucji, lecz jedynie neutralne podnoszenie
cen?
W wyniku ekspansji pieniądza i kredytu polityka pieniężna jest rów-
nież zjawiskiem, które Hayek określił mianem płynnej równowagi. Ozna-
cza to, że nawet w długim okresie w polityce pieniężnej występują efekty
Cantillona, ponieważ ekspansja pieniężna nawet w sytuacji rosnących
i dostosowujących się cen nie będzie mogła zostać zneutralizowana zmia-
nami nominalnymi. Każdy dopływ środka wymiany oznacza dodatkową
potencjalną siłę nabywczą, zdobytą kosztem reszty posiadaczy pieniądza,
bez względu na to, czy wszystkie ceny rosną jednocześnie lub rosną szyb-
ko. Oczywiście, szybkość i rozległość samego dostosowania wszystkich
cen ma znaczenie, wiąże się bowiem z wielkością tej redybystrybucji. Nie
zmienia to jednak faktu, że występuje ona zawsze, kiedy dochodzi do
przyrostu ilości pieniądza w obiegu:

Efekt, który tu omawiamy, jest raczej podobny do efektu wlewania


gęstej cieczy, na przykład miodu, do jakiegoś pojemnika. Oczywi-
ście, wystąpi tu tendencja, aby miód rozmieszczał się równomier-
nie. Jednak gdy strumień uderzy powierzchnię w jednym miejscu,
uformuje się tam mała fałda, skąd następnie będzie się powoli roz-
przestrzeniała (Hayek 1969, s. 281)15.

Ponieważ współczesna polityka pieniężna polega na kreowaniu pie-


niądza w systemie kredytowym, jego tworzenie będzie bezpośrednio
wpływać na poziom stopy procentowej w bankach. Efekt Cantillona
we współczesnej polityce pieniężnej manifestuje się głównie obniżką
nominalnych stóp na rynku kredytowym ze względu na dodatkową
płynność. Gdyby nowe pieniądze wpływały prosto do budżetu, to

14
Friedman wspomina o tych efektach redystrybucyjnych, ale nie docenia ich
wagi, ponieważ uznaje, że po pewnym czasie zostaje odtworzona równowaga. Pro-
blem jednak polega na tym, że te efekty redystrybucyjne to nie tylko efekty dochodo-
we, które znikają po pewnym czasie, ale także realne efekty produkcyjne. W dodatku
systematyczny przyrost podaży pieniądza (który Friedman rekomenduje, s. 48), bę-
dzie oznaczał istnienie pewnej permanentnej nierównowagi. Zob. poniżej.
15
Oczywiście, jest to tylko metafora. Hayek odpowiada w tym tekście na zaskaku-
jące tezy Johna Hicksa, które przypominają mocną wersję teorematu o neutralności
pieniądza (zob. obszerny cytat w tekście Hayeka, s. 278). Hicks sugeruje, że gdy ryn-
kowa stopa procentowa będzie poniżej naturalnej stopy, wpływ na produkcję będzie
znikomy, bo „ceny pieniężne po prostu wzrosną proporcjonalnie; i tyle”. Co ciekawe,
Hicks powołuje się właśnie na schemat równowagi Wicksella; tak jakby rozbieżność
stopy z jej naturalnym poziomem przejawiała się tylko proporcjonalnymi dostosowa-
niami cen. Jest to powszechna w głównym nurcie interpretacja Wicksella.
150 MATEUSZ MACHAJ

efektem Cantillona byłaby redystrybucja na rzecz państwowego, nie-


produktywnego sektora. Byłaby to konsumpcja prywatnego kapitału.
Ponieważ jednak nowe pieniądze są pożyczane w sektorze bankowym,
to efektem Cantillona jest tańszy kredyt, niż byłby, gdyby gospodarka
została poddana rygorowi rynkowemu. Następstwem tego procesu jest
najpierw redystrybucja dochodu w stronę sektora fi nansowego i pań-
stwowego16. Następnie dodatkowo wykreowany pieniądz przenosi się
na rynek dóbr17.
Skutkiem prowadzenia takiej polityki jest zaniżanie stopy procentowej
poniżej jej poziomu rynkowego, naturalnego w sensie pierwszym Wick-
sella. Przypomnijmy, że w pierwszym sensie stopa ma umożliwiać tenden-
cje równowagowe w strukturze produkcji i we wzajemnej relacji popytu
i podaży kapitału. Obniżanie stopy poniżej tego poziomu będzie bodźcem
do uruchamiania wielu submarginalnych inwestycji, które przed obniżką
stopy były nieopłacalne. W ten sposób stopa procentowa zaczyna tracić
najważniejszą funkcję – przestaje być ceną, która zmusza do ekonomizo-
wania kapitału, a staje się punktem, z którego prowadzi się makropolitykę
w celu manipulowania końcowymi wskaźnikami, zmieniającymi się już
po procesie przemian18.
Każda cena na rynku spełnia wykluczającą funkcję. Stanowi wyraz
pewnego ograniczenia nałożonego na przedsiębiorcę. Sygnalizuje, że dany
zasób występuje w ograniczonej ilości i należy go ekonomizować. Rolą
systemu cenowego, w tym stopy procentowej, jest osiąganie takiego po-
ziomu cen, który będzie odpowiadał relatywnej rzadkości dobra na da-
nym rynku. Nie inaczej jest z kredytem. Tymczasem kreacja pieniądza
przez państwo stwarza iluzję, że zasobów kapitałowych jest więcej niż
w rzeczywistości, a więc że cena kapitału może zostać obniżona. Cena
rynkowa stopy procentowej przestaje istnieć i wraz z nią przestaje istnieć
jej wykluczająca funkcja. Zostaje zastąpiona ceną dekretowaną. Otwie-
rają się zatem możliwości podjęcia inwestycji, które zgodnie z kalkulacją
gospodarczą i szacunkami przedsiębiorców nie powinny w ogóle zostać
rozpoczęte. Skutkiem tego jest „boom” inwestycyjny, lecz ma on charak-
ter fikcyjny, ponieważ nie opiera się na dobrowolnych oszczędnościach.

16
Rzadko się dzisiaj analizuje fakt, że chociaż banki centralne nie monetyzują
bezpośrednio długu państwowego, to obniżają stopy poniżej wartości rynkowej, co
przy zdolności kreacji pieniądza przez banki jest monetyzacją nie wprost.
17
Co ciekawe, zauważa ten fakt transmisji Friedman (Friedman 1963, s. 230–
–231). Zjawisko niepewności wpływu wzrostu podaży pieniądza na zakłócenia w sek-
torze fi nansowym, a następnie w sektorze dóbr kapitałowych nie skłania go jednak do
zmiany poglądu na temat roli i wpływu banku centralnego.
18
Przebieg tego procesu wygląda tak: obniżenie stóp Æ zwiększanie podaży pie-
niądza i kredytu na rynku Æ wzrost cen. Problem polega na tym, że między począt-
kiem a końcem tego procesu dochodzi do wielu nieodwracalnych zmian na rynku
aktywów, a w konsekwencji na rynku czynników produkcji. Dopiero po paru latach
występuje fi nalny efekt na strukturę cen konsumpcji.
Rynkowa stopa procentowa a system cenowy 151

W trakcie tego boomu kumuluje się wiele błędnych inwestycji, które są


upłynniane, gdy pojawia się kryzys19.
Błędną politykę manipulacyjną stopami prowadzi się w nadziei na
osiągnięcie neutralności stopy procentowej w sensie drugim Wicksella,
czyli w sensie osiągnięcia stabilności cen koszyka konsumpcji. Jak jed-
nak wspominaliśmy wcześniej, w momencie wystąpienia wzrostu gospo-
darczego neutralność stopy w sensie drugim Wicksella będzie się kłócić
z neutralnością w sensie pierwszym. Jeśli polityka pieniężna stawia sobie
za cel stabilność cen konsumpcji, to w rzeczywistej gospodarce będzie to
okupione brakiem neutralnej stopy procentowej, która dawałaby tenden-
cje równowagowe w strukturze kapitału. Równowaga na „rynku kapita-
łu” w sytuacji rosnących oszczędności wymaga, żeby ceny pieniężne dóbr
spadały.
Podchodząc do problemu monetarystycznie, należy powiedzieć, że sta-
bilne ceny konsumpcji w rozwijającej się gospodarce wymagają rosnącej
ilości pieniądza w obiegu. Ta jednak jest dokonywana na rynku kredy-
towym, więc jednocześnie oznacza obniżanie stopy poniżej rynkowego
poziomu. A to z kolei oznacza, że „popyt na kapitał” nie zmierza już do
równowagi z „podażą kapitału”, tylko zaczyna go sztucznie przewyższać.
Mówiąc językiem Hayeka, inwestycje zaczynają przewyższać oszczęd-
ności. Jeśli natomiast tendencje równowagowe na rynku kapitałowym
i w strukturze produkcji miałyby zostać zachowane, to podaż pieniądza
musiałaby pozostać nie zwiększona przez państwo. Zauważmy, że wtedy
ceny konsumpcyjne spadałyby. A zatem wydaje się, że tertium non datur.
Albo celem polityki pieniężnej jest naturalna stopa procentowa i stabil-
ność makroekonomiczna wraz ze spadającymi cenami, albo stabilne ceny
oraz brak naturalnej stopy, a także stabilności makroekonomicznej.
Zauważmy ponadto, że Wicksellowska analiza dynamiki cen nie musi
być niepoprawna, jeśli dodamy do niej aspekty związane z podażą pie-
niądza i teorią Hayeka. Powiedzmy, że państwowa instytucja (np. bank
centralny) kreująca pieniądz decyduje się na obniżenie stopy procento-
wej o 2 procent poniżej „naturalnego” (rynkowego) poziomu. W tym celu
musi zwiększyć podaż pieniądza (aby zwiększyć zakres kredytu) na przy-
kład o wielkość X procent. Ta obniżka stopy nie będzie jednak trwała,
ponieważ nowe pieniądze, które początkowo obniżą stopę procentową,
wkrótce spłyną do gospodarki w postaci dochodów. Dochody będą jed-
nak wydawane, a jeśli całość tych dochodów nie zostanie zaoszczędzo-
na (a nie ma powodów uważać, aby tak było; bardziej prawdopodobne
w czasach inflacyjnych jest to, że oszczędności spadną), to wydatki zaczną
prowadzić do odtworzenia proporcji oszczędności do konsumpcji i stopa
zacznie znowu rosnąć. Stąd zadziałają efekty mikroekonomiczne na prze-
kór makroekonomicznej polityce. Z jednej strony bank centralny obniży
stopy, pozornie zwiększając zasób kapitału (będzie to prasa drukarska),

19
Zob. np.: Huerta de Soto 2009, rozdz. V i literaturę tam wymienioną.
152 MATEUSZ MACHAJ

z drugiej zaś, gdy ludzie zaczną wydawać te pieniądze według swoich pre-
ferencji, pojawi się tendencja do podnoszenia się stopy. Efekt Cantillona
(obniżanie stóp) zacznie się przeobrażać w efekt Wicksella (ponowne pod-
noszenie stóp przez rynek).
Jedna dawka dodatkowej podaży pieniądza nie wystarczy, aby stopy
obniżyły się permanentnie. Dlatego w kolejnej rundzie będzie potrzebna
dodatkowa dawka pieniądza, aby ponownie obniżyć stopy rynkowe poni-
żej ich naturalnego poziomu. Załóżmy, że bank centralny chce w podobny
sposób stymulować gospodarkę i obniżyć stopy znowu o 2 procent poni-
żej naturalnego poziomu. Czy w tej nowej rundzie wystarczy zwiększenie
podaży pieniądza tylko o X procent? Zdaniem Hayeka, a jego konkluzje
popierają również prace Phelpsa czy Friedmana, w kolejnej rundzie stopa
przyrostu podaży pieniądza musi być większa od X procent20. I w kolejnej
rundzie również. A zatem permanentne utrzymywanie stopy procento-
wej poniżej jej rynkowego, naturalnego poziomu, może wymagać coraz
większych przyrostów ilości pieniądza w obiegu. W takim wypadku teza
Wicksella okazywałaby się całkowicie poprawna – długoterminowe utrzy-
manie stóp poniżej rynkowego poziomu skończy się rosnącymi przyro-
stami podaży pieniądza, co w efekcie będzie powodować coraz większy
wzrost cen21.

20
Zob. Friedman 1968. Friedman najpierw zwraca uwagę na mechanizm pod-
noszenia się stopy procentowej (s. 100), a następnie przechodzi do rynku pracy
(s. 102 i n.). Phelps (1967) skupia się natomiast na rynku pracy w trochę inny sposób
niż Friedman. Co ciekawe, Friedman w swojej analizie dochodzi do konkluzji, że
bank centralny może kontrolować tylko wielkości nominalne, ale w ten sposób nie
zdoła zmienić „realnej stopy procentowej, stopy zatrudnienia, poziomu realnego do-
chodu narodowego, realnej podaży pieniądza, stopy wzrostu realnego dochodu naro-
dowego, ani stopy wzrostu realnej podaży pieniądza” (Friedman 1968, s. 105). Ta teza
Friedmana stoi w oczywistej sprzeczności z jego propozycją polityki pieniężnej, która
jego zdaniem ma prowadzić do większego wzrostu gospodarczego niż w warunkach
standardu złota i deflacji cen. Tą sprzecznością wpisuje się on w tradycję większości
teoretyków ilościowej teorii pieniądza (rozpoczętą już przez Hume’a), którzy z jednej
strony uparcie przekonywali, że każda podaż pieniądza wystarczy do obsługiwania
transakcji, aby z drugiej strony jednocześnie zaproponować własną propozycję zwięk-
szania jego ilości w celu osiągania jakiegoś „optymalnego” poziomu.
21
Końcowy wybór, przed jakim staje w tej sytuacji instytucja monetarna, to albo
doprowadzić do hiperinflacji, albo zaprzestać przyrostów i wtedy pozwolić na wzrost
stóp, a wraz z nim na pojawienie się kryzysu. Nie mamy miejsca na omawianie tutaj
dokładnie teorii cyklu koniunkturalnego, gdyż interesuje nas samo zjawisko stopy
procentowej. Należy pamiętać, że teorie Wicksella są szczególnie ważne w tej kwestii
i że nie są tylko źródłem makroekonomicznej pomyłki, o której wcześniej była mowa.
Należy również pamiętać, że nie wszystkie błędy przedsiębiorców muszą zawsze wy-
nikać z wahań stopy procentowej i czynników pieniężnych. Na ten temat zob. Kwa-
śnicki 1996, s. 147–149. Błędy są rzeczą ludzką, a określone instytucje mogą sprzyjać
ich eliminowaniu (np. własność i rynkowa wycena) lub mnożeniu (np. ustanawianie
stopy procentowej przez banki centralne). Na temat roli błędnych decyzji, które po-
wodują instytucje, zob. Hülsmann 1998.
Rynkowa stopa procentowa a system cenowy 153

R e g u ł a Ta y l o r a i s t o p a n a t u r a l n a
w głów ny m nurcie

Powinniśmy jeszcze wspomnieć o tzw. regule Taylora. Nie jest bowiem


tak, jak mogłyby sugerować omówione wcześniej tezy, że we współczesnej
makroekonomii dywagacje o stopie procentowej ogniskują się wyłącznie
wokół kwestii regulacji średnich cen standardowego koszyka konsumpcji
z pominięciem kwestii produkcji. W modelach stosowanych w polityce
pieniężnej uwzględnia się wiele zmiennych, a nie tylko wskaźnik cen de-
talicznych. Są to modele Dynamic Stochastic General Equilibrium Models
(DSGE), stosowane przez banki centralne, które mają udawać funkcjono-
wanie całej gospodarki. Polityka pieniężna w tych zaawansowanych mo-
delach czerpie inspirację z reguły Taylora (1993).
Zgodnie z tą regułą stopa procentowa jest mechanizmem, który nie
tylko reguluje poziom cen konsumpcji, lecz także równoważnie z nim re-
guluje poziom „luki popytowej” (OG – output gap). Jeśli ceny rosną (male-
ją), to stopa procentowa ustalana przez bank centralny powinna wzrastać
(maleć). Do tej zależności jednakże dochodzi również wpływ zmiennej
OG. Jeśli maleje (rośnie) wielkość OG, to stopa procentowa powinna być
zmniejszana (zwiększana). Odpowiednie równanie przypisuje wagą każdej
z tych zmiennych i stara się wyważyć wpływ każdej z nich na ustawienie
optymalnego poziomu stopy przez bank centralny.
Czym wobec tego jest zmienna OG? OG stanowi różnicę między pro-
dukcją rzeczywistą a „produkcją potencjalną”. Na poziomie zdrowego
rozsądku i teoretycznej prezentacji przy podstawach ekonomii jest to in-
tuicyjne i łatwe do wyjaśnienia. „Produkcja rzeczywista” w modelu jed-
noosobowym to tyle, ile dóbr średnio dziennie produkuje Robinson. Ta
produkcja „rzeczywista” odbiega od „potencjalnej”, gdy na przykład Ro-
binsonowi związano ręce i nie może już pracować tak efektywnie jak do-
tąd. Wiemy, że wyniki jego działań będą odbiegać od jego możliwości.
Sprawy się jednakże komplikują, gdy przejdziemy do analizy współcze-
snej gospodarki towarowo-pieniężnej (nota bene można by skomplikować
nawet sam model Robinsona). Jak bowiem zaznaczyć poziom „produkcji
rzeczywistej”? Ponieważ realnie nie jest to możliwe do uchwycenia, ze
względu na heterogeniczny charakter procesów produkcji stosuje się na
przykład pomiar PKB w jednostkach pieniężnych. Jednakże taki pomiar
kryje za sobą zbyt wiele i zbyt mało. Jak bowiem go odnieść do produkcji
„potencjalnej”?
W celu zmierzenia luki w produkcji stosuje się kilka metod. Mogą to być
na przykład: badania za pomocą analizy rynku pracy (czy np. prawa Oku-
na), badanie za pomocą globalnej funkcji Cobba– Douglasa, badanie za
pomocą makroekonometrycznej analizy albo posłużenie się trendem PKB
z poprzednich lat (zobacz na przykład Claus, Conway, Scott 2000, s. 10–
–11). Nie wchodząc w szczegóły każdego z tych pomysłów, musimy nieste-
ty stwierdzić, że każdy z nich jest w swojej konstrukcji makroekonomiczny,
154 MATEUSZ MACHAJ

lub powiedzieć, posługując się ekonomią Hayeka, że pomija problem zło-


żoności procesów produkcji. Ani ekonometria, ani ogólny trend, ani glo-
balne badania rynku pracy, ani nawet globalne funkcje Cobba– Douglasa
nie zdołają uwzględnić kwestii koordynacyjnych między poszczególnymi
stadiami produkcji. Koordynacja w tych stadiach odbywa się za pomo-
cą kalkulacji pieniężnej dokonywanej przez przedsiębiorców. Natomiast
wyliczenie makroekonomicznej zmiennej output gap nie może tych kwe-
stii uwzględnić z samej swojej natury, tak jak wyliczenie średniej tempe-
ratury dla Polski nie pokazuje, jaka jest temperatura w poszczególnych
województwach, miastach, dzielnicach, mieszkaniach czy pokojach. Jeśli
interesują nas te indywidualne pomiary i przepływy powietrza, to nie bę-
dziemy ich mogli ująć jedną globalną zmienną. Analogicznie, gdy anali-
zuje się przepływy kapitału i czynników produkcji między stadiami, ich
błędne oraz poprawne alokacje, jedna makroekonomiczna zmienna nie
pokaże nam ich natury. Niezależnie od tego, czy oddaje należytą atencję
Cobbowi i Douglasowi, czy nie.
Nota bene sama „luka popytowa” w regule Taylora oficjalnie nie pre-
tenduje do roli wskaźnika, który odzwierciedlałby potencjalne błędne in-
westycje spowodowane zbyt niskimi stopami. Osiągnięcie „naturalnej”
stopy we wzorze podanym w owej regule nie oznacza uniknięcia skumu-
lowanych nietrafionych inwestycji. Zmienna output gap ma z założenia ra-
czej wąskie zastosowanie, ponieważ odnosi się do poziomów PKB i inflacji
czy bezpośrednio do poziomu realnego PKB. Jej celem jest określenie za-
leżności między tymi wielkościami, a nie koordynacja stadiów produkcji
i uniknięcie błędnego inwestowania w skali mikro22.
Stąd też reguła Taylora dodając do zmiennej cenowej zmienną pro-
dukcyjną, nie polepsza wytycznych dla polityki pieniężnej. Tak jak sku-
pienie się na średnich cenach pomija mechanizm transmisji błędnych
stóp, tak samo czyni to średnie odchylenie od potencjalnego trendu
PKB, co pokazuje dobrze brzmiący enigmatyczny termin „odchylenie
od produkcji potencjalnej”. A zatem reguła Taylora nie może zastąpić
zdecentralizowanego rynku kapitałowego w ustaleniu naturalnej stopy
procentowej.

22
Co prawda, Taylor argumentuje, że gdyby Fed podążał za jego regułą, to boom
nie wystąpiłby na amerykańskim rynku nieruchomości (2007). Wynika to jednak
nie z faktu, że reguła jest dobrym wskaźnikiem, jak unikać promowania błędnych
inwestycji, lecz z faktu, że jakiekolwiek zalecenie w polityce pieniężnej (mogłoby to
być nawet zalecenie oparte na analizie technicznej czy astrologii), które sugerowałoby
wyższe stopy, byłoby lepsze od tej polityki, którą realizował Greenspan. Inną sprawą
jest to, że kontrowersyjne pozostaje, czy da się ustalić jakąś obiektywną i powszechną
regułę Taylora. Takie zmienne jak „koszyk cenowy” czy „luka popytowa” można róż-
nie i arbitralnie mierzyć, przez co zmienia się cały model (można stosować dane bie-
żące, projektowane czy ex post korygowane etc.). Na przykład przedstawiciel Systemu
Rezerwy Federalnej David Altig (2005) uważał, że Fed stosuje się do reguły Taylora.
Rynkowa stopa procentowa a system cenowy 155

Podsumowanie

Stopa procentowa to jedna z najważniejszych cen stosowanych na rynku


– jest niczym kalkulacyjny kompas – pomaga ukierunkować poszczególne
stadia produkcji, dzięki czemu poszczególne czynniki produkcji trafiają
do właściwych sektorów. Nie jest przeszkodą w efektywnej alokacji, lecz
jej fundamentem. Manipulowanie stopą procentową przez bank centralny
wypacza podstawowy mechanizm kalkulacji, łączący ze sobą ceny dóbr
konsumpcyjnych i dóbr produkcyjnych. Zaburzając stopę procentową,
zaburzamy nie tylko rynek samej stopy, ale cały proces imputacji, który
odpowiada za dynamiczną równowagę między poszczególnymi stadiami
produkcji. Dynamiczna równowaga w warunkach rynkowych oznacza
ciągłą, płynną reorganizację struktury produkcji pod kątem preferencji
konsumentów. Stąd makroekonomiczną rekomendacją jest konkluzja,
żeby współczesny ład monetarny, w którym stopa jest państwowym de-
kretem, zastąpić takim, gdzie stopa jest mechanizmem koordynowania
decyzji inwestycyjnych w strukturze produkcji. Tak jak państwo nie jest
w stanie skutecznie ustanawiać cen za poszczególne dobra na rynku, tak
samo nie jest w stanie tego zrobić w przypadku szczególnie wrażliwej ceny,
jaką jest stopa procentowa.
156 MATEUSZ MACHAJ

Bibliografia

Altig David, 2005, What’s The Fed Up To?, Part 2. http://macroblog.typepad.com/


macroblog/2005/06/whats_the_fed_u_1.html.

Anderson Richard, 2005, Wicksell’s Natural Rate, w: Monetary Trends, Federal Re-
serve Bank of St Louis, marzec 2005.

Begg David, Fischer Stanley, Dornbusch Rudiger, 1996, Mikroekonomia, Warszawa,


PWE.

Blaug Mark, 2000, Teoria ekonomii. Ujęcie retrospektywne, Warszawa, PWN.

Böhm-Bawerk Eugen von, 1959, Capital and Interest, South Holland, Illinois; Liber-
tarian Press, t. 1–3.

Claus Iris, Conway Paul, Scott Alasdair, 2000, The Output Gap: Measurement, Com-
parisons and Assessment, Reserve Bank of New Zealand, Research Paper, no. 44.

Fetter Frank, 1977, Capital, Interest, and Rent. Essays in the Theory of Distribution
(edited with an introduction by Murray N. Rothbard), Kansas City: Sheed An-
drews and McMeel, Inc.

Friedman Milton, 1963, Money and Business Cycles, w: Friedman 1969.

Friedman, Milton, 1968, The Role of Monetary Policy, w: Friedman 1969.

Friedman Milton, 1969, The Optimum Quantity of Money, w: Friedman Milton 1969,
The Optimum Quantity of Money and other essays, Chicago, Aldine Publishing
Company.

Garrison Roger, 2001, Time and Money. The macroeconomics of capital structure, Lon-
don, Routledge.

Hayek Friedrich A. von, 1929, Paradox of Savings, w: Hayek Friedrich A. von, 2008,
Prices and Production and Other Works, Auburn, Al, Ludwig von Mises Institute.

Hayek Friedrich A. von, 1969, Three Elucidations on the Ricardo Effect, „Journal of
Political Economy”, vol. 77, no. 2.

Hicks John, 1976, Time in Economics, w: Hicks John, 1984, The Economics of John
Hicks, Oxford, Basil Blackwell.

Huerta de Soto Jesús, 2009, Pieniądz, kredyt bankowy i cykle koniunkturalne, Warsza-
wa, Instytut Misesa.
Rynkowa stopa procentowa a system cenowy 157

Hülsmann Jörg Guido, 1998, Toward a General Theory of Error Cycles, „Quarterly
Journal of Austrian Economics”, vol. 1, no. 4.

Hülsmann Jörg Guido, 2002, Theory of Interest, „Quarterly Journal of Austrian Eco-
nomics”, vol. 5, no. 4.

Hutt William Harold, 1977, Theory of Idle Resources, Indianapolis, Liberty Press.

Hutt William Harold, 2007, Rehabilitation of Say’s Law, Auburn, Al, Ludwig von
Mises Institute.

Kirzner Israel M., 1976, The Theory of Capital and Interest, w: red. Moss L., 1976, The
Economic of Ludwig von Mises. Toward a Critical Reappraisal, Kansas City, Sheed
and Ward, Inc.

Kwaśnicki Witold, 1996, Knowledge, Innovation and Economy. An Evolutionary Explo-


ration, Cheltenham-Brookfield, Edward Elgar.

Lachmann Ludwig M., 1947, Complementarity and Substitution in the Theory of Capi-
tal, w: Lachmann Ludwig M., 1947, Capital, Expectations, and The Market Pro-
cess. Essays on the Theory of the Market Economy, red. Grinder Walter E., Kansas
City, Sheed Andrews and McMeel Inc.

Lange Oskar, 1967, Computer and the Market, w: Kowalik Tadeusz, 1994, Economic
Theory and Market Socialism, Aldershot, Edward Elgar.

Menger Carl, 1888, Zur Theorie des Kapitals. „Jahrbüchern für Nationalökonomie
and Statistik”.

Mises Ludwig von, 2007, Ludzkie działanie. Traktat o ekonomii, Warszawa, Instytut
Misesa.

Murphy Robert P., 2003, Unanticipated Intertemporal Change in Theories of Interest.


Doctoral dissertation, New York University.

North Gary, 1993, Salvation Through Inflation, Tyler, TX, Institute for Christian
Economics.

Phelps Edmund S., 1967, Phillips Curves, Expectations of Inflation and Optimal Unem-
ployment over Time, „Economica”, vol. 34, no. 135.

Samuelson Paul A., Nordhaus William D., 1998, Ekonomia, t. 1–2, Warszawa, PWN.

Schumpeter Joseph A., 1954, History of Economic Analysis, New York, Oxford Uni-
versity Press.
158 MATEUSZ MACHAJ

Shackle George L. S., 1992, Epistemics and Economics. A Critique of Economic Doc-
trines, New Brunswick, NJ, Transaction Publishers.

Solow Robert, 1955 (–1956), Production Function and the Theory of Capital, „Review
of Economic Studies”, vol. 23, no. 2.

Taylor John B., 1993, Discretion versus Policy Rules in Practice, „Carnegie-Rochester
Conference Series on Public Policy”, no. 39.

Taylor John B., 2007, Housing and Monetary Policy, Presented at the 2007 Jackson
Hole Conference, August.

Varian Hal, 1999, Mikroekonomia, Warszawa, PWN.

Wicksell Knut, 1962, Interest and Prices. A Study of the Causes Regulating the Value of
Money, New York, Sentry Press.
Jan Lewiński jest doktorantem w Katedrze Ekonomii Matematycznej Uni-
wersytetu Ekonomicznego we Wrocławiu. W 2008 roku obronił pracę
magisterską Krytyczne spojrzenie na wybrane założenia nowej ekonomii do-
brobytu i próba rewaluacji fundamentów ekonomii dobrobytu napisaną pod
kierunkiem prof. Kwaśnickiego.
Jan Lewiński

DE F L ACJA A POL I T Y K A

Rozdział ten przedstawia zjawisko deflacji, systematyzując różne sposo-


by jego postrzegania. Składa się on z dwóch części: w pierwszej pokazano
różnicę między definicją klasyczną i współczesną, która sprowadza się do
przeciwstawienia podaży pieniądza i przeciętnego poziomu cen, w drugiej
zaprezentowano typologię deflacji opartą na ujęciu jej jako wzrostu siły
nabywczej pieniądza. Typologia ta zostanie wykorzystana w dalszej części
tekstu do wskazania politycznych uwarunkowań i przyczyn skupienia się
współczesnej nauki ekonomicznej na deflacji jako na zjawisku wyłącznie
cenowym. Omówiono też celowość tego postępowania.

Wprowad z en ie
„Groźba deflacji zawisła nad strefą euro”, „Zbyt niska inflacja grozi po-
jawieniem się deflacji, zjawiska prowadzącego do gospodarczego zastoju”,
„Estonia pogrąża się w deflacji”, „Europę ogarnęła deflacja”, „Nawet tak
mała liczona w promilach deflacja jest bardzo poważnym zagrożeniem”,
„Widmo deflacji”, „Deflacja stoi u bram”, „Deflacja jest niebezpieczna,
bo paraliżuje popyt”, „Realna jest groźba deflacji”, „Groźba deflacji coraz
bliższa” – te cytaty z różnych mediów1 odzwierciedlają2 częste lęki przed

1
Cytaty pochodzą z „Rzeczpospolitej”, „RMF FM”, „Gazety Wyborczej”, „CEO”,
„Polityki”, „Naszego Dziennika” i „Money.pl” – wszystkie można znaleźć w Interne-
cie, więc nie podajemy źródeł. Zacytujemy jednak fragment, który przybliża sposób
pojmowania przez publicystów zjawiska deflacji („Gazeta Wyborcza” 7 października
2009): „Z punktu widzenia konsumenta deflacja może być zjawiskiem korzystnym
(…). Jednak z punktu widzenia gospodarki jest to przekleństwo. Nie tylko konsumen-
ci, ale i fi rmy wstrzymują się bowiem z wydawaniem pieniędzy, bo czekają na jeszcze
lepsze okazje. To paraliżuje aktywność gospodarczą”.
2
Lęk przed zjawiskiem deflacji jest „popularniejszy” w prasie polskiej niż za granicą,
mimo doświadczeń naszego kraju z hiperinflacją. Istotne jest podkreślenie, że lęki defla-
cyjne dotyczą nie tylko publicystów, lecz także przedstawicieli środowisk naukowych.
Dobrą ilustracją tych obaw jest opinia prof. Witolda Orłowskiego, który na ten temat
udzielił wywiadu „Gazecie Wyborczej” (Orłowski, Orliński 2009). Choć prof. Orłowski
162 JAN LEWIŃSKI

zjawiskiem deflacji cen3, które Mark Thornton nazywa apopliforizmosfo-


bią (Thornton 2003, s. 5).
Trudno racjonalność tych obaw uzasadnić za pomocą rozumowania
typowego dla mediów, takiego jak choćby to: „Mechanizm zgubnego
działania deflacji jest prosty: kiedy ceny spadają, wszyscy wstrzymują się
z zakupami, czekając na kolejne obniżki. Nikt wtedy nie inwestuje, bo
uważa, że ceny będą jeszcze niższe. W efekcie nikt nie wydaje pieniędzy,
ubywa miejsc pracy, gospodarka zwalnia i popada w kryzys. Tak było
np. w Japonii” („RMF FM” 2002; por. Johnsson 2005). Nieracjonalność
tego rodzaju obiegowych opinii moglibyśmy wykazać, gdybyśmy dla eks-
perymentu odpowiednio wymienili w przytoczonym cytacie słowo „de-
flacja” na „inflacja” (oraz „spadek” na „wzrost” cen), mając jednocześnie
przed oczami statystyki zmian cen detalicznych wyznaczających inflację
cen dla sztandarowego przypadku deflacji w Japonii latach 1980–2008

Wykres 1. Przeciętne zmiany wskaźnika cen detalicznych (CPI)


w Japonii latami w %
Źródło: Międzynarodowy Fundusz Monetarny,
World Economic Outlook Database, październik 2009

wspomina o tym, że nie każdy rodzaj deflacji jest ekonomicznie szkodliwy, to jednak sku-
pia się na negatywnych aspektach deflacji pojmowanej jako rozziew pomiędzy szybszym
spadkiem płac a wolniejszym spadkiem cen. Wzmacnia swoje twierdzenia tezą o „zbyt
małej” ilości pieniądza, spowodowanej „zbyt skąpym dawkowaniem zastrzyków gotów-
ki” przez bank centralny. Wielokrotnie w swoich popularnych felietonach dla „New York
Timesa” przedstawiał deflację jako wielkie ekonomiczne zło noblista Paul Krugman.
Zwykle w tekstach tego ekonomisty nie można znaleźć przekonywających argumentów,
lecz jedynie odwołanie do oczywistości hipotezy o negatywnym charakterze deflacji.
O niechęci naukowców głównego nurtu do analizy zjawiska deflacji pisze interesująco
Jörg Guido Hülsmann (Hülsmann 2008, s. 15 i przyp. 7 na tejże stronie); w naszym tek-
ście spróbujemy jeszcze przyjrzeć się przyczynom tego zjawiska.
3
Aby nie powodować zamieszania terminologicznego, w naszym tekście bę-
dziemy rozróżniać deflację i inflację podaży pieniądza (klasyczna defi nicja) oraz cen
(współczesna defi nicja).
Deflacja a polityka 163

(wykres). (Nadmieńmy tutaj, że w rekordowym 2002 roku średni spadek


cen wyniósł ledwie 0,887%)4. Za sprawą naszego eksperymentu myślo-
wego otrzymalibyśmy podobnie przerysowany i nietrafiony obraz skut-
ków inflacji: ludzi szturmujących sklepy w nadziei obrony przed każdym
niezerowym5 dodatnim ruchem cen, wydających wszystkie oszczędności
– pieniądze przeznaczone na czynsz, ogrzewanie, edukację dzieci czy wa-
kacje; przedsiębiorców, którzy zdemontowali maszyny, aby jak najszybciej
oddać je na złom, a potem porzucili swoje fabryki.
Oczywiście to jedynie karykatura, a przyczyny obawy przed deflacją są
znacznie głębsze i to nimi będziemy się tutaj zajmować.

Ta k s o n o m i a S a l e r n o
Na początek w celu wprowadzenia porządku terminologicznego przed-
stawimy interesującą taksonomię zjawiska deflacji, wprowadzoną przez Jo-
sepha Salerno. Amerykański ekonomista analizuje deflację w kategoriach
wpływu wzrostu siły nabywczej pieniądza na spadek ogólnego poziomu
cen (Salerno 2003, s. 82–83). Wychodzi on z założenia, że pieniądze nie
są dobrem samym w sobie, tj. nie podlegają konsumpcji (chyba że służą
celom artystycznym albo do palenia w piecu, jak w Republice Weimar-
skiej). Jedyna (acz bardzo cenna) korzyść z ich posiadania wiąże się z moż-
liwością kupienia za nie dóbr. Nie oznacza to, że gromadzenie zasobów
gotówki nie jest produktywne; wręcz przeciwnie, niektóre dobra może-
my kupić wyłącznie posiadając pewną ich ilość, więc ich zgromadzenie
jest wtedy konieczne. Niemniej wyłącznym celem zbierania pieniędzy jest
umożliwienie zdobycia innego dobra – na podobnej zasadzie, jak jedy-
nym celem sprzedaży każdego produktu jest zdobycie innego dobra niż
wyprodukowane.
Stąd wniosek, że w gospodarce barterowej prymitywnym prototypem
pieniądza jest każde sprzedawane dobro – im chętniej i częściej kupowane,
tym bliższe jest prawdziwemu pieniądzowi, który jest na tyle powszechnym

4
Przeciętne roczne CPI w Japonii wg danych IMF (World Economic Outlook Da-
tabase, International Monetary Fund October 2009).
5
Choć lęki deflacyjne dotyczą groźby tzw. spirali deflacyjnej, czyli coraz szybsze-
go popadania w coraz większą deflację, to co do zasady wystarczy pojawienie się moż-
liwości wystąpienia choćby nieznacznego ujemnego ruchu cen, aby wywołać skrajne
proinflacyjne reakcje państwa lub banku centralnego. Przykład takiej gwałtownej
i niewspółmiernej reakcji powojennych władz włoskich opisuje Albert O. Hirschman
(Hirschman 1948, s. 606): „Obawy przed deflacją i sprzeciw wobec niej są silniejsze
w lepiej zorganizowanych grupach interesu, w porównaniu z tymi zrodzonymi przez
inflację. We Włoszech pozwolono, aby doszło do galopującej inflacji, zanim wprowa-
dzono w życie aktywne środki mające na celu jej zwalczenie. Jednak przy pierwszych
oznakach deflacji podniesiono powszechny alarm, a reakcja rządu była natychmia-
stowa i zdecydowana”.
164 JAN LEWIŃSKI

mianownikiem wymiany, że możemy rozliczyć za jego pomocą wymianę


każdej pary dóbr (Menger 2004, s. 257–260). To oznacza, że cena każdego
dobra jest po prostu tożsama z siłą nabywczą pieniądza. Stąd konstatacja,
że aby zbadać zmiany ogólnego poziomu cen, należy zidentyfikować teore-
tycznie czynniki wpływające na siłę nabywczą pieniądza.
Można twierdzić, że takie ujęcie problemu usuwa z pola widzenia te wszyst-
kie rodzaje spadków cen, które nie pociągają za sobą zmiany siły nabywczej
pieniądza. Kryje się w tym jednak podstawowy błąd: zmiany poziomu cen
wywoływane są przez zmiany siły nabywczej pieniądza, a nie na odwrót.
Zmiana poziomu cen, która nie wiąże się logicznie z czynnikami wpływający-
mi na zmianę siły nabywczej, jest po prostu niemożliwa, lub de facto nie jest
żadną zmianą cen, tylko redenominacją6 – zmianą nominalną, neutralną wo-
bec siły nabywczej, której szczególnym przypadkiem jest denominacja (zob.
przyp. 30). Jest natomiast możliwe takie złożenie przeciwstawnego wpływu
czynników na siłę nabywczą, które oznaczać będzie jej efektywną niezmien-
ność, choć nie będzie neutralne dla systemu gospodarczego, gdyż będzie się
wiązać z jakimś rodzajem efektów redystrybucyjnych7.
Na tej podstawie Salerno wyróżnia (Salerno 2003, s. 83–99) czte-
ry zasadnicze kategorie czynników wpływających na siłę nabywczą, za
sprawą których ogólny poziom cen może spaść. Dwie z nich – „deflacja
wzrostu gospodarczego” i „deflacja budowania zasobów gotówkowych”
(ang. growth deflation i cash-building deflation) – wpływają na ceny (jako
siłę nabywczą) od strony popytu na jednostkę pieniężną, a pozostałe dwie
– „deflacja kredytu bankowego” i „wywłaszczenie deflacyjne” (ang. bank
credit deflation i confiscatory deflation) – od strony jej podaży. Działanie
pierwszych trzech kategorii czynników na dobrobyt społeczny jest przy-
najmniej neutralne, jeśli nie pozytywne, natomiast ich ostatni rodzaj ma
zdecydowanie niekorzystny wpływ.

Def lacja wzrost u gospodarczego

Ten rodzaj deflacji wywoływany jest przez stymulujący popyt na pie-


niądz wzrost jego siły nabywczej spowodowany zwiększeniem produk-
tywności wytwórców (Salerno 2003, s. 83–85). Może być to wywołane
przez dowolny wzrost produktywności pracy czy kapitału, związany

6
Redenominacją nazywamy w tym tekście (zgodnie z tradycją anglojęzyczną)
wymianę nominalną jednostki pieniężnej na nową jej wielkość w pewnym sztywno
ustalonym stosunku, np. 1:1000 albo 1:0,5.
7
Możemy wyobrazić sobie, że dzięki innowacjom technologicznym rośnie produk-
tywność np. na rynku elektroniki, co powinno zwiększać siłę nabywczą pieniądza, lecz
przeciwdziała temu osłabiająca siłę nabywczą proinflacyjna polityka ekspansji kredyto-
wej prowadzona przez bank centralny. Ze względu na efekty redystrybucyjne proces ten
daleki będzie od neutralności ekonomicznej, choć siła nabywcza może pozostać z grub-
sza niezmienna (co nie dotyczy już wewnętrznej struktury cen na rynku; przykładowo,
ceny czynników produkcji mogą spaść, a ceny dóbr konsumpcyjnych wzrosnąć).
Deflacja a polityka 165

z wprowadzeniem innowacji technologicznych, zniesieniem szkodliwych


regulacji, obciążeń pracy, obniżeniem podatków. Każdy wzrost produk-
tywności będzie miał, per se, pozytywny wpływ na siłę nabywczą jednost-
ki pieniężnej (jeśli jednocześnie wystąpią inne czynniki, takie jak wzrost
kosztów produkcji, to oczywiście pojawi się wtedy dodatkowy, odmien-
ny efekt negatywnie wpływający na siłę nabywczą, który może w jakimś
stopniu stłumić działanie tego pierwszego).
Wzrost produktywności na rynku8 oczywiście wpływa rzecz ja-
sna pozytywnie na siłę nabywczą jednostki pieniądza (Salerno 2003,
s. 84–85), o ile istnieje na tym rynku swoboda wejścia (Machaj 2009,
s. 20–21, 198 i nast.). Bierze się to stąd, że gdy na danym rynku spadają
koszty produkcji jednostki towaru, otwiera się możliwość pojawienia się
konkurentów, dotychczas trzymających się na uboczu z powodu zbyt
wysokich kosztów, oraz inwestorów z innych sektorów, których przycią-
gnęła szansa wykorzystania wzrostu stopy procentowej. Na wzrost siły
nabywczej pieniądza wpływa też, z defi nicji, podniesienie jakości lub
użyteczności produkowanego towaru. Wzrost siły nabywczej pieniądza
ma tu charakter dostosowania się rynku do wzrostu „popytu na funkcję
wymienną” (ang. exchange demand) pieniądza (Salerno 2003, s. 83–84)
albo inaczej mówiąc – popytu na pieniądz ze względu na możliwość jego
wymiany na nowe produkty 9.
Czy ten rodzaj deflacji może wprowadzić gospodarkę w spiralę defla-
cyjną lub czy jest z jakichkolwiek przyczyn szkodliwy dla dobrobytu spo-
łecznego? Nic za tym nie przemawia, choć zdania ekonomistów są na-
dal podzielone (Bernanke 2002, Rostowski 2003). Zauważmy, że wzrost
produktywności danego sektora sprowadza się do zwiększenia różnicy
cenowej pomiędzy kosztem a ceną sprzedaży, co nazywamy też stopą pro-
centową (Mises 2007, s. 447; Huerta de Soto 2009, s. 213–214; Reisman
1998, s. 521). Ten spread cen przyciąga inwestorów, którzy – jak zawsze
– chcą zainwestować mniej i z każdej jednostki pieniądza uzyskać więcej.

8
Producent może oczywiście „schować do szuflady” innowację. W takim wypad-
ku nie odgrywa ona żadnej roli ekonomicznej, więc z punktu widzenia gospodarki
przestaje istnieć. (Co najwyżej może stanowić bodziec dla konkurencji tego producen-
ta do poszukiwań w tym kierunku, jeśli pozostała wiedza o istnieniu tej innowacji).
9
Niektórzy ekonomiści (Reisman 1998, s. 520, przyp. 28, i s. 559–560) twierdzą
jednak, że ten rodzaj spadku cen nie ma żadnego związku ze wzrostem popytu na
pieniądz czy spadkiem prędkości cyrkulacji pieniądza. Te dwa stanowiska mijają się ze
sobą tylko pozornie. Zauważmy, że Reisman utożsamia popyt na pieniądz z prędkością
jego cyrkulacji, która jego zdaniem raczej nie ulega w tym wypadku zmianie. Wzrost
popytu na pieniądz ma w tym ujęciu charakter dostosowania nominalnej wartości pie-
niądza do realnego wzrostu podaży produkcji, a nie zmiany preferencji stricte wobec
pieniądza. To oznacza, że skłonność do posiadania zasobu gotówkowego i wycofania
go tym samym z obiegu nie zmienia się, o ile oczywiście pominiemy efekty Cantillona
(„efekty pierwszej rundy”, jak nazywa je Friedman), czyli miejsca wpływu pieniądza
– a w tym wypadku odwrotny efekt wpływu siły nabywczej – do gospodarki.
166 JAN LEWIŃSKI

Następstwem tego jest jednak wzrost popytu na czynniki pierwotne (i pro-


dukcyjne), uczestniczące w tym procesie produkcji, oraz wzrost podaży
dobra finalnego. Skutkuje to oczywiście spadkiem stopy procentowej do
ogólnego rynkowego poziomu (ściślej, lekko powyżej niego). Nie oznacza
to, że dodatkowa produktywność „zniknęła”. Wręcz przeciwnie – zmieni-
ła alokację inwestycji na przestrzeni całej gospodarki na swoją korzyść.
Chodzi o to, że pierwsi odbiorcy dodatkowej produkcji10 bezpośred-
nio i ex definitione zyskują dodatkową siłę nabywczą (w formie większej
funkcjonalności lub większej ilości dóbr na jednostkę pieniądza) w sytu-
acji niezmienionych dochodów (ten efekt przypomina nieco inflacyjny na-
pływ nowej podaży pieniądza do gospodarki, lecz w odróżnieniu od niego
zwiększa dobrobyt społeczeństwa w sensie Pareto, gdyż – ceteris paribus
– tylko dodaje siłę nabywczą, nikomu jej nie odbierając11). W niereali-
stycznym modelu gospodarki mogłoby to oznaczać, że ludzie wstrzymują
się z wszelkimi zakupami, czekając na dalszy spadek cen (nota bene, nasu-
wa się pytanie: dlaczego nie czynili tak wcześniej?). Lecz w rzeczywisto-
ści ludzkie potrzeby są nieograniczone, a dobra służące ich zaspokojeniu
heterogeniczne. Dysponując większymi możliwościami konsumowania,
tworzenia, inwestowania i produkowania, ludzie te sposobności wykorzy-
stają. Ponadto wynikający ze wzrostu produktywności wzrost siły nabyw-
czej per se także nie jest homogenicznym zjawiskiem, gdyż zmianie ulega
podaż dóbr w konkretnych sektorach lub firmach. Dlatego pierwsi odbior-
cy nowej siły nabywczej nie przeznaczają swoich pieniędzy w całości na
zakup tych samych dóbr, dzięki którym ją zyskali12 , jak zakładają proste
modele homogenicznych dóbr, lecz zmieniają strukturę zakupów, zbierając

10
Jeśli za tych pierwszych odbiorców uznać producentów, to rzecz jasna oni też
zyskają na podobnej zasadzie, z tym, że zamiast zyskać siłę nabywczą na jednost-
kę pieniężną, w pierwszym momencie zyskają dodatkowe pieniądze, które w sumie
dawać im będą zwiększoną siłę nabywczą. Będą mogli przeznaczyć te dodatkowe
pieniądze, podobnie jak ich klienci, na inne kategorie dóbr (w tym np. zwiększanie
zasobów gotówkowych).
11
Pomijamy tutaj straty producentów mniej efektywnych lub wytwarzających do-
bra, które zostały wyparte przez inne, zdaniem konsumentów lepsze. Nie wchodząc zbyt
głęboko w spór etyczny, wystarczy tutaj stwierdzić, że nie dysponując wszechwiedzącym,
domniemanie „obiektywnym” punktem widzenia, musimy się na jakieś kryterium do-
brobytu zdecydować – i tym kryterium wydaje się suwerenny wybór konsumenta. W in-
nym bowiem razie zakładamy istnienie homo superior, który decyduje, co jest dobrobytem
dla różnych ludzi.
12
Zgodnie z prawem malejącej użyteczności, kupiwszy tyle dóbr (za mniejszą te-
raz kwotę pieniędzy), ile kupowali wcześniej, mniej są skłonni do kupienia następnej
ich ilości, tj. przeznaczenia różnicy pomiędzy obiema kwotami na te same dobra. Co
więcej, mogą chcieć wykorzystać nową siłę nabywczą zupełnie inaczej. Na początku,
nim uwidocznią się skutki wzrostu siły nabywczej pieniądza także na inne sektory,
całkowita rezygnacja z relatywnie (bo tylko wskutek ułatwienia dostępu do niego)
zdeprecjonowanego dobra nie miałaby żadnego ekonomicznego uzasadnienia, które-
go by nie miała rezygnacja wcześniejsza, także wywołująca spadek cen.
Deflacja a polityka 167

zasoby gotówkowe umożliwiające zakupienie droższych dóbr, zwiększają


konsumpcję i inwestują środki. Tym samym wprowadzają nowy popyt
na inne dobra, które dotychczas nie były tak chętnie kupowane13. To zaś
oznacza obniżenie cen tych innych dóbr i kolejne, aczkolwiek już mniej-
sze, zwiększenie siły nabywczej pieniądza. Wzrost produktywności wpły-
wa w ten sposób na kolejne sektory gospodarki, a także przyciąga inwe-
storów skuszonych wzrostem zarobków w tych sektorach, wskutek czego
stopa procentowa na całym rynku zmierza ku wyrównaniu14.
W takiej sytuacji uczestnicy rynku mogą łatwiej zarówno konsumować,
jak i oszczędzać, pozwalając sobie na więcej, niż gdyby nie wystąpił wzrost
produktywności. Być może zdecydują się na większą konsumpcję, dzięki
czemu ich standard życia wzrośnie. Równie dobrze mogą jednak chcieć
relatywnie ograniczyć konsumpcję, nie zmieniając jej bezwzględnego po-
ziomu, i zacząć gromadzić środki na cele długofalowe, np. edukację dzieci
czy inwestycje na rynku kapitałowym. W żadnym razie nie wywoła to
spirali deflacyjnej, gdyż realnie nie stracą ani producenci, ani konsumenci.
Nie będzie potrzeby wprowadzania dalszych obniżek cen przez producen-
tów, a konsumenci nie będą oczekiwali takich zmian (por. przyp. 13).

Def lacja budowa nia zasobów gotówkow ych

Ten spadek cen wywołany jest przez wzrost popytu na pieniądz wy-
nikający z potrzeby zgromadzenia przez uczestników rynku funduszu

13
Co do tego zdecydowanie zgadzamy się z podobnym stanowiskiem George’a
Reismana (Reisman 2009, Postscript): „perspektywa spadku cen wynikłego ze wzro-
stu produkcji i podaży nie oznacza zrezygnowania z dokonywania zakupów. Spowo-
dowane jest to tym, że przewidywana obniżka cen nie wywołuje jakiegokolwiek skur-
czenia się czy to wydatków, czy jakiegokolwiek innego, bardziej znaczącego agregatu
pieniężnego. Odwrotnie – prognoza spadku cen znaczy, że zwiększy się również siła
nabywcza całości zgromadzonych oszczędności i przyszłego dochodu. Postęp gospo-
darczy zwiastuje zatem korzystniejszą sytuację fi nansową w przyszłości w porówna-
niu z obecną, skutkiem czego ludzie mogą konsumować więcej od razu”. W dalszej
części Reisman stawia tezę, która wydaje się nieprecyzyjna, choć na ogół poprawna:
„Równoważy to korzyści, które przynosi oczekiwanie na przyszły spadek cen. Inny-
mi słowy, zmniejszenie się cen, które bierze się ze wzrostu produkcji i podaży, jest
w gruncie rzeczy neutralne wobec stosunku wydatków na bieżącą konsumpcję do
oszczędności służących przyszłej konsumpcji”. Nie do końca się z tym zgadzam. Re-
lacja między konsumpcją obecną a przyszłą może się zmienić wskutek wzrostu siły
nabywczej na wiele sposobów i zależy to wyłącznie od indywidualnych preferencji
konsumentów. Ci mogą postanowić, że skoro zaspokoili najważniejsze potrzeby kon-
sumpcyjne, to mogą zacząć oszczędzać, albo że jeśli już uzbierali oszczędności, mogą
zacząć konsumować więcej swoich dochodów. Oczywiście, obydwa skrajne scenariu-
sze nie prowadzą do spirali deflacyjnej i nie wpływają negatywnie na dobrobyt.
14
Nie jest tutaj istotne, czy jej nowy poziom jest wyższy niż poprzedni. Liczy się
fakt, że pojawiła się inwestycja, w której spread cenowy był chwilowo wyższy niż gdzie
indziej, wskutek czego inwestorzy przesunęli swój kapitał w to nowe miejsce, pomniej-
szyli spread w sektorze docelowym i powiększyli go w sektorach, które opuścili.
168 JAN LEWIŃSKI

gotówkowego (Salerno 2003, s. 85–86). Powody takiego zainteresowania


uczestników rynku posiadaniem jednostek pieniężnych mogą być różno-
rakie: m.in. przewidywanie spadku dochodów w przyszłości (np. wskutek
kryzysu), prognozy spadku cen wskutek wzrostu gospodarczego, wzrostu
zainteresowania zyskami na rynku kapitałowym.
Pierwszy wymieniony powód oznacza przeniesienie konsumpcji
w przyszłość i wbrew pozorom nie wiąże się z dobrowolną decyzją
o tym, aby konsumować mniej. Wręcz przeciwnie, oznacza przewi-
dywanie przez uczestnika rynku (poprawne ex ante), że w przyszłości
czynniki zewnętrzne zmuszą go do zmniejszenia konsumpcji. Jedyną
możliwością obrony przed przyszłym zmniejszeniem konsumpcji jest
przeniesienie przez niego w przyszłość części konsumpcji obecnej.
W istocie z punktu widzenia zasad gospodarowania proces ten niczym
nie różni się od decyzji przedsiębiorcy o przeznaczeniu jakichś środków
na określony proces inwestycyjny – w obydwu wypadkach celem jest
zwiększenie przyszłej konsumpcji kosztem zmniejszenia obecnej. Nikt
jednakże nie twierdzi, że poparte oszczędnościami procesy inwestycyj-
ne (nawet masowe) są niebezpieczne dla gospodarki, gdyż grożą spiralą
defl acyjną.
Drugi powód jest bardzo podobny. Wzrost popytu na pieniądz jest reak-
cją rynku na przyszły wzrost podaży i stanowi krok ku jej zrównoważeniu
z przyszłym popytem. Oznacza to, że uczestnicy rynku chcą w przyszłości
pozwolić sobie na kupienie większej ilości dóbr – jest więc dla producen-
tów korzystnym sygnałem tego, że dobra, które zaoferują konsumentom,
spotkają się z zainteresowaniem. To samo dotyczy chęci zgromadzenia
gotówki w celu jej zainwestowania w sektory, które rokują większe profity.
Jest to przedsiębiorcze działanie uczestników rynku mające na celu zyska-
nie na branżach o wyższej produktywności i jest równie nieszkodliwe jak
poprzednie przypadki.

Def lacja k redy t u ba n kowego

Do trzeciej kategorii czynników, które wpływają na siłę nabywczą


wskutek zmniejszenia ilości kredytu bankowego wykreowanego wcze-
śniej w systemie rezerw cząstkowych, należą czynniki oddziałujące na siłę
nabywczą od strony podaży pieniądza (Salerno 2003, s. 86–96). Ten ro-
dzaj deflacji dotyczy przypadku wcześniejszej kreacji kredytu bankowego,
który dostarczył rządowi, sektorom najbliższym państwu oraz bankom
dodatkowej siły nabywczej bez uprzedniego wzrostu produktywności go-
spodarki. Wiąże się to z wycofaniem z obrotu rynkowego pewnej części
czynników produkcji na rzecz obrotu nierynkowego.
Salerno wyróżnia dwa typy tego rodzaju deflacji – z pierwszym mamy
do czynienia w sytuacji runu na banki, z drugim zaś wtedy, gdy rząd
podejmuje samodzielnie decyzję o wprowadzeniu standardu stuprocento-
wych rezerw obowiązkowych.
Deflacja a polityka 169

Run na banki
Jeśli mamy do czynienia z pierwszym typem deflacji, to sytuacja wydaje
się dość klarowna: banki komercyjne tworzyły piramidę finansową opartą
na wypłacaniu środków, które rzekomo utrzymywały w swoich skarbcach,
przez co ich deponenci15 byli pozbawiani dóbr, które mogliby kupić, ale za-
miast nich kupowali je kredytobiorcy banków. Gdy deponenci zorientowali
się, że środkami, które złożyli w banku, dysponują inne osoby, próbowali je
wypłacać. A kiedy rozniosła się wieść, że bank nie jest wypłacalny, wszyscy
deponenci próbowali środki odzyskać. Deflacja dotyczy w tym przypadku
rozproszenia iluzji obfitości kredytu i per se jest ze wszech miar pozytywna.
Uczestnicy rynku, którzy stracili swoje środki, dowiadują się o ich sprze-
niewierzeniu przez właścicieli banku, co pozwala im uwzględnić tę nową
wiedzę w dalszych swoich działaniach. Z pewnością nie jest to wiedza przy-
jemna, tak jak – damy tu przykład bardziej obrazowy – wiedza o tym, że
z parkingu ukradziono nam samochód. W takiej sytuacji lepiej wiedzieć
o tym fakcie jak najszybciej, zanim np. zaplanujemy długą wycieczkę sa-
mochodem i kupimy niezbędny sprzęt, czyli zainwestujemy swoje zasoby
kierując się fałszywym obrazem naszego stanu posiadania. Podobnie świa-
domość kontynuowanego zaboru siły nabywczej skłania oszczędzających
do wycofania swoich środków, a następnie do wykorzystania ich siły na-
bywczej, zanim ulegnie dalszemu spadkowi i zanim wzrosną ceny dóbr
wskutek inflacji podaży pieniądza. Mogą też próbować je „ukryć” w formie
aktywów trwałych, które nie ulegają deprecjacji tak jak pieniądz (chodzi tu
o nieruchomości, pewne czynniki produkcji, grunty, złoto, sztukę itp.).
Można twierdzić, że szkodliwość kreacji kredytu ogranicza się do samego
runu, tj. masowego żądania wypłaty środków. Runowi dałoby się zapobiec,
na przykład przez wprowadzenie centralnej instytucji będącej ostateczną
instancją socjalizującą ryzyko w jeszcze większym stopniu niż same banki,

15
Używamy dla uproszczenia słowa „deponent” na określenie wszystkich wła-
ścicieli środków zdeponowanych w banku. Klienci banku nie muszą wiedzieć, co się
dzieje ze środkami po ich wpłaceniu. Iluzoryczne przekonanie, że pieniądze „leżą”
w banku, jest podtrzymywane dzięki temu, że w obrębie tej piramidy fi nansowej
indywidualne konta są jedynie księgową sztuczką, za którą stoi, składający się z nie-
wypłaconych w gotówce resztek wszystkich kont, jeden wspólny fundusz rezerw obo-
wiązkowych, służący tymczasowemu wypłacaniu środków na użytek drobnej części
klientów. Ta konstrukcja socjalizuje ryzyko niewypłacalności. Umożliwia to bankie-
rom balansowanie na krawędzi niewypłacalności, co może ostatecznie doprowadzić
do utraty pieniędzy i bankructwa uczestników tej piramidy.
Jakościowo czym innym byłoby doprecyzowanie praw własności środków przez
wypłaty – zamiast pustych pieniędzy – losów loteryjnych obciążonych ryzykiem nie-
wypłacalności. Wówczas uczestnicy wymian mogliby dyskontować ryzyko defaultu
i odpowiednio obniżać (urealniać) wartość tych środków. Funkcjonowanie takiego
systemu na wolnym rynku jest rzecz jasna wątpliwe, trudno bowiem dociec sensow-
nych przyczyn brania udziału w tego rodzaju loterii, skoro zdyskontowana wartość
losów prawdopodobnie i tak musiałyby mieć wartość tych środków (prawdziwych
pieniędzy), które wpłacono do banku rezerw cząstkowych.
170 JAN LEWIŃSKI

czyli wypłacającą w razie potrzeby środki z jakiegoś wspólnego funduszu


lub po prostu drukującej pieniądze. Takie postawienie sprawy ignoruje
prawa własności deponentów i zbywa milczeniem kwestię ograniczoności
materialnych zasobów wobec niemalże nieograniczonej możliwości kreacji
kredytu. Należy podkreślić, że run jest ostatnią możliwością obrony po-
siadaczy rachunków bankowych przed destrukcją ich mienia. Pieniądze są
systematycznie pozbawiane wartości przez kreatorów kredytu, co zniechęca
jego posiadaczy do pracy, stanowi bodziec zachęcający do szybszej kon-
sumpcji zasobów, a w szerszym wymiarze reorientuje gospodarkę w stronę
krótkookresowo nastawionej „gospodarki opartej na długu”.
Środki pieniężne poddano multiplikacji, ale ilość fizycznych zasobów
istniejących w danym momencie się nie zwiększyła, ulegając redystrybucji
na korzyść pierwszych, którzy wydali pieniądze po kreacji kredytu. Ma to
dwojaki skutek. Po pierwsze, deponenci środków, przekonani, że ich środki
są bezpieczne i w każdej chwili mogą nimi dysponować, wydają swoje za-
soby gotówkowe niebędące depozytem, opierając się na kalkulacji użytecz-
ności dokonanej przez nich tak, jak gdyby struktura ich posiadania była
inna. Jest mało prawdopodobne, aby struktura ich wydatków nie zmieniała
się w zależności od ilości posiadanych środków na koncie bankowym. Dla-
tego będą wydawać raczej bardziej rozrzutnie, pozwalając sobie na więcej,
niż ich na to stać. Zmiana struktury ich wydatków spowodowana iluzją
kredytową z konieczności pociągnie za sobą niekorzystną dla nich alokację
środków16. Drugim skutkiem kreacji kredytu jest dokonanie zakupów za-
sobów przez tych, którzy jako pierwsi go uzyskali. Początkowo uczestnicy
rynku nie dostrzegają zmiany, sądząc, że odniesienie pieniądza do zasobów,
czyli jego siła nabywcza, pozostało bez zmian. Pozwala to na spowodowane
iluzją zwiększenie konsumpcji, a także jednoczesne rozpoczęcie inwesty-
cji, które wcześniej traktowano jako nieopłacalne (wskutek braku na rynku
środków do ich realizacji) w porównaniu z innymi inwestycjami17. I ta iluzja
powoduje niekorzystne zmiany w strukturze rynkowych alokacji, kończąc
się stratami dla całej społeczności.

16
Sama zmiana alokacji ich środków jest dowodem na szkodliwość opisywanej
tu iluzji kredytowej. Można byłoby próbować podważyć tę konstatację przez zakwe-
stionowanie wyborów ekonomicznych deponentów. To jednak nie jest możliwe bez
wprowadzenia jakiegoś arbitralnego kryterium podważającego prawo wyboru.
17
Inwestowanie nie polega na mechanicznym poszukiwaniu środków, które po
zainwestowaniu same z siebie przynoszą zyski, lecz na zdobywaniu materialnych
środków produkcji, ich technicznej obróbce i wytworzeniu materialnego produktu,
za który dopiero później uzyskuje się jakieś środki. Jest to wieloetapowy proces roz-
ciągnięty w czasie, w którym koordynacja międzyokresowa prowadzona dzięki kal-
kulacji ekonomicznej odgrywa zasadniczą rolę. Kreacja kredytu sztucznie wyolbrzy-
mia możliwości inwestycyjne, lecz jednocześnie, wskutek anihilacji siły nabywczej
pieniądza, wywołuje nieprzewidziany spadek urealnionych przychodów z produkcji,
jeszcze bardziej powiększając przyszłą stratę (Huerta de Soto 2009, s. 262–291; Mises
1953, s. 261–366; idem 2007; Hayek 1933; idem 1967).
Deflacja a polityka 171

Run na banki nie jest zjawiskiem szkodliwym ekonomicznie, lecz jest


dostosowaniem uczestników rynku do szkody, która została spowodo-
wana przez banki wcześniej. Odzyskując swoje pieniądze, deponenci roz-
praszają iluzję kredytową i dzięki swoim roszczeniom powodują szybsze
wycofanie środków z rozpoczętych błędnych inwestycji. Oczyszczając
z nich rynek, przynajmniej w pewnym stopniu zapobiegają dalszej szko-
dzie, do której mogłoby dojść, gdyby przedsiębiorcy, którzy uruchomili
te procesy inwestycyjne, nadal alokowali w nie środki produkcji. Dzięki
temu zasoby nie są odbierane tym przedsiębiorcom, których inwesty-
cje pozostaną na rynku, co poprawia ich rentowność. Urealnienie sytu-
acji rynkowej dzięki przywróceniu właściwej siły nabywczej pieniądza
umożliwia też aktorom dokonanie poprawek w ich kalkulacjach eko-
nomicznych, co zwiększa efektywność alokowania przez nich zasobów
(patrz też przyp. 16).
Skoro deflacja cen, następująca wskutek wycofania podaży pieniądza
(lub kredytu) w trakcie runu, jest odpowiedzią na wcześniejszą inflację tej
podaży, to mamy tutaj dwie przeciwstawne siły: wzrost cen powodowany
przez inflację oraz ich spadek w reakcji na deflację. Oczywiście, siły te
całkowicie się nie znoszą – pomiędzy ich działaniem istnieją opóźnienia
czasowe, a oprócz tego rodzi się brak zaufania do instytucji bankowych
i pieniądza, co nie przechodzi na rynku bez echa. Owo działanie jednak
jest wbrew pozorom pożyteczne ekonomicznie, gdyż tworzy bodźce prze-
ciwdziałające powstawaniu dalszych instytucji „akcydentalnie” kreują-
cych kredyty i kolejnych błędnych inwestycji, które muszą zakończyć się
rozproszeniem iluzji rogu obfitości zasobów.
Rzecz jasna, mogą istnieć różne, lepsze lub gorsze, metody zerwania
przez społeczeństwo z inflacją kredytu. Środki w bankach mogą na przy-
kład być rozdzielane między klientów pro rata, gdzie odszkodowanie z ty-
tułu utraty środków zależy od ich wielkości i sumy wszystkich realnych
aktywów banku. Inną metodą może być działanie na zasadzie pierwszeń-
stwa albo poziomu ubóstwa, albo wielu innych kryteriów, które mogą
być wybrane przez poszkodowanych lub w drodze arbitrażu. Wszystkie
ewentualne rozstrzygnięcia wymagają sprzyjającego systemowi własności
prywatnej otoczenia instytucjonalnego (Leoni 1991, s. 105–109; Rothbard
2010a, s. 357–359), w którym prawa poszkodowanych traktuje się rzetel-
nie, nie oddalając ich en masse tylko dlatego, że tego żąda suweren.
Jakakolwiek droga odszkodowawcza zostałaby wybrana, należy pamię-
tać, że wcześniejsza inflacja spowodowała nieodwracalne zmiany w ca-
łym systemie gospodarczym, szkodząc po trosze wszystkim. Nie dość,
że nie da się odzyskać całości środków, które zostały utracone, to jeszcze
trudno jest – poza bezpośrednio zaangażowanymi w proceder bankami
– wskazać osoby, do których powinno się zwracać z roszczeniami. Celem
kredytobiorców, choć z pewnością ponoszą część odpowiedzialności za
przejęcie mienia, prawie na pewno nie było jego przejęcie. Nie mieli spo-
sobu, aby odróżnić pieniądze pochodzące z oszczędności od tych, które
172 JAN LEWIŃSKI

zostały wykreowane bez realnego pokrycia. Te środki są bowiem zmiesza-


ne w jednym, wspólnym funduszu. Można też powiedzieć, że deponenci
mogli doskonale zdawać sobie sprawę z tego, co się działo z ich środkami,
więc również na ich barkach spoczywa odpowiedzialność za zniszczenia
ekonomiczne, których doświadczyli inni.
Niezależnie od tego, jeśli run na banki nie jest powstrzymywany
sztucznie przez ingerencję państwa, to bezpośrednia przyczyna destrukcji
gospodarczej i deflacji, czyli inflacja, ustaje. Gdy brakuje dalszych powo-
dów do wycofywania podaży pieniądza, uczestnicy rynku mogą wrócić
do zwykłej działalności. Jeżeli w okresie dostosowawczym przetestują in-
stytucje rynku i sprawdzą, że nie zagraża im już przejmowanie siły na-
bywczej, będą mogli znów alokować swoje środki w bankach, dzięki cze-
mu przyczynią się do powstania autonomicznych instytucji kontrolnych
rynku. Wówczas deflacja może się zakończyć.

Wycofa nie k redy t u przez system ba n kow y

Drugim rodzajem deflacji kredytu bankowego omawianym przez Jose-


pha Salerno jest wycofanie państwowego wsparcia dla systemu inflacyjnej
ekspropriacji. Może to nastąpić np. przez wprowadzenie prawnego zaka-
zu kreacji kredytu, czyli zwiększenie poziomu rezerw obowiązkowych do
100 procent. Rozwiązania ustawowe mogą być tutaj rozmaite.
Salerno proponuje (Salerno 2003, s. 92 i 93) zastosowanie „deflacji fi-
skalnej”, polegające na powtórzeniu kilku prostych, skoordynowanych
działań. Po pierwsze, bank centralny wycofuje środki z utrzymywanych
w bankach komercyjnych kont (tax and loan accounts), co powoduje
zmniejszenie się rezerw banku. Jeśli spadają poniżej stopy obowiązko-
wych rezerw, banki są zmuszone powstrzymać dynamikę akcji kredytowej
i przywrócić właściwą relację rezerw do wykreowanej przez nie płynności.
Gdy to uczynią, bank centralny wpłaca z powrotem wycofane uprzednio
środki i jednocześnie tak podwyższa wymagany poziom rezerw obowiąz-
kowych, aby banki nie mogły wykreować dodatkowego kredytu. W ten
sposób nikt nie traci posiadanych zasobów gotówkowych – po prostu nie
zostają wykreowane nowe, a stare są stopniowo spłacane. W następnej
turze bank centralny powtarza całą procedurę tyle razy, aż poziom rezerw
obowiązkowych w końcu wyniesie 100 procent.
Z pewnością nie jest to metoda idealna, choć niewątpliwie łagodna
dla systemu politycznego. Przede wszystkim proceder redystrybucji dóbr
cały czas się odbywa (definitywnie kończy się dopiero wtedy, gdy rezerwy
są stuprocentowe). Stare pożyczki są spłacane i udzielane są nowe, co po-
zwala na rewolwingowe wspieranie błędnych inwestycji, a przez to dalszą
nieefektywną redystrybucję zasobów. Przyczynia się to do przewlekłości
choroby gospodarki i przedłuża powstawanie strat społecznych. Trudno
też założyć, że władze monetarne będą przestrzegać dyscypliny koniecz-
nej do przeprowadzenia takiego procesu do końca i nie będą próbowały
Deflacja a polityka 173

oddalić koniec systemu rezerw cząstkowych, bądź porzucić całkowicie


próby realnej reformy. Ponadto zawsze istnieje niebezpieczeństwo, że ko-
lejne władze, wciąż dysponujące prerogatywą ustalania poziomu rezerw
obowiązkowych, po prostu zrezygnują z warunku 100 procent na rzecz,
powiedzmy, 98 procent. Co stanie się później, łatwo przewidzieć.
Nie zmienia ta konstatacja faktu, że per se skutki wycofania podaży
pieniądza będą dla uczestników rynku równie pozytywne (i z tych sa-
mych przyczyn), jak w omawianym wyżej przykładzie runu na banki.
Każda metoda, która sprawi, że zmniejszą się możliwości ukrytej inflacji
podaży pieniądza, przyczyni się do tego samego: przywrócenia zaufania
do pieniądza, poprawienia dokładności kalkulacji ekonomicznych przed-
siębiorców i międzyokresowych kalkulacji użyteczności konsumentów.
Nie stanie się tak za sprawą kolejnej metody deflacji – przez konfiskatę
– gdyż w ogóle nie dotyka źródeł inflacji podaży pieniądza.

Wy właszczenie def lacyjne

To drugi rodzaj deflacji cen wynikającej ze zmian podaży pieniądza, któ-


ry zdaniem Salerno może być wyłącznie szkodliwy (Salerno 2003, s. 86–
–99). Nie jest bowiem wywłaszczenie deflacyjne próbą przywrócenia właści-
wej dystrybucji dóbr ani nawet próbą powrotu do rynkowego poziomu cen,
tylko kontynuacją deformowania rynku za pomocą innych mechanizmów.
Polega na przymusowym odebraniu deponentom dostępu do ich środków
w bankach, jak w wypadku argentyńskiej depesoifikacji w 2002 roku (Ra-
dzikowski 2004, s. 64–65). Z obawy przed deflacją kredytu bankowego jak
ta tutaj opisana, decydenci odbierają klientom banksów możliwość odzy-
skania środków, wprowadzając limity dzienne wypłat, uniemożliwiając
wypłaty z bankomatów czy utrudniając międzynarodowe przelewy.
Takie paniczne reakcje kończą się, po pierwsze, powstaniem kolejnej
szkody dla własności deponentów, oprócz tej wywołanej przez inflację,
a po drugie, rodzącym pokusę nadużycia utrzymaniem nierentownej
struktury inwestycyjnej, która wszak spowodowała problemy systemu
fi nansowego. Powstają nowe, negatywne bodźce. Uczestnicy rynku są
bezpośrednio zniechęcani do konsumpcji i starają się zachować tyle
środków, ile się da. Działanie to jest poprawne, nie mogą bowiem wie-
dzieć, czy pieniądze uda się im odzyskać, czy zostaną one, dajmy na
to, znacjonalizowane. To racjonalne działanie powoduje jednakowóż
poważne straty w sektorze handlu gotówkowego, co doprowadza do
bankructwa także te fi rmy, które odgrywają w gospodarce żywotną
rolę. Oczyszczenie rynku jest w tym wypadku sztucznie pogłębione,
ale tylko w jednym obszarze gospodarki. Próba utrzymania systemu
fi nansowego sprawia bowiem, że nadal aktywne są linie kredytowe dla
błędnie inwestujących przedsiębiorstw. Ta obrona dłużników oznacza
nieefektywną ekonomicznie prolongatę egzystencji niepotrzebnych
w istocie inwestycji.
174 JAN LEWIŃSKI

Wśród ubocznych skutków gospodarczych można wskazać rozrost


czarnego rynku, skorumpowanie sektora finansowego i jego stopniową
przemianę w twór mafijny, używający systemu państwowej reglamentacji
środków gotówkowych jako narzędzia wywłaszczania obywateli, którzy
skłonni są zapłacić okup za odzyskanie części mienia. Ponadto rozpo-
czyna się odwrót od pieniądza ku prymitywnej gospodarce barterowej,
gdzie za środek wymiany mogą ewentualnie służyć niektóre nadające się
do tego towary, takie jak zboże. Pojawiają się równocześnie obostrzenia
w używaniu obcych walut i wzrasta interwencjonizm, którego naturalną
konsekwencją jest powstanie państwa totalnego.

Polit yka inf lacjonizmu a obaw y def lac y jne

Śred ni poziom cen a in ne zjaw iska ekonom iczne


Popularna w świecie ekonomii głównego nurtu definicja deflacji ignoruje
teoretyczne uwarunkowania wskazane przez Salerno. Brak tam odniesienia
do siły nabywczej pieniądza lub też do ewentualnych przyczyn zmian cen.
Deflacja to dla mainstreamu jakikolwiek – niezależnie od jego źródeł tkwią-
cych w zjawiskach ekonomicznych – spadek ogólnego poziomu cen, zwykle
utożsamiany z wysokością przeciętnego wskaźnika cen detalicznych pewnego
koszyka dóbr czy też mierzony za jego pomocą (Hall, Taylor 1999, s. 154;
Begg, Fischer, Dornbusch 2003, s. 47; Czarny, Rapacki 2002, s. 510)18. To
rozumienie istotnie odbiega od znacznie ściślejszego, klasycznego pojmo-
wania zjawisk pieniężnych, zgodnie z którym deflacja oznacza spadek po-
daży pieniądza, czyli zmniejszenie się fizycznej ilości gotówki (lub tego, co
uznajemy za pieniądz) w obiegu (Salerno 2003, s. 82–83).
Obydwie definicje są użyteczne, jeśli stosuje się je do konkretnych od-
miennych kwestii. Definicja traktująca inflację jako wzrost podaży pie-
niądza, a deflację jako jej spadek miała kluczowe znaczenie dla ekono-
mistów, którzy próbowali wyjaśnić problem runów na banki, a później
osłabianie standardu złota wskutek kreowania środków fiducjarnych19

18
Warto zauważyć, że w podręcznikach Halla i Begga w ogóle nie zwraca się
uwagi na zjawisko deflacji (nie występuje też ono w indeksach rzeczowych), choć jest
mowa o inflacji. Jednozdaniowy passus dotyczący deflacji znajdziemy za to w popu-
larnym w Polsce podręczniku Czarnego i Rapackiego. Czytamy tam: „Kiedy ceny
spadają, mówimy o deflacji” (wyróżnienie autorów).
19
Środek fiducjarny to substytut pieniądza (taki jak banknot), który stanowi
roszczenie wypłaty na żądanie określonej ilości jednostek pieniądza, przekraczając
wielkość istniejących rezerw monetarnych, służących zaspokojeniu tegoż roszczenia.
Innymi słowy, oznacza to, że pieniądz symboliczny, który jest kwitem depozytowym
umożliwiającym odbiór właściwego pieniądza, ma niższe w nich pokrycie, niż wska-
zuje jego nominał. Współcześnie pojęcia kwitu depozytowego na pieniądz, pieniądza
symbolicznego i samego pieniądza zlały się w jedno, gdyż pieniądz został poddany
Deflacja a polityka 175

przez państwo. Ilość pieniądza kruszcowego mogła pozostawać bez więk-


szych zmian, ale podaż substytutów pieniądza (kwitów depozytowych,
biletów płatniczych, banknotów etc.) rosła, co godziło w siłę nabywczą
pieniądza en masse i wywoływało dalsze skutki pieniężne, w tym wzrost
przeciętnego poziomu cen. Obserwacja wysokości cen mogła wskazać na
istnienie fenomenu inflacji podaży pieniądza i choć była przydatna, sta-
nowiła jednak tylko empiryczną wskazówkę istnienia głębszego problemu
kreacji pieniądza ex nihilo. Poziom cen mógł być więc traktowany przez
teoretyków jedynie jako jeden z objawów choroby, który zresztą w pew-
nych warunkach wcale nie musiał się ujawnić.
Ponadto, łatwiej jest mówić o twardych danych dotyczących ilości zło-
ta, tj. jego wydobycia, szacowanej wielkości jego podaży, wielkościach
transferów międzynarodowych etc. niż tylko o zmianach wskaźników ce-
nowych, z natury płynnych. Nie dość, że kryteria konstruujące te wskaź-
niki można dobierać mniej lub bardziej arbitralnie, to jeszcze same zmia-
ny cen są trudne do sklasyfikowania ze względu na wielość (przynajmniej
w części subiektywnych) czynników, które na nie wpływają.
Zwrócenie uwagi na podaż pieniądza było więc korzystne z dwóch
istotnych względów. Po pierwsze, było użyteczne z teoretycznego punktu
widzenia, gdyż pozwalało dotrzeć do źródeł palącego problemu psucia
monety przez władców czy bankierów. Po drugie, pozwalało uniknąć pro-
blemu niejednoznaczności doboru kryteriów pomiaru poziomu cen. Bada-
nie wskaźników cen było kłopotliwe nie tylko ze względów teoretycznych,
lecz także praktycznych – ich mierzenie wymaga wszak dostępu do da-
nych nieosiągalnych bez jakiejś formy powszechnego systemu statystycz-
nego, nie wspominając o zaawansowanej aparaturze ekonometrycznej.
Ceny na rynku wahają się stale i zależą od tak wielu czynników, że na
podstawie obserwacji wyłącznie ich uogólnionego, jednowymiarowego po-
ziomu trudno jest wnioskować o ogólnym stanie gospodarki. Na ceny mają
wpływ czynniki technologiczne, geograficzne, podaż, popyt, ceny innych
dóbr substytucyjnych i komplementarnych, ceny czynników produkcji
wykorzystywanych w procesach wytwórczych także innych dóbr, różnice
w strukturze koszyka dóbr zależne od dochodu kupującego etc. Ceny są wy-
nikiem koordynacyjnego procesu kalkulacji ekonomicznej, a nie jego logicz-
ną przyczyną. Dość łatwo można więc powiedzieć, jak zmienią się ceny, gdy
odpowiednio zmieni się czynnik, który na nie wpływa, lecz rozumowanie
odwrotne – wnioskowanie o tym czynniku na podstawie samego ruchu cen
– jest już niemożliwe. Posłużmy się analogią: wnoszenie z poziomu cen o sy-
tuacji gospodarczej jest zadaniem równie karkołomnym, jak wnioskowanie
o konstrukcji silników samochodowych na podstawie przeciętnej masy mo-
lowej koszyka wszystkich spalin w danym okresie. Tak przynajmniej mo-
głaby wyglądać argumentacja klasycznych ekonomistów.

stopniowej nacjonalizacji. Jego posiadaczy wywłaszczono i zmuszono do używania


substytutów pieniądza, wypełniających odtąd część jego funkcji.
176 JAN LEWIŃSKI

Klasycy zdawali sobie też sprawę, że dobra oferowane na rynku nie są


homogeniczne i zmieniają się w czasie – przykładowo, wagi ceny wynajmu
zaprzęgu konnego (w jakimś koszyku dóbr) nie da się wprost przeliczyć
na wagę ceny późniejszego dobra substytucyjnego, tj. podróży pociągiem.
Wskaźnik przeciętnych cen zależy od tego, w jaki sposób wyznaczony zo-
stanie koszyk dóbr i wagi, przydzielone znajdującym się w nim poszcze-
gólnym towarom. Nie dość, że dobór towarów w koszyku może się oka-
zać arbitralny, to jeszcze pomija arbitralność kryteriów klasyfikacji dóbr.
Weźmy choćby zmiany technologiczne – w żadnym razie nie sprowadzają
się one wyłącznie do wzrostu jakości. Jakość jest także heterogeniczna
i zależna od subiektywnego doboru jej kryteriów. Przykładowo, dla gra-
fika w pewnych warunkach monitor komputerowy CRT (kineskopowy)
może się okazać, ze względu na specyficzne różnice parametrów, dużo
bardziej atrakcyjnym dobrem niż teoretycznie nowocześniejsza matryca
LCD (ciekłokrystaliczna). Dla statystyka są to jednak towary reprezentują-
ce jedną kategorię dóbr, w której LCD jako następca technologiczny CRT
jest produktem wyższej jakości. Skutkiem ubocznym faktu, że z przyczyn
technologicznych matryce LCD są droższe, rozpowszechnianie się ich na
rynku może być zinterpretowane jako inflacyjny ruch cen monitorów,
choć zjawisko to nie jest tak proste. Aby uniknąć podobnych problemów,
konstruuje się wiele rodzajów wskaźników na różne okazje. To jednak
sprawia, że problem arbitralności kryteriów staje się poważniejszy.
Jeszcze inną istotną kwestią jest zbagatelizowanie struktury cen wsku-
tek ich uśrednienia. Oznacza to pominięcie nierzadko istotnych relacji po-
między cenami różnych dóbr w koszyku, a także poza koszykiem. I tak
CPI, podobnie jak w wypadku wskaźnika PKB, skupia się na dobrach kon-
sumpcyjnych, pomijając ceny w strukturze kapitałowej stojącej za finalny-
mi towarami (Huerta de Soto 2009, s. 230–235 i 316–317).

Pojęcie def lacji a polit yka inf lacjonizmu


w socjalizmie i demok racji

Można wymienić dwie przyczyny postrzegania deflacji jako samego


ruchu cen. Pierwszą z nich są socjalistyczne i demokratyczne przemiany
polityczne, w wyniku których politycy poświęcają więcej uwagi prawom
przedstawicieli klas o największej liczebności (w odróżnieniu od elitary-
stycznego ancien régime). Polityków, krótko mówiąc, zaczęły bardziej in-
teresować problemy szerszej grupy wyborców (bądź, według socjalistów,
mas pracowniczych), rzekomo skonfliktowanych z mniejszością produ-
centów (wyzyskiwaczy, szlachty etc.). Można tu dostrzec wpływ przemian
politycznych na środowisko naukowców, zajmujących się teorią ekonomii:
ponieważ politycy przenieśli swoje zainteresowania z produkującej bądź
posiadającej elity na „szeregową” czy „szarą” konsumencką większość (albo
uciskane klasy społeczne) i przed wyborami obiecują owej większości po-
prawę jej położenia, to także ekonomistów zaczęły bardziej interesować
Deflacja a polityka 177

problemy tych właśnie grup społecznych, tj. przede wszystkim ceny towa-
rów, z pominięciem kwestii produkcyjnych (Reisman 1998, s. 542 i nast.).
Drugą istotną przyczyną politycznej natury, współgrającą z tą pierwszą20,
było odejście od standardu złota, wskutek czego mierzenie fizycznej ilości
pieniądza przestało być interesujące i wygodne21.

Rezygnacja ze standardu złota

Aby zrozumieć źródła tego désintéressement wobec podaży pieniądza,


musimy zrozumieć uwarunkowania polityczne i ekonomiczne rezygnacji ze
standardu złota. Standard złota z jednej strony jest niezwykle przydatnym
narzędziem pieniężnym (Mises 1953, s. 30–33; idem 2007, s. 343 i 346–348;
Menger 2004, s. 257–261 i 266–267), z drugiej zaś, zawsze22 stanowił prze-
szkodę dla pragnącej taniego pieniądza władzy państwowej. Ogólnie rzecz
ujmując, państwo może pozyskiwać pieniądze wyłącznie na trzy sposoby:
wprowadzając niepopularne podatki, zadłużając się w bankach komercyj-
nych (co łączy się albo z koniecznością spłaty, albo z jej kłopotliwym, bo

20
Polityczna licytacja wysokości wydatków socjalnych państwa, dzięki której po-
litycy zdobywają poparcie grup interesu, wydaje się współodpowiedzialna za wykład-
niczy wzrost zadłużenia państw demokratycznych. A ten fi nansowany jest z podat-
ków oraz za pomocą inflacyjnej polityki banków centralnych, którą znacznie trudniej
jest realizować w systemie standardu złota. Nie są to zresztą jedyne negatywne skutki
systemu demokratycznego (Hoppe 2006, s. 99–104 i 108–110).
21
Mówienie o wygodzie w kontekście teorii naukowej nie wydaje się zgodne z na-
ukowym podejściem – w istocie jednak chodzi nam tylko o dobór środków do ce-
lów pracy badawczej. Ekonomia jest w znacznej mierze nauką badającą gospodarcze
skutki normatywnych decyzji władzy politycznej. Według danych australijskich ponad
25 procent wszystkich ekonomistów z tytułem doktora pracuje w administracji rządo-
wej, a 40 procent z nich w powiązanym z państwem (Klein 2006) sektorze edukacji;
dla porównania: w sektorze prywatnym pracuje ich jedynie 14,3 procent (Graduate
Careers Australia 2007). W Stanach Zjednoczonych proporcja zmienia się nieco na
korzyść sektora edukacji, gdzie jeszcze w latach 2001–2002 zatrudnienie znajdowało
ok. 60 procent doktorów, gdy rząd zatrudniał ich ok. 15–20 procent (Siegfried, Stock
2002, s. 275). Ekonomia także potrafi ulec władzy i zajmować się na co dzień „pragma-
tycznymi” aspektami polityki gospodarczej, nie wchodząc w ogólną dyskusję na temat
zasadności jej prowadzenia. Teoretycy ekonomii, którzy zostają ministrami finansów,
mogą też w teorii popierać ideę zrównoważonego budżetu, a w swojej księgowej pracy
służyć politycznym celom, prowadzącym do deficytu fiskalnego. Podobnie ekonomiści
zatrudnieni w banku centralnym mogą mieć wątpliwości co do istnienia obowiązujące-
go ładu monetarnego, a na co dzień zajmować się prowadzeniem polityki.
22
Już Arystofanes w Żabach (405 p.n.e.) odnosi się do praktyki psucia pieniądza.
W początkach naszej ery (ok. I–III w.) pojawiały się podobne obserwacje (Kramer
2004). Murray N. Rothbard przywołuje też (Rothbard 2004b, s. 78–82) przykłady
średniowiecznej Francji i Hiszpanii (XII–XV w.). Dalej możemy przeczytać u niego
o monopolu menniczym i wypieraniu pieniądza lepszego, czyli w wyższym stopniu
pokrytego złotem, przez gorszy, tj. o prawie Kopernika– Greshama.
178 JAN LEWIŃSKI

uderzającym w wiarygodność państwa, zawieszeniem – nawet przez, jak się


zdarzało23, fizyczną likwidację wierzyciela) lub produkując pieniądze.
Ten ostatni sposób jest dla państwa najkorzystniejszy, gdyż nie łączy
się z takim odium jak dwie pierwsze metody. Pozyskanie pieniędzy tą me-
todą nie szkodzi nikomu bezpośrednio, bo nikomu fizycznie nie są one
zabierane. Wręcz przeciwnie, ludzie najbliżej związani z władzą zyskują,
gdyż nowe pieniądze płynące od niej oznaczają nowe zamówienia na do-
bra pożądane przez rząd, co dodatkowo stwarza korzystną dla wizerunku
państwa iluzję bogactwa państwa. Druk pieniądza pozwala też na wpro-
wadzenie oprocentowania depozytów w bankach, dzięki czemu margi-
nalni deponenci są skłonni oddać swoje pieniądze, umożliwiając bankom
zwiększenie ich akcji kredytowej. Poza tym niewielu obywateli kojarzy
druk pieniądza z negatywnymi skutkami odczuwanymi przez tracących
siłę nabywczą posiadaczy starego pieniądza. Krótko mówiąc, nie ma prak-
tycznie żadnych strat politycznych.
Kłopoty pojawiają się dopiero później, gdy przedsiębiorcom, planującym
inwestycje na podstawie danych nominalnych, po pewnym okresie realizo-
wania inwestycji zaczyna brakować niezbędnych do ich ukończenia czynni-
ków produkcji. Problem ten obrazowo opisuje Ludwig von Mises:

Cała klasa przedsiębiorców znajduje się, można powiedzieć, w poło-


żeniu architekta, który ma zaprojektować budowę domu z użyciem
ograniczonej ilości materiałów. Jeśli mylnie oceni ilość dostępnych
materiałów, powstanie plan, do którego realizacji nie będzie miał
wystarczających środków. Przygotuje za duże wykopy i fundamen-
ty, a w późniejszej fazie budowy zauważy, że nie ma dość materia-
łów, by ją ukończyć. Jest oczywiste, że błąd owego architekta nie
polegał na przeinwestowaniu, lecz na nieodpowiednim wykorzysta-
niu środków, jakie miał do dyspozycji (Mises 2007, s. 474).

Wskazane przez Misesa błędne użycie czynników produkcji jest skut-


kiem, nazwijmy to, „podstępnego” charakteru inflacji podaży pieniądza,
za pomocą której państwo może niepostrzeżenie podbierać środki produk-
cji, wykorzystując dotychczasowe zaufanie rynku do pieniądza. Ponieważ
władza posiada zwykle monopol menniczy, to nawet jeśli inflacja zostanie
wykryta przez uczestników rynku, będą oni bezsilni wobec tego rodzaju

23
Za przykład może posłużyć tu historia Żydów w średniowiecznej Europie. Kró-
lowie często zapożyczali się u nich i, niezdolni spłacić pożyczek, usuwali żydowskich
mieszkańców ze swoich terytoriów (służyły temu również pogromy). Przykładowo,
taką decyzję o wypędzeniu Żydów podjął w 1495 r. niezdolny do spłaty zobowiązań
Aleksander Jagiellończyk. Akcja ta zakończyła się w 1503 r., gdy podupadły handel
i fi nanse Wielkiego Księstwa Litewskiego. Zmusiło to Jagiellończyka do zezwolenia
na powrót Żydów, którzy jednak musieli słono ów powrót opłacić. Podobne problemy
mieli zresztą Żydzi w Anglii, szczególnie na przełomie XII i XIII w.
Deflacja a polityka 179

redystrybucji mienia, gdyż posługiwanie się konkurencyjnymi walutami


jest nielegalne bądź bardzo utrudnione. Z tych przyczyn druk pieniądza
to bez wątpienia jeden z najchętniej wykorzystywanych przez państwo
środków pozyskiwania bogactwa, właśnie ze względu na to, że nie skupia
uwagi społeczeństwa.
Standard złota stanowił zawsze naturalną barierę takich działań, był
swego rodzaju kotwicą zaczepioną w realnych wartościach gospodarczych.
Przykładowo, gdy w dawnych czasach król „ścierał” złoto z monety, za-
razem dekretując niezmienność jej nominalnej wartości, to tym samym
wprowadzał (nieprawidłowy z punktu widzenia uczestników obrotu ryn-
kowego) podział na jej wagę nominalną i widocznie mniejszą rzeczywistą
wagę. Z ekonomicznego punktu widzenia przypominało to nieco orwel-
lowskie dwójmyślenie, dzielące zjawiska ekonomiczne na realne i deklaro-
wane, wyraźnie inne. W tej sytuacji każdy uczestnik rynku mógł osobiście
oszacować zmianę jednostek wagowych, co pozwalało mu ewentualnie
przenieść rozliczenia swoich transakcji na konkurencyjną walutę o mniej-
szym rozstrzale wartości nominalnej i realnej lub handlować, posługując
się czystym złotem o naturalnej wadze. Aby ominąć problem ucieczki od
rodzimej waluty, królowie mogli co najwyżej wprowadzić zakaz używania
innych walut (prawo legalnego środka płatniczego) czy utrudniać handel
złotem – były to jednak instrumenty nieporęczne i wywoływały kłopo-
ty gospodarcze wskutek ucieczki handlu do innych regionów czy krajów
(Hülsmann 2004, s. 47). W czasach standardu złota istniała jeszcze moż-
liwość bankructwa skarbu państwa, gdy powszechnie odmawiano przyj-
mowania całkowicie zafałszowanej i niewiarygodnej waluty.
W podobnej sytuacji były późniejsze banki komercyjne, rozpowszech-
niające kwity magazynowe na złoto, czyli papierowe zamienniki złote-
go pieniądza. Również w ich wypadku istniała pokusa nadużycia – wy-
starczyło wprowadzać do obiegu trochę więcej papierów wartościowych
mających pokrycie w złocie, niż w rzeczywistości posiadał go bank, aby
wykreować nowy fałszywy pieniądz. Oczywiście, jeśli banki te były pry-
watne i istniała możliwość pojawienia się konkurencji, klienci zyskiwali
ograniczony wpływ na proceder fałszowania kwitów magazynowych na
złoto. Gdy klienci banków widzieli, że ich papiery wartościowe nie są wie-
le warte, usiłowali wypłacić tyle swoich zasobów, ile się dało. Wiele osób
traciło, lecz niektórzy dzięki runowi na bank ratowali jakąś ich część.

Rezygnacja ze standardu złota


a polit yka inf lacjonizmu

Politycy, walcząc o poparcie możliwie licznych grup społecznych,


jak to dzieje się szczególnie w demokracji, w naturalny sposób usiłują
zajmować się tylko tym, co widoczne (vide Bastiat 2005), czyli najbar-
dziej dotkliwymi symptomami dolegliwości społecznych, rezygnując
ze zwalczenia ich, nie zawsze widocznych, przyczyn. Przynosiłoby to
180 JAN LEWIŃSKI

bowiem mniejszy polityczny zysk ( Hoppe 2006, s. 61–62), stanowiąc


raczej inwestycję długoterminową, nazbyt kosztowną z krótkotermino-
wego punktu widzenia logiki wyborczej. Jednocześnie politycy szukają
źródeł takich przychodów fi nansowych, które wiążą się z możliwie mało
zauważalnymi stratami społecznymi (nawet jeśli są bardziej dolegliwe
dla społeczeństwa niż ich bardziej widoczna, fi skalna, alternatywa)24.
Infl acja podaży pieniądza wydaje się odpowiedzią na obydwie bo-
lączki – z jednej strony jest prawie niezauważalna, a z drugiej przy-
nosi politykom łatwe pieniądze, które mogą bezpośrednio zaofero-
wać grupom interesu. Z infl acją podaży pieniądza łączą się też pewne
konsekwencje, które mogą być dodatkowo politycznie wykorzystane
– wywołany przez nią wzrost cen (inflacja cen) wywołuje społeczne
niezadowolenie z aktywności rynku. Chodzi o to, że dostosowania cen
wynikające z infl acji podaży pieniądza nie są dekretowane przez rząd,
lecz bezpośrednio dokonują ich przedsiębiorcy, reagując na (co naj-
mniej nominalny) wzrost kosztów pozyskania kapitału (szerzej o teorii
cyklu koniunkturalnego patrz: Huerta de Soto 2009, s. 262–291; Mises
1953, s. 261–366; idem 2007; Hayek 1933; idem 1967). Taka sytuacja
sprzyja legitymizacji dalszych ingerencji państwa, służących ograni-
czeniu podwyżek cen (Mises 2005, passim), spowodowanych w po-
wszechnej opinii społeczeństwa chciwością przedsiębiorców. Tak oto
infl acja służy oddaniu w ręce państwa władzy nad procesami gospo-
darczymi w dwojaki sposób – bezpośrednio, dzięki zastrzykowi pienię-
dzy, oraz pośrednio, przez zwiększenie skłonności społeczeństwa do
legitymizowania kolejnych i dalej idących regulacji cen.
Standard złota okazał się jednak przeszkodą w wykorzystaniu tego nie-
zwykle efektywnego dla systemu politycznego narzędzia. Jak widzieliśmy,
do celów politycznych wygodnym i naturalnym rozwiązaniem wydawał
się standard pustego, papierowego pieniądza, oparty na residuum zaufania
do pieniądza mającego pokrycie, ustanowieniu monopolu legalnego środ-
ka płatniczego, czyli zakazu wolnego obrotu konkurencyjnymi walutami,
i wierze w szeroko rozumiany „autorytet państwa”25, stojący za nowym

24
Klasyczna defi nicja dobra ekonomicznego według Carla Mengera (Menger
2004, s. 52) zakłada wiedzę na temat związku przyczynowo-skutkowego pomiędzy
tym dobrem a potrzebą, którą ma ono zaspokajać. W rzeczywistości wystarczy samo
przekonanie, że taki związek faktycznie istnieje, i wcale nie musi być ono prawdziwe.
25
Co sprowadzało się do stereotypu mówiącego, że tam gdzie wcześniej „nikt”
nie zajmował się pieniądzem, teraz „zajmuje się nim” ktoś konkretny, czyli państwo.
Miało ono teraz ponosić bezpośrednią odpowiedzialność za kształt systemu finanso-
wego – ktoś go kontrolował, więc w miejsce poprzedniego „chaosu” runów na banki
i całkowitej dowolności w ustalaniu cen społeczeństwo zyskiwało „ster”, który umoż-
liwiał pokierowanie bezwzględną, a może nawet „wrogą” naturą pieniądza. Argumen-
ty te opierają się błędnym rozpoznaniu natury pieniądza, który nie jest chaotycznym
żywiołem, lecz jednym z wielu wynalazków społeczeństwa, znajdującym się zawsze
Deflacja a polityka 181

pieniądzem. Po jego wejściu do obiegu26 ujawniły się koszty ingerencji


w strukturę dobrowolnego systemu własnościowego.

Rola banku centralnego


– aksamitny inf lacjonizm i jego skutki

Wraz ze zlikwidowaniem rynkowych hamulców konkurencji mone-


tarnej przez nacjonalizację i monopolizację pieniądza, władze mogły ko-
rzystać z podatku inflacyjnego bez dotychczasowych ograniczeń. Proces
ten był jednakże na tyle powolny, że przedstawiciele aparatu państwo-
wego i bankierzy współpracujący z nimi mieli możliwość zorientowania
się w skutkach nadużywania prasy drukarskiej, choćby na przykładzie
Republiki Weimarskiej. Zbyt wielka inflacja cen przestaje bowiem być
niewidoczna, przeradzając się w poważny i palący problem społeczny
hiperinflacji. Trzeba przy tym zauważyć, że prawdziwe podłoże hiperin-
flacji cen, czyli inflacja podaży pieniądza, nawet w sytuacji gwałtownego
wzrostu cen pozostaje niewidoczna. Opinia publiczna wciąż widzi te jej
zewnętrzne skutki, które uznaje za pozytywne: wielkie państwowe inwe-
stycje, drapacze chmur ( Thornton 2005) i pomnikowe, monumentalne
projekty (jak choćby słynna tama Hoovera czy COP Kwiatkowskiego).
W naturalny sposób jedynym widocznym kłopotem stają się niekorzyst-
ne dla konsumentów ruchy cen i płac, którym dla zachowania pozorów
rząd może „przeciwdziałać” niejako kosmetycznie27. Zjawisko to tak opi-
suje Ludwig von Mises:

pod zbiorową kontrolą uczestników rynku za sprawą procesu kalkulacji ekonomicznej


(Mises 1990, s. 8 i nast.; Machaj 2009, s. 143–147).
26
Ostatecznie dopiero w 1971 r. z resztkami niepełnego standardu złota zerwał
Nixon, gdy załamał się system finansowy oparty na uzgodnieniach z Bretton Woods.
Jednakże już wtedy był to standard częściowy, bez faktycznej wymienialności jednostki
pieniężnej na bazę monetarną. Pierwsze zapowiedzi zniesienia standardu złota pojawiły
się o wiele wcześniej. Jeśli chodzi o dolara, stanowiącego później bazę monetarną walut
innych narodów, podważanie jego rynkowego charakteru sięga 1792 r., gdy uchwalono
ustawę o mennicy Stanów Zjednoczonych. Kolejnym bardzo istotnym wydarzeniem
była podjęta przez Roosevelta 5 kwietnia 1933 r. decyzja o zakazie gromadzenia zapa-
sów złota przez obywateli Stanów Zjednoczonych – Executive Order 6102, Forbidding
the Hoarding of Gold Coin, Gold Bullion, and Gold Certificates (Rothbard 2004b).
27
Realnym rozwiązaniem byłoby powstrzymanie się od inflacyjnej polityki.
Skutki gospodarcze nie ujawniłyby się jednak zbyt szybko (być może nie przed na-
stępnymi wyborami), a związek przyczynowo-skutkowy nie byłby na tyle wyraźny,
aby powiązano z nim sukces takiej reformy (przywołajmy tylko przykłady słynnej,
ale niedocenionej ustawy Wilczka o wolności obrotu gospodarczego, albo oskarże-
nie o „nicnierobienie” rządu Donalda Tuska w czasie kryzysu). Zamiast takiego real-
nego rozwiązania rządy zwykle stosują jednak interwencjonistyczne i populistyczne
posunięcia jak np. ceny maksymalne, płace minimalne (Mises 2005) i przymusową
deflację podaży pieniądza przez blokowanie wypłat z bankomatów, wprowadzenie
limitów wypłat z kont etc. (Salerno 2003, s. 96–98).
182 JAN LEWIŃSKI

(…) ci, którzy próbują uczestniczyć w beznadziejnej walce z nie-


uchronnym skutkiem inflacji – wzrostem cen – udają, że chodzi im
o walkę z inflacją. Stwarzają pozory, że ich celem jest wyelimino-
wanie źródeł zła, podczas gdy w rzeczywistości zwalczają jedynie
jego objawy. Ponieważ nie pojmują związku przyczynowego między
zwiększeniem ilości pieniądza a wzrostem cen, powodują właści-
wie pogorszenie sytuacji. (…) Nieumiejętność rozróżnienia między
inflacją a jej skutkami może doprowadzić do dalszej inflacji (Mises
2007, s. 361).

Zatem wraz z rozrostem państwa istotny badawczo staje się problem


opanowywania inherentnej dla polityki inflacjonizmu pokusy nadużycia.
Staje się on kolejnym poważnym zadaniem dla „pragmatycznych” na-
ukowców, rozważających ekonomiczne problemy sprawowania władzy.
Muszą oni odpowiadać na pytania choćby o to, jak korzystać z polityki
inflacyjnej, aby nie przekroczyć zanadto limitu ekonomicznej wytrzyma-
łości ludzi pracujących na ów swego rodzaju podatek.
Groźba hiperinflacji wymusiła więc na politykach powołanie banków
centralnych, czyli instytucji z założenia mających przynajmniej częściowo
dawać odpór pokusie nadużycia prasy drukarskiej i systemu kredytowego.
Zwróćmy uwagę, że ich celem nie jest zupełne zapobieganie „psuciu mo-
nety” przez państwo, tj. całkowite uniemożliwienie prowadzenia polityki
inflacji podaży pieniądza. Wręcz przeciwnie, od początku banki centralne
wyposażono w instrumenty finansowania deficytów budżetowych, czy to
z użyciem metod najprostszych, drukarskich, czy współcześnie bardziej
zaawansowanych, korzystających z bardziej „okrężnego” mechanizmu
kreacji kredytu z wykorzystaniem systemu bankowego (Huerta de Soto
2009, rozdz. IV i V). W gruncie rzeczy jednak ten system czyni to samo
co zwykła prasa drukarska, lecz pozornie wolniej, służąc np. utrzymaniu
spopularyzowanego przez monetarystów poziomu ok. 2–3 procent (Fried-
man 1968, s. 16, przyp. 6) rocznej inflacji podaży pieniądza.
Co więcej, na tej procedurze zyskują grupy interesu, takie jak banki
komercyjne, które dzięki inflacji podaży pieniądza przestały być jedynie
magazynami pieniądza i weszły w nową rolę – kreatorów kredytu. Maga-
zyny pieniądza, aby funkcjonować na rynku, musiały pobierać opłaty od
deponentów, tymczasem kreatorzy kredytu mogą sobie pozwolić – dzięki
zyskom z kreacji pieniądza – na podzielenie się zyskiem z deponentami
i wypłacanie im oprocentowania z „trzymanych” tam pieniędzy. Pozwa-
la to bankom na poszerzenie bazy depozytowej, stanowiącej o poziomie
rezerw obowiązkowych, a tym samym na jeszcze większą ekspansję kre-
dytową. Stąd też rola banków komercyjnych w systemie gospodarczym
opartym na kreacji kredytu staje się niezwykle istotna – utworzona dzię-
ki temu bardzo potężna i wpływowa grupa specjalnego interesu stała się
niezwykle rozwiniętym sektorem gospodarki o ogromnym znaczeniu
politycznym.
Deflacja a polityka 183

Problemy z kont rolowa niem poda ż y pieniąd za


przez mechanizm stóp procentow ych

Mechanizm transmisji monetarnej nie jest tak prosty jak w wypad-


ku prasy drukarskiej – i prawdopodobnie dlatego właśnie bywa bardziej
chimeryczny, przyczyniając się do zwiększenia podatności systemu finan-
sowego na pokusę nadużycia. Kontrola władz monetarnych nad podażą
pieniądza nie jest bowiem bezpośrednia i ścisła, lecz przenosi się stop-
niowo – od regulacji stóp procentowych, przez kreację kredytu banków
komercyjnych, do obrotu rynkowego28. Z jednej strony elastyczność sys-
temu pozwala na kontrakcję kredytu w związku z zaostrzeniem polityki
monetarnej, co w wypadku zwykłego druku jest utrudnione, z drugiej zaś
oznacza jednak mniej lub bardziej gwałtowne gromadzenie się kredytu na
niektórych rynkach (np. nieruchomości) w fazie boom i jego gwałtowną
implozję w fazie bust cyklu koniunkturalnego.
W fazie korekty (bust), oznaczającej deflację podaży kredytu, która
przyczynia się do deflacji cen, następuje newralgiczny dla polityków mo-
ment. Wychodzą na jaw koszty prowadzonej wcześniej polityki inflacjo-
nizmu, a rynkowa stopa procentowa, ściągnięta w dół przez rządowe
pompowanie podaży pieniądza (qua kredytu) poniżej poziomu podaży
dobrowolnych oszczędności przeznaczanych na inwestycje, nagle zaczyna
rosnąć, gdy „przymusowe oszczędności” stworzone tym pompowaniem
kredytu znikają z rynku (Hayek 1931, s. 151). Aby utrzymać „stymu-
lowanie” gospodarki, rząd musi więc przyspieszyć politykę inflacyjną,
czyli w ramach obecnych instytucji banku centralnego obniżyć jeszcze
bardziej stopy procentowe. Politycy mają kłopot wtedy, gdy – tak jak
w wypadku Japonii – deflacja sprawia, że wzrost wartości pieniądza wy-
przedza kredyt. Innymi słowy, jeśli stopy procentowe banku centralnego
spadają do zera, a pieniądz zyskuje na wartości, zaczyna być opłacalne
jego gromadzenie, co niweczy „stymulacyjny” efekt polityki inflacji kre-
dytu. Zamiast bowiem stymulować błędne inwestycje, kredyt jest za-
trzymywany przez pierwszych odbiorców gotówki, którzy bez przeszkód
zbierają tę swego rodzaju „rentę emisyjną” kreacji kredytu.
Pamiętajmy, że jeszcze w latach sześćdziesiątych Hayek przestrzegał
przed tym, iż utrzymanie efektywności polityki inflacjonizmu wymaga
jej progresji:

28
W skrócie możemy powiedzieć, że bank centralny, stymulując akcję kredytową
banków komercyjnych, wprowadza dodatkową podaż pieniądza w postaci nowego
kredytu. Taka kreacja kredytu pod względem skutków jest właściwie tożsama z dru-
kiem banknotów (Huerta de Soto 2009, s. 184–190). Według niektórych ekonomistów
wzrost podaży pieniądza można osiągnąć nawet bez obniżania stóp rezerw obowiąz-
kowych czy operacji otwartego rynku – wystarczy sama gotowość banku centralnego
i dużych instytucji monetarnych do wspierania (np. przez bailout) banków komercyj-
nych w razie ich kłopotów.
184 JAN LEWIŃSKI

[Inflacja] jest szczególnie niebezpieczna, gdyż szkodliwe skutki na-


wet jej najmniejszych dawek mogą być zażegnane wyłącznie za po-
mocą jej większych zastrzyków. Gdy inflacja trwa już dłuższy czas,
nawet całkowite zaprzestanie jej dalszej akceleracji stworzy sytuację,
w której będzie bardzo trudno uniknąć spontanicznej deflacji. (…)
Ponieważ inflacji, ze względów psychologicznych i politycznych,
jest o wiele trudniej zapobiec niż deflacji, a także ze względu na to,
że zarazem z technicznego punktu widzenia jest to o wiele łatwiej-
sze, ekonomista powinien zawsze podkreślać niebezpieczeństwo in-
flacji (Salerno 2003, s. 90).

Deflacja jest zatem dla polityków i prób prowadzenia przez nich polityki
inflacyjnej w fazie kontrakcji kredytu niezwykle niebezpieczna – skutecz-
nie niweczy ich wysiłki mające na celu ucieczkę z kryzysu „do przodu”, ku
kolejnemu boomowi. Tym samym zwalczanie deflacji cen staje się jeszcze
bardziej interesującym problemem dla polityków i teoretyków ekonomii.

Rozkw it instr umentów finansow ych


a częściowa utrata panowania nad poda żą pieniądza

Dodatkowo rozeznanie się w sytuacji monetarnej jest utrudnione przez


zamazanie definicji pieniądza wskutek jego oderwania od bazy – współ-
cześnie nie da się jasno odróżnić pieniądza od kredytu i różnorakich in-
strumentów finansowych. O ilości „pieniądza” decyduje nie to, ile jest
rezerw kruszcowych, lecz to, ile mamy banknotów, zapisów w systemie
elektronicznym banków na pieniądze wykreowane ponad stopę rezerw
obowiązkowych, ile tych rezerw obowiązkowych to operacje overnight
i jak są przeprowadzane, ile jest podjętych operacji otwartego rynku
wstrzykujących płynność w sektor bankowy, jaka jest cena nieruchomości
obciążonych hipoteką, ile junk bonds udało się sprzedać w pakiecie zseku-
rytyzowanych aktywów o ratingu AAA, jakie wzory matematyczne służą
do wyceny ryzyka etc. W obecnym systemie finansowym kreacja „pienią-
dza” nie wymaga już fizycznego druku banknotów – wystarczy stworzyć
odpowiednią pożyczkę bankową pod zastaw nieruchomości.
W takiej sytuacji postawa ekonomistów rezygnujących z klasycznej de-
finicji inflacji i deflacji wydaje się jeszcze bardziej zrozumiała. Te bodźce
ekonomiczne i socjologiczne przyczyniają się znacznie do wzrostu atrak-
cyjności definiowania deflacji i inflacji jako zmian przeciętnych cen i jed-
nocześnie skutecznie zniechęcają do badania kwestii podaży pieniądza.
Możliwość zrzucenia odpowiedzialności na rynek czy kapitalistyczny
system gospodarczy jedynie wzmacnia równowagę tego mechanizmu. Po-
litycy mogą na potrzeby retoryki traktować wzrost cen jako egzogeniczny
względem ich decyzji – np. cykliczny (Rothbard 2004a i North 2009) albo
będący następstwem bliżej nieokreślonych spekulacji. Po pierwsze, uspra-
wiedliwia to ich ingerencje i wzmacnia legitymację władzy, a po drugie,
Deflacja a polityka 185

osłabia zaufanie obywateli do zdecentralizowanych form społecznych


i instytucji rynkowych, w tym prywatnego pieniądza. Stąd wielka kariera,
jaką zrobiły pojęcia inflacji i deflacji cen, wydaje się naturalna.

Stat yst yka w ekonom ii


a koncent racja na przecięt ny m poziom ie cen

Negatywny wizerunek deflacji cen wykazuje się nadzwyczajną trwało-


ścią w zderzeniu nie tylko z abstrakcyjnymi argumentami teoretycznymi,
lecz także w zestawieniu z badaniamia empirycznymi (Atkeson, Kehoe
200429), które w innym razie byłyby uznane przez główny nurt ekonomii
za istotny dowód zwalniający spadek cen z odpowiedzialności za kryzysy.
Stosunkowo niewielka liczba pogłębionych analiz zjawiska deflacji wydaje
się wskazywać, że jego pejoratywna konotacja jest raczej instynktowna
czy odruchowa, a nie wynikająca z ugruntowanych przemyśleń. Przy-
czyna takiego sposobu widzenia musi być więc bardziej fundamentalna
– i chyba przynajmniej w części tkwi również w politycznie umotywowa-
nym zaabsorbowaniu kwestią statystycznego poziomu cen.
Tę, można by rzec, idée fi xe można dostrzec w większości makroeko-
nomicznych teorii dwudziestowiecznych30, począwszy od keynesizmu,
przez teorię neoklasyczną, a kończąc na monetaryzmie. Problemy insty-
tucjonalne schodzą na dalszy plan (być może jako mikroekonomiczne,
więc „nieistotne” dla polityki ekonomicznej), co sprawia, że ekonomia
w znacznej części staje się nauką o relacjach ilościowych pomiędzy
zagregowanymi wskaźnikami statystycznymi – przeciętnymi cenami,
kosztami, wydatkami na inwestycje, wielkością konsumpcji, wielko-
ściami wahań cen, przyrostem wskaźników, takich jak PKB i potencjal-
ny PKB, wielkością deficytu handlowego itd. – traktującą gospodarkę
niemal jak wypełnione różnymi rodzajami płynów naczynie o skompli-
kowanym kształcie.

29
Autorzy znaleźli empiryczną zależność deflacji i recesji tylko w jednym okresie:
podczas Wielkiego Kryzysu. Ten przypadek rzetelnie opisał Murray Rothbard (Roth-
bard 2010b).
30
Nawet do tego stopnia, że wciąż pokutuje przekonanie o tym, jakoby istniała
możliwość ustalenia, wprowadzenia i kontrolowania przez rząd „optymalnego” prze-
ciętnego poziomu cen czy ilości pieniędzy na rynku, które byłyby inne niż wartości
ustalane przez uczestników rynku w procesie kalkulacji ekonomicznej. W przywoły-
wanym już wywiadzie (Orłowski, Orliński 2009) Witold Orłowski mówi: „Deflacja
wynika raczej [w opozycji do »spadku cen pożądanego, wynikającego na przykład
z postępu technicznego i obniżki kosztów produkcji«] z faktu, że w gospodarce jest za
mało pieniędzy”; i: „(…) pieniędzy na rynku jest zbyt mało, zbyt niski jest popyt i pro-
ducenci mają kłopot ze sprzedażą” [wyróżnienia JL]. Dalej prof. Orłowski porusza już
inną kwestię, pisze o zastrzykach pieniężnych dokonywanych przez bank centralny.
Takie zastrzyki zmieniają sytuację gospodarczą, gdyż redystrybuują własność z korzy-
ścią dla pierwszych odbiorców pieniądza.
186 JAN LEWIŃSKI

W polityce gospodarczej istotne stają się wielkości zdezindywidualizowa-


ne, na których można przeprowadzać proste operacje arytmetyczne wielkich
polityk – zasilać „inwestycje”, „konsumpcję”, „oszczędności” tak, jakby po
prostu dolewało się kolejnego płynu do homogenicznego zbioru. Ten spo-
sób myślenia do tego stopnia spowszedniał w teorii ekonomii, że przeniknął
nawet z ujęcia makroekonomicznego do mikroekonomii31. Ujęcie to jest ze
wszech miar korzystne z politycznego punktu widzenia – odwraca uwagę
opinii publicznej od indywidualnych metod radzenia sobie z problemami
ekonomicznymi, skłaniając ekonomistów do zajmowania się agregatami eko-
nomicznymi, i daje politykom iluzję kontroli procesów gospodarczych.
Jednocześnie tematem tabu pozostają wszelkie kwestie, które mogą
systemowo nadwyrężyć zaufanie do politycznego status quo systemu pie-
niężnego i kredytowego; co najwyżej proponuje się incydentalne i niesku-
teczne ruchy mające „odnowić” to zaufanie, np. na rynku międzybanko-
wym. Możemy powiedzieć, że tego rodzaju podejście stara się budować
analizę od złej strony, de facto dobierając argumenty do z góry przyjętych
tez. Analitycy, zatrzymujący się na ekonometrycznej analizie agregatów
gospodarczych, na podstawie obserwacji samego zjawiska spadku cen usi-
łują dociec jego przyczyny. Postępując w ten sposób, mogą odnaleźć ja-
kąś akcydentalną (bądź nie) zależność statystyczną, która jest w pewnym
stopniu skorelowana z poziomem cen i mogą uznać, że odnaleźli przyczy-
nę zmiany (mimo że zależność ta nie musi wynikać z przyczynowości).
Czynią to doraźnie, zależnie od potrzeb chwili lub aktualnej mody ekono-
micznej, zamiast podejść do sprawy systemowo – na zasadzie znalezienia
pierwszego w miarę wiarygodnego podejrzanego. Choć łatwa, metoda ta
jest bardzo zwodnicza32.

31
Przykładowo, tak ignorowanie roli jednostki w teorii fi rmy widzi William Bau-
mol (Baumol 1968, s. 66–67): „(...) przedsiębiorca został usunięty z modelu. Nie ma
miejsca na przedsiębiorczość oraz inicjatywę. Grupa menedżerów staje się tu pasyw-
nym kalkulatorem, który mechanicznie odpowiada na narzucone mu przypadkowe
zmiany zewnętrzne. Nie ma nad nimi żadnej kontroli i nawet nie próbuje na nie
wpływać. Nie próbuje się analizować żadnych przewrotnych podstępów czy błysko-
tliwych innowacji. Brak tu charyzmy czy jakichkolwiek cech prawdziwej, cudownej
przedsiębiorczości; nie słyszymy o nich, bo nie ma najmniejszej szansy, aby zmieściły
się w sztywnych ramach modelu (…)”.
32
Gdy trudno na podstawie samej wiedzy o jednowymiarowej zmianie poziomu
ceny wnosić o wszystkich czynnikach, które na nią wpłynęły, to wnioskowanie od-
wrotne jest bardziej eleganckie intelektualnie. Wzrost ceny dobra nie niesie przecież
informacji o tym, czy wzrósł na nie popyt, czy może spadła jego podaż albo czy zmie-
niły się dochody ludności (i jak się zmieniły – wskutek zastrzyku podaży pieniądza
czy względnego wzrostu produktywności pracy) bądź wzrosły koszty produkcji, bo
wprowadzono podatki. Jednakowoż nietrudno przewidzieć, że nagłe zainteresowanie
klientów jakimś towarem będzie bodźcem do wzrostu jego ceny. I tej generalnej kon-
statacji nie zmieni obserwacja, że np. ceny się faktycznie nie zmieniły, bo wpłynął
na nie jeszcze inny czynnik o przeciwnym działaniu. Widzimy, że proponowane tu
wychodzenie w rozumowanie ekonomiczne, w którym punktem wyjścia są czynniki
Deflacja a polityka 187

Podsumowanie

Przedstawiona na początku taksonomia deflacji rozdziela źródła de-


flacji cen, wymieniając jedno negatywne i trzy zasadniczo pozytywne
– ozdrowieńcze dla systemu gospodarczego. Należy tu jednak zauważyć,
że samego zjawiska spadku cen w żadnym razie nie można wartościować
ani negatywnie, ani pozytywnie. Ceny są w nieustannym ruchu, zmie-
niają się tak względem siebie, jak i bezwzględnie. Dociekanie, czy dany
wzrost lub spadek jest pozytywny ekonomicznie, ma sens mniej więcej
równoważny dociekaniu, czy to dobrze, że cena rowerów spadła w porów-
naniu z cenami innych dóbr. Jest to korzystne dla jednych uczestników
rynku, a dla innych (ewentualnie) niekorzystne. Jedynym poprawnym
wnioskiem, jaki ekonomiści powinni wyciągnąć, jest ten, że zmiana na-
stąpiła zgodnie z preferencjami uczestników rynku oraz czynnikami fun-
damentalnymi. Pieniądz, choć jest dobrem szczególnym, co do zasady tak
samo kierowany jest prawami popytu i podaży, zależnymi wyłącznie od
osobniczych preferencji i struktury dystrybucji dóbr. „Problem deflacji”
pojawia się dopiero wtedy, gdy politycy otrzymują do rąk instrumenty
umożliwiające im sterowanie tymi parametrami. Powstaje wtedy kwestia,
jak „właściwie” zorganizować ten rynek, aby „wszystkim” według jakichś
kryteriów było lepiej.
Najlepszym rozwiązaniem kwestii deflacji cen wydaje się porzucenie
zaangażowania w walkę z deflacją (qua spadkiem cen) jako iluzji centra-
listycznego sterowania życiem gospodarczym zza fotela planisty, którego
sąd jest równie subiektywny, jak sądy innych uczestników rynku. Ceny
nie są jednakowoż przypadkowym i arbitralnym wyborem, lecz raczej
złożonym homeostatycznym procesem współpracy, wyważającym racje
ekonomiczne wszystkich uczestników rynku. Ingerowanie w ten proces
kalkulacji ekonomicznej przez inflację pieniężną bądź przez zakazywanie
naturalnych działań deflacyjnych prowadzi do szkód gospodarczych nie-
współmiernych do rzekomego zagrożenia.

wpływające na ceny, a nie przeciętny poziom cen, będzie bardziej uniwersalne i po-
prawne niż stawianie ad hoc hipotez dotyczących pochodzenia jakiegoś wybranego
przypadku historycznego ruchu cen.
188 JAN LEWIŃSKI

Bibliografia

Atkeson Andrew, Kehoe Patrick J., 2004, Deflation and Depression: Is There an Empi-
rical Link?, „The American Economic Review”, vol. 94, no. 2, Papers and Proceed-
ings of the One Hundred Sixteenth Annual Meeting of the American Economic
Association San Diego, CA, styczeń 3–5, (maj 2004), s. 99–103.

Bastiat Frédéric, 2005, Co widać i czego nie widać, Warszawa, Fijorr Publishing.

Baumol William J., 1968, Entrepreneurship in Economic Theory, „The American Eco-
nomic Review”, vol. 58, no. 2, Papers and Proceedings of the Eightieth Annual
Meeting of the American Economic Association (maj 1968), s. 64–71.

Begg David, Fischer Stanley, Dornbusch Rudiger, 2003, Ekonomia, Warszawa, Polskie
Wydawnictwo Ekonomiczne.

Bernanke Ben, 2002, Deflation: Making Sure ‘It’ Doesn’t Happen Here. Remarks by
Governor Ben S. Bernanke Before the National Economists Club, Washington,
D.C.

Czarny Bogusław, Rapacki Ryszard, 2002, Podstawy ekonomii, Warszawa, Polskie


Wydawnictwo Ekonomiczne.

Friedman Milton 1968, The Role of Monetary Policy, „The American Economic Re-
view”, vol. 58, no. 1 (marzec 1968), s. 1–17.

Graduate Careers Australia, 2007, Degree Level / Field of Study Survey, www.grads-
online.com.au [dostęp: 27.02.2010].

Hall Robert E., Taylor John B., 1999, Makroekonomia. Teoria, funkcjonowanie i polity-
ka, Warszawa, Wydawnictwo Naukowe PWN.

Hayek Friedrich A. von, 1931, The ‘Paradox’ of Saving, „Economica”, no. 32 (maj
1931), s. 125–169.

Hayek Friedrich A. von, 1933, Monetary Theory and the Trade Cycle, New York, Sen-
try Press.

Hayek Friedrich A. von, 1967, Prices and Production, New York, Augustus M. Kelly.

Hirschman Albert O., 1948, Inflation and Deflation in Italy, „The American Economic
Review”, vol. 38, no. 4 (wrzesień 1948), s. 598–606.

Hoppe Hans-Hermann, 2006, Demokracja – bóg, który zawiódł, Warszawa, Fijorr


Publishing.
Deflacja a polityka 189

Huerta de Soto Jesús, 2009, Pieniądz, kredyt bankowy i cykle koniunkturalne, Warsza-
wa, Instytut Ludwiga von Misesa.

Hülsmann Jörg Guido, 2004, Legal Tender Laws and Fractional-Reserve Banking,
„Journal of Libertarian Studies”, vol. 18, no. 3 (lato 2004), s. 33–55.

Hülsmann Jörg Guido, 2008, Deflation and Liberty, Auburn: Ludwig von Mises
Institute.

Johnsson Richard C. B., 2005, Deflation and Japan Revisited, „The Quarterly Journal
of Austrian Economics”, vol. 8, no. 1 (wiosna 2005), s. 15–29.

Klein Peter G., 2006, Why Intellectuals Still Support Socialism, http://mises.org/story/2318
[dostęp: 9.01.2010].

Kramer Hugh, 2004, Crisis of the Third Century, http://www.accla.org/actaaccla/


kramer.html [dostęp: 9.01.2010].

Leoni Bruno, 1991, Freedom and the Law, Indianapolis, Liberty Fund.

Machaj Mateusz, 2009, Prawa własności w systemie kapitalistycznym i socjalistycznym


– studium porównawcze, Wrocław, Uniwersytet Ekonomiczny we Wrocławiu.

Menger Carl, 2004, Principles of Economics, electronic online edition, Auburn, Ala-
bama, Ludwig von Mises Institute.

Mises Ludwig von, 1953, The Theory of Money and Credit, Yale, Yale University
Press.

Mises Ludwig von, 1990, Economic Calculation In The Socialist Commonwealth, Au-
burn, Alabama, Ludwig von Mises Institute.

Mises Ludwig von, 2005, Interwencjonizm, Kraków, Arcana.

Mises Ludwig von, 2007, Ludzkie działanie, Warszawa, Instytut Ludwiga


von Misesa.

North Gary, 2009, The Myth of the Kondratieff Wave, http://www.lewrockwell.com/


north/north725.html [dostęp: 9.01.2010].

Orłowski Witold, Orliński Wojciech, 2009, Co złego jest w deflacji?, „Gazeta Wybor-
cza”, 19 lipca 2009, http://gospodarka.gazeta.pl/pieniadze/1,29577,6838105,Co_
zlego_jest_w_deflacji_.html [dostęp 9.01.2010].
190 JAN LEWIŃSKI

Radzikowski Marek, 2004, Kryzys argentyński. Wnioski dla Polski, Warszawa, Wy-
dawnictwo C.H. Beck.

Reisman George, 1998, Capitalism. A Treatise on Economics, Ottawa, Illinois, Jame-


son Books.

Reisman George, 2009, Falling Prices Are the Antidote to Deflation, http://mises.org/
story/3296 [dostęp: 9.01.2010].

RMF FM, 2002, Rekordowo niska infl acja, groźba defl acji?, http://www.rmf.fm/
fakty,47451,Rekordowo,niska,infl acja,grozba,defl acji.html

Rostowski Jacek, 2003, Pięć mitów o deflacji, Centrum Analiz Społeczno-


-Ekonomicznych.

Rothbard Murray N., 2004a, Cykl Kondratiewa – fakt czy oszustwo?, http://mises.pl/
135/135/ [dostęp: 9.01.2010].

Rothbard Murray N., 2004b, Złoto, banki, ludzie – krótka historia pieniądza, Warsza-
wa, Fijorr Publishing.

Rothbard Murray N., 2010a, Etyka wolności, Warszawa, Fijorr Publishing.

Rothbard Murray N., 2010b, Wielki Kryzys w Ameryce, Warszawa, Instytut Ludwiga
von Misesa.

Salerno Joseph T., 2003, An Austrian Taxonomy of Deflation – with Applications to the
U.S, „The Quarterly Journal of Austrian Economics”, vol. 6, no. 4 (zima 2003),
s. 81–109.

Siegfried John J., Stock Wendy A., 2002, The Market for New Ph.D. Economists in
2002, „The American Economic Review”, vol. 94, no. 2, Papers and Proceedings
of the One Hundred Sixteenth Annual Meeting of the American Economic Asso-
ciation San Diego, CA, styczeń 3–5, (maj 2004), s. 272–285.

Thornton Mark, 2003, Apoplithorismosphobia, „The Quarterly Journal of Austrian


Economics”, vol. 6, no. 4 (zima 2003), s. 5–18.

Thornton Mark, 2005, Skyscrapers and Business Cycles, „The Quarterly Journal of
Austrian Economics”, vol. 8, no. 1 (wiosna 2005), s. 51–74.
Marcin Zieliński jest tłumaczem, publicystą. Studiował ekonomię na Uni-
wersytecie Wrocławskim i w 2010 roku obronił pracę magisterską Koncepcja
równowagi pieniężnej w teorii wolnej bankowości napisaną pod kierunkiem
prof. Kwaśnickiego.
Marcin Zieliński

SYS T E M PI E N I Ę Ż N Y BE Z BA N K U C E N T R A L N E G O

Ws t ę p

Konieczność istnienia banku centralnego jest wciąż obowiązującym


dogmatem i tak traktuje go większość podręczników do makroekonomii
czy bankowości. Pewnik ten tak głęboko zakorzenił się w teorii ekonomii
głównego nurtu, że ich autorzy zwykle nie zajmują się jego rozważaniem.
Kontrowersje w głównym nurcie makroekonomii budzi właściwie tylko
optymalna forma polityki pieniężnej: czy powinna być ona restrykcyjna,
czy ekspansywna; czy powinna mieć charakter dyskrecjonalny, czy też
opierać się na określonych zasadach. Na ogół jednak nie kwestionuje się
zasadności istnienia banku centralnego.
Tymczasem na obrzeżach głównego nurtu coraz prężniej rozwijają
się teorie głoszące, że rynek z powodzeniem może kontrolować podaż
pieniądza. Friedman i Schwartz (Friedman, Schwartz 1987, s. 500–501)
wskazują trzy przyczyny wzrostu zainteresowania teorią wolnej banko-
wości: 1) rozwój teorii wyboru publicznego, która głosi, że urzędnicy
państwowi w swoich działaniach kierują się własnym interesem (bank
centralny nie jest tu wyjątkiem); 2) rozwój teorii racjonalnych oczeki-
wań, badającej wpływ zmian instytucjonalnych na oczekiwania społe-
czeństwa; oraz 3) wzrost zainteresowania szkołą austriacką w ekonomii
i proponowana przez Hayeka denacjonalizacja pieniądza (Hayek 1976;
idem 1990).
Chociaż teoria wolnej bankowości wciąż jest domeną szkoły austriac-
kiej, jej analizą zajmują się również przedstawiciele angielskiej szkoły su-
biektywistycznej, na przykład Dowd (Dowd 1989), i teoretycy o rodowo-
dzie monetarystycznym, tacy jak Greenfield i Yeager (Greenfield, Yeager
1997), Timberlake (Timberlake 1984; idem 1987) oraz Glasner (Glasner
1989). Z kolei w samej szkole austriackiej można wyróżnić cztery nurty:
1) zwolenników stuprocentowej rezerwy w złocie, do których można za-
liczyć Rothbarda (Rothbard 1992; idem 2004), Hoppego (Hoppe 1994;
Hoppe, Hülsmann, Block 1998), Hülsmanna (Hülsmann 1996; idem 2008)
194 MARCIN ZIELIŃSKI

i Huerta de Soto (Huerta de Soto 2009); 2) zwolenników rezerwy cząst-


kowej, opierających swoją analizę na teorii równowagi pieniężnej, do któ-
rych zaliczymy White’a (White 1995), Selgina (Selgin 1988) i Horwitza
(Horwitz 2000); 3) zwolenników rezerwy cząstkowej w oparciu o argu-
menty natury etycznej, jak Salin (Salin 1998); oraz 4) zwolenników kon-
kurujących ze sobą walut bez pokrycia emitowanych przez prywatne ban-
ki (Hayek 1976; idem 1990).
Rozdział ten ma na celu przybliżenie teorii opracowanych przez szkołę
austriacką, a zwłaszcza doktryny wolnej bankowości opartej na rezerwie
cząstkowej. Pominiemy tutaj teorię Salina, która skupia się właściwie tyl-
ko na etyczno-prawnym uzasadnieniu rezerwy cząstkowej.
Przez pojęcie „wolnej bankowości” będziemy rozumieć system,
w którym:

Rząd nie kontroluje ilości środków wymiany. Nie istnieje bank cen-
tralny finansowany przez rząd. Nie istnieją dla banków komercyj-
nych (oraz niebankowych instytucji finansowanych; przyjmujemy,
że da się je jakoś odróżnić od banków) prawne bariery wejścia, zakła-
dania oddziałów ani wyjścia. Nie istnieją ograniczenia dotyczące ilo-
ści i formy emitowanych przez bank zobowiązań czy akcji, ani relacji
pomiędzy nimi oraz ilości i formy trzymanych przez bank aktywów
ani relacji pomiędzy nimi. Stopy procentowe nie podlegają kontroli.
Nie istnieją rządowe gwarancje depozytów. Ogólnie rzecz biorąc, nie
istnieją żadne ograniczenia dotyczące umów zawieranych pomiędzy
bankami i ich klientami, oprócz wymogu, że muszą być one zgodne
z powszechnymi zasadami prawnymi rządzącymi wszystkimi umo-
wami biznesowymi (Selgin, White 1994, s. 1718–1719).

Definicja ta jest na tyle ogólna, że wszystkie omawiane tutaj szkoły


powinny się z nią zgodzić.
Wyjaśnienia będzie wymagać również to, jak szkoły te rozumieją sta-
bilność makroekonomiczną. Pieniądz – stanowiąc swoisty krwioobieg
gospodarki – ma zasadniczy wpływ na zachowanie się struktury i pozio-
mu cen. Omawiane tutaj doktryny mają to oczywiście na względzie, lecz
każda przedstawia inną wizję tego, jak „powinna” zachowywać się podaż
pieniądza. W związku z tym przedstawiając poszczególne szkoły wolnej
bankowości, należy również omówić poglądy ich przedstawicieli na kwe-
stie „optymalnego” zachowania się podaży pieniądza i poziomu cen.

Wo l n a b a n k o w o ś ć o p a r t a
na st uprocentowej rezer w ie
Zwolennicy stuprocentowego standardu złota uważają, że każda ryn-
kowa podaż pieniądza jest optymalna. W ich opinii o rynkowej podaży
System pieniężny bez banku centralnego 195

pieniądza można mówić tylko wtedy, gdy substytuty pieniądza (banknoty


i depozyty) mają stuprocentowe pokrycie (Rothbard 2004; idem 2007).
Ponieważ wydobycie złota jest procesem powolnym, podaż pieniądza
w takim systemie byłaby mało elastyczna. Możemy więc uznać, że zwo-
lennicy stuprocentowej rezerwy chcą – przynajmniej w krótkim okresie
– stabilizować M w Fisherowskim równaniu wymiany (MV = PT).
Wszelkie zmiany w popycie na pieniądz powinny więc znaleźć od-
zwierciedlenie w zmianie poziomu cen. A skoro, jak już zaznaczyliśmy,
wydobycie złota trwa długo, to system nie mógłby natychmiast reagować
na wzrost popytu na pieniądz. W takiej sytuacji wzrost popytu na pie-
niądz musiałby doprowadzić do powstania deflacyjnej presji na poziom
cen. Z kolei w przypadku spadku popytu na pieniądz podaż pieniądza
mogłaby spaść tylko pod warunkiem, że część złota monetarnego znala-
złaby zastosowanie w przemyśle. W obydwóch przypadkach dostosowa-
nie podaży pieniądza do zmian w popycie na niego miałoby charakter
długookresowy.
Zwolennicy stuprocentowej rezerwy uważają, że zmiany struktury
i poziomu cen pod wpływem zmian w popycie na pieniądz nie stanowią
dla gospodarki problemu, tym bardziej że przedsiębiorcy powinni je an-
tycypować. Oczywiście, nic nie stoi na przeszkodzie, aby tak się działo
w sytuacji regularnych (sezonowych) zmian w popycie na pieniądz. Jed-
nak ich zdaniem nawet powtarzający się szok spowodowany popytem nie
powinien stanowić problemu, a odpowiednie zmiany w strukturze cen
powinny wtedy nastąpić w miarę szybko i sprawnie. Struktura cen powin-
na w związku z tym odzwierciedlać dobrowolne preferencje podmiotów
działających na rynku.
W takim systemie istniałoby jasne rozróżnienie działalności depozy-
towej i działalności kredytowej banków. W pierwszym przypadku bank
jest po prostu magazynem, który przechowuje złoto klienta, pobierając
za to prowizję. Deponent nadal jest właścicielem swojego złota i w każdej
chwili może je pobrać z banku1. W drugim przypadku banki pełnią rolę
pośrednika pomiędzy pożyczkodawcą i pożyczkobiorcą. Pożyczkodawca,
lokując swoje środki pieniężne na lokacie terminowej lub kupując papie-
ry dłużne banku, zrzeka się prawa do swoich środków na czas określony
w umowie, natomiast bank zobowiązuje się do oddania mu tej samej kwo-
ty wraz z odsetkami po upływie okresu pożyczki. W przypadku umowy

1
Wyróżnia się dwa rodzaje depozytu: depozyt prawidłowy (regularny) i depozyt
nieprawidłowy (nieregularny). W pierwszym przypadku depozytariusz jest zobowią-
zany do wydania deponentowi dokładnie tej samej rzeczy, którą dostał na przecho-
wanie (np. obrazu), natomiast w drugim depozytariusz jest zobowiązany do wydania
tej samej ilości dobra oznaczonego co do gatunku (np. zboże). Ponieważ złoto jest
dobrem homogenicznym (jego jednostki są nierozróżnialne), to banki stosowały tę
drugą formę depozytu. Oznacza to, że bank nie musi przechowywać dokładnie tego
samego złota, które dostał na przechowanie, tylko tą samą jego ilość (tantundem)
(Huerta de Soto 2009, s. 3–4).
196 MARCIN ZIELIŃSKI

depozytu aktywa (i pasywa) banku pozostają bez zmian (gdyż klient nie
jest wierzycielem banku), natomiast w przypadku transakcji kredytowej
(pożyczki) się zwiększają (Rothbard 2007, s. 96–98).
W systemie stuprocentowego standardu złota banki nie miałyby
prawa emitować środków fiducjarnych. Wszelkie banknoty i depozyty
miałyby stuprocentowe pokrycie w złocie – byłyby certyfi katami (Mi-
ses 2007, s. 368, ponieważ stosowanie rezerw cząstkowych przez banki
musiałoby z konieczności stanowić złamanie praw własności osób bę-
dących posiadaczami banknotów i depozytów emitowanych przez takie
banki. Z tego powodu banki stosujące rezerwę cząstkową powinno się
uznać za winne oszustwa, a także za bankrutów, gdyż nie są w stanie
wymienić wszystkich wyemitowanych przez siebie banknotów i depo-
zytów na żądanie na pieniądz bazowy, czyli złoto ( Block 1988). Z kolei
w wypadku pożyczek banki powinny stosować się do złotej reguły ban-
kowej, wedle której terminy zapadalności aktywów i pasywów powinny
być takie same.
Zwolennicy tej doktryny uważają stosowanie przez banki rezerwy
cząstkowej za przyczynę braku stabilności makroekonomii a także przy-
czynę występowania cyklu koniunkturalnego. Klient banku deponujący
w nim swoje pieniądze wcale z nich nie rezygnuje – nie pożycza ich ban-
kowi. Stosujący rezerwę cząstkową bank, pożyczając bądź inwestując zde-
ponowane środki, naraża się na ryzyko runu. Jeśli wszystkie lub prawie
wszystkie banki stosują rezerwę cząstkową, wystąpienie runu albo paniki
musi skutkować – o ile sam system bankowy lub rząd nie podejmie dzia-
łań polegających np. na zawieszeniu wypłat – raptownym skurczeniem
się podaży pieniądza. Ponadto ekspansji kredytowej musi towarzyszyć
sztuczne obniżenie stopy procentowej. Należy również pamiętać o tym,
że wzrost podaży pieniądza nie prowadzi wcale do równomiernych i pro-
porcjonalnych zmian wszystkich cen, ale najpierw przyczynia się do wzro-
stu cen dóbr w tych sektorach rynku, które znalazły się najbliżej miejsca
„wstrzyknięcia” nowego pieniądza do gospodarki. Zakłócona zostaje więc
struktura względnych cen różnych dóbr (tzw. efekt Cantillona). Wszyst-
kie te zjawiska towarzyszą okresowi boomu, w trakcie którego struktura
produkcji zostaje sztucznie wydłużona. Kiedy jednak boom się zakończy,
okaże się, że inwestycje w wyższe rzędy produkcji (bardziej oddalone od
konsumenta) nie mają uzasadnienia ekonomicznego i będą musiały zostać
zlikwidowane.

Wo l n a b a n k o w o ś ć o p a r t a
na rezer w ie cz ąst kowej
Austriaccy przedstawiciele tej szkoły (Selgin, White i Horwitz) utrzy-
mują, że o optymalnej podaży pieniądza można mówić wtedy, gdy zmia-
nom w autonomicznym popycie na pieniądz odpowiadają zmiany w jego
System pieniężny bez banku centralnego 197

podaży. Uważają oni, że wahania makroekonomiczne są właśnie skutkiem


niedopasowania podaży pieniądza do popytu na niego. W związku z tym
chcą stabilizować MV w równaniu wymiany.
Dostosowania na rynku, które muszą wystąpić w następstwie zmia-
ny relacji pomiędzy podażą pojedynczego dobra i popytem na nie, nie
stanowią aż tak dużego problemu dla gospodarujących podmiotów.
Jednak zamieszanie byłoby znacznie większe, gdyby jednocześnie zmie-
niły się relacje pomiędzy podażą i popytem na wszystkich – albo prawie
wszystkich – rynkach. Właśnie taka sytuacja występuje, gdy zmienia się
podaż pieniądza lub popyt na niego. Jak to ujął Leland B. Yeager:

ponieważ pieniądz jest wymieniany na wszystkich rynkach, ale nie


posiada rynku specyficznego dla siebie i skoro nie ma swojej jed-
nostkowej ceny, która mogłaby zaistnieć pod pewną presją, to nie-
równowaga pomiędzy jego podażą i popytem na niego ma daleko
idące konsekwencje (Yeager 1997, s. 107).

O ile zmiany w popycie bądź podaży na rynku jednego dobra wyma-


gają, aby tylko jedna cena się dostosowała do nowych warunków, o tyle
zmiany w podaży pieniądza lub w popycie na niego prowadzą z koniecz-
ności do zmian cen w całej gospodarce. Ponadto odchyleniom od równo-
wagi pieniężnej towarzyszą zakłócenia cen względnych, określane mia-
nem efektu Cantillona2. Podobny proces zachodzi – jak twierdzą teoretycy
równowagi pieniężnej – gdy rośnie popyt na pieniądz (na realne salda go-
tówkowe). Wzrost popytu na pieniądz również może być nierównomierny
i dotknąć niektóre sektory gospodarki bardziej niż inne. Jeszcze poważ-
niejszy problem wystąpi, gdy niektóre ceny okażą się bardziej „lepkie” niż
inne. Podobnie sytuacja będzie wyglądać również w przypadku spadku
podaży pieniądza lub spadku popytu na niego.
Oczywiście, problem ten ma charakter krótkookresowy. Jak pisze
Horwitz:

w odpowiednio długim okresie, każda nominalna podaż pieniądza


może mieć charakter równowagowy, jeśli tylko dopuścimy do odpo-
wiednich zmian w poziomie cen (Horwitz 2000, s. 69).

[W związku z tym] gospodarka osiąga równowagę pieniężną, jeśli


na zmiany w popycie na pieniądz odpowiada się zmianą realnej

2
Warto tutaj zaznaczyć, że zwolennicy teorii równowagi pieniężnej pojmują efekt
Cantillona inaczej niż zwolennicy stuprocentowego standardu złota. Zdaniem tych
pierwszych efekt Cantillona pojawia się tylekroć, ilekroć podaż pieniądza jest niedo-
stosowana do popytu na niego, i to zarówno w przypadku deflacyjnej, jak i inflacyjnej
nierównowagi pieniężnej. Z kolei ci drudzy uważają, że efekt Cantillona występuje
tylko w przypadku nierynkowych zmian w podaży pieniądza.
198 MARCIN ZIELIŃSKI

podaży pieniądza przez dostosowanie nominalnej podaży pienią-


dza (Horwitz 2000, s. 70).

Kiedy równowaga pieniężna zostaje zachowana, ceny odzwierciedlają


sferę realną gospodarki. W takiej sytuacji przedsiębiorcy muszą odczyty-
wać tylko sygnały cenowe i ich zmiany wysyłane przez „realną” sferę go-
spodarki. W przypadku nierównowagi pieniężnej sygnały cenowe zostają
zakłócone przez sferę pieniężną.
O deflacyjnej nierównowadze pieniężnej mówimy więc wtedy, gdy ce-
teris paribus rośnie autonomiczny popyt na pieniądz bądź spada jego po-
daż. Jeśli na przykład rośnie popyt na pieniądz, któremu nie towarzyszy
wzrost podaży pieniądza, coraz więcej pieniędzy znajduje się w portfe-
lach uczestników rynku. Skoro pieniądze te nie są wydawane, to stanowią
oszczędności. Jeśli system bankowy nie może zamienić tych oszczędności
na nowe kredyty, to podaż kredytu jest za mała w stosunku do oszczęd-
ności, a w konsekwencji stopa procentowa jest wyższa, niż wynikałoby
to z preferencji czasowej. Wskutek tego ilość inwestycji jest mniejsza, niż
powinna być.
Jednocześnie pojawia się też deflacyjna presja na ceny. Jeżeli ceny
nie są doskonale elastyczne, to nadmierny popyt na pieniądz objawi się
w postaci spadku popytu na wszystkich (lub prawie wszystkich) rynkach
dóbr. Sprzedający nie będą mogli zbyć swoich dóbr po dotychczasowych
cenach. Ponadto wydatki jednej osoby są źródłem dochodu dla innych3.
W konsekwencji spadek popytu na dobra będzie skutkować tym, że sprze-
dający, doświadczając spadku dochodów, nie będą mogli zrealizować swo-
jego zwykłego planu wydatków. Sytuacja będzie podobna jak w przypad-
ku ustanowienia cen minimalnych (Horwitz 2000, s. 144). Problem ten
przypomina znany z teorii gier dylemat więźnia. Ceny są lepkie, ponieważ
sprzedający nie są skłonni do obniżenia cen, jeśli nie zrobią tego pozostali
uczestnicy rynku. W konsekwencji nikt nie obniża natychmiastowo cen,
choć tak powinno być. Stąd też przywrócenie równowagi pieniężnej wy-
maga pewnego czasu.
Z kolei z inflacyjną nierównowagą pieniężną mamy do czynienia, gdy
ceteris paribus spada popyt na pieniądz bądź rośnie jego podaż. Jeśli na
przykład w sytuacji niezmienionego popytu na pieniądz rośnie jego po-
daż, na rynku pojawiają się inwestycje, które nie wynikają z dobrowol-
nych oszczędności. Ponieważ jednak wzrost cen nie zachodzi wtedy rów-
nomiernie, to przynajmniej przez okres przejściowy niektórzy ludzie – ci,
których już dotknęły wyższe ceny, choć ich dochody nie zdążyły się jesz-
cze odpowiednio zwiększyć – będą dysponować niższą siłą nabywczą, niż
gdyby nie było inflacji pieniądza (wymuszone oszczędności). Kiedy jed-
nak pokrzywdzeni wzrostem podaży pieniądza zaczynają osiągać wyższe

3
Warto tutaj zauważyć, że Selgin w swojej książce stwierdził, iż jego model powi-
nien zasadniczo znaleźć akceptację wśród keynesistów (Selgin 1988, s. 59).
System pieniężny bez banku centralnego 199

dochody i wydawać je zgodnie z własnymi preferencjami, przywrócona


zostaje dawna struktura konsumpcji i okazuje się, że nie wszystkie nowo
powstające inwestycje mogą zostać ukończone.
Musimy tutaj zaznaczyć, że zwolennicy wolnej bankowości opartej na
rezerwie cząstkowej uważają, że tylko zmiany w autonomicznym popycie
na pieniądz powinny być równoważone przez zwiększenie jego podaży.
Autonomicznym popytem na pieniądz jest chęć utrzymywania realnych
sald gotówkowych (a nie chęć otrzymywania pieniędzy w zamian za
inne dobra i usługi). Jeśli jednak zmiany poziomu cen wynikają ze zmian
w produktywności gospodarki, to proporcjonalny spadek (w przypadku
wzrostu produktywności) bądź wzrost (w przypadku spadku produktyw-
ności) poziomu cen (zasada produktywnościowa) nie przeszkadza w ża-
den sposób w utrzymaniu równowagi pieniężnej. W takiej sytuacji zmiany
cen odbywają się automatycznie wraz ze zmianami podaży dóbr, a przez
to zupełnie bezboleśnie dla gospodarki.
Oczywiście, stuprocentowy standard złota nie spełnia tego kryterium.
A żeby równowaga pieniężna została zachowana, system bankowy musi
być na tyle elastyczny, by odpowiednio zmieniać podaż pieniądza w zależ-
ności od okoliczności. Zdaniem przywołanych tutaj teoretyków równowa-
gi pieniężnej optymalnym rozwiązaniem byłby system wolnej bankowości
opartej na rezerwie cząstkowej. Banki działające w takim systemie mogły-
by reagować na zmiany w popycie na pieniądz, emitując bądź wycofując
z obiegu środki fiducjarne.
Należy zauważyć, że doktryna ta zakłada, iż w rozwiniętym systemie
wolnej bankowości pieniądz bazowy (złoto) zostałby wyparty z obiegu
przez pieniądz emitowany przez banki (pieniądz wewnętrzny) (Selgin
1988, s. 54). Tylko w takim przypadku banki mogłyby reagować na zmia-
ny w popycie na pieniądz, emitując środki fiducjarne. Gdyby złote mone-
ty stanowiły znaczną część całkowitej podaży pieniądza znajdującej się
w obiegu, sytuacja pod wieloma względami przypominałaby obecną, kie-
dy to jedyną formą pieniądza wewnętrznego są depozyty bankowe, a ban-
ki nie mają wpływu na podaż pieniądza papierowego.
Banki działające w systemie wolnej bankowości utrzymywałaby rezer-
wy na poziomie, który uważałyby za uzasadniony ekonomicznie (ekono-
miczna stopa rezerw). Nie ograniczałaby ich emisji ustanowiona przez pra-
wo stopa rezerw obowiązkowych i w związku z tym mogłyby elastycznie
reagować na wszelkie zmiany w popycie na pieniądz wewnętrzny. Na wy-
sokość rezerw utrzymywanych przez banki wpływałyby dwa czynniki:
– przeciętny popyt netto na rezerwy równy antycypowanej przez bank
różnicy pomiędzy napływem i odpływem rezerw na skutek działal-
ności systemu kliringowego;
– ostrożnościowy popyt na rezerwy służący zabezpieczeniu banku
przed stratami, które przekraczają tę różnicę. Bank chroni się w ten
sposób przed nieoczekiwaną utratą rezerw, wynikającą z chwi-
lowych i losowych fluktuacji w przepływie środków przez system
200 MARCIN ZIELIŃSKI

kliringowy. W stanie równowagi każdy bank wychodziłby na zero


w rozliczeniach kliringowych. Jednak gdyby nie zdecydował się na
utrzymywanie rezerw ostrożnościowych, naraziłby się na ryzyko, że
nie będzie mógł pokryć strat, jeśli akurat zobowiązania kliringowe
przekroczą wpływy.
Pierwszy czynnik ma znaczenie wtedy, kiedy zmieni się popyt na
pieniądz wewnętrzny emitowany tylko przez jeden bank. Każdego dnia
określona ilość banknotów i czeków trafia do systemu kliringowego. Jeśli
bank znajduje się w równowadze względem swoich konkurentów, to jego
przeciętne zobowiązania będą równe przeciętnym wpływom. Jeśli jednak
klienci takiego banku zaczną wypisywać mniej czeków albo wydawać
mniej banknotów wyemitowanych przez ten bank, to zobowiązania ban-
ku wynikające z transakcji kliringowych się zmniejszą. Wzrost popytu na
pieniądz może być spowodowany zwiększeniem się ilości „przystanków”,
na których zatrzymuje się pieniądz, zanim trafi do systemu kliringowe-
go (więcej uczestników rynku decyduje się dodać pieniądz wyemitowany
przez dany bank do swoich sald gotówkowych); może być też tak, że na
każdym „przystanku” zatrzymuje się większa ilość pieniędzy (dotychcza-
sowi klienci banku zwiększają swoje salda gotówkowe).
Kiedy pieniądz wewnętrzny zostaje w pewnym sensie wycofany z obie-
gu w celu zasilenia sald gotówkowych uczestników rynku, potrzeby banku
co do wielkości utrzymywanych przez nie rezerw się zmniejszają. Rezer-
wy, które poprzednio były konieczne do zaspokojenia zobowiązań banku,
okazują się teraz nadmierne. Dążąc do maksymalizacji zysku, decyduje się
on na ekspansję kredytową. Udzielając kredytów, przenosi oszczędności
z rąk tych, którzy zwiększają swoje salda gotówkowe, do osób bądź firm,
które te oszczędności chcą wykorzystać. Bank, zwiększając podaż swoich
zobowiązań, wraca do równowagi względem pozostałych banków.
Z kolei gdy spadnie popyt na pieniądz, mamy do czynienia z sytuacją
zmniejszenia się ilości „przystanków”, na których się ten pieniądz zatrzy-
muje, bądź też taką, że na każdym „przystanku” zatrzymuje się mniejsza
kwota. Pieniądz wewnętrzny trafia z sald gotówkowych z powrotem do
obiegu, a na koniec do systemu kliringowego. Bank-emitent musi uregulo-
wać nowe zobowiązania. Żeby przywrócić równowagę względem swoich
konkurentów, bank musi zlikwidować część swoich inwestycji lub odmó-
wić odnowienia kredytów, czyli po prostu zmniejszyć akcję kredytową.
Tak jak podaż pieniądza wewnętrznego może zostać zwiększona w konse-
kwencji ekspansji kredytowej, tak samo może zostać zmniejszona wskutek
„absorpcji” kredytu.
Istnieje możliwość, że niechciany już pieniądz wewnętrzny trafi bezpo-
średnio do banku, który go wyemitował, na przykład jako spłata kredytu.
Załóżmy, że nadwyżka pieniądza wewnętrznego trafia do kogoś, kto jest
dłużnikiem banku-emitenta i decyduje się wykorzystać ją do spłaty długu.
W takiej sytuacji nie zmienia się liczba transakcji kliringowych, w których
uczestniczy ten bank. Spada za to wolumen wyemitowanych przez niego
System pieniężny bez banku centralnego 201

zobowiązań. Gdyby bank zdecydował się przywrócić dawną strukturę


swoich zobowiązań, zwiększając akcję kredytową, to utraciłby rezerwy
w wielkości równej w przybliżeniu nowej emisji.
Podobną sytuację będziemy mieć, gdy zobowiązania jednego banku są
wykorzystane do spłaty kredytu zaciągniętego w innym banku. Załóżmy,
że osoba A będąca dłużnikiem banku X otrzymuje pewną ilość pieniądza
wewnętrznego wyemitowanego przez bank Y od osoby B, która jednocze-
śnie zmniejsza na stałe swoje saldo pieniężne. Osoba A deponuje otrzyma-
ną kwotę w banku X. W tym momencie bank Y utraci na skutek transak-
cji kliringowych część swoich rezerw – w kwocie równej tej, którą osoba
A otrzymała od osoby B. Bank Y musi zareagować na tę stratę zmniej-
szeniem ilości swoich zobowiązań. Jednocześnie bank X, otrzymawszy
nowe rezerwy, może zwiększyć emisję swoich zobowiązań. W tej chwili
podaż pieniądza wewnętrznego w kategoriach netto jeszcze się nie zmie-
niła. Jednak zdeponowane przez siebie pieniądze osoba A wykorzystuje
do spłacenia kredytu zaciągniętego w swoim banku X. Teraz, podobnie
jak w przypadku opisanym wcześniej, zmniejsza się ilość wyemitowanych
przez banki zobowiązań, a bank, którego rezerwy się zwiększyły, nie ma
możliwości dokonania ekspansji.
Drugi czynnik wpływający na wysokość rezerw utrzymywanych przez
banki ma z kolei znaczenie w przypadku równomiernych zmian w popy-
cie na pieniądz emitowany przez wszystkie banki. W takiej sytuacji żaden
bank nie odnotowuje napływu rezerw. Przepływy kliringowe netto się nie
zmieniają, jednak zmienią się przepływy kliringowe w kategoriach brutto.
W miarę wzrostu liczby transakcji kliringowych rośnie też liczba przypad-
kowych fluktuacji, które decydują o tym, w jaki sposób dotkną one banki.
Ponieważ wzrost liczby transakcji kliringowych jest skutkiem spadku po-
pytu na pieniądz, a spadek liczby transakcji kliringowych jest konsekwen-
cją wzrostu popytu na pieniądz, to zapotrzebowanie banków na rezerwy
określają zmiany w popycie na pieniądz wewnętrzny, nawet jeśli dotyka-
ją one wszystkich banków jednocześnie. Podobna sytuacja będzie, jeśli
zmieni się nie liczba, lecz wolumen transakcji kliringowych. Jego wzrost
spowoduje wzrost popytu na rezerwy ostrożnościowe, a zmniejszenie się
przyczyni się do spadku popytu na rezerwy ostrożnościowe.
Ogólny wzrost popytu na pieniądz wewnętrzny jest równoznaczny
z ogólnym spadkiem szybkości cyrkulacji tego pieniądza. Banknoty rzadziej
zmieniają właściciela i rzadziej wypisywane są czeki. W konsekwencji zobo-
wiązania banków rzadziej trafiają w ręce konkurentów, którzy chcą wymie-
nić je na rezerwy. Spadek szybkości obiegu pieniądza wewnętrznego wpływa
bezpośrednio na spadek poziomu przepływu rezerw przez system kliringo-
wy. Oznacza to również, że mniejsze będą przypadkowe fluktuacje w roz-
liczeniach kliringowych. Wtedy banki odkrywają, że ich rezerwy ostroż-
nościowe są nadmierne w stosunku do poziomu wyemitowanych przez nie
zobowiązań, a zatem mogą zwiększyć podaż pieniądza wewnętrznego przez
działalność kredytową, która przynosi im zyski (w postaci odsetek).
202 MARCIN ZIELIŃSKI

Wraz ze spadkiem popytu na pieniądz wzrasta szybkość przepływu re-


zerw przez system kliringowy, a banki usilnie starają się utrzymać płyn-
ność. Oznacza to, że w sytuacji nowej relacji pieniężnej dotychczasowy
poziom rezerw jest niewystarczający. Stąd też banki muszą zmniejszyć po-
daż swoich zobowiązań.
Zarówno koncepcja wolnej bankowości opartej na rezerwie cząstkowej, jak
i teoria równowagi pieniężnej spotkały się z krytyką zwolenników stuprocen-
towego standardu złota. Kwestię niestabilności systemu bankowego opartego
na rezerwie cząstkowej poruszyliśmy tu już wcześniej. Teraz przedstawimy
pokrótce najważniejsze zastrzeżenia wobec analizy równowagi pieniężnej.
Sezonowe wahania w popycie na pieniądz (przedsiębiorcy mogą je
łatwo przewidzieć) są czymś normalnym, natomiast nieprzewidziane
zmiany, o których mówi teoria równowagi pieniężnej, mogą spowodować
tylko „wojny i klęski żywiołowe” (Huerta de Soto 2009, s. 516). Jedynie
w razie takich sytuacji może nastąpić egzogeniczny (względem systemu
bankowego) wzrost popytu na pieniądz. Jednak sam system bankowy, jak
dowodzi Huerta de Soto, może powodować endogeniczny wzrost popytu
na pieniądz. Popyt społeczeństwa na kredyt zależy od tego, czy banki są
skłonne ten kredyt przyznawać. Uczestnicy rynku, nieświadomi ekspansji
kredytowej i tego, że proces ten musi w ostateczności doprowadzić do
spadku siły nabywczej pieniądza, zauważą, że ceny niektórych dóbr rosną
szybciej i będą chcieli poczekać, aż wrócą one do swojego normalnego
(czyli wcześniejszego) poziomu. Oznacza to, że zwiększą swój popyt na
salda gotówkowe (Huerta de Soto 2009, s. 512–516).
Huerta de Soto wskazuje również na to, że analiza ekonomiczna po-
winna skupiać się głównie na procesie dochodzenia przez gospodarkę do
równowagi, a nie na samej równowadze:

(...) analiza równowagi pieniężnej współczesnych teoretyków wolnej


bankowości zawiera wiele takich samych ograniczeń jak współcze-
sna analiza neoklasyczna, która, zarówno w kontekście mikroeko-
nomicznym, jak i makroekonomicznym, zajmuje się jedynie osta-
tecznym stanem procesów społecznych (równowaga pieniężna), do
którego rzekomo prowadzą racjonalne, optymalizujące zachowania
podmiotów gospodarczych (prywatnych bankierów). Analiza eko-
nomiczna szkoły austriackiej natomiast skupia się nie na równowa-
dze, lecz na dynamicznych procesach przedsiębiorczości. Każdy akt
przedsiębiorczości koordynuje i określa tendencję zmierzającą do
równowagi, która jednak nigdy nie zostanie osiągnięta, ponieważ
w trakcie tego procesu warunki ulegają zmianie, a przedsiębiorcy
tworzą nowe informacje. A więc z dynamicznego punktu widzenia
nie możemy przyjąć modelu statycznego, zakładającego, tak jak
model równowagi pieniężnej, że zajdą natychmiastowe, doskonałe
dostosowania pomiędzy popytem na środki fiducjarne a ich podażą
(Huerta de Soto 2009, s. 516–517).
System pieniężny bez banku centralnego 203

W rzeczywistej gospodarce kierownictwo każdego banku dokonywa-


łoby subiektywnej interpretacji informacji otrzymywanych z zewnątrz.
W zależności od oceny, jaki poziom rezerw byłby odpowiedni, banki
dokonywałyby emisji środków fiducjarnych. Proces ten jednak musiałby
skutkować wieloma błędami – nawet gdyby sam w późniejszym przebiegu
zdołał je wyeliminować – w postaci nadmiernej emisji tychże środków,
a co za tym idzie – zniekształcenia struktury produkcji.
Problem stwarza również to, że banki wszczynałyby ekspansję nie tyl-
ko wtedy, kiedy wzrósłby autonomiczny popyt na pieniądz (salda gotów-
kowe), ale również w takiej sytuacji, gdy pieniądz byłby dłużej w obiegu,
zanimby trafił do systemu kliringowego. W takim przypadku ludzie tak
dalece ufają pieniądzowi wyemitowanemu przez dany bank, że decydu-
ją się go użyć w dalszych transakcjach. Nie oznacza to jednak, że pie-
niądz ten stanie się częścią ich sald gotówkowych. Wciąż jest on używany
w transakcjach i znajduje się w obiegu, a więc oczywiście wpływa na ceny.
Jeśli emitent tego pieniądza zdecyduje się w takiej sytuacji na ekspansję
– a powinien się zdecydować, gdyż jego rezerwy wzrosły – to owa eks-
pansja będzie musiała skutkować wzrostem cen (inflacyjną nierównowagą
pieniężną)4.

Kon ku rencja pom ięd z y pr y wat ny m i


papierow y mi walutami
Hayek, wysuwając swoją propozycję denacjonalizacji pieniądza, argu-
mentował, że to właśnie konkurencja pomiędzy prywatnymi walutami
zapewniłaby sytuację stabilną pod względem siły nabywczej pieniądza.
Hayek podkreślał, że stabilny poziom cen zapewnia gospodarującym
podmiotom najbardziej optymalne warunki (Hayek 1990, s. 69–76). Po-
zornie więc chciał on stabilizować P w równaniu wymiany. Jednak nie
do końca wiadomo, który poziom cen Hayek tak naprawdę chciał stabi-
lizować. W swojej książce dowodził, że najlepszym rozwiązaniem było-
by stabilizowanie koszyka surowców naturalnych. Surowce naturalne są
przedmiotem obrotu na giełdach towarowych, dzięki czemu ich ceny są
w miarę jednolite i bardzo wrażliwe na zmiany warunków. Warto tutaj
zauważyć, że stabilność koszyka surowców naturalnych nie jest tożsama

4
Wydaje się również, że wolna bankowość oparta na rezerwie cząstkowej w świe-
tle teorii równowagi pieniężnej mogłaby mieć destabilizujący wpływ na sytuację
makroekonomiczną w przypadku upowszechniania się innowacji fi nansowych (jak
system kliringowy), które prowadzą jednocześnie do spadku społecznego popytu na
pieniądz i spadku popytu na rezerwy ze strony systemu bankowego. W takiej sytuacji
spadkowi popytu na pieniądz towarzyszyłby wzrost podaży pieniądza. Oznacza to, że
system wolnej bankowości byłby w takim przypadku inflacyjny zarówno w aspekcie
popytu na pieniądz, jak i jego podaży.
204 MARCIN ZIELIŃSKI

ze stabilnością koszyka dóbr konsumpcyjnych. Stały poziom cen czynni-


ków produkcji byłby skutkiem zastosowania zasady produktywnościowej
(Selgin 1990, s. 266). Warto zauważyć, że Hayek już wcześniej domagał
się stabilizowania „cen pierwotnych czynników produkcji” (Hayek 1984,
s. 161). Wtedy jednak uważał on, że w ten sposób podaż pieniądza odpo-
wiednio reagowałaby na zmiany w szybkości jego obiegu (stabilne MV).
W związku z tym trudno stwierdzić, jakie zachowanie się poziomu cen
Hayek uważał za optymalne, gdy pisał Denationalisation of Money.
Hayek twierdził, że pieniądz papierowy może być zarówno najgorszym,
jak i najlepszym pieniądzem. Kiedy podaż pieniądza papierowego kon-
troluje monopolistyczny bank centralny, to jest to rozwiązanie najgorsze.
Jednocześnie najlepszym rozwiązaniem byłaby konkurencja pomiędzy
prywatnymi bankami emitującymi własne waluty. Banki emisyjne ogła-
szałyby publicznie, że będą się starały utrzymywać wartość swojej walu-
ty na poziomie odpowiadającym zakupowi wybranego przez nie koszyka
dóbr. Ludzie by decydowali o tym, który koszyk jest dla nich najważniej-
szy. Wybieraliby te waluty, których stabilność najbardziej odpowiadała-
by ich potrzebom. Banki mogłyby również zmieniać zawartość koszyka,
względem którego stabilizowałyby wartość swojej waluty, w miarę zmie-
niania się okoliczności i preferencji ich klientów. Jednocześnie kursy na
rynku walutowym informowałyby społeczeństwo o tym, która waluta zy-
skuje na wartości, a która traci. Na podstawie tych kursów bankierzy wie-
dzieliby również, czy popyt na ich walutę rośnie, a w związku z tym, czy
mogą wyemitować jej więcej. Techniczny problem przedstawiania przez
sprzedawców cen i przyjmowania przez nich płatności w kilku walutach
mógłby zostać z łatwością rozwiązany dzięki komputerom.
Koncepcja Hayeka spotkała się z pewną krytyką innych ekonomistów,
również tych ze szkoły austriackiej. Rothbard utrzymywał, że:

Hayek (…) nie wyciągnął lekcji z „teorematu regresji” Ludwiga von


Misesa, który to teoremat jest jednym z najważniejszych w ekono-
mii monetarnej. Mises wskazał (...), że nikt nie zaakceptuje jakiegoś
przedmiotu jako pieniądza, o ile nie było na ten przedmiot popy-
tu wcześniej. (…) Aby dobro mogło zostać używane jako pieniądz,
musiało wcześniej posiadać wartość z powodu swych zastosowań
niepieniężnych. Musiał istnieć na nie stabilny popyt i musiało mieć
ono cenę, zanim stało się środkiem wymiany. Pieniądz nie może
powstać z niczego, na skutek umowy społecznej, czy też dlatego że
ktoś postanowił emitować papierowe bilety (…). Pieniądz musi być
wcześniej wartościowym towarem (Rothbard 1992, s. 3–4).

Oczywiście, Rothbard miałby rację, gdyby Hayek twierdził, że jego


propozycja mogłaby zostać wprowadzona w życie, jeśliby nigdy nie ist-
niała ingerencja w rynek. Tymczasem Hayek doskonale sobie zdawał spra-
wę z teorematu regresji (Hayek 1990, s. 31). Uważał on jednak, że skoro
System pieniężny bez banku centralnego 205

pieniądz papierowy został już wprowadzony przez rządy i społeczeństwa


się do niego przyzwyczaiły, to równie dobrze mogłyby one zaakceptować
pieniądze emitowane przez prywatne banki. Początkowo te nowe waluty
czerpałyby swoją wartość z walut emitowanych przez rządy, gdyż prywat-
ne banki emisyjne zobowiązywałyby się do utrzymywania stałego kursu
swoich walut względem walut państwowych i ich wymiany właśnie po
takim kursie. Pozostaje oczywiście kwestia, czy ludzie rzeczywiście za-
niechaliby posługiwania się swoimi krajowymi walutami na rzecz walut
emitowanych przez prywatne banki, nawet jeśli ten nowy pieniądz oka-
załby się bardziej stabilny pod względem siły nabywczej. Doświadczenie
pokazuje, że dopiero gdy wystąpi hiperinflacja, ludzie decydują się na ko-
rzystanie z walut zagranicznych. Jeśli inflacja jest stosunkowo łagodna, to
wciąż preferują krajową walutę. Z tego właśnie powodu prywatne waluty
mogłyby przegrać z państwowymi.
Drugi zarzut polega na tym, że banki w takim systemie mogłyby
maksymalizować zyski przez powodowanie hiperinflacji (Taub 1985; Sel-
gin, White 1994, s. 1734–1735). Ponieważ banki nie są prawnie zobowią-
zane do utrzymywania stałej wartości waluty względem danego koszyka
(gdyż w takiej sytuacji nie mogłyby dostosowywać koszyka do zmienia-
jących się warunków), mogłyby to wykorzystać do emisji swoich walut
w nadmiernych ilościach. A jednak banki nie mogłyby obniżyć wartości
swojej waluty poniżej poziomu wyznaczonego przez kurs względem in-
nych walut, po którym zobowiązały się skupować te waluty. Ponadto ban-
ki mogłyby przedstawiać wiążące je prawnie plany emisyjne na najbliższy
czas, poza które nie mogłyby wykroczyć.
W związku z tym jedynym problemem jest to, czy banki emitujące
puste waluty zdołałyby wygrać ewentualną konkurencję z bankami, któ-
rych pieniądz miałby pokrycie w kruszcu. Co do tego można mieć duże
wątpliwości. Wydaje się jednak, że sam system byłby względnie stabilny,
a za sprawą konkurencji hiperinflacyjna emisja byłaby raczej wyjątkiem
niż regułą.

Podsumowanie
Solidny pieniądz to fundament gospodarki. Zarówno teoria bankowo-
ści, jak i jej historia pokazują, że banki centralne nie są w stanie sprostać
zadaniu, jakim jest dostarczenie społeczeństwu solidnego pieniądza. Cią-
gle ulegają pokusie inflacji. Sam zaś fakt przejęcia przez rządy kontroli nad
podażą pieniądza jest główną przyczyną obserwowanego w XX wieku sta-
łego rozrostu władzy państwowej.
Teoria wolnej bankowości pokazuje, że mało prawdopodobne jest
przywrócenie liberalizmu gospodarczego, jeśli nie uda się jednocześnie
pozbawić rządu prawa do działalności emisyjnej. Teoretycy wolnej banko-
wości pokazują również, że istotą sporu w makroekonomii tak naprawdę
206 MARCIN ZIELIŃSKI

powinien być ład instytucjonalny zapewniający podaż pieniądza, a nie to,


czy bank centralny powinien funkcjonować na podstawie jasno określo-
nych zasad, czy też podejmować działania wedle własnego uznania.
Coraz częściej najważniejszym argumentem przeciwko całkowitemu
uwolnieniu systemu bankowego jest to, że rozwiązanie takie jest niemoż-
liwe, gdyż rządy się na nie nie zgodzą. Stanie się realne dopiero wtedy,
gdy obecny system skompromituje się w oczach społeczeństw. Dlatego
też tak ważne jest, aby istniały poważne propozycje alternatywnych
rozwiązań dla istniejącej współcześnie bankowości centralnej. Są nimi
właśnie propozycje przedstawione w tym rozdziale. Ponadto, jak
zauważa Hayek, zadaniem ekonomisty nie jest zastanawianie się nad
tym, co jest w chwili obecnej możliwe. Jego zdaniem ekonomista „po-
winien (…) dążyć do tego, aby to, co jest obecnie politycznie niemożliwe,
stało się politycznie możliwe. Stwierdzenie, co może zostać zrobione
teraz, jest zadaniem dla polityka, a nie dla ekonomisty” (Hayek 1990,
s. 83–84).
System pieniężny bez banku centralnego 207

Bibliografia

Block Walter, 1988, Fractional Reserve Banking: An Interdisciplinary Perspective, w:


red. Block Walter, Rockwell Llewellyn H. Jr., Man, Economy, and Liberty: Essays
in Honor of Murray N. Rothbard, Ludwig von Mises Intitute, Auburn, Al.

Dowd Kevin, 1989, The State and the Monetary System, Saint Martin’s Press, New
York.

Friedman Milton, Schwartz Anna J., 1987, Has Government Any Role in Money, w:
red. Leube Kurt R., The Essence of Friedman, Hoover Institution, Stanford, Ca.
Pierwodruk: „Journal of Monetary Economics”, vol. 17, no. 1, 1986.

Glasner David, 1989, Free Banking and Monetary Reform, Cambridge University Press,
Cambridge.

Greenfield Robert L., Yeager Leland B., 1997, A Laissez-Faire Approach to Monetary
Stability, w: red. Selgin George A., The Fluttering Veil. Essays on Monetary Disequi-
librium, Liberty Fund, Indianapolis, In. Pierwodruk: „Journal of Money, Credit,
and Banking”, vol. 15, no. 3, 1983.

Hayek Friedrich A. von, 1976, Choice in Currency. A Way to Stop Inflation, The Insti-
tute of Economic Affairs, London.

Hayek Friedrich A. von, 1984, On ‘Neutral Money’, w: McCloughry Roy, Money, Capi-
tal, and Fluctuations: Early Essays, University of Chicago Press, Chicago.

Hayek Friedrich A. von, 1990, Denationalisation of Money, wyd. 3, The Institute of


Economic Affairs, London.

Hoppe Hans-Hermann, 1994, How is Fiat Money Possible? – or, The Devolution of
Money and Credit, „The Review of Austrian Economics”, vol. 7, no. 2.

Hoppe Hans-Hermann, Hülsmann Jörg Guido, Block Walter, 1998, Against Fiduciary
Media, „The Quarterly Journal of Austrian Economics”, vol. 1, no. 1.

Horwitz Steven, 2000, Microfoundations and Macroeconomics: An Austrian Perspec-


tive, Routledge, London–New York.

Huerta de Soto Jesús, 2009, Pieniądz, kredyt bankowy i cykle koniunkturalne, Instytut
Ludwiga von Misesa, Warszawa.

Hülsmann Jörg Guido, 1996, Free Banking and the Free Bankers, „The Review of Aus-
trian Economics”, vol. 9, no. 1.
208 MARCIN ZIELIŃSKI

Hülsmann Jörg Guido, 2008, The Ethics of Money Production, Ludwig von Mises
Institute, Auburn, Al.

Mises Ludwig von, 2007, Ludzkie działanie. Traktat o ekonomii, Instytut Ludwiga von
Misesa, Warszawa.

Rothbard Murray N., 1992, The Case for a Genuine Gold Dollar, w: The Gold Stan-
dard: Perspectives in the Austrian Economics, red. Rockwell Llewellyn H. Jr., Lud-
wig von Mises Institute, Auburn University, Auburn, Al.

Rothbard Murray N., 2004, Złoto, banki, ludzie – krótka historia pieniądza, Fijorr
Publishing, Warszawa.

Rothbard Murray N., 2007, Tajniki bankowości, Fijorr Publishing, Warszawa.

Salin Pascal, 1998, Free Banking and Fractional Reserves: A Comment, „The Quarterly
Journal of Austrian Economics”, vol. 1, no. 3.

Selgin George A., 1988, Theory of Free Banking: Money Supply under Competitive Note
Issue, Rowman & Littlechild, New Jersey.

Selgin George A., 1990, Monetary Equilibrium and Productivy Norm of Price-Level
Policy, „Cato Journal”, vol. 10, no. 1.

Selgin George A., White Lawrence H., 1994, How Would the Invisible Hand Handle
Money?, „Journal of Economic Literature”, vol. 32, no. 4.

Taub Bart, 1985, Private Fiat Money with Many Suppliers, „Journal of Monetary Eco-
nomics”, vol. 16, no. 2.

Timberlake Richard H., 1984, The Central Banking Role of Clearinghouse Associa-
tions, „Journal of Money, Credit, and Banking”, vol. 16, no. 1.

Timberlake Richard H., 1987, Private Production of Scrip-Money in the Isolated


Community, „Journal of Money, Credit, and Banking”, vol. 19, no. 4.

White Lawrence H., 1995, Free Banking in Britain: Theory, Experience and Debate,
1800–1845, wyd. 2, The Institute of Economic Aff airs, London.

Yeager Leland B., 1997, Essential Properties of the Medium of Exchange, w: Yeager
Leland B., The Fluttering Veil: Essays on Monetary Disequilibrium, red. Selgin
George A., Liberty Fund, Indianapolis. Pierwodruk: „Kyklos”, vol. 21, no. 1,
1968.
Wojciech Paryna jest studentem uzupełniających studiów magisterskich
z ekonomii na Uniwersytecie Wrocławskim. Obecnie pod kierunkiem
prof. Kwaśnickiego przygotowuje pracę magisterską na temat twórczości
Adama Heydla.

Autor dziękuje Pani Katarzynie Knowler za cenne informacje na temat


życia Adama Heydla, jej dziadka. Dziękuje również doktorowi Radosła-
wowi Antonowowi za wsparcie naukowe i komentarze w czasie pracy nad
tekstem tego rozdziału.
Wo j c i e c h P a r y n a

A DA M H E Y DE L: P OL SK I „ AUS T R I A K”
W METODOLOGICZN YM BOJU

A d a m H e y d e l 18 93 –19 411

Adam Heydel2 przyszedł na świat 6 grudnia 1893 roku w Gardzieni-


cach, w województwie kieleckim, które należało do zaboru rosyjskiego.
Pochodził z szanowanej ziemiańskiej rodziny. Jego rodzicami byli Zdzi-
sław Heydel oraz Maria z Borowskich Heydlowa. Oprócz Adama mieli oni
troje dzieci: Wojciecha, Zofię oraz Izabelę.
Choć jego rodzina mieszkała na terenie guberni radomskiej, Adam
uczył się w krakowskim gimnazjum im. Jana III Sobieskiego, gdyż jego
ojciec był poddanym austriackim. W 1915 roku wskutek aresztowania
i osadzenia Zdzisława Heydla w moskiewskim więzieniu na Butyrkach,
Adam, wtedy absolwent gimnazjum, wraz z matką i rodzeństwem zostaje
wysiedlony przez władze carskie do Moskwy.
Adam Heydel rozpoczyna studia prawnicze i ekonomiczne na Wydzia-
le Ekonomicznym Instytutu Handlowego. Po dwóch latach przenosi się do

1
Przedstawiam tu krótki życiorys Adama Heydla, by zebrać w nim informacje na
temat jego życia i dorobku naukowego rozproszone w różnych źródłach, do których
udało mi się dotrzeć. Liczba tych źródeł jest zaskakująco mała. Najobszerniejsze to
artykuł Aleksandry Lityńskiej Adam Heydel – życie i twórczość oraz tekst Józefa No-
wickiego poświęcony poglądom Heydla, zawarty w książce Luminarze polskiej teorii
ekonomii XX wieku. Najistotniejsze fakty z życia profesora zebrał Witold Krzyżanow-
ski w haśle „Adam Heydel” w Polskim Słowniku Biograficznym (t. 9). Innym źródłem
informacji na temat życia profesora jest biogram nieznanego autora zamieszczony we
wstępie do wznowienia broszury Etatyzm po polsku (1981).
2
Adama Heydla jako ekonomistę najczęściej przywołuje się z okazji prezentowa-
nia dokonań tzw. szkoły krakowskiej w polskiej myśli ekonomicznej, której przedsta-
wicielami byli także Ferdynand Zweig oraz Adam Krzyżanowski. Wszyscy trzej byli
związani z Uniwersytetem Jagiellońskim, a ich poglądy łączył szeroko pojęty libera-
lizm gospodarczy. Na temat historii szkoły krakowskiej oraz ekonomii akademickiej
w międzywojennym Krakowie zob. Skorupska 2007a; eadem 2007b oraz Lityńska
1992; eadem 1993.
212 WOJCIECH PARYNA

Kijowa, gdzie kontynuuje studia w Instytucie Handlowym. Równocześnie


podejmuje pracę w Centralnym Komitecie Obywatelskim oraz Towarzy-
stwie Pomocy Ofiarom Wojny.
W 1918 roku wraca do kraju i w czerwcu ponownie zapisuje się na stu-
dia, tym razem na Wydział Prawa Uniwersytetu Jagiellońskiego. Jest jed-
nym z założycieli Legii Akademickiej3. Jako ochotnik walczy od stycznia
do maja 1919 roku na froncie ukraińskim (Lityńska 1978b, s. 117). Po po-
wrocie z wojny rozpoczyna pracę w Ministerstwie Spraw Zagranicznych,
gdzie pełni funkcję referenta wydziału prasowego, a następnie wydziału
ekonomicznego. Jednocześnie pracuje jako redaktor dwutygodnika „Wia-
domości wydziału ekonomicznego Ministerstwa Spraw Zagranicznych”.
Po ukończeniu studiów na Uniwersytecie Jagiellońskim w 1921 roku
Heydel otrzymuje asystenturę w Katedrze Ekonomii na Wydziale Prawa.
Kierownikiem tej katedry jest wówczas Adam Krzyżanowski, z którym
wspólnie prowadzi konwersatoria ekonomiczne, a ponadto wykłada eko-
nomię w Akademii Górniczo-Hutniczej oraz w Szkole Nauk Politycznych
w Krakowie.
Od 1925 roku wykłada ekonomię na Wydziale Prawa UJ. Czwartego
grudnia tego roku broni pracy habilitacyjnej „Podstawowe zagadnienia
metodologiczne ekonomii”. Recenzentami jego pracy są Adam Krzyża-
nowski oraz Kazimierz Kumaniecki (Lityńska 1978b, s. 117).
Pierwszego czerwca 1927 roku Heydel otrzymuje stanowisko do-
centa i zastępcy profesora na Uniwersytecie Jagiellońskim. W latach
1927–1928 prowadzi prywatną Szkołę Pracy Społecznej im. Baraniec-
kiego w Krakowie ( Lityńska 1978b, s. 118). W roku 1928 wyjeżdża na
trzymiesięczny staż do Wiednia. Po powrocie, 22 czerwca 1929 roku
zostaje mianowany profesorem nadzwyczajnym ekonomii i polityki
ekonomicznej.
W 1930 roku w Polsce dochodzi do tzw. operacji brzeskiej. W tym cza-
sie Adam Heydel jest jednym z uczestników zbiorowego protestu profe-
sorów Wszechnicy Jagiellońskiej. Ponadto współtworzy list otwarty do
Adama Krzyżanowskiego w sprawie Brześcia, podpisany przez profesorów
UJ. Politycznie związany z Narodową Demokracją, w latach 1930–1931
pełni funkcję prezesa Klubu Narodowego w Krakowie.
Pierwszego stycznia 1933 roku Heydel wyjeżdża na dziewięć miesię-
cy do Ameryki jako stypendysta fundacji Rockefellera4. Następnie spędza
kilka miesięcy w Londynie, gdzie pracuje naukowo i wykłada. Pomaga mu
w tym doskonała znajomość języków: angielskiego, niemieckiego, francu-
skiego i rosyjskiego.

3
Organizacja przysposobienia wojskowego młodzieży akademickiej (działała
1918–1932, reaktywowana 1937).
4
Doświadczenia z pobytu w Stanach Zjednoczonych Ameryki znalazły wy-
raz w artykule Wrażenia z Ameryki, opublikowanym w „Kurierze Warszawskim”
w 1934 r.
Adam Heydel: polski „Austriak” w metodologicznym boju 213

W Londynie dociera do niego informacja o rozwiązaniu jego katedry


i „przeniesieniu go w stan nieczynny” na mocy decyzji Ministra Oświaty
Janusza Jędrzejewicza. Jest to skutek udziału Adama Heydla w proteście
profesorów Uniwersytetu Jagiellońskiego w sprawie Brześcia oraz wystą-
pienia w obronie autonomii szkół akademickich. Zwolnienie z Uniwersy-
tetu nie załamuje profesora, lecz staje się bodźcem do nakreślenia nowych
planów i podjęcia kolejnych wyzwań. Korzystając z pomocy Fundacji
Rockefellera i Uniwersytetu Jagiellońskiego, profesor zakłada Instytut
Ekonomiczny i „Studia Ekonomiczne”5 (Hockuba 2003, s. 7).
Heydel zostaje kierownikiem nowo powstałego Instytutu Ekonomicz-
nego Polskiej Akademii Umiejętności oraz pełni funkcję redaktora na-
czelnego czasopisma naukowego „Studia Ekonomiczne” (ukazującego się
również w wersji angielskiej jako „Economic Studies”), wydawanego przez
instytut. Czasopismo ma służyć „zbliżaniu polskiego naukowego ruchu
ekonomicznego do nauki zagranicznej” oraz rozwojowi polskiej myśli
ekonomicznej. Ukazuje się ono w latach 1935–1939 (w tym czasie opu-
blikowano 6 numerów). Ciągłość publikacji przerywa wybuch II wojny
światowej6.
Dwudziestego trzeciego września 1937 roku Adamowi Heydlowi przy-
znano tytuł profesora zwyczajnego. Obejmuje ponownie obowiązki wy-
kładowcy na Uniwersytecie Jagiellońskim, co pozwala mu wznowić kursy
ekonomii i polityki ekonomicznej. W 1939 roku zostaje dziekanem Wy-
działu Prawa UJ.
Jego karierę naukową przerywa wybuch II wojny światowej, w związ-
ku z tym nie może pełnić funkcji dziekana UJ. Heydel dzieli los innych
profesorów akademickich z Krakowa i wskutek akcji Sonderaktion Kra-
kau7 6 listopada 1939 trafia do obozu koncentracyjnego Sachsenhausen.
Wraz z innymi profesorami, którzy skończyli 40 lat, między innymi na
skutek protestu Benita Mussoliniego, zostaje wypuszczony z obozu w lu-
tym 1940 roku. Udaje się do majątku Brzóza w województwie radom-
skim, należącego do jego brata Wojciecha, gdzie czekają na niego żona
i córki.
Nie może wrócić do swojego mieszkania w kamienicy przy ulicy Baszto-
wej w Krakowie, ponieważ na początku wojny zarekwirowali je Niemcy8.

5
Raport Fundacji Rockefellera potwierdza wsparcie fi nansowe tej organizacji na
rzecz Polskiej Akademii Umiejętności w kwocie 10 tys. dolarów oraz wymienia Ada-
ma Heydla jako dyrektora Instytutu Ekonomicznego PAU (RF 1935, s. 259).
6
Czasopismo zostało wznowione w latach 1959–1972 oraz 1983, jednak w tych
okresach nie nawiązywało ono do osiągnięć przedwojennego tytułu. Ostatnie wzno-
wienie pisma nastąpiło w 2003 roku pod egidą PAN. Tytuł ukazuje się do dziś.
7
Niemiecka akcja pacyfi kacyjna skierowana przeciwko środowisku polskich
uczonych, przeprowadzona 6 listopada 1939 r. w Krakowie (Barcik 2004).
8
Informacje te, podobnie jak inne szczegóły dotyczące życia profesora, pochodzą
od Pani Katarzyny Knowler, wnuczki Adama Heydla, której matką jest córka profe-
sora – Barbara.
214 WOJCIECH PARYNA

W Brzózie Adam Heydel razem ze swoim bratem Wojciechem działa


w podziemiu. Dochodzi do zdrady któregoś z członków siatki i w stycz-
niu 1941 roku do majątku przyjeżdża gestapo. Zostaje aresztowany Adam
Heydel, jego brat oraz inni mężczyźni przebywający wówczas we dworze.
Wszyscy zostają przetransportowani do więzienia w Radomiu9, skąd po
kilku tygodniach trafiają do KL Auschwitz.
Adam i Wojciech Heydlowie giną w obozie 14 marca 1941 roku.
Żona profesora dowiaduje się o jego śmierci dopiero w 1943 roku. Rze-
komą przyczyną jest niewydolność serca. Jednak nie ma wątpliwości, że
Adam Heydel został rozstrzelany przez Niemców. Zaświadczają to poru-
szające słowa Władysława Bartoszewskiego, ostatniego rozmówcy Adama
Heydla:

Kiedy 22 IX 1940 r. przekraczałem bramę z napisem Arbeit macht


frei w grupie ludzi szczutych psami, jak wszyscy normalnie tam
przybywający, miałem osiemnaście lat – mówił Władysław Bar-
toszewski podczas uroczystego posiedzenia Senatu Uniwersytetu
Jagiellońskiego 26 I 1995 r. w Krakowie. – Nigdy w życiu nie byłem
bity, nie widziałem bitych ludzi. Tak szczęśliwie upływało moje
dzieciństwo i młodość. I oto tam spotkałem się z tak niewyobra-
żalnym wtedy – a był to przecież dopiero początek okupacji – po-
niewieraniem ludzi, wdeptywaniem w żwir, zabijaniem, katowa-
niem, odczłowieczaniem, że stało się to dla mnie doświadczeniem
przełomowym.

Pamiętam, jak 14 marca 1941 r. w obozowej izbie chorych sie-


działem na łóżku ciężko chorego profesora UJ Adama Heydla,
wielkiego ekonomisty i historyka kultury, i słuchałem, jak mówił
z pamięci wiersze Norwida. I w tym momencie przyszli esesmani,
zabrali go, ledwie zdążyłem odskoczyć. Po kilku godzinach zgi-
nął razem z innymi od salwy plutonu egzekucyjnego w żwirow-
ni koło drutów, tuż za terenem obozu Auschwitz. Dla młodego
człowieka śmierć tak zasłużonego profesora, w tak spektakular-
nej formie, była wtedy wielkim wstrząsem ( Bartoszewski 2007,
s. 11–12).

Z okresu pobytu profesora Heydla w radomskim więzieniu zachowała


się jeszcze jedna historia, świadcząca o jego nieugiętości:

Komendantem placu był tam płk von Heydel, który – stwier-


dziwszy, iż jego więzień wywodzi się z tej samej saskiej rodziny

9
Część publikacji podaje, że więźniowie trafili do Skarżyska-Kamiennej (Lityń-
ska 1978b, Krzyżanowski 1960–1961), ja jednak opieram się w tym miejscu na infor-
macjach pochodzących od wnuczki profesora.
Adam Heydel: polski „Austriak” w metodologicznym boju 215

– usiłował namówić go do podpisania Volkslisty, a następnie


chociażby oświadczenia, że prof. Heydel pochodzi z rodziny nie-
mieckiej, w zamian obiecując, że wszystko pomyślnie załatwi.
Profesor odpowiedział tylko: „Niestety, nie mogę tego zrobić,
gdyż nic mnie nie łączy z narodem niemieckim” ( Heydel 1981,
s. 3).

Adam Heydel zostawił żonę Annę (zmarła w 1985 roku) oraz trzy córki
– Elżbietę, Annę i Barbarę, która do dziś mieszka w Małopolsce. Był nie
tylko naukowcem, lecz także znawcą sztuki. Jest autorem kilku artykułów
z dziedziny kultury i sztuki, a także obszernej monografii o Jacku Mal-
czewskim pt. Jacek Malczewski. Człowiek i artysta10 . Jego prace na temat
sztuki, publikowane w „Czasie” i „Przeglądzie Współczesnym”, zostały
zebrane w książce Myśli o kulturze. Poza tym Adam Heydel dał się poznać
jako malarz i pianista. Jego wielką pasją była także jazda konna (jego brat
Wojciech hodował w swoim majątku konie).
Profesor Adam Heydel opublikował wiele prac z dziedziny ekonomii,
jednak pośród nich nie ma żadnej obszerniejszej książki. Jak pisze W. Krzy-
żanowski, „Heydel wypowiadał się najłatwiej w mniejszych, zwięźle napi-
sanych pracach i artykułach, a nie w obszernych rozprawach. Heydel był
zdolnym publicystą, dyskutantem i mówcą” (Krzyżanowski 1960–1961).
Aleksandra Lityńska wylicza wszystkie publikacje A. Heydla, któ-
rych było łącznie osiemdziesiąt pięć. Są tu artykuły ukazujące się w pra-
sie codziennej (najważniejsze tytuły to „Czas”, „Przegląd Współczesny”
i „Głos Narodu”) oraz publikacje w czasopismach naukowych, takich jak:
„Ekonomista”, „Ruch Prawniczy, Ekonomiczny i Socjologiczny”, „Studia
Ekonomiczne”.
Część jego prac wydawało Krakowskie Towarzystwo Ekonomiczne,
w szczególności te dotyczące teorii ekonomii (Skorupska 2007a, s. 2). Były
to często przedruki opublikowanych wcześniej artykułów naukowych.
Najważniejsze prace teoretyczne z dziedziny ekonomii napisane przez
Heydla to: wspomniana już praca habilitacyjna pt. Podstawowe zagad-
nienia metodologiczne ekonomii (1925), Kapitalizm i socjalizm wobec etyki
(1927), Pogląd na rozwój teoretycznej ekonomii (1929a), Teoria koniunktury
(1929b), Pojęcie produktywności (1934a) oraz Co to jest inflacja i deflacja?
(1934b).
W 1947 roku opublikowano Teorię ekonomii, skomponowaną z przed-
wojennych notatek z wykładów prowadzonych przez profesora Adama
Heydla na Uniwersytecie Jagiellońskim.

10
Książkę opublikowało Wydawnictwo Literacko-Naukowe W. Meisels w Krako-
wie w 1933 r. Reprint ukazał się w 2004 r. staraniem wydawnictwa Muzeum im.
Jacka Malczewskiego w Radomiu.
216 WOJCIECH PARYNA

M e t o d a w e k o n o m i i 11

Swoje poglądy dotyczące metodologii nauki ekonomii Adam Heydel


zawarł w pracy habilitacyjnej pt. Podstawowe zagadnienia metodologiczne
ekonomii. Zajmuje się tam przede wszystkim kwestią zależności zjawisk
ekonomicznych. Rozprawa zaczyna się tak:

Problem przyczynowości interesuje żywo nowoczesną teorię eko-


nomji. Omawiają go szerzej lub potrącają przynajmniej o niego
wszyscy niemal współcześni teoretycy. Przygniatająca większość
rozstrzyga zagadnienie w tym duchu, że zjawiska ekonomiczne wy-
kazują współzależność, że przeto pojęcie przyczyny jest w badaniu
związków, zachodzących miedzy temi zjawiskami, nieprzydatne, że
należy raczej się posługiwać pojęciem funkcji, zaczerpniętem z ma-
tematyki. Mimo tej zgody na samą zasadę, można jednak stwierdzić
rozbieżność poglądów co do zakresu, w jakim przyczyna ma być wy-
eliminowana na rzecz funkcji. Sądzę też, że mimo wielu rozważań
temat nie został wyczerpany. Rozpatrzenie zagadnienia: przyczyna
czy funkcja, ocena owych rozbieżności, a zarazem próba szerszego
rozwinięcia tematu, mają być mojem zadaniem w niniejszej pracy
(Heydel 1925, s. 1).

Przedmiotem jego rozważań w tej pracy jest szukanie odpowiedzi na pyta-


nie, które z tych alternatywnych podejść do koncepcji badawczych powinno

11
Warto zaznaczyć, że poglądy metodologiczne Adama Heydla wyróżniały się
na tle poglądów innych polskich ekonomistów dwudziestolecia międzywojennego.
Niektórzy polscy naukowcy tego okresu byli umiarkowanymi zwolennikami me-
tody historycznej w badaniach ekonomicznych i odrzucali celowość prowadzenia
abstrakcyjnej analizy w badaniach. Takie podejście prezentował na przykład An-
toni Kostanecki, profesor ekonomii z Warszawy. Inni zaś nie rezygnowali całkiem
z abstrakcji w ekonomii, kładli jednak nacisk na historyczny opis zjawisk, postu-
lując jednocześnie uwzględnienie w badaniach gospodarczych wymiaru socjolo-
gicznego czy etycznego. Chodzi tu o naukowców związanych z Uniwersytetem
Jana Kazimierza we Lwowie – Stanisława Grabskiego oraz Stanisława Głąbińskie-
go. Odmienne stanowisko metodologiczne zajmował Władysław Zawadzki, który
był zwolennikiem matematycznego sposobu formułowania zależności w ekono-
mii. Zapoczątkował on na gruncie polskim nową metodę badawczą – matematycz-
ne ujęcie równowagi w gospodarce, nawiązujące do dokonań ekonomistów mate-
matycznych związanych z ośrodkiem w Lozannie ( Lityńska 2001). Również jeśli
idzie o ekonomistów zaliczanych do Szkoły Krakowskiej, trudno mówić o jedno-
rodności ich poglądów w kwestiach metodologicznych. Adam Krzyżanowski pre-
zentował ciekawe stanowisko, uważał bowiem, że nie należy oddzielać całkowicie
od siebie ekonomii normatywnej i pozytywnej. W jego rozumieniu oba te obszary,
polityka gospodarcza i teoria ekonomii, są ze sobą nierozerwalnie złączone. Na
temat poglądów metodologicznych przedstawicieli tej szkoły zob. Skorupska, Ko-
stro 2007.
Adam Heydel: polski „Austriak” w metodologicznym boju 217

być stosowane w ekonomii. Problem, jaki wybrał sobie do rozwiązania, moż-


na sformułować następująco: czy mają rację teoretycy, którzy twierdzą, że
w przypadku zjawisk ekonomicznych mamy do czynienia z przyczynowością
zdarzeń, czy też może słuszne jest stanowisko obrońców koncepcji funkcjo-
nalizmu w ekonomii. Heydel przedstawia argumentacje obydwu stron sporu,
poddaje analizie ich zasadność oraz płynące z nich konsekwencje.
Niewątpliwie analizowanie zjawisk gospodarczych za pomocą pojęcia
„przyczynowości zdarzeń” jest metodą, która była właściwa ekonomii od
jej zarania. Wykorzystywali ją tacy ekonomiści jak Adam Smith, Richard
Cantillon czy John Stuart Mill, uznawani za ojców tej nauki. Wiąże się to
również z tym, że nie korzystali oni z narzędzi matematycznych w swoich
pracach. Próby zastosowania w ekonomii pojęcia funkcji pojawiły się znacz-
nie później i były możliwe dzięki rozwojowi metod matematycznych i staty-
stycznych. Metody te sprawdzały się w naukach doświadczalnych, w związ-
ku z czym pojawiły się próby posłużenia się narzędziami matematycznymi
również w analizach przeprowadzanych w naukach społecznych12.
Pojęcie funkcji zostało wprowadzone do ekonomii pod wpływem po-
glądów głoszonych przez takich myślicieli, jak August Comte, Richard
Aenarius, Ernst Mach czy Bertrand Russell13. Wszyscy oni krytykowali lub
odrzucali pojęcie przyczyny, nie tylko w naukach społecznych czy eko-
nomii w szczególności, lecz także na każdym innym gruncie. Ich zarzuty
dotyczyły zarówno antropomorfi zmu, jak i metafi zyczności tego pojęcia.
Uważali, że możemy jedynie obserwować współwystępowanie zjawisk,
lecz nie potrafimy stwierdzić, że pozostają one w jakimkolwiek „związ-
ku”. Ich zdaniem za pomocą rozumu nie możemy dowieść niepodważal-
ności relacji, w jakiej pozostają te zjawiska (Heydel 1925, s. 12)14.
Idąc tym tropem nowocześni teoretycy ekonomii15 proponują, aby
przyczynowość zastąpić pojęciem funkcji i używać tego pojęcia podobnie

12
Ową chęć wzorowania się na fi zyce dobrze opisuje Philip Mirowski (1988)
w książce: Against Mechanism. Protecting Economics from Science, w szczególności
w pierwszym rozdziale Scientism in neoclassical economic Theory (s. 11–57).
13
Na temat poglądów głoszonych przez tych myślicieli, a także historii pozytywi-
zmu zob. Kołakowski 2004.
14
Warto tu wspomnieć, że teoretycy ci zgodziliby się raczej z Hume’owską kon-
cepcją, iż „przyczyna” to tylko to, co występuje „wcześniej”, a co występuje póź-
niej, to „skutek”. Przyczynowość nie jest dla nich żadną metafi zyczną zasadą, tylko
ustawieniem kolejności zjawisk. Skrajną konsekwencją tego poglądu jest stosowana
w ekonomii koncepcja „przyczynowości” w sensie Grangera, wedle której serie da-
nych są „przyczyną”, jeśli z zastosowaniem matematycznych metod dobrze przewi-
dują jakieś inne dane, które byłyby w tym wypadku „skutkiem”. A więc na przykład
gorące kaloryfery mogą być przyczyną wzrostu liczby wypadków samochodowych.
Choć w rzeczywistości oba zjawiska mają inną wspólną przyczynę (zimę), to w sen-
sie Grangera w istocie liczba grzejących kaloryferów łączy się z liczbą wypadków
samochodowych.
15
Należy pamiętać, że omawiana praca powstała w 1925 r., zatem kiedy mowa
o nowoczesnych teoretykach, chodzi o ekonomistów współczesnych Heydlowi.
218 WOJCIECH PARYNA

jak w matematyce. Matematyczną definicję funkcji można by wtedy sfor-


mułować następująco: „Jeżeli mamy dwie liczby zmienne takie, że każdej
wartości pierwszej liczby odpowiada określona w zupełności (jednoznacz-
nie) wartość drugiej, wówczas pierwszą liczbę nazywamy argumentem
drugą – funkcją tego argumentu” (Whitehead 1914, s. 126).
Zdaniem Heydla zwolennicy takiego podejścia stosują dwa rodzaje ar-
gumentów w obronie tej tezy.
Pierwszym rodzajem argumentów posługuje się grupa naukowców,
którzy prezentują sceptycyzm teoriopoznawczy. W swoim metodologicz-
nym agnostycyzmie powątpiewają w możliwość uchwycenia przyczyny
w nauce. Głównie ze względu na nihilizm poznawczy na miejsce pojęcia
przyczyny proponują wstawić pojęcie funkcji. Związek dwóch zjawisk na-
tomiast, z których jedno można przyjąć za przyczynę, uważają co najwy-
żej za hipotezę (Heydel 1925, s. 9).
Druga grupa naukowców – pragmatycznych zwolenników funkcjonali-
zmu – to teoretycy, którzy twierdzą, że pojęcie przyczyny jest nieprzydat-
ne w badaniu zjawisk gospodarczych, toteż należy je odrzucić „ze względu
na specyficzny, odrębny charakter zjawisk ekonomicznych” (Heydel 1925,
s. 9). W ich mniemaniu nie jest możliwe uchwycenie w sposób jedno-
znaczny tego, co wywołuje dane zjawisko ekonomiczne, ponieważ wszyst-
kie zjawiska ekonomiczne są współzależne. Wśród teoretyków przyjmu-
jących takie stanowisko są głównie ekonomiści matematyczni, tacy jak:
Vilfredo Pareto, Joseph Alois Schumpeter, Edward Taylor i Władysław
Zawadzki16.
Teoretycy z obu grup posługują się różnorodnymi argumentami na
rzecz swojego stanowiska. Alfred Marshall, na przykład, nie wymazuje
całkiem pojęcia przyczyny ze swojej analizy. Można by go więc zaliczyć
do pierwszej grupy. Zauważa jednak, że w ekonomii mamy do czynie-
nia z wielością przyczyn, które nie tylko wywołują inne zjawiska, lecz
także wzajemnie na siebie wpływają. Stąd też, jego zdaniem, w ekonomii
nie może być mowy o długim łańcuchu przyczynowym (Marshall 1890,
s. 565).
Podobnie myśli Pareto, kiedy twierdzi, że na zjawiska gospodarcze ma
wpływ wiele czynników, dlatego do ich analizy konieczne jest używanie
narzędzi matematycznych. Twierdzi, że: „Logika zwykła może dosyć do-
brze służyć do badania stosunków przyczyny i skutku, ale staje się bez-
silna, gdy chodzi o stosunki wzajemnej zależności” (Pareto 1909, s. 247).
Jego stanowisko można rozumieć jako pogląd, że w ekonomii dane zja-
wisko nie jest określane przez jeden czynnik w pełni determinujący jego
przebieg, lecz wpływa na niego wiele różnych czynników, które również
pozostają w zależnościach między sobą. A więc budowanie wyodrębnio-
nych związków przyczynowych opartych na ciągu przyczyn i skutków,

16
Można by wobec tego stwierdzić, że pierwsza grupa wątpi w możliwość poznania
przyczyn, które mogą istnieć, druga zaś wątpi w ogóle w istnienie przyczynowości.
Adam Heydel: polski „Austriak” w metodologicznym boju 219

które można by jednoznacznie określić, to nieodpowiednie narzędzie do


uchwycenia całości relacji, w jakich pozostają zjawiska.
Władysław Zawadzki, polski ekonomista matematyczny, który rów-
nież podejmował tę kwestię, był bliski stanowisku prezentowanemu przez
Pareto. Uważał bowiem w duchu Walrasowskim, że „tylko rozważając
wielkości ekonomiczne jako system związany przez system równań, otrzy-
muje się jasne i dokładne pojęcie o współzależności tych pierwiastków”
(Zawadzki 1914, s. 27).
Zauważmy, że wszyscy funkcjonaliści wskazują na skomplikowaną na-
turę analizowanych zjawisk i w związku z tym nie wierzą w możliwości
skutecznego ich wyjaśnienia w kategoriach relacji przyczynowo-skutko-
wej. Ze względu na problem złożoności świata zamiast takiego sposobu
rozumowania postulują wykorzystanie w ekonomii funkcjonalizmu jako
metody badawczej.
Postulowana zamiana odznacza się, oprócz zalet związanych z postrze-
ganiem zjawisk i pozbycia się wyzwań metafizycznych, również tym, że
jest sporym udogodnieniem w analizie. Ponieważ w zgodzie z funkcjonali-
zmem zależność pomiędzy pewnymi wielkościami jest zawsze wzajemna,
składniki relacji można w tej zależności odwracać. („Jeżeli Y jest funkcją
X a [Y = (f X)], to w ogóle takie X jest jakąś (inną) funkcją Y a [X = (φY)]”
(Gawecki 1923, s. 226). Warto zaznaczyć, że taka analiza jest sprzeczna
z podejściem przyczynowym, w którym nie należy stosować manipulacji
zmiennymi, gdyż całkowicie zaburzają rzeczywisty łańcuch powiązań.
Wynika to z istoty pojęcia, ponieważ zawsze to przyczyna może wywoły-
wać skutek, nigdy odwrotnie17.
Między innymi dlatego wielu ekonomistów przyjęło metodę funkcjo-
nalnego postrzegania zjawisk:

Sceptykom teoriopoznawczym dogadzało takie na przykład ujęcie


rzeczy: pomiędzy zmianami popytu i zmianami ceny stwierdzamy
doświadczalnie powtarzanie się odpowiedniości ilościowych (za-
strzegam, że nie mówię tu ani o proporcjonalności, ani o żadnym
ściśle określonym stosunku ilościowym, ale o tem, że cena jest
funkcją w ogóle wzrastającą popytu). […] Sceptycy metodologiczni
(ekonomiści-matematycy) mogli zastosować cały łańcuch swych
matematycznych rozumowań, które ujmowały ogół wpływów
cen, popytów, podaży wszystkich dóbr na siebie; tym samym zaś
tym, którzy wysuwali wzajemne wpływy, np. popytu i podaży na
ceny i ceny na popyt oraz na podaż, dogadzało równouprawnienie
funkcji i argumentu w związkach funkcjonalnych odwracalnych
(Heydel 1925, s. 13).

17
Na temat analizowania zjawisk ekonomicznych za pomocą układów równań
oraz Walrasowskiej teorii równowagi ogólnej zob. Blaug 1994, s. 575–590.
220 WOJCIECH PARYNA

Wskutek takiego rozumowania funkcjonalizm w ekonomii stał się po-


pularny, wypierając metodę przyczynową, uznaną przez wielu za prze-
brzmiałe narzędzie analizy. Na ową popularność wpłynęło między inny-
mi to, że inne nauki czerpały przecież z osiągnięć nauk przyrodniczych
i wypracowanych tam metod badawczych. Jednak nie wszyscy ekonomi-
ści byli zwolennikami takiego ujęcia zagadnienia.
Do entuzjastów uznania miejsca przyczynowości w ekonomii Hey-
del zalicza przede wszystkim Eugena von Böhm-Bawerka18, który, jego
zdaniem, „zdecydowanie przeciwstawia się sceptycznym na ogół poglą-
dom mówiąc, że czym innym jest opis, a czym innym prawdziwe wyja-
śnienia danego zjawiska” (Heydel 1925, s. 10). Ponadto uważa, że stanowi-
sko Böhm-Bawerka wynika z bezpośrednich właściwości naszego umysłu.
Twierdzi również, że używanie sceptycznego podejścia (ściślej, der Skepti-
sche Terminologie) nieuchronnie stwarza spore niebezpieczeństwa: funk-
cjonalizm osłabia poczucie odpowiedzialności i ukrywa widoczne błędy
logiczne (Heydel 1925, s. 10–11).
Böhm-Bawerk wskazuje również na konsekwencje takiego podejścia.
Po pierwsze, stwierdza, że prowadzenie badań tą metodą będzie zawsze
opisem zjawisk gospodarczych, a nie ich wyjaśnieniem. Rozumieją to do-
skonale ci, którzy postulują używanie funkcji w ekonomii, w ich oczach
bowiem argument Böhm-Bawerka nie jest w ogóle zarzutem (można nawet
rzec, że się z nim zgadzają), ponieważ dla nich celem nauki jest tworzenie
naukowego opisu, a nie tłumaczenie natury zjawisk (Heydel 1925, s. 16).
Drugi zarzut odnosi się do tego, że funkcjonalizm niesie ze sobą „lo-
giczne niebezpieczeństwa” wynikające z tego, że kiedy przyjmujemy za
uprawnione stosowanie związków wzajemnych (funkcyjnych), zwykłe na-
rzędzia logiczne pozostają bezużyteczne, toteż nie możemy za ich pomocą
weryfikować prowadzonego rozumowania.
Krytyka przyjęcia za podstawę rozumowania założenia, że każde zja-
wisko jest wywoływane przez swoją przyczynę, dotyczyła głównie tego,
że owo rozumowanie wymaga akceptacji pewnych założeń. Muszą się one

18
Co ciekawe, Heydel w swoich publikacjach nie odwołuje się prac Carla Menge-
ra, lecz sięga do poglądów Eugena von Böhm-Bawerka, który był uczniem Mengera.
Zarówno mistrz, jak i jego uczeń na gruncie metodologicznym opowiadają się zdecy-
dowanie za przyczynowością, odrzucając neoklasyczne narzędzia analizy ekonomicz-
nej na rzecz koncepcji badawczej zapoczątkowanej przez Mengera w jego Grundsät-
ze der Volkswirtschaftslehre. Podstawą tego podejścia było, po pierwsze, przyjęcie za
punkt wyjścia człowieka, który działa. Działanie zaś jest procesem składającym się
z faz, które prowadzą do zaspokojenia subiektywnych potrzeb człowieka. Po drugie,
instytucje społeczne powstają na skutek kreatywnej działalności ludzkiej na zasadzie
prób i błędów, w wyniku czego najefektywniejsze zachowania upowszechniają się
w społeczeństwie (Huerta de Soto 1998, s. 88–90). Böhm-Bawerk idzie dalej drogą
wytyczoną przez Mengera, używając wypracowanych przez niego narzędzi pojęcio-
wych, i rozwija teorię ekonomiczną, która kładzie nacisk na rolę czasu w działaniu.
Jego rozważania dotyczą w szczególności teorii kapitału oraz stopy procentowej.
Adam Heydel: polski „Austriak” w metodologicznym boju 221

wywodzić z metafizyki lub dotykać kwestii wykraczających poza proste


obserwacje empiryczne19. Oznacza to, że nie jesteśmy w stanie bez końca
weryfikować naszych twierdzeń opierając się na metodach empirycznych,
bo u podstaw rozumienia będą zawsze leżeć pewne założenia wysnute
z apriorycznej spekulacji myślowej20. Pod tym względem konstatacja em-
piryków jest całkowicie słuszna, kiedy mówią, że taki sposób uprawiania
nauki wymaga przyjęcia w zasadzie nieweryfikowalnych hipotez. Nie-
mniej ci sami krytycy nie zauważają tego, że proponowane przez nich
alternatywne podejście wcale nie jest wolne od błędów, które sami wyty-
kają. Trzeba zdać sobie sprawę z tego, że:

już sam dobór cech zjawiska, które ujęte zostaną w opisie, świadczy
o dowolności, o założonym z góry celu, o chęci uogólnienia zja-
wiska. Opisując spadanie ciała na ziemię, nie notujemy jego zapa-
chu; plastyczny jest przykład podany przez Pareto: opisując sposób,
w jaki wieśniak sieje ręcznie ziarno, mówimy o tem, czy rzuca je
z wiatrem, czy pod wiatr, ale abstrahujemy od tego, czy ubrany jest
w kaftan czerwony, czy niebieski. W całej różnorodności nauka zja-
wisk opisywać nie może. Stąd właśnie wynika, że zasadniczej róż-
nicy między opisem a wyjaśnieniem dopatrzeć się nie można. Są to
tylko różnice stopnia. Opis przechodzi w wyjaśnienie, gdy zjawisko
wydaje się nam konieczne, gdy sprowadzimy je do stałej, niewątpli-
wej, nie dyskutowanej podstawy (Heydel 1925, s. 15)21.

19
Heydel przytacza tutaj przykład zarzutu kierowanego przez pozytywistów, kie-
dy twierdzą, że pytanie o przyczynę nie ma w ogóle sensu, tak jak jałowe jest pytanie
o przyczynę grawitacji.
20
Heydel podaje przykład wyjaśnienia zjawiska tęczy na gruncie nauki: przyj-
muje się, że tęcza jest wywoływana przez załamania promieni światła. Jednak żeby
zgodzić się z taką interpretacją, jak mówi, „trzeba wierzyć, że między zjawiskiem
tęczy a łamaniem się promieni słonecznych zachodzi konieczny związek. Trzeba dalej
wierzyć, że promienie słoneczne z koniecznością muszą się łamać w ten a ten sposób”
(Heydel 1925, s. 14–15).
21
Wojciech Sady w swojej pracy dotyczącej fi lozofii nauki, w części poświęconej
Popperowskiemu falsyfi kacjonizmowi, celnie zauważa, że „próba opisania po prostu
tego, co w danej chwili postrzegamy, wiodłaby do tekstu straszliwie długiego, a po-
znawczo w wielkiej mierze bezużytecznego (w pierwszej ławce sali wykładowej siedzi
dziewczyna w czerwonym sweterku i o jasnych włosach, dziwnie się uśmiecha, guziki
jej swetra są owalne, mają po dwie dziurki, na przegubie dłoni nosi zegarek w pozła-
canej chyba kopercie, wskazówki są czarne, w dłoni trzyma niebieski długopis, któ-
rym robi notatki w zeszycie w kratkę itd., itd., itd.). W każdym opisie naszych doznań
występują terminy ogólne, czerpiące swe znaczenia z teorii, do których należą, choć
są to często teorie bardzo elementarne, a przywykliśmy do nich tak bardzo, że w ogó-
le nie zdajemy sobie sprawy, w jak wielkiej mierze warunkują one nasze doznania
(tymczasem aby w układzie plam barwnych rozpoznać dziewczynę, długopis, zegarek
itp., należy już mieć pewną wiedzę o świecie)” (Sady 2000, s. 122).
Dlatego tak jak twierdził Kant, żeby przeprowadzać doświadczenia, potrzebujemy
już wcześniej zdefi niowanego systemu pojęciowego. Dzięki niemu możemy dopiero
222 WOJCIECH PARYNA

Zadaniem nauki nie jest więc, zdaniem Heydla, jedynie opisywanie


otaczającej nas rzeczywistości, ale także budowanie, na podstawie obser-
wacji, pewnych uogólnionych zależności, dających się sprowadzić do nie-
jako wspólnego mianownika, co pozwoli nam wyjaśniać zjawiska. W po-
dobnym duchu pisze w innym miejscu:

Nauka o charakterze teoretycznym porzucić go [wniosku] nie może.


Odnosi się to w całej pełni do ekonomiki. Podobnie jak fizyka nie
może ograniczyć się do wypowiedzeń tego rodzaju „gdy tempera-
tura sztaby metalowej się podnosi, to jej długość się powiększa”,
ale musi dążyć do sprowadzenia owych zjawisk do coraz szerszych
pojęć ruchu, materii, energii, które przyjęte hipotetycznie, znowu
z kolei bada i analizuje, by je uprawdopodobnić (wyjaśnić), tak samo
jak ekonomii nie wystarczą twierdzenia szczegółowe, jak np. „gdy
ilość pieniędzy się zwiększa, ceny idą w górę”, ale musi je wyjaśniać.
Do ekonomii należy niewątpliwie odpowiedź na pytanie: dlaczego
osoba A i osoba B wymieniły między sobą swoje dobra. Odpowiedź
damy na to pytanie, jeżeli 1) będziemy mogli podać ogólne pra-
wo wymiany, 2) stwierdzimy, że w danym wypadku zachodzą oko-
liczności, umożliwiające wejście w życie tej stałej prawidłowości.
W mojem rozumieniu wyjaśnieniem danego faktu wymiany będzie
wskazanie 1) na to, że zachodzi ona w ogóle, gdy dwie osoby dążą
do zysku (że więc nie uważają swych dóbr za sam cel: tak byłoby na
przykład w wypadku, gdyby te dobra przedstawiały pamiątki ro-
dzinne), 2) że dojdzie ona do skutku w tych wypadkach, gdy dobro
(alfa) osoby A przedstawia dla niej mniejszą wartość od dobra (beta)
osoby B i odwrotnie, 3) że w danym wypadku te okoliczności się
urzeczywistniły. To „wyjaśnienie” oparte jest na szeregu ogólnych
twierdzeń czy hipotez. Nie ma wątpliwości, że i te hipotezy winny
ulec weryfikacji (Heydel 1925, s. 16).

prowadzić obserwacje, kiedy wiemy ze względu na co mają być one prowadzone i w jaki
sposób możemy je następnie poddać opisowi (Sady 2000, s. 121). Ludwig von Mises
natomiast zauważa, że matematyka stosowana przez funkcjonalistów jako alternaty-
wa wobec apriorycznego wnioskowania przyczyna-skutek jest również aprioryczna.
„Krytycy aprioryzmu odwołują się do spostrzeżenia, że dla rozwiązania niektórych
problemów bazowanie na jednej z nieeuklidesowych geometrii okazuje się właściwsze,
niż odwoływanie się do systemu euklidesowego. Jak zauważa Reichenbach, ciała stałe
i promienie światła zachowują się w naszym otoczeniu zgodnie z prawami Euklidesa.
Jednak, jak dodaje, jest to jedynie »pomyślny fakt empiryczny«. Poza środowiskiem,
w którym żyjemy, świat fi zyczny zachowuje się zgodnie z innymi geometriami. Nie
musimy wchodzić w spór z tym spostrzeżeniem. Te inne geometrie również wynikają
przecież z aksjomatów a priori i nie są budowane na podstawie eksperymentów. Zwo-
lennikom absolutnej dominacji empiryzmu [ang. panempiricists] nie udaje się wyja-
śnić, jak teoria dedukcyjna, oparta na rzekomo arbitralnych założeniach, okazuje się
przydatna, a nawet konieczna, do przeprowadzenia opisu stanu świata zewnętrznego
i do skutecznego działania w nim” (Mises 1962, s. 14).
Adam Heydel: polski „Austriak” w metodologicznym boju 223

Używanie uogólnień i abstrakcji w nauce, a więc i w ekonomii, jest


dla Heydla niezbędne, gdyż tylko wtedy nauka będzie mogła dawać wy-
jaśnienia. Ponadto trafnie zauważa, że zadaniem nauki jako takiej nie jest
opisywanie świata w całej jego różnorodności, gdyż rola badacza polega
na wyodrębnieniu z rzeczywistości tego, co, jak przypuszcza, może mieć
wpływ na interesujące go zjawisko. Dopiero wtedy na podstawie analizy
wyodrębnionych obiektów jest on w stanie formułować wyjaśnienia. Poza
tym zasadnicza różnica pomiędzy opisem i wyjaśnieniem polega na tym,
że wyjaśnienie oprócz opisu zjawiska wskazuje na nieuniknioność, ko-
nieczność jego przebiegu22.
W mniemaniu Heydla wyjaśnienie jest w badaniu naukowym kwestią
zasadniczą, stąd ważny jest również związek pomiędzy przyczyną zjawi-
ska a jego wyjaśnianiem. Autor Podstawowych zagadnień metodologicz-
nych ekonomii wyraża tutaj stanowisko, że proces abstrahowania odbywa
się dzięki uchwyceniu relacji danego obiektu do innych obiektów:

uogólnienie zjawiska konkretnego jest to wydobycie jego niezmien-


nych własności a, jak słusznie mówi Harald Høffding: „własności
pewnej rzeczy nie mają nic innego znaczyć, jak sposób, w jaki inne
rzeczy działają na nią, albo jak ta rzecz działa na inne. Barwa jakiejś
rzeczy na przykład jest sposobem, jak ona odbija promienie światła,
jej twardość jest oporem, jaki ona wywiera na przenikające ciało”
(Heydel 1925, s. 17).

Zatem określenie niezmiennych jakości i cech danego zjawiska to


jednocześnie zdefi niowanie niezmiennych relacji, opartych na zasadzie
przyczynowości, w jakich pozostaje owo zjawisko z otoczeniem, a tym
samym jest to jego wyjaśnienie. W tym ujęciu zjawisko przedstawia
się jako skutek pewnych działań i jednocześnie przyczynę innych. „Na
tej drodze przyporządkowujemy zjawisko szczegółowe ogólnym, tak
że staje się ono dla nas koniecznem. Uznajmy je za niezbędną konse-
kwencję, za dalszy ciąg praw, które w naszem przekonaniu ujmują stałe
związki między zjawiskami” ( Heydel 1925, s. 17). Takie postrzeganie

22
Innego zdania jest Milton Friedman, dla którego wszystkie abstrakcje są błędne,
toteż uważa, że lepiej zamiast modeli przyczynowych budować nierealistyczne mo-
dele matematyczne. Zadaniem takich modeli nie jest wcale jak najlepsze oddawanie
zależności występujących w świecie rzeczywistym, lecz kryterium ich poprawności
jest trafność, z jaką jesteśmy w stanie za ich pomocą przewidywać stany gospodarki
w przyszłości. Idąc dalej założenia, na których budowane są modele, nie muszą być
zgodne z stanem rzeczywistym, jeśli tylko będą one poprawnie prognozować. Takie
stanowisko Friedman przedstawił w swoim ważnym artykule Methodology of Positive
Economics, Chicago 1953. Krytyki takiego podejścia w rozumieniu abstrakcji doko-
nał R.T. Long w Realism and Abstraction in Economics: Aristotle and Mises versus
Friedman, gdzie na gruncie tradycji arystotelesowskiej wykazuje błędność rozumo-
wania Friedmana.
224 WOJCIECH PARYNA

zjawisk różni się od podejścia funkcjonalnego w tym punkcie, że wpro-


wadza hipotezę konieczności, niepodważalność w zajściu zjawiska,
w drugim ujęciu zamiast tego jest mowa tylko o powtarzających się
odpowiedniościach.
W tym kontekście, z perspektywy zwolennika przyczynowości, nic nie
stoi na przeszkodzie, żeby ekonomiści matematyczni działający według
swojej metody traktowali przyczynę jako skutek i odwrotnie.
Inną ważną różnicą zachodzącą między funkcjonalizmem a przyczy-
nowością jest uwzględnianie w analizie przyczynowej aspektu czasu,
w tym sensie, że zjawiska występują w czasie i nie bez znaczenia jest ko-
lejność, w jakiej występują23. Kiedy mówimy o związkach i ich przebiegu
w ekonomii i w życiu, zawsze należy pamiętać o tym, że są one osadzone
w czasie. Nieuwzględnienie zmiennej czasu musi prowadzić do błędów
w pojmowaniu przebiegu zjawisk, ponieważ niemożliwe będzie określenie
kolejności ich zachodzenia.
Czas w ujęciu funkcyjnym, równowagowym nie ma znaczenia dla sto-
sunku, w jakim pozostają zjawiska. Tak naprawdę jest bez znaczenia, co
występuje wcześniej, a co później, skoro przedmiotem analizy są powta-
rzające się odpowiedniości (bynajmniej nie oznacza to, że czasu nie ma
w ogóle w analizie matematycznej). Funkcja postrzegana jako pewien ro-
dzaj logicznego przedstawienia relacji, w której pozostają zjawiska, nie ma
z czasem nic wspólnego. Kiedy uwzględniamy takie podejście, nie potra-
fimy określić, które zjawisko występuje jako pierwsze, a które następuje
po nim:

Z odwracalności funkcji nie wynika, byśmy mogli zjawiska prze-


stawiać w czasie. Takie hipotetyczne przestawienie nie da nam
niekiedy żadnego rezultatu, niekiedy da nam wyrażenie sprzeczne
z rzeczywistym związkiem, a mylne będzie logicznie zawsze, nawet
wówczas, gdy pozornie odpowiadać będzie rzeczywistości. Logicz-
ną operację odwrócenia przeprowadzamy wszakże na tym samym
związku dwóch zjawisk sensu stricto, nie zaś na związku pomiędzy
obserwowanym skutkiem, a dalszemi jego następstwami (Heydel
1925, s. 26).

Jeśli nawet wnioski z analizy opartej na funkcyjności będą zgodne


z rzeczywistością, to taka metoda, zdaniem Heydla, nadal jest błędna lo-
gicznie. Kiedy z analizy ekonomicznej usuniemy wymiar czasu, doprowa-
dzimy do mylenia wzajemnych odpowiedniości z wzajemnym wpływa-
niem na siebie zjawisk.
W ujęciu przyczynowym bezspornie przyczyna poprzedza skutek,
który wywołuje. Przyczyna to zjawisko, występujące wcześniej w czasie,

23
Jak zastrzega Heydel, jest to najbardziej naiwne pojmowanie czasu, jednak cał-
kowicie wystarczające na użytek analizy ekonomicznej (Heydel 1925, s. 24).
Adam Heydel: polski „Austriak” w metodologicznym boju 225

skutek natomiast jest późniejszy w stosunku do niej. Ponadto dzięki


konieczności występowania zjawisk możemy na podstawie obserwacji
zauważyć nie tylko jeden element, ale cały związek. Zaistnienie skutku
jest racją wystarczającą, by stwierdzić, że wcześniej pojawiła się przy-
czyna, która go wywołała. W tym rozumowaniu mamy związek lo-
gicznie odwracalny, lecz nie w tym sensie, że możemy odwracać przy-
czynę i skutek, biorąc jedno za drugie, lecz pojawienie się pierwszego
oznacza, że drugi element musiał zaistnieć wcześniej24 . Stwierdzenie
logicznej odwracalności nie oznacza również, że skutek jest przyczyną
swojej przyczyny.
Oczywiście można tu postawić zarzut, że takie rozumowanie sugeruje,
iż zawsze określony skutek wywołuje tylko i wyłącznie jedna właściwa mu
przyczyna. Tymczasem może być tak, że te same skutki wywoływane są
przez różne przyczyny. Heydel odpiera ten argument, mówiąc, że:

To ujęcie jednak bierze za wąsko skutek, a za szeroko przyczynę;


jeżeli jedno i drugie pojmiemy bardzo rygorystycznie, to znaczy za
przyczynę uznamy tylko to co ściśle określony skutek wywołuje,
a za skutek wszystko to, co przez przyczynę zostało wywołane (całą
sumę skutków wraz ze wszystkiemi ich indywidualnemi cechami),
to nie ma wątpliwości, że otrzymamy związek logiczne odwracalny
(Heydel 1925, s. 18).

Na podstawie przeprowadzonej analizy Heydel definiuje związek przy-


czynowy i twierdzi, że zachodzi on, gdy:
– dwa zjawiska współwystępują i uznajemy, że są logicznie nieroze-
rwalne;
– zjawisko występujące wcześniej określamy jako przyczynę, a poja-
wiające się później jako skutek;

24
Heydel przedstawia w tym miejscu swojej pracy rozumowanie Böhm-Bawer-
ka dotyczące wartości dóbr: „problem ten wysuwa Böhm-Bawerk w związku z tezą
o wartości środków produkcji, zależnej od wartości dóbr konsumpcyjnych. Problem
ten jest ściśle związany z całem »nastawieniem« szkoły psychologicznej. Jeżeli mia-
nowicie powiemy, że wartość środków produkcji zależy od wartości dóbr konsump-
cyjnych, które były z nich wyprodukowane, to przypuszczamy, że wysokość wartości
dóbr przyszłych wpływa na wartość dóbr teraźniejszych, że idzie ona niejako wstecz
w czasie. Pozornie tylko jest to sprzeczne z przyjęciem przyczynowego oddziaływania
wielkości ekonomicznych. Nie ma tu jednak sprzeczności istotnej. Wartość środków
produkcji jest bowiem przy tem założeniu skutkiem uprzednich wyobrażeń o przy-
szłej wartości dóbr konsumpcyjnych, jakie ze środków tych mogą być wyproduko-
wane. Jeżeli następnie dobra konsumpcyjne w swojej wartości gwałtownie spadną,
to to nie oddziałuje wstecz na poprzednie (już dokonane) oceny środków produkcji.
Jedynym skutkiem będą straty tych, którzy fałszywie przewidzieli przyszłość” (Hey-
del 1925, s. 45). Takie ujęcie wartościowania dóbr zob. M.N. Rothbard, Ekonomia
wolnego rynku, t. 2, w szczególności rozdziały Produkcja: Struktura oraz Produkcja:
Ustalanie się ogólnych cen czynników produkcji.
226 WOJCIECH PARYNA

– związek ten uznajemy za występujący w rzeczywistości, pojawiają-


cy się w realnym świecie. Odpowiedniość funkcjonalna wtedy jest
sposobem ujęcia zjawisk, nie zaś realnie występującym związkiem
pomiędzy nimi [wyróżnienie – WP] (Heydel 1925, s. 20).
Heydel zdawał sobie sprawę z korzyści, jakie może przynieść metoda
matematyczna w ekonomii. Utrzymywał, w zgodzie ze zwolennikami
funkcjonalizmu, że dzięki niej możemy zrezygnować z metafizycznego
pojęcia konieczności, a także ujmować zjawiska ściśle ilościowo. Wśród
innych zalet stosowania metody matematycznej wymieniał możliwość uj-
mowania stałego towarzyszenia sobie zjawisk bez konieczności docieka-
nia związku, w jakim pozostają i wreszcie, że metoda ta pozwala też na
uchwycenie ogółu krzyżujących się zależności. Niemniej konkluduje dalej,
podejście takie może być niewystarczające, ponieważ wraz z pojawieniem
się wymiaru czasowego metoda ta okazuje się całkowicie zawodna.
Minęło ponad 80 lat od publikacji rozprawy habilitacyjnej Adama
Heydla i nauka ekonomii oczywiście znacznie się rozwinęła. Dotyczy to
przede wszystkim metod matematycznych, które stały się podstawą ba-
dań. Rozumowanie oparte na związkach przyczynowo-skutkowych zo-
stało w dużej części zarzucone na rzecz funkcjonalizmu. Jednak pytanie
o to, jak bardzo uzasadnione jest stosowanie w ekonomii metod mate-
matycznych, ciągle zajmuje ekonomistów. Bez względu na to, jak dalece
rozwinięta jest dziś teoria matematyczna, kwestia zasadności porzucenia
ujęcia przyczynowego pozostaje nadal otwarta25.

Ada m Heydel a ekonom ia aust r iacka


Heydel był ekonomistą doskonale zaznajomionym z dokonaniami eko-
nomii zachodniej. Lektura jego prac wskazuje na rozległość zainteresowań,
obejmujących ogół zagadnień ekonomicznych: teorie pieniądza, wartości,
koniunktury, konsumpcji czy produkcji. Miał on ponadto szeroką wiedzę
z zakresu historii myśli ekonomicznej, czytał prace wszystkich liczących
się autorów, którzy wprowadzali ważne idee do ekonomii.
W sferze ekonomii normatywnej był zwolennikiem liberalizmu gospo-
darczego, w każdym obszarze gospodarowania. Podzielał przekonanie,
że wolne gospodarowanie jest lepszym sposobem organizacji gospodarki
niż państwowa interwencja czy szeroko pojęty etatyzm. W swoich licz-
nych pracach publicystycznych z okresu międzywojennego sprzeciwiał się
zwiększaniu ingerencji państwa w gospodarkę. W swoich zapatrywaniach

25
Istnieją jeszcze inne niebezpieczeństwa wiążące się z bezkrytycznym stosowa-
niem rozumowania właściwego fi zycznym i matematycznym wzorcom w badaniach
ekonomicznych. Kiedy w ekonomii operuje się wzorami, często zdarza się zaniedby-
wać stosowania rachunku miar, a przez takie działanie wyliczane wartości tracą swój
ekonomiczny sens, lub też w ogóle go nie mają (Kwaśnicki, Zieliński 2006).
Adam Heydel: polski „Austriak” w metodologicznym boju 227

ekonomicznych prezentował poglądy całkowicie zbieżne z tradycją myśli


liberalnej.
Znał oczywiście poglądy ekonomistów austriackich i odwoływał się do
nich w swoich pracach. Na istnienie związku szkoły krakowskiej, której Hey-
del był czołowym przedstawicielem, z tradycją uprawiania ekonomii wywo-
dzącą się od Carla Mengera wskazuje Zbigniew Hockuba: „W teorii insty-
tucjonalnej szkoły krakowskiej zawarta była implicite idea spontanicznego
porządku. Heydel, analizując społeczno-instytucjonalne skutki współdziała-
nia »jednostek ekonomicznych«, wydaje się w pełni akceptować ideę Menge-
ra o powstawaniu instytucji społecznych w sposób spontaniczny” (Hockuba
1994a, s. 543). Ten związek jest również widoczny w rozprawie habilitacyjnej
Heydla, w której szeroko omawia poglądy Böhm-Bawerka.
Nie jest to jedyny przykład tego, że Heydel powoływał się w swo-
ich publikacjach na przedstawiciela ekonomii austriackiej. W artykule
z 1934 roku pt. Co to jest inflacja i deflacja?, w którym polemizował z ro-
zumowaniem Irvinga Fishera dotyczącym stabilnego poziomu cen, podaje
argumenty wysuwane przez Schumpetera:

Miałem sposobność rozmawiać na ten temat z Józefem Schumpe-


terem, który niezupełnie zgadzał się z moim sceptycyzmem na ten
temat. Schumpeter starał się przekonać mnie, że możemy mówić
o „ogólnym poziomie cen” jako o czemś realnym, czemś co wykra-
cza poza przeciętną statystyczną (Heydel 1934b, s. 45).

W tym samym tekście powoływał się również na Hayeka:

Gdy Irving Fisher rozesłał w 1927 roku ankietę ekonomistom całego


świata, zawierającą pytania: czy pieniądz o zmiennej sile kupna jest
szkodliwy dla życia gospodarczego? Czy należy dążyć do tego, by
siła kupna pieniądza była stabilizowana? Rozległ się w odpowiedzi
zgodny chór: „yes, yes, yes,” a wśród znanych mi osobiście ekono-
mistów jeden tylko Fryderyk Hayek odpowiedział „nie” na wszyst-
kie pytania Irwinga Fishera. Ta odpowiedź wydała się gonieniem za
oryginalnością w latach proinflacyjnych (Heydel 1934b, s. 46).

Hayek był tym ekonomistą austriackim, do, którego koncepcji Heydel


nawiązywał najczęściej w swoich pracach teoretycznych. Pogląd Hayeka
na temat ustalania wielkości obiegu pieniężnego na sztywnym poziomie
(nota bene podzielony przez szkołę austriacką), przedstawiony m.in. w Pri-
ces and Production, Heydel zaprezentował następująco:

Ta koncepcja, tak bardzo na pierwszy rzut oka dziwaczna, daje się


najogólniej obronić równie dobrze, jak koncepcja cen wzrastają-
cych. Wystarczy wskazać (jak robił to Mises) na to, że, podobnie
228 WOJCIECH PARYNA

jak przy wzroście cen, mamy do czynienia z zyskami nominalnymi,


tak też przy spadku cen mielibyśmy straty tylko nominalne. Oraz
dalej „…dążenie do utrzymania niezmiennego poziomu cen, nie jest
celem tak wielkim i ważnym, jakby pozornie mogło się wydawać”.
Nie czuję się jednak na siłach przesądzać, czy koncepcja Hayeka jest
istotnie ostatniem słowem w sprawach inflacji i deflacji. Przyznaję,
że wydaje mi się teoretycznie bardzo pociągająca (Heydel 1934b,
s. 52 ).

To żywe zainteresowanie Heydla osiągnięciami ekonomistów z Wied-


nia (odróżniał się tym od innych ekonomistów krakowskich) pozostaje
jak dotąd niemal niezauważone w literaturze. Co więcej, na podstawie ar-
tykułów profesora Heydla można wnioskować, że niektórych z nich znał
osobiście. Świadczą o tym choćby powyższe cytaty, do których dodamy
następujący: „Pytałem Hayeka, czy akceptowałby zmienność wielkości
obiegu, jeżeliby a) obieg był tylko kruszcowy, b) złoto produkowano by
w warunkach ściśle wolnokonkurencyjnych. Nie dał stanowczej odpowie-
dzi…” (Heydel 1934b).
Jest dla nas więc oczywiste, że Heydel utrzymywał kontakty osobiste
z czołowymi ekonomistami tamtych czasów. Dość zagadkowy jest nato-
miast fakt przebywania Heydla na trzymiesięcznym stażu w 1928 roku
w Wiedniu. Było to wówczas bardzo prężny ośrodek akademicki, gdzie
uczyło się i wykładało wielu uznanych później ekonomistów26.
Z informacji, uzyskanych od wnuczki Adama Heydla wynika, że w cza-
sie pobytu na tym stażu profesor zaprzyjaźnił się z J.A. Schumpeterem,
który później był gościem w krakowskim domu Heydlów. Za przypuszcze-
niem, że w czasie pobytu w Wiedniu Heydel mógł brać udział w prywat-
nych seminariach Austriaków, może przemawiać wzmianka we wspomnie-
niach Wacława Zbyszewkiego: „Adaś Heydel był wielokrotnie wybitniejszy
od pana Adama [Krzyżanowskiego] jako teoretyk. Studiował w Wiedniu,
już jako docent, bodaj że u v. Hayek’a i u v. Mizes’a [pisownia oryginalna]”
(Zbyszewski 1973, s. 101). Brak jednak innych informacji, które by potwier-
dzały taką tezę. Zauważmy, że wydaje się bardzo mało prawdopodobne, aby
Heydel będąc na stażu w Wiedniu, nie miał kontaktu z grupą austriacką.
Ponadto również w 1928 roku Heydel brał udział w konferencji na-
ukowej w Wiedniu, czego dowodem są jego słowa: „Na życzenie redakcji
»Ekonomisty« próbuję w niniejszym artykule omówić raz jeszcze zagad-
nienie, które rozważałem już w odczycie w Wiedniu w »Nationalökono-
mische Gesellschaft« (w 1928 r.). Odczyt ten ogłosiłem w »Zeitschrift für
Nationalökonomie« (1929 Bd.I.H.2). Podtrzymuję najogólniejsze twier-
dzenia dawnej mojej rozprawki. Różnice wniosków zaznaczam w tekście”
(Heydel 1934a, s. 2 ).

26
Na temat naukowej atmosfery w Wiedniu tamtego okresu zob. Hayek 1994,
s. 31–65.
Adam Heydel: polski „Austriak” w metodologicznym boju 229

W podsumowaniu można stwierdzić, że związki Adama Heydla z eko-


nomistami austriackimi mają dwojaki charakter. Po pierwsze, nawiązy-
wał do ich poglądów w swoich pracach, komentując nie bezkrytycznie ich
teorie. Po drugie, Heydel znał osobiście niektórych z nich, choć niewiele
więcej wiadomo na ten temat poza samym faktem.
Na zakończenie należy powiedzieć, że spośród polskich ekonomistów,
którzy zaznaczyli się w historii myśli ekonomicznej, Adam Heydel był teo-
retykiem najlepiej obznajomionym z koncepcjami ekonomistów zalicza-
nych do szkoły austriackiej, a jego prace są utrzymane w jej duchu.
230 WOJCIECH PARYNA

Bibliografia

Barcik Mieczysław, 2004, Kronika Sonderaktion Krakau, „Alma Mater. Miesięcznik


Uniwersytetu Jagiellońskiego”, vol. 64.

Bartoszewski Władysław, 2007, Pisma wybrane Władysława Bartoszewskiego, t. 1,


(1942–1957), Warszawa, Uniwersitas.

Blaug Mark, 1994, Teoria ekonomii. Ujęcie retrospektywne, Warszawa, PWN.

Böhm-Bawerk Eugen von, 1981, Positive theories des Capitales, London, Macmillan.

Friedman Milton, 1953, Essays in Positive Economics, Chicago, Chicago Press.

Gawecki Bolesław Józef, 1923, Przyczynowość i funkcjonalizm w fizyce, „Kwartalnik


Filozoficzny”, nr 1.

Hayek Friedrich A. von 1994, F.A. Hayek on Hayek. An Autobiographical Dialogue,


London, Routledge.

Heydel Adam, 1925, Podstawowe zagadnienia metodologiczne ekonomii, Kraków.

Heydel Adam, 1927, Kapitalizm i socjalizm wobec etyki, Kraków.

Heydel Adam, 1929a, Pogląd na rozwój teoretycznej ekonomii, Kraków, Drukarnia


Uniwersytetu Jagiellońskiego.

Heydel Adam, 1929b, Teoria koniunktury, Skrót referatu na I Zjazd Ekonomistów Pol-
skich w Poznaniu, Poznań, Drukarnia Uniwersytecka.

Heydel Adam, 1933, Jacek Malczewski. Człowiek i artysta, Kraków.

Heydel Adam, 1934a, Pojęcie produktywności, „Ekonomista”, nr 2.

Heydel Adam, 1934b, Co to jest inflacja i deflacja?, „Ekonomista”, nr 4.

Heydel Adam, 1936, Myśli o kulturze, Warszawa.

Heydel Adam, 1981, Etatyzm po polsku, Warszawa, Officyna Liberałów, dostępne


również na http://mises.pl/pliki/upload/heydel-etatyzm.pdf.

Hockuba Zbigniew, 1994, Carl Menger a Szkoła Krakowska. Z historii związków po-
między austriacką a polską myślą ekonomiczną, „Ekonomista”, nr 4.
Adam Heydel: polski „Austriak” w metodologicznym boju 231

Hockuba Zbigniew, 2003, 70 lat historii studiów ekonomicznych, „Studia Ekonomicz-


ne”, nr 1.

Høffding Harald, 1911, Psychologia w zarysie na podstawie doświadczenia, Warszawa,


H. Linderfeld.

Huerta de Soto Jesús, 1998, The Ongoing Methodenstreit of the Austrian School,
„Journal des Economistes et des Etudes Humaines”, vol. 8, no.1.

Kołakowski Leszek, 2004, Filozofia pozytywistyczna. Od Hume’a do Koła Wiedeńskie-


go, Warszawa, PWN.

Krzyżanowski Witold, 1960–1961, „Adam Heydel”, Polski Słownik Biograficzny t. 9,


red. Lepszy Kazimierz, Wrocław–Warszawa–Kraków.

Kwaśnicki Witold, Zieliński Marcin, 2006, Uwagi do artykułu Barnetta „Wymiary


a ekonomia”, „Studia Ekonomiczne”, nr 3.

Lityńska Aleksandra, 1978a, Przedmiot i metoda badań ekonomii w ujęciu Adama


Krzyżanowskiego, „Studia z historii myśli społeczno-ekonomicznej”, vol. 26.

Lityńska Aleksandra, 1978b, Adam Heydel – życie i twórczość, „Studia z historii myśli
społeczno-ekonomicznej”, vol. 26.

Lityńska Aleksandra, 1992, Dzieje ekonomii akademickiej w Krakowie do czasów dru-


giej wojny światowej, Wrocław–Kraków.

Lityńska Aleksandra, 1993, Towarzystwo Ekonomiczne w Krakowie (1921–1939). Za-


rys historii zorganizowanego ruchu ekonomistów w Krakowie, Kraków.

Lityńska Aleksandra, 2001, Polska myśl ekonomiczna okresu międzywojennego, Kra-


ków, Wydawnictwo Uniwersytetu Ekonomicznego w Krakowie.

Long Roderick T., 2006, Realism and abstraction in economics: Aristotle and Mises
versus Friedman, „Quarterly Journal of Austrian Economics”, vol. 9, no. 3.

Marshall Alfred, 1920, Principles of economics, London, Macmillan.

Menger Carl, 1871, Grundsätze der Volkswirthschaftslehre, Wien, Wilhelm


Braumüller.

Mirowski Philip, 1988, Against mechanism: protecting economics from science, Lan-
ham, Rowman & Littlefield Publishers, Inc.
232 WOJCIECH PARYNA

Mises Ludwig von, 1962, The Ultimate Foundation of Economic Science. An essay on
method, Princeton, New Jersey, D. Nostrand Company.

Nowicki Józef, 1991, Luminarze polskiej teorii ekonomii XX wieku, Warszawa PWN.

Pareto Vilfredo, 1909, Manuel d’economie politique, Paris, 1909 Giard.

Rockefeller Foundation, RF Annual Report – 1935, dostępne na: http://www.rock-


found.org./library/annual_reports/1930-1939/1935.pdf

Rothbard Murray N., 2007, Ekonomia wolnego rynku, Warszawa, Fijorr Publishing.

Sady Wojciech, 2000, Spór o racjonalność naukową. Od Poincarégo do Laudana, Wro-


cław, Funna.

Skorupska Urszula, 2006, Propagowanie zasad liberalizmu gospodarczego jako misja


Towarzystwa Ekonomicznego w Krakowie. Dostępne na: http://www.zk.pte.pl/pliki-
/1/87/Misja_TE_w_Krakowie.pdf

Skorupska Urszula, 2007b, Droga do liberalizmu gospodarczego w koncepcjach ekono-


mistów Szkoły Krakowskiej, Warszawa.

Skorupska Urszula, Kostro Krzysztof, 2007a, Czy ekonomistów szkoły krakowskiej łą-
czyło wspólne podejście metodologiczne?, „Studia Ekonomiczne”, no. 3–4.

Whitehead Alfred North, 1914, Wstęp do matematyki, Warszawa–Lwów.

Zawadzki Władysław, 1914, Zastosowanie matematyki do ekonomji politycznej,


Wilno.

Zbyszewski Wacław, 1973, 100-lecie urodzin Adama Krzyżanowskiego, „Kultura”,


vol. 306, no. 3.
Z a kocha ny matemat yk

W I L L I A M J O H N M A C Q U O R N R A N K I N E (1 8 2 0 – 1 8 7 2 )

I.
Pewien matematyk dał sobie skraść serce,
W damie ślicznej, ponętnej zakochał się wielce.
Ponieważ zapałał zupełną miłością,
W całkowitym skupieniu nad każdą krągłością,
Mierzył i studiował proporcje podziału,
Dowodząc, że wybranka bliska ideału.

II.
Mnożył, różniczkował, rachował z zapałem,
Równania układał doprawdy wspaniałe.
Działaniami rozwiewał wszelkie niewiadome,
I rozwiązał zadanie na kompletną żonę.
Nakreślał linie jej figury i twarzy,
Licząc, że taką ją sobie wymarzył.

III.
A że każda kobieta kocha piękne dźwięki,
Obmyślił teorię zdobycia jej ręki.
Akustycznych równań użył znakomicie,
By miłosną arią przekształcić jej życie.
W istocie gdy melodię tylko zaczął grać,
Dama włosy z głowy wnet zaczęła rwać.

IV.
Pewny siebie rachmistrz, bez cienia zwątpienia,
Nie odstąpił wcale od swego liczenia.
Wywodząc, że taniec to kolejna gratka,
Której musi ulec czarowna dzierlatka,
W następnym równaniu wyprowadził walca,
A następnie polkę, jako rodzaj tańca.

V.
Symetrycznym krokiem na parkiet wyruszył
Zakładając pewnie: damę to poruszy.
Wykonując obrót wokół własnej osi,
Swój środek ciężkości niezgrabnie przenosił.
Zatem grawitacja figla mu spłatała
I upadł, aż podłoga złowróżbnie zadrżała.
234 ZAKOCHANY MATEMATYK

VI.
Nie poddał się jednak, projektował dalej:
Miłości dowodzić należy wytrwale.
Afekt – to wiedział ze swych kalkulacji –
Musi odwzajemnić dama pełna gracji.
Przecież wszyscy wiedzą z mechaniki prawa:
Akcja równa się reakcji – ot, cała zabawa!

VII.
„Zatem niech x oznacza piękno, y – manier dobrych szereg”,
„z – pomyślność”, bo szczęścia nigdy nie za wiele,
„L – niech znaczy miłość”, a pojmiemy wnet,
że „L staje się funkcją x, y i z”.
Matematyk dostrzegł w tym potencjał wielki
I ujął w równania rachunkowe gierki.

VIII.
Postanowił scałkować jeszcze L po t.
t – to czas i perswazja, a więc stwierdził, że
„Całka oznaczona – drogą do ołtarza,
Co przedział czasowy klarownie wyraża”.
Matematyk w duszy poczuł słodką błogość:
Granicą ich uczuć będzie nieskończoność!

IX.
„Skoro Pani Algebra tak wiele wylicza
I jest w stanie określić nawet bieg księżyca,
To uczucia kobiety określi tym bardziej”,
Stwierdził matematyk i poczuł się raźniej,
Lecz dama uciekła z wojakiem wyśnionym,
A nieszczęsny logik oniemiał zdumiony.

tłumaczenie: Olga Pisklewicz

Wiersz (tytuł oryginału: The Mathematician in Love) został opublikowany


w 1874 roku w tomiku humoresek Rankine’a These Songs and Fables. Nicholas
Georgescu-Roegen zacytował obszerny fragment utworu w artykule Methods
in Economic Science („Journal of Economic Issues”, czerwiec 1979), w którym
wskazał na ograniczenia formalnego modelowania w opisie zachowań
ludzkich.
INDEKS NAZWISK

INDEKS NAZWISK

Numery stron wyróżnione kursywą oznaczają, że nazwisko występuje w przypisie.

A Boldrin Michele 88–90, 92


Aenarius Richard 217 Bordia Rakesh 82, 92
Akerlof George A . 4, 4, 26 Boyle Robert 7
Aleksander Jagiellończyk 178 Brahe Tycho 7
Altig David 154, 156 Barnett William II 14, 26
Amsterdamski Stefan 19, 26 Brożek Bartosz 60, 61, 62, 64, 74
Anderson Richard 147, 156 Buchanan James M . 57–58, 73, 118
Antonów Radosław 108, 120
Arundel Anthony 92 C
Arystofanes 177 Calabresi Guido 50, 60
Arystoteles 1–2, 26 Cantillon Richard 2, 9, 95, 148, 149–150,
Atkeson Andrew 185, 188 152, 165, 196, 197, 197, 217
Augustynek Zdzisław 26 Caplan Bryan 108–109, 115, 120
Chamberlin Edward 32
B Claus Iris 153, 156
Bacon Francis 11 Coase Ronald XVI, 49–50, 52–53, 54–56,
Barcik Mieczysław 213, 230 57, 59, 60, 61, 62, 63, 64, 65, 65, 66,
Barone Enrico 42 67–68, 69, 70–71, 73, 96, 106, 116,
Barro Robert 88 116, 117, 118, 120
Bartoszewski Władysław 214, 230 Cobb Charles 135, 153, 154
Bastiat Frédéric 179, 188 Colander David C . 43, 46, 97, 107, 121
Baumol William J . 186, 188 Cole Julio 87, 92
Becker Gary XIII, XIV, XV, XVIII Comte August 217
Begg David 32, 34, 45, 106, 144, 156, Conway Paul 153, 156
174, 174, 188 Cooter Robert 51
Bentham Jeremy 98 Cournot Antoine Augustin 41, 97
Bernanke Ben 165, 188 Czarny Bogusław 33, 33, 35, 45, 106,
Bernheim Ernst 10 174, 174, 188
Bernoulli Jacob 7
Blankertz Stefan 31, 45 D
Blaug Mark 9, 17, 26, 41, 45, 98, 106, Dehoff Kevin 82, 92
120, 126, 156, 219, 230 Deng Xiaoping 109
Block Walter 57, 65, 66, 67–68, 69, 73, Director Aaron 50
108, 110–111, 120, 193, 196, 207 Dornbusch Rudiger 32, 34, 45, 106, 144,
Böhm-Bawerk Eugen von 40, 45, 58, 73, 156, 174, 188
107, 108, 120, 128, 130, 131, 132– Douglas Paul H . 135, 153, 154
–133, 133, 134, 136–137, 138, 142, Douglas Major 129
156, 220, 220, 225, 227, 230 Douhan Robin 108, 120
Bohr Niels 20
236 Indeks nazwisk

Dowd Kevin 193, 207 H


Drucker Peter Ferdinand 77, 90, 92 Hall Robert E . 174, 174, 188
Hand Learned 60
E Hauwe Ludwig van den 109, 120
Edgeworth Francis XIII, 97 Hayek Friedrich August von 2, 8, 10, 10,
Edison Thomas 88 11, 12, 12, 13, 13, 15, 16, 17, 18, 21,
Einstein Albert 87 24, 25, 26, 27, 32, 36, 37, 37, 41, 42,
Ekelund Robert B . Jr . XIII, XVIII 45, 85, 92, 108, 109, 129, 149, 149,
Eliasson Gunnar 108, 120 151, 152, 154, 156, 170, 180, 183,
Emmett Ross B . 121 188, 193, 194, 203, 204, 206, 207,
Euklides 222 227–228, 228, 230
Hébert Robert F. XIII, XVIII
Heisenberg Werner 20
F
Hennecke Hans Jörg 109, 120
Fama Eugene F. 35, 45
Henrekson Magnus 108, 120
Fetter Frank 131, 147, 156
Herwart von Hohenburg Hans Georg 11
Feyerabend Paul 119
Heryng Zygmunt 6
Fischer Stanley 32, 34, 45, 106, 144, 156,
Heydel Adam XVII, 109, 211–229, 230
174, 188
Heydel Anna 215
Fisher Irving XIII, 97, 227
Heydel Barbara 213, 215
Forlicz Stefan 21, 26, 27
Heydel Elżbieta 215
Foss Nicolai 112, 120
Heydel Izabela 211
Frech Harry Edward III 51
Heydel von (nieznany z imienia oficer
Friedman David 67, 73
niemiecki) 214
Friedman Milton XIV, XV, XVIII, 13, 26,
Heydel Wojciech 211, 213, 214, 215
50, 97, 116, 120, 149, 149, 150, 152,
Heydel Zdzisław 211
152, 156, 165, 182, 188, 193, 207,
Heydel Zofia 211
223, 230
Heydlowa Anna 215
Frydman Roman 20, 21, 24, 26, 28
Heydlowa Maria 211
Hicks John 115, 138–139, 149, 156
G Hirschman Albert O. 163, 188
Gajewski Łukasz XVI Hockuba Zbigniew 213, 227, 230, 231
Galileusz 7 Høffding Harald 223, 231
Garrison Roger 144, 156 Hoffman Elizabeth 51
Gawecki Bolesław Józef 219, 230 Holcombe Randall 111, 114, 120, 121
Georgescu-Roegen Nicholas 234 Hollanders Hugo 80, 92
Glapiński Adam 97, 120 Hooke Robert 7
Glasner David 193, 207 Hoppe Hans-Hermann 31, 45, 100, 108,
Głąbiński Stanisław 216 109, 113–114, 115, 116, 121, 177,
Godłów-Legiędź Janina 15, 26 180, 188, 193, 207
Goethe Johann Wolfgang von 8 Horwitz Steven 194, 196, 197–198, 207
Goldberg Michael D . 20, 21, 24, 26 Huerta de Soto Jesús 98, 107, 121, 151,
Gordon David 109, 120 156, 165, 170, 176, 180, 182, 183,
Grabski Stanisław 216 189, 194, 195, 202, 207, 220, 231
Grene Marjorie 28 Hülsmann Jörg Guido 40, 45, 109, 121,
Greenfield Robert L . 193, 207 131, 131, 152, 157, 162, 179, 189,
Greenspan Alan 154 193, 207, 208
Greenwald Bruce C . N . 4, 26 Hume David 152
Grinder Walter E . 157 Hutt William Harold 136, 157
Huygens Christiaan 7
Indeks nazwisk 237

J Lange Oskar 43, 43, 46, 69, 126, 139, 157


Jabłecki Juliusz 36, 45 Laplace Pierre Simon 7, 8, 18, 19, 19, 20,
Jakubowski Rafał 20, 27 21, 27
Jaruzelski Barry 82, 92 Lavoie Don XIX, 109
Jevons William S. XIII, 6, 58, 97, 107 Leoni Bruno 171, 189
Jędrzejewicz Janusz 213 Lepszy Kazimierz 231
Johnsson Richard C . B. 162, 189 Leszek Przemysław XVI, 9, 24, 28
Leube Kurt R. 207
K Levine David 88–90, 92
Kant Immanuel 6, 221 Levinson Marc 4, 28
Karsz Wiesław 51–52, 73 Lewin Peter 59, 73
Kartezjusz 11 Lewiński Jan XVII
Kehoe Patrick J . 185, 188 Lityńska Aleksandra 211, 212, 214, 215,
Kepler Johannes 7, 11, 13 216, 231
Keynes John Maynard 24, 116, 128, 128, Locke John 66, 69
143, 145 Long Roderick T . 223, 231
Kinsella Stephan 85–88, 92 Lucas Robert 23
Kirzner Israel M . 15, 27, 41, 45, 108,
131, 142, 157 M
Klein Daniel 111, 121 Machaj Mateusz 15, 28, 43, 46, 165, 181,
Klein Peter G . 177, 189 189
Knight Frank H . 22, 23, 24, 27, 32, 32, Mach Ernst 217
45, 97, 121 Malczewski Jacek 215
Knowler Katarzyna 213 Mandeville Bernard de 143
Kochanowska Ewa 8, 8, 27 Mankiw Gregory N . 3, 28
Koestler Arthur 11, 13, 27 Manne Henry 121
Kołakowski Leszek 217, 231 Markiewicz Henryk 6, 28
Kostanecki Antoni 216 Marks Karol 42, 143
Kostro Krzysztof 3, 15, 27, 216, 232 Marshall Alfred 218, 231
Kowalik Tadeusz 157 Martimort David 112, 121
Kramer Hugh 177, 189 Mayer Thomas 9, 28
Krugman Paul 162 McCloughry Roy 207
Krzyżanowski Adam 211, 212, 216, 228 Medema Steven G. 51, 73
Krzyżanowski Witold 211, 214, 215, 231 Mejbaum Wacław 26
Kubisz Jacek XVI, 128 Menger Carl 2, 97, 107, 107, 108, 109,
Kuhn Thomas 119 109, 112, 121, 142, 157, 164, 177,
Kumaniecki Kazimierz 212 180, 189, 220, 227, 231
Kuropatwa Alicja XVI Mill John Stuart 2, 217
Kvasnička Michal 113, 121 Mirowski Philip XIII, XVIII, 217, 231
Kwaśnicki Witold 2, 6, 9, 27, 45, 85, 92, Mises Ludwig von XVI, XVIII, 10, 13,
108, 121, 152, 157, 226, 231 15, 23, 24, 28, 32, 34, 36, 43, 43, 46,
Kwiatkowski Eugeniusz 181 97, 107, 108, 109, 121, 122, 131, 140,
Kwiatkowski Stanisław XVII 142, 142, 157, 165, 170, 177, 178,
Kydland Erling 3 180, 181, 181, 182, 189, 196, 204,
208, 222, 227, 228, 232
L Moss Laurence S . 157
Lachmann Ludwig M. XIII, XVIII, 136, Münsterberg Hugo 10
138–139, 157 Murphy Robert P. 108, 115–116, 117,
Laffer Arthur B . 35, 45 122, 128, 157
Laffont Jean-Jacques 112, 121 Mussolini Benito 213
Landreth Harry 43, 46, 97, 107, 121 Muth John F. 23, 28
238 Indeks nazwisk

N 131, 156, 171, 177, 181, 184, 185, 190,


Nelson Charles R . 4 193, 195, 196, 204, 208, 225, 232
Newton Isaac 1, 6, 7, 8, 8, 9, 18, 19, 19, Russell Bertrand 217
20
Nixon Richard 181 S
Nordhaus William D . 123, 144, 157 Sady Wojciech 6, 7, 7, 20, 29, 221–222,
North Douglass 89 232
North Gary 60, 61, 62, 65, 65, 67, 73, Salerno Joseph T . 163, 164, 165, 168,
129, 157, 184, 189 172, 173, 174, 181, 184, 190
Norwid Cyprian Kamil 214 Salin Pascal 194, 208
Nowicki Józef 211, 232 Samuelson Paul 96–97, 97, 98, 99–100,
101–106, 106, 107, 110, 111–112,
O 114, 114, 115, 116, 118, 119, 122,
Okun Arthur 153 123, 144, 144–145, 157
Orliński Wojciech 161, 185, 189 Say Jean-Baptiste 2, 126, 132
Orłowski Witold 161–162, 185, 189 Schäffe Albert E . F. 42
Schlegel Friedrich 8
P Schmoller Gustav von 107
Pareto Vilfredo XIII, 52, 97, 98, 99, 113, Schumpeter Joseph A . 3, 3, 29, 77, 77,
166, 218, 219, 221, 232 142, 157, 218, 227, 228
Paryna Wojciech XVII, 109 Schwab Stewart J . 51
Phelps Edmund S . 24, 28, 152, 152, 157 Schwartz Anna J . 193, 207
Pigou Arthur Cecil 49, 50, 57 Scott Alasdair 153, 156
Plosser Charles I . 4 Sechrest Larry 108, 112, 123
Polanyi Michael 18, 24, 28 Selgin George A . 194, 196, 198, 199, 204,
Polinsky A . Mitchell 51 205, 207, 208
Popper Karl R . XIV, XV, XV, XVI, XVIII Sennholz May 122
Posner Richard A . 60–61, 62, 64, 73, 116, Shackle George L . S . 131, 138–139, 140,
122 141, 143, 158
Prescott Edward 4 Shattuck Roger 8, 29
Siegfried John J . 177, 190
Skorupska Urszula 211, 215, 216, 232
R Smith Adam 4–5, 9, 41, 95, 140, 217
Radzikowski Marek 173, 190 Smith Barry 109, 123
Rapacki Ryszard 33, 33, 35, 45, 106, 174, Snowdon Brian 4, 23, 29
174, 188 Solow Robert M. 3, 29, 130, 158
Reagan Ronald 24 Spitzer Matthew L . 51
Regan Donald H . 51 Stelmach Jerzy 60, 61, 62, 64, 74
Reichenbach Hans 222 Stigler George 50
Reisman George 165, 165, 167, 177, 190 Stiglitz Joseph E . 4, 5, 26, 29, 106
Rizzo Mario J . 58, 59, 63, 74 Stock Wendy A . 177, 190
Robbins Lionel 74, 97, 98, 99, 103, 122
Robinson Joan 32, 46
Rockwell Llewellyn H. Jr. 207, 208 Š
Romer David 3, 28 Šima Josef 50, 52–53, 55–56, 60, 61, 74,
Romer Paul M . 3, 29, 77 117, 123
Roosevelt Franklin Delano 181
Rostowski Jacek 165, 190 T
Rothbard Murray N . XVI, XVIII, 35, 36, Tannehill Linda 116, 123
36, 37, 37, 38, 39, 40, 41, 46, 59, 63, Tannehill Morris 116, 123
74, 88, 93, 108, 109, 113, 116, 122, Tatarkiewicz Władysław 20, 29
Indeks nazwisk 239

Taub Bart 205, 208 White Lawrence H . 109, 123, 194, 196,
Taylor Edward 218 205, 208
Taylor Fred M . 43, 43, 46 Wicksell Knut 146–148, 149, 150, 151,
Taylor John B . 153–154, 154, 158, 174, 152, 152, 158
188 Winiarski Marcin 28
Thornton Mark 162, 181, 190 Wojtyna Andrzej 4, 29
Timberlake Richard H . 193, 208 Wong Stanley 97, 123
Tusk Donald 181 Wynarczyk Peter 29

U Y
Ulen Thomas 51 Yeager Leland B . 2, 29, 193, 197, 207,
208
V
Vane Howard 29 Z
Varian Hal 134, 145, 158 Załuski Wojciech 60, 61, 62, 64, 74
Zawadzki Władysław 218, 219, 232
W Zbyszewki Wacław 228, 232 Zerbe
Walras Léon XIII, 6, 17, 97, 107, 109 Richard 51, 51, 73
Weil David N . 28 Zieliński Marcin XVII, 81, 93, 226,
Weiss Andrew 26 231
Whitehead Alfred North 218, 232 Zorde Kristof 97, 109, 123
Zweig Ferdynand 211
Słabość obowiązującego dziś wzorca uprawiania ekonomii tkwi w jego
formalizmie . To on powoduje, że decyzje ludzi oraz świat, w którym ludzie
działają, sprowadza się do prostych i mierzalnych wielkości, traktowanych
tak, jakby były wielkościami fizycznymi . W zderzeniu ze złożonymi
zjawiskami gospodarczymi formalizm ów prowadzi do błędów, które można
ująć w dwie kategorie. Po pierwsze są to błędy polegające na uproszczeniu
skomplikowanych struktur i instytucji gospodarczych (za pomocą
algebraicznych formuł stosowanych w ekonomii nie da się przedstawić
istotnych jakościowych cech). Po drugie są to błędy związane z założeniem,
że w gospodarce istnieją "optymalne" rozwiązania, które można łatwo
odkryć w wyniku analizy przyjętego modelu. Formalizm ten prowadzi zatem
do wyeliminowania ze świata niepewności , spekulacji i przedsiębiorczego
działania, które występują na co dzień w życiu gospodarczym.

Mateusz Machaj (z Przedmowy)

Fu ndacja Ludwiga von Misesa

You might also like