You are on page 1of 26

Rafał Małek

Budowa i eksploatacja statku kosmicznego


Poradnik dla użytkownika

Wydanie pierwsze prototypowe, lipiec 2009r.


Wstęp

Miałem pewien dylemat czy napisać ten tekst. Wolałbym przedstawione informacje zachować dla
siebie i sam z nich nadal korzystać. Niestety, od czasu powstania firmy A-IN (a minęło już przeszło
8 lat), która miała za zadanie realizację tych i wielu innych projektów (witryna
http://galeriatechniki.pl jest tylko komercyjną, poboczną odnogą całego przedsięwzięcia,
wcześniejszą był m.in. profesjonalny sprzęt komputerowy typu workstation i serwery, w tym
Apple, niestety Radom okazał się zbyt wąskim rynkiem), nie udało się nawet uzyskać dostępu do
najbardziej podstawowych przyrządów pomiarowych. Jeden krok do przodu wiązał się z dwoma
wstecz. I widzę, że nie ma sensu dłużej ciągnąć pewnych spraw, może z zebranych informacji ktoś
inny skorzysta, choćby w pisaniu książek, scenariuszy filmowych, gier komputerowych, a nawet
przedstawione koncepcje mogą zainspirować nowe kierunki badań.

Kiedyś wszyscy byli przekonani, że Ziemia jest płaska i leży w centrum Wszechświata. Dzisiaj taki
pogląd wydaje się śmieszny. Mamy „naukę”, która wyjaśniła wiele zagadek. Patrząc z dużej
odległości robi wrażenie spójnej i logicznej, lecz gdy przyjrzymy się jej bliżej, dostrzegamy rysy,
które powiększając się rozsadzają całą konstrukcję. To oznacza, że świat nie jest jeszcze do końca
poznany i zrozumiany, wciąż czeka mnóstwo tajemnic i możliwości. Z całą pewnością nie jest szary
i nudny.

Książeczka ta celowo nie zawiera wielu szczegółów technicznych, lecz skupia się na ogólnych
wnioskach, które ukazują prawdopodobny obraz przyszłości w ciągu następnych dziesięcioleci, a
nawet stuleci. Przedstawione tutaj hipotezy są w bardzo wczesnym stadium, pokazują nie tyle
odpowiedzi, co raczej kierunki poszukiwań. Można je traktować najwyżej jako science-fiction. O
pewnych możliwościach nawet nie wspomniałem, gdyż łatwo mogłyby każdemu posłużyć do
konstrukcji nowych rodzajów broni energetycznych.

Mankamentem tekstu jest bardzo ograniczona liczba przypisów. Nie jest to tekst naukowy w
ścisłym znaczeniu tego słowa. O wielu rzeczach piszę po prostu z pamięci i trudno byłoby mi
przypomnieć sobie szczegóły dotyczące literatury, a nawet jej istnienie. Niektóre koncepcje są
mojego autorstwa, a jeśli się okaże, że ktoś już kiedyś podobne sformułował, to ma pierwszeństwo.
Wywoływanie poltergeistów

Nie będę się rozpisywał o seansach spirytystycznych, lecz wspomnę o eksperymentach


przeprowadzonych przez Johna Hutchisona. Zastosował on cewki Tesli i inne źródła pól
elektromagnetycznych, zebrane w jednym pomieszczeniu. Efekty były dosyć nietypowe –
unoszenie się przedmiotów i ich przenikanie przez siebie oraz samoistne rozkruszanie metali.
Eksperymenty zostały powtórzone m.in. w ramach badań prowadzonych przez firmę Lockheed
Martin (www.lockheedmartin.com), co zostało potwierdzone w oglądanym przeze mnie wywiadzie
telewizyjnym z jednym z ich dyrektorów. Powołując się na klauzulę tajności, nie odpowiedział na
pytanie o podobne eksperymenty oraz płynące z nich wnioski.

Choć wnioski wydają się oczywiste – za pomocą pól elektromagnetycznych można spowodować
lewitację przedmiotów oraz ich przenikanie przez siebie. By zastosować w praktyce to zjawisko,
należałoby określić, jakie parametry pola są potrzebne (częstotliwość, faza, polaryzacja itp.) i
dlaczego tak się dzieje, jakie mechanizmy za tym się kryją. W przedstawionym eksperymencie
najwidoczniej dochodziło do zupełnie przypadkowej interferencji chaotycznych pól
elektromagnetycznych, przez przypadek tylko uzyskiwały one czasami właściwości potrzebne do
wywołania zjawiska.

Jonoloty

Ten podrozdział niestety piszę z pamięci, gdyż informacje pochodzą z pewnej starej książki dla
majsterkowiczów, z którą miałem do czynienia mniej więcej w połowie podstawówki, więc
mogłem coś przekręcić. Nie znam jej tytułu, nie miała okładki. To od niej rozpoczęło się moje
zainteresowanie konstruowaniem obwodów elektronicznych.
Otóż w latach pięćdziesiątych Związek Radziecki prowadził badania nad jonolotami. W tamtej
książce był m.in. opis budowy modelu takiego pojazdu. Głównym podzespołem była metalowa
siatka w ramce o kształcie prostokątnym, zakończona trójkątnie z węższych stron prostokąta. Czyli
taki wydłużony sześciokąt. Nad tą siatką, wzdłuż jej dłuższej osi, rozciągnięta była metalowa linka.
Pod spodem była podwieszona kabina pasażerska, podobna do stosowanej w sterowcach lub kolejce
linowej. Pomiędzy górną linką a siatką panowało wysokie napięcie, rządu kilkudziesięciu tysięcy
volt. Siatka była elektryzowana ujemnie, linka dodatnio.
Dodatnia linka odbierała ładunki elektryczne z powietrza, którego cząsteczki były następnie
przyciągane do siatki i dawały ciąg nośny. Ale czy na pewno? Na pierwszy rzut oka widać, że to nie
wystarczy do napędu pojazdu załogowego. Od tego czasu nigdzie w literaturze nie spotkałem się z
opisem jonolotu, nawet jakąkolwiek wzmianką, że był nieudaną konstrukcją w dziejach techniki.

Liftery

W Stanach Zjednoczonych prowadzi się badania nad konstrukcjami podobnymi do jonolotów.


Modele zbudowane są z balsy (lekkiego drewna, stosowanego przez modelarzy lotniczych), na
której rozpostarta jest folia aluminiowa, a nad nią rozwieszony miedziany drucik. Plus do drucika,
minus do folii, różnica potencjałów przynajmniej 30 tysięcy volt. I toto lata, nawet jak jest
zamknięte w plastikowej osłonce, co podważa hipotezę 'wiatru jonowego'.
Eksperymenty prowadzi firma Swift Enterprises (www.swiftenterprises.com), którą założył dr John
J. Rusek, wykładowca aeronautyki i astronautyki na Uniwersytecie Purdue i w Akademii Sił
Powietrznych USA. Kolejnym pasjonatem jest Francuz Jean-Luis Naudin (www.jnaudin.free.fr).
Za ojca liftera uważa się Jeffa Camerona z firmy Transdimensional Technologies
(www.tdimension.com), częstego podwykonawcy NASA.

Być może ważną rolę w tym zjawisku odgrywają pola elektryczne w kondensatorach o
niesymetrycznych okładkach.

Elektrograwitacja

Od dziesięcioleci fizycy szukają teorii opisującej czym jest grawitacja i jak ją kontrolować.
Wymyślają skomplikowane konstrukcje matematyczne, z których w praktyce niewiele wynika. A
może rozwiązanie zagadki jest bardzo proste, tkwi tuż pod nosem? Jak uczy historia, ludzie
najtrudniej dostrzegają rzeczy najbardziej oczywiste i komplikują wszystko do granic możliwości.

Michael Faraday stwierdził, że “pojemność elektryczna jest dla grawitacji tym, czym indukcyjność
dla magnetyzmu”. Czyli doszukiwał się analogii pomiędzy polem elektrycznym a polem
grawitacyjnym. Chyba nie zdawał sobie sprawy, jak był blisko.

Dr T. Townsend Brown (to nie ten od 'ruchów browna', zadziwiająco wielu sławnych fizyków nosi
podobne nazwiska) odkrył istnienie zjawiska 'elektrograwitacji', nazwanego później 'efektem
Biefelda-Browna'. Otóż, przy przyłożeniu napięcia do okładek płaskiego kondensatora, powstaje
słaba siła próbująca przesunąć kondensator w kierunku dodatniej okładki. Czyli, jeśli kondensator
ustawiony jest dodatnią okładką ku górze, to następuje zmniejszenie jego masy, a gdy ku dołowi, to
zwiększenie.

Efekt ten wyraźnie występuje przy spełnieniu następujących warunków:


1) Przenikalność elektryczna dielektryka jest rzędu 2000 lub wyższa;
2) Gęstość dielektryka jest rzędu 10g/cm3 lub więcej;
3) Przyłożone napięcie jest rzędu 100000V lub większe.

Wyszedł z założenia, że skoro elektryczność i materia mają dużo ze sobą wspólnego, gdyż atomy
zbudowane są właściwie z ładunków elektrycznych, oraz istnieją oczywiste powiązania pomiędzy
materią a grawitacją, to muszą istnieć również związki pomiędzy ładunkami elektrycznymi a samą
grawitacją. Pole elektryczne i grawitacyjne mają podobne właściwości, obydwa są polami
ekwipotencjalnymi, lecz pole grawitacyjne ma zdolność doskonałej penetracji, trudno je ekranować.

Jeden z pierwszych eksperymentów, przeprowadzonych wspólnie z dr Paulem Biefeldem,


dyrektorem Obserwatorium Swazeya, miał miejsce w 1924 roku1. Użyto w nim „grawitatora”
zbudowanego dwóch ołowianych kul, wiszących na długich drutach o masie 20kg każda,
oddalonych od siebie na odległość 45cm dzięki szklanemu
prętowi. Nadano im przeciwne ładunki elektryczne, różnica
potencjałów wynosiła 120kV. Do pomiarów użyto metod
optycznych (rys.1)

Okazało się, że „dowolny system dwóch ciał posiada wspólną siłę


skierowaną w tym samym kierunku (typowo w linii obydwu ciał),
która jest wprost proporcjonalna do iloczynu mas i różnicy
potencjałów, oraz odwrotnie proporcjonalna do kwadratu
odległości pomiędzy nimi”. Siłę tą nazwano 'akcją grawitatora'.
Czas trwania impulsu zależy od aktualnego położenia Słońca oraz
Księżyca (najsilniej oddziałują kiedy dane ciało niebieskie jest ostawione wzdłuż kierunku ułożenia
naładowanych elementów, najsłabiej gdy prostopadle), nie mają natomiast wpływu przyłożone
napięcie oraz konstrukcja grawitatora oraz pole grawitacyjne Ziemi.

W innym eksperymencie grawitator był zanurzony w oleju w celu wyeliminowania wpływu


czynników atmosferycznych (ciśnienia, temperatury, wilgotności) i podwieszony niczym wahadło.
Po przyłożeniu napięcia rzędu 75-300kV wahadło wychyla się w czasie około 5 sekund o pewien
kąt do góry, dopóki powstająca siła nie zrównoważy się z siłą ciężkości. Następnie powraca do
pozycji początkowej w ciągu 30 sekund.

Na rysunku widać, że akcja


grawitatora może być
skierowana przeciwnie do sił
elektrostatycznych (rys.2)

Zmiana biegunowości nie


powoduje zmiany kierunku oraz
okresu impulsu (rys.3)

Po zaniku impulsu grawitatora


należy odciąć napięcie i
odczekać minimum 5 minut
przed ponownym jego
naładowaniem, by mógł odzyskać swoje właściwści. Czas ten jest
proporcjonalny do okresu trwania impulsu.

Kolejny rysunek przedstawia


obrotową ramkę służącą do
pomiarów przyspieszenia. Obrót
trwa do momentu wyczerpania
impulsu (rys.4)

Udoskonalona wersja
grawitatora ma konstrukcję
komórkową, zbudowana jest z
ołowianych płytek
przedzielonych izolacją (rys.5)

W innej jako izolator użyto kompozytu z bakelitu i glei ołowianej.


Im wyższe napięcie, tym
grubsza sekcja (rys.6)

W toku eksperymentów ustalono, że:


1) Przyłożone napięcie ma wpływ tylko na amplitudę
wychylenia;
2) Natężenie prądu nie ma wpływu na ruch i służy wyłącznie
uzupełnianiu ubytków ładunków powstałych wskutek przewodzenia dielektryka;
3) Energia impulsu jest proporcjonalna do masy dielektryka (E=m*g);
4) Czas trwania impulsu zależy od ogólnej sumy energii grawitacyjnych oddziaływań ciał
niebieskich (głównie Słońca i Księżyca);
5) Podczas powrotnego ruchu wahadła występują zakłócenia ruchu na określonych poziomach
odchylenia, zależnych od wpływu poszczególnych ciał niebieskich.

Wieloimpulsowe grawitatory, jako wysoko wydajne silniki elektryczne, miały już wkrótce znaleźć
zastosowanie komercyjne do napędu oceanicznych liniowców, gdzie ich masa rzędu setek ton nie
przeszkadzałaby. Wiadomo jak wyszło.
Natomiast urządzenia do łączności za pomocą fal grawitacyjnych opisałem w przedostatnim
rozdziale.

Od 1930 roku T.Brown pracował w Laboratoriach Badawczych Marynarki Wojennej Stanów


Zjednoczonych (Naval Research Laboratories) w Waszyngtonie. Te badania po dziś dzień objęte są
tajemnicą wojskową. Amerykanie uwielbiają utajniać odkrycia naukowe i wynalazki o potencjalnie
militarnym zastosowaniu, łudząc się, że nikt się nie domyśli, a jak się u nich ktoś domyśli, to
zabronią publikacji (w Stanach Zjednoczonych i Wielkiej Brytanii jest urzędowy zakaz
publikowania jakichkolwiek tekstów naukowych dotyczących elektrograwitacji, stąd przekonanie
wielu naukowców o nieistnieniu zjawiska – skoro nie piszą, to nie ma). Przecież są pępkiem świata,
więc mieszkańcy innych krajów nie mają szans powiązać faktów. Przynajmniej w przypadku tej
książeczki im nie wyszło:)
Niestety, taka postawa utajniania wyrządza szkody nie tylko środowisku naukowemu, ale i
zwykłym ludziom. Mentalność jest ściśle powiązana z rozpowszechnionym w danej populacji
obrazem świata, więc jakiekolwiek próby jego zniekształcenia, nawet poczynione w dobrej wierze,
mogą negatywnie wpływać na postępowanie ze względu na brak informacji potrzebnych do
podejmowania decyzji. Przykładem niech będą polowania na czarownice.

Eter-ZPE

Grecki filozof Arystofanes (446-385 pne) nie tylko opisał działanie soczewki, ale również uważał,
że atomy to wiry eteru.

Natomiast Arystoteles (384-322 p.n.e.) stwierdził, że "Woda jest podstawową zasadą wszelkich
rzeczy, z której wszystko powstało, wciąż na nowo powstaje i do której także wszystko kiedyś
powróci. Przemiana rzeczy wywodzi się z zagęszczania i rozcieńczania."
Wiedza ta pierwotnie pochodzi od pobierającego nauki w Egipcie Talesa, dla którego 'woda'
oznaczała 'przestrzeń'.
Arystoteles uważał, iż świat zbudowany jest z pięciu żywiołów: ziemi, wody, powierza, ognia oraz
eteru, którym przyporządkował wielościany foremne. Te koncepcje zadomowiły się na dwa
tysiąclecia i obowiązywały w Europie przez całe średniowiecze. Nie będę ich tutaj szczegółowo
omawiał, gdyż w wielu aspektach okazały się błędne, czy raczej robią wrażenie zniekształconych,
których nawet ich twórca nie do końca rozumie. Wyraźnie zostały zainspirowane jakimś znacznie
starszym systemem wiedzy.
Arystoteles wykluczał możliwość istnienia absolutnej próżni, będącej pustką, gdyż nie stawiałaby
oporu dla poruszających się przedmiotów, umożliwiając im osiąganie nieskończonych prędkości.
Powiedzenie Arystotelesa, że „przyroda nie znosi próżni” (horror vacui), obowiązywało do XVII
wieku.
W 1644 roku Włoch Toricelli, sekretarz Galileusza, wynalazł barometr, który wzbudził sporo
kontrowersji. Kilka lat później Blaise Pascal eksperymentalnie potwierdził możliwość otrzymania
próżni, a w 1654 roku Otto von Guericke, burmistrz Magdeburga, zademonstrował miedzianą
kulę, składającą się z dwóch półkul, spomiędzy których wypompowano powietrze. Każda z półkul
była ciągnięta przez zaprzęg złożony z ośmiu koni, które nie były w stanie ich rozłączyć (rys.7)

Odkrycie próżni spowodowało powrót do atomistycznych koncepcji Demokryta, w których


„istnieją tylko atomy i próżnia”, a które to przeświadczenie pozostało po dziś dzień w świadomości
ludzkiej. Wiedza średniowiecza trafiła do kosza, dzisiaj mało kto wie, co to 'Złota Proporcja' czy
'harominiki'. Całe nieporozumienie wynika z tego, iż próżnia nie jest pustką, jest tym samym co
eter, lecz nasze zmysły, a do niedawna przyrządy, nie były w stanie go wykryć.

W książce Juliusza Verne'a zatytułowanej “Łowcy Meteorów” znalazłem taki ciekawy oraz
elegancki opis, nie pasujący do ówczesnych czasów:
“Dla Zefiryna Xirdala materia jest tylko złudzeniem; nie istnieje w rzeczywistości. Twierdzi on, że
mógłby udowodnić to niemożliwością wyobrażenia sobie jej wewnętrznej struktury. Choćby się ją
rozkładało na cząsteczki i atomy, pozostanie zawsze ostatni szczebel podziału, dla którego problem
będzie znów przedstawiał się w ten sam sposób- i trzeba będzie wiecznie zaczynać na nowo aż do
przyjęcia jakiejś zasady pierwszej, która nie będzie materią. Tą pierwszą zasadą niematerialną jest
energia.
Co to jest energia? Zefiryn Xirdal wyznaje, że nic o niej nie wie. Ponieważ człowiek utrzymuje
kontakt ze światem zewnętrznym jedynie za pomocą zmysłów, a zmysły ludzkie wrażliwe są tylko na
bodźce materialne, wszystko co nie jest materią, pozostaje dla człowieka nie znane. Jeśli można
wysiłkiem czystego rozumu przyjąć istnienie świata niematerialnego, niemożliwe jest poznanie jego
natury w braku czynników poznawczych. I będzie tak, póki ludzkość nie zdobędzie nowych zmysłów,
co nie powinno być z góry uważane za nonsens.
Jakkolwiek by było, energia- według Zefiryna Xirada- wypełnia wszechświat i oscyluje wiecznie
między dwiema skrajnościami: absolutną równowagą (która może być osiągnięta tylko przez
jednolite rozmieszczenie energii w przestrzeni) i całkowitym jej skupieniem w jednym punkcie.
Punkt ten byłby w tym przypadku otoczony próżnią. Ponieważ przestrzeń jest ograniczona, obie te
skrajności są w równym stopniu nieosiągalne. Wynika stąd, że energia pozostaje w nieustannym
ruchu. Ciała materialne absorbują bez przerwy energię skupioną w przestrzeni, wywołując siłą
rzeczy w innym miejscu względną próżnię, z drugiej zaś strony materia wypromieniowuje w
przestrzeń uwięzioną w niej energię.
W przeciwieństwie więc do klasycznej zasady: "nic nie ginie i nic się nie staje", Zefiryn Xirdal
głosi, że "wszystko ginie i wszystko się staje". Substancja ustawicznie niszczeje i wiecznie się
odradza. Każdej z tych zmian towarzyszy promieniowanie energii i niszczenie odpowiedniej
substancji. Jeśli tego rozpadu nie możemy stwierdzić naszymi przyrządami, to dlatego, że są one
niedoskonałe, gdyż olbrzymia ilość energii mieści się w znikomej cząstce materii. Zdaniem Zefiryna
Xirdala wyjaśnia to, dlaczego gwiazdy przedzielone są przestrzeniami olbrzymimi w porównaniu z
ich mierną wielkością.
Rozpad ten, choć nie stwierdzony, niemniej istnieje. Dźwięk, ciepło, elektryczność, światło są tego
pośrednim dowodem. Zjawiska te polegają na promieniowaniu materii i mamy w nich do czynienia
z energią wyzwoloną, choć jeszcze w formie niedoskonałej i na wpół materialnej. Energia czysta,
jakby wysublimowana, może istnieć jedynie poza granicami światów materialnych. Otacza te
światy dynamosferą w stanie napięcia wprost proporcjonalnego do ich masy i tym mniejszego, im
bardziej oddalamy się od ich powierzchni. Objawem tej energii i jej tendencji do coraz większego
zagęszczania jest siła przyciągania.”

Nicola Tesla (1856-1943r.) podczas odczytu w Amerykańskim Instytucie Inżynierii Elektrycznej


powiedział:
"Zanim minie wiele pokoleń, nasze maszyny będą napędzane energią dostępną w każdym zakątku
wszechświata. Ta idea nie jest niczym nowym... Odnajdujemy ją w cudownym micie o Anteuszu,
który chłonął energię wprost z ziemi; tkwi ona między wierszami subtelnych rozważań
matematycznych jednego z naszych wspaniałych matematyków... Tam, gdzie jest przestrzeń, jest i
energia. Czy jest ona statyczna, czy kinetyczna? Jeśli statyczna, nasze nadzieje są próżne; jeśli
kinetyczna- a tak jest na pewno- jest tylko kwestią czasu, kiedy człowiekowi uda się podczepić swoje
maszyny pod koło napędowe natury."

Natomiast w swoim niepublikowanym artykule pt. "Największe Osiągnięcia Człowieka" napisał:


"Człowiek od samego początku swego istnienia był upartym poszukiwaczem tajemnic. Chciał je
odkryć, by naśladować naturę, tworzyć, włączyć się w cuda, które obserwował. Dawno temu
zrozumiał, że widzialna materia pochodzi od pierwotnej substancji (zwanej Akaszą lub eterem),
nieprawdopodobnie wręcz rozrzedzonej i wypełniającej cały wszechświat, która obdarza
materialne twory praną, zwaną też energią życia. Powołuje je do istnienia w nigdy niekończącym
się cyklu wszystkich rzeczy i zjawisk. Ta pierwotna substancja, skręcona w nieskończenie maleńkie
wiry o fantastycznie wielkich prędkościach, staje się prawdziwą materią; a kiedy jej moc się
zmniejsza, ruch zostaje wstrzymany, to materia znika, przechodząc znów w pierwotną substancję."

Uważał, że energia i materia mogą być zredukowane do energii potencjalnej, eteru, który
zachowuje się w stosunku do ciał stałych jak ciecz, oraz jak ciało stałe w stosunku do światła i
ciepła. Próbował uzyskać dostęp do tej siły przy pomocy wysokich napięć i częstotliwości.
To mało znany wątek z życia tego wynalazcy. Poznał poglądy Swamiego Vivekanandy,
pierwszego jogina który przywiózł do USA i Europy filozofię i religię wedyjską.

W początkach XX wieku fizycy zaniechali koncepcji eteru na rzecz 'czasoprzestrzeni' Einsteina.


Lecz ledwo teoria względności zadomowiła się na dobre, już pojawiła się teoria kwantowa.
Współcześnie teoria 'elektrodynamiki kwantowej' Richarda Feynmana (1918-1988r.) daje
wyobrażenie próżni jako 'piany kwantowej', a cząstek subatomowych jako jej lokalnych zakłóceń.
Czyli znowu powracamy do Arystotelesowskiej koncepcji generowania materii z otaczającej
przestrzeni.

Radziecki uczony, dr Nikołaj A. Kozyriew (1908-1983r.), doszedł do wniosku, że przepływ tej


energii odbywa się spiralnie i determinuje widoczną asymetrię w świecie przyrody - muszle
narastają w jednym kierunku, serce znajduje się z lewej strony ciała itp. Organizmy czerpią tą
spiralną energię do podtrzymania swojego istnienia, a szkielet można traktować jako rodzaj anteny
odbiorczej. Stwierdził, że upływ czasu, zmiany, są konsekwencją tego właśnie spiralnego ruchu.
Przeprowadzał eksperymenty które wykazały, że podczas wstrząsania, wirowania, ogrzewania,
oziębiania, wibrowania oraz przełamywania przedmiotów następuje zmiana ich masy w
porównaniu ze spoczynkową (analogia do gąbki zanurzonej w cieczy). Okazało się, że 'pola
torsyjne' (czyli obracające się pola energetyczne, skierowane pod pewnym kątem do pola
magnetycznego) których istnienie przewidywała już teoria Einsteina-Cartana z 1913 roku,
rozchodzą się z prędkościami nadświetlnymi, są absorbowane przez cukier (molekuły
prawoskrętne), wzmacniane przez terpentynę (molekuły lewoskrętne), ekranowane przez folię
polietylenową lub aluminiową, oraz odbijane przez lustra i aluminium. Czyli są zbliżone do
znanych w Chinach właściwości 'chi' (siły życiowej).
Dziś także wiadomo, że właściwości lekarstw różnią się w zależności od kierunku skręcenia ich
cząsteczek, pomimo identycznych właściwości chemicznych, co nastręcza sporych problemów
podczas produkcji. Substancje naturalne z reguły są lewostronne, ich prawostronna wersja może
okazać się toksyczna.

Pewne pojęcie z jak wielkimi energiami mamy tu do czynienia, daje istnienie 'siły Casmira'. Otóż
elektromagnetyczne fluktuacje próżni, przy temperaturach bliskich zeru bezwzględnemu, ściskają
dwie płytki z dielektryka znajdujące się blisko siebie. Przy uzyskiwanych odległościach rzędu 14
angstremów siła ta wynosi ponad dziesięć ton na metr kwadratowy.

Profesor M.T. Daniels ustalił, że gęstość energii grawitacyjnej w pobliżu Ziemi wynosi 5,74x1010
(t/m3). Pobranie 100kW energii z pola grawitacyjnego zużyje 0,001 procenta potencjału w danym
miejscu2.

Fizycy dr John Wheeler oraz dr Richard Feynman obliczyli, że ilość energii punktu zerowego w
przestrzeni o objętości jednej żarówki wystarczy do ugotowania wody we wszystkich oceanach.

Używam tradycyjnego określenia „eter”, pomimo oficjalnego obalenia tej dziewiętnastowiecznej


hipotezy. Otóż udowodniono wtedy jedynie błędność jednej z wielu ówczesnych hipotez, a
mianowicie hipotezę statycznego eteru. Było ich więcej, o niektórych nawet nie wspominają
współczesne podręczniki, co wykazały powyższe cytaty. Na pewno 'eter' nie okazał się substancją
podobną do cieczy ani gazu. Jest tożsamy z określeniem 'czasoprzestrzeń' (ach, ta wredna 'stała
kosmologiczna', z którą Einstein nie mógł sobie poradzić), 'próżnia fizyczna', 'energia punktu
zerowego' (ZPE), 'pole kwantowe' i wieloma innymi.

Hipoteza grawitacji

Ten rozdział powstał w oparciu o teorię opracowaną przez Tony'ego Cuthberta, którą rozwinąłem,
by wyjaśniła doświadczenia T. Browna, a także zjawisko grawitacji.
Dla uproszczenia przyjmijmy znany wszystkim ze szkoły planetarny model atomu Ernesta
Rutherforda (1871-1937r.) z 1911 roku, w którym elektrony obiegają jądro po orbitach.
Wyjaśnienia będą również pasować do bardziej współczesnego modelu Bohra, rozwiniętego przez
Schrodingera, lecz opis elektronów jako fali stojącej obiegającej atom i posiadających funkcję
falową tylko zaciemniłby obraz.

Wyobraźmy sobie najprostszy atom wodoru, w którym elektron obiega po kołowej orbicie jądro
składające się z protonu. Prędkość elektronu jest stała, bliska prędkości światła.
Nagle jakaś siła zaczyna przesuwać obiekt zbudowany z naszego atomu. Skoro prędkość elektronu
jest stała i nie może przyspieszyć ponad prędkość światła, to nie nadąża. Ruch atomu powoduje
zniekształcenie orbity, jej wydłużenie w stronę przeciwną do ruchu. Wydłużenie będzie
proporcjonalne do przyspieszenia działającego na atom. Natomiast wewnątrz atomu powstanie
niezrównoważona siła, skierowana przeciwnie do przyspieszenia. I oto mamy wyjaśnienie zjawiska
bezwładności.

Teoria ta podaje wyjaśnienie grawitacji jako zniekształcenia orbity elektronowej ku dołowi wskutek
przyciągania. Nie mogę zgodzić się z tą interpretacją, ponieważ gdyby elektrony były
„przyciągane” przez jakąś tam „siłę grawitacji”, to dlaczego nie miałaby ona przyciągać również
samego jądra atomu? Wtedy wyjaśnienie w postaci zniekształcenia orbity byłoby zbędne, bo i tak
działała by siła ciążenia. Wyjaśnienia należałoby poszukać gdzie indziej. Najwyraźniej
zniekształcenie orbity ku dołowi ma faktycznie miejsce w pobliżu innych ciał, lecz przyczyna jest
zupełnie inna. Dalsze wyjaśnienie jest już moje.

Jak wykazała teoria względności Einsteina, czasoprzestrzeń ulega „zakrzywieniu” w pobliżu ciał
materialnych. Można to sobie wyobrazić jako zagęszczenie przestrzeni, czasoprzestrzeni, próżni
czy eteru, jaką nazwę kto woli. Atom zajmuje określoną powierzchnię w przestrzeni, więc jego
krańce znajdą się w różnych gęstościach próżni. To spowoduje zniekształcenie orbity elektronowej,
jej wydłużenie w kierunku większej gęstości, czyli powstanie niezrównoważona siła pchająca atom
w dół. Jeśli przyjmiemy, że materia jest generowana z energii próżni, to mamy wyjaśnienie owego
tajemniczego zagęszczenia w pobliżu obiektów materialnych.

Nie bardzo wiem, jak wyjaśnić siłę ciążenia działającą na cząstki subatomowe. Może ma to jakiś
związek z ich spinem oraz wymiarami w przestrzeni.

Łatwo obliczyć potrzebną częstotliwość rezonansowego pola elektromagnetycznego, gdyż stanowi


odwrotność czasu obiegu elektronu.

Ciekawostką związaną z napędem elektromagnetycznym jest jego potencjalna wrażliwość na


zewnętrzne pola. Silny impuls z radaru mógłby zakłócić wewnętrzny rezonans silnika i zmusić do
awaryjnego lądowania lub nawet spowodować rozbicie się pojazdu.
Kolejną ciekawostką jest brak jakichkolwiek przeciążeń związanych z wykonywaniem manewrów,
gdyż siła napędowa działałaby na wszystkie przedmioty wewnątrz, w tym na załogę.
Rozwiązany także zostałby problem mikrometeorów oraz naładowanych cząstek, tak
niebezpiecznych podczas szybkiego przemierzania kosmosu. Otóż pole elektromagnetyczne statku
miałoby przeciwny zwrot na zewnątrz niż w środku. Na materię statku działałaby siła skierowana w
przód, a na materię na zewnątrz w tył, więc wszelkie niebezpieczne śmieci po prostu zostałyby
odrzucone od kadłuba i na zasadzie akcji i reakcji (czyli odrzutu) zwiększyłyby siłę napędową.
Koncepcja Cuthberta została potwierdzona doświadczalnie przez BAE Systems
(www.baesystems.com) oraz brytyjską Agencję Opracowań i Badań Obronnych (DERA – Defence
Evaluation and Research Agency www.dera.gov.uk) i prawdopodobnie już znalazła zastosowanie w
układach napędowych satelitów.

Lecz dotychczasowe pędniki mają zbyt małą moc, by napędzać statek kosmiczny z prawdziwego
zdarzenia. Bardzo silny elektromagnes wymyślił nasz rodak – dr Jan Pająk. To rodzaj komory w
kształcie sześciennej kostki, w której boczne ścianki są elektrodami. W środku nie ma nic
specjalnego, tylko próżnia i wirujące w kółko ładunki elektryczne.

Byłbym zapomniał o obiecanym wyjaśnieniu zjawiska elektrograwitacji:)


Podczas ładowania kondensatora na elektrony (posiadające przecież ładunki ujemne) atomów
dielektryka działa siła skierowana ku dodatniej okładce, co powoduje zniekształcenie orbity.

Wystrzałowy Wszechświat

Aktualnie obowiązującą teorią powstania Wszechświata jest model Wielkiego Wybuchu. Wygrał
on z konkurencyjną teorią Stałego Stanu (która zakładała rozszerzanie się przestrzeni i powstawanie
nowej materii między galaktykami) w latach pięćdziesiątych XX wieku, kiedy okazało się, że
mikrofalowe promieniowanie tła ma potwierdzające go cechy, takie jak widmo zbliżone do widma
ciała doskonale czarnego.
Drugim dowodem na rozszerzanie się wszechświata jest przesunięcie widma gwiazd ku czerwieni,
tłumaczone zjawiskiem Dopplera. Nie dawało mi to spokoju, gdyż dla mnie takie wyjaśnienie nie
jest oczywiste. Podejrzane jest to, że przesunięcie jest proporcjonalne do odległości, im obiekt dalej
się znajduje, to szybciej zdaje się oddalać. Mnie to bardziej wygląda na cechę samej przestrzeni,
która powoduje utratę energii fali i proporcjonalne do odległości zmniejszenie jej częstotliwości. W
jakiś sposób sama przestrzeń wydaje się pochłaniać energię.

Teoria Wielkiego Wybuchu ładnie wygląda w książeczkach dla dzieci, lecz zajmujący się nią
naukowcy zdają sobie sprawę z różnic pomiędzy przewidywaniami a wynikami obserwacji. Była
ona wielokrotnie korygowana, lecz poprawienie jednej części teorii powoduje posypanie się innej i
kolejną niezgodność z obserwacjami. Porzucić teorii też nie można, bo nie ma konkurencyjnej, a
naukowcy za nic nie przyznają się, że czegoś nie potrafią wytłumaczyć, w dodatku tak
fundamentalnego jak powstanie Wszechświata. Przecież nie stwierdzą, jak to mają w zwyczaju, że
Wszechświat jest „zjawiskiem paranormalnym”, więc nie istnieje, nie ma sensu go badać, gdyż
każdy go widzi:)

Zetknąłem się z ciekawą teorią 'Ekspandującej Skali Kosmosu' autorstwa dr Johna Masrelieza,
(www.estfound.org) według której Wszechświat rozszerza się przez zmianę skali, zarówno
przestrzeni, jak i czasu. Czyli przestrzeń się poszerza, przedmioty powiększają, a równocześnie czas
ulega spowolnieniu (dzięki spowolnieniu czasu zachowana jest zasada termodynamiki i
Wszechświat jako całość nie jest maszyną typu 'perpetuum mobile'). Może tak sobie ekspandować
w nieskończoność, nie ma początku ani końca. Z powodu braku punktu odniesienia leżącego poza
naszym Wszechświatem nie jesteśmy w stanie bezpośrednio tego zaobserwować. Teoria zakłada
również możliwość istnienia wielu wszechświatów, różniących się skalą wielkości oraz szybkością
upływu czasu. Rozwiązuje ona problem kosmologicznej ramy odniesienia.
Ciekawy efekt dała próba wymodelowania przy użyciu ogólnej teorii względności. Da się tylko
przy założeniu, że zmiany nie są płynne, lecz skokowe. Taka dyskretna (skokowa) ekspansja
połączy również teorię względności z kwantową.
Jak dotychczas, teoria ta wyjaśnia wszelkie obserwacje.

Rzeczywistość wirtualna

Materia jest najprawdopdobniej generowana z otaczającej przestrzeni. Oznacza to, że czas nie jest
liniowy, analogowy, lecz skwantowany, cyfrowy. Mamy do czynienia z serią następujących po
sobie nieruchomych obrazów, lecz z powodu bardzo krótkiego czasu ich następowania po sobie
(sekunda Plancka =10- 44s) nie dostrzegamy tego na co dzień. Może skwantowanie czasu jest
przyczyną skończonej prędkości światła? Światło porusza się (zazwyczaj) z pewną maksymalną
prędkością, gdyż foton może przebyć tylko skończoną odległość pomiędzy kolejnymi momentami
istnienia nieruchomego świata.

Koncepcja czasu składającego się z oddzielnych momentów nie jest niczym nowym, sformułował
ją już w XIV wieku Mikołaj z Autrecourt (ok. 1300-1350r.), zwolennik filozofii Epikura. Nie
wiem, czy potrafił ją uzasadnić, zapewne tylko próbował zastosować koncepcję atomizmu do
upływu czasu.

Załóżmy, że materia jest generowana z otaczającej ją próżni. Gdyby mogło to odbywać się w
dowolnych momentach czasu, to każda cząstka materii byłaby w innej fazie tworzenia. Masowo
obserwowalibyśmy, jak otaczające nas przedmioty stają się częściowo półprzeźroczyste i znikają,
gdyż ich atomy akurat znajdowałyby się w innej fazie niż nasza. Czasem noga wpadłaby w
podłogę, a ręka nie mogła uchwycić klamki, natomiast ze szklanki napój wypłynąłby przez ścianki.
Czasem takie rzeczy się dzieją, naukowcy nie wiedzą, jak to wytłumaczyć, a to po prostu może być
zakłócenie wywołane jakąś przypadkową interferencją pól elektromagnetycznych z materią.
Skoro na co dzień nie obserwujemy takich zdarzeń, oznacza to, że otaczające nas przedmioty są
generowane w tym samym momencie czasu co my, znajdują się w tej samej fazie. Czyli
generowanie materii z próżni jest w jakiś sposób zsynchronizowane, odbywa się równocześnie w
całym Wszechświecie. Więc czas w świecie materialnym płynie skokowo.

Przypomina to trochę wirtualny świat generowany przez komputer i wyświetlany na ekranie.


Wirtualne postaci nie zdają sobie z tego sprawy, dla nich jest jedyną znaną rzeczywistością.
Wszechświat oczywiście nie przypomina naszych komputerów, ale wyraźnie ma algorytmy nim
sterujące, może nawet jakąś formę świadomości, dla której nasza rzeczywistość jest czymś
podobnym do snu.

Ta „Cała Świadomość” jest rozszczepiona na niezliczoną liczbę świadomości cząstkowych, które za


pomocą istnienia w świecie materii rozwijają się, by kiedyś powrócić i połączyć się ze swoim
źródłem. Choć to nie ma nic wspólnego z ludzkim, religijnym wyobrażeniem Boga, gdyż
Wszechświat nie ma punktu centralnego. Prowadzi to do dwóch pozornie wykluczających się, a
zarazem uzupełniających nawzajem wniosków:
1) Boga nie ma. Światem rządzą tylko „naturalne” i „bezduszne”, bezcelowe algorytmy.
2) Wszystko jest Bogiem. Wszystko jest celowe.
Ta druga możliwość jest na tyle ciekawa, że skoro Bóg jest wszędzie i we wszystkim, to
wykluczona jest możliwość monopolistycznego pośrednictwa kapłanów pomiędzy Nim a ludźmi.
Marmurowa świątynia nie byłaby bardziej świętym miejscem niż ziarenko piasku na pustyni. A co
najgorsze, zarówno włóczęga, jak i ten okropny sąsiad, któremu zawsze się lepiej powodzi a nie
powinno, nawet trawę w ogródku ma jakby bardziej zieloną, również mają cząstkę boskości w
sobie.

Z szybkością myśli

Odległości dzielące gwiazdy znakomicie utrudniają swobodne podróże. Twórcy science-fiction


wpadli na dwa pomysły obejścia tego ograniczenia:
1) Tunele czasoprzestrzenne. Sztuczne lub naturalnego pochodzenia. Te twory miałyby
rzekomo umożliwiać obejście naszej trójwymiarowej rzeczywistości i skrócić drogę.
Pobieżne nawet wyliczenia wskazują, że potrzebne poziomy energii byłyby iście
astronomiczne, raczej niemożliwe do sztucznego wytworzenie. A przy okazji poziomy
radiacji zabiłyby ludzi.
2) Teleportacja. Chodzi o rozłożenie człowieka na cząsteczki, przesłanie ich i ponowne
złożenie. Wyjątkowo skomplikowana sprawa.

Chyba nikt nie wpadł na trzecią możliwość, jest ona zbyt oczywista. Materia posiada dwie
cyklicznie następujące po sobie fazy. W pierwszej są znane nam cząstki, w drugiej energia próżni i
informacja. Ta „informacja” to archetyp, idea, program wszechświata itp. Już Platon wyobrażał
sobie, że to, co dostrzegamy, jest tylko odbiciem innej rzeczywistości. Arystoteles zaś spekulował
istnienie świata idei, które oblekają się w niedoskonałą, materialną formę, jaką dostrzegamy.
Koncepcja generowania materii z próżni również wymusza wniosek, że to tworzenie musi
następować wedle jakiejś idei spoza świata materialnego. Te najbardziej elementarne idee są nam
znane jako prawa przyrody, opisywane wzorami matematycznymi. Tylko że Wszechświat nie jest
sterowany wzorami matematycznymi, prawa przyrody są wynikiem powstania w eterze sieci fali
stojącej, tworzącej wielościany formene o strukturze fraktalowej. To rodzaj naturalnego algorytmu.
W fazie energii i informacji nie istnieje odległość w formie, jaką znamy. Informacja może
„przeskoczyć” w dowolne inne miejsce we Wszechświecie, nie podlega fizycznym ograniczeniom.
Natomiast energia próżni jest wszędzie, wytworzy materię zgodnie z nakazem lokalnego algorytmu.

Można to sobie wyobrazić w następujący sposób – pojazd startuje, wznosi się. Seria nieruchomych
obrazów następujących po sobie, dających złudzenie ruchu, jak obraz telewizyjny. W momencie
pomiędzy klatkami filmu informacja przeskakuje w inne miejsce. Podobnie bywa w grze
komputerowej, algorytm postaci jest przenoszony na inną planszę, postać znika i pojawia się w
innej krainie. Nagle nasz pojazd znika, niemal w tej samej chwili pojawia się nad inną planetą.
Skoro „idea” pojazdu znalazła się gdzie indziej, to jest on tam odtwarzany z energii próżni. To
ciągle ten sam pojazd, fizyka już udowodniła, że cząsteczki subatomowe nie mają „osobowości”,
czyli są w pełni wymienne. Jeśli w jakimś układzie wymienimy elektron na inny elektron, stan
układu się nie zmieni, nie będzie można dostrzec różnicy.

Na ewentualny zarzut odnośnie złamania zasady zachowania energii jest odpowiedź w ostatnim
rozdziale.

Wehikuł czasu

Podróże z szybkością myśli, opisane w poprzednim rozdziale, na pewno nie będą proste do
zrealizowania. Nic też nie stoi na przeszkodzie, by zamiast w przestrzeni „algorytm” pojazdu
poruszał się w czasie. Oczywiście skala trudności będzie znacznie większa.
Dualizm korpuskularno-falowy

Na początku XX wieku fizycy natknęli się na dziwną właściwość materii, zarówno fotonów,
elektronów jak i całych atomów (fala materii DeBroglie'a). Zachowują się ona jak fale, a
równocześnie jak cząstki, zależy co jest wygodniejsze dla obserwatora. Koncepcja dwóch
cyklicznie następujących po sobie faz wyjaśnia tą pozorną sprzeczność. Cząsteczki są zarówno
falami rozchodzącymi się w eterze jak i korpuskułami, tyle że obydwa stany występują
naprzemiennie po sobie.

Replikatory

W Star-Treku pojawił się pewien wynalazek – replikator, urządzenie do materializacji


przedmiotów. Idea jest prosta, wystarczy połączyć pojedyncze atomy w kompletne przedmioty czy
posiłki. Można to udoskonalić, po co mozolnie układać atom po atomie? Wystarczy urządzenie,
które odtwarza kopię algorytmu, czyli holograficznej fali stojącej eteru. Z eteru pobrałaby się
energia i z niej zbudowany kompletny przedmiot. Można by materializować projekty bezpośrednio
z pamięci komputera. Albo skanować i wiernie kopiować istniejące przedmioty. Marzenie każdego
fałszerza pieniędzy, lecz wtedy dobra materialne przestałyby mieć jakąkolwiek wartość, bo każdy
mógłby sobie zmaterializować co tylko ma ochotę, od pizzy po złoty naszyjnik z diamentami,
ograniczeniem byłaby wyobraźnia i zdolności projektowania.

Nieśmiertelność

Jeśli można kopiować i materializować przedmioty, to również zwierzęta oraz ludzi. Nawet
wystarczyłaby próbka DNA, by móc odtworzyć całe ciało. Gorzej z umysłem, ale jeśli uda się go
kiedyś zeskanować i skopiować, śmierć przestałaby być większym problemem. Zawsze można by
było przywrócić „kopię zapasową”, odtworzyć człowieka.

Wspominam o tej możliwości, bo to ciekawy wątek. Umysł człowieka, pamięć, coś, co można
nazwać „duszą”, nie znajduje się bezpośrednio w ciele fizycznym. W mózgu znajduje się tylko
pamięć krótkoterminowa. Mózg jest formą komputera kwantowego, zapisującego i odczytującego
informacje z eteru. To sam Wszechświat posiada „pamięć”, zapis wszystkiego co się wydarzyło i
ukształtowanej już przyszłości, opartej na najmniejszej linii oporu. To do tego zapisu dopasowuje
się rzeczywistość fizyczna. Jeśli stojąca na wzniesieniu dorożka ma tendencję do zjazdu w dół, nie
musi oznaczać, że działa jakaś tam siła. To po prostu z zapisu wynika, że w
najprawdopodobniejszej przyszłości, opartej na najmniejszej linii oporu, dorożka będzie zjeżdżać w
dół. By sprawić, aby dorożka wjechała, należy zmienić zapis przyszłości. Do zmiany potrzebne jest
włożenie siły, energii fizycznej lub psychicznej. Im większa wymagana zmiana przyszłości, tym
większy wysiłek. Prawa Newtona opisują tylko pozory, które dostrzegamy. Żadna „siła” nie może
działać, gdyż wszystkie momenty czasu są nieruchome.
Przyszłość ma tendencję do dopasowywania się do naszych oczekiwań, wyobrażeń oraz niestety
lęków. Czasem przybiera to formy uznawane za „paranormalne”, które tak naprawdę polegają na
zdolności umysłu do zmiany zapisu przyszłości. Lecz najczęściej to nie są spektakularne sztuczki,
takie jak wykrzywianie łyżeczek lub rzucanie zaklęć. Każdy człowiek kształtuje swoją przyszłość
za pomocą swoich wyobrażeń, lecz większość nie uświadamia sobie tego. Kluczową rolę odgrywa
przy tym podświadomość, której ludzie nie zauważają i nie kontrolują. Dlatego marzenia o
wygranej w totolotka raczej się nie ziszczą. Lepsze rezultaty daje skierowanie toku myśli na to, co
chce się zrobić w przyszłości, a nie co chce się mieć.
Pamięć Wszechświata to po prostu wynik tego, że na pewnych jego poziomach, poza światem
materialnym, czas ani odległość nie istnieją, wszystko dzieje się równocześnie. We wzorach
matematycznych ta rzeczywistość spoza trójwymiarowej przestrzeni Kartezjusza oraz czasu jest
symbolizowana przez liczby zespolone. Słynne powiedzenie tego filozofa „myślę, więc jestem”
(cogito, ergo sum) odnosi się do podziału na ciało, które posiada trójwymiarowość, przedłużenie w
przestrzeni (res extensa – rzecz rozciągła), oraz na umysł, byt duchowy, istniejący poza przestrzenią
(res cognita – rzecz myśląca). Ten drugi hermetyzm utożsamiał z 'prima materia' (materią
pierwotną):
W ośrodkach formy
Pierwotna materia się maskuje
Informując gospodarza,
Którym potajemnie kieruje.

Natomiast przyszłość jest zdeterminowana wolą, która ją kształtuje.

Szkoła

Nie mogłem się powstrzymać od poruszenia tego tematu. Otóż uważam istnienie takich instytucji za
jeden z największych absurdów „cywilizacji białego człowieka”. Łatwo to uzasadnić – skoro dzieci
chodzą do szkoły, a po szkole muszą odrabiać lekcje, to kiedy znajdą czas na czytanie książek?
Aktualny model edukacji może był dobry pod sam koniec średniowiecza, kiedy istniały ręcznie
pisane manuskrypty, właśnie zastępowane przez drukowane książki. Zasób wiedzy był ograniczony
oraz panował jeden oficjalny światopogląd, od którego odstępstwo kończyło się stosem.

Jak dotąd nie opracowano technologii pozwalających na transfer wiedzy oraz umiejętności wprost
do umysłu, choć nawet Biblia wspomina o takiej możliwości (chodzi o scenę, w której Jahve
„zesłał ducha swego” na niektórych z koczujących pod górą Synaj synów Izraela, by ci posiedli
umiejętności niezbędne do wykonania Jego szczegółowych instrukcji dotyczących budowy
namiotu, świecznika, arki, stołu ofiarnego, szat kapłańskich, naszyjników oraz innych gadżetów
niezbędnych do czynności religijnych). Udaje się powtórzyć w laboratorium proces kreacji życia, to
da się kiedyś i to.

Ale są już inne technologie przydatne w edukacji – filmy, grafika komputerowa itp. W jednym
kilkugodzinnym filmie dokumentalnym można streścić podstawy jednego przedmiotu ze szkoły
podstawowej lub średniej, a dźwięk połączony z wizualizacją łatwiej zapamiętać od wykładu
znudzonego nauczyciela, który musi powtarzać to samo po raz setny kolejnej klasie, coś rysuje lub
pisze na tablicy, a uczniowie muszą to przerysować do zeszytów. Filmy ułatwią pracę nauczycieli,
zmniejszą ilość uczniów przypadających na jednego nauczyciela oraz umożliwią zwiększenie ilości
zajęć praktycznych.
Przekaz audiowizualny ma wiele zalet, oglądanie go nie jest męczące tak jak uczestnictwo w
tradycyjnej lekcji. Jest wręcz relaksujące, tak jak każde inne oglądanie telewizji. Można go obejrzeć
wielokrotnie, w całości lub fragmentach. Co jest łatwiejsze – przeczytanie podręcznika czy
obejrzenie filmu ukazującego wizualizację wnętrza komórki lub atomu, wraz z omówieniem ich
części składowych oraz ukazaniem interakcji pomiędzy nimi? Pokazanie symulacji kwarków
tkwiących w protonach byłoby zrozumiale dla każdego, w odróżnieniu od tradycyjnego
wyprowadzania wzorów (dlatego większość ludzi nie wie, czym są kwarki, ani nawet że coś takiego
może istnieć). Matematyka też jest ważna, lecz jej poziom abstrakcji tylko utrudnia wyobrażenie
sobie zagadnień, których dotyczy. Najpierw powinien być opis zjawiska, dopiero później wzory go
dotyczące.
Takie filmy powinny powstać z funduszy publicznych, muszą być dostępne bezpłatnie dla każdego
zainteresowanego. Lecz ten sposób finansowania wiąże się z pewnym ryzykiem, że będą nudne,
monotonne i przegadane, jak seriale telewizji publicznej. Twórcy nie mogą zapominać, że chodzi o
zobrazowanie podstaw całości zagadnienia, by ułatwić później chętnym wgłębianie się w
szczegóły, zawarte w kolejnych filmach czy literaturze. Trudno nauczyć przedmiotu omawiając go
po kawałku, jak to jest w tradycyjnym szkolnictwie, bo uczeń w końcu straci wątek i cierpliwość.
Słowami nie można wszystkiego jednocześnie opowiedzieć, obrazem już tak.

Coraz częściej mówi się o „nowoczesnej szkole”, wyposażonej w komputery, interaktywne tablice i
inne techniczne zabawki. Lecz one są tylko gadżetami, nie wprowadzają nowej jakości nauczania.
To, czy dziennik będzie elektroniczny, czy papierowy, czy wypracowanie napisanie w edytorze
tekstu i wysłane e-mailem, czy długopisem na kartce papieru oraz przyniesione osobiście, w
zasadzie niczego nie zmienia.

Niewidzialność

Skoro materia jest generowana z otaczającej przestrzeni w powtarzalnych cyklach, składa się z
następujących po sobie nieruchomych obrazów, to zachodzi ciekawa możliwość. Co by się stało,
gdyby materię przesunąć „w fazie”, w puste szczeliny pomiędzy? Albo wręcz człowieka
(obserwatora), by mógł nam zrelacjonować to, co zobaczył. Taki ktoś znikłby z naszego świata,
stałby się niewidzialny, gdyż jego materia znajdowałaby się w przeciwnej fazie do naszej.
Przenikałby materialne przedmioty niczym duch. Mógłby obserwować nasz świat, lecz w
negatywie (odwrócone kolory jak na kliszy fotograficznej – czarne rzeczy są białe). Wskutek
lokalnych zakłóceń elektromagnetycznych, np. nad uskokami geologicznymi, ten kamuflaż mógłby
częściowo zawodzić, widoczna byłaby świetlista poświata oraz odczuwalne uczucie chłodu.

Ta technologia byłaby wielce przydatna w misjach na innych planetach, zapewniałaby


bezpieczeństwo agentów. Skoro ludzie z Ziemi są szczytowym osiągnięciem ewolucji, wybranymi
przez Boga panami wszelkiego stworzenia, to oczywistym się wydaje, że na innych światach będą
żyć niższe rasy, tubylcy w stanie półdzikim, do których Bóg nie pofatygował się wysłać swoich
proroków i aniołów, jako że wedle świętych ksiąg ukochał tylko ludzi z Ziemi. Ich prymitywizm
byłby nieco nieestetyczny, lecz można coś z tym zrobić. Prostemu umysłowi nie wytłumaczy się,
dlaczego nie powinno się sąsiada walnąć po głowie maczugą i ukraść mu owcę. Lecz prosty umysł
wziąłby naszego wyposażonego w kamuflaż agenta za objawioną istotę nadprzyrodzoną nie z tego
świata. Gdyby takie podszywane „bóstwo” przekazało mu prawa moralne oraz wskazówki
dotyczące higieny osobistej, to ze strachu posłucha. Przez kilka tysięcy lat jego potomkowie nie
połapią się, co naprawdę się wydarzyło, a do tego czasu być może zrozumieją, że na współpracy
lepiej wychodzą niż na wojowaniu. Że lepiej z sąsiadem się dogadać, bo obydwie strony na tym
korzystają.
Jeśliby na takiej planecie powstało kilka nie do końca zgodnych ze sobą religii, to poszukiwania
prawdy o świecie działałyby pobudzająco na umysły. To lepsze od jednego światopoglądu, który
wprowadziłby zastój kulturalny i cywilizacyjny, a wręcz uwstecznienie. Widać to w kulturach
homogenicznych (Indianie, Eskimosi, Aborygeni), których świat nie zmieniał się na przestrzeni
tysiącleci. Natomiast najszybciej rozwijały się kultury prowadzące ożywiony handel z sąsiadami,
przy którym następowała wymiana idei, przykładem są kosmopolitalne miasta takie jak Jerozolima,
Aleksandria, Rzym, Konstantynopol, Padwa, Paryż, Wenecja, Londyn, Nowy Jork i Los Angeles.
Religia to taka dziwna wiedza, która wprowadza prawa moralne, lecz nie daje żadnych możliwości
technicznych, nie ułatwia konstruowania broni. Dlatego lepiej nie próbować za wcześnie
wprowadzać systemu edukacji przekazującego wiedzę naukową. Umysły nawykłe do
prymitywnego świata, który ich otacza, najprawdopodobniej wykorzystają ją jako broń, czego
przykładem są organizacje terrorystyczne i mafijne, wywodzące się z reguły z zacofanych rejonów.

Podobny kamuflaż można zastosować w przypadku całego statku. Jeśli zajdzie potrzeba, by się
ukazać prostym mieszkańcom innej planety, można w jego miejsce wyświetlić hologram
dostosowany do ich mentalności – obłok, skrzydlatego smoka, żaglowiec powietrzny, balon,
sterowiec lub czarny śmigłowiec bez numerów rejestracyjnych. Po co ich stresować niezrozumiałą
konstrukcją, przeczącą uproszczonemu wyobrażeniu świata. Ważne, by takie pojawianie się
przeprowadzać w sposób umożliwiający mnogość interpretacji, nie zostawiać jednoznacznych
dowodów. By zamiast podawania na tacy odpowiedzi rozbudzać ciekawość świata, niech nauczą się
używać własnego rozumu. W końcu nie będzie można byle komu przekazać pałeczki cywilizacji.

Podziemne bazy

Wypadałoby poruszyć i ten wątek. Nasza hipotetyczna wyprawa dociera do innego systemu
słonecznego. Na miejscu okazuje się, że nie zabrano dostatecznej ilości cegieł by wybudować
placówkę. W dodatku atmosfery wielu planet nie do końca są zdrowe (np. na Wenus padają deszcze
z kwasu siarkowego, a powietrze jest tak gęste, że siekierę można powiesić).
Są dwie możliwe procedury.
W pierwszej wykorzystuje się materiały z lokalnych kamieniołomów. By zbytnio nie babrać się z
robotą, można od razu z milimetrową dokładnością powycinać kawałki ważące kilkadziesiąt lub
kilkaset ton, coś na wzór Baalbek. Co najwyżej tubylcy po tysiącach lat będą się zastanawiać, jak
ich przodkowie poradzili sobie z takim tytanicznym dziełem przy pomocy toporków z brązu.
Druga możliwość to podziemne bazy. Oczywiście, nikt nie będzie wymachiwał łopatą, tunele oraz
komory elegancko wytapia się przy pomocy specjalnego urządzenia. Może nawet moc silników
magnetycznych statku umożliwi wykonanie takiej pracy bez ruszania się z fotela pilota. Zeszklone
ściany tuneli dodatkowo je wzmacniają i chronią przed zawaleniem.
Wspominam o drugiej możliwości, gdyż jest bardzo uniwersalna, umożliwia budowę bazy nawet na
tych planetach i księżycach, których powierzchnia niezbyt sprzyja życiu. Być może wiele
zaawansowanych technicznie cywilizacji kosmicznych, o ile jakiekolwiek istnieją, wiedzie
podziemny tryb życia. Szczególnie gdy, w skutek jakiś okoliczności (jak kara za zbytnie
spoufalanie się z dzikusami i nieprzestrzeganie embarga dotyczącego rozprzestrzeniania wiedzy
oraz technologii wśród niedojrzałych cywilizacji), nie mogą zamieszkiwać ojczystej planety.
Wnętrza wcale nie muszą przypominać ponurej jaskini z ogniskiem i malunkami naskalnymi, raczej
nowocześnie urządzone apartamentowce. Tylko bez okien na zadymione ulice i neony
wybudowanego obok supermarketu. Za to z przepięknymi i jasnymi ogrodami hydroponicznymi,
trzeba przecież coś jeść i czymś oddychać.

Kamuflaż, opisany w rozdziale o niewidzialności, umożliwiłby loty do podziemnej bazy nie


mającej żadnego fizycznego otworu wejściowego. Nie istniałoby ryzyko przypadkowego jej
wykrycia. Za zapasowe wejścia mogą służyć naturalne jaskinie.

Za lidera w budowie maszyn TBM (Tunnel Boring Machines), służących do drążenia tuneli, uważa
się amerykańską firmę The Robbins Company z Kent w stanie Washington
(www.robbinstbm.com), obecnie należąca do grupy Atlas Copco Mechanical Rock Exavitation.
Podobne maszyny były pokazane w filmie „Pamięć Absolutna” z Arnoldem Schwarzeneggerem,
gdzie służyły górnikom z kolonii na Marsie.
Już od dawna istnieją także maszyny do drążenia tuneli o napędzie jądrowym, opracowane przez
amerykańską Komisję Energii Atomowej (US Pat. 3693731 z 1972r.
http://www.google.com/patents/about?id=PdAuAAAAEBAJ&dq=3693731) oraz Urząd ds. Badań i
Rozwoju Energetyki (US Pat. 38881777 z 1975r. http://www.google.com/patents/about?
id=d3o0AAAAEBAJ&dq=3881777), które po prostu wytapiają tunele. Nie powodują powstawania
urobku i pozostawiają za sobą zeszklone ściany korytarza, którego nie trzeba później wzmacniać.

Genetyka

Duże możliwości to czasem duże ambicje. Można zmywać naczynia, ale chyba ciekawszym
sposobem spędzenia życia jest kreacja nowych form życia na jakiś pustych planetach. Może kiedyś
technologia umożliwi nawet dostosowywanie orbit planet i ich księżyców, by żyjątkom lepiej się
wiodło, przy pomocy generatorów grawitacyjnych fal stojących (planety, a nawet całe galaktyki,
zajmują miejsca wyznaczone liniami przecinającymi węzły fal stojących wypełniających
Wszechświat, naturalnie powstających w wyniku jego skończonego rozmiaru, dlatego planety
Układu Słonecznego posiadają orbity opisane na bryłach platońskich i nie spadają na Słońce, czego
nie jest w stanie wyjaśnić obecny, newtonowski opis grawitacji). Po milionach lat jakaś uważająca
się za inteligentną forma życia dojdzie do wniosku, że powstała w drodze ewolucji i doboru
naturalnego.

Ten wątek bywa niezrozumiały dla kogoś przywykłego do życia we współczesnym systemie
kapitalistycznym, ze względu na domniemane koszty przeprowadzenia takich operacji. Otóż, z
ekonomicznego punktu widzenia, największym konsumentem jest rząd. Zbiera podatki, które
wydaje na własne przedsięwzięcia – policję, wojsko, straż pożarną, szkoły, drogi, luksusowe
samochody oraz samoloty dla prezydenta i premiera. Dzięki tym wydatkom następuje cyrkulacja
pieniądza w gospodarce, bo ktoś zarabia na tych wydatkach, ktoś inny z kolei na nim itd.
Zmniejszenie wydatków rządowych automatycznie wpływa na zmniejszenie obiegu pieniądza,
pogorszenie się sytuacji w całej gospodarce i obniżenie średnich zarobków obywateli. Więc rząd
musi pobierać podatki i znajdować nowe sposoby na ich wykorzystanie. Nawet misje na inne
planety spowodowałyby rozrost niektórych sektorów gospodarki oraz potrzebę powstania wysoko
kwalifikowanej kadry. A zwykli ludzie mieliby znacznie lepsze perspektywy w życiu, jeśli tylko
zechcą z nich skorzystać. Amerykanie doskonale o tym wiedzą, przeznaczają na pozornie zbędną
armię oraz przemysł zbrojeniowy wielokrotnie więcej niż reszta świata razem wzięta. Prawie
niczego nie produkują, permanentnie mają ujemny bilans w handlu zagranicznym, a pomimo tego
ich gospodarka doskonale funkcjonuje (zazwyczaj). Czasy się zmieniają, coraz mniej wypada
wymachiwać szabelką. Unia Europejska woli inwestować w infrastrukturę publiczną oraz małe i
średnie firmy, które dzięki zasadzie „idealnej konkurencji” (dla konsumenta lepsza jest duża ilość
mniejszych, lecz bardziej innowacyjnych firm, zamiast kilku większych) utrzymują równowagę w
gospodarce.

Pioruny kuliste

Zjawisko to niewątpliwie ma miejsce. Co prawda osobiście się z nim nie spotkałem, w odróżnieniu
od „znikających” czasowo przedmiotów (nie chcę o tym opowiadać), lecz znam opowieści
członków rodziny, którzy się z nimi zetknęli.
Dotychczas naukowcom nie udało się odtworzyć tego zjawiska w laboratorium, a tym bardziej
znaleźć logicznego wytłumaczenia. Natomiast z notatek Tesli z 1899 roku opisujących
eksperymenty przeprowadzane w jego laboratorium położonym w Colorado Springs wynika, że
jemu się udało. Innym już nie, zaczęto uważać, że ja zwykle tylko się przechwalał. Dopiero
olśnienia doznali bracia Kenneth i James Corumom. Zastosowali zmodyfikowaną cewkę Tesli
składającą się z jednego obwodu pierwotnego oraz dwóch wtórnych, pierwszy wysoki i wąski,
dający napięcie 2400kV przy częstotliwości
66,6kHz, drugi krótszy i szerszy, o napięciu
200kV przy częstotliwości 156kHz, wyzwalana
moc dochodziła do 100kW w czasie 10
mikrosekund. Dwa obwody są potrzebne do
zwiększenia intensywności wyładowań (rys.8)

Nie wiem, czy ktoś już wyjaśnił zasady fizyki,


dzięki którym mogą formować się pioruny
kuliste. Wydają się oczywiste – to znowu 'siła
Casmira'. Elektrony w normalnych warunkach
nie lubią swojego towarzystwa, odpychają się.
Ale jeśli je stłoczyć, to zaczynają się wzajemnie
osłaniać przed naporem próżni, który pokonuje
siły elektrostatyczne, zlepiają się, splątują.
Dokładnie takie samo zjawisko ma miejsce w
jądrach atomowych, gdzie dodatnie protony i
pozbawione ładunku neutrony, przy niewielkich
odległościach nagle przejawiają skłonność do
przyciągania się.
Taka grudka zlepionych elektronów jest bardzo mała, piorun kulisty stosunkowo duży, lecz to co
widzimy może być tylko zjonizowanym powietrzem wokół mikroskopijnego jądra skupiającego
ogromną dawkę energii. Przypadkowy tor lotu pioruna kulistego byłby swoistym odpowiednikiem
'ruchów Browna', lecz nie wskutek uderzeń cząsteczek powietrza, tylko nacisku próżni.

Może nie istnieje żadne 'oddziaływanie silne' w jądrach atomów, tylko 'siła Casmira', może obydwa
oddziaływania to różne opisy tego samego zjawiska, lecz skoro protony mogą się zlepiać, to
czemuż nie elektrony?

Współcześnie Rosja posiada broń przeciwlotniczą, która wysyła plazmoidy w kierunku


nadlatujących samolotów i rakiet. Dzięki zjonizowaniu atmosfery można zakłócać ich
aerodynamikę oraz przyrządy.

Natomiast Stany Zjednoczone od 1969 roku posiadają tajną sieć nadajników zdolnych wywoływać
trzęsienia Ziemi, położonych na okręgu przechodzącym przez bieguny Ziemi, antarktyczne bazy
Palmer oraz Amundsen-Scott, bazę im. Harolda E. Holta w Exmouth (Australia), bazę w Cutler w
stanie Maine (USA), bazę w Thule (Grenlandia), Arecibo w PuertoRico, Tucaman (Argentyna),
które testowali bez wiedzy i zgody rządu Australii, na pustynnej części ich terytorium. Rosja też
podobno ma, ale znacznie lepiej chronią swoje tajemnice, nie znam ich położenia, prócz tego na
Kamczatce.

Technologia wywoływania trzęsień Ziemi polega na wytworzeniu zlepka energii w dowolnym


miejscu planety (w powietrzu, pod ziemią, pod wodą) przy pomocy interferencji fal pochodzących z
kilku cewek Tesli. Następnie można ją wyzwolić, uzyskując siłę wybuchu porównywalną z
nuklearną.

Promienie śmierci

W filmach s-f częstym motywem są bronie energetyczne. Nie są to w żadnym wypadku lasery, one
niespecjalnie spisują się jako broń, głównie z powodu potrzeby chłodzenia i dokonywania
niewielkich zniszczeń (robią malutkie i bezbolesne dziurki). Istnieje coś lepszego.

Jednym z ostatnich pomysłów Tesli z 1940 roku była „telesiła”3. Zwrócił się do rządu USA, by ten
umożliwił mu budowę kilkunastu stacji rozlokowanych wzdłuż wybrzeża. Koszt przedsięwzięcia to
2 miliony dolarów za stację. Miały one, dzięki napięciom rzędu 80MV, emitować wiązki
energetyczne o średnicy jednej stumilionowej centymetra, które będą zdolne do zniszczenia
nadlatującego samolotu z odległości 400km. Ta propozycja została zignorowana, za miliardy
dolarów zakupiono, od kogo trzeba, artylerię przeciwlotniczą, trzy lata później Tesla zmarł
zapomniany. Po jego śmierci agenci rządowi skonfiskowali wszystkie notatki.

Domyślenie się, czym są te tajemnicze promienie, nie jest specjalnie trudne. To wiązki cząstek
naładowanych, głównie elektronów. Zjawiska fizyczne analogiczne do omówionych wcześniej
piorunów kulistych. Otóż elektrony można skupiać, wykorzystuje się to w monitorach
kineskopowych, lecz przydatność takiego rozwiązania jako broni jest żadna, zbyt łatwo się
rozpraszają. Ale jeśli je dostatecznie silnie zbliżyć, to zlepią się ze sobą wskutek działania 'siły
Casmira', powstanie coś podobnego do wirującego warkocza o średnicy rzędu ułamka mikrometra i
przemieszczającego przestrzeń z prędkością przynajmniej 1/10 prędkości światła. Będą się poruszać
w czymś w rodzaju rurki wydrążonej w próżni niczym światło w światłowodzie. Wokół promienia
będzie widoczna świetlista poświata zjonizowanego gazu.
Gdy taki promień uderzy w jakiś obiekt, to będzie w stanie nawet rozerwać atomy. Reakcja
łańcuchowa nie nastąpi, lecz eksplozja nuklearna tych kilku atomów wystarczy do zrobienia
całkiem sporej dziury. Z większej odległości i przy mniejszych mocach promienia ładunki silnie
podgrzeją miejsce trafienia, zostanie odparowany otwór, a także nastąpi zaindukowanie silnych
prądów elektrycznych. To wystarczy do zapłonu paliwa lub ładunków wybuchowych,
przewożonych przez samolot.

Tajne działo energetyczne znajduje się we wspomnianej wcześniej bazie im. Harolda E. Holta w
Exmouth (Australia). Kilka lat temu Internet obiegł film rzekomo nakręcony na pokładzie promu
kosmicznego, którego transmisja została przechwycona przez amerykańskiego radioamatora.
Przedstawia on nieudaną próbę zestrzelenia dyskoidalnego obiektu przez promień pochodzący z tej
bazy. Jeśli materiał jest prawdziwy, to Jankesi nie okazują zbytniej gościnności, najpierw strzelają,
a później zadają pytania. Taka taktyka jest dosyć głupia, bo jeśli goście uznają ludzkość za
barbarzyńców stanowiących w przyszłości zagrożenie, to może źle to się skończyć dla całej
planety. Gdyby jacyś hipotetyczni Obcy chcieli zaatakować Ziemię, to nie czekaliby z założonymi
rękami tysięcy lat na powstanie broni zdolnej odeprzeć inwazję, a przynajmniej zadać im straty.
Chyba żeby byli niezbyt rozgarnięci, tylko wtedy jakim cudem opanowaliby szybkie podróże
międzygwiezdne? Nasi naukowcy nie opanowali, z uporem maniaka twierdzą, że są niemożliwe.

Jednym z celów tej książeczki jest ujawnienie zwykłym ludziom pewnych potencjalnych
możliwości techniki, bo nie może ona pozostawać pod kontrolą wąskiej grupy „wtajemniczonych”
wojskowych, których z kolei nikt nie kontroluje. Zakończy się to w najlepszym przypadku
uprawianiem prywaty dzięki wpływom danym przez państwowe stanowisko, w najgorszym
doprowadzi do katastrofy. To zbyt niebezpieczne zabawki, by pozostawały poza cywilnym
nadzorem.
Wojskowi ze swojej natury marzą o bitwach i podbojach, wszędzie upatrują wrogów. Gdy
posiadają władzę, dochodzi do wojen. Hitler, Stalin, Mussolini, Castro, Husajn, Napoleon,
Cezar, ci wszyscy lubili nosić mundury wojskowe. Jeszcze nikt ubrany w garnitur nie nawoływał
do podboju świata. Nie mam na myśli, że wszyscy wojskowi są z natury „źli”, lecz, że nie mają
predyspozycji do sprawowania władzy nad cywilami, to kwestia ich widzenia świata. Ten zawód
wymaga specyficznych predyspozycji, bo sprowadza się do zabijania i umierania. W sytuacji
kryzysowej ich wiedza oraz doświadczenie mogą okazać się bardzo cenne, lecz ostateczną decyzję
powinny podejmować władze cywilne. Gdy wojskowi sprawują władzę, to mają tendencję do
szukania wrogów, których trzeba pokonać, gdy nie ma ich na zewnątrz, to znajdą się wewnętrzni,
prawdziwi lub wydumania, z którymi należy zrobić porządek, a to usprawiedliwia utrzymanie się u
władzy. Dochodzi do dyktatury.
Zbrodniarze wojenni często tłumaczyli się, że „tylko wykonywali rozkazy”. W pewnym sensie mają
rację, stosowanie wobec nich zasad „normalnej” moralności nie ma większego sensu. Są jacy są, i
nie potrafią się zmienić, tak już mają. Dzięki temu doskonale sprawują się na pewnych
stanowiskach w wojsku i wywiadzie, na których inni nie daliby sobie rady. Gdyby nie mogli służyć
swojemu krajowi, wielu z nich działałoby w organizacjach przestępczych.
Nie bez powodu kraje posiadają wiele organizacji wojskowych i wywiadowczych: wywiad,
kontrwywiad, ich wojskowe odpowiedniki, ochronę rządu, armię, lotnictwo, marynarkę i różne
wydziały policji. To nie tylko kwestia specjalizacji obowiązków, te organizacje w pewnym sensie
pilnują także siebie nawzajem, nie dopuszczają do samowoli pracowników. Gdyby rząd utracił
kontrolę nad jedną z nich, przywróci ją za pomocą pozostałych. Dlatego bardzo niebezpieczna jest
inicjatywa władz USA w celu usprawnienia współpracy i wymiany informacji pomiędzy swoimi
służbami porządkowymi, spowodowana „wojną z terroryzmem”. Terroryści stanowią jakieś tam
zagrożenie, lecz znacznie więcej ludzi ginie w wypadkach samochodowych czy w wyniku powikłań
po katarze, więc należy zachować właściwe proporcje i nie przesadzać z paranoją. Jedna agencja
nie może mieć zwierzchnictwa nad wszystkimi pozostałymi, bo wcześniej czy później z jakiegoś
powodu sama odmówi wykonywania poleceń rządu, a wtedy nic już się nie da zrobić. W
najlepszym przypadku politycy będą tylko marionetkami. Władze komunistyczne Związku
Radzieckiego faworyzowały KGB.

Zadaniem wojska i wywiadu jest ochrona obywateli państwa przed atakiem z zewnątrz, nie zaś ich
okłamywanie i utajnianie odkryć. Wszelkie takie tajemnice nie służą żadnemu „bezpieczeństwu
narodowemu”, gdyż potencjalny wróg prawdopodobnie je zna i ma swoich naukowców pracujących
nad analogiczną bronią. Utajnianie wynalazków można usprawiedliwić tylko podczas wojny, gdy
czas nagli i użyte z zaskoczenia mogą przechylić szalę zwycięstwa, nie zaś w czasie pokoju, kiedy
wojna to kwestia bliżej niesprecyzowanej przyszłości, a powszechnie znane rozwiązania techniczne
powodują degradację środowiska oraz bogacenie się wąskiej grupki „biznesmenów”, przekonanych
o swojej wyższości i nie przejawiających jakiejkolwiek elastyczności umysłowej. W prawdziwie
wolnorynkowej gospodarce w każdej chwili może się pojawić konkurent posiadający lepszy
produkt, takie są zasady. Dorożki zostały wyparte przez samochody, kabel miedziany przez
światłowód, telegraf przez telefon, telefon przez telefon komórkowy i telefonię internetową.
Kolejny nowy wynalazek może pchnąć świat na zupełnie inne tory rozwoju. Kto nie jest w stanie
zawczasu przystosować się do zmian, wypada z gry. A pracownicy likwidowanych przedsiębiorstw
nie tracą na tym, gdyż znajdują zatrudnienie w nowych firmach.
Obecna sytuacja kojarzy się z jakąś próbą utajnienia odkrycia samochodu, by producenci dorożek
nie zbankrutowali, gdyż mają monopol i znajomości w rządach. Nie dalej jak na Białorusi jest
ustawowy zakaz korzystania z programu Skype, gdyż zmniejsza on zyski narodowego operatora
telekomunikacyjnego. W innych krajach operatorzy po prostu zmienili ofertę, zamiast zarabiać na
rozmowach telefonicznych dostarczają internet. To nie korporacje, lecz ludzie powinni decydować,
co chcą kupić i używać. A wynalazki dokonane dzięki publicznym pieniądzom powinny być
własnością publiczną.

Wojny przyszłości

Uważam, że jeszcze w tym stuleciu wojna odejdzie do lamusa.


To nie kwestia abstrakcyjnej „miłości” międzyludzkiej czy „moralności”, lecz rozumu i logiki. W
przypadkach konfliktu interesu najpierw należałoby próbować znaleźć rozwiązanie, które
usatysfakcjonuje obydwie strony. Czasem spełnienie oczekiwań drugiej strony jest niemożliwe, ale
może jest coś innego, co przyjmie w zamian za odstąpienie od żądań?
Ziemia przestaje mieć wartość jako żywicielka, o zasobności obywateli danego kraju już nie
świadczy wielkość pastwisk oraz ilość owiec. Mieszkańcom Palestyny zależy na ziemi, a Izrael nie
może oddać swojej. A może lepszym rozwiązaniem będzie niewielka Palestyna, za to ze szkołami,
stypendiami, a wkrótce szklanymi drapaczami chmur, supernowoczesnymi fabrykami oraz
stoczniami? Jak wszerz nie można powiększyć, to można wzwyż. Jej mieszkańcy, dobrze
wykształceni i prowadzący dostatnie życie, nie będą przyparci do muru, za dużo będą mieć do
stracenia, by ginąć w bezsensownych zamachach bombowych. Żydzi mogą pomóc w
zorganizowaniu tego, zawsze mieli głowę do interesu i na tym też nie stracą.
Pierwszym krokiem jest dostrzeganie w innych narodach nie wrogów, lecz ludzi. Bo na konflikcie
zawsze obydwie strony tracą, na współpracy zyskują. Psychologiczne potrzeby wszystkich ludzi są
takie same.

Jeśli „wróg” będzie przyparty do muru, nie dostrzeże wyjścia z sytuacji, perspektyw, to będzie się
bronił do upadłego.

Łączność nadświetlna

Po opisie systemu napędu należałoby nieco wspomnieć o możliwościach łączności na odległości


międzygwiezdne. Co to byłby za pojazd kosmiczny, gdyby telefonu nie miał. Fale
elektromagnetyczne absolutnie się do tego nie nadają, są bardzo powolnie i łatwo się rozpraszają
(natężenie pola spada z kwadratem odległości na powierzchni ziemi). Najbliższa gwiazda, Proxima
Centauri, oddalona jest o ponad 4 lata świetlne. Nic dziwnego, że programy typu Projekt Ozma
Franka Drake'a oraz SETI nie przynosły rezultatu, a opracowane w tym celu technologie dziś
służą raczej celom wywiadowczym (Echelon nadzorowany przez NSA- National Security Agency
www.nsa.gov, który obecnie jest w stanie monitorować większość transmisji radiowych na Ziemi).
Może są jakieś inne możliwości komnikacji?

Tesla utrzymywał, że w swoim laboratorium w Colorado Springs udało mu się odebrać sygnały
pochodzące od cywilizacji pozaziemskich4:
„Nigdy nie zapomnę pierwszego odczucia, jakiego doznałem, kiedy zdałem sobie sprawę, że
zaobserwowałem coś o nieobliczalnych konsekwencjach dla ludzkości. Poczułem się, jakbym był
obecny przy narodzinach nowej gałęzi wiedzy, lub objawieniu wielkiej prawdy...
Pierwsze obserwacje, jakich dokonałem, przeraziły mnie, ale w sensie pozytywnym, jako że było w
nich coś tajemniczego, wręcz nadnaturalnego. Była noc i byłem sam w laboratorium, lecz w owym
czasie te zakłócenia nie wydawały mi się być sygnałem kontrolowanym w sposób inteligentny.
Zmiany, jakie zauważyłem, miały charakter periodyczny i przy takiej ich liczbie i porządku nie
potrafiłem przypisać ich jakiejkolwiek znanej mi przyczynie.
Znałem, oczywiście, tego rodzaju elektryczne zakłócenia będące dziełem Słońca, takie jak zorza
polarna i ziemskie prądy, i zastanawiałem się, czy nie były one czasem spowodowane
którymkolwiek z tych czynników. Rodzaj eksperymentów, jakich dokonywałem, wykluczał możliwość
spowodowania tych zmian przez zakłócenia atmosferyczne, jak to próbowali niektórzy pospiesznie
wytłumaczyć.
Dopiero jakiś czas potem przyszło mi do głowy, że zakłócenia, które obserwowałem, mogą być
przejawem czyjejś inteligencji. Chociaż nie potrafiłem odkryć ich znaczenia, nie mogłem oprzeć się
wrażeniu, że nie są one dziełem przypadku. Coraz bardziej narasta we mnie przekonanie, że stałem
się pierwszym człowiekiem, któremu dane było usłyszeć pozdrowienia przekazywane przez jedną z
planet drugiej planecie. Za tymi sygnałami elektrycznymi krył się sens...”
Współcześnie uważa się, że tylko wykrył mikrofalowe promieniowanie tła. Dobrze, że nie światło
Wenus, odbite od gazów bagiennych.

T. Brown prowadził również badania nad łącznością za pomocą 'energii radiacyjnej' o naturze
grawitacyjnej, podobnej do
elektroakustycznych 'fal
podłużnych' Tesli (fale radiowe
są poprzeczne). Jako odbiornik
zastosował mostek
kondensatorowy naładowany
wysokim napięciem5. Do
detekcji fal posłużyły
piezoelektryczne właściwości
kondensatorów z tlenku tytanu
lub ceramiczne o wysokiej
gęstości i stałej dielektrycznej
(rys.9).

„[Urządzenie Browna] generowało sygnały przez wielokrotne ładowanie kondensatora do


wysokiego napięcia i gwałtowne rozładowywanie go przez przerwę iskrową. Czoło powstającej w
ten sposób fali uderzeniowej było przyjmowane przez naelektryzowany mostek pojemnościowy,
który rejestrował te fale jako przejściowe przebiegi napięcia za pomocą rejestratora szczotkowego.
Naukowiec z Office of Naval Research, który był świadkiem prób tego urządzenia w 1952 roku,
zanotował, że sygnały były z powodzeniem przekazywane do odbiornika umieszczonego w
sąsiednim pokoju, w uziemionej metalowej obudowie.”

Nie mogły to być fale elektromagnetyczne, gdyż byłyby izolowane dzięki uziemionej, metalowej
obudowie. Zaczął podejrzewać, że fale te rozchodzą się szybciej niż światło.

„Ponieważ ustalił, że mostek pojemnościowy może wykrywać zakłócenia grawitacyjne, doszedł do


wniosku, że sygnały, które przekazuje, są grawitacyjne, a nie elektromagnetyczne. Wydedukował, że
fale te są grawitacyjnymi odpowiednikami fal świetlnych, i z braku lepszego słowa nazwał je 'quasi-
światłem'.”
Do detekcji tych fal grawitacyjnych wcale nie potrzeba skomplikowanych urządzeń, wystarczą...
kamienie. W tajnym raporcie marynarki zatytułowanym „Anomalie w zachowaniu potężnych
dielektryków o wysokim współczynniku K” T.Brown opisywał, że oporność niektórych materiałów
oraz polaryzacja elektryczna skał granitowych i bazaltowych zmienia się zależnie od pozycji
Słońca, Księżyca i innych planet. Ich podatność zależała od współczynnika K (stałej dielektrycznej)
oraz masy.
Doświadczenia były przeprowadzane w 1937 roku w Pensylwanii oraz w 1939 roku w Ohio,
kolejna stacja powstała w 1944 roku w Kalifornii. Wynikało z nich, że w materiałach z dwutlenku
tytanu powstają prądy o częstotliwościach radiowych, natomiast bazalt i granit w jakiś sposób je
rektyfikują (prostują) do napięć stałych.
W 1953 roku złożył wniosek patentowy na urządzenie do łączności za pomocą modulowanej fali
grawitacyjnej. Jako nadajnik miał służyć „zwykły” nadajnik radiowy z modulacją amplitudy,
jedynie antena była inna. Wyjście antenowe nadajnika połączone było z dużą cewką podnoszącą
napięcie, na końcu której tkwiła kula wykonana z materiału o dużej masie i gęstości (np. ołów)
oraz dobrym przewodnictwie elektrycznym. Pojemność kuli wraz z indukcyjnością cewki tworzyły
obwód rezonansowy LC. Podczas pracy kula miała się elektryzować, lecz bez wystąpienia
wyładowań koronowych. Antena powinna być zamknięta w klatce Faradaya (np. w podziemnej
bazie), by uniknąć emisji radiowej. Działa dwukierunkowo, jako nadawcza lub odbiorcza.

W doświadczeniach z tego typu czujnikami należałoby użyć wzmacniacza prąd-napięcie.

Ten rozdział zaledwie sygnalizuje zagadnienie. By zbytnio nie komplikować pominąłem w nim
wiele opisów konstrukcji urządzeń komunikacyjnych. Co dziwne, są oparte na geometrii, niczym...
piramida Cheopsa. Przykładowo, elektromagnetyczny implant identyfikacyjny (RFID - radio
frequency identification), stosowany m.in. do znakowania zwierząt, to szklana rureczka z obwodem
rezonansowym LC i mikroprocesorem. Natomiast odpowiednik oparty na falach Tesli byłby
odpowiednio przyciętym kawałkiem kryształu wielkości ziarenka piasku.

Perpetuum Mobile

Pozostaje kwestia paliwa dla naszego gwiezdnego statku. Kosmos jest dosyć rozległy, więc
potrzeba dużo karnistrów. Na przeszkodzie stoi pierwsze prawo termodynamiki, które głosi, że w
„układzie odizolowanym energia jest stała”, czyli energii nie można wytworzyć, można jedynie
przekształcić jej formę. Udowodniło ono nie raz swoją słuszność, podobnie jak prawa dynamiki
Newtona, które uważano za niewzruszone i ostateczne, aż wreszcie okazały się tylko wyjątkiem od
szerszej reguły. Gdzie tkwi problem w prawie termodynamiki? Ano na samym wierzchu, tam gdzie
nie widać – czy istnieją układy zamknięte, odseparowane od reszty Wszechświata? Jedynym takim
układem jest cały Wszechświat, a cylinder silnika spalinowego to tylko pewne przybliżenie stanu
idealnego. W świecie kwantowym nie jest już tak idealnie, 'zasada nieoznaczoności' Heisenberga
dopuszcza lokalne i chwilowe przekroczenie zasady zachowania energii.
Według Heinza R. Pagelsa o wirtualnych kwantach próżni „powinno się poprawnie myśleć jako o
parze cząstek, która składa się z cząstki wirtualnej i jej antycząstki, które nagle pojawiają się w
pewnym miejscu przestrzeni i niemal natychmiast znikają, anihilując się nawzajem.”
Czyli próżnię możemy sobie wyobrazić jako wypełnioną dwoma przeciwstawnymi cząstkami,
będącymi w równowadze. Gdy coś tę równowagę zakłóca, pojawia się materia i energia.

Koncepcja generowania materii z otaczającej przestrzeni daje pewną furtkę do konstrukcji urządzeń
wytwarzających energię pozornie z... niczego. Oczywiście, nadal mamy tu do czynienia z
przekształcaniem jednej formy energii w drugą, analogicznie do elektrowni wiatrowej czy
słonecznej. Tylko ta pierwotna energia była dotychczas nieznana z racji odrzucenia na początku XX
wieku koncepcji eteru.

To nie teoretyczne rozważania, historia techniki zna kilka takich urządzeń. Przykładem jest choćby
Thesta Distatica, zbudowana przez szwajcarską wspólnotę religijną Methernitha
(www.methernitha.com). Niestety, szczegóły konstrukcyjne tego urządzenia nie są znane, nie
można go odtworzyć. Już sceptycy zacierają ręce:)
Drugim znanym generatorem 'free energy' jest silnik napędzany magnesami stałymi, zbudowany i
opatentowany w 1979 roku przez Hovarda Johnsona (US Pat. 4151431
http://www.google.com/patents/about?id=4sIsAAAAEBAJ&dq=4151431).
Pierwsze urządzenie, które już oficjalnie wykorzystuje energię punktu zerowego do generowania
elektryczności, zostało opatentowane w 1996 roku przez dr Franka Meada z Bazy Sił
Powietrznych Edwards (US Pat. 5590031 http://www.google.com/patents/about?
id=at0nAAAAEBAJ&dq=5590031)

Znam jeszcze kilka innych konstrukcji, lecz nie udało mi się dostatecznie potwierdzić informacji o
ich istnieniu, więc nie będę rozsiewał mitów. Na pewno takimi generatorami dysponują rządy
Stanów Zjednoczonych oraz Indii (ci drudzy skopiowali generator Bruce'a de Palmy, będący
rozwinięciem 'jednobiegunowej prądnicy' Faradaya). Z reguły generatory te wywołują
charakterystyczne ochładzanie otaczającego powietrza, co nie dziwi, gdyż próżnia, z której została
podstępnie podkradziona energia, ostatecznie musi ją odzyskać. Kłóci się to nieco z zasadą
niemalenia entropii, lecz fakt istnienia życia także niewiele sobie z niej robi.

Jerry Decker prowadzi stronę internetową poświęconą takim wynalazkom: www.keelynet.com.

Ciekawy sposób wyzwalania energii próżni, który jest już stosowany w przemyśle oraz
budownictwie, polega na wykorzystaniu kawitacji. Dotychczas zjawisko to spędzało sen z powiek
konstruktorom śrub okrętowych i instalacji hydraulicznych. Na skutek zmian ciśnienia cieczy
(wody), w miejscach przyspieszonego jej przepływu, powstają okropne próżniowe bąbelki, które
implodując wytwarzają głośne impulsy niszczące konstrukcję. Wyzwala się przy tym dosyć wysoka
temperatura. Jest kilka rosyjskich firm (np. AKOIL www.akoil.ru) produkujących wirowe
generatory ciepła (VHG- vortex heat generator), stosowane w instalacjach grzewczych budynków.
Mają sprawność 120...300%, czyli pozwalają nawet trzykrotnie zmniejszyć koszty ogrzewania.
Kawitację można również wytworzyć przy pomocy ultradźwięków.

Opisane sposoby generowania energii nijak się nie przydadzą w naszym statku, chyba że do
gotowania herbaty, ale przynajmniej udowadniają, że się da. A od tego niewielki już krok do tego,
że komuś się uda.
Energia próżni (ZPE – Zero Point Energy) to przyszłość naszej cywilizacji. Jest potężniejsza,
wygodniejsza i bezpieczniejsza od energii nuklearnej. Czeka pod samym nosem, aż ktoś z niej
wreszcie skorzysta.
Bibliografia:
1) Science and Invention, sierpień 1929r.
2) New Energy News, czerwiec 1994, str.4
3) New York Times, 22 września 1940r.
4) Nicola Tesla, Talking with the planets, Collier's Weekly, 9 luty 1901r.
5) P. LaViolette, The talk of the Galaxy, s.35, 36

You might also like