Racjonalny wybór

Narzekania na jakość życia politycznego należą w Polsce do stałego rytuału. Wyborcy mają być leniwi i bezrozumni, partie bezprogramowe, a politycy nieudolni i krótkowzroczni. Wszyscy zaś razem wzięci kierują się wyłącznie chwiejnymi i zmiennymi emocjami. Rytuał narzekań jest tak rytualny, że nikomu nawet do głowy nie przyjdzie zapytać, co by było, gdyby elektorat kierował się rozumnym rozeznaniem własnego interesu, politycy kalkulowali na długi okres czasu, a partie posiadały jakieś programy.

Niżej podpisany często zastanawiał się nad tym, jakby wyglądała polska polityka przy spełnieniu tych założeń. I doszedł do jednoznacznego wniosku. Otóż wszystko wyglądałoby …dokładnie tak samo jak teraz. Co logicznie oznacza, że te warunki, niezależnie od tego co się wszystkim wydaje, są jak najbardziej spełnione już dziś.

Zacznijmy od programów partyjnych. Faktycznie, do książeczek z takim tytułem na okładce mało kto w ogóle zagląda, a wcale nie wszystkie partie taki „program” w formie książkowej w ogóle posiadają. Nie oznacza to jednak, że nie posiadają samego programu jako takiego. Partia, która sama, lub w koalicji, zdobywa władzę w kraju, jakiś program, choćby się miał on sprowadzać do „chwały nam i naszym kolegom”, po prostu musi realizować. Dla partii, która miała już okazję rządzić, programem jest więc kształt realnej polityki, którą wtedy prowadziła. Gorzej jest z rozpoznaniem programu stronnictwa, które rządzić jeszcze nie miało okazji. Taka partia jednak stara się zwykle zainteresować wyborców właśnie programem zwerbalizowanym, na prawo i lewo obiecując, czego to nie zrobi, kiedy wyborcy powierzą jej władzę.

Postrzeganym przez elektorat programem partii jest więc realny kierunek jej rządów, kiedy dana partia jest przy władzy, oraz całość przekazu kierowanego do wyborców, kiedy jest w opozycji. Przy czym oczywiste jest, że w tym ostatnim segmencie zdecydowanie aktywniejsze są partie, które jeszcze nie rządziły. Naturalnie zdarza się też często, że wygrywając wybory partia zmienia zdanie i realizuje program inny, a nawet zupełnie inny, niż obiecywany w czasach opozycji.

Kolejnym mitem związanym z partyjnymi programami jest rzekomy brak różnic pomiędzy nimi. W takich zarzutach celują zwłaszcza te partie, które do władzy dopiero aspirują, głośno deklarując np. „PIS, PO jedno zło”, albo „tamci już rządzili’, w domyślnym niedopowiedzeniu – oczywiście źle. Nie jest to pogląd prawidłowy.

Głównym zadaniem rządu jest bowiem …rządzenie. Czyli tworzenie takich ram instytucjonalnych, prawnych i infrastrukturalnych, aby zapewnić obywatelom maksymalny możliwy poziom dobrostanu. Jakość rządów ocenia się więc po jakości państwa i jego instytucji, jakie te rządy po sobie zostawiają. Ilustruje to publikowany co roku przez fundację Heritage, wskaźnik wolności gospodarczej – Index of economic freedom – IEF. Wbrew swojej nazwie, indeks ten, bardziej mierzy sprawność i poziom cywilizacyjny danego państwa, niż samą wolność gospodarczą, będącą tylko jedną z wielu jego składowych. W latach 1997 – 2019 IEF dla Polski kształtował się następująco:

wybor 01

Jak widać korelacja jakości polskiego państwa z rządami poszczególnych ekip jest bardzo silna, a zmiany trendu miały miejsce tylko w przypadku zmian ekip rządzących.

W zilustrowanym okresie były prowadzone dwie drastycznie odmienne polityki. Koalicje AWS-UW, oraz PO-PSL zwiększały polski poziom gospodarczy i cywilizacyjny, oraz oczywiście wolność gospodarczą, SLD i PIS, przeciwnie – zmniejszały. PIS i PO to zatem, nie tylko nie to samo, ale coś zupełnie innego.

Sam współczynnik IEF jest, jak już wspomniano, kombinacją wielu, konkretnie dwunastu, parametrów, które określają bardziej szczegółowo, wysokość opodatkowania, poziom korupcji, sprawność sądownictwa, swobodę przepływów finansowych, elastyczność rynku pracy etc. Jeżeli potraktujemy każdą z tych liczb jako geometryczną współrzędną, to łącznie utworzą one dwunastowymiarową przestrzeń fazową, wewnątrz której porozrzucane będą poszczególne kraje. Podobnie jak w zwykłej, trójwymiarowej przestrzeni, możemy zmierzyć odległość między dwoma dowolnymi krajami – punktami w tej przestrzeni, za pomocą uogólnionego na większą ilość wymiarów twierdzenia Pitagorasa. Taka odległość w przestrzeni fazowej pozwoli ocenić stopień podobieństwa ustroju społeczno-gospodarczego danych krajów znacznie lepiej niż sama tylko różnica w wielkości IEF. Ponieważ dobrze jest równać się do najlepszych, na kolejnym wykresie pokazano jak zmieniała się odległość Polski od najbardziej rozwiniętego i cywilizowanego kraju na świecie. Od Szwajcarii. Dla porównania zamieszczono na nim także dynamikę odległości od jednego z najbardziej zacofanych i prymitywnych krajów – Rosji.

wybor 02

Pomimo tego, że zarówno Szwajcaria (w mniejszym stopniu), jak i Rosja (w większym), same przemieszczają się w przestrzeni fazowej, i dynamika ich odległości do Polski jest przez to bardziej, niż na pierwszym wykresie, skomplikowana, różnice programowe między polskimi rządami są tu widocznie znacznie bardziej wyraźnie. W latach 2016-19 polski IEF spadł raptem o 1,5 pkt (na 100 możliwych), ale odległość od Szwajcarii zwiększyła się o połowę. Proporcjonalnie o tyle też Polska zbliżyła się do Rosji. Stało się tak dlatego, że największe straty zadał PIS Polsce w dziedzinach, które najbardziej odróżniają Rosję od Szwajcarii. W ciągu 3 lat korupcja (government integrity) w Polsce wzrosła o ponad 11 punktów, a sprawność sądownictwa (judicial effectiveness) spadła o ponad 14 pkt ! Tylko częściowo ten ubytek został zrekompensowany przez zmniejszenie deficytu budżetowego (fiscal health) o 10 pkt, a akurat w tym parametrze, różnice pomiędzy Szwajcarią a Rosją nie są aż tak przepastne.

Istnieją zatem w Polsce dwa główne stronnictwa, reprezentujące dwa główne, przeciwstawne programy, które można nazwać „szwajcarskim” i „rosyjskim”. Natomiast ich skład partyjny bywa zmienny. PSL na przykład, w latach 2001-2005 było częścią „Rosji”, aby w okresie 2007-2015 zmienić diametralnie swój program i przyłączyć się do „Szwajcarii”.

Następnym elementem polityki są politycy. Nie są oni bynajmniej, jak się ich często ocenia, ograniczeni i krótkowzroczni. Że tak nie jest, widać nawet przy okazji różnych afer, w które bywają oni umoczeni, jak ostatnio afera „Srebrnej”. Potrafią oni myśleć strategicznie i długofalowo. Oczywiście owa zapobiegliwość i dalekowzroczność dotyczy bezpośrednio nie interesu publicznego, ale własnego owych polityków. Dlatego też ustrój polityczny jest tym lepszy, im bardziej zapewnia zbieżność tego drugiego z tym pierwszym. W przypadku władzy bezprawnej, nielegalnej, dyktatorskiej, sprzeczność interesów jest tu ewidentna, a rządzących najbardziej interesuje uniknięcie odpowiedzialności w przypadku, gdyby władzę mieli utracić i jak najszybsze nachapanie się, zanim taka przykra okoliczność nastąpi. Dlatego też władza legalna i praworządna statystycznie będzie lepsza i zapewni swojemu krajowi większy dobrobyt. O ile w cywilizacji maltuzjańskiej, preindustrialnej, z jej dość prostymi strukturami społecznymi i gospodarczymi, takim optymalnym modelem ustrojowym była dziedziczna monarchia konstytucyjna, o tyle po rewolucji przemysłowej, atraktor przemieścił się w kierunku zarządzania zdecentralizowanego i demokracji przedstawicielskiej. Stała się ona najgorszym z możliwych ustrojów, ale wszystkie wobec niej alternatywy były jeszcze gorsze.

Wbrew popularnemu mniemaniu, politycy demokratyczni nie myślą tylko o wyniku następnych wyborów, ale także kolejnych i wszystkich następnych, w których będą uczestniczyć. Jednak waga każdych kolejnych wyborów maleje w umyśle polityka zgodnie z jego tzw. preferencją czasową. I znów w krajach stabilnych, praworządnych i wolnorynkowych, owa preferencja czasowa jest niska, spadek wartości kolejnych kadencji niewielki, zatem i jakość rządów demokratycznych wysoka. W krajach skorumpowanych i niestabilnych, preferencja czasowa rośnie i jakość rządzenia, w sprzężeniu zwrotnym, spada.

I znów z pomocą przychodzi nam wskaźnik IEF. Im jest on wyższy, tym kraj jest bardziej praworządny, stabilny i przewidywalny. Preferencja czasowa jest w nim zatem niższa, a tym samym jakość kadr demokratycznych wyższa.

Partie polityczne i sami politycy to jednak tylko nadbudowa. Bazą polityki są wyborcy, a programy (w sensie wyżej opisanym) polityczne partii są tylko odbiciem poglądów i interesów elektoratu do którego owe partie się odwołują i za którego reprezentację są uważane.

Gdyby wyborcy, co jest kolejną mądrością z cyklu „wszyscy to wiedzą”, kierowali się wyłącznie przypadkowymi kaprysami i chwilowymi emocjami, to i wyniki wyborów byłyby przypadkowe, chaotyczne i nieprzewidywalne. Takie zjawiska można było, owszem zaobserwować w Polsce na początku lat 90, ale już dawno należą one do przeszłości, a podział polskiego demosu na zwolenników „Szwajcarii” i „Rosji” jest stabilny i ugruntowany, a zmiany w tym rozkładzie powolne. Widoczne w polskiej polityce emocje wynikają więc wprost z realnych sprzeczności w interesach poszczególnych grup elektoratu, a częściowo są nawet tylko swoistym teatrem. Nie zastępują one racjonalnej kalkulacji wyborczej, tylko ją, co najwyżej, wyrażają.

W jaki zatem sposób wyborcy podejmują decyzję o oddaniu swojego głosu, na to, czy inne stronnictwo? Proces ten, chociaż niesłychanie rzadko przebiegający w sposób świadomy, zachodzi w trzech etapach. Po pierwsze wyborca ocenia zgodność programową. Na ile kierunki polityki prowadzonej lub deklarowanej przez daną partię odpowiadają jemu i jego interesom. Naturalnie w każdym programie są rzeczy dla wyborcy mniej lub bardziej ważne, dlatego łączny wynik zgodności programowej musi być średnią ważoną. Nazwijmy go A

Zgodność programowa to jednak tylko pierwszy krok w tym rozumowaniu. Wyborca nie zagłosuje na partię, wysuwającą nawet najbardziej dla niego kuszące postulaty, jeżeli nie uwierzy w szczerość jej intencji. Puste obietnice zwane kiełbasą wyborczą są nieodzowną częścią demokracji i elektorat bierze to pod uwagę. Programowi zatem przypisuje się wiarygodność (B), określone prawdopodobieństwo, że partia będzie chciała go, a właściwie te punkty, które najbardziej pociągają w nim wyborcę, naprawdę realizować.

Jednak i same chęci to za mało. Najbardziej nawet atrakcyjny i szczerze głoszony program, na nic się zda, jeżeli będzie brakowało możliwości. Partia, nawet zgodna programowo i wiarygodna, może zostać oceniona jako nieskuteczna. Albo z powodu swojej niekompetencji, albo zbyt niskiego, nie gwarantującego realnego wpływu na władzę, poparcia (tzw. strach przed utratą głosu), albo z braku zdolności koalicyjnych, albo wreszcie z powodu istnienia przeszkód obiektywnych.

Ostatnim zatem współczynnikiem jest skuteczność – C

Punktacja danej partii wynosi więc A*B*C. Ale to wcale jeszcze nie koniec. Nieprzypadkowo przecież uważa się że Polacy nie głosują zwykle za, tylko przeciw komuś. Oprócz programu pozytywnego, z którym wyborca się utożsamia, każda partia ma też program negatywny, który wyborcę odrzuca. Takie elementy negatywne programu nazwijmy X. Oczywiście one również mają jakiś swój poziom wiarygodności Y i skuteczności Z. Ostatecznie mamy więc wynik.

W = A*B*C-X*Y*Z

Wyborca zagłosuje zatem niekoniecznie na ugrupowanie, z którym ma najbliższą zgodność programową, ale na takie, jaka w jego pojęciu uzyska najwyższy wskaźnik W.

Niżej podpisany należy, jak nietrudno się domyśleć, do stronnictwa „szwajcarskiego” i w trakcie wyborów poszukuje takiej partii, która daje największe szanse na zbliżenie się do tytułowej Szwajcarii. Oto jego, aktualne na moment pisania niniejszego eseju, preferencje:

zalety wady
Prog. Wiaryg. Skutecz. Prog. Wiaryg. Skutecz.
Partia A B C X Y Z wynik
PO 50% 80% 60% 20% 50% 60% 18,0%
PFP 80% 80% 10% 0% 80% 10% 6,4%
N. 60% 60% 20% 20% 60% 20% 4,8%
KORWIN 80% 50% 10% 10% 80% 10% 3,2%
PSL 20% 80% 80% 20% 80% 80% 0,0%
KUKIZ 20% 50% 20% 40% 50% 20% -2,0%
SLD 20% 60% 20% 40% 80% 20% -4,0%
WIOSNA 20% 90% 30% 60% 90% 30% -10,8%
RAZEM 0% 90% 20% 90% 90% 30% -24,3%
PIS 5% 40% 20% 80% 80% 70% -44,4%

Oraz pokazane na wykresie:

wybor 03

Warto zauważyć, że gdyby oceniać tylko po zgodności programowej, na czele preferencji byłby PFP Gwiazdowskiego, przed KORWINem i Nowoczesną. Również na końcu stawki PIS wyprzedzałoby RAZEM. Jednak uwzględnienie wiarygodności i skuteczności ugrupowań politycznych zmieniło tę kolejność.

Wspomniano już, że partie czasem zmieniają swoje programy, niekiedy nawet przechodząc z jednego obozu do drugiego. Proces ten jest jednak dość powolny. Znacznie szybciej mogą się za to zmienić współczynniki wiarygodności i skuteczności. Dotyczy to najbardziej partii nowych i niedoświadczonych politycznie, czego najlepszym przykładem była ostatnio Nowoczesna, w której proces upadku współczynników B i C był szczególnie spektakularny. Najmłodsze partie obecne dzisiaj w zestawieniu to PFP i Wiosna Biedronia i w ich przypadkach wszystkie współczynniki są mało stabilne i mogą się zmienić w krótkim czasie. Jeżeli Biedroniowi uda się trwale osiągnąć wysokie notowania w sondażach, osunie się w zestawieniu w dół, w okolice PIS. Jeżeli uda się to Gwiazdowskiemu, może bez trudu awansować na pierwsze miejsce.

Podobną kalkulację przeprowadza świadomie, lub znacznie częściej nieświadomie, znakomita większość wyborców. Z obecnych ugrupowań politycznych, tylko partia KUKIZ, jak się wydaje, ma właśnie głównie wyborców przypadkowych, głosujących pod wpływem impulsu. Wszystkie pozostałe stronnictwa odwołują się do konkretnych interesów konkretnych grup elektoratu i usiłują je, z różnym skutkiem, przekonać, że są ich najlepszą dostępną reprezentacją.

Reklamy

Dymiące kominy i zielone płuca

Rewolucja przemysłowa była jednym z najważniejszych, a zarazem najmniej zrozumiałych, wydarzeń w całej historii ludzkości. Już sama jej nazwa jest bałamutna i myląca. Rewolucję tę, można by zdefiniować, jako okres, wykładniczego wzrostu wydajności gospodarczej, w który ludzkość weszła po tysiącleciach stagnacji lub powolnego, co najwyżej liniowego rozwoju. W tej wykładniczej epoce rozwijał się przemysł, nadając jej ową mylącą nazwę, ale rozwijały się też inne dziedziny gospodarki, jak rolnictwo, czy górnictwo, również, podobnie jak przemysł, podwajając swoją produkcję w stałych odstępach czasu. Dwa stulecia takiego wykładniczego wzrostu przeobraziło ludzką cywilizację bardziej niż poprzednie 10 tysięcy lat cywilizacji maltuzjańskiej, rolniczej.

Przyczyny zaistnienia tej ekonomicznej eksplozji nadal pozostają przedmiotem sporów i dyskusji. Ambicją autora niniejszego eseju nie jest rozstrzyganie tej kwestii, zamiast tego zamierza on omówić tu jedną z takich hipotez, która na pewno jest fałszywa. Rewolucja przemysłowa, jak głoszą zwolennicy tego pomysłu, nieprzypadkowo rozpoczęła się w Anglii. Otóż właśnie w tym kraju były dostępne bogate zasoby węgla, paliwa kopalnego, które spalane na masową skalę dało gospodarce olbrzymi zastrzyk energetyczny i tym samym bodziec rozwoju, który rewolucję przemysłową rozpoczął. Dymiące kominy fabryk miałyby być oddechem rewolucji, przynajmniej tej przemysłowej.

Faktycznie w XVIII wieku gospodarka brytyjska, chociaż jeszcze nadal maltuzjańska, to i tak najbardziej zaawansowana wtedy na Ziemi, zużywała i spalała znaczące ilości węgla. Działo się tak wskutek ostrego deficytu drewna, jaki panował na Wyspach, spowodowanego masową wycinką lasów w celu rozbudowy brytyjskiej floty, która właśnie w tym okresie umożliwiła Wilelkiej Brytanii zapanowanie nad oceanami. W momencie więc, kiedy pod koniec tego stulecia,  inżynierom udało się zamień ciepło na ruch i zbudować pierwsze w miarę wydajne maszyny parowe, węgiel stał się dla nich naturalnym paliwem, a kłęby węglowego dymu buchające z hut, fabryk i lokomotyw stały się wręcz ikonicznym obrazem rewolucji przemysłowej.

Na tym naiwnym, węglocentrycznym obrazie jednak, nawet na pierwszy rzut oka, widać głębokie pęknięcia. Przede wszystkim węgiel był w Anglii wydobywany jeszcze w czasach rzymskich, a jednak żadnej rewolucji ani wtedy, ani przez kolejne osiemnaście stuleci to nie wywołało. Po drugie w krajach, które, inaczej niż XVIII wieczna Wielka Brytania, nie zostały wylesione, takich jak USA, czy Rosja, rewolucja przemysłowa, kiedy już do nich dotarła, żywiła się przez pierwsze dziesięciolecia właśnie drewnem, a nie węglem. Po trzecie, łatwe w eksploatacji złoża węgla występują na całym świecie, nie tylko w Anglii.

Wreszcie, chociaż protoindustrialna gospodarka Wlk. Brytanii, faktycznie była w XVIII wieku najbardziej zaawansowana na Ziemi i jako jedyna wykorzystywała na zauważalną skalę paliwa kopalne, to wcale jednak nie była pod tym względem pionierska. Już bowiem sześć stuleci wcześniej, w wiekach XI-XIII istniała na świecie gospodarka mająca dokładnie te same cechy. Prowadziła wylesienia na wielką skalę, oraz wydobywała i spalała w swoich hutach i wielkich piecach ogromne ilości węgla. Gospodarka ta, nie tylko trwała od brytyjskiej dwukrotnie dłużej, ale i wycinała znacznie więcej lasów i spalała znacznie więcej węgla. Jej stolica już wtedy zamieszkiwana była przez milion ogrzewających się piecykami węglowymi mieszkańców, który to rozmiar Londyn osiągnął dopiero w XIX wieku. Mowa oczywiście o Chinach Sungów. O ile w Wlk. Brytanii jednak skończyło się to płynnym przejściem do rewolucji przemysłowej, o tyle w Chinach jednak regresem i cofnięciem się do maltuzjanizmu.

Jak widać, wydobywanie i spalanie węgla, nawet na masową skalę, nie jest bynajmniej warunkiem zajścia rewolucji przemysłowej. Ani wystarczającym, ani nawet koniecznym. Mimo jednak jawnej fałszywości tej hipotezy jest ona nadal uparcie forsowana. Dlaczego?

Ano dlatego, że jest ona ważną i istotną częścią znacznie większego i bardziej złowrogiego przemysłu propagandowego, czyli tzw. globalnego ocieplenia.  Wyznawcy tej sekty, zwani przez niżej podpisanego „klimatystami”, daleko wychodząc poza kwestie domniemanych zmian klimatycznych, twierdzą, że owe zmiany, same w sobie niepewne i o nieustalonych przyczynach, są tylko objawem znacznie poważniejszego zagrożenia dla Matki Ziemi. Zagrożeniem tym jest zaś przeludnienie i nadmierna, to znaczy nie ograniczająca się tylko do przydziałowej pryczy w baraku, miski wegańskiej zupy z brukwi raz dziennie i nowego pasiaka raz na rok, konsumpcja.

Konsumpcja ta wymaga spalania paliw kopalnych, co powoduje emisję złowrogiego dwutlenku węgla, a gaz ten, poprzez swoje właściwości cieplarniane, podnoszące średnią temperaturę naszej planety, doprowadzić ma do zagłady ludzkiej cywilizacji, a być może w ogóle życia na Ziemi. Jedynym ratunkiem ma być eksterminacja co najmniej 90% ludzkości, a przynajmniej drastyczne ograniczenie im konsumpcji, czyli zamknięcia ich we wspomnianych wyżej barakach.

Jednym z najważniejszych  z rzekomych „dowodów” na decydującą rolę ludzkich emisji CO2 w ociepleniu jest stosunek izotopów węgla C13/C12 w osadach morskich i jeziornych. Obecnie ten stosunek jest znacznie niższy niż był w epoce przedprzemysłowej i w ciągu 250 lat spadł z 5 do 4 promili. Nadmiar lżejszego izotopu C12 jest typowy dla węgla pochodzenia organicznego, czyli też pochodzącego z paliw kopalnych. Zmiana tych proporcji ma zatem uzasadniać tezę o decydującej roli antropogenicznych emisji CO2 we wzroście jego zawartości w powietrzu. Kłopot w tej narracji jest jednak zasadniczy. Trend opadający udziału C13 zaczyna się bowiem w połowie wieku …XVIII.

Czyli co najmniej sto lat za wcześnie, żeby można go było przypisać rewolucji przemysłowej i spalaniu paliw kopalnych. Jednak nie kijem go, to pałką. W końcu wg klimatystów za te zmiany po prostu musi odpowiadać kapitalizm i rewolucja przemysłowa Jeżeli nie poprzez spalanie węgla, to może chociaż przynajmniej poprzez „zmianę sposobu użytkowania gruntów”, zwłaszcza wycinkę lasów, która wtedy w Wlk. Brytanii faktycznie przybrała na sile. Jednak tylko w Wlk. Brytanii.

Wylesienie na skalę globalną, faktycznie ruszyło, ale sto lat później, kiedy rewolucja przemysłowa z jednej strony znacznie zwiększyła zapotrzebowanie na drewno, z drugiej zaś umożliwiła jego masową wycinkę, poprzez zapewnienie zdatnych do tego celu maszyn, oraz taniego kolejowego transportu, którym ścięte pnie można było łatwo zawieźć do tartaków i fabryk. Aby zaś wycinać dżungle tropikalne, trzeba było jeszcze dodatkowo odkryć chininę. Wszystko to jednak już w XIX wieku. Globalne wylesienia są nieodłącznie skorelowane ze „spalaniem paliw kopalnych”, bo właśnie brak drewna i jego wysokie ceny wymuszają na gospodarce sięgnięcie po inne źródła energii.

W wieku XVIII, zarówno wydobycie węgla, jak i ograniczone do Wysp Brytyjskich i wschodniego wybrzeża dzisiejszych USA, wycinki lasów, były zbyt mizerne, aby w widoczny sposób zachwiać światowym bilansem C13/C12.

A gdyby jednak zachwiały, to analogicznej, ale znacznie silniejszej anomalii w rozkładzie tych izotopów, należałoby się spodziewać za czasów Sungów, w XI-XIII wieku. Niestety w wykresach izotopowych niczego podobnego zidentyfikować się nie da. Ba, klimatyści nawet nie widzą konieczności istnienia takiego zaburzenia, bo w ich pojęciu złowrogi dwutlenek węgla może produkować jedynie agresywna, chciwa, oparta na żądzy zysku i wyzysku cywilizacja Zachodu, natomiast w żadnej mierze cywilizacje niezachodnie, żyjące w pokoju, harmonii i ogólnej miłości.

Propaganda klimatystów jest zatem nie tylko nierzetelna, ale i wewnętrznie sprzeczna. Uczciwość intelektualna wymaga jednak rozważenia możliwości, że, niezależnie od tych błędów i przekłamań, negatywny wpływ antropogenicznych emisji CO2 na zmiany klimatyczne faktycznie mógłby istnieć. Czy rzeczywiście nie byłoby wtedy innej, niż zupa z brukwi, alternatywy?

Jednym z parametrów za pomocą których opisuje się ekosystemy jest tzw. produkcja pierwotna, czyli ilość biomasy, jaki dany biom wytworzy w procesie fotosyntezy w ciągu roku z jednostki powierzchni. Produkujące ową biomasę rośliny, czynią to głównie z wody i wychwytywanego z atmosfery dwutlenku węgla właśnie. W przeliczeniu na węgiel – C, produkcja pierwotna lasu strefy umiarkowanej, czyli naturalnego biomu dla Polski, wynosi ok 500 ton na kilometr kwadratowy. Zważywszy, że całkowite roczne emisje CO2 dla Polski wynoszą, w tych samych jednostkach, 84 mln ton, wystarczy 168 tys. km2 lasu, aby wchłonąć je całkowicie. Wymagałoby to zalesienia nieco ponad połowy powierzchni Polski. Zważywszy jednak na fakt, że taka Japonia, mająca trzykrotnie większą od Polski gęstość zaludnienia, jest zalesiona w ponad 60 %, nie jest to wskaźnik nieosiągalny. Oczywiście sam las nie wystarczy. W dojrzałym, tzw. klimaksowym, lesie, tyle samo CO2 ile jest pochłaniane, jest też uwalniane do atmosfery w procesie rozkładu materii organicznej. Dlatego, o ile las ten ma odgrywać rolę węglowego odkurzacza, wyprodukowaną w nim biomasę, występującą w 80% pod postacią drewna, należy usuwać. Jeżeli się nią następnie spali, to, co prawda wprowadzi się CO2 z powrotem do atmosfery, ale dzięki temu zmniejszy się emisję tego gazu z paliw kopalnych. W ostateczności można zaś takie drewno zatapiać, czy składować w wyrobiskach kopalnianych, albo w inny sposób wyłączać je z obiegu węgla w przyrodzie.

Jeszcze lepsze z tego punktu widzenia, są bagna i mokradła. Nie tylko cechują się ponad dwukrotnie wyższą od lasu produkcją pierwotną, ale i procesy rozkładu zachodzą w nich na tyle powoli, że związany w nich węgiel samorzutnie przekształca się najpierw w torf, a następnie, już w geologicznym okresie czasu, w węgiel brunatny. Jakaś kombinacja bagien i odpowiednio zagospodarowanych lasów na połowie powierzchni naszego kraju mogłaby zamienić Polskę w kraj zeroemisyjny bardzo niskim kosztem i w ciągu kilkunastu najwyżej lat.

Problem z antropogenicznym dwutlenkiem węgla, o ile w ogóle miałby istnieć, byłby jednak problemem nie polskim, a globalnym. W tym kontekście jego rozwiązanie byłoby jednak jeszcze prostsze. Patrząc na mapy produkcji pierwotnej w skali planety, łatwo dostrzeżemy dwa bardzo rozległe, łącznie zajmujące ponad połowę powierzchni Ziemi, a praktycznie nieproduktywne rejony. Pierwszy z nich to pas olbrzymich pustyń ciągnących się od marokańskiego wybrzeża Atlantyku po Azję Środkową. Drugi, jeszcze większy, to zdecydowana większość światowego oceanu, który, poza nielicznymi enklawami, jest jedną wielką biologiczną pustynią.

Aby osiągnąć wysoką produkcję pierwotną potrzeba bowiem czterech rzeczy. Światła słonecznego, wody, dwutlenku węgla oraz istniejących w postaci przyswajalnej dla roślin pierwiastków biogennych, fosforu, azotu, czy siarki. Na pustyniach lądowych brakuje wody. Na pustyniach oceanicznych, pierwiastków biogennych, przede wszystkim żelaza. Nawadniając pustynię i nawożąc oceany żelazem, możemy uzyskać znaczy wzrost produktywności tych obszarów, a tym samym ilości pochłoniętego przez nie CO2. Naturalnie wyprodukowaną w ten sposób biomasę należałoby z naturalnego obiegu węgla usuwać, co w przypadku oceanu następowałoby samoistnie, ale i w przypadku pustyń lądowych byłoby jedynie drobną niedogodnością.

Zakładając, że udałoby się produktywność tych obszarów podnieść do 200 ton C/km2, co na lądzie odpowiadałoby stepom, lub niezbyt intensywnie uprawianym polom uprawnym, a na oceanie tzw. strefie upwellingu, miejsca, w którym prądy morskie wynoszą substancje pokarmowe na powierzchnie, to do całkowitego pochłonięcia wszystkich obecnych światowych emisji CO2 wystarczyłoby 46 mln km2, czyli mniej więcej 9% powierzchni Ziemi.

Eksperymenty z nawożeniem oceanów są prowadzone już od lat 90 XX wieku, a ich wyniki jednoznacznie wskazują, że jest to proces potencjalnie bardzo wydajny i mogący z powodzeniem dwutlenek węgla z atmosfery usuwać. Nie należy się zatem dziwić, że klimatyści, o ile o roli ekosystemów lądowych w tym procesie wypowiadają się rzadko, niechętnie i zawsze negatywnie, o tyle, o potencjalnych możliwościach nawożonego oceanu – nigdy. Albo wcale zatem oni w wymyślone przez siebie zagrożenie straszliwym CO2 nie wierzą, albo, nie zamierzają owego problemu realnie rozwiązywać, a jedynie, pod tym pretekstem, narzucić społeczeństwu preferowane przez siebie rozwiązania polityczne, ekonomiczne i społeczne.

Apokalipsa nadchodzi. Jak zwykle.

Zestaw kolejowy Alstom EMU250, znany w Polsce jako „Pendolino” rozwija moc 5,7 MW, zabiera 402 pasażerów i osiąga prędkość 250 km/h. Nietrudno obliczyć, że, przewóz jednego pasażera na odległość 100 km wymaga 5,7 kWh energii elektrycznej. Pociągi podmiejskie mają parametry mniej wyśrubowane. Jeżdżący w barwach podwarszawskiej WKD zestaw EN100[39WE] ma moc 1,44 MW, prędkość maksymalną 80 km/h i mieści aż 505 pasażerów, w większości (2/3) na miejscach stojących. Przewóz 1 pasażera na 100 km kosztuje w nim zatem 3,6 kWh.

Samochody elektryczne są bardziej żarłoczne. Na przejazd 100 km zużywają 15-20 kWh, czyli dopiero przy przewozie 4 osób osiągają wyniki porównywalne z pociągami.

Prąd do napędzania tych pojazdów pochodzi oczywiście z elektrowni. Największa w Polsce elektrownia Bełchatów aby wytworzyć 1 kWh energii elektrycznej, spala 1,3 kg węgla. Brunatnego. Mniejsza elektrownia Turów jest bardziej wydajna i potrzebuje w tym celu zaledwie 1,1 kg węgla. Również brunatnego.

Ostatecznie, aby przewieźć jedną osobę na 100 km, pojazdy elektryczne, czy to pociąg, czy samochód, spalają od 4 do 24 kg węgla. Brunatnego.

Tymczasem samochody spalinowe spalają przeciętnie od 4 do 12 kilogramów paliwa na 100 km, średnio około dwukrotnie mniej niż pojazdy elektryczne.

A przecież porównaliśmy wyłącznie masę. Ze spalenia kilograma węgla brunatnego powstaje jednak znacznie więcej odpadów niż ze spalenia kilograma benzyny, zatem to właśnie pojazdy spalinowe są od elektrycznych wielokrotnie mniej szkodliwe dla środowiska naturalnego. W przypadku spalających 2-3 kg/100 km na pasażera paliwa samolotów, a zwłaszcza autobusów, w których przypadku ten parametr sięga 0,5 kg, różnica rośnie do kilkudziesięciu razy.

Nie ulega zatem wątpliwości, że lobbyści, którzy niezwykle agresywnie domagają się elektryfikacji transportu, bynajmniej nie robią tego w interesie ochrony środowiska, a tym bardziej w celu powstrzymywaniu jakiegoś wyimaginowanego globalnego ocieplenia, jak to gromko deklarują.

Moda na straszenie owym ociepleniem zdawała się już wygasać, jednak w ciągu ostatnich kilkunastu miesięcy jej wyznawcy znów niezwykle się zaktywizowali i zradykalizowali. Nieomylny to znak, że problemy, na których żerowali, są coraz bliższe realnego rozwiązania, a ekstremiści robią się coraz bardziej ekstremalni, bo te rozwiązania nie są po ich myśli.

O ile jeszcze kilkanaście lat temu, chętnie przyznawali oni, że kwestia ziemskiego klimatu jest złożona i skomplikowana i wpływa na niego wiele różnych, często zależnych też od siebie nawzajem, czynników, to z upływem czasu ich propagandowy przekaz uległ znaczącemu uproszczeniu i radykalizacji. Teraz za wszelkie zmiany klimatyczne na Ziemi, dzisiejsze, przeszłe i przyszłe odpowiada dwutlenek węgla – CO2 i tylko CO2. Sekta ociepleniowa opiera się dzisiaj na następujących dogmatach.

  1. Klimat na Ziemi się ociepla.
  2. Przyczyną tego ocieplenia jest, wynikająca z kapitalistycznej żądzy zysku i wyzysku, działalność człowieka.
  3. Tą działalnością jest spalanie paliw kopalnych i emitowanie CO2 bo ziemska temperatura zależy wyłącznie do stężenia CO2
  4. Skutkiem ocieplenia będzie globalna katastrofa, co najmniej zagłada ludzkiej cywilizacji, ale koniec życia na Ziemi też nie jest wykluczony.
  5. Żadne działania podjęte w ramach normalnej działalności ekonomicznej i politycznej nie mogą zatrzymać tej katastrofy

Zakwestionowanie w jakikolwiek sposób choćby jednego z tych dogmatów wystarczy do ogłoszenia kwestionującego heretykiem – „denialistą”. Dodatkowo trwa obecnie uzupełnianie listy o dogmat nr 6

  1. Jedynym ratunkiem jest drastyczna (rzędu 90%) redukcja ludzkiej populacji i/lub równie drastyczne ograniczenie im poziomu konsumpcji.

Jak to często bywa z sektami apokaliptycznymi, cechuje ich mizantropia, na którą składają się obojętność na głód, folgowanie makabrycznym fantasmagoriom o wyludnionej planecie i nazistowskie porównania ludzi do robactwa, patogenów i nowotworów, jak niezwykle celnie podsumował ich Steven Pinker.

Mimo jednak dziesięcioleci intensywnych i kosztownych dla podatników wysiłków, nauce do tej pory udało się jako tako uprawdopodobnić jedynie punkt 1 z tej listy. Klimat na Ziemi w ciągu ostatnich kilkudziesięciu lat prawdopodobnie faktycznie się ocieplił. Możliwe przyczyny tego zjawiska nadal jednak pozostają w obrębie słabo udokumentowanych hipotez.

Nawet sam związek pomiędzy zwiększeniem temperatury, a również rosnącym w tym samym czasie poziomem CO2 w atmosferze naszej planety nie jest wcale oczywisty. Owszem, gaz ten posiada pewne właściwości cieplarniane, to znaczy że zatrzymuje część promieniowania docierającego do powierzchni Ziemi nie pozwalając mu uciec w kosmos i tym samym podnosi ziemską temperaturę, ale te jego właściwości są zdecydowanie przeszacowane.

Wyznawcy „klimatyzmu” chętnie powołują się na przykład planety Wenus, która ma bardzo gęstą atmosferę złożoną w znakomitej większości z CO2 właśnie i równie potężny efekt cieplarniany czyniący ją najgorętszym, po Słońcu, miejscem w Układzie Słonecznym. Tak według nich będzie wyglądać Ziemia w niedalekiej już (ostatnio była mowa nawet o dwunastu latach) przyszłości. Wolą oni nie zauważać, że wokół Słońca krąży jednak więcej planet. W atmosferze Marsa, przykładowo, mimo że jest ona bardzo mizerna, dwutlenku węgla jest i tak prawie pięćdziesięciokrotnie więcej niż w atmosferze Ziemi. A efekt cieplarniany, jeżeli w ogóle występuje, to jest co najmniej dwudziestokrotnie od ziemskiego słabszy. Potrzeba zatem naprawdę olbrzymich koncentracji tego gazu, takich jak na Wenus, gdzie jest go z kolei setki tysięcy razy więcej, żeby jakikolwiek zauważalny wzrost temperatury nastąpił.

Tymczasem, zawartość dwutlenku węgla w ziemskiej atmosferze wzrosła w ciągu ostatnich 60 lat z 300 do 400 ppm (cząsteczek na milion). Jeżeli jednak popatrzeć przez pryzmat Marsa i Wenus, to dynamika ta jest o wiele za niska, żeby wytłumaczyć jednoczesny wzrost temperatury. Przyczyną tego ostatniego zjawiska, jeżeli faktycznie ono zaszło, musiało być coś innego, być może zupełnie innego.

Klimatyści mają zresztą ze swoim węglowym antychrystem wiele innych problemów. Zgodnie z dogmatem nr 3 przyczyną zmian temperatury mogą być tylko i wyłącznie zmiany w stężeniu CO2. Zatem także okresy wyjątkowego chłodu, jak niedawne geologicznie plejstoceńskie zlodowacenia, muszą mieć takie właśnie wytłumaczenie. Stężenie dwutlenku węgla miałoby wtedy spadać nawet poniżej 200 ppm. Ta argumentacja nie trzyma się jednak przysłowiowej kupy. Atmosferyczny CO2 bowiem nie tylko uczestniczy, w niewielkim stopniu, w podgrzewaniu powierzchni Ziemi, ale przede wszystkim reguluje przebieg jednego z najważniejszych procesów biologicznych – fotosyntezy.

Wśród porastających naszą planetę roślin istnieją trzy rodzaje tejże fotosyntezy.

– Fotosynteza CAM występująca głównie u roślin pustynnych, Potraktujemy ją jako ciekawostkę, nas interesować będą bowiem dwa inne jej rodzaje.

Fotosynteza C3 i C4. Różnią się one od siebie zapotrzebowaniem na wodę – C4 jest bardziej pod tym względem oszczędna, ale również, co szczególnie istotne, zapotrzebowaniem na dwutlenek węgla. Fotosynteza C4 radzi sobie lepiej z jego niskimi stężeniami. Konsekwencją tych dwóch różnic jest fakt, że rośliny C3 mają wobec roślin C4 przewagę ewolucyjną w niższych temperaturach i wyższych stężeniach CO2, a rośliny C4 na odwrót. W okolicach stężenia CO2 w wysokości 200 ppm rośliny C4 mają zaś już przewagę niezależnie od wysokości temperatury. Oczywiście rośliny C3 jeszcze sobie w takich warunkach radzą, a giną dopiero po spadku poniżej 150 ppm. W ewolucji jednak nie wystarczy po prostu sobie radzić. Trzeba jeszcze radzić sobie lepiej niż konkurenci. Gdyby zatem stężenie CO2 w powietrzu utrzymywałoby się w plejstocenie poniżej 200 ppm, jak głoszą dogmaty klimatyzmu, roślinność C3, a wśród niej żyto i pszenica, nie mówiąc już o dębach, czy brzozach, zostałaby wyparta przez konkurentów C4 całkowicie. Doszłoby do zagłady praktycznie wszystkich roślin C3 i triumfalnego pochodu C4 przez wszystkie kontynenty. Dzisiaj znalibyśmy C3 wyłącznie z wykopalisk lub, co najwyżej, jakichś endemicznych stanowisk. Oczywiście nic podobnego nie miało miejsca. Rośliny C3 nadal dominują na Ziemi, zarówno pod względem liczebności, jak i biomasy. Ekspansja roślin C4, owszem trwała od oligocenu, ale nieregularnie i w sposób geograficznie nieskoordynowany, a to ostatnie nie miałoby miejsca, gdyby przyczyną ich sukcesów był właśnie niski poziom CO2 w powietrzu.

No dobra, prawdą jest, tezy o absurdalnie niskich, poniżej 200 ppm poziomach stężeń CO2 w plejstocenie klimatyści nie wymyślili sami. Pochodzi ona z badań pęcherzyków powietrza uwięzionych w grenlandzkich i antarktycznych lądolodach, z tzw. rdzeni lodowych. Fakt jednak, że zmierzone w ten sposób stężenia są w oczywisty sposób za niskie, świadczy jedynie o tym, że te badania są po prostu obciążone jakimś niezidentyfikowanym do tej pory błędem systematycznym. Istnieje zatem jakiś proces, chemiczny, mechaniczny, czy biologiczny, który obniża zawartość CO2 w uwięzionym w lodzie powietrzu właśnie do takiej niskiej wartości.

Ten sam problem dotyczy stężeń CO2 nie tylko z okresu zlodowaceń, ale także z okresu przedprzemysłowego. Bo również wtedy, według dogmatów klimatystów stężenie CO2 miało być znacznie niższe od dzisiejszego, rzędu 250 ppm i zaczęło rosnąc dopiero od początku XIX wieku, wraz z rozwojem rewolucji przemysłowej. Gdyby tak było, punkt równowagi C3-C4 w ciągu minionych 200 lat przesuwałby się gwałtownie w stronę C3. Drzewa, mają, rzecz jasna, zbyt długi cykl życiowy, by zmiany były widoczne, ale rośliny jednoroczne już by zareagowały (to w końcu ponad 200 ich pokoleń) i botanicy powinni zaobserwować trwającą od XIX wieku zmianę w rozkładzie ich gatunków – wzrost liczebności C3 kosztem C4. Ponownie, nawet jeżeli tak było, nikt tego nie zauważył.

Problem z przeszłymi, geologicznie, czy historycznie, stężeniami CO2, jest tylko częścią szerszego problemu, jaki sekciarze mają z jakimikolwiek danymi ilościowymi. Rytualnie bowiem, dane pochodzące z różnych okresów, zbierane bardzo różnymi metodami i przy pomocy czasami drastycznie różnych metodologii, usiłują oni na siłę dopasować do siebie i scalić w jedno. Rezultaty bywają rozmaite, ale zawsze nierzetelne, jak np. słynne „kije hokejowe”, mające pokazywać rzekomo drastyczny wzrost, czy to temperatury, czy to stężenia CO2 w ostatnich dziesięcioleciach w  porównaniu z epokami poprzednimi. Kije będące niczym innym, jak tylko metodologicznymi artefaktami takich siłowych dopasowań. Dane „niedopasowane” bowiem, nijak dogmatów klimatystów nie potwierdzają. W źródłach wydanych przed narodzinami klimatyzmu można znaleźć informację, że np. stężenie CO2 wynosi …600 ppm (rok 1937), albo że średnia temperatura Ziemi wynosi …16 stopni Celsjusza. (1972) – obie wartości znacznie wyższe od podawanych obecnie. Dane te nie były błędne, tylko zmierzone innymi metodami niż współcześnie i w związku z tym, obarczone innymi błędami. Tyle, że nie zostały wtedy jeszcze dopasowane do danych współczesnych.

Osobną kwestią jest też umieszczanie na podawanych przez sektę do wierzenia malunkach, bo przecież nie są to w żadnej mierze spełniające wymogi naukowej rzetelności wykresy, nie tylko danych przeszłych, niezależnie od tego jak bardzo wątpliwych, ale także danych …przyszłych, traktowanych z takim samym poziomem miarodajności i epatowanie publiki, że „temperatura do końca stulecia wzrośnie o 2, 4, 6, 8 w zależności od fantazji piszącego, stopni, że stężenie CO2 wzrośnie do 1000, albo i 2000 ppm, że kury przestaną się nieść, a krowy dawać mleko. Fałszywe proroctwa, oparte o najprostszą, liniową ekstrapolację wielkości mierzonych współcześnie, podczas gdy rzeczywistość fizyczna  na pewno liniowa nie jest.

Realnie, z ekonomicznego, społecznego i środowiskowego punktu widzenia, odejście od paliw kopalnych i „dekarbonizacja” gospodarki jest procesem pożądanym, jednak z innych, niż rzekomo wywoływane przez nie ocieplenie, powodów. Proces ten rozpoczął się zresztą już w połowie lat 70 XX wieku, na długo przed wybuchem ociepleniowej histerii. W ciągu kolejnych 20 lat udział paliw kopalnych w ziemskiej energetyce spadł z 94 do 87 procent. Powstanie w latach 90 sekty klimatycznej, nie przyśpieszyło, jakby się mogło wydawać, ale przeciwnie – opóźniło ten trend. Przez kolejne dwie dekady odsetek tkwił w miejscu i dopiero w ostatnim dziesięcioleciu znów ruszył w dół osiągając 84% w 2017 roku. Gdyby nie klimatyści więc, dzisiaj paliwa kopalne dawałyby już tylko 77% światowej energii i zarówno poziom emitowanych przy ich eksploatacji zanieczyszczeń, jak i politycznie szkodliwe wpływy ich dostawców byłyby proporcjonalnie mniejsze.

Niniejszy artykuł opublikowano w 1495/1496 numerze „Najwyższego Czasu”

Pan Samochodzik i mroczne tajemnice

– Baśka – szepnąłem do chłopca
– Słucham – usłyszałem jego szept
-Przysuń się do mnie
Zrobił kilka ruchów ciałem i znalazł się obok mnie.
Ja również poruszyłem się w ten sposób,
że swoimi plecami oparłem się o jego plecy
Ręce miałem związane z tyłu w przegubach…
ZBIGNIEW NIENACKI

Okres PRL, lata 1944-1989, był chyba, pisząc bez żadnej przesady, najgorszym okresem w historii Polski. Chyba żeby uwzględnić bezpośrednio poprzedzający go okres nazistowskiej okupacji, ale ten trwał o wiele krócej, w dodatku było oczywiste, że panują wtedy warunki wojenne, z definicji tymczasowe, nienormalne i przejściowe.

PRL zaś, rozsiewając ułudę normalności i stałości, oraz głosząc się ostatecznym ukoronowaniem polskich dziejów, był czymś gorszym nawet od rozbiorów. Wtedy bowiem, ziemie polskie, chociaż podzielone, rozwijały się w tempie zbliżonym do innych krajów europejskich, a sami Polacy – obywatele krajów zaborczych, żyli w warunkach prawnych i ustrojowych takich samych jak mieszkańcy wszystkich innych krajów, także tych najbardziej ówcześnie rozwiniętych i cywilizowanych. Doświadczali czasami Polacy dyskryminacji narodowej, czy religijnej, ale nie ekonomicznej czy cywilizacyjnej. W rezultacie powstała po 1918 roku II RP była krajem, co prawda, bardzo biednym, ale normalnym, inaczej niż w 1989 roku, wolnym od Homo sovieticus i nie zdemoralizowanym dwoma pokoleniami komunistycznej  gospodraki.

PRL nie pozostawiła po sobie literalnie niczego dobrego, czy choćby znaczącego lub godnego uwagi. Ani na polu gospodarczym, ani naukowym, ani nawet kulturalnym. Cokolwiek wartościowego powstało w okresie PRL, powstało nie dzięki niemu, a pomimo, a nawet wbrew PRL. Twórcy najbardziej nawet popularnych filmów, seriali, czy poczytnych powieści, którzy w normalnym kraju, dzięki tym dokonaniom, zostaliby bogaczami, w PRL klepali równo biedę jak wszyscy inni. Nie tylko dysydenci, ale także autorzy jak najbardziej pokorni, tworzący „po linii” i będący „na bazie”, czy gwiazdy najbardziej prawomyślnych propagandowych seriali, w rodzaju „Czterech pancernych”, czy „Stawki większej niż życie”,  nie mogli liczyć nawet na takie zarobki, jakie w krajach normalnych były udziałem niewykwalifikowanych robotników. Tą jedną obietnicę udało się PRL spełnić. Wszyscy, nawet teoretycznie uprzywilejowani najwyżsi partyjni dygnitarze, w stosunku do krajów normalnych, byli równi w powszechnej nędzy.

Jednym z takich, dyspozycyjnych wobec reżimu, a zarazem popularnym i poczytnym twórcą był Zbigniew Nowicki piszący pod pseudonimem Nienacki. Typowo dla PRL, ani talent, ani popularność wśród czytelników, ani nawet wysoce prawomyślne poglądy polityczne, nie zapewniły mu jednak sukcesu materialnego. To, że zamierza mu i jego twórczości, niżej podpisany poświęcić osobny esej, świadczy jednak też o tym, że okazał się Nienacki, inaczej niż wielu mu współczesnych piewców PRL, pisarzem ponadczasowym.

Najwybitniejszym literackim dokonaniem Nienackiego, jest bez wątpienia traktująca o początkach państwa polskiego i do dzisiaj nie mająca w tej kategorii konkurentów, powieść z pogranicza historii i praktycznie nieobecnego wtedy w Polsce, fantasy „Dagome iudex”. Jest to jednak dzieło, które, choć gdyby było wydane kilka lat wcześniej lub później, z pewnością zrobiłoby furorę, to fatalnym zbiegiem okoliczności przepadło bez większego echa.

Pozostał więc Nienacki znany przede wszystkim jako autor „powieści dla młodzieży”, jak zwykło się określać serię o przygodach „Pana Samochodzika”, bohatera, będącego w znacznej mierze alter ego samego autora. Początkowo dziennikarza, później kogoś w rodzaju detektywa rozwiązującego zagadki kryminalno – historyczne. Seria ta, rozpoczęta zresztą dosyć przypadkowo, powstawała w latach 1957-1985 i ostatecznie objęła piętnaście „kanonicznych” (bo po śmierci autora pojawiły się też liczne apokryfy) pozycji od „Uroczyska” do „Człowieka z UFO”. W przeciwieństwie do innej tego typu, popularnej w PRL, a dziś kompletnie zapomnianej, literatury, Pan Samochodzik nie tylko utrzymuje swoich starych wielbicieli, ale nadal zdobywa nowych. Takich, którzy PRL pamiętają tylko z opowieści rodziców, czy nawet dziadków, co, zważywszy na bardzo silne osadzenie powieści w tamtejszych realiach, realiach dzisiejszemu czytelnikowi całkowicie obcych, niezrozumiałych i wręcz przerażających, jest fenomenem zdumiewającym.

Wiąże się z tym paradoksalne zjawisko, na które uwagę zwrócił ostatnio autorowi niniejszego eseju, jeden z takich świeżo zwerbowanych dziesięcioletnich fanów. Dlaczego mianowicie Pan Samochodzik, a właściwie jego twórca, tak bardzo afirmuje (nie użył dokładnie tego słowa) PRL, choć przecież zarówno sam Nienacki, jak i Pan Tomasz, jak Samochodzik ma na imię, pomimo swoich niewątpliwych talentów i osiągnięć, żyli biednie i nie mogli się w związku z tym uważać za jego beneficjentów?

Sukces i zadziwiająco długie trwanie w przestrzeni czytelniczej samochodzikowego cyklu nie odbyło się przecież dzięki zawartym w nim peanom na cześć PRL, ale pomimo tego ideologicznego wsadu. Poparcie Pana Samochodzika i jego autora dla rządzącego reżimu było zatem z pewnością szczere, a nie tylko koniunkturalne.

Rozwiązanie tego paradoksu jest ściśle związane z najbardziej perfidnym, podstępnym i przewrotnym elementem PRLowskiej propagandy – jawną opcją antyniemiecką. Na generacjach urodzonych, tak jak Nienacki i jego o kilka lat młodszy bohater, przed mniej więcej 1940 rokiem, czas wojny i okupacji, w trakcie której Polska otarła się o całkowitą biologiczną anihilację, czas, w którym zginęło lub zostało wymordowanych ponad 6 milionów Polaków, na zawsze odcisnął swoją niezatartą traumę. Nie należy się dziwić, że w porównaniu z nazistowską polityką totalnej zagłady, nawet dziadostwo PRL mogło się wydawać atrakcyjne. A perspektywa powrotu Niemców była najgorszym koszmarem jaki naszym dziadkom śnił się po nocach. I reżim PRL cynicznie wykorzystując tą traumę, potrafił wielu, skądinąd rozsądnych ludzi, przekonać, że stanowi on jedyną barierę przed powtórzeniem drugowojennych doświadczeń. Że w przypadku upadku komunizmu w Polsce, niemieccy (oficjalnie tylko zachodnioniemieccy) rewanżyści wrócą po swoje i swojego krwawego dzieła dokończą. Jechanie na antyniemieckim wózku było tak skuteczne, że na jakiekolwiek próby wykolejenia go, jak np. słynny list biskupów, reżim reagował niesłychaną furią. Nawet próby przypominania, że Niemcy nie zawsze byli wrogiem Polski, były przez reżim bardzo niemile widziane. Obowiązywała narracja o „odwiecznym agresywnym Drang nach Osten”, przed którym dopiero komuniści po tysiącach lat krwawych zmagań postawili zaporę, a która by zniknęła, gdyby komunistów zabrakło.

Sam Nienacki, inaczej niż wielu jego ówczesnych kolegów po piórze i propagandzie, wolny jest od nacjonalistycznych uprzedzeń. Nie brzydzi go używanie przez jego bohatera języka niemieckiego, a podział na dobrych i złych nie pokrywa się z podziałem narodowościowym. Zważywszy na fakt, że było to w czasach, kiedy lansowano pisownię „niemiec” i „niemców” z małej litery, a do końca lat 70 istniał cenzuralny „zapis” na jakiekolwiek publiczne odtwarzanie muzyki … Wagnera, to już bardzo dużo. Strach jednak przed niemieckim rewanżyzmem jest w samochodzikowym cyklu wyraźnie obecny. Najbardziej złowrodzy zaś jego przedstawiciele, niczym tolkienowski Sauron, wysyłają do Polski swoich Czarnych Jeźdźców (w fordzie taunusie), ale nie pojawiają się w powieści osobiście. Zło ukryte i przestrzennie oddalone, jest znacznie bardziej złowrogie niż spotkane osobiście zło uosobione w żywym człowieku. Nienacki wiedział to równie dobrze, jak Tolkien.

Określając wyżej serię „powieściami dla młodzieży” nie bez powodu użyto cudzysłowu. Wbrew bowiem brzmiącej infantylnie nazwie i powierzchownemu wrażeniu, „samochodziki” „powieściami dla młodzieży” bynajmniej nie są, a przynajmniej nie są nimi wyłącznie. Wystarczy bowiem zauważyć, że „literatura młodzieżowa”, z natury rzeczy wymaga młodzieżowych bohaterów, z którymi nastoletni „target” czytelniczy mógłby się łatwo utożsamić. Tymczasem w „Samochodzikach” tacy bohaterowie, owszem, pojawiają się, ale po bynajmniej nie we wszystkich książkach. I, jak jeszcze będzie o tym mowa, Nienacki umieścił ich w fabule nie tylko po to, aby zachęcali swoich rówieśników do lektury.

Również poziom brutalności, z morderstwami (Uroczysko, Wyspa Złoczyńców), bądź choćby próbami zabójstwa (Templariusze) włącznie, daleko wykracza poza to, co w ówczesnej literaturze młodzieżowej można znaleźć.

Kolejnym elementem nie pasującym do młodzieżowego „emploi”, jaki się rutynowo do „Samochodzików” przypina, jest …seks. Sam Mistrz, w pozostałej swojej twórczości, od dosadnych, ocierających się wręcz o pornografię, opisów zbliżeń damsko – męskich czytelnikom bynajmniej nie szczędził. Ale akurat w „Samochodzikach”, takich dosłownych scen oczywiście nie znajdziemy. Niemniej jednak, tytułowemu bohaterowi praktycznie w każdej powieści towarzyszą co najmniej dwie atrakcyjne fizycznie postacie kobiece i napięcie erotyczne pomiędzy nimi a Panem Tomaszem jest bardzo wyraźnie (dla dorosłego czytelnika – niżej podpisany kiedy po raz pierwszy zapoznał się z cyklem jako dwunastolatek, tego nie zauważył) zaznaczone. Silniejsze w pierwszych powieściach „Uroczysku” i „Skarbie Atanaryka”, słabnie nieco w najbardziej „umłodzieżowionej” części środkowej serii gdzie przykładowo relacje Tomasza z Barbarą Wierzchoń w „Niesamowitym Dworze” są prezentowane jako praktycznie wyłącznie służbowe. Słabo kamuflowany erotyzm wraca jednak ze zdwojoną mocą w ostatnich pozycjach, w których konsumpcja flirtu z Lady Elisabeth („Winnetou”), Gretą Herbst („Niewidzialni”), czy Bajeczką („Złota Rękawica”) jest zasugerowana tak dobitnie, jak tylko się to, bez przesunięcia powieści do kategorii „dla dorosłych”, dało.

Postacie drugoplanowe, żeńskie i męskie, pozytywne i negatywne, są zresztą bardzo mocnym punktem serii. Wyraziste, wielowymiarowe, łatwo zapadają w pamięć czytelnika. Mając wyjątkowy talent do ich kreowania, unika też Nienacki ich zużycia, pozbywając się ich, kiedy przestają być fabularnie potrzebni, do czego niewielu pisarzy jest zdolnych. Co najwyżej zgrane już postacie pojawiają się incydentalnie, bądź są tylko później wspominane.

Na poniższym wykresie pokazano rozkład, innych niż tytułowy, bohaterów „Pana Samochodzika” w zależności od ilości pojawień się w powieściach z cyklu. Za „pojawienie się” uznano najmniejszą choćby wzmiankę o danej postaci.

pansam 01

Trzynastu bohaterów, w tym pies Protazy, pojawia się w serii, w sensie wyżej zdefiniowanym, dwukrotnie, pięciu trzykrotnie, czterech czterokrotnie, a pojedynczy nawet po osiem (dyrektor Jan Marczak) i dziesięć (wuj Stefan Gromiłło) razy. Ostatnim, najczęściej, bo jedenastokrotnie, występującym bohaterem jest oczywiście sam, skonstruowany przez wzmiankowanego wuja, wehikuł, któremu Pan Tomasz zawdzięcza swój przydomek.

Wykres zawiera jeszcze jedną informację. Gdyby bohaterowie zjawiali się w świecie samochodzikowym, tak jak w realnym życiu, w sposób losowy, wówczas ich rozkład miałby charakter wykładniczy, zilustrowany niebieską krzywą. Gołym okiem jednak widać, że rozkład jednak daleko od wykładniczego odbiega i znacznie lepiej pasuje tu rozkład potęgowy. Prawdopodobieństwo zatem pojawienia się jakiejś postaci nie jest stałe, ale zależy od liczby pojawień się w przeszłości. Im więcej razy ktoś już występował w powieściach, tym większa szansa, że pojawi się w kolejnej. Umysł ludzki, także umysł twórcy – pisarza nie jest zdolny do generowania pełnej losowości i ma jednak do swoich kreacji pewien sentyment. Im dłużej taką postać prowadzi, tym trudniej mu się z nią rozstać, kiedy wymogi kreacji literackiej tego zażądają. Nawet dysponujący niezwykłą łatwością generowania bohaterów Nienacki nie do końca, jak pokazuje to czerwona krzywa, potrafi oprzeć się temu zjawisku.

Często wśród fanów pisarza można zetknąć się z poglądem, jakoby Nienacki, nie mając trudności z powoływaniem do życia krwistych bohaterów, napotykał jednak problemy z wymyślaniem im …nazwisk. Istotnie, na pierwszy rzut oka, wiele osób występujących w „samochodzikach” nazwisk nie posiada, lub wręcz określanych jest samym inicjałem, jak Henryk S „Dryblas” z „Uroczyska”, czy „doktor W” z „Księgi strachów” i „Tajemnicy tajemnic”, czy wreszcie sam Pan Samochodzik osobiście, przedstawiony jako „Tomasz N.N.”.

Jeżeli jednak przyjrzymy się tym nazwiskom bohaterów bliżej, odkryjemy, że sprawa bynajmniej nie jest taka prosta i oczywista. W końcu, nawet w czasach sprzed powstania Internetu, znalezienie dla wymyślonych postaci jakichś dobrze brzmiących nazwisk nie stanowiłoby żadnego problemu. Internetu nie było, ale były książki telefoniczne z dziesiątkami tysięcy, jak najbardziej autentycznych nazwisk, do wyboru, do koloru.

  Naturalnie trudno byłoby oczekiwać, że szczegółowo personalnie zostanie przedstawiona osoba z bardzo dalekiego tła powieści, dlatego skupimy się wyłącznie na bohaterach drugoplanowych. Takim bohaterem będzie zatem człowiek (psy i samochody, które uwzględniliśmy na pierwszym wykresie, nazwisk bowiem z definicji nie mają), który w danej powieści pojawia się, niekoniecznie osobiście, co najmniej trzykrotnie i w jakiś sposób wpływa na przebieg fabuły.

Naszą  analizę problemu nazwisk zaczniemy, z przyczyn które później staną się oczywiste, od bohaterów męskich. Takich drugoplanowych, w sensie wyżej zdefiniowanym, postaci tej płci, znajdziemy w piętnastu powieściach cyklu łącznie osiemdziesięciu dwóch. Od Stefana Nemsty do don Pedro de Aristizabela. Jest wśród nich 56 Polaków i 26 cudzoziemców. Kiedy zbadamy kwestię ich nazwisk, odkryjemy pewną asymetrię. Prawdopodobieństwo że nazwisko będzie miał bohater narodowości polskiej wynosi 41%. W przypadku bohatera cudzoziemca, odsetek ten wzrasta do 67%. Różnica może się nie wydawać wielka, ale jest istotna statystycznie, a zakresy błędu nie zachodzą na siebie.

Gdyby Nienacki faktycznie miał jakieś psychiczne zahamowania, czy problemy w nadawaniu wykreowanym postaciom nazwisk, oczekiwalibyśmy raczej zależności odwrotnej. Dobre nazwisko zagraniczne, zwłaszcza w realiach PRL, wymyślić było przecież trudniej niż nazwisko polskie. Mamy więc do czynienia nie z niemocą twórczą, ale raczej z celowym, co jednak nie oznacza koniecznie że świadomym, zamiarem autora. Ostatnie zastrzeżenie jest istotne, bo, jak się jeszcze okaże, należy wątpić, żeby Nienacki przekazując przyszłym pokoleniom te informacje, chciał to na pewno uczynić świadomie.

Następną analizowaną grupą bohaterów są …nieboszczycy. Ci, którzy w momencie trwania akcji powieści opuścili już ziemski padół, ale naturalnie nadal wpływają jakoś zza grobu na przebieg akcji. Takich postaci jest trzynaście, w tym jedna kobieta – Anna von Dobeneck z d. Gottlieb z „Niewidzialnych”. I, co za niespodzianka, dokładnie wszyscy oni (100%) noszą przypisane sobie nazwiska.

Łącząc te przypadki można chyba zaryzykować hipotezę, że decyzja o przydzieleniu, bądź nie, jakiemuś bohaterowi nazwiska wynikała ze swoiście przez Mistrza pojętej ochrony danych osobowych. Wiadomo skądinąd, że Nienacki w swojej twórczości często portretował ludzi autentycznych, sobie znajomych. Jednak nie każdemu taki rodzaj sławy i unieśmiertelnienia odpowiada. Osoby, których książkowe alter-ego zbyt już przypominało rzeczywiste, a równocześnie miały okazję do częstych kontaktów z autorem i mogły w związku z tym zgłaszać mu, słowem i czynem, przeróżne pretensyje, zostały więc przez autora nazwiska pozbawione. Stąd nadreprezentacja nazwisk wśród cudzoziemców, i, jeszcze większa wśród, nie mających już szans na zgłoszenie sprzeciwu – nieboszczyków. Im bliższe zatem pierwowzór jakiejś postaci utrzymywał kontakty z twórcą, tym mniejsza była szansa, że dostanie owa postać nazwisko, choćby nawet zmyślone.

Zróbmy teraz kolejny krok w naszym rozumowaniu i przejdźmy do bohaterów płci żeńskiej. Tutaj nie tylko znajdziemy podobną asymetrię, ale też asymetrię znacznie od męskiej głębszą. Samochodzikowe kobiety podzielimy nie, jak mężczyzn, na dwie, ale na trzy grupy. Oprócz Polek (24) i cudzoziemek (8) wydzielimy dodatkową kategorię „starych bab”, które wiek atrakcyjności seksualnej mają dawno za sobą. Takich matron, jak stara Rzyndowa ze „Skarbu Atanaryka”, czy księża gospodyni z „Templariuszy” znajdziemy u Nienackiego 10. Odsetek pań noszących nazwiska wynosi zaś, w przypadku starych bab, 70%, 63% w przypadku cudzoziemek i zaledwie …16,7% w przypadku Polek w wieku, nazwijmy to, „łożnicowym”. Dysproporcja ta jeszcze się powiększy, jeżeli przyjrzymy się tym 4 (z 24) kobietom w tej ostatniej populacji. W dwóch przypadkach, czyli Hanki, „córki starego Kondrasa” z „Wyspy Złoczyńców”, oraz Marii Wojtczak, „Krwawej Mary” z „Winnetou”, ich nazwiska poznajemy tylko dzięki ich pokrewieństwu z kimś innym. Barbara Wierzchoń, z „Niesamowitego Dworu”, jak już wspomniano, jest ze wszystkich tych pań najmniej „zseksualizowana”. I właściwie jedynie Pani Księżyc ze „Złotej Rękawicy” jest przedstawiona w sposób wręcz, jak na Nienackiego, przesadny – jako Joanna Ziębicka, primo voto Gromska, secundo voto Lejwoda.

Rozszerzając hipotezę, którą postawiliśmy przy okazji analizowania populacji męskich bohaterów uwzględniwszy, że różnice nazwiskowe w przypadku kobiet są znacznie większe, dodając znane fakty z biografii pisarza, dojdziemy do raczej jednoznacznej konkluzji. Bohaterki opisywane przez Nienackiego są w znakomitej większości wzorowane na paniach, które Nienacki osobiście znał nie tylko w tego określenia sensie potocznym, ale także w sensie …biblijnym. Są to panie, które w różnym zapewne czasie, miały zaszczyt być Mistrza muzami. A potraktowana wyjątkowo i w dodatku wielce złośliwie, Pani Księżyc, albo wyjątkowo zalazła pisarzowi za skórę, albo wręcz przyjęcia owego zaszczytu, jako jedyna ze sportretowanych w cyklu – odmówiła. Względnie, w łagodniejszej wersji, ona jedna z nich wszystkich jest postacią od a do z wymyśloną.

Dalsza część eseju staje się coraz mroczniejsza, ale skoro powiedzieliśmy już A i B, to konsekwentnie będziemy brnąć w kolejne litery alfabetu. Seria samochodzikowa uchodzi, jak już wyżej uzasadniano, niezupełnie słusznie, za twórczość dla młodzieży. I oprócz osób pełnoletnich, pojawiają się w niej też bohaterowie młodzieżowi. Także oni mają swoje nazwiska. Albo …nie mają.

Kolejną analizowaną grupą są zatem nastolatki płci żeńskiej. Nieletnich bohaterek pojawia się w „Samochodziku” 10, co nie jest zbyt dużą liczebnie próbą, ale wynik jest i tak jednoznaczny. Po tradycyjnym odliczeniu dziewczynek zza granicy, czyli Yvonne, baronessy de Saint-Gatien z „Fantomasa”, oraz Ludmiły Dohnalovej z „Tajemnicy tajemnic”, tylko Lucyna Krystyna „Kika” Dołęgowska ze „Złotej Rękawicy” jest, tak samo jak omawiana już Pani Księżyc z tego samego tomu, podejrzanie przesadnie przedstawiona. Odsetek polskich nastolatek z nazwiskami wynosi więc 12,5%, czyli jeszcze mniej niż w przypadku kobiet dorosłych, chociaż oczywiście ze względu na znacznie szczuplejszą populację, zakres błędu jest tu większy. Co więcej, znów odwołując się do biografii Nienackiego, wiemy, że przynajmniej Marta „Kapitan Nemo” jest na pewno wzorowana na autentycznej osobie, faktycznie będącej nieletnią kochanką pisarza. Jak jednak wynika z analizy statystycznej – nie tylko ona.

Informacje o predylekcji Mistrza do niepełnoletnich dziewcząt krążą zresztą wśród osób w jakiś sposób interesujących się jego życiem i twórczością, od dawna, zatem do tej pory w tym eseju wyważaliśmy raczej otwarte drzwi. Pora jednak przejść do drzwi zamkniętych. Z bohaterów drugoplanowych „Pana Samochodzika”, omówiliśmy już dorosłych mężczyzn, dorosłe kobiety, oraz nieletnie dziewczęta. Co nam zostało? Ano nieletni chłopcy. Jest ich w sumie dziewiętnastu. Po zwykłym odliczeniu jedynego obcokrajowca w tym gronie, Roberta Duranta z „Fantomasa”, zostaje osiemnastu, w tym tylko dwóch z nazwiskami. Antoni Wasiak z „Niesamowitego dworu” i Piotr „Psycholog” Gromski ze „Złotej Rękawicy”. Stanowią zatem oni zaledwie 11% tej grupy. Jest to wskaźnik jeszcze niższy niż w przypadku dziewcząt, nie mówiąc już o dorosłych kobietach.

Autorowi tego opracowania, jako, było nie było, fanowi twórczości Nienackiego, rezultat tych obliczeń wyjątkowo nie przypada do gustu, ale w końcu Amicus Plato, sed magis amica veritas. Odkrycie, że Mistrz adorował nie tylko kobiety, niechby i nieletnie, ale także, choćby w tak ścisłej dyskrecji, że żadne plotki od tego nie urosły, nieletnich chłopców, może rzucić na Nienackiego i jego twórczość nowe światło. Światło jednak tego rodzaju, który niżej podpisany wolałby nigdy na oczy nie oglądać.

Hipoteza wiążąca „problem nazwiskowy” w twórczości pisarza z jego upodobaniami erotycznymi może wydawać się zbyt śmiała, a same wartości procentowe i ich korelacja ze znanymi faktami i osobami z biografii Nienackiego, niekoniecznie przekonywujące. Wątpliwości jednak radykalnie maleją, kiedy te dane przedstawi się w postaci graficznej. Na poniższym wykresie zaprezentowano, w kolejności malejącej i w podziale na omówione wyżej kategorie, prawdopodobieństwo nadania jakiemuś drugoplanowemu bohaterowi nazwiska. Pomarańczowe paski pokazują zakres błędu, obszar, w którym dana wartość mieści się z prawdopodobieństwem 95%. Swoisty „uskok erotyczny” jest tu widoczny w sposób bardzo wyraźny.

pansam 02

Gdyby stworzyć ranking polskich literatów według stopnia ich niedocenienia, Zbigniew Nienacki na pewno znalazłby się blisko czołówki. Jako twórca miał wręcz wyjątkowego pecha. Najwybitniejsza jego powieść przeszła całkowicie bez echa. Hołubiona przez niego prlowska władza dopilnowała, aby mimo gigantycznej popularności wśród czytelników, żył w biedzie, jak na prawdziwego patriotę PRL przystało. Mimo, że jego powieści są praktycznie gotowymi scenariuszami, to ekranizacje, jakie powstały, były, głównie z powodu typowego dla PRL skąpstwa środków realizacyjnych, w najlepszym razie (Wyspa Złoczyńców, Templariusze) przeciętne, w najgorszym – koszmarne. Wreszcie zmarł Nienacki dokładnie w chwili, kiedy jego talent mógł mu wreszcie zacząć przynosić realne profity materialne. Wszystko to skłania do twierdzenia, że ewidentnie nie trafił on w swój czas.

Z drugiej jednak strony, był on nieodrodnym dzieckiem okresu, który w innym eseju niżej podpisany nazwał „Grzbietem Pragmatyzmu”, czasów pogardy, przemocy, zniszczenia i socjalizmu. Jego narodowosocjalistyczne poglądy, dzisiaj zupełnie archaiczne, choć nadal mają w Polsce wystarczająco wielu zwolenników, aby reprezentująca je partia mogła nawet chwilowo przechwycić w Polsce władzę, to jednak owi zwolennicy nie koncentrują się w środowiskach, które czytają jakiekolwiek książki, zwłaszcza tak naładowane erudycją jak książki Nienackiego. Pouczająca jest tu analogia z innym twórcą z bardzo podobną biografią i poglądami społeczno-politycznymi, Henrykiem Chmielewskim, „Papciem Chmielem”, autorem kultowego komiksu „Tytus, Romek i A’tomek”. Będąc znacznie lepszego zdrowia, żyje on do dzisiaj, ale jego sprawność twórcza uległa gwałtownemu załamaniu, jeszcze nawet przed końcem PRL, ale już wtedy, kiedy tylko w latach 80 Polska zaczęła  powolną ewolucję w kierunku normalności.

W przypadku Nienackiego dodatkowym obciążeniem byłyby dzisiaj jego upodobania seksualne. W czasach PRL traktowane z przymrużeniem oka, dzisiaj byłyby nie do zaakceptowania, a oskarżenia o „molestowanie” pod adresem 90 letniego twórcy, gdyby jeszcze żył, byłyby miotane powszechnie i bez żadnej ceregieli. Kolejno pierwowzory rudej Kasi, Zosi „Balladyny”, czy zwłaszcza harcerza „Baśki”, „przypominałyby” sobie, że 30, 40 czy 50 lat temu byli przez pisarza „wielokrotnie gwałceni” i próbowaliby sądownie uszczknąć coś z jego, wreszcie zebranego, majątku. Jakby legenda „Pana Samochodzika” to przeżyła?

Wbrew zatem pozorom, Mistrz umarł we właściwym, jeżeli można to tak sformułować, momencie. Wraz z końcem czasów, które go ukształtowały i upadkiem systemu, który mu ideowo odpowiadał i  w którym, mimo biedowania, czuł się komfortowo. Pieśń zaś ujdzie cało.

Bardzo zwyczajna instytucja

Niewolnictwo nie jest tak stare jak ludzkość. W obejmującej ponad 90% ludzkiej historii paleolicie, gospodarce łowiecko – zbierackiej, żadnego miejsca na pracę przymusową nie było. Opisujące takie paleolityczne społeczeństwo równania Lotki-Volterry nie pozwalają bowiem, pod groźbą wyginięcia, na jakikolwiek wzrost „produkcji”, czyli zebranej i upolowanej biomasy, powyżej pewnej, niezbyt wysokiej, wartości. Dodatkowe ręce do pracy w żaden sposób zatem nie rekompensują utrzymania dodatkowej gęby do wyżywienia. W paleolicie ani niewolników do niczego nie potrzeba, ani nie ma warunków, aby ich utrzymywać.

Sytuacja zmienia się jednak zasadniczo w neolicie, w momencie wynalezienia rolnictwa i powstania cywilizacji. Teraz produkcja, głównie oczywiście rolna, może rosnąć bez przeszkód. I tak samo zapotrzebowanie na pracę. Pracę jednakże, w znakomitej większości ciężką, monotonną i mało wydajną. Pojawienie się niewolnictwa jest nieuniknionym rezultatem tego procesu. Dlatego też, takie, czy inne formy pracy przymusowej, towarzyszyły cywilizacji przez cały następny okres dziejowy. Niewolnictwo nie było wtedy jakąś „szczególną instytucją”, ale instytucją na wskroś zwyczajną.

W wyniku rewolucji neolitycznej ludzkie społeczeństwa opuściły zatem atraktory równań L-V, i trafiły do tzw. pułapki maltuzjańskiej. Jest to nadal stan równowagi, ale równowagi długoterminowo niestabilnej. Każdy wzrost produkcji skutkuje proporcjonalnym wzrostem liczby ludności, zatem produkcja i dobrobyt per capita pozostają z grubsza stałe. Wskutek jednak tego, że dynamikę produkcji i demografii opisują różne funkcje mające różny przebieg, populacja maltuzjańska niesłychanie rzadko tkwi nieruchomo w punkcie równowagi, a zazwyczaj oscyluje wokół niego w długich, trwających około tysiąclecia, okresach. Na początku każdego cyklu wzrost gospodarczy jest szybszy niż wzrost populacji. Dobrobyt i produkcja per capita rosną, bo wartość krańcowa każdego pracownika, czyli wzrost produkcji jaki jest efektem jego zatrudnienia, jest stosunkowo duża. Wcześniej czy później jednak, przyrost naturalny dogania wzrost gospodarczy i PKB per capita zaczyna spadać. Gospodarka nadal rośnie, ale populacja rośnie szybciej. Każdy kolejny pracownik zwiększa produkt o coraz mniejszą wielkość. Wartość krańcowa pracy maleje, w skrajnym przypadku do zera. Pojawia się więc presja ekonomiczna na zatrudnianie coraz tańszej, a w końcu darmowej, siły roboczej.

Każdy niewolnik, zawsze i wszędzie w dziejach, stara się pracować w sposób maksymalnie ekstensywny, wkładając w pracę wyłącznie tyle wysiłku, żeby uniknąć kary i nic więcej ponad to minimum. Jednak, kiedy wartość krańcowa pracy też jest niewielka, nawet ta niska wydajność niewolnictwa, w połączeniu z niskimi jego kosztami, wystarczy do osiągnięcia ekonomicznej efektywności. Nieprzypadkowo niewolników najczęściej można było spotkać przy zajęciach prostych i powtarzalnych, a przy tym uciążliwych. Na polu, lub w kopalni. Natomiast dużo rzadziej u złotnika, szewca, czy kowala.

U szczytu każdego takiego maltuzjańskiego cyklu niewolnictwo zatem rozkwita. Wkrótce jednak gospodarka, mimo wykorzystywania praktycznie darmowej siły roboczej, przestaje rosnąć w ogóle, gdy tymczasem populacja rośnie nadal. Nędza staje się coraz bardziej powszechna, osłabionych głodem ludzi zaczynają nękać choroby, narastają niepokoje społeczne. W końcu, w wyniku jakichś przypadkowych zaburzeń, które w innych czasach przeszłyby zupełnie niezauważone, system zapada się. Najpierw produkcja, a potem zaludnienie, zaczynają spadać. Znikają bardziej złożone, czyli też kosztowne w utrzymaniu, struktury społeczne, takie jak państwa, ich armie i urzędnicy, oraz ekonomiczne, jak dalekosiężna sieć wymiany handlowej. Zwiększa to chaos i przyśpiesza destrukcję gospodarki i tym samym cywilizacji. W końcu zarówno produkcja, jak i populacja stabilizują się na nowym, znacznie niższym od szczytowego, chociaż jednak wyższym niż minimum poprzedniego cyklu, poziomie. Wartość krańcowa pracy znów wzrasta i niewolnictwo przechodzi do historii. Na jakiś czas.

Najstarszy z dających się historycznie wyodrębnić takich cykli, cykl piramid, swoje maksimum osiągnął w XXVI w p.n.e., a minimum w wiekach XXIII-XXI w tzw. pierwszym okresie przejściowym. Po nim nastąpił cykl epoki brązu, ze szczytem w wieku XVI i upadkiem w XIII-XI. Zgodnie z naszą teorią, ekonomiczna rola pracy przymusowej musiała wzrastać w maksimach tych cyklów, ale istniejące dane historyczne są zbyt skąpe, aby móc potwierdzić, że tak rzeczywiście było. Inaczej jest z trzecim cyklem, epoki żelaza, grecko-rzymskim. Trwał on, wydłużony przez podboje Aleksandra, a potem Rzymu, dłużej niż poprzednie, maksimum osiągając w I wieku n.e., zakończył się upadkiem w wieku V-VII, jest też znacznie lepiej opisany. Tym razem rozkwit niewolnictwa i jego znaczenie dla gospodarki Rzymu u schyłku republiki nie ulega żadnych wątpliwości.

Po upadku cywilizacji antycznej, powstała kolejna, chrześcijańska. Również cykl chrześcijański został wydłużony przez podboje, tym razem zaoceaniczne, a u jego szczytu, na przełomie XVII/XVIII wieku także doszło do recydywy niewolnictwa i to na ogromną skalę. Tym razem, inaczej niż w poprzednim cyklu grecko-rzymskim, niewolnictwo kwitło nie w centrum cywilizacji, ale na jej amerykańskich peryferiach. Niewolnicy, wywodząc się przeważnie z zupełnie innej, niż ich panowie, populacji, odróżniali się od nich bardzo wyraźnie językiem, obyczajem, a nawet wyglądem zewnętrznym, co, nawet w przypadku wyzwolenia z niewoli, niesłychanie utrudniało im integrację ze społeczeństwem, co zresztą w niektórych krajach Ameryki do dzisiaj nie do końca zaszło. Niemniej, mimo tych kilku różnic, amerykańskie niewolnictwo plantacyjne w XVII-XVIII wieku łączyło z niewolnictwem plantacyjnym Imperium Rzymskiego znacznie więcej podobieństw.

Spisywane dzisiaj dzieje niewolnictwa nieodmiennie grzeszą prezentyzmem, zawsze ferując jednoznacznie negatywne oceny moralne tego zjawiska. Każdy współczesny autor czuje się w obowiązku dobitnie i jednoznacznie potępić przedmiot swojej pracy. Kiedy jednak niewolnictwo realnie istniało, wcale nie było tak postrzegane. Krytykowano czasami różne aspekty z nim związane, ale nigdy nie samą ideę. Nawet wszczynający rebelie, z których najbardziej znaną jest powstanie Spartakusa, niewolnicy, bynajmniej wcale do likwidacji niewolnictwa jako takiego nie dążyli. Przekonanie, że lepszy nawet zły pan, niż żaden, było oczywistością.

Działo się tak, ponieważ, w co dzisiaj trudno uwierzyć, popadnięcie w niewolę wcale nie był najgorszym, co się w życiu mogło przytrafić, a status niewolniczy nie oznaczał jeszcze najniższej pozycji w hierarchii społecznej. Tę bowiem okupowali „ludzie luźni”, samotnicy nieprzynależący do żadnej szerszej wspólnoty, i z tego powodu będący też pierwszymi ofiarami przeróżnych klęsk żywiołowych i społecznych. Stojący szczebel wyżej niewolnicy, mogli liczyć nie tylko na wyżywienie, odzienie i dach nad głową, które to dobra w cywilizacji maltuzjańskiej wcale nie są oczywistością, ale nawet na swoistą karierę, zwieńczoną wyzwoleniem i integracją z wolną częścią społeczeństwa. Nie należy się zatem dziwić, że wcale nierzadkie były przypadki dobrowolnego sprzedawania się, lub wręcz oddawania w niewolę. Teoretycznie niewolnicy byli narażeni na kaprysy swoich właścicieli, przed którymi nie chroniło ich żadne prawo stanowione. Ale było jeszcze prawo natury – prawo rynku.

Niewolnicy byli bowiem …drodzy. Zabijając, bądź okaleczając niewolnika, właściciel pozbawiał się sporego majątku. Nie zrobiłby tego zatem nigdy, nie osiągając z tego korzyści przekraczających owe straty. Nawet walczący na rzymskich arenach gladiatorzy ginęli zaskakująco rzadko. Byli na to zbyt cenni.

 Bez reszty ogarnięci wspomnianym prezentyzmem, opisujący ostatnią wielką falę niewolnictwa z XVII i XVIII wieku publicyści, nie szczędzą właścicielom i handlarzom niewolników wyrazów potępienia i pogardy. Rozwodzą się w jak strasznych warunkach transportowano żywy towar z Afryki do Ameryki, w jakim stłoczeniu się ten transport odbywał, jak wiele „ładunku” ginęło od tych warunków po drodze, w czym nieraz puszczają wodze swojej fantazji. W licznych źródłach można dziś znaleźć, mające wstrząsnąć współczesnym czytelnikiem, rzekome „schematy” i „plany” statków niewolniczych na których ludzki ładunek upchany jest gęsto jak śledzie w beczce w całej objętości kadłuba nie pozostawiając miejsca na literalnie nic innego, a już na pewno na zapasy pozwalające takiej masie ludzi przeżyć wielomiesięczną podróż przez ocean.

My postąpmy jednak inaczej i zamiast utożsamiać się mentalnie z niewolnikami, spróbujmy przyjąć rolę handlujących nimi kupców. Niezależnie od rodzaju kupowanego i sprzedawanego towaru, handel rządzi się zawsze takimi samymi prawami popytu i podaży. Kupno niewolników od miejscowych muzułmańskich handlarzy w Afryce, wbrew bowiem politycznie poprawnej propagandzie, Europejczycy nigdy osobiście Murzynów w afrykańskim interiorze nie łapali, kosztuje a od sztuki. Ich sprzedaż w Ameryce przyniesie b dochodu.

Istnieje na pewno pewna bezpieczna wielkość ładunku powyżej której towar nam będzie wymierał z samego przegęszczenia. Wspomniani już prezentyści twierdzą, że często tak się właśnie działo. Jest to jawny absurd. Gdyby śmiertelność w czasie transportu była wynikiem przegęszczenia, czyli współczynnik śmiertelności rósłby wraz ze wzrostem liczebności N, to układ dążyłby do pewnego atraktora i podróż przeżywałoby zawsze tyle samo niewolników, niezależnie od ich ilości początkowej. Każdy niewolnik zakupiony ponad tą liczbę byłby czystą stratą. Możliwe odchylenia możliwe byłyby tylko wtedy, gdyby podróż trwała na tyle krótko, że układ nie zdążyłby osiągnąć tego stanu równowagi. Dlatego pasażerowie stołecznych tramwajów mogą podróżować w znacznie większym ścisku niż to się przypisuje transportom niewolników i nie przypłacić tego życiem. Jadą tak nie dłużej niż godzinę. Ale niechby spróbowali miesiąc…

Jeżeli zatem faktycznie niewolnicy umierali po drodze, to na pewno nie z powodu przegęszczenia. Inną możliwością jest to, że w pogoni za zyskiem, starając się ciąć wszelkie koszty, handlarze oszczędzali na ich utrzymaniu. Aby bowiem niewolnik przeżył podróż oceaniczną w dobrej, umożliwiającej otrzymanie za niego godziwej ceny, kondycji, niezbędne jest odpowiednie dbanie o niego po drodze co kosztuje k jednostek od sztuki. Istnieje taki koszt transportu k0, przy którym śmiertelność wynosi zero. Zakładając, że śmiertelność s zależy liniowo od kosztu utrzymania s= 1-k/k0, przychód ze sprzedaży w porcie docelowym wynosi N*(1-s)*b = N*k*b/k0.

Koszt transportu, to N*k*(1-s) dla tych niewolników, którzy dopłynęli żywi i N*k*s*0,5 dla tych, którym przeżyć się nie udało. Wreszcie mamy jeszcze koszt zakupu N*a i koszty stałe, jak amortyzacja statku, płace załogi, koszty administracyjne, które oznaczmy literą X, a przeliczone na jedną sztukę ładunku x

Ostatecznie możemy obliczyć zysk w przeliczeniu na jednego załadowanego na statek Murzyna:

niewwzr 01

Jest to równanie kwadratowe o maksimum w punkcie k = b-0,5*k0 Przy takich kosztach transportu osiąga się największy zysk. Łatwo teraz obliczyć, kiedy śmiertelność ładunku będzie zerowa, czyli kiedy k=k0

niewwzr 02

Warto zauważyć że ta krytyczna wielkość zależy wyłącznie od ceny sprzedaży. O ile tylko, niezbędne dla zachowania zerowej śmiertelności, koszty k0 będą mniejsze niż dwie trzecie tej ceny, będzie się opłacało je ponosić. A co będzie kiedy będą one wyższe?

Warunek maksymalnego zysku, który tu omówiliśmy, jest oczywiście warunkiem koniecznym zaistnienia handlu, ale wcale nie wystarczającym. W końcu co nam po maksymalnym możliwym zysku, jeżeli będzie on ujemny? Drugim warunkiem handlu, jest zatem warunek dodatniego zysku Z>0.

Aby znaleźć rozwiązanie tego warunku, wprowadzimy parametry q=k0/b i p = (a+x)/b, sprowadzając wszystkie koszty do odsetka ceny sprzedaży. Podstawiając dodatkowo obliczone wyżej optymalne k = b-k0/2, możemy obliczyć, przy jakiej wartości parametrów q i p handel będzie opłacalny. Wynik przedstawiamy w postaci wykresu.

niew 01

Dopóki q<2/3, a zważywszy na ich wysoką cenę sprzedaży, jest tak praktycznie zawsze, chciwość nakazuje dbać o niewolników. Niebieskie pole to strefa opłacalności handlu niewolnikami, w której śmiertelność jest zerowa. Dopiero przy q>2/3, zaczyna się opłacać oszczędzanie na kosztach transportu i część towaru wymiera, co pokazuje czerwone pole. Pole to ciągnie się do q=2, przy którym śmiertelność osiąga 100%, ale jest to pole bardzo wąskie. Aby inwestor był gotów zaakceptować rosnące straty w transporcie, suma kosztów stałych i kosztów zakupu musiałaby być bardzo mała, dla granicznego q równego 2/3, p nie mogłoby przekraczać 1/3. A przy większych q, odpowiednio mniej. Zważywszy dodatkowo, że realne zyski na handlu muszą być jednak większe od zera, dokładnie większe niż możliwy do osiągnięcia zysk z alternatywnych inwestycji, strefa czerwona robi się tak wąska, że w praktyce niemal niespotykana.

Wiemy już zatem, kiedy śmiertelność w transporcie jest zerowa (niebieskie pole), lub większa od zera (czerwone pole). Ale przecież przewożony towar to nie bele bawełny i nie beczki z winem. Ten towar jest …żywy. Przy odpowiednio dobrym traktowaniu, kiedy k>k0 można oczekiwać …ujemnej śmiertelności, zaznaczonej na wykresie na zielono. Handel mógłby się opłacać, przy tym założeniu, nawet wtedy, kiedy koszty zakupu byłyby większe niż koszty sprzedaży p>1.

Ponieważ pola niebieskie i zielone są łącznie o wiele większe od pola czerwonego, tym bardziej, co jest równoważne z obcięciem wszystkich pól „od góry”, jeżeli uwzględnimy inwestycje alternatywne, jasne jest, że sama żądza zysku i wyzysku wymaga, by na niewolników w transporcie chuchać i dmuchać. Głodzenie i znęcanie się nad nimi jest zabronione wprost przez siły rynku.

Podróż przez Atlantyk trwała zwykle 2-3 miesiące. Przez ten czas każdy z niewolników musiałby wypijać dziennie minimum 2,5 litra płynów i zjadać kilogram pożywienia. Co najmniej co drugi dzień musiałby to być posiłek ugotowany. Łącznie z samym niewolnikiem oznacza to pół tony ładunku, wody, prowiantu i opału. Dodatkowo, aby zachować jaką taką sprawność fizyczną, nie może towar przez kilka miesięcy leżeć w jednym miejscu bez ruchu. Za niewolnika, który nie ma nawet siły stać, nikt przecież nie zapłaci złamanego grosza. Przewożąc przez ocean konie, budowano nawet na statkach specjalne urządzenia, aby umożliwić im ruch, nawet galop – nie ruszając się z miejsca. Skoro tak dbano o konie, to tym bardziej musiano dbać o niewolników – znacznie od koni droższych.

Nie znaczy to, że niewolnicy w trakcie podróży w ogóle nie ginęli. Działo się tak jednak nie wskutek zaniedbań i okrucieństwa nadzorców, tylko wskutek wydarzeń losowych. Katastrof, napadów pirackich, czy wreszcie największego ówczesnego niebezpieczeństwa w podróży morskiej – chorób zakaźnych. Ktokolwiek bowiem zachorował w trakcie rejsu np. na ospę, był natychmiast i bez żadnych ceregieli – wypraszany ze statku. Dotyczyło to jednakże po równo niewolników, załogantów, czy pasażerów.

Skoro zatem realna ładowność statków niewolniczych została przez naszych prezentystów zawyżona co najmniej kilkukrotnie, nic dziwnego też, że konsekwentnie została zawyżona ogólna liczba Afrykanów przewiezionych w XVI-XVIII wieku do obu Ameryk. Zgodnie bowiem z tymi oszacowaniami w ciągu tych trzystu lat imigracja z Afryki musiałaby być co najmniej dziesięciokrotnie wyższa niż imigracja z …Europy. A tymczasem nawet dzisiaj, choć są w Ameryce kraje, zwłaszcza na Karaibach, w których Murzyni stanowią większość, to jednak w obu Amerykach łącznie, ludzie pochodzenia europejskiego zdecydowanie dominują nad nimi liczebnie, czego prezentyści wytłumaczyć nie potrafią.

Wziąwszy to wszystko pod uwagę, jasnym jest, że owe, publikowane jako autentyki, rzekome plany statków niewolniczych, czy wielomilionowe (!!!) liczby przewiezionych niewolników, w żadnej mierze rzeczywistości odpowiadać nie mogą. Ich źródło jest analogiczne do źródła „milionów ofiar inkwizycji”. O tych ostatnich donosiła propaganda protestantów, a potem oświeceniowych filozofów. W naszym przypadku źródłem mitu jest publicystyka XVIII wiecznych abolicjonistów, którzy, aby osiągnąć swoje cele polityczne, musieli przekonać opinię publiczną, że los niewolników jest znacznie gorszy niż jej własny, co realnie, w odniesieniu do, co najmniej 90% ówczesnych Brytyjczyków, wcale nie było takie oczywiste.

Zmieniło się to jednak wraz z początkiem rewolucji przemysłowej. Ostatni z maltuzjańskich cykli zakończył się bowiem, inaczej niż wszystkie poprzednie, nie kryzysem, regresem i zapaścią cywilizacyjną, tylko swoistym przejściem fazowym do nowego stanu, charakteryzującego się nowymi atraktorami, ku którym społeczeństwa podążyły niezależnie od ich stanu początkowego. Produkcja, po raz pierwszy w ludzkich dziejach, zaczęła trwale rosnąć szybciej niż populacja. Wartość krańcowa pracy szybko więc przekroczyła niski próg opłacalności niewolnictwa i okazało się, że w gospodarce na pracę przymusową miejsca nie ma. Skoro zaś praca przymusowa stała się nieekonomiczna, konsekwentnie okazała się również niemoralna. W czasie krótszym od stulecia, niewolnictwo we wszystkich krajach, które choć w minimalnym stopniu uczestniczyły w światowej wymianie handlowej, zniknęło całkowicie (najpóźniej w Rosji i w Brazylii). Próby jego przywrócenia w XX wieku zakończyły się zaś całkowitym fiaskiem i katastrofą reżimów, które takie próby podjęły. Nie po raz pierwszy okazało się, że rozwój moralny i etyczny wynika wprost z rozwoju technologicznego i gospodarczego.

Skrócona wersja niniejszego eseju została opublikowana w 1493-1494 numerze „Najwyższego Czasu”

Zaplusować u doktora Wasermana

Ziemskie kontynenty, co łatwo można zobaczyć na globusie, dzielą się na dwie nierówne masy. Większa z nich, nazywana zwykle Starym Światem, lub Wyspą Świata, to Eurazja i Afryka, mniejsza, to, oddzielony od Wyspy Świata szerokimi połaciami oceanów, Świat Nowy – Ameryki Północna i Południowa. Nie każda ziemiopodobna planeta we Wszechświecie tak właśnie musi wyglądać, a i sama Ziemia nie zawsze tak wyglądała. Tymczasem taki właśnie nierówny rozkład mas lądowych wywarł głęboki wpływ na dzieje ludzkiej cywilizacji, które w przypadku mniejszego, lub też przeciwnie, większego, ich rozczłonkowania, wyglądałyby zapewne zupełnie inaczej.

Jedna z konsekwencji tej wyspowości dała o sobie znać u schyłku paleolitu. Powstanie rolnictwa i tym samym przejście od stanu dzikości do cywilizacji, odbyło się w wielu miejscach na świecie niezależnie, ale powstałe w ten sposób w Starym Świecie cywilizacje, nigdy całkowicie izolowane od siebie nie były i napędzający wzajemnie ich rozwój przepływ towarów, genów i idei zachodził między nimi już w Starożytności.

Inaczej było z cywilizacjami Nowego Świata. Ameryki są od Starego Świata dwukrotnie mniejsze, a ponadto, w odróżnieniu od rozciągniętej równoleżnikowo, ze wschodu na zachód, Wyspy Świata, Ameryki są wydłużone południkowo, wzdłuż osi północ – południe. To sprawia, że komunikacja między poszczególnymi ich częściami jest znacznie niż w Eurazji trudniejsza. Aż do czasów nowożytnych też, cywilizacje amerykańskie pozostawały w praktycznie całkowitej izolacji od cywilizacji staroświatowych.

Nie powinno więc dziwić, że, rodzimych cywilizacji amerykańskich powstało mniej, i rozwijały się one wolniej. Na pozostałych kontynentach wyspowych, Australii i Antarktydzie, zważywszy na ich jeszcze mniejsze od Ameryk rozmiary i jeszcze gorsze warunki naturalne, żadne cywilizacje nie powstały w ogóle.

W roku 1500, kiedy te dwa, wcześniej odseparowane światy, w końcu się połączyły, mieszkańcy Eurazji dysponowali już transoceanicznymi statkami, wielkopiecowymi technologiami wytopu stali, znali kompas, proch i druk. W tym samym czasie w Ameryce nie wynaleziono jeszcze koła, eksperymentowano dopiero z obróbką miedzi, a stworzone przez Majów pismo nie zostało przejęte nawet przez ich najbliższych sąsiadów. Oba główne amerykańskie ośrodki cywilizacyjne, meksykański i andyjski, wciąż jeszcze nie wiedziały nawzajem o swoim istnieniu. Z grubsza odpowiadało to  egipskiemu, istniejącemu ponad cztery milenia wcześniej, Staremu Państwu. Wobec tak dużej różnicy poziomu rozwoju, nie należy się dziwić, że po połączeniu obu światów, amerykańskie kultury prekolumbijskie zostały po prostu unicestwione. Nie tylko dlatego, jak to się często przedstawia, że zostały podbite militarnie przez cywilizację bardziej rozwiniętą. W dziejach świata nieraz bywało, że populacje podbite, po krótkim czasie, wchłaniały najeźdźców kulturowo bez najmniejszych nawet śladów. W Ameryce zaszedł proces odwrotny. Podbici przez Europejczyków Indianie, przejęli, nieco zmodyfikowaną, ale europejską kulturę, system wartości, europejskie języki i europejskie religie.

Wynalezienie rolnictwa i powstanie cywilizacji, obok wielu oczywistych zalet, ma też jednak i pewne mniej oczywiste wady. W dobie rewizjonizmu historycznego te ostatnie są obecnie szeroko omawiane i nagłaśniane, kosztem spychania w cień i przemilczania tych pierwszych, nie należy jednak zapominać, że owe wady naprawdę obiektywnie istnieją.

Największym chyba minusem życia w cywilizacji rolniczej są, nieznane łowcom – zbieraczom, epidemie chorób zakaźnych. Ich obecność jest warunkowane dwoma czynnikami – Znacznie większe niż u łowców zagęszczenie populacji,  ułatwia wzajemne zarażanie się patogenami, a bliska obecność zwierząt hodowlanych, umożliwia transmisje chorób odzwierzęcych. Przed rewolucją przemysłową i powstaniem nowoczesnej, naukowej medycyny, w cywilizacjach maltuzjańskich, rolniczych, zachodziła zatem prosta zależność. Im bardziej rozwinięta cywilizacja, tym większą ma gęstość zaludnienia i sieć powiązań ekonomicznych, i tym więcej patogenów zawiera. Cykliczne wybuchy przeróżnych epidemii są nieuchronną konsekwencją sukcesu rolniczego. W dodatku, wskutek działania specyficznych dla cywilizacji rolniczej mechanizmów ekonomiczno – demograficznych, zwanych też pułapką maltuzjańską, epidemie takie mogą, co dzisiaj wydaje się szokujące, odgrywać pożyteczną rolę, zwiększając średni poziom życia w takiej cywilizacji, czego najbardziej znanym przykładem jest rozkwit Renesansu w Europie po przejściu epidemii Czarnej Śmierci. Z czasem też wzrasta w społeczeństwie odporność na najczęściej spotykane choroby i ich przebieg staje się łagodniejszy, choć nigdy całkowicie one nie znikają.

Niestety dla swoich pierwotnych mieszkańców, również w kwestii chorób, Ameryki pozostawały daleko w tyle. W porównaniu ze Starym Światem, były one znacznie rzadziej zaludnione, a ich pula zwierząt hodowlanych dużo skromniejsza. Nic zatem dziwnego, że przywleczone tam eurazjatyckie zarazki urządziły nieodpornym na nie tubylcom istny pogrom. W ciągu kilkudziesięciu lat ospa, grypa, czy gruźlica, w Eurazji choroby groźne, ale nie mordercze, wygubiły może nawet i 90% Indian.

Ameryka zrewanżowała się Eurazji tylko jedną znaczniejszą zarazą, ale za to jaką. Wyprawa Kolumba powróciła do Sewilii na wiosnę 1493 roku. Już w dwa lata później, w 1495 roku w Neapolu wybuchła epidemia nowej, nieznanej wcześniej choroby. We Włoszech zwano ją „hiszpańską”, we Francji „włoską”, w Polsce „francuską”, a w Rosji …”polską”. Wszędzie natomiast „dworską” co sugerować miało że zapadają na nią głównie elity społeczne. Przywieziony z Ameryki syfilis, bo o nim właśnie mówimy, przetoczył się przez Europę i Bliski Wschód z siłą huraganu. Jeszcze przed końcem XV wieku pierwsze przypadki pojawić się miały w oddalonym od Neapolu o ponad półtora tysiąca kilometrów Krakowie. Według kronikarza Macieja z Miechowa chorobę przywiozła do polskiej stolicy pewna pobożna niewiasta z pielgrzymki do Rzymu. Ta kronikarska wzmianka nieodmiennie wywołuje dzisiaj salwy śmiechu. Niezupełnie, jak się jeszcze przekonamy, słusznie. Kiła maszerowała przez Europę szybciej nawet niż Czarna Śmierć półtora stulecia wcześniej. A przecież, zważywszy na fakt, że średnia prędkość podróży po Europie nic a nic się w tym czasie nie zmieniła, oznacza to, że samo tempo przenoszenia tych chorób pomiędzy nosicielami, musiało być co najmniej porównywalne. W przypadku dwóch, tak różnych pandemii, z których jedna przenosi się przez ukąszenia zarażonych pcheł, a druga przez kontakty seksualne, czyli, na zdrowy rozum, znacznie powolniej, porównywalne tempo ich rozprzestrzeniania domaga się jakiegoś wyjaśnienia.

Aby je znaleźć musimy zbudować ilościowy model opisujący przebieg epidemii kiły. Tradycyjnie w epidemiologii używa się tzw. modelu SIR, ale nie nadaje się on do opisu chorób wenerycznych, takich jak syfilis, czy znany w naszych czasach AIDS. Tu potrzebne jest odmienne podejście.

Jeżeli przeciętnie każdy w populacji ma k partnerów seksualnych w ciągu roku, a nosicieli syfilisu jest w tej populacji  I procent, to prawdopodobieństwo, że któryś z partnerów będzie zarażony wynosi 1-(1-I)^k. Naturalnie nie oznacza to, że chorobą można się zarazić od razu. Każda choroba weneryczna ma pewne prawdopodobieństwo X przeniesienia się podczas pojedynczego stosunku. Zakładając, że średnio każdy odbywa n stosunków rocznie prawdopodobieństwo złapania choroby od zarażonego partnera wynosi 1-(1-X)^n.

Po przemnożeniu tych dwóch prawdopodobieństw przez siebie otrzymujemy prawdopodobieństwo zarażenia się zdrowego osobnika w ciągu roku:

syfwzr 01

Ponieważ w populacji, inaczej niż to jest w modelu SIR, są tylko zarażeni w ilości I i podatni w ilości 1-I, roczny przyrost zarażonych wynosi P*(1-I). Oczywiście kiedy zdrowi się zarażają, to chorzy umierają, a czasami, w późniejszych okresach historycznych, nawet zdrowieją. Ubytek chorych jest odwrotnie proporcjonalny do średniego czasu trwania choroby i oznaczamy go literką b, przy czym, z punktu widzenia modelu, nie ma w tym miejscu znaczenia czy choroba kończy się zgonem, czy wyzdrowieniem. Oprócz tego chorzy mogą umrzeć w normalny, nie związany ze swoją chorobą, sposób, w ilości m% rocznie, gdzie m jest naturalnym tempem wymiany ludzkiej populacji, rzędu 1-2%. Ostatecznie zmiana ilości chorych w jednostce czasu wynosi

syfwzr 02

Przyrównując to równanie do zera, możemy teraz obliczyć, na jakim poziomie następuje stabilizacja ilości chorych w społeczeństwie. Wynik zależy od pięciu parametrów k, n, X, b, m. Trzy z nich można jednak potraktować jako dane przez biologię (n, X, m) i w związku z tym, z grubsza stałe w danym okresie historycznym. Odsetek zarażonych syfilisem I zależy zatem głównie od czasu trwania choroby b, oraz od …rozwiązłości danego społeczeństwa, czyli od tego, jak często zmienia się w nim partnerów seksualnych – parametru k. Oto zatem rozwiązanie tego modelu w postaci graficznej

syf 01

Zgodnie z tym, czego można by intuicyjnie oczekiwać, im dłużej trwa choroba i im częściej w społeczeństwie dochodzi do zmiany partnerów seksualnych, tym odsetek chorych jest wyższy. To, co już tak intuicyjnie oczywiste nie jest, to fakt, że granica jest bardzo „stroma”. Istnieje taki, bardzo wąski przedział parametrów (b, k), przy którym nawet mała ich zmiana skutkuje bardzo znacznymi zmianami odsetka chorujących. Teoretycznie, znając ten odsetek i mogąc oszacować średni czas trwania choroby b w danym czasie, można dojść do ówczesnego poziomu k. Teoretycznie, bowiem odsetek chorych stulecia temu znany jest z bardzo małą dokładnością. Niemniej, co nieco można wywnioskować.

Wielu autorów opisujących tamte czasy, jak Paweł Jasienica w jego „Polsce Jagiellonów”, zwróciło uwagę na dziwną asymetrię przeżywalności synów Kazimierza Jagiellończyka, panującego w Polsce tuż przed przybyciem krętków kiły. Nie licząc zmarłego przed tym wydarzeniem św. Kazimierza, synów monarchy można podzielić na dwie odrębne grupy.  Do pierwszej z nich należą król Czech i Węgier Władysław, oraz Zygmunt, zwany Starym. Dożyli oni słusznego, jak na swoje czasy, wieku (Władysław 60 lat, Zygmunt aż 81) i byli ojcami licznego potomstwa (Władysław co najmniej trójki, a Zygmunt aż jedenaściorga dzieci). Ich przeciwieństwem są pozostali bracia. Jan Olbracht, Fryderyk i Aleksander, którzy zmarli stosunkowo młodo (35-45 lat), w krótkim odstępie czasu (1501-1506) i bezdzietnie. Dołożywszy do tego faktu, zaczerpnięte od ówczesnych kronikarzy, informacje na temat ich życia osobistego, jest właściwie pewne, że padli oni ofiarą krętka przywiezionego do Krakowa przez pobożną niewiastę.

Te dwie populacje stosowały bowiem dwie odmienne strategie seksualne. Można je nazwać „niskim k” (Władysław i Zygmunt), oraz „wysokim k” (pozostali). Dwaj pierwsi uprawiali seryjną monogamię, mając na raz i na długo tylko jedną partnerkę. Trzej pozostali często i bez wybrzydzania zmieniali obiekty swojego afektu. Przy czym, na skutek wspomnianej już „stromości” wykresu, w momencie pojawienia się w Europie kiły, nawet niewielka różnica wysokości k, mogła doprowadzić do tak drastycznie różnego rezultatu.

Można się w tym momencie zapytać, dlaczego w takim razie większość pokolenia wnuków Jagiełły była tak lekkomyślna i tak łatwo narażała na zgubę nie tylko siebie samych, ale i dynastię, która też nie przetrzymała tego eksperymentu i wygasła już w następnym pokoleniu? Odwołując się do teorii gier, odkryjemy, że synowie Kazimierza mogli stosować obie strategie, ponieważ przed amerykańską inwazją były one równorzędne. Sukces życiowy i rozrodczy w obu przypadkach był porównywalny. Zatem obie te strategie były powszechnie w społeczeństwie obecne i praktykowane.

Wbrew zatem powszechnemu mniemaniu, Średniowiecze, jak i zresztą wszystkie przedsyfilistyczne epoki, musiało być czasem niewyobrażalnej dzisiaj rozpusty. Tylko bowiem w takim skrajnie, z dzisiejszego punktu  widzenia, rozwiązłym środowisku, zarazki kiły mogły odbyć rajd po Europie w tempie porównywalnym do zarazków Czarnej Śmierci. Gdzieś tak połowa populacji (wśród Jagiellończyków 3:2) ówczesnej christianitas musiała zmieniać partnerów seksualnych równie często, jak roznoszące dżumę pchły swoich ludzkich żywicieli. Co więcej, taka strategia nie była postrzegana, jako coś szczególnie moralnie nagannego i dlatego kiłę do Krakowa naprawdę mogła przywieźć z pielgrzymki pobożna skądinąd niewiasta.

Syfilis dokonał jednak w tym środowisku drastycznej selekcji naturalnej. Populacje rozwiązłe, jak Jagiellonowie, czy francuscy Walezjusze wymarły, a te, choćby tylko nieco bardziej cnotliwe, jak Habsburgowie, czy Burboni, przetrwały. W swojej pierwszej, najbardziej śmiertelnej, fali, syfilis zabijał jednak na tyle szybko, że paradoksalnie ograniczało to jego rozprzestrzenianie się. Przy niskim b, nawet stosunkowo wysokie k nie powoduje znaczącego przyrostu liczby chorych. Umierają oni po prostu szybciej, niż zdążą kogoś zarazić. Stąd najczęściej w społeczeństwie nadal można było spotkać zdrowych. Albo martwych. Kiła była właśnie „dworską niemocą” i ograniczała się do, z zasady mających dostęp do większej ilości partnerów seksualnych, elit. Warstwy niższe były chronione, jednak nie, jak Habsburgowie, przez swoją wstrzemięźliwość w doborze partnerów, ale przez swoją względną izolację i brak społecznej mobilności.

Czas jednak płynął, zmieniały się pokolenia i zbiorowa odporność na krętka rosła. Choć nadal była to choroba nieuleczalna, można było z nią żyć coraz dłużej i dłużej. I zarażać. Współczynnik b zaczął rosnąć i wraz z nim odsetek zarażonych. Ryzyko wzrosło ponad akceptowalny dla społeczeństwa poziom.

A jaki był ten poziom? W ekonomii używa się dla opisania podobnej sytuacji pojęcia zwanego kosztem alternatywnym. Czyli w naszym przypadku różnicy pomiędzy kosztem chorowania a kosztem niechorowania. Koszt ten wyceniany jest w ilości oczekiwanych w przyszłości okazji do pożycia seksualnego. Jeżeli ryzyko zapadnięcia na syfilis wynosi P a choroba skraca średnio życie o L lat, to można oczekiwać, że poszczególni osobnicy będą tak regulować poziom tego pierwszego, aby iloraz P*L był pewną stałą, zależną od poziomu życia.

Można w tym miejscu zauważyć, ze wydłużenie czasu trwania choroby, czyli zmniejszenie L powinno skutkować proporcjonalnym zwiększeniem akceptowalnego poziomu P. Jednak tak nie jest. W pewnym stopniu dlatego, że lata przeżyte z kiłą nie są, w porównaniu z latami zdrowia, zbyt komfortowe, a atrakcyjność seksualna dla płci przeciwnej znacznie się obniża. Jednak decydujący jest inny efekt. Zmniejszenie parametru b skutkuje bowiem, jak wynika z wykresu, wzrostem liczby zarażonych I i to wzrostem bardzo gwałtownym. Ten wzrost z nawiązką kompensuje wątpliwy komfort wydłużenia życia syfilityka. W rezultacie P szybko rośnie. Aby utrzymać go na dotychczasowym poziomie, muszą się zmienić ludzkie zachowania seksualne, opisywane przez czynnik k – średnią liczbę partnerów seksualnych.

I zmieniają się. Średniowiecze uchodzi za okres ciemny i brudny w porównaniu ze światłym i czystym rzymskim Antykiem. Historycznie jednak ani antyczni Rzymianie nie byli tak czyści, ani średniowieczni chrześcijanie tak brudni jak to się przedstawia. Prawdziwy brud i smród niemytych ciał nadszedł dopiero w wieku XVII, kiedy wszystkie autorytety medyczne zgodnie ogłosiły, że kąpiel jest niezwykle szkodliwa dla zdrowia, a autorytety moralne nie omieszkały uzupełnić, że także dla zdrowia duchowego. Ludzie Baroku nie myli się i wcale się w tym nie mylili.

Ówczesne łaźnie, oprócz funkcji kąpielowej, służyły też bowiem jako lupanary. Przybytki wątpliwej rozkoszy i wtedy już niewątpliwej kiły. Korelacja pomiędzy wizytami w łaźni a zapadalnością na syfilis była więc oczywista, choć nie woda i mydło były tego przyczynami. Niemycie się, dawało zdecydowanie większe szanse na zachowanie życia zdrowia i płodności niż mycie.

Dopiero w kolejnym, XVIII wieku, burdele oddzielono funkcjonalnie od łazienek i higiena osobista powoli zaczęła wracać do łask. Pandemia jednak nadal narastała. Długość życia nosicieli krętków, a zatem i czas zarażania ciągle rosła. Nie mając innego wyjścia, społeczeństwo zareagowało dalszym zmniejszaniem współczynnika k. Pojawiła się mieszczańska moralność, która samą ludzką seksualność, przez stulecia i tysiąclecia traktowaną jako coś naturalnego, poddała anatemie towarzyskiej i zepchnęła do podziemia. „Te rzeczy” nadal się, co prawda, robiło, ale już się o nich nie mówiło. A potem nadeszła rewolucja przemysłowa.

I wywołane przez nią wielkie ruchy migracyjne. Skończyła się względna izolacja poszczególnych środowisk, również wiejskich. Kiła przestała być dworską niemocą, a stała się przypadłością prawdziwie masową i demokratyczną. Wyższe warstwy społeczne, dzięki wytworzonych przez stulecia obcowania z chorobą, odpowiednich mechanizmach behawioralnych regulujących zachowania seksualne, jakoś się jeszcze broniły, ale lud, który zawsze dotąd gził się na prawo i lewo bezrefleksyjnie, ale i bezkarnie, został zainfekowany praktycznie całkowicie. Na początku XX wieku, o czym pisali ówcześni etnografowie i krajoznawcy, w niektórych wioskach góralskich odsetek nosicieli syfilisu sięgał już prawie 100%.

Na ratunek przyszła wtedy nowoczesna medycyna. Po stuleciach bezowocnych wysiłków, w 1909 roku opracowano wreszcie pierwszą skuteczną, prowadzącą do całkowitego wyleczenia chorych, terapię. Współczynnik b zaczął znów spadać, a po wprowadzeniu do leczenia antybiotyków, średni czas trwania choroby skrócił się do kilku miesięcy, a nawet tygodni.

Zgodnie z dotychczasową tendencją należałoby oczekiwać, że spowoduje to wzrost popularności strategii „wysokiego k”. I faktycznie, zaraz później rozpoczęła się tzw. „rewolucja seksualna”, w trakcie której, porzucając obowiązujące przez sto lat mieszczańskie konwenanse, znów zaczęto perorować o wolnej miłości, każdego z każdym. Można było oczekiwać, że ostatecznie odsetek nosicieli kiły spadnie z powrotem do poziomu z czasów preindustrialnych, czyli kilku procent populacji.

Tym większe może być zaskoczenie, kiedy uświadomimy sobie, że wcale tak się nie stało. Odsetek zarażonych w drugiej połowie XX wieku, owszem, spadł do poziomu przedprzemysłowego, ale wcale na tym nie poprzestał. Spadał nadal, aż do jakiegoś zupełnie symbolicznego poziomu liczonego w promilach pod koniec XX wieku.

Szeroko głoszone są poglądy, że stało się tak z powodu zmian w trzecim, nie omawianym do tej pory parametrze opisującym chorobę, mianowicie w prawdopodobieństwie zarażenia w pojedynczym stosunku, X. Jest on warunkowany biologicznie i jako taki jest niewrażliwy na ludzkie zachowania, ale można ten problem obejść. W tym celu wynaleziono prezerwatywę.

Swego czasu, to, jak bardzo używanie prezerwatyw ogranicza możliwość zakażeń chorobami wenerycznymi, było przedmiotem bardzo zażartych sporów. Nie wnikając w meritum, możemy przyjąć, że w jakimś stopniu na pewno ogranicza i tym samym zmniejsza ogólne prawdopodobieństwo P. Jednak, jak już wspomniano, ludzie w swoim życiu maksymalizują nie prawdopodobieństwo uchronienia się przed chorobą, w tym celu wystarczyłoby przecież w ogóle wstrzymać się od zmieniania partnera seksualnego, tylko spodziewane korzyści z życia. Skoro, dzięki prezerwatywom, ryzyko złapania kiły czy AIDS, spadło, reakcją byłoby zwiększenie poziomu hedonizmu, mierzonego wysokością k. I strategia wysokiego k znów by zyskiwała na frekwencji, dopóki ogólny poziom zarażonych I nie wróciłby do równowagi. Proces ten ilustruje poniższy wykres.

syf 02

Widać na nim, że wprowadzenie prezerwatyw nie spowodowałoby spadku ilości zachorowań, a jedynie przemieszczenie się układu wzdłuż „poziomicy” stałego I do nowego położenia równowagi przy dużo wyższym k.

Cokolwiek więc spowodowało tak drastyczną redukcję liczby nosicieli, nie były to prezerwatywy. Zatem co?

Nie mogło to być nic innego, jak tylko rosnący, wraz z zamożnością społeczeństwa, koszt czasu. W miarę przybywania atrakcyjnych alternatyw na jego wykorzystanie, czas stał się zbyt cenny, aby można było pozwolić sobie na jego utratę poprzez chorowanie. Zwłaszcza na choroby weneryczne – których leczenie nadal jest bardzo trudne i czasochłonne. Koszt alternatywny stał się niedopuszczalnie wysoki. I współczynnik k musiał ulec daleko idącej redukcji. I uległ. Wbrew pozorom, żyjemy zatem obecnie w najbardziej przyzwoitych i najmniej wyuzdanych czasach w historii. „Rewolucja seksualna” odbyła się wyłącznie w sferze wirtualnej. W realu, jak wskazują twarde dane, zwyciężył bardzo restrykcyjny purytanizm.

Rozwój etyczny, również w dziedzinie seksualnej odbywa się więc ściśle proporcjonalnie do rozwoju materialnego. Im bogatsze społeczeństwo, tym wyższy poziom moralny ono reprezentuje.

Powyższemu rozumowaniu trudno byłoby zaprzeczyć na gruncie teoretycznym, ale w praktyce istnieje pewne zjawisko, które, przynajmniej na pierwszy rzut oka, zadaje mu kłam. Zjawisko to zilustrowano na powyższym wykresie w postaci „linii AIDS”. Wszystko to, co wyżej napisano na temat kiły, stosuje się bowiem tak samo dobrze do tej właśnie choroby. Z jedną istotną różnicą. Prawdopodobieństwo zarażenia się AIDS w pojedynczym stosunku, czyli nasz parametr X, jest o dwa rzędy wielkości mniejsze niż w przypadku syfilisu. Z drugiej jednak strony, na AIDS ciągle nie ma jeszcze lekarstwa, a współczynnik b jest, w porównaniu z syfilisem, niski. Uwzględniając te różnice można nakreślić wykres nosicieli HIV, tak samo i w tej samej skali, jak na zrobiliśmy to dla kiły. Oto i on:

syf 03

Nie trzeba nawet szczegółowej analizy, aby od razu zauważyć, że wykres AIDS w całości zawiera się w wykresie syfilisu. Dla dowolnej kombinacji parametrów (k; b), nosiciele krętków zawsze będą przeważać liczebnie nad dostarczycielami HIV.

Skoro zatem społeczeństwo cechuje niski, ustabilizowany poziom k, który blokuje rozprzestrzenianie się kiły powyżej obecnego, liczonego w promilach, poziomu, to powinien on także zablokować epidemię AIDS. I to, nawet uwzględniając znacznie dłuższy czas trwania choroby, ta stabilizacja powinna nastąpić na znacznie niższym poziomie, praktycznie nie różniącym się od zera.

AIDS w myśl tej hipotezy, w ogóle nie powinien istnieć, a już na pewno nie w najbardziej rozwiniętych i najbogatszych społeczeństwach, tam, gdzie alternatywny koszt czasu jest najwyższy.

A jednak istnieje. W stopniu porównywalnym, a nawet przewyższającym odsetek nosicieli kiły.

Rozwiązanie tego paradoksu wymaga zauważenia, że we wszystkich dotychczasowych rozważaniach braliśmy pod uwagę wartości średnie. Społeczeństwo nie składa się jednak, jakby chcieli komuniści, z jednakowych, jak sztachety w płocie, jednostek. Średni poziom rozwiązłości to poziom średni, ale zawsze znajdą się populacje, które od tej średniej będą odbiegać zarówno w jedną, jak i w druga stronę. Przykładem grupy o k znacząco niższym niż przeciętny są zakonnicy. Przykładem przeciwnym są …no właśnie.

Nie jest przypadkiem, że epidemia AIDS wybuchła i do dzisiaj się utrzymuje głównie w społeczności homoseksualistów. Tak jest w Europie i Ameryce, gdzie ogólna liczba zarażonych jest bardzo niska, natomiast nie w Afryce, gdzie bardzo wysoki odsetek chorych jednoznacznie wskazuje na równie wysoki poziom k tamtejszych biednych, prymitywnych i zacofanych społeczeństw, gdzie poza seksem, brak jest właściwie alternatywnych sposobów na wykorzystanie czasu.

Tymczasem w społeczeństwach zamożnych i cywilizowanych, których cechuje niski średni poziom k, obecność swoistych wysp rozwiązłości od razu rzuca się w oczy. W USA homoseksualiści stanowią ok 1-2% ludności, natomiast ponad połowę zarażonych wirusem HIV. Jest to odsetek wyższy niż nawet w najbardziej poszkodowanych pod tym względem krajach afrykańskich, zatem amerykańscy „geje” muszą zmieniać partnerów seksualnych z częstotliwością porównywalną do afrykańskich poligamistów. Co prawda homoseksualne praktyki seksualne są pod względem transmisji HIV bardziej ryzykowne niż seks standardowy, heteroseksualny, ale efekt ten jest kompensowany przez generalnie wyższy w USA ogólny poziom higieny i opieki medycznej. Gdyby zatem homoseksualiści faktycznie, jak się nam usiłuje wmówić, byli skłonni do tworzenia stałych i stabilnych związków, choćby nawet i z innymi homoseksualistami, odsetek zarażonych HIV w tym gronie nie różniłby się zbytnio od średniej w całym kraju. Wyjaśnia to też fenomen relatywnie bardzo niskiego odsetka chorych w krajach muzułmańskich, nawet bardzo biednych i zacofanych, ale równocześnie skrajnie nietolerancyjnych wobec „gejów” i ich postulatów.

Po wydzieleniu zatem homoseksualistów i innych specyficznych grup ryzyka, jak zarażający się bezpośrednio przez krew narkomani, faktyczny odsetek chorych na AIDS w cywilizowanych społeczeństwach niskiego k, faktycznie jest znikomy, niższy niż w przypadku syfilisu, dokładnie tak, jak nasz model przewiduje. To, że im bardziej rozwinięte i bogate jest społeczeństwo, tym mniej w nim przemocy i pospolitej przestępczości, wiadomo już od dawna. Jednak wraz z rozwojem cywilizacyjnym poziom etyczny wzrasta także w innych dziedzinach, także pozornie nieczułych na zjawiska ekonomiczne.

Fragmenty powyższego eseju zostały opublikowane w 1491/1492 numerze tygodnika „Najwyższy Czas”, pt „Marsz epidemii”

Mapa prowadząca na manowce

W opublikowanym osiem lat temu, artykule „Pedofila w służbie kulturkampfu”, niżej podpisany szczegółowo analizował tzw. „aferę pedofilską”, mająca podobno trapić Kościół katolicki . Na podstawie dostępnych wówczas danych, doszedł on do wniosku, że „afera” ta jest tworem całkowicie medialnym, realnie nieistniejącym. Mierzony ilością skazanych odsetek pedofilów wśród duchownych katolickich, okazał się zaskakująco niski, niższy nawet, niż średnia w całym społeczeństwie. Nikogo też za poplecznictwo, czyli szeroko rzekomo w Kościele praktykowanego ukrywania sprawców tego typu czynów przed świeckim wymiarem sprawiedliwości, nie skazano. Zwrócił też autor uwagę na zadziwiający fakt, że pomimo ogromnego medialnego rozmachu tej kampanii propagandowej i gigantycznych środków w nią zainwestowanych, ani w Polsce, ani nawet w krajach, w których polowanie na kościelnych pedofilów było wtedy znacznie bardziej zaawansowane, najważniejszych, kluczowych dla oceny zagadnienia danych, czyli ilości skazanych księży w jakimś określonym przedziale czasowym, nie publikowano.

Artykuł ten doczekał się polemiki, w otoczonej we wspomnianych kręgach swoistym kultem książce „Lękajcie się”. Polemika ta była jednak nierzetelna i merytorycznie nieudolna. Po pierwsze jej autor zaniżył liczbę księży poprzez wyłączenie z ich szeregów studiujących w seminariach kleryków, nie dokonując jednak analogicznego zabiegu dla łącznej populacji dorosłych mężczyzn, przez co odsetek skazanych księży został sztucznie zawyżony. Po drugie, krytykując pilastra (acz starannie unikając przy tym wymienienia go z nazwiska) za domniemane niedoszacowanie faktycznej liczby skazanych duchownych, autor „Lękajcie się”, również zaniedbał podania takiego zestawienia, gołosłownie jedynie zapewniając, że on sam „doliczył się” w Polsce 27 takich sutannowych przestępców w ciągu 10 lat. Zaraz jednak w następnym zdaniu sam siebie zdezawuował, przyznając, że dwa przypadki z tej liczby dotyczą wprawdzie księży skazanych, ale …w USA. Nie zauważył on też, być może z braku odpowiednich kompetencji, że nawet tych 25 podobno skazanych, do postawienia hipotezy o rzekomej nadreprezentacji tego rodzaju zboczeńców wśród katolickiego kleru, jak się jeszcze przekonamy, statystycznie nie wystarczy. Producenci osławionego filmu „Spotlight” wykazali się tu już większym sprytem, śmiało twierdząc, że pedofilów wśród kleru jest aż 6 procent, grubo ponad średnią dla reszty mężczyzn, a w późniejszych wywiadach podbijając ten wskaźnik nawet do procent dziesięciu. Co im szkodzi. W końcu to tylko film fabularny, licencia poetica.

Bojownicy antykościelnego frontu w dalszym ciągu zatem starannie unikali podawania jakichkolwiek ilościowych danych. Aż do teraz.

Trudno zrozumieć co ich nagle skłoniło do zmiany zdania. Czy poczucie bezkarności, czy przekonanie, że nikt nie ośmieli się ich twierdzeń weryfikować, czy typowa dla humanistów pogarda dla liczb i matematyki, czy też wszystko na raz w jakiejś proporcji. Grunt jednak że to zrobili, publikując szeroko już znaną „mapę kościelnej pedofilii”. Przyjrzyjmy się zatem uważnie tej publikacji, bo na pewno ma ona jedną bardzo ważną zaletę. Nikt nie zdoła jej zarzucić, że liczbę pedofilów wśród księży stara się w jakikolwiek sposób zaniżyć.

Mapa owa pokazuje zatem 60 „czarnych punktów”, księży skazanych za szeroko pojętą „pedofilię” w latach 2000-2018. Mogłaby owa liczba rzeczywiście, zgodnie z intencjami kartografów, wzbudzić zaniepokojenie, czy aby z tą „kościelną pedofilią” naprawdę jest coś na rzeczy. Jednak fakt, że z tą publikacją zwlekano aż tak długo, skłania do daleko posuniętego sceptycyzmu. Bardzo daleko posuniętego.

Już po pobieżnym tylko przestudiowaniu tych przypadków odkryjemy bowiem, że aż sześciu księży (np. ks. J.U. czy „ksiądz wikary K.K.”) zostało na niej umieszczonych …dwukrotnie. Z 60 skazanych księży robi się więc 54. Posuńmy się zatem w naszym sceptycyzmie dalej i uważnie wczytajmy się w medialne opisy tych spraw. Dzięki nim dowiemy się, że siedem z nich dotyczy osób mających w momencie deliktu …ponad 15 lat. Niezależnie zatem od oceny postępowania księdza mającego przykładowo romans i dziecko z siedemnastolatką, (nasz „podwójny” ksiądz wikary K.K.) w żadnym przypadku nie można tu mówić o „pedofilii”. Zostaje 47 księży pedofilów.

Ale i to nie do końca. W dwóch z opisywanych przypadków, procesy sądowe jeszcze się, wbrew legendzie mapy ( Skazani/sprawy zakończone wyrokiem) nie zakończyły. W dwóch kolejnych wyroki nie miały żadnego związku z molestowaniem seksualnym. W jeszcze jednym skazany został …kościelny, co kojarzy się wprawdzie werbalnie z „kościołem”, ale kościelny, wbrew, być może mylącej dla humanistów, nazwie, to przecież funkcja świecka.

Ostatecznie z pierwotnych 60 przypadków księży rzekomo skazanych w Polsce za „pedofilię”, zostaje 42. Liczba kościelnych pedofilów została zatem, najzupełniej świadomie – trudno bowiem uwierzyć że aż sześć przypadków „rozdwojenia” powstało przez zwykłą pomyłkę – zawyżona przez autorów mapy o prawie 50%.

W zasadzie to, że mają oni bardzo ekonomiczny stosunek do prawdy obiektywnej i traktują ją w sposób skrajnie utylitarny, dziwić nie powinno. Rozczarowuje jednak fakt że te manipulacje są aż tak prostackie i prymitywne, a propaganda ciosana siekierą. Od razu widać, że humaniści przekonywać ludzi, choćby tylko jako tako rozgarniętych i myślących, nawet nie próbują, cały propagandowy wysiłek koncentrując na kaptowaniu społecznych dołów i szumowin, tak zapewne sobie „przeciętnego watykańczyka”, wyobrażając i zdając sobie zapewne sprawę, że dla osiągnięcia swojego celu, ilościowe poparcie wśród motłochu jest ważniejsze od ewentualnego sprzeciwu ludzi bardziej rozgarniętych, ale też mniej licznych.

Niezależnie jednak od tych propagandowych manipulacji, nie da się ukryć, że jednak 42 duchownych, w tym, wbrew temu, co zapewniało nas „Lękajcie się”, kleryk P.J. z Krakowa, faktycznie w ciągu ostatnich 19 lat zostało, za szeroko pojęte (chodzi też m. in. o posiadanie i rozpowszechnianie dziecięcej pornografii) nadużycia seksualne względem dzieci, skazanych. Dużo to czy mało? Jak zwykle w takich przypadkach, aby ocenić skalę danego zjawiska, należy porównać je z innym, podobnym, w tym przypadku z liczbą wszystkich wyroków z tych samych paragrafów.

Z tych samych, to znaczy z jakich? Bezpośrednio pedofilii dotyczy art. 200 KK, ale osoby eksperymentujące z takimi chorymi skłonnościami mogą też być skazywane z artykułów ościennych. Od 197 (zgwałcenie) do 204 (stręczycielstwo). Ministerstwo Sprawiedliwości podaje, niestety dopiero od 2013 roku,  statystyki takich wyroków z wyszczególnieniem przypadków w których ofiary miały mniej niż 15 lat.

Rok Skazani z art. 197-204 KK jeżeli ofiary miały mniej niż 15 lat [wg MS]
2013 769
2014 773
2015 756
2016 777
Razem 3075
Średnio rocznie 768,75

Wg GUS pełnoletnich mężczyzn jest w Polsce 15 mln. Z kolei księży, zakonników i alumnów, jak informuje z kolei ISKK, 36 tys. Naturalnie obie te populacje nie są statyczne, ale stopniowo się odnawiają, w tempie ok 1,6 – 1,7% rocznie. Z różnych źródeł, w tym tzw. „listy pedofilów”, można też oszacować, że około 2% wśród skazanych stanowią kobiety. Uwzględniając te wszystkie dane, można postawić hipotezę, że, o ile pedofilów wśród katolickiego kleru jest tyle samo, co w reszcie tożsamej z nim wiekowo męskiej populacji, to należałoby się spodziewać, że w ciągu 19 lat, wśród skazanych będzie 34,27 duchownych katolickich. Naprawdę zaś jest ich, jak już wiemy, 42. Mogłoby się wydawać, że to jednak więcej niż średnia i w związku z tym humaniści, pomimo swoich błędów i przekłamań, faktycznie mogą mieć rację i „problem kościelnej pedofilii” rzeczywiście istnieje. To jednak błędne przekonanie, bo nie bierze pod uwagę możliwości przypadkowych odchyłek od średniej. Miarą takiego przypadkowego rozrzutu jest wielkość zwana odchyleniem standardowym. W przypadku zdarzeń bardzo mało prawdopodobnych, a z takim właśnie mamy do czynienia, jest owo odchylenie równe w przybliżeniu pierwiastkowi kwadratowemu z wartości oczekiwanej, czyli w naszym przypadku 5,85. Należy jeszcze wziąć pod uwagę, że zarówno średnia (34,27), jak i odchylenie standardowe (5,85) są liczbami rzeczywistymi, a faktyczna liczba skazanych (42) jest i zawsze będzie liczbą całkowitą i ze statystycznego punktu widzenia, waha się od 41,5 do 42,5 skazanych. Rzeczywisty wynik odchyla się zatem od oczekiwanej średniej o 1,24 do 1,41 odchylenia standardowego. Jeżeli rozkład pedofilów jest zbliżony do normalnego, prawdopodobieństwo, że ta odchyłka ma charakter przypadkowy, wynosi od 8,0% do 10,8%. Jeżeli ów rozkład od normalnego odbiega – odpowiednio więcej

Nie ma zatem żadnych podstaw do odrzucenia naszej hipotezy, o czym można by dyskutować dopiero wtedy, gdyby owa odchyłka przekroczyła trzykrotność odchylenia standardowego. Na podstawie danych, którym nie sposób zarzucić niedoszacowania, wykazaliśmy więc, że liczba pedofilów w Kościele nie przekracza średniej dla reszty społeczeństwa, Zatem żadnej rzeczywistej, niewyimaginowanej „afery pedofilskiej” w Kościele katolickim nie ma. I nigdy nie było.

Przynajmniej ze społecznego punktu widzenia. Bo dla samych katolików właśnie, sprawa wygląda nieco inaczej. Nieprzypadkowo w Kościele uważa się, że Komu wiele dano, od tego wiele wymagać się będzie; a komu wiele zlecono, tym więcej od niego żądać będą. Wierni mają prawo oczekiwać od swoich kapłanów, że nie będą oni tacy sami, jak wszyscy, ale że będą prezentować wyższy od przeciętnego poziom moralny. Najwyraźniej, przynajmniej w przypadku pedofilii, tak jednak nie jest. Możliwe są dwa wytłumaczenia tego faktu. Po pierwsze może to być złudzenie, zjawisko pozorne. Całe powyższe rozumowanie oparto przecież o założenie, że prawdopodobieństwo schwytania i skazania duchownego pedofila jest takie samo jak pedofila świeckiego. Tak jednak wcale nie musi być. Pedofilska nagonka na Kościół trwa już od ponad ćwierć wieku i osiągnęła przynajmniej tyle, że w powszechnym przekonaniu każdy pedofil stał się księdzem, a każdy ksiądz – pedofilem. Stąd, zupełnie na odwrót niż to uczestnicy owej nagonki głoszą, księża stali się szczególnie uważnie obserwowaną pod tym kątem grupą zawodową, w której przypadku faktyczne pojawienie się jakiegoś pedofila, włącza alarm znacznie wcześniej niż w przypadku innych grup, nie tak podejrzanych. Ilustruje to zjawisko wykres przedstawiający liczbę skazanych księży na przestrzeni czasu. Zaznaczono również teoretyczną średnią roczną wraz z możliwymi odchyleniami (+/- 3 odchylenia standardowe).

Mapa 01

Jak widać, rozkład wyroków jest mocno niesymetryczny i koncentruje się po prawej stronie wykresu z maksimum w roku 2014. Przy czym, jak można odczytać z „mapy pedofilii”, często chodzi o sprawy zadawnione, nawet sprzed kilkunastu lat. Jeżeli zatem nasze przypuszczenie o łatwiejszym od średniej chwytaniu pedofilów w sutannach jest prawdziwe, w nadchodzących latach, po „przerobieniu” wszystkich „zaległości”, powinniśmy oczekiwać dalszego spadku liczby skazywanych księży, ku zapewne narastającej wściekłości humanistów, jeżeli będą oni w stanie w ogóle merytorycznie to zjawisko zauważyć.

Na drugim wykresie pokazano te same dane w postaci skumulowanej.

Mapa 02

Jak widać przez cały okres 2000-2018 faktyczna liczba skazanych bez trudu mieściła się w widłach reguły trzech sigm. W tym zakresie mieści się też, wspomniany na początku eseju, „punkt Overbeeka”, 25 podobno znalezionych przez niego skazanych w Polsce duchownych w ciągu 10 lat.

Pozostaje jednak inny, naprawdę niepokojący aspekt całej tej, poza nim jednym, wydumanej afery. Spośród 42 skazanych za pedofilię księży, co najmniej 20, upodobań płciowych amatorów dziecięcej pornografii bowiem nie podano, czyli prawie połowa, to homoseksualiści, podczas gdy tylko 1-3% wszystkich mężczyzn cierpi na tą przypadłość. Tak wysoka nadreprezentacja homoseksualistów wśród pedofilów jest widoczna zresztą również w innych, niż katolicki kler, środowiskach. I to jest rzecz, którą naprawdę hierarchowie kościelni przy projektowaniu polityki personalnej powinni wziąć pod uwagę. Albo w ogóle do wyświęcania osób o takich skłonnościach nie dopuszczać, albo przynajmniej kierować ich do zadań, w których ich ewentualne kontakty z dziećmi będą ograniczone do minimum.

Warto jednak zwrócić uwagę, na fakt, że ta korelacja jest przez antykościelnych propagandzistów starannie przemilczana. Jakiekolwiek przypadki pedofilii poza instytucjami kościelnymi, również jakoś nie budzą ich zainteresowania. Jest zatem oczywiste, że dobro zagrożonych przez pedofilów dzieci absolutnie nie jest tym, co ich w najmniejszym choćby stopniu, interesuje.

A co to w takim razie jest?

Część humanistów obłudnie zapewnia, że chodzi im tylko o dobro Kościoła. Żeby Kościół się ich rękami „oczyścił” z niegodnych kapłanów. Owa część jest zwykle związana z PIS i nie należy wątpić, że faktycznie chętnie by ona „oczyszczenia” Kościoła i wymiany księży prawowiernych na „księży patriotów” dokonała, ale nie jest to bynajmniej część dominująca. A i nawet dla niej jest to tylko cel uboczny, wisienka na torcie. Kolejna grupa wojująca z kościelną (wyłącznie kościelną) pedofilią, to zadeklarowani wrogowie Kościoła, w rodzaju Jerzego Urbana, który jawnie zadeklarował, że chciałby aby wszyscy księża okazali się pedofilami, bo to na pewno Kościół by zniszczyło całkowicie.

I zapewne rzeczywiście ani Urban, ani ci, którzy podzielają te poglądy, likwidacją Kościoła wcale by się nie zmartwili. Ale przecież humaniści dowolnych obrządków nie zwykli pocić się dla idei za darmo. Kiedy zawzięte toczą boje ze straszliwą klerykalizmu hydrą, na zawsze chcą sobie zostawić to, co hydrze wydrą. Nie ulega bowiem wątpliwości że najważniejszy jest aspekt merkantylny. Kościół jest instytucją zamożną i wyciskanie w imieniu ofiar, początkowo rzeczywistych, a później coraz bardziej domniemanych, sutych „odszkodowań”, stało się przedsiębiorstwem porównywalnym z osławionym „przedsiębiorstwem holocaust”. W Polsce lobby to odniosło już pierwszy sukces w postaci „odszkodowania” zasądzonego nie od sprawcy molestowania, ale od jego pracodawcy. Odszkodowania w wysokości milionowej. Pozostaje pytanie, ile z tej kwoty faktycznie trafiło do ofiary, ale nawet jeżeli było to 10, czy 15 procent, to przecież znacznie więcej niż nic, bo ofiary innych, niekościelnych pedofilów żadnego zadośćuczynienia, nawet choćby symbolicznej wysokości, od ich pracodawców oczekiwać przecież nie mogą.

Powyższy artykuł ukazał się w wersji skróconej w 45-46 numerze tygodnika „Najwyższy Czas” i jest dostępny także na stronach internetowych tygodnika

Nieumarłe drapieżniki

Wraz z opanowaniem ognia, już kilkaset tysięcy lat temu, człowiek został szczytowym drapieżnikiem w ziemskim ekosystemie. Polował na wszystkie możliwe zwierzęta, nic natomiast nie polowało na niego. Oczywiście ludzie nadal bywali i do dzisiaj bywają zabijani i zjadani przez lwy, wilki, krokodyle i rekiny, ale były i są to już tylko incydenty, nieszczęśliwe wypadki, nie mające żadnego wpływu ani na dynamikę ludzkich populacji, ani na kierunek ich ewolucji.

Pamięć jednak o dawniejszych czasach i jakaś dziwna za nimi tęsknota, przetrwały aż do czasów współczesnych. Realnych, gustujących w ludzinie, drapieżników, już dawno nie było, ale w zamian społeczeństwo stworzyło sobie drapieżniki wyimaginowane. Wymyślone drapieżne, a nawet inteligentne potwory, w wymyślonych opowieściach siały spustoszenie w wymyślonych królestwach, polując na bezsilnych ludzi a nawet domagając się składania sobie regularnych ofiar z dziewic.

Nadejście rewolucji przemysłowej nie tylko nie zlikwidowało tych wirtualnych drapieżców, ale, wskutek powstania i rozwoju kultury masowej, wyprodukowało nowych, z których omówimy tutaj dwóch.

Pierwszym z nich jest wampir. Jako popularna figura literacka pojawił się na początku XIX wieku i brylował w literaturze, a potem i w filmie przez kolejne półtora wieku. Jak każdy drapieżnik żerujący na jakiejś populacji ofiar, również wampir może być opisany przez ekologiczny model drapieżnictwa, zwany też, od nazwisk swoich twórców, modelem Lotki – Volterry.

Oto i on. N – oznacza populację ludzi, V – populację wampirów. Obie te wielkości podajemy się jako odsetek wyjściowej populacji ludzkiej, przyjmując, że bez obecności wampirów, wynosi ona 100%

dN/dt = r*N*(1-N)-a*N*V

dV/dt = a*N*V – V/L

Model zawiera trzy parametry. Przez r opisany jest naturalny wskaźnik przyrostu naturalnego populacji ofiar – czyli ludzi. Można przyjąć, że wynosi on średnio 5% rocznie. Parametr a to wydajność polowania – tempo w jakim wampiry są w stanie przerabiać ludzi na kolejne wampiry. Wreszcie L – średnia długość życia wampira. Jest on zwykle przedstawiany jako istota, z ludzkiej perspektywy, nieśmiertelna, niepodlegająca chorobom i starości. Z drugiej zaś strony, mimo całej swojej złowrogiej potęgi, są wampiry stosunkowo kruche, zmuszone, pod groźbą unicestwienia, unikać osinowych kołków, srebra, krzyży, czy światła słonecznego. Choć zatem formalnie nieśmiertelne, to bynajmniej nie są wampiry wieczne. Wcześniej czy później, choć jest to okres dla ludzi niewyobrażalnie długi – giną. Dla naszych potrzeb można przyjąć że L = 1000 lat. Oryginalny, opisujący relacje lisów i królików, model L-V, zawiera jeszcze jeden parametr, określający, ile trzeba upolować królików, żeby urodzić i odchować jednego lisa. Ponieważ z jednego człowieka powstaje dokładnie jeden wampir, w naszym przypadku parametr ten równy jest jedności.

Model L-V posiada trzy stabilne rozwiązania stacjonarne, z których dwa (0% ludzi, 0% wampirów, oraz 100% ludzi, 0% wampirów)  są trywialne. Interesujący jest trzeci przypadek, przewidujący stabilne współistnienie tych dwóch populacji.

Ns = 1/(a*L)

Vs=(r/a)*(1-1/(a*L))

Jeżeli wampiry w ogóle mają istnieć, to muszą powstawać przynajmniej w takim samym tempie, jak giną, czyli a>1/L. Jednak, ze względu na długowieczność wampirów, ich liczba w naszym modelu, wraz ze wzrostem skuteczności polowania, rośnie błyskawicznie. Przy a ledwo dwukrotnie wyższym od wartości minimalnej, populacja ludzi spada do 50% wielkości wyjściowej, a wampirów rośnie do … 1250%. Na jednego człowieka przypada więc wtedy …25 wampirów. Przy jeszcze wyższych a, liczba wampirów zaczyna, z braku ofiar – ludzi, spadać, ale przelicznik wampirów na człowieka nadal rośnie, aż do osiągnięcia wartości 50:1. W żadnej jednak opowieści o wampirach podobnych proporcji nie znajdziemy. Przeciwnie. Wampiry są tam zawsze, w porównaniu z ludźmi, nieliczne. W pierwszych wampirycznych utworach, wystarczyło zostać raz ukąszonym przez wampira, aby samemu się nim stać. Szybko jednak ich twórcy, nawet bez szczegółowej znajomości opisywanego modelu, zorientowali się, że przy tak wysokim współczynniku a, ludzie całkowicie by z powierzchni Ziemi zniknęli. Procedura powoływania nowego wampira uległa zatem daleko idącej komplikacji, stając się złożonym i czasochłonnym rytuałem.

Tak daleko idąca nadreprezentacja liczebna, nie byłaby też tym, co cieszyłoby same wampiry. Wampir na ludzi nie tylko poluje, ale też ich …osusza. Jest nie tylko drapieżnikiem, ale przede wszystkim pasożytem. W tej drugiej roli wolałby, aby to ludzie dominowali liczebnie nad wampirami, zapewniając mu tym samym stałą i niezakłóconą podaż napitku. Wszyscy inni, niż on sam, krwiopijcy, tym samym są dla niego tylko uciążliwą konkurencją. Wampir wampirowi wampirem.

W konsekwencji społeczność wampirów, w końcu istot świadomych i inteligentnych, musi wykształcić ścisłe i bezwzględnie przestrzegane reguły, określające kto, kogo, kiedy i w jakich okolicznościach może w nowego wampira przemienić. Wszelkie samowolne działania w tym zakresie muszą zaś być surowo tępione. Dopuszczenie do społeczności wampirów staje się, wobec niewielkiej jej liczebności i niesłychanej (L=1000 lat) długowieczności, niezwykle rzadko przyznawanym zaszczytem, którego ludzie nie tylko nie muszą się obawiać, ale wręcz o niego zabiegają, czego przykłady można licznie znaleźć w literaturze. Nieprzypadkowo wampir jest tam zwykle arystokratą, hrabią, księciem, czy baronem, osobowością złożoną i niebanalną, kimś niezwykłym i wyjątkowym.

Żaden realnie żyjący w przyrodzie drapieżnik nie mógłby takiej samoograniczającej się strategii rozrodczej stosować, ale wampiry przecież żywe nie są. „Rozmnażają się”, co prawda, ale bez dziedziczenia cech. Nowo powstały wampir nie jest bardziej podobny do wampira – stworzyciela, niż do jakiegokolwiek innego przedstawiciela tej grupy. W rezultacie wampiry nie podlegają ewolucji darwinowskiej i nie odczuwają presji na maksymalizowanie swojego indywidualnego sukcesu rozrodczego. Bez problemu mogą go więc poświecić dla dobra wspólnego.

Wampiry, jak już autor wspomniał, królowały na kartach powieści i ekranach filmowych przez ponad sto lat. Zachodzące jednak w drugiej połowie XX wieku przemiany społeczne, znacząco zredukowały zapotrzebowanie na drapieżnika arystokratycznego, wyrafinowanego i niepowtarzalnego. Płacąca za straszenie jej publiczność, zapragnęła bać się kogoś bardziej demokratycznego, masowego, chamskiego i pospolitego. Wampiry więc musiały ustąpić miejsca w popkulturze potworom innego rodzaju. Nastały czasy zombie. Demokratyczne zombiaki są co najmniej równie długowieczne, jak arystokratyczne wampiry, ale, w przeciwieństwie do nich, nie narzucają sobie żadnych ograniczeń w kąsaniu i przerabianiu na zombiaki kolejnych ofiar. Nie myślą, nie tylko o przyszłości, ale w ogóle.

Wampiry świadomie pilnowały tego, aby ich współczynnik skuteczności a był tylko minimalnie większy od 1/L.  U zombiaków, a jest tak wysokie, że 1/L można w ogóle zaniedbać. Model wygląda więc tak:

dN/dt = r*N*(1-N)-a*N*Z

dZ/dt = a*N*Z

I nie ma w nim tym razem stanu stacjonarnego innego, niż N=0, lub Z=0. Współistnienie ludzi i zombie nie jest więc możliwe. Inwazja zombie, jeżeli już raz się zacznie, będzie lawinowo narastać, aż do całkowitej zagłady ludzkości. Zombie są więc znacznie bardziej od wampirów przerażające, ale niestety, znacznie też mniej od nich nośne fabularnie. Liczba możliwych scenariuszy z udziałem zombie jest wprost żałośnie uboga i w zasadzie dawno zostały one wszystkie wyeksploatowane. Tak sądził niżej podpisany. Mylił się jednak. Światowa wojna zombie nie jest wcale tak nudnym i prostackim motywem literackim, jakby się to mogło na pierwszy rzut oka wydawać.

Skoro zombie właściwie nie giną same z siebie, to aby ludzkość miała z nimi w ogóle jakieś szanse, ludzie muszą zombie likwidować własnoręcznie. Drugi człon równania L-V przyjmie więc postać:

dZ/dt = (a-b)*N*Z

a jest skutecznością polowania zombie na ludzi, natomiast b na odwrót – skutecznością polowania ludzi na zombie. W przeciwieństwie do zombie, ludzie się uczą, zatem współczynnik b będzie rósł w miarę upływu czasu. Kiedy stanie się większy od a, populacja zombie zacznie się zmniejszać. Nie daje to jednak jeszcze żadnej gwarancji zwycięstwa, bo pomimo nawet stosunkowo wysokiej wartości b, sytuacja nie jest bynajmniej symetryczna. Każdy upolowany człowiek nadal staje się zombiakiem, natomiast upolowany zombiak nie staje się człowiekiem.

Numeryczna analiza modelu wskazuje, że ludzie mogą zwyciężyć tylko wtedy, jeżeli w szczytowym momencie inwazji, populacja zombie nie przekroczy ok 8% przedwojennej liczby ludzi. Jeżeli odsetek ten będzie wyższy, to, niezależnie od tego jak szybko i sprawnie ludzie nauczą się zombie unieszkodliwiać, wojnę z nimi przegrają.

Trudno jednak porwać czytelników wizją konfliktu z tak nielicznym wrogiem. Wróg liczniejszy natomiast, bardziej fabularnie atrakcyjny, pozbawi naszą historię obowiązkowego happy endu. Jak zatem, z jednej strony pokazać milionowe hordy krwiożerczych potworów, z drugiej zaś ostateczne zwycięstwo ludzkich bohaterów?

Odpowiedź znów znajdziemy w odpowiedniej modyfikacji modelu Lotki-Volterry. Co najmniej jeden autor, z tych, którzy światową inwazję zombie opisali,  tak właśnie postąpił. Nie wiadomo, czy sam, lub z czyjąś pomocą przeprowadził odpowiednie obliczenia, czy też wpadł na to potęgą czystej intuicji, ale rezultat imponuje. Mowa o powieści „World War Z” Maxa Brooksa.

Kluczem do zwycięstwa i ocalenia ludzkiego gatunku staje się w niej stworzenie kryjówek, bronionych przed zombie przez wojsko i przeszkody naturalne, „stref bezpieczeństwa”. Od obszarów stosunkowo dużych, jak Izrael, czy Krym, do zupełnie małych, jak pośpieszenie zaadaptowane w tym celu średniowieczne zamki. W takich kryjówkach, szczęśliwcy mogą przetrwać, zyskując czas na skuteczne zwiększenie współczynnika b, a potem przeprowadzać mozolną rekonkwistę. Na poniższym wykresie fazowym pokazano przebieg światowej wojny Z, obliczony na podstawie modelu. Iteracje przebiegu wojny przeprowadzono co tydzień. Współczynnik a = 7 (jeden zombie może w tygodniu upolować siedmiu ludzi), b stopniowo rośnie od zera do 35. Symulacja startuje, kiedy zombie na świecie jest kilka tysięcy. W strefach bezpieczeństwa chroni się 10% przedwojennej ludzkiej populacji.

Zombie 01

Zgodność książkowej fabuły z modelem matematycznym jest imponująca, a zmiany, które Brooks wprowadził, aby uatrakcyjnić odbiór dzieła – minimalne. Pierwsza faza wojny, zwłaszcza okres od pacjenta zero do Wielkiej Paniki, została nieco wydłużona, ale potem już żadnych odchyłek nie ma. W ciągu 2-3 miesięcy, giną wszyscy, którzy nie znaleźli jakiegoś schronienia. Kolejne 2-3 kwartały to rozpaczliwa obrona stref bezpieczeństwa i innych schronień przed napierającymi hordami umarlaków. Wreszcie po roku od początku inwazji, ocalali ludzie zyskują nad przeciwnikiem na tyle dużą przewagę taktyczną, że mogą rozpocząć jego systematyczną eksterminację. Jednak cudów nie ma. Na każdego żywego jeszcze człowieka przypada w tym momencie ponad czterech zombiaków i ich tępienie trwa dziesięciolecia. A dopóki nie wyginą wszystkie, powrót ludzkiej populacji do życia bez antyzombiakowych fortyfikacji i broniących ich posterunków nie jest możliwe. Historia opowiedziana przez Brooksa jest wprost dokładnym rozwiązaniem modelu L-V.

Co ciekawe, nie jest jednak ów model nigdzie w książce wzmiankowany, nawet przez bohatera, który ową zwycięską strategię wymyślił. Również nakręcony na podstawie powieści film, nie tylko o nim nie wspomina, ale wręcz go całkowicie z fabuły usuwa, bo filmowe zombie nie tylko różnią się od książkowego pierwowzoru znacznie wyższym a, ale i dynamika samej wojny jest z matematyką całkowicie na bakier, co czyni film widowiskiem nudnym i bez polotu.

„World War Z”

Max Brooks

Zysk i Ska 2013

Włókna imperium

Popularnym motywem spotykanym w twórczości z zakresu SF, szczególnie w podgatunku zwanym „Space Opera” jest rozciągający się w kosmosie, obejmujący wiele układów gwiezdnych i planet, międzygwiezdny byt polityczny, swoiste gwiezdne imperium.

Występuje ono w wielu postaciach, od organizmów demokratycznych, jak Federacja, ze „Star Treka”, asimovowska „Fundacja” czy Republika z „Gwiezdnych Wojen”, poprzez twory mniej lub bardziej autokratyczne, reprezentowane przez Imperia Asimova i Herberta, czy Sto Światów Carda, po złowrogie imperia zła, jak Imperium z „Gwiezdnych Wojen”.

Mimo, że pojawiały się one w kulturze w różnym okresie, mimo, że udział w ich tworzeniu miało bardzo szerokie i zróżnicowane grono autorów – pisarzy i filmowców, wszystkie te imperia, mimo wielu dzielących je różnic, posiadają pewne cechy wspólne. Niektóre z nich są oczywiste. Jeżeli takie galaktyczne imperium ma w ogóle nie rozpaść się na niezależne systemy gwiezdne i jako jednolita całość istnieć i funkcjonować, musi dysponować transportem, albo chociaż, jak Sto Światów, samą łącznością, szybszą od światła. I takim atrybutem wszyscy autorzy swoje imperia faktycznie obdarzają.

Twórcy kultury, albo w tym względzie inspirują się nawzajem, albo samodzielnie, mając tę samą wiedzę o istnieniu bariery prędkości światła we Wszechświecie i wyciągając naukę z historii imperiów ziemskich, z których wiele upadło z powodu trudności komunikacyjnych występujących pomiędzy ich częściami, dochodzą niezależnie do takich samych wniosków.

Takich powtarzających się cech jest jednak więcej, a niektóre z nich są ukryte tak głęboko, że samo ich istnienie jest dziwne, by nie rzec, niepokojące.

Aby omówić jedną z takich nieoczywistych zbieżności, przyjrzyjmy się bliżej jednemu z najszerzej znanych takich fikcyjnych galaktycznych imperiów, imperium z „Diuny” Franka Herberta.

Możliwe do oszacowania granice tego imperium pokazano na poniższym diagramie. Skala przedstawiona jest w latach świetlnych. Wszystkie możliwe do zidentyfikowania planety imperium (autor skorzystał tu ze strony „Svensson’s Guide to the Galaxy”) uwidoczniono w poniższej tabeli

Planeta z „Diuny” Nazwa współczesna centralnej gwiazdy Odległość od Ziemi [l św.]
Arrakis Alpha Carinae 310
AL-Lat Słońce 0
Bela Tegeuse Beta Leporis 160
Caladan Delta Pavonis 19,9
Chusuk Theta Arietis 450
Corrin Sigma Draconis 18,8
Ecaz Alpha Centauri B 4,4
Giedi Prime 36 Ophiuchi B 19,5
Niushe/Gamont/Grumman Psi1 Draconis B 74,5
Hagal Theta Leonis 165
Ix 40 Eridani A 16,5
Al.-Dhanab Gamma Gruis 211
Poritrin Epsilon Ophiuchi 106,4
Richese Epsilon Eridani 15,5
Salusa Secundus Gamma Piscium 138
Sikun 70 Ophiuchu A 16,6
Kaitan Alpha Piscium 139
Rossak Alpha Crateris 159
Tleilax Theta Eridani 161

A następnie zrzutowano na płaszczyznę równikową o deklinacji równej 0 według epoki J2000.0. Rzutowanie zachowuje odległości planet od Ziemi, ale może zaniżać ich odległości od siebie nawzajem. Np. Caladan (Delta Pavonis), skąd Atrydzi podróżują na Arrakis (Alpha Carinae) jest od niej odległy w przestrzeni trójwymiarowej o ponad 300 lat świetlnych, podczas gdy na naszej mapie dzieli te planety tylko 200 lat świetlnych.

Diuna 02

Jak wynika z tego diagramu, imperium „Diuny” jest raczej niewielkie i trudno nawet byłoby je nazwać „galaktycznym”. Jeżeli przyjąć, że najbardziej, ze znanych czytelnikom, od Ziemi oddalona planeta Chusuk (Theta Arietis) wyznacza faktycznie imperialne rubieże, zamieszkana ekumena nie przekracza 1000 lat świetlnych średnicy. W otaczającej Ziemię przestrzeni o tych rozmiarach znajduje się jednak i tak ponad 4 miliony gwiazd, podczas gdy zamieszkałych, połączonych szlakami przemierzanymi przez Gildię Kosmiczną, planet jest w Imperium nie więcej niż kilkanaście tysięcy. Mniej, niż jedna na trzysta gwiazd posiada zatem jakąś zaludnioną planetę.

Średnio. Same bezpośrednie okolice Ziemi są jednak zasiedlone znacznie gęściej. W promieniu 20 lat świetlnych od Ziemi znajduje się około 280 gwiazd, z czego siedem jest wprost wymienionych przez Herberta. Jest to aż jedna trzecia wszystkich planet, których położenie w ogóle możemy wyznaczyć. Ekstrapolując dane z tej próbki dojdziemy do wniosku, że praktycznie wszystkie z 280 systemów położonych najbliżej Ziemi powinny mieć zamieszkałe przez ludzi planety, co niesłychanie kontrastuje z średnią jeden na trzysta dla całego imperium.

Imperium, poza położonym wokół Słońca niewielkim, gęsto, jak na kosmiczne standardy, zaludnionym „rdzeniem”, składa się więc właściwie z pustej przestrzeni i milionów bezludnych układów planetarnych z rozrzuconymi tylko gdzieniegdzie malutkimi wysepkami zasiedlonych planet połączonych ze sobą jedynie wątłymi niteczkami przemierzanych przez galeony Gildii szlaków w hiperprzestrzeni.

Imperium Diuny jest, jak już autor wspomniał, niewielkie, to samo dotyczy też Stu Światów Carda. Przejdźmy więc teraz do imperiów naprawdę galaktycznych, jak Imperium i Fundacja z „Fundacji” Asimova, czy Republika i Imperium z „Gwiezdnych wojen”. Wszystkie planety składające się na owe imperia mają otóż swoje …nazwy. Krótkie, dźwięczne i łatwo wpadające w ucho. Jest Trantor, Terminus, Couroscant, Alderaan, Tatooine, czy Korelia.

Tymczasem Galaktyka zawiera około 200 miliardów gwiazd. Średnio na każdą taką gwiazdę przypada jedna potencjalnie nadająca się na siedlisko życia planeta. Oznacza to 200 miliardów światów w Galaktyce, z których do tej pory ziemscy astronomowie odkryli około pięćdziesięciu. Prawdziwe nazwy prawdziwych planet w Galaktyce krótkie i dźwięczne bynajmniej nie są. To złożone kody alfanumeryczne w rodzaju GJ 667 C c, czy LHS 1140 b (N).

W żadnym ludzkim języku, ani we wszystkich razem, nie ma bowiem po prostu tylu słów, które by jeszcze brzmiały jako tako sensownie i których na nazywanie setek miliardów planet w Galaktyce można by użyć. Liczba wszystkich miejscowości na Ziemi jest znacznie mniejsza niż liczba planet w Galaktyce, a i tak wiele ich nazw się powtarza, co w przypadku żadnego z fikcyjnych imperiów nie zdarza się nigdy. Skoro zatem wszystkie należące do imperium planety mają proste, dźwięczne, nie powtarzające się nazwy, jasne jest, że liczba zasiedlonych, składających się na te imperia, planet musi być, tak samo jak to było w przypadku Diuny, dużo, o wiele rzędów wielkości, mniejsza niż liczba wszystkich planet w Galaktyce do zasiedlenia nadających się.

Z jednej strony mamy zatem ograniczoną lingwistycznie „od góry” do nie więcej niż stu tysięcy liczbę planet takiej Republiki czy Imperium, z drugiej zaś, nie raz prezentowane są widzowi mapy pokazujące, że Republika i Imperium rozpościerają się jednak, jeżeli nie w całej Galaktyce, to na pewno w przeważającej jej części. Brakuje już nie milionów, jak w „Diunie”, a miliardów planet. Gdzie one wszystkie się podziały?

Należy w tym miejscu przypomnieć, że owe imperia dysponują technologią podróży z prędkościami ponadświetlnymi, inaczej przecież w ogóle nie mogłyby istnieć. Statki kosmiczne poruszają się tam nie tylko w zwykłej przestrzeni, ale także w hiperprzestrzeni. A o ile zwykła przestrzeń euklidesowa jest ortogonalna i izotropowa, to znaczy w każdym kierunku i w każdym miejscu taka sama, o tyle hiperprzestrzeń najwyraźniej nie. W „Gwiezdnych wojnach” pojawiają się wzmianki o różnych trasach, którymi zwyczajowo poruszają się statki kosmiczne, zaś flota pod dowództwem Dartha Vadera tropi uciekających rebeliantów rozsyłając w Galaktyce „tysiące sond”. Tysiące, ale nie miliardy, czego wymagałyby poszukiwania w normalnej, euklidesowej przestrzeni. Najwidoczniej, w odróżnieniu od trójwymiarowej izotropowej przestrzeni, hiperprzestrzeń składa się z wielu wąskich, jednowymiarowych włókien, na podobieństwo pajęczej sieci przenikających Galaktykę. Poruszanie się wzdłuż tych nici musi być dużo łatwiejsze i szybsze, niż w kierunku do nich poprzecznym, jeżeli nawet ten ostatni ruch jest w ogóle w hiperprzestrzeni możliwy. Wolno zatem przypuszczać, że w poszukiwaniu bazy Rebelii Vader porusza się właśnie wzdłuż takich utartych szlaków a sondy rozsyła niezbyt daleko na „boki”. Przewiduje on bowiem, że Rebelia uciekając przed flotą Imperium zjechała gdzieś ze zwykłych tras, ale zjechała niezbyt od nich daleko, bo dalsza droga po takich hiperprzestrzennych „wertepach” i późniejszy powrót do imperialnej sieci, zajęłyby rebeliantom zbyt wiele czasu. Sama Hoth, gdzie rebelianci faktycznie się skryli, posiada jednak nazwę, a nie tylko jakiś numer katalogowy, co wskazuje, że nie leży jeszcze od najbliższego „włókna” zbyt daleko. Najwyraźniej jednak znajduje się już poza jego obrębem, skoro, zarówno imperialna flota, jak i uciekające przed nią pojazdy Rebelii, mają w jej pobliżu, uwidocznione starannie na filmie, wyraźne problemy z manewrowaniem.

Istnienie hiperprzestrzeni w postaci przenikającej Galaktykę pajęczej sieci z wyróżnionymi miejscami i kierunkami, wyjaśnia też niejednorodność zaludnienia światów „Diuny” Pierwsza fala ludzkiej ekspansji w kosmos obejmująca najbliższe okolice Słońca, odbywać się tam mogła w zwykłej przestrzeni, dlatego okolice te są zamieszkałe bardzo gęsto. Jednak po osiągnieciu rubieży ok 20 lat świetlnych od Ziemi najwyraźniej odkryto hiperprzestrzeń i dalsza kolonizacja odbywała się już wzdłuż owych hiperprzestrzennych włókien.

Włóknistość hiperprzestrzeni jest zatem cechą wspólną praktycznie wszystkich istniejących w kulturze imperiów galaktycznych, chociaż na pewno nie wynika ona z celowych przemyśleń ich twórców, ani z ich wzajemnej inspiracji. Czyżby włóknista hiperprzestrzeń naprawdę istniała i w ten właśnie sposób, jakoś tajemniczo wpływając na mózgi literatów, dawała nam znać o swoim istnieniu?

 Jest to idea bardzo nośna fabularnie i aż dziw, że żaden twórca nie wykorzystał dotąd jej pełnego potencjału. Przecież, skoro taka sieć łączy zaledwie jedną na milion gwiazd w Galaktyce, to nic nie stoi na przeszkodzie, aby takich odseparowanych od siebie nawzajem sieci hiperprzestrzennych było w Galaktyce tysiące, czy nawet dziesiątki tysięcy. Konsekwentnie w Galaktyce mogłyby istnieć równocześnie tysiące nie mających ze sobą żadnego kontaktu galaktycznych imperiów. Nagłe odkrycie przez dwa takie imperia siebie nawzajem, byłoby wspaniałym tematem na Space Operę, tematem, który wciąż czeka na swojego Asimova, Lucasa, czy Herberta.

Przyprawa musi płynąć

W twórczości SF często przewija się motyw rozciągającej się w Galaktyce cywilizacji przybierającej formę jednolitego bytu politycznego – międzygwiezdnego imperium. Jednak naprawdę, rozwinięta międzygwiezdna cywilizacja, w wyniku ograniczeń zarówno ze strony fizycznej, jak i społecznej, w postaci takiego scentralizowanego, zmilitaryzowanego, galaktycznego imperium zwyczajnie istnieć nie może.

Po pierwsze bowiem, odległości międzygwiezdne i związane z nimi opóźnienia w komunikacji i łączności praktycznie uniemożliwiają jakiekolwiek centralne zarządzanie takim tworem. Po drugie zaś, w cywilizacji na tym poziomie rozwoju, podstawowym środkiem produkcji nie jest, jak w cechującym imperium rzymskie maltuzjańskim feudalizmie, ziemia uprawna i inne zasoby naturalne, ani, jak w reprezentowanym przez imperium brytyjskie, kapitalizmie, kapitał, ale praca, wiedza i technologia, dobra, ze wszystkich wymienianych w naukach ekonomicznych czynników wzrostu gospodarczego, najbardziej ulotne i najmniej „materialne”. W przeciwieństwie zatem do feudalizmu i kapitalizmu, w nadchodzącej w przyszłości cywilizacji postkapitalistycznej rola państwa jako gwaranta praw własności, dostarczyciela dóbr publicznych i swoistego „ochroniarza” wszelakich inwestycji, zostanie znacznie zredukowana, a społeczne zapotrzebowanie na usługi aparatu państwowego radykalnie zmaleje. Zatem i same państwo, nawet, jeżeli nie zniknie, jak przewidują teoretycy anarchokapitalizmu, zupełnie, to z pewnością znacznie osłabnie i postaci jednolitego, hierarchicznie zorganizowanego, imperium zwyczajnie nie będzie mogło przybrać.

Aby zatem powołać w literaturze, czy filmie, do życia w miarę realnie wyglądające galaktyczne imperium, należy jakoś usunąć oba te ograniczenia. Po pierwsze, należy udostępnić imperium możliwość złamania bariery prędkości światła, po drugie zaś …pozbawić je technologii. O ile pierwsze rozwiązanie jest faktycznie powszechnie stosowane, a w filmach, czy książkach wędrujące po hiperprzestrzeni statki kosmiczne są atrybutem wręcz, w tego typu historiach, kanonicznym, o tyle drugie jest ekstremalnie rzadko spotykane. Autorzy nie tylko nie potrafią w wiarygodny sposób rozwiązać tego dylematu, ale najczęściej w ogóle nie zdają sobie z jego istnienia sprawy.

Oczywiście nie jest to sprawa prosta. Powrót międzygwiezdnej cywilizacji do feudalnego maltuzjanizmu oznacza powrót do gospodarki maltuzjańskiej właśnie. Nie tylko drastyczne zredukowanie średniego dochodu, nie tylko powstanie typowej dla maltuzjanizmu pławiącej się w luksusach warstwy arystokracji – właścicieli ziemskich i gigantycznych nierówności społecznych.

Przede wszystkim wiąże się to z upadkiem jakichkolwiek bardziej zaawansowanych niż młyn wodny z przekładniami mechanicznymi, technologii. Pułapka maltuzjańska, czyli stan niskiego i stabilnego, niewrażliwego na zmiany produktywności gospodarki, dochodu per capita, występuje w gospodarce rolniczej, co najwyżej uzupełnionej przez rzemiosło i niewielkie manufaktury. Jest to gospodarka o wiele rzędów wielkości za mało wydajna, aby utrzymać komunikację nawet międzyplanetarną, a co dopiero międzygwiezdną i to jeszcze nadświetlną. Ewentualny regres społeczeństwa międzygwiezdnego do maltuzjanizmu oznaczałby także regres do poziomu gospodarczego i technologicznego w najlepszym razie XVIII wiecznego i w konsekwencji utratę możliwości podróży w kosmosie, a nawet zapewne radia.

Dylemat, jak już wspomniano, niesłychanie trudny, ale w historii literatury SF został on jednak pomyślnie rozwiązany przynajmniej raz. I to jeszcze jak!

Takie wiarygodnie opisane imperium, równocześnie zarówno międzygwiezdne, jak i maltuzjańskie, feudalne, znajdziemy w powieściowej serii „Diuna” autorstwa Franka Herberta. Wtórna feudalizacja rozpoczęła się w świecie „Diuny” od wojen ze sztuczną inteligencją, zwanych „dżihadem butleriańskim”. W ich rezultacie używanie jakichkolwiek maszyn liczących zostało obłożone potężnym tabu i całkowicie zakazane. Konsekwentnie także większość wymagających odpowiedniej mocy obliczeniowej zaawansowanych technologii musiała upaść i zostać zapomniana. Wszystko to, co niegdyś robiły maszyny, znów muszą we Wszechświecie „Diuny” robić ludzie, nawet niektóre dawne funkcję komputerów spełniają odpowiednio, również na poziomie genetycznym, przygotowani osobnicy, zwani mentatami.

Co jednak z, niezbędnymi do utrzymania jedności imperium, podróżami kosmicznymi? Te również zostały przejęte przez specjalnie przekształconych w tym celu ludzi. Zamiast komputerów drogę przez hiperprzestrzeń znajdują w wieszczym narkotykowym transie Nawigatorzy tzw. Gildii Kosmicznej. I tylko oni. I nawet Nawigatorzy znajdują tylko już istniejące drogi, nie wytyczając żadnych nowych. Ponieważ jednak, nawet taka wtórnie maltuzjańska cywilizacja, nie jest w stanie bazować wyłącznie na rzemiośle i w ogóle obyć się bez wyrobów przemysłowych, zachowano dwa światy z przemysłem, ale i one produkują wyłącznie ustalone raz na zawsze wzory i modele swoich wyrobów i nie wprowadzają do nich jakichkolwiek innowacji. Zasadnicza większość ludności to tak zwani pyoni, przywiązani prawnie do swoich planet, wypisz wymaluj, jak dawni maltuzjańscy chłopi do ziemi. Typowo dla maltuzjanizmu, obok nieprzeliczonych rzesz z trudem wiążącej koniec z końcem biedoty, istnieją też Wysokie Rody – warstwa niesłychanie bogatej arystokracji – właścicieli feudalnych lenn -planet, reprezentowana przez zgromadzenie zwane Landsraadem.

Po aplikacji tych rozwiązań otrzymujemy stabilne, by nie rzec raczej skrajnie skostniałe i zmurszałe, imperium, które opiera się na trzech filarach. Monopolu Gildii na podróże kosmiczne, zrzeszonych w Landsraadzie Wysokich Rodów, oraz siły militarnej panującego w imperium rodu Corrinów. Wojskowa potęga Corrinów też jest specyficzna dla maltuzjanizmu, bo monopol Gildii wyklucza również jakiekolwiek walki w przestrzeni kosmicznej, a dodając do tego ograniczenia technologiczne, wojny toczą się wyłącznie na powierzchni planet i również przypominają wojny maltuzjańskie, z dominującą rolą starć wręcz włącznie. W konsekwencji główną siłą zbrojną, nie są kosmiczne floty, a oddziały desantowanych z kosmosu, zawsze po skrupulatnym uzyskaniu uprzednio na to zgody Gildii, piechurów. Wynik starcia jest determinowany nie przewagą technologiczną, ale liczebną, wyższością wyszkolenia, i determinacji. W rezultacie nie tylko rozwój, ale w ogóle jakakolwiek zmiana, nawet tak ekstensywna jak odkrywanie i kolonizacja nowych planet, jest całkowicie wykluczona. Imperium u swego, pokazanego w pierwszym tomie cyklu, schyłku, ma dokładnie taki sam kształt terytorialny, technologiczny i społeczny, jaki miało u swego zarania.

Imperium to, pozornie niewzruszone, w rzeczywistości jest bardzo kruche. Pod nieobecność, poza nielicznymi wyjątkami, jakichkolwiek zaawansowanych technologii, kluczowe znaczenie dla istnienia cywilizacji ma wydobywana na Arrakis, jednej, jedynej w całej zasiedlonym przez ludzi kosmosie, planecie, substancja zwana przyprawą lub melanżem. Przyprawa ma wiele niezwykłych właściwości, ale jedno jej zastosowanie jest, z punktu widzenia przetrwania imperium, absolutnie kluczowe. To tylko dzięki niej nawigatorzy Gildii mogą poruszać się w hiperprzestrzeni. A wskutek narzuconych sobie ograniczeń technologicznych, cywilizacja nie jest w stanie, ani produkować melanżu w sposób syntetyczny, ani stworzyć jakiegokolwiek jego, umożliwiającego podróże międzygwiezdne, zamiennika, ani nawet zdywersyfikować jego produkcję poza Arrakis. Nie dziwi więc, że jest przyprawa nie tylko najdroższą znaną substancją w ludzkim Wszechświecie, ale i swoistym zwornikiem, osią, wokół której wszystko, cała aktywność gospodarcza, polityczna i społeczna w imperium się obraca. Podstawowy cel istnienia imperium i nieustającą troskę rządzących nim sił i frakcji, można streścić jednym, będącym tytułem niniejszego eseju, zdaniem „Przyprawa musi płynąć”.

Fabułę pierwszej części cyklu Diuna buduje właśnie pojawiające się dla tego bezproblemowego przepływu zagrożenie. Sama groźba jego zablokowania wystarcza, aby nie tylko doprowadzić do upadku panującą od 10 tysięcy lat dynastię, ale i zawalić opisany „trójnóg” systemu politycznego imperium i scentralizować całą władzę w jednym politycznym ośrodku. Ośrodek ten, dynastia Atrydów, opiera się, inaczej niż poprzednicy, nie tylko na świetnie wyszkolonych legionach fanatycznych żołnierzy. Zdobywają też Atrydzi monopol na dostawy przyprawy, pierwsi z Wysokich Rodów odkryli oni bowiem, skąd w ogóle ona się na Arrakis bierze i tą wiedzę umiejętnie politycznie wykorzystali. Przedstawiciele nowej dynastii dysponują również, wynikłą z wielopokoleniowego planu kojarzeń genetycznych, zdolnością jasnowidzenia. Dzięki niej potrafią dostrzec kształt rzeczy przyszłych. Wynikające z dotychczasowej stabilności i skostnienia zagrożenia dla istnienia nie tylko imperium, jak i nawet dla samego gatunku ludzkiego. W swoich proroczych wizjach przyszłości wynajdują więc Atrydzi optymalną dla ludzkości „Złotą Ścieżkę” rozwoju. Ograniczenia technologiczne zostają na tyle poluzowane, że możliwe staje się zbudowanie maszyn umożliwiających nawigację nadświetlną bez udziału pasionych przyprawą nawigatorów, a także sztuczne zsyntetyzowanie samej przyprawy. Ludzkość, po tysiącleciach stagnacji, znów rusza w kosmos dokonując „Rozproszenia”.

Wizje Herberta, wprost powalające czytelnika swoją drobiazgowością, troską o detale i wiarygodnością, zarówno pod kątem ekologii, co jest sumie głównym, a przez niżej podpisanego w ogóle w tym eseju nie poruszanym, motywem przynajmniej pierwszych powieści z tego cyklu, technologicznym, jak i ekonomicznym i społecznym, zapewniły mu poczytność, sławę i miejsce w historii literatury SF analogiczne do tego, jakie w literaturze „fantasy” zajmuje JRR Tolkien. Podobnie też, jak u giganta z Oxfordu, czytelnik odnosi nieodparte wrażenie, że obcuje z historiami nie wymyślonymi, ale autentycznymi, które faktycznie gdzieś się kiedyś wydarzyły. Światami, które nie powstały w czyjejś wyobraźni, ale istniały, bądź może nadal istnieją, naprawdę, a ich formalni twórcy uzyskali tylko jakimś sposobem dostęp do wiedzy o nich i opublikowali ją pod własnymi nazwiskami.  Niestety, również podobnie jak w przypadku Tolkiena, do tej pory nie pojawił się w tej sferze nikt, który by tym gigantom choćby tylko dorównał, nie mówiąc już o ich przewyższeniu.

Istnieje natomiast pomiędzy obu tymi autorami jedna wielka różnica. Ekranizacja Tolkiena, dokonana w końcu po ponad pół wieku od publikacji jego pierwszej powieści, okazała się ogromnym sukcesem artystycznym i komercyjnym. „Diuna” zaś, jak na razie zaliczyła pod tym względem wyłącznie próby nieudane i ciągle jeszcze na swojego Jacksona oczekuje.