Na śliskim lodzie

Sekta klimatystów, bardzo wpływowe obecnie lobby polityczne i ekonomiczne, od wielu lat za pomocą niezwykle agresywnej i z rozmachem prowadzonej propagandy, usiłuje narzucić przekonanie, że ziemska cywilizacja, gatunek ludzki, a nawet same życie na Ziemi są śmiertelnie zagrożone. Bezpośrednią przyczyną tego zagrożenia ma być emisja dwutlenku węgla przez ludzką gospodarkę, głównie poprzez spalanie tzw. paliw kopalnych, węgla, ropy i gazu. Gaz ten prowadzić ma do gwałtownego narastania ziemskiego efektu cieplarnianego i, co za tym idzie, do lawinowego, nie do powstrzymania wzrostu ziemskiej temperatury, aż do upieczenia całej biosfery włącznie. Klimatyści rozdzierają szaty nad dzisiejszym, sięgającym obecnie 420 ppm, czyli cząsteczek na milion, stężeniem CO2 w ziemskiej atmosferze, twierdząc że, jeszcze za życia obecnego pokolenia, spowoduje ona zamianę Ziemi w replikę Wenus. Rozpaloną do czerwoności pustynię, bez śladu wody i wegetacji.

Takiego, jak obecny, poziomu dwutlenku węgla, wg twierdzeń klimatystów, nie było na Ziemi od milionów lat, a jeszcze dwa stulecia temu, poziom ten nie przekraczał nawet 300 ppm i do takiego poziomu należy wszelkimi dostępnymi środkami z powrotem zawartość CO2 w atmosferze zredukować. Żadna zapłacona cena i żadna poniesiona ofiara nie będzie zbyt wysoka. Pokonanie węglowego potwora jest kwestią eschatologiczną i po prostu nie ma żadnej wymiernej ceny.

Trzeba w tym miejscu klimatystom przyznać, że tych przeszłych, sprzed połowy XX wieku stężeń dwutlenku węgla, nie wyssali sobie po prostu z palca. Pochodzą one z badań pęcherzyków powietrza uwięzionych w antarktycznych i grenlandzkich lądolodach, z których pobiera się odpowiednie próbki, tzw. rdzenie lodowe. Badając takie pęcherzyki można teoretycznie odtworzyć przeszły skład atmosfery, w tym także zawartość w niej dwutlenku węgla

Na poniższym wykresie przedstawiono dane o stężeniu CO2 z jednego z takich rdzeni. Przedstawiają one okres od 1000 do 2004 roku. Wybrano losowo akurat tą serię danych:

 https://www1.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/frank2010/smoothedco2.txt

ale dowolna inna wyglądałaby praktycznie tak samo.

Lód 01

Wykres ten ma jednak co najmniej dwie, bardzo, w świetle doktryn klimatystów, dziwne, anomalie. Po pierwsze w stuleciach XI-XVIII mierzony w ten sposób poziom stężenia CO2 nie zmieniał się praktycznie wcale, pozostając niezmiennie na poziomie 280 ppm. Tymczasem z bardzo dobrze poświadczonych danych historycznych wiadomo, że ówczesny klimat bynajmniej podobnej stałości nie wykazywał. W Średniowieczu mieliśmy do czynienia z okresem cieplejszym, tzw. średniowiecznym optimum klimatycznym. W wielu miejscach północnej Europy, w tym w Polsce, uprawiano wtedy winorośl, co powtórnie stało się możliwe dopiero w XX wieku. Normanowie zasiedlili Grenlandię, gdzie hodowali kozy, owce, krowy i konie, a nawet okresowo świnie. Hodowlę owiec odtworzono na Grenlandii dopiero w XXI wieku, ale jest ona możliwa tylko przy wysokich rządowych dotacjach, których średniowiecznym Grenlandczykom przecież nikt nie wypłacał. Krów, koni i świń nie hoduje się na Grenlandii do dzisiaj.

Podobnie jak średniowiecznego optimum, nie widać też na wykresie małej epoki lodowej w stuleciach XVI-XVIII, kiedy to klimat był dla odmiany znacznie mroźniejszy, a rzeki takie jak Ren, czy Tamiza zamarzały zimą regularnie.

Problem ten staje się jeszcze bardziej wyraźny, kiedy spojrzymy na dane z okresu epok lodowcowych. W czasach, kiedy większość Europy i Ameryki północnej pokrywał gruby na kilometry lądolód, w rdzeniach, owszem, obserwujemy niższe stężenia CO2, ale …niewiele niższe. W najbardziej ekstremalnych przypadkach, stężenie CO2 spadało ledwo nieco poniżej 200 ppm. To zresztą kolejna zagadka, bo tak niskiego stężenia nie tolerują rośliny stosujące fotosyntezę typu C3, stanowiące zdecydowaną większość współczesnej flory i spadek poniżej tej wartości powinien pociągnąć za sobą ich masowe wymieranie, a przynajmniej jakieś zauważalne perturbacje w ich rozkładzie gatunkowym i biomasie na całym świecie. Nic podobnego nie miało jednak miejsca.

Zgodnie z dogmatem religii klimatycznej za wszelkie zmiany temperatury na Ziemi odpowiadają praktycznie wyłącznie zmiany stężenia CO2, a wszystkie inne czynniki mają niewielkie znaczenie. Aby zatem rozwiązać te paradoksy, klimatyści muszą przyjąć, że czułość klimatu na zmiany w stężeniu CO2 jest tak gigantyczna, że różnicę pomiędzy glacjałem i interglacjałem robi zaledwie 50 ppm różnicy w stężeniu CO2. Niestety dla nich, różnica między stężeniem obecnym, a stężeniem XVIII wiecznym jest dużo większa i wynosi ponad 150 ppm. Mimo to klimat, choć oczywiście dzisiaj nieco cieplejszy, aż tak drastycznie się nie zmienił. Tutaj jedynym wyjściem dla klimatystów jest po prostu …zanegowanie samego istnienia zarówno optimum średniowiecznego, jak i małej epoki lodowej, co zresztą oficjalnie uczynili. Jakiekolwiek zjawisko stojące w sprzeczności z deifikowanymi rdzeniami, w sekcie oficjalnie nie istnieje, a wszelkie dowody na jego istnienie zostały spreparowane i podrzucone przez „denialistów”, jak zwie się tam współczesnych heretyków.

Wygląda więc na to, że globalne temperatury były niezwykle czułe na niewielkie nawet zmiany stężenia CO2 do końca Plejstocenu, natomiast obecnie, w Holocenie, czułość ta drastycznie się obniżyła. Wzajemna sprzeczność tych dwóch narracji jakoś do tej pory klimatystom nie przeszkadza, ale można oczekiwać, że tak samo jak unieważnili oni zmiany klimatu w skali historycznej, tak samo zechcą to zrobić w skali geologicznej i oficjalnie zanegują istnienie zlodowaceń plejstoceńskich. Dowody na istnienie plejstoceńskich zlodowaceń również zapewne okażą się sfałszowane.

Żarty żartami, ale przecież nie da się inaczej, pozostając na gruncie klimatyzmu, wytłumaczyć, dlaczego wg danych z rdzeni lodowych, w Eemianie, przedostatnim, przed naszym obecnym Holocenem, interglacjale, stężenie CO2 było znacznie, o 1/3 od dzisiejszego niższe, a temperatury przeciwnie, o półtora stopnia wyższe. Uznając zatem miarodajność danych o stężeniach CO2 z rdzeni lodowych, a jednocześnie tezę o decydującej roli CO2 w ziemskich zmianach klimatycznych nieuchronnie wikłamy się w sprzeczności. Przynajmniej jedno z tych założeń należy zatem odrzucić.

Niżej podpisany jest przekonany, że odrzucić należy oba te założenia. Jak wynika z, opisanej w artykule „Czerń niedoskonała”, analizy rozkładu temperatur w Układzie Słonecznym, zwłaszcza Wenus i Marsa, gdzie CO2, inaczej niż na Ziemi, jest jedynym gazem cieplarnianym, jego wpływ na efekt cieplarniany jest w istocie niewielki. W przypadku Ziemi, wręcz pomijalny.

Nie zmienia to faktu, że stężenie CO2, chociaż nie przekłada się w mierzalny sposób na zmiany temperatury, może oscylować w atmosferze z dość dużą amplitudą. Bezpośrednie pomiary tego stężenia prowadzone przez chemików od XIX wieku, dają bardzo duży rozrzut wyników od 250 do 550 ppm w tym okresie (ok 200 lat) Tylko od 1960 roku, to stężenie wzrosło z 320 do prawie 420 ppm obecnie.  Zawartość CO2 w atmosferze Ziemi jest więc wartością bardzo niestabilną. Nie należy się temu dziwić, skoro np. zawartość pary wodnej może się zmieniać jeszcze szybciej i w jeszcze większym zakresie wartości.  Z chwiejnym i zmiennym faktycznym stężeniem CO2 w atmosferze, kontrastuje stabilne i niezmienne w skali setek, tysięcy i dziesiątek tysięcy lat, stężenie w rdzeniach. Wyraźnie więc widać, że coś z tymi rdzeniami jest nie tak. Ten lód jest bardzo śliski.

Na naszym wykresie krzywa stężenia zaczyna się ostro piąć do góry w połowie XVIII wieku. Bardziej subtelna analiza pokazuje, że wzrost ten jest, w bardzo dobrym przybliżeniu, wykładniczy. Nadwyżka ponad poziom „preindustrialny” stężenia CO2 w rdzeniach lodowych, od tego momentu podwaja się mniej więcej co 43 lata. Dlaczego jednak w ogóle ten wzrost jest tak dokładnie wykładniczy? Gdyby jego przyczyną były ludzkie emisje CO2, taka precyzja nie miałaby żadnego wytłumaczenia. I po drugie, dlaczego wzrost zaczyna się w okolicach 1750 roku? Owszem, wtedy właśnie rozpoczęła się rewolucja przemysłowa i zaczęto na większą skalę budować napędzane węglem maszyny parowe. Jednak przez pierwsze sto lat, ta industrializacja dotyczyła w zasadzie tylko Wielkiej Brytanii i dopiero w drugiej połowie XIX wieku stała się zjawiskiem globalnym. Jakikolwiek wpływ ówczesnych emisji CO2 na skład ziemskiej atmosfery, nie powinien być widoczny w zasadzie przed rokiem 1850. Dlaczego dopasowanie to, pokazane na kolejnym wykresie, jest tak dokładne i dlaczego wzrost zaczyna się w połowie XVIII wieku?

Lód 02

Aby spróbować odpowiedzieć na te pytania, zapomnijmy na chwilę o dwutlenku węgla, klimacie i klimatystach. Spójrzmy za to na …rower.

Jednym z elementów tego popularnego jednośladu są opony. Zwykle napisano na nich, do jakiego ciśnienia należy je pompować. W przypadku roweru należącego do niżej podpisanego jest to przedział od 2 do 4,5 atmosfery, w zależności od warunków terenowych jazdy. Jednak, do jakiegokolwiek ciśnienia by opony nie napompować, i tak, w ciągu 1-2 dni ciśnienie nieodmiennie spada do stałej wartości 2,5 atmosfery i potem utrzymuje się na tym poziomie tygodniami i miesiącami. Przyczyna tego stanu rzeczy jest ulatnianie się sprężonego powietrza przez drobne nieszczelności w wentylu. Ustaje ono, gdy ciśnienie spadnie do pewnej określonej wysokości, właśnie 2,5 atmosfery. Zbudujmy teraz model matematyczny takiej opony rowerowej, zakładając, że tempo ubytku ciśnienia jest wprost, liniowo proporcjonalne do aktualnej wartości tego ciśnienia.

dP/dt = -r*t*(P-Ps)

gdzie P to ciśnienie, a Ps, ciśnienie, przy którym następuje stabilizacja.

Rozwiązaniem tego równania, jest, co za niespodzianka, właśnie krzywa wykładnicza:

P = Ps+(P0-Ps)*e(-r*t)

Gdzie P0 jest ciśnieniem początkowym.

Widać pewną analogię? Jeżeli krzywą widoczną na wykresie 2 odwrócimy „wstecz” w czasie, otrzymamy właśnie dokładnie takie „rowerowe” równanie jak powyższe, dla którego Ps = 280 ppm, a r wynosi 1,6%.

Interpretacja fizyczna równania jest bardzo prosta. Dane z rdzeni lodowych mogłyby być traktowane jako miarodajne, wyłącznie przy założeniu, że skład chemiczny substancji zamkniętych w lodzie nie ulega wraz z upływem czasu żadnym zmianom. O ile to założenie może być spełnione w przypadku cząstek stałych, np. pyłów, o tyle niekoniecznie w przypadku gazów, a szczególnie, jak widać, dwutlenku węgla.

Przyjęcie możliwości istnienia jakiegoś procesu, który powoduje ulatnianie się z pęcherzyków w lodzie nadmiaru CO2 ponad graniczną wielkość 280 ppm od razu usuwa nam wszystkie sprzeczności miedzy poziomem CO2 rejestrowanym w rdzeniach, a wszelkimi innymi danymi, od gęstości aparatów szparkowych w liściach dawnych roślin, które sugerują znacznie wyższe stężenia dwutlenku węgla w „epoce przedprzemysłowej” poczynając, poprzez zagadkę Eemianu, optimum klimatycznego i małej epoki lodowej, na tajemnicy braku zagłady flory C3 w plejstocenie kończąc.

Kłopot w tym, że nie wiadomo, jaki to konkretnie proces taki efekt spadku stężeń powoduje. Może mieć on charakter fizyczny, związany z jakimś mechanizmem dyfuzji cząsteczek gazu przez lód, może chemiczny, może być nawet biologiczny, co sugerowałaby docelowa graniczna wartość stężenie na poziomie 280 ppm, przy której ten proces zamiera.

Jakiś jednak proces tego rodzaju z wysokim prawdopodobieństwem zachodzi. O ile niżej podpisanemu wiadomo, nie istnieje obecnie żaden program badawczy, który by takiego zjawiska poszukiwał. Jest to jednak potencjalnie bardzo obiecujący kierunek badań, który, w przypadku zakończenia go sukcesem, przyniósłby odkrywcy wiekopomną sławę, może nawet uwieńczoną nagrodą Nobla, pozwalając automatycznie obalić wszelkie pretensje klimatystów do „naukowości” swoich wierzeń, pretensje, które nadal jeszcze bywają gdzieniegdzie traktowane poważnie.

Reklamy

PIS i antyPIS

Przeprowadzone 26 maja wybory do parlamentu europejskiego przebiegły w sposób bardzo nietypowy i wręcz zaskakujący.  Przy bardzo wysokiej, znacznie wyższej niż we wszystkich poprzednich eurowyborach, frekwencji, zdecydowane zwycięstwo odniosło rządzące ugrupowanie PIS, bez żadnych wątpliwości najbardziej nieudolna i skorumpowana władza w Polsce od czasów Gierka. Pisowski program powrotu do  PRL, realizowany nawet w tak drobnych szczegółach jak zakaz robienia zakupów w niedzielę i likwidacja gimnazjów, okazał się atrakcyjny dla bardzo dużego segmentu elektoratu.

Kolejnym zaskoczeniem jest fakt, że choć sondaże przedwyborcze przewidywały sukces PIS, to jednak nie aż tak miażdżący. Duże rozczarowanie przeżyli zaś wyborcy Konfederacji, których reprezentacja, inaczej niż w roku 2014, nie zdołała przekroczyć progu wyborczego, chociaż sondaże wskazywały, że tak się stanie.

Na poniższym wykresie pokazano kolejno – średnią z sondaży przeprowadzonych w maju, wraz z odchyleniem standardowym w postaci czarnego słupka, sondaże exit poll kończące się na kilka godzin przed zakończeniem głosowania, sondaże late poll, oraz faktyczny wynik wyborów.

ANTYPIS 01

Z wykresu możemy odczytać, że chociaż faktyczny wynik większości startujących partii różnił się od średniej z sondaży nie więcej niż 1,5 odchylenia standardowego, w przypadku KE na plus, u innych ugrupowań na minus, to zupełnie inaczej było w przypadku PIS. Tu odchyłka ta wyniosła aż 3,25 odchylenia standardowego, co zgodnie z regułami statystyki oznacza, że nie mogła być przypadkowa.

Oskarżenia jednak pod adresem PIS, że po prostu dosypał on sobie głosów, byłyby przedwczesne. Przeczą im wyniki sondaży przeprowadzanych już w trakcie głosowania. Exit poll, a zwłaszcza late poll, które ten wzrost poparcia dla PIS wychwyciły. Wygląda więc na to, że PIS dosypał sobie nie głosów, lecz wyborców.

Aby wyjaśnić tę anomalię, zbadajmy wpierw elektoraty poszczególnych partii. Korzystając z danych podanych przez PKW na poziomie gmin, obliczymy zatem korelacje pomiędzy wynikami wyborów, a kolejno: frekwencją, odsetkiem głosów nieważnych, odsetkiem głosujących na podstawie zaświadczeń z miejsca zameldowania, oraz wielkością danej gminy wyrażoną w liczbie uprawnionych do głosowania. Wyniki zgromadzono na wykresie. Pokazano tylko korelacje znaczące statystycznie, tzn. takie, których prawdopodobieństwo przypadkowego wystąpienia wynosi mniej niż 1%

ANTYPIS 02

Najłatwiejsza do interpretacji jest zależność od wielkości. Im większa gmina, tym niższe było w niej poparcie dla PIS, a wyższe dla KE i WIOSNY Biedronia. W tej wielkomiejskiej grupie mieści się też, choć z nieco słabszą zależnością, elektorat Konfederacji.

Dalej mamy korelacje z odsetkiem głosujących na podstawie zaświadczeń. Zważywszy na fakt, że najwyższy odsetek wyborców, którzy sobie taki trud zadali, (ponad 20% wszystkich) przypadł na wypoczynkowe miejscowości nadmorskie, nie ulega wątpliwości że mamy do czynienia z ludźmi stosunkowo zamożnymi, dla których weekendowy wypad do hotelu nad morze nie stanowi zauważalnego wysiłku finansowego. Są to zwolennicy KE i Wiosny, natomiast elektorat PIS, Kukiza i w niewielkim już stopniu, Konfederacji należy zdecydowanie do tych mniej zasobnych.

Najbardziej wstydliwą sprawą są głosy nieważne. Były wybory, gdzie wskutek skomplikowanej procedury głosowania, jak słynne „książeczki” w niegdysiejszych wyborach samorządowych, odsetek nie potrafiących prawidłowo oddać głosu, przekraczał nawet 10%. W majowych eurowyborach głosowanie było bardzo proste – jedna kartka, wymagająca postawienia jednego krzyżyka, ale i tak znaleźli się tacy, dla których to było zbyt wielkim wyzwaniem intelektualnym i ponad 100 tysięcy głosów okazało się nieważnych. Korelacja z odsetkiem nieważnych głosów jest więc wskaźnikiem średniej inteligencji elektoratu. Ujemna korelacja oznacza wyższą inteligencję, korelacja dodatnia – niższą. Zwolenników o inteligencji, a co za tym idzie, zapewne i wykształceniu, wyższym od średniej, mają KE, WIOSNA i Konfederacja, natomiast wyborcy PIS zdecydowanie pomyślunkiem nie grzeszą.

Wyborcy Konfederacji zaś mają najwyższą dodatnią korelację z frekwencją. Może to zaskakiwać, bo powszechnie znana mądrość ludowa  głosi, że wszelkie inicjatywy polityczne z udziałem Janusza Korwina Mikke zyskują tym więcej głosów im niższa jest frekwencja. Że na JKM głosują głównie jacyś jego fanatyczni wyznawcy zwani przez nieżyczliwych „kucami”. Jeżeli jednak nawet kiedyś tak było, to przynajmniej od wyborów parlamentarnych w 2015 roku, w których po raz pierwszy wystąpił efekt odwrotny, już tak nie jest. Owe na wpół mityczne „kuce”, kierują się, jak widać, nie fanatyzmem i oddaniem osobie JKM, ale raczej fascynacją samym procesem politycznym i swoim w nim udziałem. Podobne cechy mają jeszcze, choć oczywiście wyrażają je w diametralnie odrębny sposób, wyborcy Biedronia. Sekciarstwo i kult lidera widoczne jest wyraźnie jedynie w lewicowej RAZEM.

Z opisanych korelacji możemy zatem zrekonstruować grupy społeczne głosujące na poszczególne partie. W przypadku Konfederacji, są to interesujący się polityką mieszkańcy miast, inteligentni, czyli, jak można domniemywać, także wykształceni, ale niezbyt zamożni. Pozorną sprzeczność między tymi dwiema ostatnimi cechami można łatwo wyjaśnić, zauważając, że to ludzie bardzo młodzi, którzy się jeszcze pozycji i majątku nie dorobili. W miarę zaś bogacenia się, przechodzą oni do grup społecznych, które głosują na partie takie jak PO, Nowoczesna, czy Wiosna.

Zupełnie kto inny głosuje na PIS. To osoby co prawda też biedne, ale i niezbyt bystre, mieszkające na wsi. Z innych, wykonanych już nie przez niżej podpisanego, badań, wiadomo też, że są oni starsi, czyli tacy których młodość i wiek dojrzały przypadły na czasy PRL i dlatego wspominają je z sentymentem oczekując od swoich wybrańców ich przywrócenia.

Elektorat KE i Wiosny jest praktycznie tożsamy, różniący się od Konfederacji tylko większym poziomem zamożności.

Kolejnym krokiem w naszym badaniu będzie zbadanie korelacji w wynikach wyborów między poszczególnymi partiami. Korelacja dodatnia pokazuje, że istnieje jakaś zauważalna grupa wyborców, która wahała się na którą ze skorelowanych w ten sposób partii oddać swój głos. Oznacza to też zatem potencjalną możliwość przepływu poparcia pomiędzy tymi partiami. Korelacja ujemna przeciwnie, oznacza całkowitą rozłączność elektoratów i brak jakichkolwiek potencjalnych przepływów między nimi.

Istotne statystycznie korelacje przedstawiono w poniższej tabeli

  KE RAZEM PIS WIOSNA KONFEDER. KUKIZ
KE X 38,5% -98,1% 77,7% 11,2%
RAZEM 38,5% X -45,4% 49,4% 14,3% 14,0%
PIS -98,1% -45,4% X -84,8% -21,3% -16,2%
WIOSNA 77,7% 49,4% -84,8% X 18,4% 9,4%
KONFED. 11,2% 14,3% -21,3% 18,4% X 7,2%
KUKIZ 14,0% -16,2% 9,4% 7,2% X

Wynik jest jednoznaczny. PIS ma ujemną korelację dokładnie ze …wszystkimi innymi partiami. Najsilniejszą, sięgającą prawie minus 100% oczywiście z KE, ale z pozostałymi też znaczącą statystycznie. Natomiast wszystkie pozostałe partie mają dodatnie korelacje między sobą (jedynym wyjątkiem jest kombinacja KE/KUKIZ, też co prawda dodatnia, ale nieistotna statystycznie), co oznacza że mogą wymieniać się elektoratem.

Potwierdza się więc ostatecznie dokonany podział Polski na PIS i antyPIS, czy, jak to PIS oficjalnie głosi, na obóz patriotyczny/niepodległościowy, czyli PIS właśnie i zdrajców – wszystkich pozostałych. Do tej drugiej kategorii antypisowskich zdrajców, należy też Konfederacja, czy ściśle rzecz biorąc, jej zwolennicy z eurowyborów, przez PIS wprost ochrzczeni ruskimi agentami, tak jak wyborców KE mianowano z kolei agenturą niemiecką, zaś wyborcy WIOSNY to dla PIS „dewianci”. Wszelkie próby budowania jakiejś „trzeciej siły”, są w tych warunkach kompletnie bezsensowne, bo, jak widać, nie ma żadnych zauważalnych grup elektoratu gotowych taki projekt poprzeć.

Elektorat PIS zatem, jest nie tylko wiejski, mało inteligentny i biedny. Jest on także wyraźnie wyodrębniony z reszty polskiej populacji i w PIS mają tego pełną świadomość, bo też i tak właśnie swój elektorat PIS zawsze urabiał. Dlatego też propaganda PIS, zwłaszcza telewizyjna, wygląda dla polskiego widza tak absurdalnie. Nie on jest przecież jej adresatem. Dlatego też wszelkie dotychczasowe próby odebrania PIS elektoratu, w tych wyborach podjęte, z dwóch różnych stron, przez WIOSNĘ i Konfederację, zakończyły się porażkami. Wyborcy PIS nie uwierzyli że Biedroń, czy JKM są lepszymi Kaczyńskimi niż sam Kaczyński. I raczej, wobec panującej tam mentalności sekty, nie uwierzą w żadne kolejne takie próby.

Skąd się jednak wzięli ci dosypani przez PIS w ostatniej chwili wyborcy? Wszak wyznawcy tej partii, jak wynika z powyższej analizy, to osoby niewykształcone, ze wsi, starsze i sfanatyzowane. Jako tacy głosują głównie rano. Głosowanie wieczorne to domena niezdecydowanych wyborców z miast, zasadniczo, jak widzimy, antypisowskich. Tymczasem owi dodatkowi zwolennicy neoPRL, jak wynika z różnicy pomiędzy late poll, a exit poll, przyszli głosować tuż przed zamknięciem lokali wyborczych. Jak to się stało?

Ostatnią badaną przez nas cechą będzie rozkład głosów oddanych na poszczególne partie w rozbiciu na gminy. Dwa ostatnie wykresy, zwane histogramami, pokazują jaki odsetek głosów dostały poszczególne komitety w jakim odsetku gmin. Dla PIS i KE:

ANTYPIS 03

Oraz dla mniejszych partii:

ANTYPIS 04

Dla partii antyPISu, od RAZEM do KE, rozkłady te są prawoskośne, czyli mediana jest niższa od średniej. Istnieje pewne maksimum, czyli najczęściej spotykany w gminach poziom poparcia dla danego komitetu, ale są też gminy, gdzie to poparcie jest wyraźnie wyższe od średniej.  Wyjątkiem jest znów PIS. Tutaj rozkład jest lewoskośny i mediana jest od średniej wyższa. W pewnym uproszczeniu oznacza to, że w gminach, w których PIS miał i tak wysokie poparcie, nastąpił jeszcze dodatkowy tego poparcia wzrost. Wzrost ów nastąpił właśnie w ostatnich godzinach przed zamknięciem lokali.

Można więc w ogólnych zarysach odtworzyć już ten mechanizm. Wyborcy PIS, jak już wiemy bardzo zdeterminowani i fanatycznie oddani swojej Partii, nie poprzestali na oddaniu głosów, ale też czynnie, osobiście, lub telefonicznie, wywarli presję na swoich krewnych, znajomych i sąsiadów, aby i oni poszli na wybory i zagłosowali. Względnie w gminach „pisowskich” funkcjonowali partyjni komisarze, którzy pod koniec głosowania mieli za zadanie obdzwonić mieszkańców i popędzić do urn tych, którzy jeszcze sami tam nie poszli.

Czy zatem pisowski elektorat został zmobilizowany przez aparat partyjny, czy też samorzutnie, grunt, że został zmobilizowany w 110%. Natomiast elektorat antypisowski zmobilizował się w znacznie mniejszym stopniu, jeżeli w ogóle.

Tworząc ze swoich zwolenników gigantyczną sektę, izolując ich i konfliktując z resztą mieszkańców Polski, PIS jednocześnie jednak zablokował sobie możliwość pozyskiwania jakichkolwiek wyborców spoza tego grona. Nawet obecny elektorat KUKIZA i Konfederacji, wbrew temu co mogłoby się wydawać, należy do antyPISu. Jednocześnie osiągając niespodziewanie wysokie zwycięstwo w wyborach, które uchodziły za trudne dla niego, PIS jednocześnie przestraszył antyPIS i uśpił swoich własnych zwolenników, którzy na wybory parlamentarne mogą się już aż tak licznie nie stawić. Wynik wyborów jesiennych wciąż jest więc kwestią otwartą. Dla partii antyPIS najważniejszą kwestią jest zaś, jest przekonanie wyborców, że to właśnie to konkretne ugrupowanie, ma największą szansę na zwycięstwo nad PIS.  Oznacza to marginalizację Wiosny i całkowitą likwidację RAZEM. I KUKIZa. Także w przypadku Konfederacji. próba przekonania wyborców PIS, że się jest jeszcze lepszym PIS niż PIS oryginalny, nie tylko całkowicie zawiodła, ale też uczyniła Konfederację formacją podejrzaną dla wyborców antypisowskich.  Odkręcenie tego wrażenia i zaprezentowanie się jako wiarygodny antyPIS, a tylko to pozwala żywić nadzieję na przyzwoity wynik, może być bardzo trudne, o ile w ogóle niemożliwe.

Koła historii

Wiek trzeci był brązowy, dziki, niespokojny,
A choć wolny od zbrodni, już skory do wojny.
Ostatni jest wiek czwarty, z twardego żelaza.
Z nim wszelkiej zbrodni na świat wyległa zaraza.
Owidiusz

Linearne postrzeganie czasu jest charakterystyczne dla cywilizacji chrześcijańskiej. Świat według Chrześcijaństwa, miał swój początek, rozwija się w określonym porządku i będzie miał swój koniec. Takie przekonanie i wynikający z niego pogląd, że wprowadzanie w społeczeństwie zmian, w tym oczywiście zmian na lepsze, jest możliwe, ułatwiło Chrześcijaństwu nie tylko najszybszy rozwój ze wszystkich mu współczesnych i dawniejszych kultur, ale też przebicie swoistego „szklanego sufitu” cywilizacyjnego i wejście w fazę rewolucji przemysłowej.  Jednak takie linearne podejście do czasu jest raczej wyjątkiem niż regułą. Większość społeczeństw, jakie przewinęły się w dziejach ludzkości, widziało historię inaczej. Albo jako wiecznie obracające się koło, w którym wydarzenia powtarzały się cyklicznie, albo wręcz jako proces regresu i rozpadu postępujący od jakiegoś mitycznego „złotego wieku”, jak to opisał zacytowany w motcie Owidiusz.

Pomimo wielkiego sukcesu wizji linearnej, to jednak właśnie cykliczność czasu wydaje się lepiej dopasowana do rzeczywistej historii ludzkiej cywilizacji. „Wiek brązowy” Owidiusza istniał przecież naprawdę i naprawdę zakończył się katastrofą i upadkiem tej „brązowej” cywilizacji. Pisząc swoje „Metamorfozy”, nie przewidywał jednak Owidiusz, że również „wiek żelazny”, w którym żył, czeka wkrótce identyczny los. Że Imperium Romanum, które swoim współczesnym wydawało się niewzruszone, również rozsypie się w gruzy.

W tym miejscu wypadałoby zdefiniować czym jest ów regres cywilizacyjny i odróżnić go od kryzysu tylko politycznego. Ten pierwszy to właśnie upadek Rzymu. Nie był to tylko rozpad polityczny, choćby i wielkiego i potężnego, ale jednak jednego tylko kraju. Radykalnie zmniejszyła się wtedy także zarówno produkcja – PKB, jak i liczba ludności. Wiele technologii uległo zapomnieniu, spora część zgromadzonej w bibliotekach wiedzy – przepadła. Społeczności uformowane na gruzach Rzymu były, w porównaniu do niego, zdecydowanie biedniejsze i bardziej prymitywne. Liczyły mniej mieszkańców, mniej produkowały, zużywały mniej energii i miały znacznie od Rzymian węższe horyzonty handlowe i społeczne. Kres cywilizacji antycznej, „żelaznej”, jest zresztą opisany i przeanalizowany dogłębnie i wnioski te są powszechnie znane.  Jednak, przed czwartym wiekiem żelaznym, istniał wiek trzeci, brązowy. Koniec cywilizacji epoki brązu, przypadający na XII/XI wiek p.n.e. miał zadziwiająco podobny do rzymskiego przebieg, z głębokim regresem ekonomicznym, demograficznym i cywilizacyjnym włącznie. Następne pokolenia jedynie mgliście kojarzyły jakiś mityczny „złoty wiek”, wspomnienia o zaginionej Atlantydzie i inne podobne legendy.

Cofając się jeszcze dalej w przeszłość napotykamy na trudność w postaci malejącej liczby źródeł. Wystarczająco dokładne obliczenie PKB, czy gęstości zaludnienia nie jest już możliwe, trzeba sięgać do danych pośrednich. Jest jednak bardzo prawdopodobne że poprzedni upadek cywilizacji nastąpił gdzieś około stuleci  XXII – XXIII pne, co w wymiarze historycznym zbiegło się z upadkiem Akadu w Mezopotamii i zwłaszcza Starego Państwa w Egipcie. Ten ostatni, zwany w historii „Pierwszym Okresem Przejściowym” jest szczególnie symptomatyczny, bo nastąpił całkowicie samorzutnie, endogennie, bez jakiegokolwiek zbrojnego nacisku z zewnątrz, którym usiłowano tłumaczyć zarówno (najazdy barbarzyńców) upadek Rzymu, jak i (najazdy Ludów Morza) cywilizacji epoki brązu.

Wyznaczenie początku, najniższego punktu, jeszcze wcześniejszego cyklu jest już bardzo wątpliwe, przypadałby on na XXXII wiek pne i upadek Uruku, pierwszej znanej miejskiej cywilizacji. Na szczęście tym razem bez trudu możemy wyznaczyć punkt maksymalny tego cyklu. Jest on do dziś obowiązkowym punktem każdej wizyty w Egipcie. Piramidy w Gizie z XXVI wieku pne są nadal imponującymi, dosłownie i w przenośni szczytowymi, osiągnięciami swojej cywilizacji.

Poruszając się w drugą stronę strumienia czasu, możemy zauważyć, że kres wieku żelaza, cywilizacji antycznej, grecko- rzymskiej, wyznaczył początek nowej cywilizacji, chrześcijańskiej. Również ona osiągnęła w pewnym momencie swoje maksimum. Różniła się ona od wszystkich swoich poprzedniczek tym, że po nim nie upadła, ale przeszła swoiste przejście fazowe stając się globalną cywilizacją industrialną.

Opisana wyżej cykliczność nie dotyczy tylko cywilizacji Zachodu. Podobne regularne wzloty i upadki spotykały również cywilizację Wschodu – chińską. Ostatni swój szczyt osiągnęła w XVIII wieku, ale nie udało jej się przekroczyć progu rewolucji przemysłowej i upadła niemal na naszych oczach, bo już w wieku XX. I dopiero od drugiej połowy tego stulecia, już jako gospodarka industrialna, znów się odradza.

Wszystkie dające się historycznie wyodrębnić cykle cywilizacyjne, maksima i minima, zarówno Zachodu jak i Wschodu przedstawiono na poniższym wykresie:

Koła 01

Zastanawia zarówno regularność jak i synchronizacja tych cykli. Zarówno Chiny, jak i Zachód osiągnęły swoje lokalne minima w XII/XI wieku pne, oba też osiągnęły lokalne maksima na przełomie er, chociaż kontakt miedzy nimi był w owym czasie zupełnie iluzoryczny i na pewno na siebie nawzajem one wtedy nie wpływały.

Ta względna regularność i synchronizacja skłoniła niektórych badaczy do poszukiwania przyczyn wzlotu i upadku cywilizacji w zjawiskach przyrodniczych, globalnych ochłodzeniach, czy ociepleniach klimatu, czy wręcz fenomenach kosmicznych. Dopóty rozpatrujemy tylko te dwie wielkie cywilizacje, nie mamy żadnego powodu, aby podać tą tezę w wątpliwość.

Historia świata nie składa się jednak wyłącznie z dziejów Zachodu i Chin. Istniały i inne, mniejsze cywilizacje. Rozpatrzymy tutaj kolejne dwie, zupełnie różne od siebie. Majów z prekolumbijskiej Ameryki i Japończyków, którzy, choć pozostawali pod wpływem Chin, to jednak, przez długie okresy, kontakty między tymi nacjami, mimo geograficznej bliskości, były bardzo słabe.

Koła 02

Japonia miała swoje minima w XIII i XIX wieku, a Majowie w stuleciach III, X i XVII. Jak widać w tych przypadkach maksima i minima nie pokrywają się z zachodnimi i chińskimi, a sama długość cykli jest zauważalnie krótsza. To ostatnie zjawisko stanie się jeszcze wyraźniejsze, kiedy rozpatrzymy cywilizacje liczone nie w milionach, ale w tysiącach mieszkańców. Wbrew powierzchownemu mniemaniu, można znaleźć i takie.

Z reguły mieszczą się one na oceanicznych wyspach, mających bardzo utrudnione kontakty z innymi społecznościami, nawet z innymi wyspami. Taka izolowana wyspiarska społeczność wykształca wtedy specyficzną dla siebie, łatwo odróżnialną od macierzystej dla pierwszych kolonizatorów, kulturę i staje się tym samym odrębną, choć miniaturową cywilizacją.

Na następnym wykresie pokazano takie trzy. Grenlandię, Wyspę Wielkanocną (Rapa Nui) oraz, mniej od tych dwóch znane,  polinezyjskie wyspy Mangareva i Pitcairn. Ta ostatnia słynie jako miejsce osiedlenia się zbuntowanej załogi statku „Bounty” i dzisiejszego zamieszkania potomków buntowników, ale miała ona swoją wcześniejszą historię i wcześniejszych osadników, przybyłych tam z Mangarevy właśnie. W przypadku wysp na oceanie mamy ten dodatkowy komfort, że możemy precyzyjnie, czasem nawet, jak w przypadku Grenlandii, z dokładnością do jednego roku, określić punkt startowy, początek pierwszego i niestety, we wszystkich tych trzech przypadkach, jedynego cyklu.

Koła 03

Dzieje opisanych wysp są bardzo podobne do cyklicznych dziejów cywilizacji o kilka rzędów wielkości większych. Zasiedlenie dziewiczego lądu przez niewielką grupę kolonistów, następujący potem wzrost gospodarczy i demograficzny, osiągnięcie pewnego momentu szczytowego, potem następujący stopniowo zjazd i upadek, w przypadku Grenlandii i Pitcairn zakończony wręcz zniknięciem całej populacji, w przypadku Mangarevy i Rapa Nui, jej drastycznej redukcji. O ile jednak średnia długość cyklu cywilizacyjnego dla Chin i Zachodu przekraczała tysiąc lat, to dla społeczeństw tysiące razy mniej licznych, skurczyła się ona do około połowy tej wartości.

W świetle przedstawionych danych widać także, że tezy o jakichś zewnętrznych, klimatycznych czy kosmicznych przyczynach, mających w jednym czasie niszczyć cywilizacje na całym świecie, nie dają się utrzymać. Opisane cywilizacje wrastały i zwijały się w różnym tempie i w różnych okresach. Przyczyn zarówno rozkwitu jak i regresu musimy więc szukać wewnątrz nich samych.

Przyjdzie nam to łatwiej, jeżeli sobie uświadomimy, że ludzkie społeczeństwa nie zawsze rozwijały się w taki kołowy sposób. W obejmującym co najmniej 95%, albo nawet i 99,5%, jeżeli rozciągnąć człowieczeństwo również na inne niż Homo sapiens gatunki rodzaju Homo, ludzkiej historii, paleolicie, gospodarce łowiecko – zbierackiej, żadnej takiej cykliczności, okresów wzrostu, rozkwitu i upadku, zaobserwować się nie da. Przeciwnie. Społeczności łowców-zbieraczy są wyjątkowo wręcz stabilne i niewzruszone. Wyróżniane przez archeologów kultury paleolityczne trwały bez żadnych zmian w czasie i przestrzeni przez dziesiątki i setki tysięcy lat. Nie reagując nawet na tak drastyczne zmiany jak nadejścia i odwroty kolejnych zlodowaceń.

Nie działo się tak przypadkiem. W tej epoce ludzie, z ekologicznego punktu widzenia, byli odpowiednikiem szczytowych drapieżników. Model ekologiczny opisujący relację pomiędzy drapieżnikami a ich ofiarami, zwany też modelem Lotki-Volterry, ma zaś stabilne jednoznaczne rozwiązanie, zwane w matematyce atraktorem. Układ dąży do tego atraktora niezależnie od warunków początkowych i jest tym samym niewrażliwy na losowe zaburzenia. Do wyrwania układu z atraktora potrzebne są bodźce naprawdę potężne, większe nawet niż przejścia między glacjałem i interglacjałem.

Sytuacja zmienia się jednak diametralnie w neolicie, w momencie wynalezienia rolnictwa. Gatunek ludzki przestaje być dla uprawianych roślin i hodowanych zwierząt drapieżcą, a staje się symbiontem. Zależności symbiotyczne opisywane są zaś innym modelem.

Zakładając, że N jest populacją ludzi – rolników, a Z uprawianych przez nich roślin, czy hodowanych zwierząt, to dynamikę każdej z tych populacji z osobna, opisuje równanie logistyczne, zwane też równaniem Verhulsta

dN/dt = rN*N*(1-N)

dZ/dt = rZ*Z*(1-Z)

gdzie rN i rz są współczynnikami reprodukcji, przyrostem naturalnym, odpowiednio rolników i ich inwentarza i pokazują o ile, w idealnych warunkach, przyrasta populacja w ciągu roku.

Z równań tych wynika, że populacja, niezależnie od swojej obecnego stanu, dąży do jakiegoś określonego poziomu (N=100%, Z=100%) Kiedy aktualna liczebność jest większa od tego optimum, populacja maleje, kiedy jest mniejsza – populacja rośnie. Tempo zaś tych zmian zależy właśnie od współczynnika reprodukcji danego gatunku. Co się zatem stanie, kiedy te gatunki wejdą w układ symbiotyczny? Kiedy ludzie, zamiast polować na zwierzęta, zaczną je hodować? Wówczas liczebność jednego gatunku zostanie uzależniona od liczebności drugiego. Ostatecznie model przyjmie postać:

dN/dt = rN*N*(1-N)+a*Z

dZ/dt = rZ*Z*(1-Z)+a*N

Gdzie a to współczynnik symbiozy

Model ten, podobnie jak model drapieżnictwa Lotki – Volterry, ma stacjonarne rozwiązanie. W wyniku symbiozy liczebności obu gatunków rosną o czynnik 1/(1-a) w stosunku do liczebności jaką by miały, gdyby w układ symbiotyczny nie weszły. Chociaż wysokość tego stacjonarnego rozwiązania nie zależy od tempa rozrodu symbiotycznych gatunków, to jednak trajektoria po której układ do tego atraktora dochodzi, już tak. W momencie rozpoczęcia współpracy symbiotycznej, liczebność obu populacji zaczyna rosnąć, ale nie w jednakowym tempie. populacja o wyższym r rośnie początkowo szybciej. Jeżeli to inwentarz rozmnaża się szybciej od rolników, produkcja rolna (PKB) przypadająca na jednego rolnika wzrasta i tym samym rośnie też poziom dobrobytu populacji rolników. Cywilizacja rozkwita i wchodzi w swój „złoty wiek”.  Efekt ten nie wystąpi jednak, jeżeli tempo rozrodu gatunków udomowionych nie będzie znacząco wyższe, od tempa rozrodu samych rolników. Jest to zatem również powód, dla którego nigdy nie udomowiono gatunków, nawet potencjalnie bardzo użytecznych, jak słonie, czy dęby, ale których długość cyklu życiowego była porównywalna do długości cyklu życiowego samych hodowców.

Złoty wiek nie trwa jednak długo. Rolnicy rozmnażają się wolniej niż ich uprawy, ale z czasem doganiają ich liczebnie i średnia produkcja na osobę spada, docelowo do wartości wyjściowej, sprzed wprowadzenia innowacji, która symbiozę zapoczątkowała. Zarówno rolników jaki i upraw jest znacznie więcej, ale ich wzajemna proporcja jest taka sama. W rzeczywistości jest jeszcze gorzej, bo na długo przed dojściem do tego punktu równowagi włącza się jeszcze jeden mechanizm. Rozwiązanie stacjonarne w modelu symbiozy, inaczej niż to miało miejsce w przypadku drapieżnictwa, nie jest bowiem równocześnie rozwiązaniem stabilnym. Dla wysokości współczynnika symbiozy a, zbliżonego do 100%, lub więcej, teoretyczna liczebność obu symbiotycznych gatunków będzie dążyć do nieskończoności, co realnie nie jest możliwe, a w modelu oznacza pojawienie się chaotycznych oscylacji i załamanie układu. Nawet przy mniejszych od jedności wartościach a, chaos może się pojawić, tym pewniej, im mniej liczna jest populacja. Dlatego też do upadku cywilizacji na małych wyspach dochodziło szybciej niż w przypadku kultur kontynentalnych. Opisany proces rozkwitu i upadku cywilizacji rolniczych pokazano na poniższym wykresie:

Koła 04

Ową zależność, pomiędzy wzrostem produkcji, a wzrostem demograficznym, odkrył i opisał  XVIII wieczny angielski ekonomista Thomas Malthus. Dlatego też gospodarkę o takich cechach nazywamy gospodarką maltuzjańską.

Ponieważ im silniejsza jest symbioza (wyższy współczynnik a), tym większe ryzyko załamania i kryzysu, widać że cywilizacja rolnicza nieuchronnie pada ofiarą własnego sukcesu. Im lepsze stosuje technologie, im wydajniejsze uprawy, im wyższą produktywność osiąga, tym pewniej dozna upadku i ostatecznie znajdzie się na niższym poziomie cywilizacyjnym, skąd znów będzie musiała mozolnie wspinać się do góry. Jedynie przy stosunkowo niskich wartościach a, czyli przy niewysokim stopniu rozwoju, cywilizacja rolnicza może stabilnie egzystować. Taka sztuka udała się góralom z Nowej Gwinei, którzy wynaleźli rolnictwo niezależnie od pozostałych jego ośrodków, ale, wskutek niskiej wydajności swoich upraw, nigdy nie wytworzyli miast i bardziej złożonych struktur społecznych. Dzięki temu udało się im zachować stabilnie swoją społeczność aż do XX wieku, kiedy to zostali przez resztę świata odkryci.

Konkwistadorów, którzy w pierwszej połowie XVI wieku podbili Tahuantinsuyu – andyjskie imperium Inków, kolejną cywilizację, która wcześniej istniała w prawie całkowitej izolacji od pozostałych, zdumiewała obfitość dóbr, jakie w tym kraju po prostu wylewały się ze składów i magazynów. Historycy obliczyli później, że zapasy żywności przechowywane przez inkaską administrację, wystarczyłyby na wyżywienie całej populacji imperium przez 10 lat. Wielu humanistom dało to asumpt do wychwalania andyjskich despotów pod niebiosa i stawiania ich za wzór, jako tych, którzy jedyni, na całym (maltuzjańskim) świecie, trwale rozwiązali problem głodu. Było to jednak złudzenie. Hiszpanie przybyli po prostu w szczytowym momencie tamtejszego cyklu, w jego „złotym wieku”. Od upadku poprzedzającej Inków kultury Wari/Tiwanaku upłynęło niespełna 400 lat, a na początku XVI wieku zakończyły się tamtejsze wojny zjednoczeniowe, które połączyły cały andyjski obszar cywilizacyjny w jedno imperium, co, poprzez usunięcie wewnętrznych barier, dodatkowo zwiększyło poziom produkcji. Gdyby jednak inwazja z Eurazji nie nastąpiła, imperium inkaskie nieuchronnie przeżyłoby eksplozję demograficzną, która skonsumowałaby te wszystkie imponujące Hiszpanom nadwyżki, a potem gdzieś w XVII- XVIII wieku, wobec braku możliwości dalszej ekspansji terytorialnej, Kraj Czterech Dzielnic zostałby rozdarty serią przewrotów, wojen domowych i uzurpacji, po czym nieodwołanie rozsypałby się w gruzy.

Społeczeństwa maltuzjańskie zatem, nie są jednak wobec opisanej konieczności dziejowej całkowicie bezbronne i do pewnego stopnia mogą się przed upadkiem bronić, a przynajmniej go opóźniać. Na wykresie nr 1 możemy znaleźć co najmniej dwie takie udane próby podjęte przez Zachód. Pierwszą, w grecko-rzymskim cyklu „żelaznym”, wydłużonym do rekordowych 1700 lat, drugą w chrześcijańskim, który trwał lat 1200, też dłużej niż średnio. Odpowiednio zaawansowana cywilizacja może bowiem podjąć ekspansję na nowe tereny, i zagospodarować je. Takie działanie zapewnia dalszy wzrost produkcji, choć tylko ekstensywny, ale na tyle skuteczny, aby odsunąć w czasie maltuzjańskie przeznaczenie. Grecy, podbijając za Aleksandra wschodnią część basenu Morza Śródziemnego. oraz Rzymianie podbijając i cywilizując jego część zachodnią, opóźnili maltuzjańską katastrofę o blisko siedem stuleci. Ale jednak tylko opóźnili.

Cywilizacja chrześcijańska teoretycznie miała jeszcze lepszy kąsek – ciągle jeszcze tkwiące w neolicie, nie znające jeszcze ani metalurgii ani nawet koła, kontynenty Ameryki. Dodatkowym bonusem stała się globalizacja – połączenie rozdzielonych uprzednio ośrodków cywilizacyjnych wschodniego i zachodniego w jednolity rynek. Ponieważ jednak samo Chrześcijaństwo było bardziej zaawansowane technologicznie niż grecko-rzymski antyk, i tym samym kolonizowało nowe tereny szybciej i skuteczniej, owa ulga trwała też krócej i do końca XVIII wieku potencjał Ameryk i handlu chińskiego został już wyczerpany. Wtedy też, wspomniany już Malthus, opublikował swoje ponure proroctwa odnośnie przyszłości swojej cywilizacji. Jej zagłada wydawała się nieuchronna.

Na szczęście jednak maltuzjańskie koło historii nigdy nie toczy się dwa razy dokładnie tak samo. Upadki nigdy nie są całkowite i nie resetują cywilizacji w 100%. Każdy kolejny maltuzjański cykl osiąga zatem wyższy od poprzedniego poziom. Wiek brązowy stał cywilizacyjnie wyżej niż Egipt Starego Państwa, grecko-rzymski Antyk przewyższył epokę brązu, a Chrześcijaństwo zdeklasowało je wszystkie.

W końcu któryś kolejny szczyt musiał osiągnąć poziom, przy którym zachodzi kolejne przejście fazowe. Cywilizacja osiąga taki stopień nasycenia kapitałem i taką gęstość zaludnienia, że dochodzi w niej do zjawiska nieco mylnie i bałamutnie zwanego „rewolucją przemysłową”. O ile jednak pierwsze takie przejście fazowe, od paleolitu, łowiectwa i zbieractwa, do rolniczego neolitu, ze względu na stabilność atraktorów Lotki-Volterry, jest bardzo trudne i niezbyt prawdopodobne, o tyle, wskutek chwiejności atraktora równań symbiotycznych, nadejście industrializacji jest, wcześniej czy później, pewne.

Cywilizacja rolnicza, maltuzjańska, jest więc niestabilna z samej swojej natury. Przypomina rower – musi jechać, aby nie upaść. Jednak nawet upadając, nigdy nie upada do końca. Od kryzysu do kryzysu, ale rozwija się nieuchronnie w stronę rewolucji przemysłowej. Nadejście tej ostatniej zaś definitywnie maltuzjanizm kończy i wyrywa społeczeństwo z atraktorów symbiotycznych, tak jak rewolucja neolityczna wyrwała je z atraktorów Lotki-Volterry.

Często można spotkać opinię, że tak samo jak upadły wymienione w powyższym eseju cywilizacje, tak samo upadnie  współczesna postindustrialna cywilizacja globalna. Jak jednak widać, są to opinie całkowicie bezzasadne. Mechanizmy rządzące naszą obecną cywilizacja nie są już bowiem maltuzjańskie. Nawet jeżeli nasza cywilizacja się rozsypie, to z zupełnie innych, niż cywilizacje rolnicze, powodów.

Nie ma jednak, jak się wydaje, takiego ryzyka. Nowe postindustrialne atraktory wydają się mieć znacznie więcej cech wspólnych z odległym paleolitem, niż z niedawno opuszczonym maltuzjanizmem. Powstające na naszych oczach społeczeństwo postindustrialne będzie, nawet bardziej niż paleolityczne, stabilne. I osiągnie tą stabilność w warunkach nie niskiego, ale wysokiego dobrobytu. Maltuzjanizm byłby więc, stosunkowo krótkim, 10 tysiącleci to bowiem w kategoriach ewolucyjnych, czy geologicznych, po prostu mgnienie oka, interludium, okresem przejściowym, pomiędzy stabilnym paleolitem i jeszcze bardziej stabilnym okresem postindustrialnym.

Niewolnik jako kapitał

Całe dotychczasowe dzieje ludzkości można podzielić na trzy fazy. Pierwsza, to setki tysięcy lat paleolitu, od opanowania ognia do tzw. rewolucji neolitycznej i początków rolnictwa. Przodkowie nasi żyli wtedy z łowiectwa i zbieractwa, ekologicznie będąc odpowiednikiem szczytowych drapieżników, lwów, wilków, czy rekinów. Faza druga to dziesięć tysiącleci cywilizacji rolniczej, zwanej też od nazwiska ekonomisty, który pierwszy prawidłowo ją opisał, maltuzjańską. Wreszcie faza trzecia, rozpoczęta ledwo dwa stulecia temu rewolucją przemysłową, jeszcze nie przybrała swego ostatecznego, stabilnego kształtu i do końca jeszcze dzisiaj nie wiadomo, jak on będzie wyglądać.

Wszystkie społeczeństwa znajdujące się w tym samym stadium rozwoju są zadziwiająco podobne do siebie, a równocześnie drastycznie odmienne od społeczeństw, nawet sobie współczesnych, ale znajdujących się po drugiej strony bariery cywilizacyjnej. Łowcy zbieracze przykładowo, nie znając własności prywatnej i postrzegający wszystkich obcych jako wrogów, uchodzą wśród rolników za bandytów i złodziei.

Cywilizacja rolnicza również ma swoje specyficzne cechy i instytucje, które dla społeczeństw industrialnych i postindustrialnych są wstrętne i absolutnie nieakceptowalne. Jedną z tych bardzo zwyczajnych maltuzjańskich instytucji jest niewolnictwo. Handlowi niewolnikami poświęcił niżej podpisany już jeden esej, tym razem zamierza opisać niewolnictwo jako takie.

Ekonomiści bardzo długo nie mogli zrozumieć, dlaczego niewolnictwo w ogóle powstało i utrzymywało się w społeczeństwie tak stabilnie. W końcu praca przymusowa jest bardzo niewydajna. Niewolnik wkłada w pracę tylko tyle wysiłku, aby uniknąć kary i nic więcej ponad to minimum. Pracownik najemny w tych samych warunkach zawsze wyprodukuje więcej od niewolnika. W skrajnych przypadkach właścicieli niewolników, czy panów nad poddanymi chłopami, ogłaszano po prostu ludźmi upośledzonymi na umyśle, którzy nie byli w stanie zrozumieć własnego, najlepiej pojętego interesu.

Jednak nie byli oni durniami. Niewolnictwo utrzymywało się w rolniczej populacji przez stulecia i tysiąclecia, było akceptowane nie tylko przez panów i właścicieli, ale i przez poddanych i niewolników, którzy nierzadko sami się w niewolę oddawali, a nawet wszczynając bunty i rebelie, nigdy nie wysuwali postulatów likwidacji niewolnictwa jako takiego.

Tak trwała obecność w społeczeństwie oznacza, że niewolnictwo było niezbędną częścią gospodarki i miało głębokie uzasadnienie ekonomiczne. Znajdziemy je łatwo, jeżeli tylko uświadomimy sobie, że niewolnictwo, chociaż występowało w maltuzjanizmie endemicznie, to jednak udział pracy przymusowej w gospodarce oscylował z dość dużą amplitudą. W obrębie cywilizacji Zachodu, praca przymusowa ostatnie swoje maksimum zaliczyła w stuleciach XVII-XVIII, kiedy gospodarka plantacyjna w Ameryce, oraz folwarczna w Europie wschodniej była oparta w większości na przymusowej sile roboczej. Maksimum poprzednie przypadło zaś na schyłek Republiki Rzymskiej, w wiekach I p.n.e. i I n.e.

Nie jest przypadkiem, że maksimum niewolnictwa w obu tych przypadkach nastąpiło na krótko przed kryzysami, które owe cywilizacje doprowadziły, albo do upadku, albo do transformacji w cywilizację nowego typu – industrialną. W cywilizacji preindustrialnej bowiem, konsumpcja jest przeznaczana praktycznie wyłącznie na produkcję potomstwa. Zatem dokonanie jakiejś istotnej innowacji technologicznej lub organizacyjnej i związany z nią wzrost produkcji, w maltuzjanizmie zasadniczo rolnej, podnosi dobrobyt, średnią produkcję per capita, tylko chwilowo. Wcześniej czy później wzrost demograficzny dogania wzrost gospodarczy, dobrobyt ponownie maleje. Gospodarka osiąga maksimum dostępnej przy danej technologii wydajności i dalszy dopływ pracowników nie może jej znacząco zwiększyć. Równocześnie zatem maleje wartość krańcowa pracy i rośnie, w wyniku przyrostu naturalnego, jej podaż. Zwierające się nożyce popytu i podaży skutkują szybkim spadkiem ceny pracy, aż do zera. Niewolnictwo w takich warunkach po prostu musi rozkwitnąć, bo jedyną alternatywą dla znacznej części populacji staje się śmierć głodowa.

Ocena zatem tej instytucji dokonywana z punktu widzenia cywilizacji dobrobytu, w której żywność jest wręcz odpadem, a nie towarem luksusowym, jest całkowicie nieadekwatna, a sposób przedstawiania niewolnictwa we współczesnej kulturze, nieodmiennie fałszywy. Niewolnicy i poddani stali w maltuzjańskiej hierarchii społecznej nisko, ale nie na samym jej dnie. Byli narażeni na kaprysy swoich właścicieli, ale mieli też zapewnione wyżywienie, ubranie i dach nad głową – dobra wcale wtedy nie oczywiste. Mogli też liczyć na awans społeczny, zakończony wyzwoleniem i integracją z wolną częścią społeczeństwa. Teoretycznie właściciel mógł ze swoim niewolnikiem zrobić co zechciał, z zabiciem włącznie. Realnie jakoś jednak takie wypadki nie były zbyt częste. Okrutni panowie się zdarzali, ale nawet sami niewolnicy uważali, że lepszy już nawet zły pan, niż żaden. Niewolników nie broniło żadne prawo stanowione, ale broniło ich coś znacznie potężniejszego – prawo rynku.

Będący dobrem ruchomym niewolnik, czy przypisany do ziemi i tym samym zaliczany do nieruchomości, poddany, był bowiem inwestycją kapitałową, mającą wypracować dochód. A jako taki, miał pewną, wcale niemałą, wartość.

Aby opisać niewolnictwo w sposób ścisły, ilościowy, użyjemy tzw. analizy NPV (ang Net Preset Value) – Wartości bieżącej netto. Opiera się ona na obserwacji, że wartość pieniądza zmienia się w czasie. Każdy z nas wolałby otrzymać sto złotych raczej dziś niż jutro, a wydać na odwrót. Ta sama kwota, nawet bez uwzględnienia inflacji, jest więcej warta wcześniej, a mniej później. O wielkości tej różnicy decyduje wysokość stopy procentowej, lub, w przypadku gospodarki bezpieniężnej – preferencji czasowej.

Pieniądz traci z czasem na wartości wykładniczo:

P(t) =P0* e(-r*t)

gdzie r to wartość stopy procentowej, zwanej też dyskontem, a znak minus oznacza, że wartość kapitału maleje z czasem.

Wartość niewolnika, jak każdej innej inwestycji kapitałowej, oblicza się, sumując dochód jaki on przynosi w całym swoim życiu, oczywiście uwzględniając spadek wartości kapitału. Zakładając, że, po odliczeniu wszystkich kosztów utrzymania, inwestycja przynosi rocznie a zysku, rozwiązanie, czyli wartość NPV, otrzymujemy całkując powyższą funkcję od zera do jakiegoś czasu T

NPV = a/r*(1-e-r*T)

Oczywiście zanim praca niewolnika zacznie przynosić zyski a, należy tego niewolnika zakupić, za kwotę X, czyli wyłożyć kapitał wejściowy. Ostatecznie wartość niewolnika wynosi

NPV = a/r*(1-e-r*T)-X

Właściciel niewolnika ma do wyboru dwie strategie biznesowe. Albo starać się o jak najszybszy zwrot inwestycji, oszczędzając na czym się tylko da i zmuszając batem niewolników do jak najcięższej pracy, licząc się z tym, ze długo to oni w ten sposób nie pociągną, albo przeciwnie, dbając o nich, zaspokajać ich potrzeby, godzić się na mniejszy roczny zysk, ale za to inkasować go znacznie dłużej.

Jeżeli niewolnik dobrze traktowany będzie przynosił b dochodu i pracował w sumie przez T2 czasu, to niewolnik traktowany źle, przyniesie rocznie a dochodu, ale będzie pracował z tą wydajnością tylko przez T1 czasu, gdzie T2>T1 i a>b

Równanie to możemy jeszcze uprościć, zakładając, że zadbany niewolnik może pracować z wydajnością b w nieskończoność. Założenie to może się wydawać absurdalne, dopóki nie uświadomimy sobie, że tak właśnie funkcjonowały folwarki w dawnej Rzeczpospolitej. Poddani chłopi przecież się reprodukowali i tak samo mogą się reprodukować niewolnicy, o ile właściciel zapewni im ku temu odpowiednie warunki. Zatem ostatecznie T2 dąży do nieskończoności, a T1 = T

Strategie te będą równoważne wtedy, kiedy odpowiadające im wartości NPV będą równe, zatem

b/a = 1-e-r*T

Równanie to można przedstawić graficznie na wykresie:

Niew 11

Linie na wykresie oddzielają od siebie dwa obszary. Powyżej bardziej opłaca się strategia b – długoterminowa i w tej strefie niewolnicy są traktowani dobrze. Poniżej przewagę biznesową ma strategia a – zaharowywania niewolników na śmierć. Istnieje jednak dodatkowo pewne oddolne ograniczenie, na wykresie opisane jako ograniczenie ekstensywne.

Stosunek b/a nie może być bowiem dowolnie niski. Niewolnicy, jak już wspomniano, zawsze będą starać pracować tak ekstensywnie jak tylko się da i nawet najbardziej drastyczne środki i kary, których wprowadzenie i egzekwowanie też nie jest przecież bezkosztowe, mogą drastycznie skrócić czas ich efektywnej pracy T, ale nie podniosą ich wydajności bardziej niż dwu-trzykrotnie. To ograniczenie ekstensywne odcina od razu 1/3 wykresu. Z tego co pozostanie można wysnuć ciekawy i niezbyt zgodny z intuicją wniosek.

To, w jaki sposób niewolnicy są przez swoich panów traktowani, nie zależy w żaden sposób od ceny ich zakupu, jak to się często przedstawia. Cena rynkowa niewolnika wynika bowiem wprost z jego wartości NPV, pomniejszonej tylko o zysk nabywcy. Zatem faktycznie drogi rynkowo niewolnik będzie też zazwyczaj dobrze traktowany, ale bynajmniej nie z powodu swojej ceny, tylko wartości pracy, jaką może dać właścicielowi.

Warunki życia niewolników, czy poddanych zależą za to do pewnego stopnia od ich umiejętności przeżycia w ciężkich warunkach – niestety zależą odwrotnie proporcjonalnie. Im bardziej odporni, zdolni osiągnąć dłuższe T, są niewolnicy, tym gorzej się mają. Dlatego też odporni na malarię i inne choroby tropikalne Murzyni, byli na amerykańskich plantacjach traktowani generalnie źle. Przynajmniej początkowo.

Decydujący jest jednak inny parametr, o którym informacji próżno by szukać w publicystyce opisującej historię niewolnictwa. Jest to …wysokość stóp procentowych. Im są one wyższe, tym bardziej opłaca się zajechać niewolnika i zresztą dowolną inną inwestycję kapitałową, na śmierć. Natomiast przy stopach odpowiednio niskich, krzywa równowagi w ogóle, w całym życiu niewolnika, nie wyjdzie poza ograniczenie ekstensywne.

W starożytnym Rzymie stopy procentowe były, patrząc z dzisiejszego puntu widzenia, bardzo wysokie i przekraczały 20%. Nie należy się zatem dziwić, że niewolników nazywano instrumentum vocale . Rzucano nawet, choć jednak n ie tak często, jak się to dzisiaj podaje, dzikim zwierzętom na pożarcie i kazano im walczyć ze sobą na śmierć dla rozrywki obywateli. Jednak nawet przy tak wysokich stopach procentowych mieli niewolnicy szansę na karierę i osiągnięcie bardzo wysokiej pozycji społecznej. Nawet wielu rzymskich cesarzy miało wśród swoich przodków niewolników właśnie.

W czasie drugiej z opisywanych fal niewolnictwa, rynkowe stopy procentowe były niższe i w XVII wieku wynosiły kilkanaście procent. Teoretycznie powinno to polepszyć los niewolników w porównaniu do Antyku. Jednak ta różnica została skompensowana przez większą odporność na choroby, czyli dłuższy czas T, jaki populacja niewolników z amerykańskich plantacji miała w stosunku do niewolników antycznych. Jak można odczytać z wykresu, wystarczyłby wzrost T tylko o 1-2 lata, aby całkowicie zniwelować efekt niższych stóp procentowych

Jednak, inaczej niż to było w starożytności, tym razem stopy procentowe nie tkwiły w miejscu. Systematycznie się obniżały i pod koniec XVIII wieku spadły już poniżej 10%. Tego już wyższa odporność Murzynów na malarię zamortyzować nie mogła. Pojawiły się, po raz pierwszy w ludzkich dziejach, postulaty abolicyjne, a położenie niewolników zaczęło się poprawiać. W wieku XIX stopy procentowe nadal spadały. Pojawiły się zatem kraje w których niewolnictwo zostało w ogóle zlikwidowane, a nawet tam gdzie jeszcze istniało, jak w południowych stanach USA, wpływ obniżki stóp i triumfu strategii b, był wyraźny. Spadek dyskonta mógł być bowiem skompensowany tylko wydłużeniem czasu T. W pogoni więc za tym efektem, również po raz pierwszy w dziejach, rozpoczęto tam regularną „hodowlę” niewolników zachęcając ich do zakładania rodzin i zapewniając ku temu odpowiednie warunki.

Jednak nawet wydłużenie T do nieskończoności nie uratowało ekonomicznie tej maltuzjańskiej instytucji. Rozwijająca się gospodarka industrialna wymagała wzrostu wydajności, której ekstensywni niewolnicy nie byli w stanie dostarczyć. Po dziesięciu milleniach istnienia, niewolnictwo przeszło do historii.

Niespodziewanie jednak przeżyło krótka recydywę w połowie XX wieku. Powstałe wtedy w niektórych krajach efemeryczne reżimy totalitarne postawiły sobie za cel odwrót od rewolucji przemysłowej i powrót do stosunków maltuzjańskich, z różnych dziwacznych powodów uznanych przez nich za wzorcowe, a zatem i przywrócenie niewolnictwa. Niewolnicy XX wieku, więźniowie sowieckich łagrów i nazistowskich kacetów, byli jednak traktowani znacznie brutalniej niż niewolnicy starożytni, czy XVII-XVIII wieczni. Ich średni czas pracy T nie przekraczał 1-2 lat. Zgodnie z naszym modelem musiała za to odpowiadać nienormalnie wysoka preferencja czasowa ich właścicieli. Zdawali sobie oni, choćby podświadomie, sprawę, że uczestniczą w jakiejś straszliwej i krwawej, ale przecież równocześnie dziwacznej, absurdalnej i skazanej z góry na klęsce, próbie zawrócenia Wisły kijem. Ich horyzont czasowy z natury rzeczy musiał być więc bardzo bliski, właśnie nie dalszy niż kilkuletni i w tym właśnie czasie usiłowali oni z niewolników wycisnąć wszystko co się dało. Z mydłem włącznie.

I cóż. Mieli rację. Recydywa maltuzjanizmu z jego niewolnictwem upadła, w skali historycznej błyskawicznie. Nie oznacza to jednak, że jakieś podobne próby nie zostaną podjęte również w przyszłości. W szczególności należy obawiać się ludzi, ideologii i organizacji, o wysokiej preferencji czasowej. Takich, którzy straszą już, tuż za rogiem stojącą globalną katastrofą i anihilacją. Którzy z ogniem w oczach i absolutnym przekonaniem o swojej racji najzupełniej serio głoszą, że ludzkość w ciągu kilku – kilkunastu lat, a już na pewno do połowy stulecia, wyginie całkowicie. No chyba, że powróci się znów do gospodarki rolniczej, eksterminuje 90% populacji, a 90% ocalałych obróci w nowych niewolników pracujących na chwałę i dobrobyt swoich panów – ich właśnie, stojących na czele walki z wyimaginowaną katastrofą.

 

Powyższy esej ukazał się w 1511/1512 numerze „Najwyższego Czasu”

Czerń niedoskonała

Popularność przeróżnych opowieści o potworach, złoczyńcach, upiorach i demonach, popularność sięgającą korzeniami najdawniejszych dziejów ludzkości, świadczy o tym, że ludzie odczuwają jakąś naturalną potrzebę strachu. Straszenie publiczności zawsze było zajęciem bardziej wdzięcznym i bardziej popłatnym niż owych strachów demaskowanie i demistyfikowanie. Niżej podpisany ma inklinację raczej do tej drugiej czynności, co przynosi mniejszy poklask i mniejsze zarobki, ale za to daje znacznie większą satysfakcję intelektualną.

W niniejszym eseju zajmiemy się jednym z najpopularniejszych współczesnych strachów, tzw. zmianami klimatycznymi, które czyhają na niewinnych, aby ich strącić do rozpalonego piekła – w sensie dosłownym. Owe zmiany klimatyczne, do niedawna zwane „globalnym ociepleniem”, jak wszystkie inne zmory powstają z ludzkich wad i grzechów. W tym konkretnym przypadku z „nadmiernej konsumpcji”, posiadania dzieci, samochodu, czy spożywania mięsa. I klasycznie można upiora klimatycznego odegnać, składając mu odpowiednie ofiary. Bardzo wysokie ofiary.

Uwierzyć w demona jest bardzo łatwo, wystarczy kilka odpowiednio dobranych, emocjonalnych obrazków, w stylu dymiących kominów, walących się do oceanu lodowców, i białego smutnego misia na topniejącej krze. Demistyfikacja strachów wymaga jednak znacznie większego intelektualnego wysiłku i znajomości chociaż odrobiny fizyki i matematyki.

Termodynamika, nauka o energii, wyodrębnia trzy główne sposoby przekazywania ciepła. Przewodnictwo, konwekcję i promieniowanie. Pierwsze dwa wymagają bezpośredniej styczności ciał przekazujących sobie energię. Promieniowanie nie i dlatego w próżni kosmicznej wymiana ciepła zachodzi wyłącznie w ten właśnie sposób. Każde ciało pochłaniające promieniowanie nagrzewa się, a następnie, osiągnąwszy stan równowagi termodynamicznej, emituje taką samą ilość promieniowania, jaką same otrzymuje.

Zależność między promieniowaniem a temperaturą opisuje prawo Stefana-Boltzmana.

F = s*T4,

gdzie F, to strumień promieniowania w watach/metr kwadratowy, T to temperatura w Kelwinach, a s, to stała Stefana-Boltzmana.

Temperatura panująca na ciałach niebieskich, planetach, czy księżycach, jest zatem ściśle zależna od ilości promieniowania słonecznego jakie one pochłaniają. Zgodnie z prawami geometrii, F, strumień promieniowania słonecznego w danym punkcie, czyli tzw. stała słoneczna, maleje wraz z kwadratem odległości od naszej gwiazdy. Zarazem temperatura, zgodnie z prawem Stefana – Boltzmana spada wraz z pierwiastkiem czwartego stopnia z wielkości promieniowania. Łącznie zatem, temperatura maleje odwrotnie proporcjonalnie do pierwiastka kwadratowego odległości od Słońca.

Strumień promieniowania słonecznego docierający do planety zawiera się w kole o promieniu równym jej promieniowi. To promieniowanie rozkłada się na powierzchnię, będącą w dobrym przybliżeniu kulą. Ponieważ zaś powierzchnia kuli jest cztery razy większa od powierzchni koła o tym samym promieniu, zatem równanie S-B przybierze dla oświetlanej przez Słońce kuli postać

F=4*s*T4

Równanie to opisuje ciało doskonale czarne, czyli takie, które pochłania całkowicie docierające do niego promieniowanie. Planety jednak takimi ciałami nie są. Część promieniowania odbija się od nich z powrotem w kosmos. O tym, jaka to część, decyduje współczynnik albedo, dokładnie tzw. albedo Bonda, a. Równanie wygląda teraz tak:

(1-a)*F=4*s*T4

Znając albedo i odległość danej planety od macierzystej gwiazdy, można zatem obliczyć, jaka temperatura na tejże planety powierzchni powinna panować. Na poniższym wykresie pokazano takie temperatury w zależności od odległości od Słońca. Uwzględniono zarówno temperaturę ciała doskonale czarnego (CDC) w postaci niebieskiej linii, jak i temperaturę po uwzględnieniu albedo, zwaną też temperaturą efektywną Te, pokazaną w postaci zielonych kółek. Rzeczywistą temperaturę na powierzchni danej planety przedstawiono w postaci czerwonych kwadracików.

CDC 01

Merkury, Księżyc, Mars i Ceres znajdują się na naszym wykresie tam, gdzie, uwzględniając ich albedo, powinny być. Ich temperatury rzeczywiste pokrywają się z efektywnymi. Jednak, zarówno Ziemia, jak i w jeszcze większym stopniu Wenus, są cieplejsze, niżby to wynikało z tego modelu.

Przyczyną tego stanu rzeczy jest kolejne odstępstwo od czerni doskonałej, tym razem występujące w atmosferach tych planet. Od temperatury zależy bowiem nie tylko wielkość strumienia promieniowania, ale także jego widmo. Zgodnie z prawem Wiena, długość fali, na jaką przypada maksimum emisji jest odwrotnie proporcjonalna do temperatury. Słońce, o temperaturze powierzchni 5 772 Kelwinów, maksimum emisji ma dla długości fali 500 nanometrów, co odpowiada światłu widzialnemu. Planety, w porównaniu ze Słońcem, są zdecydowanie chłodniejsze i promieniują na długościach od 3 900 (Wenus) do 13 800 (Mars) nm, które to zakresy mieszczą się już w podczerwieni. W atmosferze, która dla fal z zakresu światła widzialnego jest praktycznie przeźroczysta, znajdują się jednak składniki, które fale podczerwone pochłaniają.  Gazy o takich właściwościach, przeźroczystych dla promieniowania widzialnego i nieprzeźroczystych dla podczerwonego, nazywamy gazami cieplarnianymi. Absorbując emitowane z powierzchni promieniowanie cieplne, atmosfera się nagrzewa. A to oznacza, że emituje wtórne promieniowanie, dodatkowo podgrzewające powierzchnię globu.

Załóżmy teraz, że w atmosferze planety zawiera się n warstw które po kolei pochłaniają i emitują promieniowanie wysyłane przez powierzchnię planety.

Zaczynamy od ostatniej z nich, tzw. powierzchni ostatniego rozproszenia. Ma ona temperaturę równą temperaturze efektywnej, Te=Tn i znajduje się w równowadze termicznej z przedostatnią warstwą o temperaturze Tn-1 Czyli tyle samo promieniowania emituje, co sama dostaje. Przyrównując te dwa strumienie promieniowania do siebie i rozwiązując odpowiednie równanie S-B otrzymamy zależność:

Tn4 = (1/2)*Tn-14

Powtarzając to rozumowanie dla kolejnych warstw, schodzimy po kolei aż do pierwszej warstwy T1 i powierzchni planety o temperaturze T0

T14 = (n/(n+1))*T04

Sama powierzchnia planety pobiera ciepło nie tylko od pierwszej warstwy, ale także z zewnątrz, z promieniowania słonecznego, równego, jak już wiemy 0,25*F*(1-a), które swobodnie przez wszystkie warstwy przenika.

I w końcu, po rozwiązaniu ostatniego równania otrzymujemy

0,25*(1-a)*(n+1)*F = s*T04

Albo

(n+1)*Te4 = T04

Model powyższy, jak każdy uproszczony model, ma swoje ograniczenia. Nie uwzględnia ani istnienia stref klimatycznych, strefy tropikalne każdej planety są przecież nasłonecznione dużo mocniej niż strefy polarne, ani pór roku, czy dnia. Uśrednia skład atmosfery zarówno w poziomie, jak i w pionie. Nie uwzględnia innych, niż promieniowanie, dróg przenoszenia ciepła w atmosferze, zwłaszcza bardzo rozbudowanej w atmosferach planetarnych konwekcji, która efektywnie obniża współczynnik n.

Nie należy też traktować opisanej wizualizacji zbyt dosłownie i wyobrażać sobie istnienia w atmosferze jakiś regularnych wydzielonych warstw, na podobieństwo szyb w szklarni. Kiedyś nawet nazywano efekt cieplarniany „szklarniowym” właśnie, co było przyczyną wielu nieporozumień. Współczynnik n, czyli liczba „warstw” cieplarnianych w atmosferze, nazywany jest też grubością optyczną atmosfery i określa, ile razy po drodze w kosmos foton promieniowania podczerwonego zostanie średnio pochłonięty i wyemitowany. Odwrotność tego współczynnika, wartość 1/n, to średnia droga swobodna fotonu w atmosferze podana w grubościach tejże atmosfery. Dla, przykładowo, n=2, foton, zanim odleci swobodnie w kosmos, zostanie średnio pochłonięty i wyemitowany dwukrotnie. Jego średnia droga swobodna wynosi więc ½ grubości takiej atmosfery. Może zatem grubość optyczna n przyjmować dowolne wartości, także niecałkowite.

Znając stałą słoneczną, albedo i temperatury powierzchniowe obu rozpatrywanych planet, można wyliczyć efektywne grubości optyczne ich atmosfer. W przypadku Ziemi n = 0,65, dla Wenus n = 106,15.

Atmosfera naszej planety jest skomplikowaną mieszaniną wielu składników, które w dodatku są dynamicznie wymieniane z powierzchnią planety, w którym to procesie uczestniczy hydrosfera, biosfera, lodowce, litosfera i tektonika płyt. W skali planety zarówno jej albedo a, jak i sam efekt cieplarniany n są bardzo zróżnicowane, zarówno w czasie, jak i w przestrzeni. Inne jest albedo lasu, inne oceanu, inne lodowców. Lokalnie efekt cieplarniany również może fluktuować w bardzo szerokim zakresie wartości, w zależności np. od zmian zachmurzenia. Ta złożoność sprawia, że ustalenia, jakie dokładnie składowe tej atmosfery i w jakim stopniu wpływają na całkowitą wartość ziemskiego n, jest bardzo trudnym, o ile w ogóle możliwym do ilościowego rozwiązania, zadaniem.

Na szczęście w przypadku Wenus nie mamy tego problemu. Zarówno jej powierzchnia, jak i atmosfera są dużo bardziej jednorodne. Nie ma tam biosfery, hydrosfery, ani lodowców. Nie występuje tektonika płyt, a atmosfera składa się prawie wyłącznie (96,5%) z jednego gazu – dwutlenku węgla, który jak najbardziej jest gazem cieplarnianym. I jest go naprawdę …dużo. Po przeniesieniu na Ziemię, ta masa CO2 wywierałaby ciśnienie prawie 100 atmosfer, dokładnie 9 950 kPa. Grubość optyczna n jest, w naszym modelu, liniowo proporcjonalna do stężenia gazu cieplarnianego. Dwukrotnie zwiększenie jego ilości dwukrotnie też skróci średnią drogę fotonu pomiędzy emisją i ponownym pochłonięciem. Z przykładu Wenus możemy wywnioskować, że, na każdy kilopascal ciśnienia parcjalnego (sprowadzonego do ziemskiego ciążenia) CO2, wartość n będzie rosła o ok. 0,011. Aby sprawdzić, czy tak faktycznie jest, przenieśmy się teraz na planetę najbardziej, z pozostałych, do Wenus podobną. Na Marsa. Tak samo nie ma na nim hydrosfery, biosfery i tektoniki płyt, a atmosfera również składa się prawie całkowicie z CO2. Tyle, że jest to atmosfera znacznie od wenusjańskiej rzadsza. Na Ziemi wywierałby marsjański dwutlenek węgla ciśnienie ok. 1,6 kPa. Proste mnożenie prowadzi nas do grubości optycznej marsjańskiej atmosfery n = 0,017, co powinno podnieść temperaturę powierzchni tej planety o ok 0,9 stopnia powyżej temperatury efektywnej. Rzut oka na zamieszczony wykres pokazuje, że tak, z dokładnością do błędów pomiarowych, jest w istocie, a temperatura powierzchni Marsa (210 Kelwinów) nie różni się znacząco od temperatury efektywnej. Grubość optyczna n faktycznie i to w bardzo szerokim zakresie wartości, zależy więc liniowo od ilości wywołującego ją gazu.

Kolejną planetą na tej liście jest nasza własna. Ciśnienie parcjalne CO2 na Ziemi wynosi 0,06 kPa, ponad sto sześćdziesiąt tysięcy razy mniej niż na Wenus i dwadzieścia sześć razy mniej niż na Marsie. Ekstrapolując powyższy trend, okazuje się, że udział CO2 w efekcie cieplarnianym, na Wenus i Marsie całkowity, w przypadku Ziemi jest zupełnie pomijalny – dokładnie odpowiada za 0,1% tego efektu. Nawet podwojenie ilości CO2 w atmosferze zwiększyłoby ziemską temperaturę o …0,03 stopnia. Za ziemski efekt cieplarniany, co by nie mówić, drugi pod względem nasilenia w Układzie Słonecznym, odpowiadają inne niż dwutlenek węgla składniki ziemskiej atmosfery, głównie oczywiście, nieobecna w atmosferach Marsa i Wenus, woda, zarówno w postaci pary, jak i chmur.

Naturalnie fakt, że między Wenus a Marsem opisywana zależność grubości optycznej n od stężenia CO2 zachowywała się liniowo, nie oznacza wcale, że pozostanie liniowa również w momencie jej ekstrapolacji na ziemskie, jeszcze niższe od marsjańskich, stężenia CO2. Mogą pojawić się jakieś nieuwzględnione przez nas efekty drugorzędowe, które tą liniowość zaburzą i ostatecznie wkład dwutlenku węgla w ziemski efekt cieplarniany okaże się wyższy niż oszacowany powyżej. W żadnym jednak razie nie będzie on wyższy od marsjańskiego (n=0,017), co oznacza, co najwyżej 2,5% całkowitego ziemskiego efektu cieplarnianego (n=0,65). Mogłoby się też wydawać, że znacznie grubsza od marsjańskiej atmosfera Ziemi, może też zakumulować znacznie większą ilość ciepła. Jednak, wracając do równania Stefana-Boltzmana, widać, że promieniowanie, a zatem i efekt cieplarniany zależy wyłącznie od temperatury, a nie od pojemności cieplnej ciała, w którym występuje. Większa pojemność cieplna atmosfery Ziemi i jeszcze większa Wenus, sprawia jedynie, że wszystkie zmiany są powolniejsze, oscylacje roczne i dobowe niższe, a czas dojścia do punktu równowagi dłuższy. Jednak sama wysokość tego poziomu równowagi nie zależy od całkowitej grubości atmosfery, a jedynie od jej grubości optycznej, czyli od stężenia gazów cieplarnianych. Cieplarnianych, a nie wszystkich.

Ostatnim, często spotykanym, zastrzeżeniem są tzw. sprzężenia zwrotne. Może i CO2 sam w sobie nie jest taki istotny, głoszą niektórzy, ale niewielkie nawet wahnięcie w jego poziomie i spowodowane tym minimalne choćby ocieplenie, spowoduje zwiększenie w atmosferze zawartości innych, znacznie silniejszych, czyli dających wyższe n, składników, takich jak metan i H2O, tym samym dalszy wzrost temperatury, dalsze podwyższanie poziomu n i lawinowo następującą globalną zmianę klimatu. Pogląd ten zatem głosi, że klimat Ziemi znajduje się w równowadze chwiejnej, w którym byle niewielkie zaburzenie może go przemieścić do zupełnie innego, znacznie mniej przyjaznego dla ludzi, a nawet dla życia w ogóle, atraktora.

Istotnie, patrząc na geologiczną historię Ziemi, widać, że klimat na planecie oscylował, pomiędzy częstszym stanem „tropikalnym” kiedy bujne lasy rosły nawet na biegunach i rzadszym „lodowcowym”, takim jak obecnie. Przy czym przejścia pomiędzy jednym a drugim były stosunkowo, w skali geologicznej, szybkie. Gdyby jednak takie przejścia były faktycznie tak łatwe i prawdopodobne, zdarzałyby się stosunkowo często, a nie co, kilkaset milionów lat, jak to miało miejsce naprawdę. Doświadczenie to wskazuje, że ziemski klimat ma cechy metastabilne. Można go przełączyć, ale potrzeba do tego naprawdę potężnych bodźców, takich jak erupcje wulkaniczne na skalę całych kontynentów (jak wylewy tzw. trapów dekańskich i syberyjskich). Sprzężenia zwrotne wzmacniające efekt n oczywiście działają, ale oprócz nich działają nie mniej silne sprzężenia ujemne, kompensujące naturalne fluktuacje w poziomie gazów cieplarnianych, zwłaszcza tak słabego w sumie pod tym względem CO2.

Jakby zatem nie liczyć, udział dwutlenku węgla w ziemskiej „szklarni” jest znikomy.

W ciągu ostatnich kilkudziesięciu lat powstał jednak na świecie potężny przemysł medialno-propagandowy, na poły sekta religijna, na poły polityczne i finansowe lobby, przez autora niniejszego eseju zwany klimatystami, który z wielkim propagandowym rozmachem i zaangażowaniem usiłuje wywołać wrażenie, że jest wręcz przeciwnie. Że cieplarniany udział CO2 jest na Ziemi bardzo duży. Że wprowadzanie do atmosfery dodatkowych ilości tego gazu pochodzącej z działalności ekonomicznej człowieka, stanowi śmiertelne zagrożenie dla cywilizacji, gatunku ludzkiego, a nawet dla całego ziemskiego życia. Że jedynym ratunkiem jest eksterminacja 90% ludzkiej populacji a 90% ocalałych drastyczne „ograniczenie konsumpcji”, czyli skazanie ich na życie w skrajnej nędzy. Sami klimatyści zaliczają się oczywiście do tego ostatniego jednego procenta, którego żadne ograniczenia dotyczyć nie będą.

 Jak widać jednak, takie postawienie sprawy jest całkowicie bezzasadne. Zarówno temperatura, jak i stężenie CO2 w atmosferze ziemskiej wzrosły, co prawda, w ciągu ostatnich kilkudziesięciu lat, ale to drugie nie mogło w żaden sposób wywołać tego pierwszego. Przyczyny tego wzrostu temperatury są zapewne naturalne. Poprzedni, przed naszym obecnym, interglacjał, cieplejszy okres w obecnej epoce lodowcowej, zwany eemianem, lub interglacjałem emskim również się stopniowo ocieplał i ostatecznie był od współczesnego nam interglacjału holoceńskiego cieplejszy o ok 1,5 stopnia. I to bez żadnego udziału człowieka i jego cywilizacji, której wtedy przecież w ogóle nie było.

Nieczyste intencje lobby klimatystów są zresztą widoczne nie tylko w kwestii gigantycznego przeszacowania roli CO2 w ziemskim efekcie cieplarnianym, ale nawet w samym opisie tego efektu. Podstawowym parametrem efektu cieplarnianego jest przecież, jak już wiemy, grubość optyczna atmosfery, czyli liczba pochłaniających i emitujących promieniowanie warstw – n. Tymczasem w żadnym z propagandowych publikacji autorstwa klimatystów takiego prawidłowego opisu nie znajdziemy. Podają oni czasami wzrost temperatury w stosunku do temperatury efektywnej, czasami wielkość wtórnego strumienia promieniowania docierającego do powierzchni z pierwszej warstwy, czyli tzw. wymuszenie radiacyjne. Łączą i plączą ze sobą zmiany zachodzące zarówno w samym efekcie cieplarnianym, jak i w albedo, a nawet w stałej słonecznej, co pozbawia odbiorców propagandy szansy na samodzielne przemyślenie i przeliczenie opisywanych zjawisk, a co, jak wynika z niniejszego eseju, jest ostatnią rzeczą, której by klimatyści sobie życzyli.

Powyższy artykuł ukazał się w 1507/1508 numerze „Najwyższego Czasu”

Racjonalny wybór

Narzekania na jakość życia politycznego należą w Polsce do stałego rytuału. Wyborcy mają być leniwi i bezrozumni, partie bezprogramowe, a politycy nieudolni i krótkowzroczni. Wszyscy zaś razem wzięci kierują się wyłącznie chwiejnymi i zmiennymi emocjami. Rytuał narzekań jest tak rytualny, że nikomu nawet do głowy nie przyjdzie zapytać, co by było, gdyby elektorat kierował się rozumnym rozeznaniem własnego interesu, politycy kalkulowali na długi okres czasu, a partie posiadały jakieś programy.

Niżej podpisany często zastanawiał się nad tym, jakby wyglądała polska polityka przy spełnieniu tych założeń. I doszedł do jednoznacznego wniosku. Otóż wszystko wyglądałoby …dokładnie tak samo jak teraz. Co logicznie oznacza, że te warunki, niezależnie od tego co się wszystkim wydaje, są jak najbardziej spełnione już dziś.

Zacznijmy od programów partyjnych. Faktycznie, do książeczek z takim tytułem na okładce mało kto w ogóle zagląda, a wcale nie wszystkie partie taki „program” w formie książkowej w ogóle posiadają. Nie oznacza to jednak, że nie posiadają samego programu jako takiego. Partia, która sama, lub w koalicji, zdobywa władzę w kraju, jakiś program, choćby się miał on sprowadzać do „chwały nam i naszym kolegom”, po prostu musi realizować. Dla partii, która miała już okazję rządzić, programem jest więc kształt realnej polityki, którą wtedy prowadziła. Gorzej jest z rozpoznaniem programu stronnictwa, które rządzić jeszcze nie miało okazji. Taka partia jednak stara się zwykle zainteresować wyborców właśnie programem zwerbalizowanym, na prawo i lewo obiecując, czego to nie zrobi, kiedy wyborcy powierzą jej władzę.

Postrzeganym przez elektorat programem partii jest więc realny kierunek jej rządów, kiedy dana partia jest przy władzy, oraz całość przekazu kierowanego do wyborców, kiedy jest w opozycji. Przy czym oczywiste jest, że w tym ostatnim segmencie zdecydowanie aktywniejsze są partie, które jeszcze nie rządziły. Naturalnie zdarza się też często, że wygrywając wybory partia zmienia zdanie i realizuje program inny, a nawet zupełnie inny, niż obiecywany w czasach opozycji.

Kolejnym mitem związanym z partyjnymi programami jest rzekomy brak różnic pomiędzy nimi. W takich zarzutach celują zwłaszcza te partie, które do władzy dopiero aspirują, głośno deklarując np. „PIS, PO jedno zło”, albo „tamci już rządzili’, w domyślnym niedopowiedzeniu – oczywiście źle. Nie jest to pogląd prawidłowy.

Głównym zadaniem rządu jest bowiem …rządzenie. Czyli tworzenie takich ram instytucjonalnych, prawnych i infrastrukturalnych, aby zapewnić obywatelom maksymalny możliwy poziom dobrostanu. Jakość rządów ocenia się więc po jakości państwa i jego instytucji, jakie te rządy po sobie zostawiają. Ilustruje to publikowany co roku przez fundację Heritage, wskaźnik wolności gospodarczej – Index of economic freedom – IEF. Wbrew swojej nazwie, indeks ten, bardziej mierzy sprawność i poziom cywilizacyjny danego państwa, niż samą wolność gospodarczą, będącą tylko jedną z wielu jego składowych. W latach 1997 – 2019 IEF dla Polski kształtował się następująco:

wybor 01

Jak widać korelacja jakości polskiego państwa z rządami poszczególnych ekip jest bardzo silna, a zmiany trendu miały miejsce tylko w przypadku zmian ekip rządzących.

W zilustrowanym okresie były prowadzone dwie drastycznie odmienne polityki. Koalicje AWS-UW, oraz PO-PSL zwiększały polski poziom gospodarczy i cywilizacyjny, oraz oczywiście wolność gospodarczą, SLD i PIS, przeciwnie – zmniejszały. PIS i PO to zatem, nie tylko nie to samo, ale coś zupełnie innego.

Sam współczynnik IEF jest, jak już wspomniano, kombinacją wielu, konkretnie dwunastu, parametrów, które określają bardziej szczegółowo, wysokość opodatkowania, poziom korupcji, sprawność sądownictwa, swobodę przepływów finansowych, elastyczność rynku pracy etc. Jeżeli potraktujemy każdą z tych liczb jako geometryczną współrzędną, to łącznie utworzą one dwunastowymiarową przestrzeń fazową, wewnątrz której porozrzucane będą poszczególne kraje. Podobnie jak w zwykłej, trójwymiarowej przestrzeni, możemy zmierzyć odległość między dwoma dowolnymi krajami – punktami w tej przestrzeni, za pomocą uogólnionego na większą ilość wymiarów twierdzenia Pitagorasa. Taka odległość w przestrzeni fazowej pozwoli ocenić stopień podobieństwa ustroju społeczno-gospodarczego danych krajów znacznie lepiej niż sama tylko różnica w wielkości IEF. Ponieważ dobrze jest równać się do najlepszych, na kolejnym wykresie pokazano jak zmieniała się odległość Polski od najbardziej rozwiniętego i cywilizowanego kraju na świecie. Od Szwajcarii. Dla porównania zamieszczono na nim także dynamikę odległości od jednego z najbardziej zacofanych i prymitywnych krajów – Rosji.

wybor 02

Pomimo tego, że zarówno Szwajcaria (w mniejszym stopniu), jak i Rosja (w większym), same przemieszczają się w przestrzeni fazowej, i dynamika ich odległości do Polski jest przez to bardziej, niż na pierwszym wykresie, skomplikowana, różnice programowe między polskimi rządami są tu widocznie znacznie bardziej wyraźnie. W latach 2016-19 polski IEF spadł raptem o 1,5 pkt (na 100 możliwych), ale odległość od Szwajcarii zwiększyła się o połowę. Proporcjonalnie o tyle też Polska zbliżyła się do Rosji. Stało się tak dlatego, że największe straty zadał PIS Polsce w dziedzinach, które najbardziej odróżniają Rosję od Szwajcarii. W ciągu 3 lat korupcja (government integrity) w Polsce wzrosła o ponad 11 punktów, a sprawność sądownictwa (judicial effectiveness) spadła o ponad 14 pkt ! Tylko częściowo ten ubytek został zrekompensowany przez zmniejszenie deficytu budżetowego (fiscal health) o 10 pkt, a akurat w tym parametrze, różnice pomiędzy Szwajcarią a Rosją nie są aż tak przepastne.

Istnieją zatem w Polsce dwa główne stronnictwa, reprezentujące dwa główne, przeciwstawne programy, które można nazwać „szwajcarskim” i „rosyjskim”. Natomiast ich skład partyjny bywa zmienny. PSL na przykład, w latach 2001-2005 było częścią „Rosji”, aby w okresie 2007-2015 zmienić diametralnie swój program i przyłączyć się do „Szwajcarii”.

Następnym elementem polityki są politycy. Nie są oni bynajmniej, jak się ich często ocenia, ograniczeni i krótkowzroczni. Że tak nie jest, widać nawet przy okazji różnych afer, w które bywają oni umoczeni, jak ostatnio afera „Srebrnej”. Potrafią oni myśleć strategicznie i długofalowo. Oczywiście owa zapobiegliwość i dalekowzroczność dotyczy bezpośrednio nie interesu publicznego, ale własnego owych polityków. Dlatego też ustrój polityczny jest tym lepszy, im bardziej zapewnia zbieżność tego drugiego z tym pierwszym. W przypadku władzy bezprawnej, nielegalnej, dyktatorskiej, sprzeczność interesów jest tu ewidentna, a rządzących najbardziej interesuje uniknięcie odpowiedzialności w przypadku, gdyby władzę mieli utracić i jak najszybsze nachapanie się, zanim taka przykra okoliczność nastąpi. Dlatego też władza legalna i praworządna statystycznie będzie lepsza i zapewni swojemu krajowi większy dobrobyt. O ile w cywilizacji maltuzjańskiej, preindustrialnej, z jej dość prostymi strukturami społecznymi i gospodarczymi, takim optymalnym modelem ustrojowym była dziedziczna monarchia konstytucyjna, o tyle po rewolucji przemysłowej, atraktor przemieścił się w kierunku zarządzania zdecentralizowanego i demokracji przedstawicielskiej. Stała się ona najgorszym z możliwych ustrojów, ale wszystkie wobec niej alternatywy były jeszcze gorsze.

Wbrew popularnemu mniemaniu, politycy demokratyczni nie myślą tylko o wyniku następnych wyborów, ale także kolejnych i wszystkich następnych, w których będą uczestniczyć. Jednak waga każdych kolejnych wyborów maleje w umyśle polityka zgodnie z jego tzw. preferencją czasową. I znów w krajach stabilnych, praworządnych i wolnorynkowych, owa preferencja czasowa jest niska, spadek wartości kolejnych kadencji niewielki, zatem i jakość rządów demokratycznych wysoka. W krajach skorumpowanych i niestabilnych, preferencja czasowa rośnie i jakość rządzenia, w sprzężeniu zwrotnym, spada.

I znów z pomocą przychodzi nam wskaźnik IEF. Im jest on wyższy, tym kraj jest bardziej praworządny, stabilny i przewidywalny. Preferencja czasowa jest w nim zatem niższa, a tym samym jakość kadr demokratycznych wyższa.

Partie polityczne i sami politycy to jednak tylko nadbudowa. Bazą polityki są wyborcy, a programy (w sensie wyżej opisanym) polityczne partii są tylko odbiciem poglądów i interesów elektoratu do którego owe partie się odwołują i za którego reprezentację są uważane.

Gdyby wyborcy, co jest kolejną mądrością z cyklu „wszyscy to wiedzą”, kierowali się wyłącznie przypadkowymi kaprysami i chwilowymi emocjami, to i wyniki wyborów byłyby przypadkowe, chaotyczne i nieprzewidywalne. Takie zjawiska można było, owszem zaobserwować w Polsce na początku lat 90, ale już dawno należą one do przeszłości, a podział polskiego demosu na zwolenników „Szwajcarii” i „Rosji” jest stabilny i ugruntowany, a zmiany w tym rozkładzie powolne. Widoczne w polskiej polityce emocje wynikają więc wprost z realnych sprzeczności w interesach poszczególnych grup elektoratu, a częściowo są nawet tylko swoistym teatrem. Nie zastępują one racjonalnej kalkulacji wyborczej, tylko ją, co najwyżej, wyrażają.

W jaki zatem sposób wyborcy podejmują decyzję o oddaniu swojego głosu, na to, czy inne stronnictwo? Proces ten, chociaż niesłychanie rzadko przebiegający w sposób świadomy, zachodzi w trzech etapach. Po pierwsze wyborca ocenia zgodność programową. Na ile kierunki polityki prowadzonej lub deklarowanej przez daną partię odpowiadają jemu i jego interesom. Naturalnie w każdym programie są rzeczy dla wyborcy mniej lub bardziej ważne, dlatego łączny wynik zgodności programowej musi być średnią ważoną. Nazwijmy go A

Zgodność programowa to jednak tylko pierwszy krok w tym rozumowaniu. Wyborca nie zagłosuje na partię, wysuwającą nawet najbardziej dla niego kuszące postulaty, jeżeli nie uwierzy w szczerość jej intencji. Puste obietnice zwane kiełbasą wyborczą są nieodzowną częścią demokracji i elektorat bierze to pod uwagę. Programowi zatem przypisuje się wiarygodność (B), określone prawdopodobieństwo, że partia będzie chciała go, a właściwie te punkty, które najbardziej pociągają w nim wyborcę, naprawdę realizować.

Jednak i same chęci to za mało. Najbardziej nawet atrakcyjny i szczerze głoszony program, na nic się zda, jeżeli będzie brakowało możliwości. Partia, nawet zgodna programowo i wiarygodna, może zostać oceniona jako nieskuteczna. Albo z powodu swojej niekompetencji, albo zbyt niskiego, nie gwarantującego realnego wpływu na władzę, poparcia (tzw. strach przed utratą głosu), albo z braku zdolności koalicyjnych, albo wreszcie z powodu istnienia przeszkód obiektywnych.

Ostatnim zatem współczynnikiem jest skuteczność – C

Punktacja danej partii wynosi więc A*B*C. Ale to wcale jeszcze nie koniec. Nieprzypadkowo przecież uważa się że Polacy nie głosują zwykle za, tylko przeciw komuś. Oprócz programu pozytywnego, z którym wyborca się utożsamia, każda partia ma też program negatywny, który wyborcę odrzuca. Takie elementy negatywne programu nazwijmy X. Oczywiście one również mają jakiś swój poziom wiarygodności Y i skuteczności Z. Ostatecznie mamy więc wynik.

W = A*B*C-X*Y*Z

Wyborca zagłosuje zatem niekoniecznie na ugrupowanie, z którym ma najbliższą zgodność programową, ale na takie, jaka w jego pojęciu uzyska najwyższy wskaźnik W.

Niżej podpisany należy, jak nietrudno się domyśleć, do stronnictwa „szwajcarskiego” i w trakcie wyborów poszukuje takiej partii, która daje największe szanse na zbliżenie się do tytułowej Szwajcarii. Oto jego, aktualne na moment pisania niniejszego eseju, preferencje:

zalety wady
Prog. Wiaryg. Skutecz. Prog. Wiaryg. Skutecz.
Partia A B C X Y Z wynik
PO 50% 80% 60% 20% 50% 60% 18,0%
PFP 80% 80% 10% 0% 80% 10% 6,4%
N. 60% 60% 20% 20% 60% 20% 4,8%
KORWIN 80% 50% 10% 10% 80% 10% 3,2%
PSL 20% 80% 80% 20% 80% 80% 0,0%
KUKIZ 20% 50% 20% 40% 50% 20% -2,0%
SLD 20% 60% 20% 40% 80% 20% -4,0%
WIOSNA 20% 90% 30% 60% 90% 30% -10,8%
RAZEM 0% 90% 20% 90% 90% 30% -24,3%
PIS 5% 40% 20% 80% 80% 70% -44,4%

Oraz pokazane na wykresie:

wybor 03

Warto zauważyć, że gdyby oceniać tylko po zgodności programowej, na czele preferencji byłby PFP Gwiazdowskiego, przed KORWINem i Nowoczesną. Również na końcu stawki PIS wyprzedzałoby RAZEM. Jednak uwzględnienie wiarygodności i skuteczności ugrupowań politycznych zmieniło tę kolejność.

Wspomniano już, że partie czasem zmieniają swoje programy, niekiedy nawet przechodząc z jednego obozu do drugiego. Proces ten jest jednak dość powolny. Znacznie szybciej mogą się za to zmienić współczynniki wiarygodności i skuteczności. Dotyczy to najbardziej partii nowych i niedoświadczonych politycznie, czego najlepszym przykładem była ostatnio Nowoczesna, w której proces upadku współczynników B i C był szczególnie spektakularny. Najmłodsze partie obecne dzisiaj w zestawieniu to PFP i Wiosna Biedronia i w ich przypadkach wszystkie współczynniki są mało stabilne i mogą się zmienić w krótkim czasie. Jeżeli Biedroniowi uda się trwale osiągnąć wysokie notowania w sondażach, osunie się w zestawieniu w dół, w okolice PIS. Jeżeli uda się to Gwiazdowskiemu, może bez trudu awansować na pierwsze miejsce.

Podobną kalkulację przeprowadza świadomie, lub znacznie częściej nieświadomie, znakomita większość wyborców. Z obecnych ugrupowań politycznych, tylko partia KUKIZ, jak się wydaje, ma właśnie głównie wyborców przypadkowych, głosujących pod wpływem impulsu. Wszystkie pozostałe stronnictwa odwołują się do konkretnych interesów konkretnych grup elektoratu i usiłują je, z różnym skutkiem, przekonać, że są ich najlepszą dostępną reprezentacją.

Dymiące kominy i zielone płuca

Rewolucja przemysłowa była jednym z najważniejszych, a zarazem najmniej zrozumiałych, wydarzeń w całej historii ludzkości. Już sama jej nazwa jest bałamutna i myląca. Rewolucję tę, można by zdefiniować, jako okres, wykładniczego wzrostu wydajności gospodarczej, w który ludzkość weszła po tysiącleciach stagnacji lub powolnego, co najwyżej liniowego rozwoju. W tej wykładniczej epoce rozwijał się przemysł, nadając jej ową mylącą nazwę, ale rozwijały się też inne dziedziny gospodarki, jak rolnictwo, czy górnictwo, również, podobnie jak przemysł, podwajając swoją produkcję w stałych odstępach czasu. Dwa stulecia takiego wykładniczego wzrostu przeobraziło ludzką cywilizację bardziej niż poprzednie 10 tysięcy lat cywilizacji maltuzjańskiej, rolniczej.

Przyczyny zaistnienia tej ekonomicznej eksplozji nadal pozostają przedmiotem sporów i dyskusji. Ambicją autora niniejszego eseju nie jest rozstrzyganie tej kwestii, zamiast tego zamierza on omówić tu jedną z takich hipotez, która na pewno jest fałszywa. Rewolucja przemysłowa, jak głoszą zwolennicy tego pomysłu, nieprzypadkowo rozpoczęła się w Anglii. Otóż właśnie w tym kraju były dostępne bogate zasoby węgla, paliwa kopalnego, które spalane na masową skalę dało gospodarce olbrzymi zastrzyk energetyczny i tym samym bodziec rozwoju, który rewolucję przemysłową rozpoczął. Dymiące kominy fabryk miałyby być oddechem rewolucji, przynajmniej tej przemysłowej.

Faktycznie w XVIII wieku gospodarka brytyjska, chociaż jeszcze nadal maltuzjańska, to i tak najbardziej zaawansowana wtedy na Ziemi, zużywała i spalała znaczące ilości węgla. Działo się tak wskutek ostrego deficytu drewna, jaki panował na Wyspach, spowodowanego masową wycinką lasów w celu rozbudowy brytyjskiej floty, która właśnie w tym okresie umożliwiła Wilelkiej Brytanii zapanowanie nad oceanami. W momencie więc, kiedy pod koniec tego stulecia,  inżynierom udało się zamień ciepło na ruch i zbudować pierwsze w miarę wydajne maszyny parowe, węgiel stał się dla nich naturalnym paliwem, a kłęby węglowego dymu buchające z hut, fabryk i lokomotyw stały się wręcz ikonicznym obrazem rewolucji przemysłowej.

Na tym naiwnym, węglocentrycznym obrazie jednak, nawet na pierwszy rzut oka, widać głębokie pęknięcia. Przede wszystkim węgiel był w Anglii wydobywany jeszcze w czasach rzymskich, a jednak żadnej rewolucji ani wtedy, ani przez kolejne osiemnaście stuleci to nie wywołało. Po drugie w krajach, które, inaczej niż XVIII wieczna Wielka Brytania, nie zostały wylesione, takich jak USA, czy Rosja, rewolucja przemysłowa, kiedy już do nich dotarła, żywiła się przez pierwsze dziesięciolecia właśnie drewnem, a nie węglem. Po trzecie, łatwe w eksploatacji złoża węgla występują na całym świecie, nie tylko w Anglii.

Wreszcie, chociaż protoindustrialna gospodarka Wlk. Brytanii, faktycznie była w XVIII wieku najbardziej zaawansowana na Ziemi i jako jedyna wykorzystywała na zauważalną skalę paliwa kopalne, to wcale jednak nie była pod tym względem pionierska. Już bowiem sześć stuleci wcześniej, w wiekach XI-XIII istniała na świecie gospodarka mająca dokładnie te same cechy. Prowadziła wylesienia na wielką skalę, oraz wydobywała i spalała w swoich hutach i wielkich piecach ogromne ilości węgla. Gospodarka ta, nie tylko trwała od brytyjskiej dwukrotnie dłużej, ale i wycinała znacznie więcej lasów i spalała znacznie więcej węgla. Jej stolica już wtedy zamieszkiwana była przez milion ogrzewających się piecykami węglowymi mieszkańców, który to rozmiar Londyn osiągnął dopiero w XIX wieku. Mowa oczywiście o Chinach Sungów. O ile w Wlk. Brytanii jednak skończyło się to płynnym przejściem do rewolucji przemysłowej, o tyle w Chinach jednak regresem i cofnięciem się do maltuzjanizmu.

Jak widać, wydobywanie i spalanie węgla, nawet na masową skalę, nie jest bynajmniej warunkiem zajścia rewolucji przemysłowej. Ani wystarczającym, ani nawet koniecznym. Mimo jednak jawnej fałszywości tej hipotezy jest ona nadal uparcie forsowana. Dlaczego?

Ano dlatego, że jest ona ważną i istotną częścią znacznie większego i bardziej złowrogiego przemysłu propagandowego, czyli tzw. globalnego ocieplenia.  Wyznawcy tej sekty, zwani przez niżej podpisanego „klimatystami”, daleko wychodząc poza kwestie domniemanych zmian klimatycznych, twierdzą, że owe zmiany, same w sobie niepewne i o nieustalonych przyczynach, są tylko objawem znacznie poważniejszego zagrożenia dla Matki Ziemi. Zagrożeniem tym jest zaś przeludnienie i nadmierna, to znaczy nie ograniczająca się tylko do przydziałowej pryczy w baraku, miski wegańskiej zupy z brukwi raz dziennie i nowego pasiaka raz na rok, konsumpcja.

Konsumpcja ta wymaga spalania paliw kopalnych, co powoduje emisję złowrogiego dwutlenku węgla, a gaz ten, poprzez swoje właściwości cieplarniane, podnoszące średnią temperaturę naszej planety, doprowadzić ma do zagłady ludzkiej cywilizacji, a być może w ogóle życia na Ziemi. Jedynym ratunkiem ma być eksterminacja co najmniej 90% ludzkości, a przynajmniej drastyczne ograniczenie im konsumpcji, czyli zamknięcia ich we wspomnianych wyżej barakach.

Jednym z najważniejszych  z rzekomych „dowodów” na decydującą rolę ludzkich emisji CO2 w ociepleniu jest stosunek izotopów węgla C13/C12 w osadach morskich i jeziornych. Obecnie ten stosunek jest znacznie niższy niż był w epoce przedprzemysłowej i w ciągu 250 lat spadł z 5 do 4 promili. Nadmiar lżejszego izotopu C12 jest typowy dla węgla pochodzenia organicznego, czyli też pochodzącego z paliw kopalnych. Zmiana tych proporcji ma zatem uzasadniać tezę o decydującej roli antropogenicznych emisji CO2 we wzroście jego zawartości w powietrzu. Kłopot w tej narracji jest jednak zasadniczy. Trend opadający udziału C13 zaczyna się bowiem w połowie wieku …XVIII.

Czyli co najmniej sto lat za wcześnie, żeby można go było przypisać rewolucji przemysłowej i spalaniu paliw kopalnych. Jednak nie kijem go, to pałką. W końcu wg klimatystów za te zmiany po prostu musi odpowiadać kapitalizm i rewolucja przemysłowa Jeżeli nie poprzez spalanie węgla, to może chociaż przynajmniej poprzez „zmianę sposobu użytkowania gruntów”, zwłaszcza wycinkę lasów, która wtedy w Wlk. Brytanii faktycznie przybrała na sile. Jednak tylko w Wlk. Brytanii.

Wylesienie na skalę globalną, faktycznie ruszyło, ale sto lat później, kiedy rewolucja przemysłowa z jednej strony znacznie zwiększyła zapotrzebowanie na drewno, z drugiej zaś umożliwiła jego masową wycinkę, poprzez zapewnienie zdatnych do tego celu maszyn, oraz taniego kolejowego transportu, którym ścięte pnie można było łatwo zawieźć do tartaków i fabryk. Aby zaś wycinać dżungle tropikalne, trzeba było jeszcze dodatkowo odkryć chininę. Wszystko to jednak już w XIX wieku. Globalne wylesienia są nieodłącznie skorelowane ze „spalaniem paliw kopalnych”, bo właśnie brak drewna i jego wysokie ceny wymuszają na gospodarce sięgnięcie po inne źródła energii.

W wieku XVIII, zarówno wydobycie węgla, jak i ograniczone do Wysp Brytyjskich i wschodniego wybrzeża dzisiejszych USA, wycinki lasów, były zbyt mizerne, aby w widoczny sposób zachwiać światowym bilansem C13/C12.

A gdyby jednak zachwiały, to analogicznej, ale znacznie silniejszej anomalii w rozkładzie tych izotopów, należałoby się spodziewać za czasów Sungów, w XI-XIII wieku. Niestety w wykresach izotopowych niczego podobnego zidentyfikować się nie da. Ba, klimatyści nawet nie widzą konieczności istnienia takiego zaburzenia, bo w ich pojęciu złowrogi dwutlenek węgla może produkować jedynie agresywna, chciwa, oparta na żądzy zysku i wyzysku cywilizacja Zachodu, natomiast w żadnej mierze cywilizacje niezachodnie, żyjące w pokoju, harmonii i ogólnej miłości.

Propaganda klimatystów jest zatem nie tylko nierzetelna, ale i wewnętrznie sprzeczna. Uczciwość intelektualna wymaga jednak rozważenia możliwości, że, niezależnie od tych błędów i przekłamań, negatywny wpływ antropogenicznych emisji CO2 na zmiany klimatyczne faktycznie mógłby istnieć. Czy rzeczywiście nie byłoby wtedy innej, niż zupa z brukwi, alternatywy?

Jednym z parametrów za pomocą których opisuje się ekosystemy jest tzw. produkcja pierwotna, czyli ilość biomasy, jaki dany biom wytworzy w procesie fotosyntezy w ciągu roku z jednostki powierzchni. Produkujące ową biomasę rośliny, czynią to głównie z wody i wychwytywanego z atmosfery dwutlenku węgla właśnie. W przeliczeniu na węgiel – C, produkcja pierwotna lasu strefy umiarkowanej, czyli naturalnego biomu dla Polski, wynosi ok 500 ton na kilometr kwadratowy. Zważywszy, że całkowite roczne emisje CO2 dla Polski wynoszą, w tych samych jednostkach, 84 mln ton, wystarczy 168 tys. km2 lasu, aby wchłonąć je całkowicie. Wymagałoby to zalesienia nieco ponad połowy powierzchni Polski. Zważywszy jednak na fakt, że taka Japonia, mająca trzykrotnie większą od Polski gęstość zaludnienia, jest zalesiona w ponad 60 %, nie jest to wskaźnik nieosiągalny. Oczywiście sam las nie wystarczy. W dojrzałym, tzw. klimaksowym, lesie, tyle samo CO2 ile jest pochłaniane, jest też uwalniane do atmosfery w procesie rozkładu materii organicznej. Dlatego, o ile las ten ma odgrywać rolę węglowego odkurzacza, wyprodukowaną w nim biomasę, występującą w 80% pod postacią drewna, należy usuwać. Jeżeli się nią następnie spali, to, co prawda wprowadzi się CO2 z powrotem do atmosfery, ale dzięki temu zmniejszy się emisję tego gazu z paliw kopalnych. W ostateczności można zaś takie drewno zatapiać, czy składować w wyrobiskach kopalnianych, albo w inny sposób wyłączać je z obiegu węgla w przyrodzie.

Jeszcze lepsze z tego punktu widzenia, są bagna i mokradła. Nie tylko cechują się ponad dwukrotnie wyższą od lasu produkcją pierwotną, ale i procesy rozkładu zachodzą w nich na tyle powoli, że związany w nich węgiel samorzutnie przekształca się najpierw w torf, a następnie, już w geologicznym okresie czasu, w węgiel brunatny. Jakaś kombinacja bagien i odpowiednio zagospodarowanych lasów na połowie powierzchni naszego kraju mogłaby zamienić Polskę w kraj zeroemisyjny bardzo niskim kosztem i w ciągu kilkunastu najwyżej lat.

Problem z antropogenicznym dwutlenkiem węgla, o ile w ogóle miałby istnieć, byłby jednak problemem nie polskim, a globalnym. W tym kontekście jego rozwiązanie byłoby jednak jeszcze prostsze. Patrząc na mapy produkcji pierwotnej w skali planety, łatwo dostrzeżemy dwa bardzo rozległe, łącznie zajmujące ponad połowę powierzchni Ziemi, a praktycznie nieproduktywne rejony. Pierwszy z nich to pas olbrzymich pustyń ciągnących się od marokańskiego wybrzeża Atlantyku po Azję Środkową. Drugi, jeszcze większy, to zdecydowana większość światowego oceanu, który, poza nielicznymi enklawami, jest jedną wielką biologiczną pustynią.

Aby osiągnąć wysoką produkcję pierwotną potrzeba bowiem czterech rzeczy. Światła słonecznego, wody, dwutlenku węgla oraz istniejących w postaci przyswajalnej dla roślin pierwiastków biogennych, fosforu, azotu, czy siarki. Na pustyniach lądowych brakuje wody. Na pustyniach oceanicznych, pierwiastków biogennych, przede wszystkim żelaza. Nawadniając pustynię i nawożąc oceany żelazem, możemy uzyskać znaczy wzrost produktywności tych obszarów, a tym samym ilości pochłoniętego przez nie CO2. Naturalnie wyprodukowaną w ten sposób biomasę należałoby z naturalnego obiegu węgla usuwać, co w przypadku oceanu następowałoby samoistnie, ale i w przypadku pustyń lądowych byłoby jedynie drobną niedogodnością.

Zakładając, że udałoby się produktywność tych obszarów podnieść do 200 ton C/km2, co na lądzie odpowiadałoby stepom, lub niezbyt intensywnie uprawianym polom uprawnym, a na oceanie tzw. strefie upwellingu, miejsca, w którym prądy morskie wynoszą substancje pokarmowe na powierzchnie, to do całkowitego pochłonięcia wszystkich obecnych światowych emisji CO2 wystarczyłoby 46 mln km2, czyli mniej więcej 9% powierzchni Ziemi.

Eksperymenty z nawożeniem oceanów są prowadzone już od lat 90 XX wieku, a ich wyniki jednoznacznie wskazują, że jest to proces potencjalnie bardzo wydajny i mogący z powodzeniem dwutlenek węgla z atmosfery usuwać. Nie należy się zatem dziwić, że klimatyści, o ile o roli ekosystemów lądowych w tym procesie wypowiadają się rzadko, niechętnie i zawsze negatywnie, o tyle, o potencjalnych możliwościach nawożonego oceanu – nigdy. Albo wcale zatem oni w wymyślone przez siebie zagrożenie straszliwym CO2 nie wierzą, albo, nie zamierzają owego problemu realnie rozwiązywać, a jedynie, pod tym pretekstem, narzucić społeczeństwu preferowane przez siebie rozwiązania polityczne, ekonomiczne i społeczne.

Apokalipsa nadchodzi. Jak zwykle.

Zestaw kolejowy Alstom EMU250, znany w Polsce jako „Pendolino” rozwija moc 5,7 MW, zabiera 402 pasażerów i osiąga prędkość 250 km/h. Nietrudno obliczyć, że, przewóz jednego pasażera na odległość 100 km wymaga 5,7 kWh energii elektrycznej. Pociągi podmiejskie mają parametry mniej wyśrubowane. Jeżdżący w barwach podwarszawskiej WKD zestaw EN100[39WE] ma moc 1,44 MW, prędkość maksymalną 80 km/h i mieści aż 505 pasażerów, w większości (2/3) na miejscach stojących. Przewóz 1 pasażera na 100 km kosztuje w nim zatem 3,6 kWh.

Samochody elektryczne są bardziej żarłoczne. Na przejazd 100 km zużywają 15-20 kWh, czyli dopiero przy przewozie 4 osób osiągają wyniki porównywalne z pociągami.

Prąd do napędzania tych pojazdów pochodzi oczywiście z elektrowni. Największa w Polsce elektrownia Bełchatów aby wytworzyć 1 kWh energii elektrycznej, spala 1,3 kg węgla. Brunatnego. Mniejsza elektrownia Turów jest bardziej wydajna i potrzebuje w tym celu zaledwie 1,1 kg węgla. Również brunatnego.

Ostatecznie, aby przewieźć jedną osobę na 100 km, pojazdy elektryczne, czy to pociąg, czy samochód, spalają od 4 do 24 kg węgla. Brunatnego.

Tymczasem samochody spalinowe spalają przeciętnie od 4 do 12 kilogramów paliwa na 100 km, średnio około dwukrotnie mniej niż pojazdy elektryczne.

A przecież porównaliśmy wyłącznie masę. Ze spalenia kilograma węgla brunatnego powstaje jednak znacznie więcej odpadów niż ze spalenia kilograma benzyny, zatem to właśnie pojazdy spalinowe są od elektrycznych wielokrotnie mniej szkodliwe dla środowiska naturalnego. W przypadku spalających 2-3 kg/100 km na pasażera paliwa samolotów, a zwłaszcza autobusów, w których przypadku ten parametr sięga 0,5 kg, różnica rośnie do kilkudziesięciu razy.

Nie ulega zatem wątpliwości, że lobbyści, którzy niezwykle agresywnie domagają się elektryfikacji transportu, bynajmniej nie robią tego w interesie ochrony środowiska, a tym bardziej w celu powstrzymywaniu jakiegoś wyimaginowanego globalnego ocieplenia, jak to gromko deklarują.

Moda na straszenie owym ociepleniem zdawała się już wygasać, jednak w ciągu ostatnich kilkunastu miesięcy jej wyznawcy znów niezwykle się zaktywizowali i zradykalizowali. Nieomylny to znak, że problemy, na których żerowali, są coraz bliższe realnego rozwiązania, a ekstremiści robią się coraz bardziej ekstremalni, bo te rozwiązania nie są po ich myśli.

O ile jeszcze kilkanaście lat temu, chętnie przyznawali oni, że kwestia ziemskiego klimatu jest złożona i skomplikowana i wpływa na niego wiele różnych, często zależnych też od siebie nawzajem, czynników, to z upływem czasu ich propagandowy przekaz uległ znaczącemu uproszczeniu i radykalizacji. Teraz za wszelkie zmiany klimatyczne na Ziemi, dzisiejsze, przeszłe i przyszłe odpowiada dwutlenek węgla – CO2 i tylko CO2. Sekta ociepleniowa opiera się dzisiaj na następujących dogmatach.

  1. Klimat na Ziemi się ociepla.
  2. Przyczyną tego ocieplenia jest, wynikająca z kapitalistycznej żądzy zysku i wyzysku, działalność człowieka.
  3. Tą działalnością jest spalanie paliw kopalnych i emitowanie CO2 bo ziemska temperatura zależy wyłącznie do stężenia CO2
  4. Skutkiem ocieplenia będzie globalna katastrofa, co najmniej zagłada ludzkiej cywilizacji, ale koniec życia na Ziemi też nie jest wykluczony.
  5. Żadne działania podjęte w ramach normalnej działalności ekonomicznej i politycznej nie mogą zatrzymać tej katastrofy

Zakwestionowanie w jakikolwiek sposób choćby jednego z tych dogmatów wystarczy do ogłoszenia kwestionującego heretykiem – „denialistą”. Dodatkowo trwa obecnie uzupełnianie listy o dogmat nr 6

  1. Jedynym ratunkiem jest drastyczna (rzędu 90%) redukcja ludzkiej populacji i/lub równie drastyczne ograniczenie im poziomu konsumpcji.

Jak to często bywa z sektami apokaliptycznymi, cechuje ich mizantropia, na którą składają się obojętność na głód, folgowanie makabrycznym fantasmagoriom o wyludnionej planecie i nazistowskie porównania ludzi do robactwa, patogenów i nowotworów, jak niezwykle celnie podsumował ich Steven Pinker.

Mimo jednak dziesięcioleci intensywnych i kosztownych dla podatników wysiłków, nauce do tej pory udało się jako tako uprawdopodobnić jedynie punkt 1 z tej listy. Klimat na Ziemi w ciągu ostatnich kilkudziesięciu lat prawdopodobnie faktycznie się ocieplił. Możliwe przyczyny tego zjawiska nadal jednak pozostają w obrębie słabo udokumentowanych hipotez.

Nawet sam związek pomiędzy zwiększeniem temperatury, a również rosnącym w tym samym czasie poziomem CO2 w atmosferze naszej planety nie jest wcale oczywisty. Owszem, gaz ten posiada pewne właściwości cieplarniane, to znaczy że zatrzymuje część promieniowania docierającego do powierzchni Ziemi nie pozwalając mu uciec w kosmos i tym samym podnosi ziemską temperaturę, ale te jego właściwości są zdecydowanie przeszacowane.

Wyznawcy „klimatyzmu” chętnie powołują się na przykład planety Wenus, która ma bardzo gęstą atmosferę złożoną w znakomitej większości z CO2 właśnie i równie potężny efekt cieplarniany czyniący ją najgorętszym, po Słońcu, miejscem w Układzie Słonecznym. Tak według nich będzie wyglądać Ziemia w niedalekiej już (ostatnio była mowa nawet o dwunastu latach) przyszłości. Wolą oni nie zauważać, że wokół Słońca krąży jednak więcej planet. W atmosferze Marsa, przykładowo, mimo że jest ona bardzo mizerna, dwutlenku węgla jest i tak prawie pięćdziesięciokrotnie więcej niż w atmosferze Ziemi. A efekt cieplarniany, jeżeli w ogóle występuje, to jest co najmniej dwudziestokrotnie od ziemskiego słabszy. Potrzeba zatem naprawdę olbrzymich koncentracji tego gazu, takich jak na Wenus, gdzie jest go z kolei setki tysięcy razy więcej, żeby jakikolwiek zauważalny wzrost temperatury nastąpił.

Tymczasem, zawartość dwutlenku węgla w ziemskiej atmosferze wzrosła w ciągu ostatnich 60 lat z 300 do 400 ppm (cząsteczek na milion). Jeżeli jednak popatrzeć przez pryzmat Marsa i Wenus, to dynamika ta jest o wiele za niska, żeby wytłumaczyć jednoczesny wzrost temperatury. Przyczyną tego ostatniego zjawiska, jeżeli faktycznie ono zaszło, musiało być coś innego, być może zupełnie innego.

Klimatyści mają zresztą ze swoim węglowym antychrystem wiele innych problemów. Zgodnie z dogmatem nr 3 przyczyną zmian temperatury mogą być tylko i wyłącznie zmiany w stężeniu CO2. Zatem także okresy wyjątkowego chłodu, jak niedawne geologicznie plejstoceńskie zlodowacenia, muszą mieć takie właśnie wytłumaczenie. Stężenie dwutlenku węgla miałoby wtedy spadać nawet poniżej 200 ppm. Ta argumentacja nie trzyma się jednak przysłowiowej kupy. Atmosferyczny CO2 bowiem nie tylko uczestniczy, w niewielkim stopniu, w podgrzewaniu powierzchni Ziemi, ale przede wszystkim reguluje przebieg jednego z najważniejszych procesów biologicznych – fotosyntezy.

Wśród porastających naszą planetę roślin istnieją trzy rodzaje tejże fotosyntezy.

– Fotosynteza CAM występująca głównie u roślin pustynnych, Potraktujemy ją jako ciekawostkę, nas interesować będą bowiem dwa inne jej rodzaje.

Fotosynteza C3 i C4. Różnią się one od siebie zapotrzebowaniem na wodę – C4 jest bardziej pod tym względem oszczędna, ale również, co szczególnie istotne, zapotrzebowaniem na dwutlenek węgla. Fotosynteza C4 radzi sobie lepiej z jego niskimi stężeniami. Konsekwencją tych dwóch różnic jest fakt, że rośliny C3 mają wobec roślin C4 przewagę ewolucyjną w niższych temperaturach i wyższych stężeniach CO2, a rośliny C4 na odwrót. W okolicach stężenia CO2 w wysokości 200 ppm rośliny C4 mają zaś już przewagę niezależnie od wysokości temperatury. Oczywiście rośliny C3 jeszcze sobie w takich warunkach radzą, a giną dopiero po spadku poniżej 150 ppm. W ewolucji jednak nie wystarczy po prostu sobie radzić. Trzeba jeszcze radzić sobie lepiej niż konkurenci. Gdyby zatem stężenie CO2 w powietrzu utrzymywałoby się w plejstocenie poniżej 200 ppm, jak głoszą dogmaty klimatyzmu, roślinność C3, a wśród niej żyto i pszenica, nie mówiąc już o dębach, czy brzozach, zostałaby wyparta przez konkurentów C4 , byc może nawet całkowicie. Za kazdym kolejnym glacjałem, flora C3 przechodziłaby przez swoiste „wąskie gardło” ewolucyjne. Po kilku takich epizodach niewiele by z niej zostało, nawet gdyby w czasie interglacjałów stężenie CO2 znów chwilowo rosło. Rośliny C3 mogłyby odbudować częściowo swoją liczebność, ale na pewno nie bioróżnorodność. Doszłoby do zagłady praktycznie wszystkich roślin C3 i triumfalnego pochodu C4 przez wszystkie kontynenty. Dzisiaj znalibyśmy C3 wyłącznie z wykopalisk lub, co najwyżej, jakichś endemicznych stanowisk. Oczywiście nic podobnego nie miało miejsca. Rośliny C3 nadal dominują na Ziemi, zarówno pod względem różnorodności, liczebności, jak i biomasy. Ekspansja roślin C4, owszem trwała od oligocenu, ale nieregularnie i w sposób geograficznie nieskoordynowany, a to ostatnie nie miałoby miejsca, gdyby przyczyną ich sukcesów był właśnie niski poziom CO2 w powietrzu.

No dobra, prawdą jest, tezy o absurdalnie niskich, poniżej 200 ppm poziomach stężeń CO2 w plejstocenie klimatyści nie wymyślili sami. Pochodzi ona z badań pęcherzyków powietrza uwięzionych w grenlandzkich i antarktycznych lądolodach, z tzw. rdzeni lodowych. Fakt jednak, że zmierzone w ten sposób stężenia są w oczywisty sposób za niskie, świadczy jedynie o tym, że te badania są po prostu obciążone jakimś niezidentyfikowanym do tej pory błędem systematycznym. Istnieje zatem jakiś proces, chemiczny, mechaniczny, czy biologiczny, który obniża zawartość CO2 w uwięzionym w lodzie powietrzu właśnie do takiej niskiej wartości.

Ten sam problem dotyczy stężeń CO2 nie tylko z okresu zlodowaceń, ale także z okresu przedprzemysłowego. Bo również wtedy, według dogmatów klimatystów stężenie CO2 miało być znacznie niższe od dzisiejszego, rzędu 250 ppm i zaczęło rosnąc dopiero od początku XIX wieku, wraz z rozwojem rewolucji przemysłowej. Gdyby tak było, punkt równowagi C3-C4 w ciągu minionych 200 lat przesuwałby się gwałtownie w stronę C3. Drzewa, mają, rzecz jasna, zbyt długi cykl życiowy, by zmiany były widoczne, ale rośliny jednoroczne już by zareagowały (to w końcu ponad 200 ich pokoleń) i botanicy powinni zaobserwować trwającą od XIX wieku zmianę w rozkładzie ich gatunków – wzrost liczebności C3 kosztem C4. Ponownie, nawet jeżeli tak było, nikt tego nie zauważył.

Problem z przeszłymi, geologicznie, czy historycznie, stężeniami CO2, jest tylko częścią szerszego problemu, jaki sekciarze mają z jakimikolwiek danymi ilościowymi. Rytualnie bowiem, dane pochodzące z różnych okresów, zbierane bardzo różnymi metodami i przy pomocy czasami drastycznie różnych metodologii, usiłują oni na siłę dopasować do siebie i scalić w jedno. Rezultaty bywają rozmaite, ale zawsze nierzetelne, jak np. słynne „kije hokejowe”, mające pokazywać rzekomo drastyczny wzrost, czy to temperatury, czy to stężenia CO2 w ostatnich dziesięcioleciach w  porównaniu z epokami poprzednimi. Kije będące niczym innym, jak tylko metodologicznymi artefaktami takich siłowych dopasowań. Dane „niedopasowane” bowiem, nijak dogmatów klimatystów nie potwierdzają. W źródłach wydanych przed narodzinami klimatyzmu można znaleźć informację, że np. stężenie CO2 wynosi …600 ppm (rok 1937), albo że średnia temperatura Ziemi wynosi …16 stopni Celsjusza. (1972) – obie wartości znacznie wyższe od podawanych obecnie. Dane te nie były błędne, tylko zmierzone innymi metodami niż współcześnie i w związku z tym, obarczone innymi błędami. Tyle, że nie zostały wtedy jeszcze dopasowane do danych współczesnych.

Osobną kwestią jest też umieszczanie na podawanych przez sektę do wierzenia malunkach, bo przecież nie są to w żadnej mierze spełniające wymogi naukowej rzetelności wykresy, nie tylko danych przeszłych, niezależnie od tego jak bardzo wątpliwych, ale także danych …przyszłych, traktowanych z takim samym poziomem miarodajności i epatowanie publiki, że „temperatura do końca stulecia wzrośnie o 2, 4, 6, 8 w zależności od fantazji piszącego, stopni, że stężenie CO2 wzrośnie do 1000, albo i 2000 ppm, że kury przestaną się nieść, a krowy dawać mleko. Fałszywe proroctwa, oparte o najprostszą, liniową ekstrapolację wielkości mierzonych współcześnie, podczas gdy rzeczywistość fizyczna  na pewno liniowa nie jest.

Realnie, z ekonomicznego, społecznego i środowiskowego punktu widzenia, odejście od paliw kopalnych i „dekarbonizacja” gospodarki jest procesem pożądanym, jednak z innych, niż rzekomo wywoływane przez nie ocieplenie, powodów. Proces ten rozpoczął się zresztą już w połowie lat 70 XX wieku, na długo przed wybuchem ociepleniowej histerii. W ciągu kolejnych 20 lat udział paliw kopalnych w ziemskiej energetyce spadł z 94 do 87 procent. Powstanie w latach 90 sekty klimatycznej, nie przyśpieszyło, jakby się mogło wydawać, ale przeciwnie – opóźniło ten trend. Przez kolejne dwie dekady odsetek tkwił w miejscu i dopiero w ostatnim dziesięcioleciu znów ruszył w dół osiągając 84% w 2017 roku. Gdyby nie klimatyści więc, dzisiaj paliwa kopalne dawałyby już tylko 77% światowej energii i zarówno poziom emitowanych przy ich eksploatacji zanieczyszczeń, jak i politycznie szkodliwe wpływy ich dostawców byłyby proporcjonalnie mniejsze.

Niniejszy artykuł opublikowano w 1495/1496 numerze „Najwyższego Czasu”

Pan Samochodzik i mroczne tajemnice

– Baśka – szepnąłem do chłopca
– Słucham – usłyszałem jego szept
-Przysuń się do mnie
Zrobił kilka ruchów ciałem i znalazł się obok mnie.
Ja również poruszyłem się w ten sposób,
że swoimi plecami oparłem się o jego plecy
Ręce miałem związane z tyłu w przegubach…
ZBIGNIEW NIENACKI

Okres PRL, lata 1944-1989, był chyba, pisząc bez żadnej przesady, najgorszym okresem w historii Polski. Chyba żeby uwzględnić bezpośrednio poprzedzający go okres nazistowskiej okupacji, ale ten trwał o wiele krócej, w dodatku było oczywiste, że panują wtedy warunki wojenne, z definicji tymczasowe, nienormalne i przejściowe.

PRL zaś, rozsiewając ułudę normalności i stałości, oraz głosząc się ostatecznym ukoronowaniem polskich dziejów, był czymś gorszym nawet od rozbiorów. Wtedy bowiem, ziemie polskie, chociaż podzielone, rozwijały się w tempie zbliżonym do innych krajów europejskich, a sami Polacy – obywatele krajów zaborczych, żyli w warunkach prawnych i ustrojowych takich samych jak mieszkańcy wszystkich innych krajów, także tych najbardziej ówcześnie rozwiniętych i cywilizowanych. Doświadczali czasami Polacy dyskryminacji narodowej, czy religijnej, ale nie ekonomicznej czy cywilizacyjnej. W rezultacie powstała po 1918 roku II RP była krajem, co prawda, bardzo biednym, ale normalnym, inaczej niż w 1989 roku, wolnym od Homo sovieticus i nie zdemoralizowanym dwoma pokoleniami komunistycznej  gospodraki.

PRL nie pozostawiła po sobie literalnie niczego dobrego, czy choćby znaczącego lub godnego uwagi. Ani na polu gospodarczym, ani naukowym, ani nawet kulturalnym. Cokolwiek wartościowego powstało w okresie PRL, powstało nie dzięki niemu, a pomimo, a nawet wbrew PRL. Twórcy najbardziej nawet popularnych filmów, seriali, czy poczytnych powieści, którzy w normalnym kraju, dzięki tym dokonaniom, zostaliby bogaczami, w PRL klepali równo biedę jak wszyscy inni. Nie tylko dysydenci, ale także autorzy jak najbardziej pokorni, tworzący „po linii” i będący „na bazie”, czy gwiazdy najbardziej prawomyślnych propagandowych seriali, w rodzaju „Czterech pancernych”, czy „Stawki większej niż życie”,  nie mogli liczyć nawet na takie zarobki, jakie w krajach normalnych były udziałem niewykwalifikowanych robotników. Tą jedną obietnicę udało się PRL spełnić. Wszyscy, nawet teoretycznie uprzywilejowani najwyżsi partyjni dygnitarze, w stosunku do krajów normalnych, byli równi w powszechnej nędzy.

Jednym z takich, dyspozycyjnych wobec reżimu, a zarazem popularnym i poczytnym twórcą był Zbigniew Nowicki piszący pod pseudonimem Nienacki. Typowo dla PRL, ani talent, ani popularność wśród czytelników, ani nawet wysoce prawomyślne poglądy polityczne, nie zapewniły mu jednak sukcesu materialnego. To, że zamierza mu i jego twórczości, niżej podpisany poświęcić osobny esej, świadczy jednak też o tym, że okazał się Nienacki, inaczej niż wielu mu współczesnych piewców PRL, pisarzem ponadczasowym.

Najwybitniejszym literackim dokonaniem Nienackiego, jest bez wątpienia traktująca o początkach państwa polskiego i do dzisiaj nie mająca w tej kategorii konkurentów, powieść z pogranicza historii i praktycznie nieobecnego wtedy w Polsce, fantasy „Dagome iudex”. Jest to jednak dzieło, które, choć gdyby było wydane kilka lat wcześniej lub później, z pewnością zrobiłoby furorę, to fatalnym zbiegiem okoliczności przepadło bez większego echa.

Pozostał więc Nienacki znany przede wszystkim jako autor „powieści dla młodzieży”, jak zwykło się określać serię o przygodach „Pana Samochodzika”, bohatera, będącego w znacznej mierze alter ego samego autora. Początkowo dziennikarza, później kogoś w rodzaju detektywa rozwiązującego zagadki kryminalno – historyczne. Seria ta, rozpoczęta zresztą dosyć przypadkowo, powstawała w latach 1957-1985 i ostatecznie objęła piętnaście „kanonicznych” (bo po śmierci autora pojawiły się też liczne apokryfy) pozycji od „Uroczyska” do „Człowieka z UFO”. W przeciwieństwie do innej tego typu, popularnej w PRL, a dziś kompletnie zapomnianej, literatury, Pan Samochodzik nie tylko utrzymuje swoich starych wielbicieli, ale nadal zdobywa nowych. Takich, którzy PRL pamiętają tylko z opowieści rodziców, czy nawet dziadków, co, zważywszy na bardzo silne osadzenie powieści w tamtejszych realiach, realiach dzisiejszemu czytelnikowi całkowicie obcych, niezrozumiałych i wręcz przerażających, jest fenomenem zdumiewającym.

Wiąże się z tym paradoksalne zjawisko, na które uwagę zwrócił ostatnio autorowi niniejszego eseju, jeden z takich świeżo zwerbowanych dziesięcioletnich fanów. Dlaczego mianowicie Pan Samochodzik, a właściwie jego twórca, tak bardzo afirmuje (nie użył dokładnie tego słowa) PRL, choć przecież zarówno sam Nienacki, jak i Pan Tomasz, jak Samochodzik ma na imię, pomimo swoich niewątpliwych talentów i osiągnięć, żyli biednie i nie mogli się w związku z tym uważać za jego beneficjentów?

Sukces i zadziwiająco długie trwanie w przestrzeni czytelniczej samochodzikowego cyklu nie odbyło się przecież dzięki zawartym w nim peanom na cześć PRL, ale pomimo tego ideologicznego wsadu. Poparcie Pana Samochodzika i jego autora dla rządzącego reżimu było zatem z pewnością szczere, a nie tylko koniunkturalne.

Rozwiązanie tego paradoksu jest ściśle związane z najbardziej perfidnym, podstępnym i przewrotnym elementem PRLowskiej propagandy – jawną opcją antyniemiecką. Na generacjach urodzonych, tak jak Nienacki i jego o kilka lat młodszy bohater, przed mniej więcej 1940 rokiem, czas wojny i okupacji, w trakcie której Polska otarła się o całkowitą biologiczną anihilację, czas, w którym zginęło lub zostało wymordowanych ponad 6 milionów Polaków, na zawsze odcisnął swoją niezatartą traumę. Nie należy się dziwić, że w porównaniu z nazistowską polityką totalnej zagłady, nawet dziadostwo PRL mogło się wydawać atrakcyjne. A perspektywa powrotu Niemców była najgorszym koszmarem jaki naszym dziadkom śnił się po nocach. I reżim PRL cynicznie wykorzystując tą traumę, potrafił wielu, skądinąd rozsądnych ludzi, przekonać, że stanowi on jedyną barierę przed powtórzeniem drugowojennych doświadczeń. Że w przypadku upadku komunizmu w Polsce, niemieccy (oficjalnie tylko zachodnioniemieccy) rewanżyści wrócą po swoje i swojego krwawego dzieła dokończą. Jechanie na antyniemieckim wózku było tak skuteczne, że na jakiekolwiek próby wykolejenia go, jak np. słynny list biskupów, reżim reagował niesłychaną furią. Nawet próby przypominania, że Niemcy nie zawsze byli wrogiem Polski, były przez reżim bardzo niemile widziane. Obowiązywała narracja o „odwiecznym agresywnym Drang nach Osten”, przed którym dopiero komuniści po tysiącach lat krwawych zmagań postawili zaporę, a która by zniknęła, gdyby komunistów zabrakło.

Sam Nienacki, inaczej niż wielu jego ówczesnych kolegów po piórze i propagandzie, wolny jest od nacjonalistycznych uprzedzeń. Nie brzydzi go używanie przez jego bohatera języka niemieckiego, a podział na dobrych i złych nie pokrywa się z podziałem narodowościowym. Zważywszy na fakt, że było to w czasach, kiedy lansowano pisownię „niemiec” i „niemców” z małej litery, a do końca lat 70 istniał cenzuralny „zapis” na jakiekolwiek publiczne odtwarzanie muzyki … Wagnera, to już bardzo dużo. Strach jednak przed niemieckim rewanżyzmem jest w samochodzikowym cyklu wyraźnie obecny. Najbardziej złowrodzy zaś jego przedstawiciele, niczym tolkienowski Sauron, wysyłają do Polski swoich Czarnych Jeźdźców (w fordzie taunusie), ale nie pojawiają się w powieści osobiście. Zło ukryte i przestrzennie oddalone, jest znacznie bardziej złowrogie niż spotkane osobiście zło uosobione w żywym człowieku. Nienacki wiedział to równie dobrze, jak Tolkien.

Określając wyżej serię „powieściami dla młodzieży” nie bez powodu użyto cudzysłowu. Wbrew bowiem brzmiącej infantylnie nazwie i powierzchownemu wrażeniu, „samochodziki” „powieściami dla młodzieży” bynajmniej nie są, a przynajmniej nie są nimi wyłącznie. Wystarczy bowiem zauważyć, że „literatura młodzieżowa”, z natury rzeczy wymaga młodzieżowych bohaterów, z którymi nastoletni „target” czytelniczy mógłby się łatwo utożsamić. Tymczasem w „Samochodzikach” tacy bohaterowie, owszem, pojawiają się, ale po bynajmniej nie we wszystkich książkach. I, jak jeszcze będzie o tym mowa, Nienacki umieścił ich w fabule nie tylko po to, aby zachęcali swoich rówieśników do lektury.

Również poziom brutalności, z morderstwami (Uroczysko, Wyspa Złoczyńców), bądź choćby próbami zabójstwa (Templariusze) włącznie, daleko wykracza poza to, co w ówczesnej literaturze młodzieżowej można znaleźć.

Kolejnym elementem nie pasującym do młodzieżowego „emploi”, jaki się rutynowo do „Samochodzików” przypina, jest …seks. Sam Mistrz, w pozostałej swojej twórczości, od dosadnych, ocierających się wręcz o pornografię, opisów zbliżeń damsko – męskich czytelnikom bynajmniej nie szczędził. Ale akurat w „Samochodzikach”, takich dosłownych scen oczywiście nie znajdziemy. Niemniej jednak, tytułowemu bohaterowi praktycznie w każdej powieści towarzyszą co najmniej dwie atrakcyjne fizycznie postacie kobiece i napięcie erotyczne pomiędzy nimi a Panem Tomaszem jest bardzo wyraźnie (dla dorosłego czytelnika – niżej podpisany kiedy po raz pierwszy zapoznał się z cyklem jako dwunastolatek, tego nie zauważył) zaznaczone. Silniejsze w pierwszych powieściach „Uroczysku” i „Skarbie Atanaryka”, słabnie nieco w najbardziej „umłodzieżowionej” części środkowej serii gdzie przykładowo relacje Tomasza z Barbarą Wierzchoń w „Niesamowitym Dworze” są prezentowane jako praktycznie wyłącznie służbowe. Słabo kamuflowany erotyzm wraca jednak ze zdwojoną mocą w ostatnich pozycjach, w których konsumpcja flirtu z Lady Elisabeth („Winnetou”), Gretą Herbst („Niewidzialni”), czy Bajeczką („Złota Rękawica”) jest zasugerowana tak dobitnie, jak tylko się to, bez przesunięcia powieści do kategorii „dla dorosłych”, dało.

Postacie drugoplanowe, żeńskie i męskie, pozytywne i negatywne, są zresztą bardzo mocnym punktem serii. Wyraziste, wielowymiarowe, łatwo zapadają w pamięć czytelnika. Mając wyjątkowy talent do ich kreowania, unika też Nienacki ich zużycia, pozbywając się ich, kiedy przestają być fabularnie potrzebni, do czego niewielu pisarzy jest zdolnych. Co najwyżej zgrane już postacie pojawiają się incydentalnie, bądź są tylko później wspominane.

Na poniższym wykresie pokazano rozkład, innych niż tytułowy, bohaterów „Pana Samochodzika” w zależności od ilości pojawień się w powieściach z cyklu. Za „pojawienie się” uznano najmniejszą choćby wzmiankę o danej postaci.

pansam 01

Trzynastu bohaterów, w tym pies Protazy, pojawia się w serii, w sensie wyżej zdefiniowanym, dwukrotnie, pięciu trzykrotnie, czterech czterokrotnie, a pojedynczy nawet po osiem (dyrektor Jan Marczak) i dziesięć (wuj Stefan Gromiłło) razy. Ostatnim, najczęściej, bo jedenastokrotnie, występującym bohaterem jest oczywiście sam, skonstruowany przez wzmiankowanego wuja, wehikuł, któremu Pan Tomasz zawdzięcza swój przydomek.

Wykres zawiera jeszcze jedną informację. Gdyby bohaterowie zjawiali się w świecie samochodzikowym, tak jak w realnym życiu, w sposób losowy, wówczas ich rozkład miałby charakter wykładniczy, zilustrowany niebieską krzywą. Gołym okiem jednak widać, że rozkład jednak daleko od wykładniczego odbiega i znacznie lepiej pasuje tu rozkład potęgowy. Prawdopodobieństwo zatem pojawienia się jakiejś postaci nie jest stałe, ale zależy od liczby pojawień się w przeszłości. Im więcej razy ktoś już występował w powieściach, tym większa szansa, że pojawi się w kolejnej. Umysł ludzki, także umysł twórcy – pisarza nie jest zdolny do generowania pełnej losowości i ma jednak do swoich kreacji pewien sentyment. Im dłużej taką postać prowadzi, tym trudniej mu się z nią rozstać, kiedy wymogi kreacji literackiej tego zażądają. Nawet dysponujący niezwykłą łatwością generowania bohaterów Nienacki nie do końca, jak pokazuje to czerwona krzywa, potrafi oprzeć się temu zjawisku.

Często wśród fanów pisarza można zetknąć się z poglądem, jakoby Nienacki, nie mając trudności z powoływaniem do życia krwistych bohaterów, napotykał jednak problemy z wymyślaniem im …nazwisk. Istotnie, na pierwszy rzut oka, wiele osób występujących w „samochodzikach” nazwisk nie posiada, lub wręcz określanych jest samym inicjałem, jak Henryk S „Dryblas” z „Uroczyska”, czy „doktor W” z „Księgi strachów” i „Tajemnicy tajemnic”, czy wreszcie sam Pan Samochodzik osobiście, przedstawiony jako „Tomasz N.N.”.

Jeżeli jednak przyjrzymy się tym nazwiskom bohaterów bliżej, odkryjemy, że sprawa bynajmniej nie jest taka prosta i oczywista. W końcu, nawet w czasach sprzed powstania Internetu, znalezienie dla wymyślonych postaci jakichś dobrze brzmiących nazwisk nie stanowiłoby żadnego problemu. Internetu nie było, ale były książki telefoniczne z dziesiątkami tysięcy, jak najbardziej autentycznych nazwisk, do wyboru, do koloru.

  Naturalnie trudno byłoby oczekiwać, że szczegółowo personalnie zostanie przedstawiona osoba z bardzo dalekiego tła powieści, dlatego skupimy się wyłącznie na bohaterach drugoplanowych. Takim bohaterem będzie zatem człowiek (psy i samochody, które uwzględniliśmy na pierwszym wykresie, nazwisk bowiem z definicji nie mają), który w danej powieści pojawia się, niekoniecznie osobiście, co najmniej trzykrotnie i w jakiś sposób wpływa na przebieg fabuły.

Naszą  analizę problemu nazwisk zaczniemy, z przyczyn które później staną się oczywiste, od bohaterów męskich. Takich drugoplanowych, w sensie wyżej zdefiniowanym, postaci tej płci, znajdziemy w piętnastu powieściach cyklu łącznie osiemdziesięciu dwóch. Od Stefana Nemsty do don Pedro de Aristizabela. Jest wśród nich 56 Polaków i 26 cudzoziemców. Kiedy zbadamy kwestię ich nazwisk, odkryjemy pewną asymetrię. Prawdopodobieństwo że nazwisko będzie miał bohater narodowości polskiej wynosi 41%. W przypadku bohatera cudzoziemca, odsetek ten wzrasta do 67%. Różnica może się nie wydawać wielka, ale jest istotna statystycznie, a zakresy błędu nie zachodzą na siebie.

Gdyby Nienacki faktycznie miał jakieś psychiczne zahamowania, czy problemy w nadawaniu wykreowanym postaciom nazwisk, oczekiwalibyśmy raczej zależności odwrotnej. Dobre nazwisko zagraniczne, zwłaszcza w realiach PRL, wymyślić było przecież trudniej niż nazwisko polskie. Mamy więc do czynienia nie z niemocą twórczą, ale raczej z celowym, co jednak nie oznacza koniecznie że świadomym, zamiarem autora. Ostatnie zastrzeżenie jest istotne, bo, jak się jeszcze okaże, należy wątpić, żeby Nienacki przekazując przyszłym pokoleniom te informacje, chciał to na pewno uczynić świadomie.

Następną analizowaną grupą bohaterów są …nieboszczycy. Ci, którzy w momencie trwania akcji powieści opuścili już ziemski padół, ale naturalnie nadal wpływają jakoś zza grobu na przebieg akcji. Takich postaci jest trzynaście, w tym jedna kobieta – Anna von Dobeneck z d. Gottlieb z „Niewidzialnych”. I, co za niespodzianka, dokładnie wszyscy oni (100%) noszą przypisane sobie nazwiska.

Łącząc te przypadki można chyba zaryzykować hipotezę, że decyzja o przydzieleniu, bądź nie, jakiemuś bohaterowi nazwiska wynikała ze swoiście przez Mistrza pojętej ochrony danych osobowych. Wiadomo skądinąd, że Nienacki w swojej twórczości często portretował ludzi autentycznych, sobie znajomych. Jednak nie każdemu taki rodzaj sławy i unieśmiertelnienia odpowiada. Osoby, których książkowe alter-ego zbyt już przypominało rzeczywiste, a równocześnie miały okazję do częstych kontaktów z autorem i mogły w związku z tym zgłaszać mu, słowem i czynem, przeróżne pretensyje, zostały więc przez autora nazwiska pozbawione. Stąd nadreprezentacja nazwisk wśród cudzoziemców, i, jeszcze większa wśród, nie mających już szans na zgłoszenie sprzeciwu – nieboszczyków. Im bliższe zatem pierwowzór jakiejś postaci utrzymywał kontakty z twórcą, tym mniejsza była szansa, że dostanie owa postać nazwisko, choćby nawet zmyślone.

Zróbmy teraz kolejny krok w naszym rozumowaniu i przejdźmy do bohaterów płci żeńskiej. Tutaj nie tylko znajdziemy podobną asymetrię, ale też asymetrię znacznie od męskiej głębszą. Samochodzikowe kobiety podzielimy nie, jak mężczyzn, na dwie, ale na trzy grupy. Oprócz Polek (24) i cudzoziemek (8) wydzielimy dodatkową kategorię „starych bab”, które wiek atrakcyjności seksualnej mają dawno za sobą. Takich matron, jak stara Rzyndowa ze „Skarbu Atanaryka”, czy księża gospodyni z „Templariuszy” znajdziemy u Nienackiego 10. Odsetek pań noszących nazwiska wynosi zaś, w przypadku starych bab, 70%, 63% w przypadku cudzoziemek i zaledwie …16,7% w przypadku Polek w wieku, nazwijmy to, „łożnicowym”. Dysproporcja ta jeszcze się powiększy, jeżeli przyjrzymy się tym 4 (z 24) kobietom w tej ostatniej populacji. W dwóch przypadkach, czyli Hanki, „córki starego Kondrasa” z „Wyspy Złoczyńców”, oraz Marii Wojtczak, „Krwawej Mary” z „Winnetou”, ich nazwiska poznajemy tylko dzięki ich pokrewieństwu z kimś innym. Barbara Wierzchoń, z „Niesamowitego Dworu”, jak już wspomniano, jest ze wszystkich tych pań najmniej „zseksualizowana”. I właściwie jedynie Pani Księżyc ze „Złotej Rękawicy” jest przedstawiona w sposób wręcz, jak na Nienackiego, przesadny – jako Joanna Ziębicka, primo voto Gromska, secundo voto Lejwoda.

Rozszerzając hipotezę, którą postawiliśmy przy okazji analizowania populacji męskich bohaterów uwzględniwszy, że różnice nazwiskowe w przypadku kobiet są znacznie większe, dodając znane fakty z biografii pisarza, dojdziemy do raczej jednoznacznej konkluzji. Bohaterki opisywane przez Nienackiego są w znakomitej większości wzorowane na paniach, które Nienacki osobiście znał nie tylko w tego określenia sensie potocznym, ale także w sensie …biblijnym. Są to panie, które w różnym zapewne czasie, miały zaszczyt być Mistrza muzami. A potraktowana wyjątkowo i w dodatku wielce złośliwie, Pani Księżyc, albo wyjątkowo zalazła pisarzowi za skórę, albo wręcz przyjęcia owego zaszczytu, jako jedyna ze sportretowanych w cyklu – odmówiła. Względnie, w łagodniejszej wersji, ona jedna z nich wszystkich jest postacią od a do z wymyśloną.

Dalsza część eseju staje się coraz mroczniejsza, ale skoro powiedzieliśmy już A i B, to konsekwentnie będziemy brnąć w kolejne litery alfabetu. Seria samochodzikowa uchodzi, jak już wyżej uzasadniano, niezupełnie słusznie, za twórczość dla młodzieży. I oprócz osób pełnoletnich, pojawiają się w niej też bohaterowie młodzieżowi. Także oni mają swoje nazwiska. Albo …nie mają.

Kolejną analizowaną grupą są zatem nastolatki płci żeńskiej. Nieletnich bohaterek pojawia się w „Samochodziku” 10, co nie jest zbyt dużą liczebnie próbą, ale wynik jest i tak jednoznaczny. Po tradycyjnym odliczeniu dziewczynek zza granicy, czyli Yvonne, baronessy de Saint-Gatien z „Fantomasa”, oraz Ludmiły Dohnalovej z „Tajemnicy tajemnic”, tylko Lucyna Krystyna „Kika” Dołęgowska ze „Złotej Rękawicy” jest, tak samo jak omawiana już Pani Księżyc z tego samego tomu, podejrzanie przesadnie przedstawiona. Odsetek polskich nastolatek z nazwiskami wynosi więc 12,5%, czyli jeszcze mniej niż w przypadku kobiet dorosłych, chociaż oczywiście ze względu na znacznie szczuplejszą populację, zakres błędu jest tu większy. Co więcej, znów odwołując się do biografii Nienackiego, wiemy, że przynajmniej Marta „Kapitan Nemo” jest na pewno wzorowana na autentycznej osobie, faktycznie będącej nieletnią kochanką pisarza. Jak jednak wynika z analizy statystycznej – nie tylko ona.

Informacje o predylekcji Mistrza do niepełnoletnich dziewcząt krążą zresztą wśród osób w jakiś sposób interesujących się jego życiem i twórczością, od dawna, zatem do tej pory w tym eseju wyważaliśmy raczej otwarte drzwi. Pora jednak przejść do drzwi zamkniętych. Z bohaterów drugoplanowych „Pana Samochodzika”, omówiliśmy już dorosłych mężczyzn, dorosłe kobiety, oraz nieletnie dziewczęta. Co nam zostało? Ano nieletni chłopcy. Jest ich w sumie dziewiętnastu. Po zwykłym odliczeniu jedynego obcokrajowca w tym gronie, Roberta Duranta z „Fantomasa”, zostaje osiemnastu, w tym tylko dwóch z nazwiskami. Antoni Wasiak z „Niesamowitego dworu” i Piotr „Psycholog” Gromski ze „Złotej Rękawicy”. Stanowią zatem oni zaledwie 11% tej grupy. Jest to wskaźnik jeszcze niższy niż w przypadku dziewcząt, nie mówiąc już o dorosłych kobietach.

Autorowi tego opracowania, jako, było nie było, fanowi twórczości Nienackiego, rezultat tych obliczeń wyjątkowo nie przypada do gustu, ale w końcu Amicus Plato, sed magis amica veritas. Odkrycie, że Mistrz adorował nie tylko kobiety, niechby i nieletnie, ale także, choćby w tak ścisłej dyskrecji, że żadne plotki od tego nie urosły, nieletnich chłopców, może rzucić na Nienackiego i jego twórczość nowe światło. Światło jednak tego rodzaju, który niżej podpisany wolałby nigdy na oczy nie oglądać.

Hipoteza wiążąca „problem nazwiskowy” w twórczości pisarza z jego upodobaniami erotycznymi może wydawać się zbyt śmiała, a same wartości procentowe i ich korelacja ze znanymi faktami i osobami z biografii Nienackiego, niekoniecznie przekonywujące. Wątpliwości jednak radykalnie maleją, kiedy te dane przedstawi się w postaci graficznej. Na poniższym wykresie zaprezentowano, w kolejności malejącej i w podziale na omówione wyżej kategorie, prawdopodobieństwo nadania jakiemuś drugoplanowemu bohaterowi nazwiska. Pomarańczowe paski pokazują zakres błędu, obszar, w którym dana wartość mieści się z prawdopodobieństwem 95%. Swoisty „uskok erotyczny” jest tu widoczny w sposób bardzo wyraźny.

pansam 02

Gdyby stworzyć ranking polskich literatów według stopnia ich niedocenienia, Zbigniew Nienacki na pewno znalazłby się blisko czołówki. Jako twórca miał wręcz wyjątkowego pecha. Najwybitniejsza jego powieść przeszła całkowicie bez echa. Hołubiona przez niego prlowska władza dopilnowała, aby mimo gigantycznej popularności wśród czytelników, żył w biedzie, jak na prawdziwego patriotę PRL przystało. Mimo, że jego powieści są praktycznie gotowymi scenariuszami, to ekranizacje, jakie powstały, były, głównie z powodu typowego dla PRL skąpstwa środków realizacyjnych, w najlepszym razie (Wyspa Złoczyńców, Templariusze) przeciętne, w najgorszym – koszmarne. Wreszcie zmarł Nienacki dokładnie w chwili, kiedy jego talent mógł mu wreszcie zacząć przynosić realne profity materialne. Wszystko to skłania do twierdzenia, że ewidentnie nie trafił on w swój czas.

Z drugiej jednak strony, był on nieodrodnym dzieckiem okresu, który w innym eseju niżej podpisany nazwał „Grzbietem Pragmatyzmu”, czasów pogardy, przemocy, zniszczenia i socjalizmu. Jego narodowosocjalistyczne poglądy, dzisiaj zupełnie archaiczne, choć nadal mają w Polsce wystarczająco wielu zwolenników, aby reprezentująca je partia mogła nawet chwilowo przechwycić w Polsce władzę, to jednak owi zwolennicy nie koncentrują się w środowiskach, które czytają jakiekolwiek książki, zwłaszcza tak naładowane erudycją jak książki Nienackiego. Pouczająca jest tu analogia z innym twórcą z bardzo podobną biografią i poglądami społeczno-politycznymi, Henrykiem Chmielewskim, „Papciem Chmielem”, autorem kultowego komiksu „Tytus, Romek i A’tomek”. Będąc znacznie lepszego zdrowia, żyje on do dzisiaj, ale jego sprawność twórcza uległa gwałtownemu załamaniu, jeszcze nawet przed końcem PRL, ale już wtedy, kiedy tylko w latach 80 Polska zaczęła  powolną ewolucję w kierunku normalności.

W przypadku Nienackiego dodatkowym obciążeniem byłyby dzisiaj jego upodobania seksualne. W czasach PRL traktowane z przymrużeniem oka, dzisiaj byłyby nie do zaakceptowania, a oskarżenia o „molestowanie” pod adresem 90 letniego twórcy, gdyby jeszcze żył, byłyby miotane powszechnie i bez żadnej ceregieli. Kolejno pierwowzory rudej Kasi, Zosi „Balladyny”, czy zwłaszcza harcerza „Baśki”, „przypominałyby” sobie, że 30, 40 czy 50 lat temu byli przez pisarza „wielokrotnie gwałceni” i próbowaliby sądownie uszczknąć coś z jego, wreszcie zebranego, majątku. Jakby legenda „Pana Samochodzika” to przeżyła?

Wbrew zatem pozorom, Mistrz umarł we właściwym, jeżeli można to tak sformułować, momencie. Wraz z końcem czasów, które go ukształtowały i upadkiem systemu, który mu ideowo odpowiadał i  w którym, mimo biedowania, czuł się komfortowo. Pieśń zaś ujdzie cało.

Bardzo zwyczajna instytucja

Niewolnictwo nie jest tak stare jak ludzkość. W obejmującej ponad 90% ludzkiej historii paleolicie, gospodarce łowiecko – zbierackiej, żadnego miejsca na pracę przymusową nie było. Opisujące takie paleolityczne społeczeństwo równania Lotki-Volterry nie pozwalają bowiem, pod groźbą wyginięcia, na jakikolwiek wzrost „produkcji”, czyli zebranej i upolowanej biomasy, powyżej pewnej, niezbyt wysokiej, wartości. Dodatkowe ręce do pracy w żaden sposób zatem nie rekompensują utrzymania dodatkowej gęby do wyżywienia. W paleolicie ani niewolników do niczego nie potrzeba, ani nie ma warunków, aby ich utrzymywać.

Sytuacja zmienia się jednak zasadniczo w neolicie, w momencie wynalezienia rolnictwa i powstania cywilizacji. Teraz produkcja, głównie oczywiście rolna, może rosnąć bez przeszkód. I tak samo zapotrzebowanie na pracę. Pracę jednakże, w znakomitej większości ciężką, monotonną i mało wydajną. Pojawienie się niewolnictwa jest nieuniknionym rezultatem tego procesu. Dlatego też, takie, czy inne formy pracy przymusowej, towarzyszyły cywilizacji przez cały następny okres dziejowy. Niewolnictwo nie było wtedy jakąś „szczególną instytucją”, ale instytucją na wskroś zwyczajną.

W wyniku rewolucji neolitycznej ludzkie społeczeństwa opuściły zatem atraktory równań L-V, i trafiły do tzw. pułapki maltuzjańskiej. Jest to nadal stan równowagi, ale równowagi długoterminowo niestabilnej. Każdy wzrost produkcji skutkuje proporcjonalnym wzrostem liczby ludności, zatem produkcja i dobrobyt per capita pozostają z grubsza stałe. Wskutek jednak tego, że dynamikę produkcji i demografii opisują różne funkcje mające różny przebieg, populacja maltuzjańska niesłychanie rzadko tkwi nieruchomo w punkcie równowagi, a zazwyczaj oscyluje wokół niego w długich, trwających około tysiąclecia, okresach. Na początku każdego cyklu wzrost gospodarczy jest szybszy niż wzrost populacji. Dobrobyt i produkcja per capita rosną, bo wartość krańcowa każdego pracownika, czyli wzrost produkcji jaki jest efektem jego zatrudnienia, jest stosunkowo duża. Wcześniej czy później jednak, przyrost naturalny dogania wzrost gospodarczy i PKB per capita zaczyna spadać. Gospodarka nadal rośnie, ale populacja rośnie szybciej. Każdy kolejny pracownik zwiększa produkt o coraz mniejszą wielkość. Wartość krańcowa pracy maleje, w skrajnym przypadku do zera. Pojawia się więc presja ekonomiczna na zatrudnianie coraz tańszej, a w końcu darmowej, siły roboczej.

Każdy niewolnik, zawsze i wszędzie w dziejach, stara się pracować w sposób maksymalnie ekstensywny, wkładając w pracę wyłącznie tyle wysiłku, żeby uniknąć kary i nic więcej ponad to minimum. Jednak, kiedy wartość krańcowa pracy też jest niewielka, nawet ta niska wydajność niewolnictwa, w połączeniu z niskimi jego kosztami, wystarczy do osiągnięcia ekonomicznej efektywności. Nieprzypadkowo niewolników najczęściej można było spotkać przy zajęciach prostych i powtarzalnych, a przy tym uciążliwych. Na polu, lub w kopalni. Natomiast dużo rzadziej u złotnika, szewca, czy kowala.

U szczytu każdego takiego maltuzjańskiego cyklu niewolnictwo zatem rozkwita. Wkrótce jednak gospodarka, mimo wykorzystywania praktycznie darmowej siły roboczej, przestaje rosnąć w ogóle, gdy tymczasem populacja rośnie nadal. Nędza staje się coraz bardziej powszechna, osłabionych głodem ludzi zaczynają nękać choroby, narastają niepokoje społeczne. W końcu, w wyniku jakichś przypadkowych zaburzeń, które w innych czasach przeszłyby zupełnie niezauważone, system zapada się. Najpierw produkcja, a potem zaludnienie, zaczynają spadać. Znikają bardziej złożone, czyli też kosztowne w utrzymaniu, struktury społeczne, takie jak państwa, ich armie i urzędnicy, oraz ekonomiczne, jak dalekosiężna sieć wymiany handlowej. Zwiększa to chaos i przyśpiesza destrukcję gospodarki i tym samym cywilizacji. W końcu zarówno produkcja, jak i populacja stabilizują się na nowym, znacznie niższym od szczytowego, chociaż jednak wyższym niż minimum poprzedniego cyklu, poziomie. Wartość krańcowa pracy znów wzrasta i niewolnictwo przechodzi do historii. Na jakiś czas.

Najstarszy z dających się historycznie wyodrębnić takich cykli, cykl piramid, swoje maksimum osiągnął w XXVI w p.n.e., a minimum w wiekach XXIII-XXI w tzw. pierwszym okresie przejściowym. Po nim nastąpił cykl epoki brązu, ze szczytem w wieku XVI i upadkiem w XIII-XI. Zgodnie z naszą teorią, ekonomiczna rola pracy przymusowej musiała wzrastać w maksimach tych cyklów, ale istniejące dane historyczne są zbyt skąpe, aby móc potwierdzić, że tak rzeczywiście było. Inaczej jest z trzecim cyklem, epoki żelaza, grecko-rzymskim. Trwał on, wydłużony przez podboje Aleksandra, a potem Rzymu, dłużej niż poprzednie, maksimum osiągając w I wieku n.e., zakończył się upadkiem w wieku V-VII, jest też znacznie lepiej opisany. Tym razem rozkwit niewolnictwa i jego znaczenie dla gospodarki Rzymu u schyłku republiki nie ulega żadnych wątpliwości.

Po upadku cywilizacji antycznej, powstała kolejna, chrześcijańska. Również cykl chrześcijański został wydłużony przez podboje, tym razem zaoceaniczne, a u jego szczytu, na przełomie XVII/XVIII wieku także doszło do recydywy niewolnictwa i to na ogromną skalę. Tym razem, inaczej niż w poprzednim cyklu grecko-rzymskim, niewolnictwo kwitło nie w centrum cywilizacji, ale na jej amerykańskich peryferiach. Niewolnicy, wywodząc się przeważnie z zupełnie innej, niż ich panowie, populacji, odróżniali się od nich bardzo wyraźnie językiem, obyczajem, a nawet wyglądem zewnętrznym, co, nawet w przypadku wyzwolenia z niewoli, niesłychanie utrudniało im integrację ze społeczeństwem, co zresztą w niektórych krajach Ameryki do dzisiaj nie do końca zaszło. Niemniej, mimo tych kilku różnic, amerykańskie niewolnictwo plantacyjne w XVII-XVIII wieku łączyło z niewolnictwem plantacyjnym Imperium Rzymskiego znacznie więcej podobieństw.

Spisywane dzisiaj dzieje niewolnictwa nieodmiennie grzeszą prezentyzmem, zawsze ferując jednoznacznie negatywne oceny moralne tego zjawiska. Każdy współczesny autor czuje się w obowiązku dobitnie i jednoznacznie potępić przedmiot swojej pracy. Kiedy jednak niewolnictwo realnie istniało, wcale nie było tak postrzegane. Krytykowano czasami różne aspekty z nim związane, ale nigdy nie samą ideę. Nawet wszczynający rebelie, z których najbardziej znaną jest powstanie Spartakusa, niewolnicy, bynajmniej wcale do likwidacji niewolnictwa jako takiego nie dążyli. Przekonanie, że lepszy nawet zły pan, niż żaden, było oczywistością.

Działo się tak, ponieważ, w co dzisiaj trudno uwierzyć, popadnięcie w niewolę wcale nie był najgorszym, co się w życiu mogło przytrafić, a status niewolniczy nie oznaczał jeszcze najniższej pozycji w hierarchii społecznej. Tę bowiem okupowali „ludzie luźni”, samotnicy nieprzynależący do żadnej szerszej wspólnoty, i z tego powodu będący też pierwszymi ofiarami przeróżnych klęsk żywiołowych i społecznych. Stojący szczebel wyżej niewolnicy, mogli liczyć nie tylko na wyżywienie, odzienie i dach nad głową, które to dobra w cywilizacji maltuzjańskiej wcale nie są oczywistością, ale nawet na swoistą karierę, zwieńczoną wyzwoleniem i integracją z wolną częścią społeczeństwa. Nie należy się zatem dziwić, że wcale nierzadkie były przypadki dobrowolnego sprzedawania się, lub wręcz oddawania w niewolę. Teoretycznie niewolnicy byli narażeni na kaprysy swoich właścicieli, przed którymi nie chroniło ich żadne prawo stanowione. Ale było jeszcze prawo natury – prawo rynku.

Niewolnicy byli bowiem …drodzy. Zabijając, bądź okaleczając niewolnika, właściciel pozbawiał się sporego majątku. Nie zrobiłby tego zatem nigdy, nie osiągając z tego korzyści przekraczających owe straty. Nawet walczący na rzymskich arenach gladiatorzy ginęli zaskakująco rzadko. Byli na to zbyt cenni.

 Bez reszty ogarnięci wspomnianym prezentyzmem, opisujący ostatnią wielką falę niewolnictwa z XVII i XVIII wieku publicyści, nie szczędzą właścicielom i handlarzom niewolników wyrazów potępienia i pogardy. Rozwodzą się w jak strasznych warunkach transportowano żywy towar z Afryki do Ameryki, w jakim stłoczeniu się ten transport odbywał, jak wiele „ładunku” ginęło od tych warunków po drodze, w czym nieraz puszczają wodze swojej fantazji. W licznych źródłach można dziś znaleźć, mające wstrząsnąć współczesnym czytelnikiem, rzekome „schematy” i „plany” statków niewolniczych na których ludzki ładunek upchany jest gęsto jak śledzie w beczce w całej objętości kadłuba nie pozostawiając miejsca na literalnie nic innego, a już na pewno na zapasy pozwalające takiej masie ludzi przeżyć wielomiesięczną podróż przez ocean.

My postąpmy jednak inaczej i zamiast utożsamiać się mentalnie z niewolnikami, spróbujmy przyjąć rolę handlujących nimi kupców. Niezależnie od rodzaju kupowanego i sprzedawanego towaru, handel rządzi się zawsze takimi samymi prawami popytu i podaży. Kupno niewolników od miejscowych muzułmańskich handlarzy w Afryce, wbrew bowiem politycznie poprawnej propagandzie, Europejczycy nigdy osobiście Murzynów w afrykańskim interiorze nie łapali, kosztuje a od sztuki. Ich sprzedaż w Ameryce przyniesie b dochodu.

Istnieje na pewno pewna bezpieczna wielkość ładunku powyżej której towar nam będzie wymierał z samego przegęszczenia. Wspomniani już prezentyści twierdzą, że często tak się właśnie działo. Jest to jawny absurd. Gdyby śmiertelność w czasie transportu była wynikiem przegęszczenia, czyli współczynnik śmiertelności rósłby wraz ze wzrostem liczebności N, to układ dążyłby do pewnego atraktora i podróż przeżywałoby zawsze tyle samo niewolników, niezależnie od ich ilości początkowej. Każdy niewolnik zakupiony ponad tą liczbę byłby czystą stratą. Możliwe odchylenia możliwe byłyby tylko wtedy, gdyby podróż trwała na tyle krótko, że układ nie zdążyłby osiągnąć tego stanu równowagi. Dlatego pasażerowie stołecznych tramwajów mogą podróżować w znacznie większym ścisku niż to się przypisuje transportom niewolników i nie przypłacić tego życiem. Jadą tak nie dłużej niż godzinę. Ale niechby spróbowali miesiąc…

Jeżeli zatem faktycznie niewolnicy umierali po drodze, to na pewno nie z powodu przegęszczenia. Inną możliwością jest to, że w pogoni za zyskiem, starając się ciąć wszelkie koszty, handlarze oszczędzali na ich utrzymaniu. Aby bowiem niewolnik przeżył podróż oceaniczną w dobrej, umożliwiającej otrzymanie za niego godziwej ceny, kondycji, niezbędne jest odpowiednie dbanie o niego po drodze co kosztuje k jednostek od sztuki. Istnieje taki koszt transportu k0, przy którym śmiertelność wynosi zero. Zakładając, że śmiertelność s zależy liniowo od kosztu utrzymania s= 1-k/k0, przychód ze sprzedaży w porcie docelowym wynosi N*(1-s)*b = N*k*b/k0.

Koszt transportu, to N*k*(1-s) dla tych niewolników, którzy dopłynęli żywi i N*k*s*0,5 dla tych, którym przeżyć się nie udało. Wreszcie mamy jeszcze koszt zakupu N*a i koszty stałe, jak amortyzacja statku, płace załogi, koszty administracyjne, które oznaczmy literą X, a przeliczone na jedną sztukę ładunku x

Ostatecznie możemy obliczyć zysk w przeliczeniu na jednego załadowanego na statek Murzyna:

niewwzr 01

Jest to równanie kwadratowe o maksimum w punkcie k = b-0,5*k0 Przy takich kosztach transportu osiąga się największy zysk. Łatwo teraz obliczyć, kiedy śmiertelność ładunku będzie zerowa, czyli kiedy k=k0

niewwzr 02

Warto zauważyć że ta krytyczna wielkość zależy wyłącznie od ceny sprzedaży. O ile tylko, niezbędne dla zachowania zerowej śmiertelności, koszty k0 będą mniejsze niż dwie trzecie tej ceny, będzie się opłacało je ponosić. A co będzie kiedy będą one wyższe?

Warunek maksymalnego zysku, który tu omówiliśmy, jest oczywiście warunkiem koniecznym zaistnienia handlu, ale wcale nie wystarczającym. W końcu co nam po maksymalnym możliwym zysku, jeżeli będzie on ujemny? Drugim warunkiem handlu, jest zatem warunek dodatniego zysku Z>0.

Aby znaleźć rozwiązanie tego warunku, wprowadzimy parametry q=k0/b i p = (a+x)/b, sprowadzając wszystkie koszty do odsetka ceny sprzedaży. Podstawiając dodatkowo obliczone wyżej optymalne k = b-k0/2, możemy obliczyć, przy jakiej wartości parametrów q i p handel będzie opłacalny. Wynik przedstawiamy w postaci wykresu.

niew 01

Dopóki q<2/3, a zważywszy na ich wysoką cenę sprzedaży, jest tak praktycznie zawsze, chciwość nakazuje dbać o niewolników. Niebieskie pole to strefa opłacalności handlu niewolnikami, w której śmiertelność jest zerowa. Dopiero przy q>2/3, zaczyna się opłacać oszczędzanie na kosztach transportu i część towaru wymiera, co pokazuje czerwone pole. Pole to ciągnie się do q=2, przy którym śmiertelność osiąga 100%, ale jest to pole bardzo wąskie. Aby inwestor był gotów zaakceptować rosnące straty w transporcie, suma kosztów stałych i kosztów zakupu musiałaby być bardzo mała, dla granicznego q równego 2/3, p nie mogłoby przekraczać 1/3. A przy większych q, odpowiednio mniej. Zważywszy dodatkowo, że realne zyski na handlu muszą być jednak większe od zera, dokładnie większe niż możliwy do osiągnięcia zysk z alternatywnych inwestycji, strefa czerwona robi się tak wąska, że w praktyce niemal niespotykana.

Wiemy już zatem, kiedy śmiertelność w transporcie jest zerowa (niebieskie pole), lub większa od zera (czerwone pole). Ale przecież przewożony towar to nie bele bawełny i nie beczki z winem. Ten towar jest …żywy. Przy odpowiednio dobrym traktowaniu, kiedy k>k0 można oczekiwać …ujemnej śmiertelności, zaznaczonej na wykresie na zielono. Handel mógłby się opłacać, przy tym założeniu, nawet wtedy, kiedy koszty zakupu byłyby większe niż koszty sprzedaży p>1.

Ponieważ pola niebieskie i zielone są łącznie o wiele większe od pola czerwonego, tym bardziej, co jest równoważne z obcięciem wszystkich pól „od góry”, jeżeli uwzględnimy inwestycje alternatywne, jasne jest, że sama żądza zysku i wyzysku wymaga, by na niewolników w transporcie chuchać i dmuchać. Głodzenie i znęcanie się nad nimi jest zabronione wprost przez siły rynku.

Podróż przez Atlantyk trwała zwykle 2-3 miesiące. Przez ten czas każdy z niewolników musiałby wypijać dziennie minimum 2,5 litra płynów i zjadać kilogram pożywienia. Co najmniej co drugi dzień musiałby to być posiłek ugotowany. Łącznie z samym niewolnikiem oznacza to pół tony ładunku, wody, prowiantu i opału. Dodatkowo, aby zachować jaką taką sprawność fizyczną, nie może towar przez kilka miesięcy leżeć w jednym miejscu bez ruchu. Za niewolnika, który nie ma nawet siły stać, nikt przecież nie zapłaci złamanego grosza. Przewożąc przez ocean konie, budowano nawet na statkach specjalne urządzenia, aby umożliwić im ruch, nawet galop – nie ruszając się z miejsca. Skoro tak dbano o konie, to tym bardziej musiano dbać o niewolników – znacznie od koni droższych.

Nie znaczy to, że niewolnicy w trakcie podróży w ogóle nie ginęli. Działo się tak jednak nie wskutek zaniedbań i okrucieństwa nadzorców, tylko wskutek wydarzeń losowych. Katastrof, napadów pirackich, czy wreszcie największego ówczesnego niebezpieczeństwa w podróży morskiej – chorób zakaźnych. Ktokolwiek bowiem zachorował w trakcie rejsu np. na ospę, był natychmiast i bez żadnych ceregieli – wypraszany ze statku. Dotyczyło to jednakże po równo niewolników, załogantów, czy pasażerów.

Skoro zatem realna ładowność statków niewolniczych została przez naszych prezentystów zawyżona co najmniej kilkukrotnie, nic dziwnego też, że konsekwentnie została zawyżona ogólna liczba Afrykanów przewiezionych w XVI-XVIII wieku do obu Ameryk. Zgodnie bowiem z tymi oszacowaniami w ciągu tych trzystu lat imigracja z Afryki musiałaby być co najmniej dziesięciokrotnie wyższa niż imigracja z …Europy. A tymczasem nawet dzisiaj, choć są w Ameryce kraje, zwłaszcza na Karaibach, w których Murzyni stanowią większość, to jednak w obu Amerykach łącznie, ludzie pochodzenia europejskiego zdecydowanie dominują nad nimi liczebnie, czego prezentyści wytłumaczyć nie potrafią.

Wziąwszy to wszystko pod uwagę, jasnym jest, że owe, publikowane jako autentyki, rzekome plany statków niewolniczych, czy wielomilionowe (!!!) liczby przewiezionych niewolników, w żadnej mierze rzeczywistości odpowiadać nie mogą. Ich źródło jest analogiczne do źródła „milionów ofiar inkwizycji”. O tych ostatnich donosiła propaganda protestantów, a potem oświeceniowych filozofów. W naszym przypadku źródłem mitu jest publicystyka XVIII wiecznych abolicjonistów, którzy, aby osiągnąć swoje cele polityczne, musieli przekonać opinię publiczną, że los niewolników jest znacznie gorszy niż jej własny, co realnie, w odniesieniu do, co najmniej 90% ówczesnych Brytyjczyków, wcale nie było takie oczywiste.

Zmieniło się to jednak wraz z początkiem rewolucji przemysłowej. Ostatni z maltuzjańskich cykli zakończył się bowiem, inaczej niż wszystkie poprzednie, nie kryzysem, regresem i zapaścią cywilizacyjną, tylko swoistym przejściem fazowym do nowego stanu, charakteryzującego się nowymi atraktorami, ku którym społeczeństwa podążyły niezależnie od ich stanu początkowego. Produkcja, po raz pierwszy w ludzkich dziejach, zaczęła trwale rosnąć szybciej niż populacja. Wartość krańcowa pracy szybko więc przekroczyła niski próg opłacalności niewolnictwa i okazało się, że w gospodarce na pracę przymusową miejsca nie ma. Skoro zaś praca przymusowa stała się nieekonomiczna, konsekwentnie okazała się również niemoralna. W czasie krótszym od stulecia, niewolnictwo we wszystkich krajach, które choć w minimalnym stopniu uczestniczyły w światowej wymianie handlowej, zniknęło całkowicie (najpóźniej w Rosji i w Brazylii). Próby jego przywrócenia w XX wieku zakończyły się zaś całkowitym fiaskiem i katastrofą reżimów, które takie próby podjęły. Nie po raz pierwszy okazało się, że rozwój moralny i etyczny wynika wprost z rozwoju technologicznego i gospodarczego.

Skrócona wersja niniejszego eseju została opublikowana w 1493-1494 numerze „Najwyższego Czasu”