Jakby byli, to by byli. A skoro ich nie ma, to ich nie ma.

Niniejszy wpis jest polemiką z artykułem „Galaktyczny archipelag” zamieszczonym w 342 numerze „Świata Nauki”. Opiera się na wątkach opisywanych już we wpisach „Milczenie Wszechświata„, „Wiekuista cisza nieskończonych przestrzeni„, oraz „Dzieci gwiazd„.

Problem istnienia, a właściwie nieistnienia pozaziemskich cywilizacji naukowo – technicznych najbardziej popularny był w trzeciej ćwierci XX wieku, kiedy rozwój radioastronomii pozwalał na przekonanie, że odkrycie takich cywilizacji, a nawet nawiązanie z nimi dwustronnej łączności, jest kwestią bardzo niedługiego czasu. Ta fala entuzjazmu opadła jednak już dawno, publikacje na ten temat, nie tylko stały się rzadkie, ale w dodatku utraciły w znacznej mierze walor naukowy, stając się filozoficzno-humanistycznymi, jałowymi poznawczo, rozważaniami, których jedynym celem było danie wyrazu uprzedzeniom i fobiom ideologicznym swoich autorów. Paradoks Fermiego, czyli właśnie drastyczna rozbieżność pomiędzy oszacowaniami rozprzestrzenienia cywilizacji naukowo – technicznych w Galaktyce, a obserwowaną faktyczną, po odjęciu naszej, zerową, ich liczebnością, stało się dla autorów tylko pretekstem do głoszenia wyznawanych przez nich poglądów politycznych i społecznych, często zresztą zupełnie absurdalnych. Ta poznawcza pustynia jest tym bardziej przykra, że mamy przecież do czynienia z jednym z najważniejszych zagadnień w całej historii nauki i cywilizacji.

Z tym większym uznaniem należy zatem przyjąć publikację, która się z tego fatalnego schematu wyłamuje, która znów, jak kiedyś, odwołuje się do modeli ilościowych i która traktuje temat nie filozoficznie, a naukowo. Ma w tym miejscu na myśli niżej podpisany oczywiście artykuł „Galaktyczny archipelag” opublikowany w 342 numerze „Świata nauki” z lutego 2020 roku.

Niestety, oprócz swoich niewątpliwych, wspomnianych wyżej, zalet, ma artykuł także wady. Przede wszystkim analogia którą się w nim posłużono, analogia pomiędzy Wszechświatem, czy też skromniej, Galaktyką, z jej gwiazdami i planetami, a ziemskim oceanem z jego wyspami i archipelagami, jest całkowicie nieadekwatna. Przede wszystkim zupełnie inna jest skala wielkości. Najbardziej od wszystkich innych oddalonym, a zarazem zamieszkanym, terenem na Ziemi jest polinezyjska Wyspa Wielkanocna, zwana też Rapa Nui, mająca ok 15 km średnicy i położona 2,5 tys. km od najbliższego innego lądu. Stosunek tych dwóch wielkości, odległości do średnicy, wynosi zatem w jej przypadku ok 170. Tymczasem średnica planet podobnych do Ziemi i nadających się do zamieszkania, wynosi w zaokrągleniu 10 000 km. Średnia zaś odległość pomiędzy nimi jest i to w bardzo optymistycznej wersji, z grubsza równa średniej odległości pomiędzy gwiazdami w Galaktyce i sięga ok 5 lat świetlnych. Stosunek tych dwóch wielkości to jakieś 4,5 miliarda, czyli 30 milionów razy więcej niż w przypadku wysp na Pacyfiku.

Również skala zaawansowania cywilizacji, którą dany ląd, czy to oceaniczny, czy kosmiczny, może utrzymać, jest bardzo różna. Stopień komplikacji społeczeństwa, z którego poziom rozwoju cywilizacyjnego wprost wynika, jest bowiem proporcjonalny do jego liczebności. Zakładając, że twórcy takiej cywilizacji są z grubsza, co do rzędu wielkości, podobnych rozmiarów, co ludzie, to na Wyspie Wielkanocnej może ich stabilnie bytować nie więcej niż kilka tysięcy osobników. Dlatego też wyspa taka nigdy samoistnie bardziej złożonego społeczeństwa nie jest w stanie utrzymać, czego dzieje mieszkańców Rapa Nui, na której cywilizacja w dramatyczny sposób uległa swoistej redukcji i uproszczeniu, czy jeszcze mniejszej od niej wyspy Pitcairn gdzie zanikła całkowicie, są doskonałym przykładem. Populacja planetarna zaś bez trudu może iść w miliardy osobników a tym samym być domem zaawansowanej cywilizacji naukowo – technicznej.

Trzecią istotną różnicą jest to, że ocean ziemski jest …zakrzywiony. Z jednej konkretnej wyspy widać tylko te położone naprawdę blisko. Tych oddalonych bardziej niż o kilkadziesiąt kilometrów – nie widać nigdy. Tymczasem ocean kosmiczny jest płaski. Wzrok obserwatora bez trudu sięga na odległości nawet nie kosmiczne, ale wręcz kosmologiczne. Również przejrzystość ośrodka kosmicznego jest nieporównywalnie większa niż przejrzystość przykrywającej ocean, planetarnej atmosfery.

Wszystko to razem sprawia, że posługiwanie się modelem kolonizacji wysp na oceanie w celu opisu kolonizacji planet we Wszechświecie, jest bardzo zwodnicze i w konsekwencji prowadzi na manowce.

Autorzy artykułu tłumaczą bowiem brak, jakichkolwiek innych, niż nasza, cywilizacji w Galaktyce, tym, że Ziemia chwilowo znalazła się na uboczu galaktycznych „fal ekspansji”, jakie, zgodnie z ich modelem, naszą Galaktykę co jakiś czas przemierzają. Żyjąc w takiej „osadniczej pustce”, nie powinniśmy się, według autorów, dziwić, że żadne międzygwiezdne kosmoloty do nas obecnie, w historycznej skali czasu, nie docierają. Niestety, nie sposób, wiedząc już o błędach przyjętej przez nich analogii, się z tym argumentem zgodzić.

Po pierwsze, nawet jeżeli opisywane przez autorów „Galaktyczne archipelagi” znajdują się dziś dość daleko, tysiące lat świetlnych, od nas, to nadal, wskutek płaskości i przejrzystości Wszechświata, powinniśmy je doskonale widzieć, zarówno w zakresie fal radiowych, jak i w podczerwieni. Tymczasem wszystkie dotychczasowe próby wykrycia takich emisji, prowadzone, np. w ramach programu SETI, już od prawie siedemdziesięciu lat, zakończyły się całkowitym fiaskiem. Często dokonywane przy takich okazjach dodatkowe założenie, że rozwinięta cywilizacja międzygwiezdna w pewnym momencie po prostu porzuca technologię radiową, nie może jednak być traktowane poważnie, skoro, niezależnie od stopnia rozwoju technologicznego, radio pozostanie zawsze najtańszym środkiem łączności, wymagającym najmniej energii na przesłanie bita informacji. Dodatkowo, skoro nawet my, Ziemianie, na długo przed zbudowaniem naszej własnej międzygwiezdnej „wyspy osadniczej”, wysyłamy już od czasu do czasu celowe sygnały świadczące o naszym istnieniu (tzw. METI), to tym bardziej będą to robić istoty dużo bardziej od nas cywilizacyjnie zaawansowane.

Drugi argument podważający wnioski autorów wynika wprost z opisanej wyżej skali wielkości. Każda cywilizacja, po dłuższym, czy krótszym okresie istnienia i galaktycznej ekspansji, w końcu upada. Gdyby bowiem tego ograniczenia w modelu nie wprowadzać, nieuchronnym rezultatem okaże się bowiem współczesna Galaktyka skolonizowana w całości, aż do najbardziej zapadłych swoich zakątków włącznie, co w oczywisty sposób nie ma miejsca. Cywilizacje zatem w ten czy inny sposób, muszą mieć skończony czas istnienia.

Koniec końcowi jednak nierówny. Autorzy zakładają bowiem, że kiedy dana cywilizacja znika i upada, upada w całości, wraz z całą zasiedloną przez siebie gwiezdną ekumeną. Tymczasem, odległości międzygwiezdne sprawiają, że samo banalne przesłanie informacji z jednego krańca „wyspy osadniczej” na drugi może trwać życie kilku ludzkich pokoleń. W XVI, XVII i XVIII wieku, europejskie potęgi kolonialne dawały radę zarządzać swoimi imperiami w zbliżonych niejako warunkach, ale opóźnienia w łączności wynosiły tutaj, co najwyżej miesiące, a nie dekady, a poza tym odbywało się to kosztem utrzymania kolonii w stanie stałego niedorozwoju względem metropolii. Jak tylko koloniści osiągali zbliżony do metropolitalnego poziom rozwoju ekonomicznego, natychmiast starali się zależność od macierzystego kraju zerwać, czego najbardziej znanym, aczkolwiek nie jedynym, przykładem, są amerykańskie kolonie Wlk. Brytanii w XVIII wieku.

Gwiezdne imperia, wskutek swojej, niemożliwej ogarnięcia i kontrolowania z jednego miejsca, rozciągłości, nieuchronnie więc będą się rozpadać na praktycznie niezależne od siebie systemy gwiezdne. Ich mieszkańcy stopniowo utracą jedność nie tylko polityczną, ale i kulturową, ekonomiczną, a nawet biologiczną. Zresztą ten sam proces, chociaż mniej zaawansowany, zaszedł także w diasporze polinezyjskiej na wyspach Pacyfiku. Taki archipelag gwiezdnych wysp, których już nic, poza wspólnym pochodzeniem, nie łączy, nie może jednak upaść jako całość. Upadek czy zniszczenie jednej, czy dwóch takich odseparowanych od siebie placówek, w żaden bowiem sposób nie wpłynie na pozostałe, które nadal będą się rozwijać, wysyłać kolejne wyprawy kolonizacyjne, także rekolonizować utracone uprzednio systemy gwiezdne. Jeżeli średni czas potrzebny na skolonizowanie kolejnego układu gwiezdnego, jest chociaż minimalnie dłuższy niż średni czas istnienia takiej subcywilizacji, to ekspansja cywilizacji w Galaktyce, chociaż odbywająca się, inaczej, niż w opisanym w artykule modelu, w sposób chaotyczny i nieskoordynowany, raz rozpoczęta, nie zatrzyma się nigdy, aż do skolonizowania wszystkich układów z naszym własnym, Słonecznym włącznie.

Wreszcie trzeci, unieważniający wnioski artykułu, argument. Ziemia może faktycznie, zgodnie z opisanymi obliczeniami, znajdować się na uboczu galaktycznych fal ekspansji, ale przecież nie jest to stan stabilny. Może on trwać, jak sami autorzy podają, kilka milionów lat, tymczasem wiek Galaktyki jest o, co najmniej trzy rzędy wielkości, dłuższy. W odleglejszej, geologicznej przeszłości, Ziemia powinna być celem wielu takich fal osadniczych i przez znaczące okresy czasu, być siedzibą rozwiniętych cywilizacji międzygwiezdnych. Nie istnieją jednak żadne ślady takich przeszłych fenomenów. Owszem, jak wspomniano w artykule, trudno oczekiwać, że materialne ślady cywilizacji, ruiny budynków, wraki maszyn, czy urządzeń, przetrwają na Ziemi z jej silnymi procesami erozyjnymi, wiatrami, deszczami, zlodowaceniami, wulkanizmem i tektoniką płyt, dłużej niż kilkaset tysięcy lat. Dotyczy to jednak Ziemi. Ślady cywilizacji międzygwiezdnej znajdowałyby się jednak przecież nie tylko na naszej planecie, ale w całym Układzie Słonecznym, gdzie, np. na Księżycu mogłyby przetrwać bez problemu nawet miliardy lat.

No i zostają jeszcze ślady niematerialne. Jeżeli kiedyś Ziemia stała się obiektem osadnictwa istot pochodzących z innego układu gwiezdnego, to musiałyby one dokonać, pewnych, choćby nawet bardzo prostych zabiegów „terraformujących”, np. sprowadzić ze sobą jakichś przedstawicieli macierzystego ekosystemu, odpowiedniki tamtejszej flory i fauny. Potomkowie tych dodatkowych, „stowarzyszonych” kolonistów, przynajmniej w niektórych przypadkach, mogły przetrwać na Ziemi wystarczająco długo, żeby jakoś zaznaczyć się w zapisie geologicznym, a właściwie mogłyby żyć między nami i do dzisiaj, gdzie przez swoją ewidentną obcość i niekompatybilność z rodzimymi ziemskimi gatunkami, powinny być doskonale dla biologów, czy paleontologów widoczne.

Reasumując. Milczenie Wszechświata w zakresie radiowym i podczerwonym, połączone z brakiem jakichkolwiek śladów, nawet bardzo odległej w czasie, obecności pozaziemskich cywilizacji na Ziemi i w jej bezpośrednim planetarnym otoczeniu, wskazuje na fakt, że ziemska cywilizacja jest osamotniona znacznie bardziej, niż to z artykułu wynika. Że faktycznie jesteśmy jedyną, pierwszą i najstarszą cywilizacją we Wszechświecie, a przynajmniej w Galaktyce.

Wniosek to zarazem pesymistyczny, jak i optymistyczny, ale stanowiący jedyne sensowne i zgodne ze wszystkimi danymi obserwacyjnymi, rozwiązanie Paradoksu Fermiego. Żadnych inteligentnych cywilizowanych pozaziemskich Obcych nie ma. I nigdy nie było.

Klimatystyczne imperium kontratakuje

Polemiki z różnymi przejawami pseudonauki uprawia pilaster już od wielu lat. Kiedyś, w zamierzchłej przeszłości, koncentrowała się ona głównie na kreacjonistach, bardzo wyraźnie wtedy obecnych w przestrzeni medialnej. Czasy się jednak zmieniają. Kreacjonizm już dawno został spłukany przez nurt historii, a na jego miejsce weszła pseudonauka znacznie bardziej przebiegła, a tym samym znacznie groźniejsza Pseudonauka klimatyzmu. Do obnażenia nędzy intelektualnej kreacjonizmu, wystarczyła wiedza z zakresu szkoły podstawowej. Na klimatystów trzeba już poziomu licealnego. Kompleksową krytykę tej ideologii a zwłaszcza jej pseudonaukowych uroszczeń, zawarł niżej podpisany w książce „Mity globalnego ocieplenia” (MGO). Jak należało się spodziewać, w odpowiedzi na tę publikację, ze strony klimatystów zapadło długie, wielomiesięczne milczenie, choć z reguły reagują oni znacznie szybciej i to na publikacje znacznie bardziej błahe. Wreszcie jednak się przełamali i polemikę podjęli. Z wielu poruszonych w książce zagadnień odnieśli się tylko do jednego, omawianego też wcześniej w artykule „Czerń niedoskonała”, no, ale lepszy rydz niż nic.

Polemika ta, zatytułowana „Efekt cieplarniany na Wenus, Ziemi i Marsie”, podpisana pseudonimem „Doskonale Szare” i zamieszczona na portalu “Nauka o klimacie”, nie jest jednak, niestety rzetelna. Kryjący się za tym pseudonimem autor, zamiast odnosić się do tego, co w książce faktycznie zostało zamieszczone, wolał postawić sobie tzw. chochoły, czyli sformułować tezy, których w MGO w ogóle nie ma i zająć się ich obalaniem, co oczywiście jest zadaniem znacznie łatwiejszym, niż próba merytorycznego odniesienia się do tego, co rzeczywiście w książce napisano. W całym omawianym artykule, wbrew gromkim deklaracjom, zamieszczony jest właściwie tylko jeden merytoryczny zarzut, który faktycznie dotyczy tego, co w książce się znajduje, ale nawet ten jeden zarzut jest, jak się zaraz przekonamy, bezzasadny.

Mimo takiego ułatwienia sobie pracy, anonimowy autor nie ustrzegł się wielu błędów i przeinaczeń, w tym takich, które, gdyby faktycznie wynikały z niewiedzy, a nie tylko, w co chcielibyśmy wierzyć, z oratorskiego rozpędu i zapędu, stawiałyby jego merytoryczne kompetencje do wypowiadania się w tym temacie, pod dużym znakiem zapytania. Pisze Doskonale Szare np.:

Głównym argumentem Adamczyka jest prosty model atmosfery, w którym podzielono ją na izotermiczne warstwy, grubość optyczna każdej warstwy jest wprost proporcjonalna do ilości dwutlenku węgla, a każda warstwa zachowuje się jak ciało doskonale czarne.

Podczas gdy rzeczony Adamczyk wyraźnie w książce napisał, że warstwy te, chociaż faktycznie, pochłaniają promieniowanie długofalowe – podczerwone, to są całkowicie przeźroczyste dla promieniowania krótkofalowego –słonecznego. Z definicji zatem nie są one doskonale czarne. Ciało doskonale czarne, z czego być może anonimowy autor „Efektu” nie zdaje sobie sprawy, to ciało które pochłania całość promieniowania, we wszystkich długościach fal.

Podobnie jak to czyni „MGO”, również „Efekt cieplarniany” próbuje porównać ze sobą tytułowe zjawisko termodynamiczne, występujące na trzech, sąsiadujących ze sobą, planetach Układu Słonecznego. Tak samo, jak Adamczyk, również anonimowy autor „Efektu” oblicza tzw. temperatury efektywne, czyli takie, jakie mają te planety oglądane z przestrzeni kosmicznej i jaka teoretycznie występowałaby na ich powierzchniach, gdyby efektu cieplarnianego nie było. Wychodzą mu też prawie identyczne wielkości. Wenus – 229 Kelwinów, Ziemia – 255 Kelwinów, Mars – 210 Kelwinów. Niestety, zaraz później, zapomina on o tych wartościach, wstawiając Rysunek nr 3. Wartości temperatur efektywnych na nim zamieszczone, są bowiem znacznie, od tych uprzednio obliczonych, wyższe. Dla Wenus o 25 stopni, dla Ziemi o 20 stopni a dla Marsa o 10 stopni od tych zamieszczonych w tekście polemiki. Co prawda w opisie rysunku wzmiankowano również o ciałach doskonale czarnych, ale na to z kolei zademonstrowane temperatury są zdecydowanie za niskie, w przypadku Wenus aż o 67 stopni. Zapomniało też Doskonale Szare w swoim świętym oburzeniu na „negacjonizm”, bo przecież nie ośmielimy się podejrzewać, że nigdy o nim nie wiedziało, o prawie Wiena. Zgodnie z nim maksimum emisji dla podanych na rysunku nr 3 „temperatur efektywnych” wynosi odpowiednio dla Marsa 13,2 mikrometra, dla Ziemi 10,5 mikrometra i dla Wenus 11,1 mikrometra, podczas gdy na rysunku są one przesunięte, co najmniej o 3 mikrometry „w prawo” w stosunku do miejsca, gdzie być powinny.

 Rzeczony Rysunek nr 3 przedstawia bowiem hipotetyczne widmo promieniowania tych planet, ale nie jest to widmo faktycznie zmierzone w wyniku obserwacji astronomicznych, ale widmo obliczone teoretycznie na podstawie modelu, który jest w oczywisty sposób błędny, o czym świadczy już jego niezgodność z faktycznymi temperaturami efektywnymi, jak i prawem Wiena, a o czym będzie jeszcze szczegółowo mowa.

Dalej nasz anonim na rysunkach 5,6,7 pokazuje hipotetyczne bilanse energetyczne atmosfer omawianych planet, czyli wielkości strumieni promieniowania pochłanianych, odbijanych i emitowanych przez poszczególne składowe ich powierzchni i atmosfer. Dane te są bardzo ciekawe i pouczające, ale, nad czym należy ubolewać, niepełne. Efekt cieplarniany, jak sama nazwa wskazuje, powoduje wzrost temperatury powierzchni planety, względem temperatury efektywnej. Wypadałoby go więc podać właśnie jako różnicę tych temperatur, czego jednak Doskonale Szare z jakichś powodów, jak gorąco wierzymy, innych, niż brak odpowiednich kompetencji, nie czyni. Musimy zatem zrobić to za niego. W przypadku Wenus możemy z rysunku (nr 6) odczytać całkowitą wartość pochłoniętego promieniowania słonecznego w wysokości 160 W/m2. Daje to, zgodnie z prawem Stefana – Boltzmana, temperaturę efektywną w wysokości 230 Kelwinów. Na razie wszystko się, z dokładnością do jednego stopnia, zgadza. Spójrzmy zatem na drugą stronę bilansu. Emisja z powierzchni Wenus to ponad 17 tys. W/m2 Po przeliczeniu daje to temperaturę powierzchni na poziomie 742 Kelwinów, nieco większą niż podawane przez źródła naukowe 737 Kelwiny. Znając te dwie wartości, można teraz obliczyć grubość optyczną atmosfery Wenus, czyli liczbę „warstw” w atmosferze pochłaniających i emitujących promieniowanie podczerwone. To n = 108,9, czyli liczba bardzo niewiele się różniąca od tej obliczonej przez Adamczyka, na podstawie, jako to autor „Efektu” twierdzi, „nadmiernie uproszczonego”, a nawet „bezwartościowego” modelu, n = 106,2. Tak czy inaczej, każdy kilopascal ciśnienia parcjalnego CO2, po sprowadzeniu go do ziemskiej grawitacji, dokłada do grubości optycznej n wartość ok 0,011. Przynajmniej jeżeli chodzi o Wenus.

Przejdźmy teraz do Marsa (rys 7) Pochłaniane przez planetę promieniowanie długofalowe to 109 W/m2, co, w przeliczeniu na temperaturę, daje 209 Kelwinów, czyli nadal mamy tu bardzo wysoką zgodność. Niestety, coś wyraźnie jest na tym rysunku nie tak z emisją. Wynosi ona 123 W/m2 co odpowiada temperaturze 216 Kelwinów. Jest to wartość podejrzanie wysoka i żadne źródło opisujące Marsa i jego klimat, tak wysokiej wartości średniej temperatury jego powierzchni nie podaje. Gdyby nasz anonimowy autor faktycznie orientował się w kwestiach, o których pisze, powinno to wzbudzić jego podejrzliwość w stosunku do tych danych. Jednak nie wzbudziło. Biorąc ten wynik za dobrą monetę, uwzględniając ilość CO2 w marsjańskiej atmosferze, jego słabszą od ziemskiej i wenusjańskiej siłę grawitacji, dochodzimy do wniosku, że w przypadku Marsa, dwutlenek węgla w jego atmosferze działa, jako gaz cieplarniany, dużo silniej niż na Wenus. Na 1 kPa ciśnienia parcjalnego CO2 (sprowadzonego do ziemskiego ciążenia), grubość optyczna atmosfery marsjańskiej wzrastałaby o n = 0,074, czyli prawie siedmiokrotnie szybciej niż na Wenus.

No wynik, jak wynik, mogłoby się wydawać. Może faktycznie zależność grubości optycznej od stężenia CO2 jest, inaczej niż to przyjęto w MGO, nieliniowa i w przy zmniejszaniu ciśnienia maleje wolniej niż liniowo? W tym miejscu jednak dochodzimy do owego jedynego rzeczywiście merytorycznego zarzutu, jaki opisywany artykuł stawia książce MGO. Zacytujmy go w całości:

Nawet jeśli gazy cieplarniane występują w atmosferze ziemskiej w śladowych ilościach, gazy nie-cieplarniane, takie jak azot i tlen, również wpływają na siłę efektu cieplarnianego. Wszystko dzięki temu, że pomiędzy cząsteczkami gazów dochodzi do zderzeń. Cząsteczka gazu cieplarnianego może pochłonąć falę o energii innej niż potrzebna do przejścia do stanu wzbudzonego, jeśli może natychmiast oddać jej część innej cząsteczce (dowolnego gazu), z którą się zderzy. Skutkuje to poszerzeniem zakresu długości fal, które mogą być pochłaniane. W rzadkiej atmosferze do takich zderzeń dochodzi z mniejszą częstością a zakresy długości pochłanianych fal są wąskie. Z tego też powodu dwutlenek węgla w atmosferze Marsa nie jest tak efektywnym gazem cieplarnianym, jak w atmosferze Ziemi. Z drugiej strony, wysoka gęstość i temperatura atmosfery Wenus powodują znaczące poszerzenie zakresu fal pochłanianych przez atmosferę.

I rzeczywiście. Ta sama ilość gazu cieplarnianego w gęstej atmosferze będzie dawała silniejszy efekt cieplarniany, niż w atmosferze rzadszej, czego Adamczyk w swoich rozważaniach nie uwzględnił. Jednak, jak wynika z powyższego, wcale nie musiał. Po pierwsze wykorzystaną przez siebie zależność grubości optycznej od stężenia CO2, oparł on, nie na przykładzie rzadkiej atmosfery marsjańskiej, ale znacznie od ziemskiej gęstszej wenusjańskiej, czyli nie zaniżył przez to, jak twierdzą jego krytycy, potencjał cieplarniany CO2, ale wręcz przeciwnie – zawyżył. Po drugie zaś, ów efekt, nawet jeżeli realnie istnieje, jest tak znikomy, że nie widać go nawet przy zmianie gęstości atmosfery z Wenus na Marsa, czyli przy różnicy znacznie większej niż przy porównaniu atmosfery Ziemi z którąkolwiek z pozostałych planet.

Dane, które przecież samo Doskonale Szare zaprezentowało, wskazują nawet na coś wręcz przeciwnego. W rzadszej, marsjańskiej, atmosferze gazy cieplarniane, a przynajmniej CO2, mają wg nich, działać znacznie silniej niż w atmosferze wenusjańskiej, kilkanaście tysięcy razy gęstszej. Po raz kolejny więc widać, że dane te, przynajmniej te dotyczące Marsa, są ewidentnie błędne. Zresztą, nawet gdyby wynik ten był prawidłowy, to, po podstawieniu do ziemskich warunków, nadal dawałby wzrost temperatury, po podwojeniu stężenia dwutlenku węgla, zaledwie o …0,3 stopnia.

Jak wspomniano na wstępie, poza tym jednym jedynym merytorycznym, acz nieuzasadnionym, zarzutem, „Efekt” zawiera właściwie same tylko „chochoły”, zarzuty wyimaginowane, krytykę tez, których w książce w ogóle nie ma. „Pamiętajmy o albedo!”, nawołuje Doskonale Szare, chociaż, jako żywo, Adamczyk nigdzie w swojej książce o albedo nie zapomniał.  Czyni też nasz anonimowy autor Adamczykowi wyrzut, że jego „nadmiernie uproszczony” i „bezwartościowy” model niewłaściwie odtwarza pionowy rozkład temperatur w atmosferze Wenus, zaniżając je na większych wysokościach. Także jednak przy tej okazji nasz anonim, w swoim religijnym zapale zwalczania pogan i heretyków, sam nie ustrzegł się błędu, zaniżając z kolei temperatury generowane przez model, w skrajnym przypadku, dla ciśnienia 1,38 bara, aż o 32 stopnie. Zresztą, abstrahując już od faktu, że faktyczny pionowy rozkład temperatur w wenusjańskiej atmosferze nie jest znany z dużą dokładnością, to przecież w MGO żaden taki rozkład nie jest w ogóle prezentowany i autor książki nigdzie do jego stworzenia, na podstawie tego modelu, nie pretendował. Liczy się jedynie grubość optyczna atmosfery, liczba „warstw” cieplarnianych, jak widać w modelu zaprezentowanym w „Efekcie”, prawie identyczna jak dla modelu wykorzystanym przez Adamczyka, a nie konkretne wysokości, gdzie te „warstwy” się znajdują. Nie są to przecież wydzielone, fizycznie istniejące płaszczyzny na podobieństwo szyb w szklarni, a jedynie ułatwiająca zrozumienie modelu wizualizacja grubości optycznej atmosfery.

Wszystko to nie oznacza, że nie da się tego uproszczonego modelu do odtworzenia profilu wenusjańskiej atmosfery wykorzystać. Zaprezentujemy go, aby czytelnicy nie czuli niedosytu. Jak widać na wykresie, uzyskany w ten sposób profil rzeczywiście nie jest zbyt dokładny, ale i tak dokładniejszy, niż Doskonale Szare podaje do wierzenia.

Wenus 01

Anonimowy autor „Efektu”, o czym już była mowa wyżej, z lubością nazywa model Adamczyka „nadmiernie uproszczonym”, „nieuprawnionym”, czy wręcz „bezwartościowym”. Problem jednak w tym, że …nie jest to, jak się jemu i jego współwyznawcom wydaje, „model Adamczyka”. Model ten, obecny w literaturze przedmiotu od wielu dziesięcioleci, został m. in. zaprezentowany w najbardziej w Polsce znanej propagandowej publikacji klimatystów pt. „Nauka o klimacie”, konkretnie w rozdziale 2.5 tej książki. Logicznie rozumując, klimatyści właśnie przyznali się, że prezentują publiczności dane i modele nieuprawnione i bezwartościowe. No, to by było akurat było uczciwym postawieniem sprawy. W sumie trudno się zatem dziwić, dlaczego autor „Efektu” wstydzi się tego, co napisał i woli się ukryć pod pretensjonalnym pseudonimem, niż narażać się na śmieszność pod własnym nazwiskiem.

Zielony ląd i czarna śmierć

Na początku był ogień. Gatunek inteligentny i świadomy, ze swoim niezwykle rozbudowanym i złożonym mózgiem, nie mógłby na Ziemi powstać, gdyby chemia ziemskiej atmosfery nie umożliwiała zachodzenia reakcji spalania. Opanowanie ognia, nie tylko było pierwszą zmianą technologiczną w ludzkiej historii, ale wręcz sam rodzaj Homo stworzyło. Obróbka termiczna pożywienia, umożliwia bowiem pozyskanie z tej samej masy pokarmu znacznie większej ilości energii, niż w przypadku surowizny i tym samym na utrzymanie tak energochłonnego organu jak ludzki mózg. Bez ognia niemożliwa jest inteligencja. Nie jest przypadkiem, że pierwszy inteligentny gatunek na Ziemi powstał dopiero po 4,5 miliarda lat jej istnienia, co jest znaczącym ułamkiem wieku całego Wszechświata. Nie jest też przypadkiem, że żadnego takiego gatunku nie można znaleźć nigdzie indziej we Wszechświecie. Bez zapewnienia odpowiedniego źródła zasilania, inteligencja w toku ewolucji nie powstanie, niezależnie od tego, jak silna będzie presja doboru naturalnego na takie rozwiązanie.

Ogień, czy, jak to się bardziej precyzyjnie wyraził Richard Wrangham w swojej znakomitej książce na ten temat, gotowanie stworzyło człowieka. I gotowanie nas przy życiu utrzymuje. Ludzki układ pokarmowy jest już dziś zdecydowanie za mały i za mało wydajny, aby jego właściciel mógł przeżyć na surowym pożywieniu. Dieta surowa, choćby nie wiadomo jak starannie komponowana i przygotowywana, w dłuższej perspektywie czasowej nieuchronnie prowadzi do śmierci głodowej. Opanowanie ognia jest więc nie tylko pierwszym w historii ludzkości energetycznym przejściem fazowym, ale i przejściem jednokierunkowym, swoistą zapadką termodynamiczną. Powrót do poprzedniej formy ewolucyjnej nie jest już możliwy.

Rodzaj ludzki wraz z opanowaniem ognia, stał się, z ekologicznego punktu widzenia, drapieżnikiem szczytowym. Polował na wszystkie inne gatunki, żaden natomiast, poza ewentualnie innymi ludźmi, nie polował na niego. Gotowanie posiłków umożliwiło mu też, również jako jedynemu gatunkowi na planecie, tworzenie zaawansowanych narzędzi, w tym, znów po raz pierwszy „narzędzi drugiego rzędu” – czyli narzędzi używanych do produkcji innych narzędzi, oraz zaskakująco wysublimowanych dzieł sztuki, w tym, do dzisiaj zatykającego dech w piersiach, malarstwa jaskiniowego. Ale i też na tym się to zatrzymało. Mimo swojej inteligencji, łowcy-zbieracze nie mogą pozyskać z ekosystemu, więcej niż kilka procent uwięzionej w nim energii słonecznej, czyli, tzw. produkcji pierwotnej netto. W konsekwencji ich liczebność, tak samo, jak liczebność wszystkich innych drapieżników, jest regulowana przez równania znane w ekologii pod nazwą modelu Lotki – Volterry. W sposób strukturalny zabraniają one, pod groźbą wyginięcia, przekroczenia przez populację drapieżników pewnego progu liczebności, a tym samym blokują powstanie w takiej populacji, niezależnie od tego, jak bardzo inteligentne są pojedyncze osobniki, społeczności bardziej złożonych, społecznego podziału pracy i wielkoskalowych sieci wymiany genów towarów i idei, czyli krótko pisząc – cywilizacji.

Aby do tego doszło, potrzebne jest kolejne termodynamiczne przejście fazowe, które na Ziemi przyjęło postać tzw. rewolucji neolitycznej, będącej skutkiem powstania rolnictwa. Zamiast pozyskiwać gotowane przez siebie pożywienie wprost z natury, ludzie zaczęli je wytwarzać. Konsekwencje tego faktu były niewiele tylko mniej znaczące niż konsekwencje poskromienia ognia. Rolnicy nie tylko są w stanie pozyskać z biosfery znacznie większy odsetek jej produkcji, ale mogą również, poprzez nawadnianie, nawożenie, pielenie i inne zabiegi agrotechniczne, znacząco podnieść samą produkcję pierwotną danego obszaru. Per saldo z tej samej powierzchni średnio może się wyżywić stukrotnie więcej rolników, niż łowców zbieraczy. Z ekologicznego punktu widzenia, rolnicy przestają być superdrapieżnikami, a stają się supersymbiontami. W przeciwieństwie do uwięzionych w kleszczach atraktorów równań L-V łowców, liczebność rolników staje się zmienna i niestabilna. Powstaje więc społeczność, w przeciwieństwie do łowców zbieraczy, zdolna do rozwoju i adaptacji, tworzenia i wdrażania zmian. Powstaje cywilizacja.

Przewaga rolników nad łowcami, a już na pewno wczesnych neolitycznych rolników, nie jest jednak bynajmniej ewidentna. Rolnictwo, kiedy już powstało, rozprzestrzeniało się po świecie zaskakująco powoli. Wyparcie łowców z niektórych lokalizacji zajmowało rolnikom niekiedy nawet tysiące lat. Jednak i tu mieliśmy do czynienia z efektem zapadki. Rolnictwo, niezależnie od tego jak ślamazarnie by się nie rozprzestrzeniało, nigdy się już nie cofnęło i łowcom miejsca z powrotem nie ustąpiło.

Z jednym wyjątkiem.

W przeciwieństwie do statycznych, niezmiennych w czasie i przestrzeni, kultur łowców, cywilizacja rolnicza ewoluuje wręcz błyskawicznie. Tym większe może być zaskoczenie, że ów wyjątek, nie dotyczy prymitywnej cywilizacji z dolnego neolitu, ale cywilizacji niezwykle już zaawansowanej, z późnego okresu żelaza.

Od VIII wieku na północnym Atlantyku zachodziła bowiem ekspansja pochodzących ze Skandynawii Normanów, zwanych też dzisiaj wikingami. Kolonizacja ta, przez samych zainteresowanych zwana landamem, czyli „objęciem (w posiadanie) ziemi”, doprowadziła do powstania wielu, wywodzących się z tej grupy etnicznej społeczności, od wyspy Man po Islandię, które w większości istnieją tam do dzisiaj. W większości ale nie w całości. Najbardziej oddalone od macierzystej Skandynawii normańskie kolonie w Ameryce Północnej, a zwłaszcza na największej wyspie tego kontynentu – Grenlandii przetrwały tam pół tysiąclecia, ale w końcu zostały wyparte przez populację eskimoskich łowców – zbieraczy, co jest wydarzeniem bez precedensu w historii ludzkiej cywilizacji.

Pierwsi Normanowie osiedlili się, na bezludnej wtedy, Grenlandii pod koniec X wieku, a na początku kolejnego stulecia dotarli i do kontynentu amerykańskiego. Ich potomkowie żyli tam jeszcze ponad cztery stulecia później, w wieku XV, kiedy w Polsce panował Władysław Jagiełło. A potem, nie wiadomo kiedy dokładnie, zniknęli. Kiedy w XVIII wieku do miejsca dawnych grenlandzkich osad dotarli ponownie Duńczycy, zastali tam tylko ruiny i grupy utrzymujących się z łowiectwa, żyjących w erze przedcywilizacyjnej, Eskimosów.

Historia amerykańskich wikingów, ze względu na ich, wyprzedzające o pół millenium dokonania Kolumba, eksplorację Ameryki, oraz na ich tajemnicze zniknięcie, jest owiana legendami i tajemnicami i mimo intensywnych badan historycznych i archeologicznych, daleka jest od wyjaśnienia. Hipotez na ten temat powstało multum i właściwie każda z nich jest w stanie wytłumaczyć jakąś część znanych archeologicznych i historycznych faktów, ale żadna wszystkich. Ze względu zresztą na szczupłość tych źródeł, owych hipotez autorzy tych hipotez, zamiast dopasowywać je do skąpo wydzielanych przez historię danych, dopasowują je raczej do własnych ideologicznych fiksacji.

Tak jest również z najbardziej obecnie popularnym i poniekąd kanonicznym poglądem na ten temat. Jego najbardziej znany i wpływowy popularyzator, Jared Diamond, szczegółowo opisał tą hipotezę w swojej książce „Upadek”. Rdzenni Grenlandczycy, głosi Diamond, wymarli z głodu, wskutek wyczerpania zasobów naturalnych, zniszczenia środowiska i zmian klimatu.

Faktycznie gospodarka rolnicza, którą ustanowili na Grenlandii Normanowie, przyczyniła się znacząco do dewastacji ekologicznej tego rejonu. Wycięto m in wszystkie drzewa i odtąd Grenlandczycy borykali się z notorycznym brakiem drewna. Brak drewna oznaczał też poważne problemy w produkcji, niezbędnego normańskiej gospodarce, żelaza. Wylesienie i nadmierne wypasy hodowanych zwierząt, owiec i krów, pociągnęło też za sobą erozję miejscowych gleb, a tym samym spadek plonów. Kiedy tylko klimat nieco się oziębił, komunikacja z Europą, skąd tylko mógł przejść ratunek, zerwała się, a rdzenni Grenlandczycy mieli zwyczajnie umrzeć z głodu.

Trudności te nie mogą być jednak przeceniane. Warunki klimatyczne i ekologiczne dla normańskiego osadnictwa na Grenlandii, chociaż trudne, obiektywnie nie były gorsze niż na innych zasiedlonych przez nich terenach. Największe skupisko osadnicze na Grenlandii, zwane Osiedlem Wschodnim leży na szerokości geograficznej Szetlandów, Nieco mniejsze i wbrew swojej nazwie, położone bardziej na północy, Osiedle Zachodnie – Wysp Owczych, a na obu tych archipelagach, jak zresztą i na wysuniętej jeszcze bardziej na północ Islandii, społeczności normańskie istnieją stabilnie aż do dzisiaj. Okres wegetacji jest na Grenlandii dłuższy niż na Islandii, a gleby lepsze i mniej podatne na erozję. Brakujące im drewno i żelazo sprowadzali Grenlandczycy z Europy, oraz pozyskiwali z kontynentalnej Ameryki, zwanej przez nich Winlandią, którą penetrowali znacznie dłużej i bardziej intensywnie, niż się to historykom jeszcze do niedawna wydawało.

Ostatnie znane szczątki Grenlandczyków, odkopane z XV wiecznego cmentarza, są pochowane z pełnym chrześcijańskim ceremoniałem, ubrane według najnowszej wtedy europejskiej mody, co świadczy o tym, że kontakt z Europą nie urwał się bynajmniej definitywnie, nie noszą też żadnych śladów degeneracji, czy niedożywienia. Temperatury wtedy też nie były jakoś specjalnie niskie. W XV wieku było na Grenlandii cieplej niż w wieku XIV, czy XVI. W najwcześniej, bo już w połowie wieku XIV, porzuconym Osiedlu Zachodnim, pozostało po jego mieszkańcach mnóstwo zdziczałych zwierząt hodowlanych, co przecież nie miałoby miejsca, gdyby owi mieszkańcy pomarli z głodu.

Dlatego wszystkie teorie odwołujące się do zniszczenia środowiska, zmian klimatycznych, głodu, etc są bardzo mało wiarygodne.

Ale oczywiście nie są jedyne. Inny popularny pogląd traktuje osiedla grenlandzkie, nie tak, jak wszystkie inne ówczesne normańskie Landnamy, jako miejsce do stałego osiedlenia się, tylko jako coś w rodzaju faktorii handlowej, której głównym celem było pozyskiwanie egzotycznych, drogich i poszukiwanych przez ówczesne europejskie elity towarów – kłów i skór morsów i futer niedźwiedzi polarnych, oraz zyskowny handel nimi. Kiedy tylko ceny kłów morsów – najważniejszego grenlandzkiego towaru eksportowego, spadły, a równocześnie trudności w pozyskiwaniu tego surowca, wskutek pojawienia się na tradycyjnych terenach łowieckich, zwanych przez Grenlandczyków Nordsetą, eskimoskiej konkurencji, wzrosły, grenlandzcy Normanowie po prostu zwinęli interes i przenieśli się z powrotem na Islandię czy wręcz do Norwegii. Teoria ta jednak również nie jest satysfakcjonująca. Kryzys popytowy na rynku kości zapewne odegrał, jak o tym jeszcze będzie mowa, jakąś rolę, ale na pewno nie decydującą. Wikingowie przedstawiani są we współczesnej kulturze nieodmiennie jako straszliwi wojownicy i grabieżcy, zdecydowanie rzadziej jako rzutcy i przedsiębiorczy kupcy. Tak też widziały ich i opisywały inne współczesne im kultury. Natomiast sami siebie Normanowie tak bynajmniej nie postrzegali.

Tym co pchało Normanów do zasiedlenia Grenlandii i prób osadnictwa w Ameryce,  nie było poszukiwanie towarów na handel, tylko ziemi do uprawy i osiedlania się. Życiowym celem każdego Normana nie było bowiem bynajmniej łupienie, ani zyskowne operacje handlowe. To były, co najwyżej, środki do celu, jakim było bycie bogatym gospodarzem na dużym gospodarstwie. Zasiedlając Grenlandię nie mogli Normanowie przewidzieć, że spotka ich w przyszłości deficyt drewna i żelaza i że będą rozpaczliwie potrzebować towarów na wymianę. Lukratywny handel kłami morsów rozwinął się wiele lat po grenlandzkim Landnamie. Tym bardziej nie powinno to dziwić, zważywszy na fakt, że Grenlandia jest naprawdę dużym lądem – największą wyspą świata i Nordseta – tereny gdzie Normanowie na morsy polowali, od normańskich osiedli były oddalone o ponad tysiąc kilometrów. Z drugiej strony, spadek cen i kryzys na tym rynku nastąpił już w połowie XIII wieku. Mniej więcej w tym samym czasie doszło też do pierwszych, niezbyt zresztą przyjaznych, kontaktów z przybyłymi z północy ludźmi kultury Thule, których dzisiejszych potomków znamy jako Eskimosów. Mimo tego, Grenlandczycy bynajmniej interesu nie zwijali i utrzymali się w swoim domu jeszcze dwa stulecia.

Kolejna grupa hipotez jest związana właśnie z tymi północnymi najeźdźcami. Eskimosi mieli rdzennych Grenlandczyków po prostu wymordować, w całości, lub w męskiej części, kobiety zaś zgwałcić i uprowadzić.

Istotnie, znane w źródłach kontakty miedzy tymi populacjami nie były najlepsze i od początku nacechowane były sporą dawką przemocy. Z drugiej jednak strony badania genetyczne nie znalazły w dzisiejszej eskimoskiej populacji wyraźnych genetycznych wpływów normańskich. W znaleziskach archeologicznych brak też jakichkolwiek śladów walk, spalonych i splądrowanych domostw, zwłok ludzi padłych w boju, etc…

Nie ma w tym nic dziwnego. Chociaż bowiem łowcy zbieracze żyjąc w stanie pierwotnej anarchii, nie znając ani prawa, ani własności prywatnej, nie mają nic przeciwko napadom na rolników i rabowaniu ich, dla łowców „niczyjego”, dobytku, na co w historii są liczne przykłady, to jednak dzicy nie są w stanie na serio zagrozić cywilizacji, która zawsze ma nad nimi druzgoczącą przewagę nie tylko technologiczną i organizacyjną, ale i liczebną. Nawet tak osamotnione placówki jak Osiedle Wschodnie, bez trudu mogły do swojej obrony wystawić ponad tysiąc uzbrojonych ludzi. Eskimoscy łowcy zbieracze, żyli zaś w rozproszonych kilkudziesięcioosobowych grupach klanowych. Nawet jeżeli 2-3 takie grupy, bo na pewno już nie większa ich liczba, mogły się w celu wspólnego złupienia rolników dogadać, to i tak dawało to stosunek sił 10:1 na korzyść obrońców.

Napadać na samotne, oddalone od sąsiadów farmy – owszem. Ale nie na osady zamieszkałe przez wielotysięczną populację. Hipotezę eskimoskiego najazdu osłabia też fakt, że zasoby eksploatowane przez Normanów (głównie pastwiska) i Eskimosów (głównie pełnomorskie łowiska) jedynie w niewielkim stopniu pokrywały się ze sobą. Można się zatem raczej spodziewać, że te dwie populacje generalnie ignorowały się nawzajem.

Z jakiegoś powodu natomiast, handel miedzy nimi nigdy się nie rozwinął na jakąś znaczącą skalę. Pewnie dlatego, że Grenlandczycy nie mieli zbyt wielu produktów na wymianę. Najbardziej pożądanych przez łowców-zbieraczy metali, sami nie mieli na zbyciu.

Skoro zatem nie wyczerpanie zasobów, nie zmiany klimatyczne, nie trendy ekonomiczne i nie eksterminacja Normanów z rąk Eskimosów doprowadziły do ich zniknięcia z Grenlandii, to co?

Jak już wspomniano, warunki przyrodnicze na Grenlandii, nie były dla normańskiej gospodarki gorsze niż w innych miejscach, gdzie do landnamu doszło, a od islandzkich były nawet lepsze. Grenlandia ma jednak, w porównaniu z Faroerami, czy Szetlandami, trzy istotne minusy, z których dwa zostały zauważone i opisane jeszcze przez Diamonda, ale jeden jakoś umyka wszystkim dotychczas zajmującym się tym zagadnieniem autorom, pewnie dlatego, że są to głównie humaniści, nie mający solidnej wiedzy z dziedziny statystyki. Pierwsza wada to obecność wrogo nastawionej populacji Eskimosów, co w innych miejscach zasiedlonych przez normańską diasporę nie miało miejsca. Oczywiście, jak już była o tym mowa, łowcy zbieracze nigdy nie są w stanie militarnie zagrozić znacznie liczniejszym populacjom rolniczym. Sama obecność dzikusów stanowi jednak dodatkowe obciążenie ekonomiczne. Trzeba zachowywać nieustanną czujność, utrudnione stają się wszystkie dalsze wyprawy, zwłaszcza na Nordsetę.  Koszty pozyskiwania kłów i skór morsów gwałtownie musiały wzrosnąć, a tym samym pogorszyć bilans handlowy.

Drugim minusem Grenlandii jest jej oddalenie od Europy. Nie tylko utrudniało to wymianę handlową, zwłaszcza kiedy warunki nautyczne na północnym Atlantyku się w XIV wieku pogorszyły. Wystąpił także jeszcze inny efekt. W gospodarce rolniczej, zwanej też maltuzjańską, występują bowiem swoiste cykle demograficzno-ekonomiczne. Po wprowadzeniu jakiejś innowacji technologicznej, czy organizacyjnej, bądź tylko skolonizowaniu, jak właśnie w omawianym przypadku, nowych terenów, następuje wzrost gospodarczy i produkcja (rolna) rośnie. Wcześniej czy później jednak, wzrost demograficzny dogania wzrost produkcji, warunki życia się pogarszają, gospodarka wpada w kryzys i stagnację, co w końcu kończy się ogólnym załamaniem i zapaścią cywilizacyjną. Długość takiego cyklu zależy zaś od ogólnej wielkości cywilizacji, w której on zachodzi. Dla populacji liczącej dziesiątki i setki milionów osobników, pełny taki cykl, od kryzysu do kryzysu może trwać nawet ponad tysiąc lat. Dla populacji liczonej w tysiącach, jest jednak około dwukrotnie krótszy. Izolacja Grenlandczyków od reszty Christianitas, nawet niepełna, sprawiła, że stracili oni swoistą synchronizację z cywilizacją macierzystą i weszli we własny cykl, znacząco, wskutek ich niewielkiej liczebności, krótszy od cyklu właściwego, chrześcijańskiego.

I tu dochodzimy do trzeciego, mniej oczywistego i zwykle ignorowanego minusa. Grenlandia, jak już o tym autor wspominał, jest wielka, ale ta jej część, która się nadawała dla normańskiego osadnictwa, jest z kolei …mała. Grenlandczyków nigdy nie było więcej niż kilka tysięcy, o rząd wielkości mniej niż Islandczyków. A mniejsza populacja, jeżeli jest dodatkowo odizolowana, nie tylko przyśpiesza nadejście maltuzjańskiego przeznaczenia, ale jest też narażona na większe proporcjonalnie losowe wahania swojej liczebności. Odchylenie standardowe, wartość określająca zakres takich wahań, jest bowiem proporcjonalne do pierwiastka kwadratowego z wielkości populacji. Jakoś tak umyka powszechnej uwagi, że pierwszy grenlandzki kryzys demograficzny, połączony z porzuceniem Osiedla Zachodniego, nastąpił w połowie XIV wieku. Dokładnie wtedy, kiedy w Norwegii, której króla władzę Grenlandczycy nad sobą uznawali, połowa populacji zmarła w trakcie epidemii Czarnej Śmierci. Zadziwiające, że wszyscy, przynajmniej milcząco, zakładają, że epidemia ta nigdy nie dotarła do Grenlandii. Owszem Grenlandia, z całej atlantyckiej normańskiej diaspory, była najbardziej izolowana, ale przecież nie całkowicie. Wskutek małej liczebności populacji, dżuma, kiedy już się tam pojawiła, mogła wybić nawet i 90% mieszkańców, a w porzuconym Osiedlu Zachodnim – wszystkich. W Europie były przecież miasta, które wymarły całkowicie. Islandia, czy Faroery mogły wyrównać taki ubytek wskutek imigracji nowych mieszkańców, ale Grenlandia miałaby z tym dużo większe problemy.

Nawrót epidemii gdzieś w połowie XV wieku, mógł zaś zredukować populację na tyle, ze ocalali zdecydowali się po prostu porzucić Grenlandię i przenieść się na Islandię, czy nawet do Norwegii. Takim losowym wydarzeniem, które ostatecznie dobiło kolonię, mógł być też napad piratów. W XV wieku pirackie okręty były już uzbrojone nawet w działa, a nowo zakładane np. na Wyspach Kanaryjskich miasta, właśnie w obawie przed morskimi rabusiami, budowano w pewnej odległości od morza. Takiej opcji, cofnięcia się w głąb lądu, Grenlandczycy nie mieli i wobec uzbrojonej w artylerię pirackiej flotylli, gdyby taka się u ich wybrzeży pojawiła, byli właściwie całkowicie bezbronni.

Bezpośrednią przyczyną, bezprecedensowego w skali światowej, zaniku cywilizacji na Grenlandii, byłaby więc epidemia, czy piraci, ale przyczyną zasadniczą, izolacja grenlandzkiej enklawy od jej cywilizacji macierzystej i jej niewielkie rozmiary, co skutecznie skróciło maltuzjański cykl cywilizacyjny i czyniło grenlandzkie osiedla podatnymi na takie właśnie wydarzenia losowe. Do ich całkowitej zagłady wystarczyły takie dwa. A miejsce opuszczone przez cywilizację zajęli dzicy.

Jest jednak jeszcze jedna hipoteza wyjaśniająca zniknięcie grenlandzkich chrześcijan. Hipoteza szalona i nie ma co ukrywać, bardzo mało prawdopodobna. Rdzenni Grenlandczycy mieliby, wg niej, zostać, ni mniej, ni więcej, ale …porwani przez obcą cywilizację i wywiezieni na pokładach jej statków. No, statków morskich, nie kosmicznych.

Twórca tej hipotezy, Gavin Menzies nie jest w środowisku historycznym traktowany poważnie, a jego książka „1421” w której tą hipotezę stawia, cierpi na przypadłość, którą niżej podpisany zwykł nazywać „danikenozą”. Polega ona, w największym uproszczeniu, na braku jakiegokolwiek krytycyzmu wobec zebranych źródeł i interpretowaniu ich wyłącznie na jedno kopyto. A mimo to nie jest ta hipoteza zupełnie bezsensowna. Zniknięcie grenlandzkiego Landnamu faktycznie zbiega się w czasie z wielką oceaniczną ekspansją Chin. Chińskie floty przemierzały światowe oceany na sto lat przed Magellanem. Liczyły po kilkadziesiąt gigantycznych statków tzw. baochuanów i po kilkadziesiąt tysięcy ludzi. Taka armada, gdyby przybyła do Osiedla Wschodniego mogła bez problemu wziąć je całe do niewoli.

Wizja ta jest niesłychanie atrakcyjna i imponuje rozmachem. Niestety, wbrew temu co twierdzi Menzies, nie ma żadnych przesłanek, że chińskie floty skarbowe w ogóle opłynęły Przylądek Dobrej Nadziei i pojawiły się na Atlantyku, nie mówiąc już o leżącej, z chińskiego punktu widzenia, dosłownie po drugiej stronie świata, Grenlandii. Gdyby w latach 20 XV wieku Chińczycy mogli dopłynąć do Grenlandii, to znaczy że mogli dopłynąć wszędzie, również do Europy. A śladów na to żadnych nie ma. Trochę szkoda, bo historia byłaby przez to o wiele bardziej interesująca.

Był las, będzie las.

Zgodnie z danymi GUS, pod koniec 2017 roku, lasy zajmowały 29,6% powierzchni Polski. Według alternatywnej, międzynarodowej metodologii liczenia, faktyczna lesistość wynosi już u nas 30,9%. Dla porównania, w 1945 roku lasy rosły tylko na 20,8% powierzchni naszego kraju. Lasów jest w Polsce nie tylko coraz więcej, ale i są one też coraz gęstsze. Ich tzw. miąższość, liczba metrów sześciennych drewna na jeden hektar, rośnie bowiem również systematycznie od 1945 roku.

W skali Europy nie jest też Polska pod tym względem żadnym ewenementem. Lasy systematycznie zwiększają swój zasięg w prawie wszystkich krajach kontynentu. Jednocześnie jednak, co rusz jesteśmy atakowani medialnymi doniesieniami o „zagładzie lasów”, o „utracie lasów”, o „rabunkowej wycince lasów”. I nie są to wcale alarmy wyssane z palca. Ponieważ jednak, jak widzimy, nie odnoszą się one do Europy, owa rabunkowa eksploatacja musi mieć miejsce na innych kontynentach. I znów, nie dotyczy to jednak takich krajów, jak Australia, Nowa Zelandia, Kanada, USA, czy Japonia.

Jeremiady nad zagładą lasów, starannie jednak tę kwestię omijają. Dlaczego w niektórych krajach lasy są wycinane, a w innych wręcz przeciwnie? Odpowiedź na to pytanie, to wszak pierwszy krok, aby lasy ochronić także w skali globalnej. W celu znalezienia tej odpowiedzi zbudujemy zatem teraz odpowiedni model lasu. W pierwszym przybliżeniu, las składa się z drzew, roślin o ekstremalnie długim czasie wzrostu. Zakładając, że po czasie T, drzewo osiąga swoją maksymalną objętość i dalej już nie przyrasta, najbardziej ekonomiczną opcją, jest wycięcie tych drzew, które w danym roku ten wiek T osiągnęły i na ich miejsce posadzenie nowych. W kolejnym roku wycina się drzewa, które rok wcześniej były w wieku T-1 i tak dalej. W ten sposób, można osiągnąć stały dochód z lasu, bez jego rabunkowej wycinki. Załóżmy, że roczny zysk, z tak racjonalnie eksploatowanego lasu, wynosi a jednostek. Ile można uzyskać z eksploatacji nieracjonalnej? Z wycięcia całego lasu w pień?

Jeżeli przyrost drzewa, jak i zresztą każdego innego żywego organizmu, odbywa się w trzech wymiarach, to łączna jego objętość rośnie proporcjonalnie do trzeciej potęgi czasu. Zakładając, że wartość kubika drewna też jest liniowo proporcjonalna do wieku drzewa, stosunek A/a, czyli kwoty, jaką można uzyskać z wycięcia wszystkich drzew, do zysku z wycięcia jedynie drzew najstarszych, w wieku T, wynosi ok. 0,2*T+0,46. Dotyczy to zresztą nie tylko lasów, ale i wszystkich innych zasobów przyrodniczych, słoni czy ryb w morzu. Nawet zatem dla stosunkowo dużych wartości T, jak T=100 lat, już po 20 latach racjonalna gospodarka leśna góruje ekonomicznie nad nieracjonalną, rabunkową. Dlatego przecież jest ona właśnie racjonalna.

Las można też jednak wyciąć z innego, niż żądza natychmiastowego zysku i wyzysku, powodu. Las bowiem, zajmuje pewną przestrzeń, która, wykorzystana w inny sposób, mogłaby przynieść swojemu właścicielowi wyższe, niż a, dochody. Alternatywny w stosunku do a zysk z danej powierzchni, oznaczmy jak b. Przegląd realnych dzisiejszych czynszów gruntowych, prowadzi jednak do konkluzji, że warunek b>a jest spełniony jedynie w przypadku terenów przeznaczonych pod budownictwo, czy ogólnie nieruchomości miejskich. Są to jednak, w skali planety, areały zbyt małe, aby wyjaśnić światowy kryzys leśny. Realnie lasy konkurują o miejsce na Ziemi nie z miastami i budynkami, ale z uprawami rolnymi. A tutaj ekonomia jest bezlitosna. Stosunek b/a w przypadku rolnictwa, jest obecnie znacznie niższy od jedności i waha się od 1/3 w lasach strefy umiarkowanej, takich jak lasy Polski, do nawet 1/10 w tropikalnych lasach deszczowych, akurat tam, gdzie problem deforestracji jest szczególnie palący. Roczny zysk z lasu jest, co najmniej kilkukrotnie wyższy, niż zysk z pola ziemniaków, czy soi. Wyraźnie widać zatem, że jakiegoś kluczowego czynnika w naszej kalkulacji nie uwzględniliśmy.

Tym nieuwzględnionym do tej pory czynnikiem jest czas. Wartość pieniądza nie jest bowiem stała i zmienia się w czasie. Wie o tym każdy, kto musiał się targować z dzieckiem, o to, czy woli ono jeden cukierek dzisiaj, czy dwa cukierki jutro. U dzieci ten spadek wartości kapitału, zwany też preferencją czasową, jest bowiem szczególnie duży. Jednak i w wieku dorosłym każdy wolałby dostać sto złotych raczej dzisiaj niż za rok, a zapłacić na odwrót. Tempo takiego spadku wartości pieniądza w czasie, którego to zjawiska nie należy mylić z inflacją, jest określone przez tzw. stopę dyskonta, albo stopę procentową. W ujęciu matematycznym zmianę wartości kapitału opisuje równanie wykładnicze:

P = P0*e-rt

W którym t to czas, a r, stopa procentowa. Opisane wyżej zjawisko jest podstawą, szeroko w biznesie stosowanej, analizy NPV (ang. Net Present Value). Polega ona na zsumowaniu wszystkich przewidywanych w przyszłości, w czasie t, wpływów i wydatków, czyli przepływów finansowych, tzw. Cash Flow CF i sprowadzenie ich, za pomocą wspomnianej formuły matematycznej, do obecnej wartości pieniądza, czyli ich zdyskontowanie. Im wyższy wynik NPV, tym bardziej korzystny finansowo jest dany biznes. Dla naszych celów zrobimy taką analizę dla czterech możliwych scenariuszy.

  1. Racjonalna eksploatacja posiadanego lasu z zyskiem a rocznie

NPV 1 = (a/r)*(1-e-rt)

  1. Wycięcie lasu i przeznaczenie gruntu pod uprawę soi czy ziemniaków z zyskiem b rocznie

NPV 2 = A+(b/r)*(1-e-rt)

  1. Racjonalna eksploatacja posiadanego pola z zyskiem b rocznie

NPV 3 = (b/r)*(1-e-rt)

  1. Zalesienie posiadanego pola soi czy ziemniaków, odczekanie przez czas T, aż wyrośnie tam las i jego późniejsza racjonalna eksploatacja z zyskiem a rocznie

NPV 4 = (a/r)*( e-rT -e-rt)

Właściciel pola może wybierać między scenariuszami 3 i 4, właściciel lasu pomiędzy 1 a 2. O tym, który ze scenariuszy jest bardziej opłacalny, decyduje kombinacja czterech parametrów. Pierwszy z nich, czas wzrostu T jest determinowany biologicznie i od ludzkich decyzji w ogóle nie zależy. Dwa następne parametry to stosunek b/a, oraz stopa procentowa r wynikają z sytuacji ekonomicznej, średniej ceny drewna i płodów rolnych, oraz od stopnia nasycenia gospodarki kapitałem. Stopa dyskonta z grubsza wynika bowiem z poziomu zysku, jakie mogą przynieść alternatywne sposoby tegoż kapitału zainwestowania. Wreszcie ostatni czynnik to czas t. W przypadku inwestycji w nieruchomości, uznaje się zazwyczaj, że założony zysk będzie wpływał zawsze, czyli że t dąży do nieskończoności. Nawet, jeżeli nieruchomość zostanie w którymś momencie sprzedana, to jej cena będzie odpowiadać sumie zdyskontowanych zysków, które dana nieruchomość przynosi, czyli tak zwanej wartości rezydualnej RV. Matematycznie są to sytuacje równoważne. W tej sytuacji możemy nasz model, przy stałym T (przyjęto 60 lat) i nieskończonym t, sprowadzić do dwóch tylko wymiarów. Wynik obliczeń przedstawia poniższy wykres:

Lasy 01

Można na nim wyróżnić trzy obszary. W strefie I, prawej górnej części wykresu, powyżej niebieskiej linii granicznej, przy niskich cenach drewna i wysokiej stopie procentowej, opłaca się las wyciąć i zastąpić go uprawami. Jednak, kiedy cena drewna wzrośnie, albo gospodarka nasyci się kapitałem, punkt równowagi przemieści się w lewo i w dół do kolejnej strefy – II. Tutaj już lasu wycinać w pień się nie opłaca, bo na racjonalnym nim gospodarowaniu można zarobić (w sensie NPV) więcej. Nadal jednak właściciel pola soi nie ma wystarczających bodźców ekonomicznych, aby swoje pole zalesić i czekać 60 lat na osiągnięcie wyższych niż b dochodów. To staje się opłacalne dopiero w strefie III, przy jeszcze niższych stopach procentowych i jeszcze wyższych cenach drewna. Nieużytki, dla których b = 0, opłaca się zalesić niezależnie od wysokości stóp procentowych. Oczywiście zachodzi tu też pewne sprzężenie zwrotne. Stosunek b/a w znacznym stopniu zależy od podaży i odzwierciedla stosunek przeznaczonych pod odpowiednie uprawy areałów. W strefie I stopniowe zmniejszanie lesistości prowadzi do spadku b/a i przesuwania się punktu równowagi w lewo, aż do momentu, kiedy dotrze on do granicy strefy II, gdzie wycinki zamierają. Dalszy rozwój gospodarczy prowadzi do akumulacji kapitału i spadku stóp procentowych, co powoduje ruch w dół wykresu, aż do momentu dotarcia do strefy III, gdzie lesistość zaczyna ponownie rosnąć, co z kolei prowadzi do wzrostu b/a Jeżeli zmiany te są wystarczająco powolne, w miarę spadku stóp procentowych punkt równowagi będzie się ześlizgiwać w dół wykresu wzdłuż granicy pomiędzy strefami II i III i lesistość będzie powolutku, lecz stale, rosnąć. Takie właśnie zjawisko obserwujemy w Europie i innych rozwiniętych obszarach świata.

Jednak nie wszędzie. Jak już wspomniano, w skali planety powierzchnia lasów się zmniejsza, czyli, poza Europą, Kanadą, czy USA, są obszary, zwłaszcza w Afryce, Ameryce łacińskiej, czy Azji, gdzie intensywność wyrębów jest znacznie wyższa niż wzrost lesistości w krajach rozwiniętych. Czy te obszary znajdują się w strefie I? Faktycznie, są to kraje biedne, w których występuje deficyt kapitału, zatem i stopy procentowe są tam wyższe niż w krajach rozwiniętych. Z drugiej jednak strony, dla dżungli tropikalnych, parametr b/a jest znacznie, kilkukrotnie niższy niż dla lasów strefy umiarkowanej. Lasy tropikalne rosną szybciej, a drewno z tej strefy klimatycznej, mahoń, tek czy heban jest też od sosny, czy brzozy znacznie droższe. W rezultacie punkt równowagi na wykresie leży wyżej (wyższe stopy procentowe), ale i bardziej w lewo (niższe b/a). Może i nie wystarczy to na utrzymanie się w strefie III, ale nie powinniśmy też wyjść w strefę I. Nasz model najwyraźniej tu szwankuje.

Zbyt pochopnie bowiem przyjęto w nim pewne uproszczenie. Nieprzypadkowo pierwszy wykres ma w tytule „gospodarkę wolnorynkową” Tylko w krajach cywilizowanych, z wolnorynkowym, praworządnym ustrojem gospodarczym, gdzie księgi wieczyste faktycznie są wieczyste, czas t władania daną nieruchomością można przyjąć, tak jak autor zrobił to wyżej, za nieskończony. Daleko jednak nie wszystkie kraje na świecie można za takowe uznać. W krajach dzikich, a takie właśnie stanowią w strefie występowania dżungli tropikalnych większość, własność prywatna i jej ochrona nie jest bynajmniej na czołowym miejscu na liście parytetów tamtejszych władz. Nawet, jeżeli ktoś jakąś działkę formalnie posiada, wcale nie może być pewien, czy za 5, lub 10 lat jakiś kolejny reżim nie zacznie bronić narodu przed wyzyskiem międzynarodowych korporacji i prywatnej własności, i w ramach sprawiedliwości ludowej, nie skonfiskuje. W konsekwencji władający (chwilowo) jakimś terenem będą się starali maksymalizować swoje wskaźniki NPV nie w nieskończoności, jak Szwajcarzy, czy Amerykanie, ale w przedziałach czasu znacząco krótszych. Im bardziej dziki, socjalistyczny i nieprzewidywalny jest tamtejszy reżim, tym ten przewidywany czas t będzie krótszy. Jak na to zareagują lasy? Ustalając, tak jak w poprzednim przypadku T na 60 lat i typowy obecnie poziom r = 4%, można zbadać losy lasu w zależności od zmian pozostałych parametrów modelu. Stosunku cen b/a i czasu władania t. Z pierwszego wykresu możemy dodatkowo odczytać, że, w warunkach wolnorynkowych, granicą wycinki przy tych założeniach byłoby b/a = 50%, a granicą zalesiania b/a = 9%.

Lasy 02

Wynik jest oczywisty. Przy odpowiednio krótkim czasie t, lasy będą znikać, nawet przy stosunkowo niskich stopach procentowych i właściwie dowolnie wysokich cenach drewna. W warunkach wysokiego stopnia socjalizmu (niskiego t) każdy próbuje się nachapać jak najszybciej, bez oglądania się na przyszłość.

Model nasz, jak każdy dobry model, nie tylko więc wyjaśnia obserwowany stan faktyczny w Europie, tak samo jak i w Afryce, ale i daje odpowiedź na pytanie, w jaki sposób światowe wylesienia powstrzymać i odwrócić. Stanie się tak, kiedy kraje, które na swoim terytorium posiadają ekosystemy tropikalne, będą choćby w przybliżeniu tak wolnorynkowe i praworządne jak kraje europejskie, Nowa Zelandia, czy Japonia. Nie tylko wzrośnie wtedy, docelowo do nieskończoności, oczekiwany czas władania t, ale i napłynie tam kapitał, obniżając stopę procentową r. Lasy Kongo, czy Ekwadoru będą wyglądać jak lasy Szwecji czy Francji wtedy, kiedy same Kongo i Ekwador będą równie praworządne jak Szwecja i Francja, a własność prywatna będzie tam, w przynajmniej porównywalnym stopniu, przez prawo i państwo chroniona.

W powyższych rozważaniach przyjęliśmy, że stosunek b/a zależy wyłącznie od podaży, czyli od odsetka powierzchni lasów w danym kraju. To oczywiście uproszczenie. Popyt też odgrywa znacząca rolę i może modyfikować zachowanie naszego modelu w zauważalnym stopniu. Kiedy zapotrzebowanie na drewno jest niskie, a na płody rolne wysokie, wylesienia będą znacznie większe, niż przy sytuacji przeciwnej. Kiedy jakiś czas temu zaczęto na świecie lansować, produkowane z kukurydzy, „ekologiczne”, tzw. „biopaliwa”, potencjalnie była to moda dla lasów bardzo niebezpieczna. Na szczęście biopaliwa z mody ostatecznie wyszły. Dzisiaj natomiast promuje się ograniczenia w produkcji i użyciu tworzyw sztucznych, plastików. W większości zastosowań najbardziej wygodną dla plastiku alternatywą jest właśnie drewno i materiały drewnopochodne, jak papier. Odejście od plastików spowoduje więc duży wzrost popytu na drewno. Na naszych wykresach jest to równoważne przesunięciu, w bardzo dużym stopniu, równowagi w lewo. Czyli w stronę strefy II a nawet III. Lasy na świecie nie tylko przestaną się kurczyć, ale znów zaczną powiększać swój areał. Co ciekawe, promotorzy tego rozwiązania, w ogóle go w ten sposób nie próbują uzasadniać, chociaż byłoby to znacznie bardziej sensowne i zrozumiałe, niż głoszone w zamian kłamliwe i niewiarygodne tezy o „zanieczyszczeniu środowiska”.

Aby jednak ten efekt wzrostu lesistości w pełni się objawił, potrzebna jest jednak jeszcze odpowiednia wysokość t, Jak widać na drugim wykresie, w krajach źle rządzonych, o niskiej, mniejszej niż ok 20 lat, jego wartości, żadne zwiększanie popytu nic nie da. Lasy i tak zostaną wycięte do końca, a nieudolne i skorumpowane tamtejsze reżimy będą o to obwiniać korporacje, globalny kapitał i „neoliberalizm”.

Węglowe requiem

Ideologii klimatyzmu, bardzo wpływowej obecnie, na poły sekcie religijnej, na poły politycznemu i ekonomicznemu lobby, poświęcił niżej podpisany już wiele artykułów, a nawet całą książkę. Temat jednak nadal jest daleki od wyczerpania. Sekta klimatystyczna, głosi, w największym skrócie, że wskutek kapitalistycznej żądzy zysku i wyzysku, „przeludnienia” i „zbytecznej, nadmiernej konsumpcji”, czeka nas w najbliższej, kilkunastoletniej perspektywie czasowej, totalna zagłada, lawinowy wzrost ziemskiej temperatury, aż do upieczenia całej ziemskiej biosfery włącznie. Bezpośrednią tego przyczyną ma być niekontrolowany wzrost tzw. efektu cieplarnianego, wywoływanego przez CO2 emitowany przy okazji spalania paliw kopalnych – węgla, ropy i gazu. Większa populacja = większa konsumpcja = większe spalanie = więcej CO2 = katastrofa.  Podobnie jak to było w przypadku poprzedzających ich w przestrzeni medialno – społecznej, kreacjonistów, również klimatystyści swoje Ciało Kierownicze mają w USA. Ciało to, o czym autor również miał niejednokrotnie okazję pisać, chociaż jest bez wątpienia bardziej od Ciała kreacjonistów kompetentne i z nauką obeznane, to jest to jednak różnica jedynie ilościowa. Tak samo również, lokalne mutacje klimatyzmu, w tym polska, są jeszcze bardziej przeraźliwie prowincjonalne i zaściankowe, co było widać przy okazji próby wykreowania polskiego odpowiednika Grety Thunberg – próby żałosnej w swojej wtórności i sztuczności.

Klimatyści spoza anglosaskiego kręgu kulturowego, ograniczają się bowiem jedynie do powielania i co najwyżej, tłumaczenia na inne języki, przekazu propagandowego płynącego z centrali. Tłumaczenia zresztą, wskutek luk w ich wykształceniu, bardzo ułomnego. Jednym z przejawów tego zjawiska jest prezentowanie amerykańskich realiów społecznych i ekonomicznych, jako reprezentatywnych także dla kraju, w którym akurat dany odłam klimatystów swoją Prawdę Głosi. Widocznym i bardzo jaskrawym tego przykładem jest notoryczne sprowadzanie „paliw kopalnych”, a nawet całej światowej energetyki w ogóle, wyłącznie do ropy naftowej. Owszem, prawdą jest, że ropa naftowa daje największy wkład w ludzką energetykę, ale jest to nadal jedynie 1/3 całości, choć jeszcze na początku lat 70 XX wieku, była to równo połowa. Obecnie jednak, 2/3 światowej produkcji energii pochodzi z innych, niż ropa naftowa, źródeł. Globalnie. Bo lokalnie, np. w polskiej węglowej rzeczywistości, te proporcje mogą być zupełnie odmienne, co sprawia, że mechanicznie przeniesiona tam klimatystyczna propaganda brzmi już bardzo dziwacznie i fałszywie.

Pod względem sposobów pozyskiwania energii, wszystkie kraje na świecie można bowiem podzielić na cztery główne grupy, w matematyce zwane klastrami. USA, ojczyzna klimatyzmu, podobnie jak Wielka Brytania i wiele innych krajów, w tym np. Japonia i Niemcy, należą do klastra, słusznie mogącego być nazwanego, naftowym. One akurat faktycznie reprezentują cywilizację „opartą na ropie”. Polska jednak, czego nasi lokalni klimatyści zwykle nie zauważają, do tej grupy nie należy. Wraz z Czechami i Ukrainą, ale także Chinami i Indiami, tworzy niewielki liczebnie, ale bardzo wyraźnie wyodrębniony, klaster „węglowy”. Trzecią, również bardzo wyraźnie widoczną grupą, są kraje „gazowe”. Przynależą tu głównie państwa z szeroko pojętego regionu Zatoki Perskiej, Iran, czy emiraty, kraje dawnego ZSRR z Rosją na czele, ale również Argentyna, czy Wenezuela. Udział gazu w mikście energetycznym przekracza tam nawet 80% (Uzbekistan). Najbardziej interesujący jest natomiast klaster czwarty. Obejmuje on kraje, w których poziom zużycia paliw kopalnych jest relatywnie niski. Nazwijmy go więc klastrem „eko”. Jego skład jest dziwny i nieintuicyjny. Obok krajów, których obecności w tej grupie moglibyśmy się spodziewać, jak kraje skandynawskie, Szwajcaria czy Kanada, znajdziemy tam też państwa latynoamerykańskie, Kolumbię Brazylię, Ekwador i Peru. Średni udział poszczególnych źródeł energii w klastrach przedstawia poniższy wykres:

Węgiel 01

Pierwsze, co rzuca się w oczy, to fakt, że kraje „eko” zawdzięczają swój przydomek nieproporcjonalnie wysokiemu udziałowi energetyki atomowej i zwłaszcza wodnej. Natomiast poziom wykorzystania odnawialnych źródeł energii, tzw. „OZE”, chociaż jest tam wyraźnie wyższy niż w krajach węglowych, czy szczególnie gazowych, nie różni się znacząco od tego samego wskaźnika dla krajów naftowych. Tym co łączy te dwa klastry jest także wysoki udział ropy. Ta ostatnia nie jest, jak już o tym wspomniano, w skali świata dominującym nośnikiem energii, ale, z jednej strony jest paliwem, z całej kopalnej triady, najłatwiejszym do transportu i przechowywania, z drugiej zaś, jej podaż, a tym samym cena, jest najmniej przewidywalna i zależna od kaprysów dostawców, którymi są w dominującej części skorumpowane i zamordystyczne reżimy. Pozostałe klastry, węglowy i gazowy, bazują głównie na rodzimych zasobach tych surowców i nie są tak uzależnione ekonomicznie od ich importu. Presja ekonomiczna na szukanie energetycznych alternatyw jest więc w nich zdecydowanie niższa i udział OZE tym samym mniejszy. Ceną za tą względną niezależność od rynków światowych, jest szkodliwa gospodarczo i społecznie dominacja polityczna krajowych monopoli, które te surowce wydobywają i dostarczają. Przeróżnych Gazpromów, Węglokoksów i innych podobnych gangów. Nie jest przypadkiem, że nie ma w tych klastrach żadnego ze światowych liderów cywilizacyjnych. Rozkładają się ci ostatni, w całości pomiędzy kraje naftowe i „eko”

Można postawić prawdopodobną hipotezę, że kraje należące obecnie do klastra „eko”, różnią się od naftowych jedynie tym, że mają bardziej od nich korzystne warunki naturalne do produkcji prądu z elektrowni wodnych (Norwegia, Szwajcaria), lub kiedyś podjęły decyzję polityczną o inwestowaniu w elektrownie jądrowe (Francja). Jedne i drugie zaś, nadal poszukują możliwości odejścia od ropy, co skutkuje inwestycyjnym rozmachem OZE.

Nie jest też dziełem przypadku, że klimatyzm, jako ruch ideowy, jest najsilniejszy właśnie w tych dwóch klastrach, bo tam odpowiada, cóż z tego, że nieadekwatnie, na autentyczne zapotrzebowanie społeczne. W Polsce natomiast pozostaje, jak do tej pory, absurdalnym dziwactwem, bardziej śmiesznym niż strasznym. Jak do tej pory.

Przez sto lat polska, oparta na węglu, energetyka, chociaż zdominowana przez węglowych monopolistów, była w dużej mierze niewrażliwa na światowe kryzysy i gwałtowne wahania cen. Czas ten jednak dobiegł właśnie końca. Łatwe w eksploatacji złoża węgla już się w Polsce wyczerpały, a wydobycie surowca z pozostałych jest coraz droższe. Konsekwentnie, mimo wszystkich wysiłków rządowej biurokracji, stawiającej temu procesowi bariery celne, podatkowe i biurokratyczne właśnie, węgiel krajowy staje się, w stosunku do importowanego, coraz bardziej niekonkurencyjny. Od 2017 roku, po raz pierwszy w spisanej historii, zużycia węgla w naszym kraju było wyższe niż krajowe wydobycie i tym samym Polska stała się zależna od importu węgla, co widać na poniższym wykresie:

Węgiel 02

Zależność ta, będzie się w przyszłości pogłębiać. Wziąwszy pod uwagę, że zużywana w Polsce ropa i gaz również pochodzi z importu, nasza gospodarka staje się coraz bardziej zależna od importu nośników energii, która to sytuacja nie jest na dłuższą metę korzystna politycznie i gospodarczo. Presja ekonomiczna i polityczna na wyjście Polski z klastra węglowego będzie się zatem nasilać.

Jakie są w takim razie alternatywy? Zamiana węgla na ropę czy gaz, ma dwa potencjalne plusy. Paliwa te pozostawiają po sobie znacznie mniej od węgla zanieczyszczeń (gaz – praktycznie wcale), oraz oznaczają koniec krajowych monopolistów energetycznych. Większe za to wpływy uzyskają za to u nas zagraniczne despotyczne kleptokracje, czy islamskie kacykaty. Zamienił stryjek siekierkę na kijek. W dodatku, tak samo jak węgiel, ropa i gaz obciążone będą stale rosnąca opłatą za „emisje CO2”, przy czym dla efektu ekonomicznego nie ma żadnego znaczenia, że te opłaty są merytorycznie nieuzasadnione. Najbardziej perspektywicznie obiecującym rozwiązaniem wydaje się więc przejście bezpośrednio do klastra „eko”. Niestety, z powodu dominującego u nas płaskiego krajobrazu i stosunkowo skąpych opadów, oparcie się na hydroelektrycznym modelu szwajcarskim, czy norweskim, nie wchodzi w Polsce w grę. Pozostają więc realnie dwie możliwości. OZE – wiatr i słońce, oraz energia atomowa. Każda z tych opcji ma swoje wady i zalety. OZE wymagają małego kapitału początkowego i jako źródła bardzo rozproszone, są mniej podatne na kartelowe zmowy producentów. Są jednak OZE kapryśne i zależne od pogody, choć ich słoneczno – wietrzny dualizm częściowo ten efekt łagodzi. W związku z tym potrzebują sprawnej i rozbudowanej sieci energetycznej, zdolnej do taniego magazynowania nadwyżki energii i oddawania jej w okresach deficytu.

Energetyka atomowa z kolei, ze względu na konieczność wyłożenia dużego kapitału początkowego i w związku z tym długiego okresu zwrotu, potrzebuje bardzo stabilnego otoczenia prawno-instytucjonalnego. Energia z tego źródła płynie za to zrównoważonym, przewidywalnym, strumieniem, a także łatwo generuje duże moce, co jest istotne dla przemysłu i wielkoskalowego transportu. Mogłoby się wydawać, że wadą atomu jest też uzależnienie od zagranicznych dostawców paliwa. Jednak ze względu na olbrzymią, milionkrotnie większą niż w paliwach kopalnych, zawartość energii w jednostce masy paliwa jądrowego, konieczna do produkcji energii ilość samego paliwa jest tak niewielka, że to uzależnienie jest też proporcjonalnie milionkrotnie mniejsze niż w przypadku ropy, czy gazu.

Zważywszy dodatkowo na fakt, że technologie te szybciej (OZE), lub wolniej (atom), ale nieustannie, się rozwijają, ustalenie jakie powinny być u nas, w dłuższej perspektywie czasowej, proporcje pomiędzy energią wiatru, słońca i atomu, jest analitycznie niezwykle trudnym, jeżeli w ogóle możliwym do rozwiązania zadaniem. Przestrzelenie z prognozami może zaś mieć niezwykle bolesne ekonomicznie dla Polski konsekwencje.

Zadanie to, nie powinno być zatem rozwiązywane w sposób analityczny, w jakimś rządowym biurze, czy zespole. Nawet gdyby udało się do niego pozyskać najlepszych fachowców, co samo w sobie jest wątpliwe, to przecież oni też są omylni i podatni na korupcję, a ewentualna pomyłka, jak już wspomniano, bardzo brzemienna w negatywne skutki. Optymalne rozwiązanie jest więc, jak to zwykle w podobnych zagadnieniach bywa, numeryczne, iteracyjne, czyli – wolnorynkowe. Ekonomiczna presja na poszukiwanie, alternatywnych do schyłkowego węgla, źródeł energii i tak już w Polsce istnieje, ale uwolnienie rynku, zniesienie dopłat i rekompensat, i urealnienie cen prądu, znacznie ją wzmocni i konieczne procesy inwestycyjne przyśpieszy. Poszukujący zysku inwestorzy będą budować elektrownie. A jakie konkretnie elektrownie – o tym zdecyduje już wolny rynek i rachunek ekonomiczny.

Rolą państwa jest zatem tylko stworzenie wspomnianego już otoczenia prawnego, który pozwoli inwestorom na myślenie w długich kategoriach czasowych, oraz, co najwyżej, jakiś udział w budowie i utrzymaniu odpowiednio rozbudowanej i elastycznej sieci elektroenergetycznej, która energię z różnych, pracujących w rozmaitych technologiach i reżimach, elektrowni będzie w stanie sprawnie do odbiorców i magazynów przekierować i zaabsorbować. Nawet obecnie, mimo że Polsce daleko jest od spełnienia opisanych warunków, prywatne elektrownie są budowane. Elektrownie jeszcze małe i bazujące na OZE, ale i zapowiedź powstania pierwszego w Polsce komercyjnego i prywatnego reaktora jądrowego, też już się pojawiła. Odejście od węgla i podróż w stronę klastra „eko” już zatem trwa. Można i należy ją przyśpieszyć, bo w końcu nawet klimatyści, w swoim przyciężkawym pomyślunku, połapią się, co jest grane i przełożą wajchy propagandy na zwalczanie bezwęglowych technologii. Emisje CO2, co prawda, się zmniejszą, docelowo pewnie do zera, ale  ..za łatwo i za tanio. Nie będzie to wymagało ani redukcji konsumpcji, ani tym bardziej redukcji populacji, a to są przecież główne cele klimatystów.

Dzieci gwiazd

Choć, według wszelkich rozsądnych oszacowań, w Galaktyce powinno roić się od pozaziemskich cywilizacji naukowo technicznych (CNT), czyli takich, które przynajmniej wynalazły radio, to bezpośrednie obserwacje wskazują coś zupełnie przeciwnego. Ani, trwający już od ponad półwiecza, program SETI nie wykrył żadnych pozaziemskich inteligentnych sygnałów radiowych, ani żadnych śladów pobytu przedstawicieli CNT w układzie słonecznym teraz, lub w przeszłości, nie znaleziono. Ta drastyczna rozbieżność pomiędzy przewidywaniami teoretycznymi, a wielkościami obserwowalnymi, nosi nazwę, od nazwiska uczonego, który pierwszy zwrócił na nią uwagę, paradoksu Fermiego.

Budując, a następnie analizując odpowiedni, model powstawania i rozprzestrzeniania się cywilizacji w Galaktyce, tzw. równanie Drake’a i jego rozszerzenia, można wyjaśnić ten brak na dwa sposoby. Albo średni czas istnienia takiej cywilizacji jest ekstremalnie krótki, albo prawdopodobieństwo jej powstania jest skrajnie małe.

Aby jednak wyjaśnić całkowity brak widocznych cywilizacji w Galaktyce tą pierwszą hipotezą, należałoby przyjąć nierealistycznie krótki czas istnienia CNT, rzędu …dziesięciu lat, lub mniej. Za posuchę cywilizacyjną musi zatem odpowiadać drugi parametr – prawdopodobieństwo powstania cywilizacji.

Niniejszy artykuł jest próbą oszacowania owego prawdopodobieństwa, poprzez potraktowanie zjawiska cywilizacji naukowo technicznej, jako skrajnego przypadku fenomenu znacznie lepiej naukowo poznanego i opisanego – życia.

Lepiej, nie oznacza jednak wcale, że wystarczająco dobrze. Nadal nie potrafimy fenomenu życia w laboratorium odtworzyć, zatem nie możemy twierdzić, że na pewno już wszystko o nim wiemy. Według jednak obecnego stanu wiedzy, do powstania i istnienia życia potrzebne są trzy elementy. Obecność wody w postaci ciekłej, dostępność odpowiednich pierwiastków i związków mineralnych, oraz jakieś źródło energii. Te trzy warunki są do zaistnienia zjawiska życia konieczne, ale jednak nie są wystarczające. Potrzebny jest jeszcze czwarty element, zwykle w rozważaniach tego rodzaju pomijany.

W największym możliwym uproszczeniu, z chemicznego punktu widzenia, życie to proces redukcji CO2 najczęściej w wyniku reakcji z wodorem, chociaż przebiegający w sposób niekiedy niesłychanie złożony. Aby ta reakcja, jak każda inna dowolna reakcja chemiczna, mogła w sposób ciągły zachodzić, potrzebny jest, również stale się utrzymujący, gradient, czyli różnica stężenia substratów i produktów, oraz ciągły strumień energii. Potrzebny jest zatem stan nierównowagi termodynamicznej. Ignorowanie tego wymogu spowodowało fiasko wszystkich dotychczasowych modeli powstania życia z „pierwotnego bulionu” cząsteczek organicznych, czy w innych proponowanych „pierwotnych” środowiskach pozostających jednak, tak samo jak „bulion”, w równowadze termodynamicznej. „Zupa pierwotna”, pozostawiona sama sobie, nie tylko, ignorując wysiłki pokoleń biochemików, nigdy żadnego życia nie stworzy, ale po jakimś czasie rozpadnie się na prostsze związki. Pierwsze prawo ekologii głosi, że „energia przepływa, materia krąży”, lecz dotyczy to dzisiejszej ziemskiej, rozbudowanej i złożonej biosfery. W samych początkach życia musiała przepływać nie tylko energia, ale również materia, a w „pierwotnym bulionie”, ani jedno, ani drugie, nie było możliwe.

Pojęcie „życie”, a już na pewno „życie pozaziemskie” jest w ogóle bardzo nieprecyzyjne. Gdyby przeprowadzić jakiś sondaż, co mianowicie zwykle się pod tym terminem rozumie, to zapewne okazałoby się, że wygrywa skojarzenie z jakimiś „zielonymi ludzikami”, istotami świadomymi, inteligentnymi, a do tego jeszcze humanoidalnymi. Tymczasem realnie fenomen życia można, pod względem stopnia jego złożoności, podzielić na sześć poziomów. Pierwszy (I) z nich to proste, pozbawione jądra i bardziej skomplikowanych struktur zwanych organellami komórki prokariotyczne, bakterie i archeony. Pod względem biochemicznym są one (na Ziemi) niezwykle zróżnicowane, ale pod względem budowy i morfologii aż nudne w swojej monotonności. Drugi (II) poziom komplikacji, to eukarionty, komórki z jądrem komórkowym i innymi skomplikowanymi organellami, mitochondriami, czy chloroplastami. Przedstawicielami tego poziomu są omawiane w szkole pantofelek, czy euglena. Poziom III, to duże, makroskopowe organizmy zbudowane z oddzielnych tkanek, znane na Ziemi jako rośliny, grzyby, i zwierzęta. Poziom IV to istoty z rozbudowanym układem nerwowym prowadzące złożone życie społeczne, na Ziemi z grubsza odpowiadałyby by im ptaki, ssaki oraz przynajmniej część gatunków kałamarnic i ośmiornic. Wreszcie poziom piąty (V) to istoty świadome i inteligentne, czyli Homo sapiens, oraz być może jego wymarli krewniacy, neandertalczycy, czy hobbici. Poziom VI to oczywiście szukana przez nas cywilizacja naukowo techniczna, zdolna do komunikacji międzygwiezdnej i przemieszczania się w kosmosie. Jak już wspomniano na wstępie, bardzo prawdopodobne, że istnieje tylko jedna taka we Wszechświecie, a przynajmniej w naszej Galaktyce – my sami.

Życie we Wszechświecie podzieliliśmy więc na kategorie pod względem poziomu komplikacji budowy i behawioru, czyli pod względem ilości zawartej w nim informacji. Informacja zaś jest, w pewnym uproszczeniu, odwrotnością parametru znanego w fizyce jako entropia, miara nieuporządkowania. Zgodnie z II zasadą termodynamiki, entropia nie może samorzutnie zmaleć, zatem aby utrzymać swój niski poziom entropii, organizmy żywe muszą, poprzez procesy metaboliczne, zwiększać entropię swojego otoczenia. Tym szybciej, im wyższy poziom komplikacji, czyli niższy entropii, same reprezentują. Odbywa się to głównie przez utratę ciepła. Im szybsza jest owa utrata, tym wyższy stopień komplikacji organizmy żywe mogą osiągnąć. Nieprzypadkowo właśnie na naszej planecie poziom IV złożoności reprezentowany jest w większości przez organizmy stałocieplne (endotermiczne), a w mniejszości przez organizmy bytujące w zimnych wodach, gdzie utrata ciepła jest znacznie, niż na lądzie, łatwiejsza. Proces wypychania nadmiaru entropii na zewnątrz organizmu, jest tym łatwiejszy, im niższa entropia w owym zewnętrzu panuje. Życie zatem może w procesie ewolucji osiągnąć tym wyższy poziom komplikacji, im środowisko, w którym występuje, ma niższą entropię.

Przechodząc od opisu jakościowego, do ścisłych rachunków ilościowych, wymodelujemy teraz życie na podobieństwo …maszyny parowej pana Watta. Analogia ta jest znacznie bliższa prawdy, niż mogłoby się to wydawać, bo w końcu maszyna parowa nie musi działać koniecznie na parze, ani być zbudowana z nitowanego żeliwa. Każdy inny materiał, czy czynnik roboczy też się nadaje, aby można było mówić o wyidealizowanej maszynie parowej, czyli silniku cieplnym, przerabiającym ciepło na pracę.

Zgodnie ze wspomnianą już II zasadą termodynamiki, proces taki nie jest możliwy ze 100% wydajnością. Maksymalną teoretycznie możliwą wydajność maszyny cieplnej osiąga się w tak zwanym cyklu Carnota (dla ciekawskich sprężanie izotermiczne, sprężanie adiabatyczne, rozprężanie izotermiczne, rozprężanie adiabatyczne). Podkreślić należy, ze sprawność cyklu Carnota jest fundamentalnym ograniczeniem wynikającym z samej natury, takim samym co do zasady, jak prędkość światła, stała Plancka, czy zero bezwzględne. Owa sprawność Carnota to

n = (T1-T2)/T1

Gdzie T1 jest temperaturą źródła ciepła (w Kelwinach), natomiast T2 to temperatura chłodnicy, otoczenia, do którego ciepło jest odprowadzane. Energia dostępna dla życia na danej planecie, niezależnie od jej pochodzenia, nigdy nie może być wykorzystana w całości, a tylko w części dopuszczonej przez powyższą zależność. Ową dostępną życiu energię, będziemy odtąd nazywać energią życiową. Jak wynika z przytoczonego wzoru, jej wielkość zależy od różnicy temperatur źródła energii i chłodnicy. Temperatura chłodnicy T2 to po prostu średnia temperatura planety, na której rozwija się życie. Można założyć, że ze względu na wspomnianą wyżej konieczność istnienia ciekłej wody, będzie owa temperatura, dla globów obdarzonych życiem, z grubsza stała. A temperatura źródła? Jeżeli podstawowym źródłem energii dla pozaziemskiego życia, będzie światło jego macierzystej gwiazdy, to tą temperaturą będzie temperatura samej gwiazdy, Tg, w przypadku Słońca, 5772 Kelwiny.

Energia życiowa równa się zatem

Eż = F*(Tg-Tp)/Tg

Gdzie F to strumień promieniowania docierający do powierzchni planety. Równanie to możemy jeszcze uprościć. Zgodnie bowiem z prawem Stefana-Boltzmana, utrzymanie planety w odpowiedniej, umiarkowanej temperaturze, wymaga  stałego strumienia energii. F jest bowiem funkcją Tp, dokładnie jej czwartej potęgi.

Energia życiowa zatem ostatecznie zależy wyłącznie od temperatury gwiazdy. Życie na danej planecie może osiągnąć tym większy stopień komplikacji, im wyższa jest ta temperatura.

Średni czas, nazwijmy go Lc, w jakim dana gwiazda jest w stanie wygenerować dany poziom komplikacji życia w swoim bezpośrednim otoczeniu, w tym oczywiście poziom VI – cywilizacyjny, byłby zatem odwrotnie proporcjonalny do jej temperatury.

Lc = A*(Ts/Tg)

Gdzie Ts to temperatura Słońca (5 772 kelwiny), a A pewna stała proporcjonalności.

Powyższe równanie jest więc termodynamicznym ograniczeniem średniego czasu powstawania cywilizacji.

Przyjęto tu jeszcze jedno niejawne założenie, że całość strumienia energii utrzymującego dany glob w temperaturze dogodnej dla życia, pochodzi z macierzystej gwiazdy. Tak jednak wcale być nie musi. Istnieją co najmniej dwa zjawiska, które mogą utrzymać w środowisku planetarnym ciekłą wodę, bez angażowania w to światła gwiazdy. Jednym z nich jest, pochodzące z rozpadów radioaktywnych, procesów pływowych, bądź nawet reakcji chemicznych, ciepło geotermalne. Na Ziemi nie odgrywa ono znaczącej roli, choć w głębinach oceanu utrzymuje całe, całkowite odcięte od światła słonecznego ekosystemy w tzw. kominach geotermalnych. Istnieją natomiast, nawet w naszym układzie słonecznym, globy, takie jak księżyce Jowisza i Saturna, gdzie ciepło geotermalne jest wystarczająco silne, żeby stopić lód i utworzyć przepastne, ogromne w porównaniu z ziemskimi, oceany. Prawdziwe, kompletnie odcięte od światła słonecznego, Czarne Oceany.

Warunki do powstania życia są w nich bardzo korzystne, natomiast do jego dalszej ewolucji ku bardziej złożonym formom, beznadziejnie słabe. Energia geotermalna ma niską, w porównaniu ze światłem gwiazdy, temperaturę, a zatem i wysoką entropię. Materia krąży, a energia (życiowa) przepływa, ale przepływa bardzo wąziutką strużką, o dwa rzędy wielkości od ziemskiej wątlejszą. Żyjące w tamtejszych kominach hydrotermalnych czarne ekosystemy składałyby się zatem wyłącznie z prokariontów (poziom I). Ten wniosek jest w pozornej sprzeczności z tym co wiemy o ziemskim środowisku tego typu, które grupuje bardzo złożone biomy, z organizmami poziomu III włącznie, ale trzeba uświadomić sobie, że dzieje się tak tylko dzięki obecności wolnego tlenu. Wydajność oddychania tlenowego wynosi ok 40%, podczas gdy oddychanie w środowisku beztlenowym nie przekracza 1% wydajności. Dlatego tylko w środowisku natlenionym możliwe są bardziej złożone łańcuchy troficzne, zależności typu drapieżnik – ofiara i związany z tym ewolucyjny „wyścig zbrojeń”, co napędza również pozornie odcięte od energii słonecznej ekosystemy kominów. Przy pięciu ogniwach łańcucha pokarmowego ostatnie z nich ma jeszcze przy wykorzystaniu oddychania tlenem do dyspozycji 0,4^5 = 1% pierwotnej energii, podczas gdy w środowisku beztlenowym byłoby to część tylko 0,01^5 = jedna …dziesięciobilionowa. Bez tlenu drapieżnictwo zatem w ogóle się nie opłaca. Tlen zaś może powstać tylko w wyniku pozyskiwania przez procesy życiowe potrzebnych do redukcji CO2 elektronów drogą fotosyntezy z wody. A to z kolei, z uwagi na bardzo silne wiązania chemiczne spajające cząsteczki wody, wymaga energii naprawdę bardzo „wysokiej jakości” (niskiej entropii), jaką tylko światło słoneczne jest w stanie zapewnić. Czarne Oceany są zatem beztlenowe, życie w nich nie przekracza poziomu I, a scena spotkania z podwodną cywilizacją z Europy, jaką uraczył widzów James Cameron w filmie „Aliens of the deep” jest czystą fantazją, nigdy nie mającą szans na realizację w praktyce.

Drugim zjawiskiem mogącym podgrzać planetę ponad naturalny, wynikający tylko z nasłonecznienia, poziom, jest efekt cieplarniany. Polega on niejako na uwięzieniu w atmosferze części docierającego do planety promieniowania. To wtórne promieniowanie dogrzewa dodatkowo powierzchnię planety. Niestety, jest to promieniowanie podczerwone, mające wyższą niż promieniowanie gwiazdy, entropię. Znów zatem, im silniejszy jest efekt cieplarniany, tym nierównowaga termodynamiczna mniejsza i mniejsza też szansa, mimo teoretycznie odpowiedniej temperatury, na istnienie w takim miejscu bardziej złożonych form życia.

Aby dokonać kolejnego kroku w naszym rozumowaniu musimy sięgnąć teraz po znany w astronomii diagram pokazujący zależność pomiędzy masą a temperaturą gwiazdy, zwany też diagramem Hertzsprunga – Russela. Większość swojego życia gwiazdy spędzają świecąc stabilnie na tzw. ciągu głównym tego diagramu. Ich temperatura zależy wtedy z grubsza od pierwiastka kwadratowego z ich masy. Gwiazda czterokrotnie bardziej masywna, ma dwukrotnie wyższą temperaturę powierzchni. Można by się zatem naiwnie spodziewać, że gwiazdy bardziej masywne będą bardziej sprzyjały powstaniu cywilizacji. Niestety, gwiazdy bardziej masywne żyją też krócej. Tempo reakcji jądrowych napędzających gwiazdę rośnie wraz z jej masą dużo szybciej niż temperatura. Chociaż średni czas w jakim dochodzi do narodzin cywilizacji, Lc, maleje w przybliżeniu wraz z pierwiastkiem kwadratowym masy gwiazdy, czyli do potęgi 0,5, to czas pobytu danej gwiazdy na ciągu głównym, maleje proporcjonalnie do potęgi 2,5 jej masy. Zależności te pokazano na wykresie nr 1

Cywgw 01

Ponieważ, wraz ze wzrostem masy, czas pobytu danej gwiazdy na ciągu głównym skraca się szybciej niż średni czas powstawania CNT, istnieje taka maksymalna masa, powyżej której gwiazda cywilizacji nie wygeneruje nigdy. Tę granicę nazwiemy granicą nuklearną. Dodatkowo, ponieważ życie, a zatem i cywilizacja, wymaga obecności odpowiedniego zestawu metali, pierwiastków cięższych od wodoru i helu, gwiazda macierzysta musi je zawierać, czyli realnie należeć do tzw. I populacji, co tworzy trzecie, kosmologiczne ograniczenie. Gwiazdy I populacji nie mogły bowiem powstawać we Wszechświecie dawniej niż 10 mld lat temu. Jeżeli więc dla danej gwiazdy średni czas Lc jest dłuższy niż ta granica,  to, nawet jeżeli sama gwiazda może istnieć znacznie dłużej, cywilizacja tam jeszcze nie powstała.

Niestety, chociaż zależności między masą gwiazdy, a jej temperaturą i czasem życia, astronomia ustaliła z bardzo dużą dokładnością, to stała proporcjonalności A, wiążąca czas powstania cywilizacji i temperaturę gwiazdy, pozostaje nieznana. Znamy tylko jedną cywilizację a wnioskowanie z jednostkowego przykładu jest w statystyce niedopuszczalne. Gdyby jednak nasza cywilizacja była przeciętna, to średni czas powstania cywilizacji w okolicy gwiazdy o temperaturze Słońca wynosiłby A = 4,5 mld lat. Sytuacja wyglądałaby jak na wykresie poniżej:

Cywgw 02

Wszystkie trzy wymienione ograniczenia na powstanie cywilizacji, tworzą trójkątne pole, zaznaczone na wykresie na niebiesko. Pokazuje ono, ile cywilizacji powstało we Wszechświecie do tej pory. Pozornie niewielkie rozmiary tego pola mogą być mylące. Po pierwsze skala wykresu jest logarytmiczna. Najstarsze cywilizacje, położone blisko prawego dolnego rogu trójkąta, powstały już …6,3 miliarda lat temu. Cywilizacje wygenerowane przez gwiazdy mniejsze i chłodniejsze od Słońca, te z lewej części trójkąta, są oczywiście młodsze. Ale ponieważ, to po drugie, gwiazd mniejszych jest we Wszechświecie znacznie więcej niż gwiazd bardziej masywnych, cywilizacji wokół takich gwiazd, powinno być w naszej Galaktyce nieprzeliczone mrowie. Nawet zatem przy bardzo krótkim, ale pozostającym w granicach rozsądku, średnim czasie istnienia takiej cywilizacji, powinniśmy obserwować masę sygnałów SETI, a i odwiedziny pozaziemskich kosmolotów powinny zdarzać się w miarę często.

Jasne więc jest, że ziemska cywilizacja w żadnej mierze przeciętną być nie może i stała A musi być znacznie większa. Rozważmy teraz sytuację, kiedy równa się ona 10 mld lat.

Cywgw 03

Teraz sytuacja jest zupełnie inna. Niebieski trójkąt znika, a najstarsze cywilizacje powstają w Galaktyce wokół gwiazd podobnych do Słońca i właśnie teraz. To nam, Ziemianom przypada teraz ten zaszczyt, że jesteśmy we Wszechświecie jaki pierwsi.

Spotykane w literaturze przedmiotu próby rozwiązania paradoksu Fermiego skupiają się zwykle wokół krótkiego czasu trwania cywilizacji, postulując jej szybką zagładę, a to w wyniku globalnej wojny termojądrowej (hipotezy dawniejsze), a to z powodu wyczerpania planetarnych zasobów i zniszczenia środowiska (hipotezy współczesne). Te, będące w mniejszości, wyjaśnienia, odwołujące się do nikłego prawdopodobieństwa powstania CNT, próbują je wytłumaczyć właściwościami planet (tzw. hipoteza rzadkiej Ziemi). Tymczasem odpowiedź, jak się wydaje tkwi raczej we charakterystyce termodynamicznej samych gwiazd i stosunkowo młodym jeszcze wieku Wszechświata.

Ziemska cywilizacja powstała jako pierwsza, ponieważ nie tylko znajduje się koło najbardziej masywnej, a zatem wytwarzającej też na swoich planetach najniższą entropię, gwiazdy, która cywilizację w ogóle może wygenerować, ale i znajduje się w lewym ogonie rozkładu. Powstała bowiem znacznie wcześniej, niżby wynikało to tylko ze średniej dla danego typu gwiazdy.

Szczęście i wynikające z niego pierwszeństwo Ziemian we Wszechświecie, a już na pewno w Galaktyce, jest jeszcze większe, jeżeli weźmiemy pod uwagę bardziej subtelne zjawiska astrofizyczne. Założenie, od którego zaczynaliśmy nasze rozważania, nie jest bowiem do końca spełnione.

To, że gwiazda przebywa na ciągu głównym, nie oznacza bowiem, że w tym czasie nic się z nią nie dzieje. W ciągu tego okresu temperatura, jak i ilość emitowanej przez gwiazdę energii również się zmieniają i to dość znacząco. Słońce staje się jaśniejsze mniej więcej o 10% na każdy miliard lat przebywania w ciągu głównym, co ma oczywiście wpływ na ziemską biosferę. W odległych epokach geologicznych, energia życiowa Ziemi, choć nie, podtrzymywana przez, dużo silniejszy niż dziś, efekt cieplarniany, temperatura, była mniejsza niż obecnie i konsekwentnie życie ziemskie miało niski poziom komplikacji. Przez 2 miliardy lat nie przekraczało poziomu I, potem, przez kolejny miliard, zwany nie bez kozery nudnym miliardem, poziomu II. Okres ten zakończony został dość nagłym zmniejszeniem się ziemskiego efektu cieplarnianego, co spowodowało serię potężnych zlodowaceń, zwanych też „ziemią śnieżką”. Podniosła się energia życiowa i tym samym ziemska biosfera mogła przejść na poziom III. Dalsze rozgrzewanie się Słońca i kolejna seria zlodowaceń w karbonie i permie podniosło ziemskie życie na poziom IV, wreszcie ostatnia redukcja efektu cieplarnianego i zlodowacenie plejstoceńskie na poziom V. Inteligentne istoty z poziomu V sięgnęły po inne niż fotosynteza źródła energii i rozpoczęły budowę, ledwo 200 lat temu, cywilizacji, czyli poziomu VI. Obecnie ziemski efekt cieplarniany jest już bardzo niewielki i dalej już obniżony być nie może, a zatem i energia życiowa osiągnęła swoje maksimum. Dalsze rozgrzewanie Słońca będzie rozgrzewać także Ziemię. Ziemskie Tp zacznie rosnąć i za miliard lat, znacznie wcześniej niż Słońce opuści ciąg główny, życie na Ziemi w ogóle przestanie być możliwe.

Ten proces stopniowego rozgrzewania gwiazdy, szybszy dla gwiazd bardziej masywnych, nakłada dodatkowe ograniczenia na powstanie cywilizacji, zmniejszając liczbę zdatnych do tego gwiazd od strony większych mas. Teoretycznie cywilizacje mogłyby powstawać licznie koło gwiazd podobnych do Słońca w końcowym okresie ich życia, ale uniemożliwia to opisane zjawisko. Realny czas życia gwiazdy na ciągu głównym trzeba w związku z tym skrócić mniej więcej dwukrotnie, co jest równoznaczne z przesunięciem granicy nuklearnej w lewą stronę wykresu. Zjawisko to miałoby natomiast zaskakujące konsekwencje w przypadku gwiazd małomasywnych – czerwonych karłów. Żyją one tak długo i rozgrzewają się tak powoli, że w ciągu swojego życia mogłyby utworzyć nie jedną, a kilka cywilizacji na kolejnych wchodzących stopniowo w powoli rozszerzającą się ekostrefę planetach. Każdą kolejną, wskutek wzrostu w tym czasie swojej temperatury, szybciej niż poprzednie.

Zakres możliwych dla zaistnienia cywilizacji mas i jasności gwiazd w obecnym Wszechświecie jest zatem bardzo wąski. Podobnie wąski jest zakres czasowy w jakim cywilizacja może powstać, nawet wokół właściwej gwiazdy. Pół miliarda lat temu nie było to jeszcze na Ziemi możliwe, za pół miliarda lat będzie już na to za późno. W dodatku, nawet przy maksymalnym obecnym poziomie Eż, przejście na poziom V i VI też nie musi być wcale automatyczne i nieuchronne. Per analogiam, o ile osiągniecie poziomu III i IV odbyło się na Ziemi w sposób polifiletyczny, czyli wiele razy niezależnie w różnych taksonach ewolucyjnych, o tyle z kolei poziom II został osiągnięty wyłącznie raz – monofiletycznie, co świadczy o tym, że sam odpowiedni poziom energii życiowej, nie wystarczy do tego celu i potrzebne były jakieś dodatkowe czynniki, których wystąpienie było mało prawdopodobne. Tak samo może być i z poziomem V, czy VI.

O ile samo życie jest więc zapewne we współczesnym Wszechświecie czymś powszechnym i często spotykanym, o tyle cywilizacje muszą być ekstremalnie mało prawdopodobną odchyłką od średniej, a ich powstanie wymaga wstrzelenia się w bardzo rzadko występujące warunki. Nie należy się zatem dziwić paradoksowi Fermiego i fiasku programu SETI. To nieunikniona konsekwencja praw termodynamiki.

Wszechświat, w myśl opisanej hipotezy, generuje życie i cywilizacje na podobnej zasadzie jak generuje pierwiastki, galaktyki, gwiazdy i planety. I podobnie jak w tamtych przypadkach muszą być spełnione ku temu odpowiednie warunki, które we Wszechświecie dzisiejszym spełnione jeszcze nie są. Era Gwiazdowa we Wszechświecie trwa od dawna, ale Era Cywilizacji jeszcze nie nadeszła, a Ziemia jest ekstremalnie mało prawdopodobną fluktuacją statystyczną. Jesteśmy sami we Wszechświecie i długo jeszcze sami pozostaniemy. Jak długo? Na ostatnim wykresie przedstawmy Wszechświat za 5 miliardów lat. W stosunku do wykresów poprzednich powiększono najbardziej interesujący fragment.

Cywgw 04

Ponieważ istniejemy, można by stwierdzić, że Era Cywilizacji już się we Wszechświecie zaczęła. Jednak, jak już wspomniano, ziemska cywilizacja narodziła się przedwcześnie i pomógł jej w tym szczęśliwy traf. Wskutek niestabilności gwiazd na ciągu głównym, jeszcze przez kolejne 3,1 miliarda lat, cywilizacje we Wszechświecie będą bardzo elitarne. Będą powstawać koło gwiazd z zakresu [0,7 – 1] mas Słońca, ale rzadko i nieregularnie. Upłyną pewnie dziesiątki milionów lat, zanim w naszej Galaktyce powstanie kolejna CNT. Sytuacja zmieni się dopiero wtedy, kiedy proces powstawania CNT ogarnie gwiazdy o mniejszej, od tego przedziału, masie. Wtedy cywilizacje będą mogły powstawać na naprawdę masową skalę, liczoną w setkach milionów na galaktykę. Chyba że nie dopuszczą do tego starsze cywilizacje elitarne. Mając na to miliardy lat czasu, bez żadnego problemu mogą rozprzestrzenić się w Galaktyce i urosnąć do poziomu III w klasyfikacji Kardaszewa i tym samym zablokować proces powstawania cywilizacji masowych – drugiej generacji, dopuszczając go, być może, w jakichś zapadłych zakątkach galaktyki na zasadzie ciekawostki, podobnie jak dzisiejsza ziemska cywilizacja planetarna zachowała gdzieniegdzie zacofane enklawy łowców – zbieraczy.

Powyższy artykuł został opublikowany w 83 numerze miesięcznika „Astronomia” w maju 2019 roku

Jeśli chcesz wiedzieć więcej, przeczytaj:

[1] Artymowicz P. „Astrofizyka układów planetarnych” Wydawnictwo naukowe PWN 1995

[2] Lane N. ”Pytanie o życie. Energia, ewolucja i pochodzenie życia” Prószyński i s-ka 2016

[3] Lane N. „Największe wynalazki ewolucji” Prószyński i s-ka 2012

[4] Weiner J. „Życie i ewolucja biosfery” Wydawnictwo naukowe PWN 2008

[5] Shu F. „Galaktyki, gwiazdy, życie” Prószyński i s-ka 2003

[6] Stocker H. „Nowoczesne kompendium fizyki” Wydawnictwo naukowe PWN 2010

[7] Kubiak M. „Gwiazdy i materia międzygwiazdowa” Wydawnictwo naukowe PWN 1994

[8] Adamczyk M. „A kosmos milczy, milczy, milczy…” Astronomia nr 28 październik 2014

Nieucy o klimacie

Na przełomie XX i XXI wieku, pewien rozgłos uzyskała, wywodząca się z fundamentalistycznych odłamów protestantyzmu, sekta kreacjonistyczna. Jej przedstawiciele, a wśród nich także osoby z tytułami naukowymi, byli wtenczas bardzo aktywni medialnie, gorliwie podkreślając, że „naukowcy już dawno odrzucili teorię ewolucji” i zapewniając, z jak wielkim rozmachem setki, czy tysiące naukowców prowadzą badania naukowe „inteligentnego projektu”.  Elokwentnie przekonywali, że przecież jest niemożliwe, aby gatunki, ekosystemy, planety, gwiazdy i galaktyki zmieniały się „same z siebie”, „na skutek przypadku” i jakiś Ktoś, „jakaś inteligencja” po prostu musi tym wszystkim kierować. Sztandarową publikacją, za pomocą której do kreacjonizmu zachęcano, była wtedy książka „Na bezdrożach teorii ewolucji” Johnsona. Praca ta pozowała na dzieło „naukowe”, używała naukowo brzmiącej terminologii, a jej autor co rusz zapewniał czytelników, że darwinowska teoria ewolucji jest „nienaukowa” i już dawno została przez naukę odrzucona i tylko wyjątkowo uparci „denialiści” nie chcą przyjąć tego jeszcze do wiadomości.

Równocześnie jednak, to pretendująca do „naukowości” książka, roiła się od, często monstrualnych, na poziomie szkoły podstawowej błędów, oraz celowych przekłamań, oczywistych dla każdego, kto odebrał jakąkolwiek edukację na poziomie przynajmniej średnim.

Kreacjonizm jednak, po kilkunastu latach medialnego brylowania, stopniowo zanikł, a dokładnie został z przestrzeni społecznej wyparty przez ideologię, jeżeli chodzi o podstawy (a właściwie ich brak) merytoryczne i naukowe, bliźniaczo wręcz podobną, ale znacznie bardziej finansowo, politycznie i prestiżowo dla swoich głosicieli atrakcyjną. Ideologię klimatyzmu.

Klimatyzm głosi, że „sam z siebie” nie może zmieniać się nie, jak twierdzili kreacjoniści, ziemski ekosystem, ale klimat. I jest on sterowany, nawet nie przez jakąś bliżej nieokreśloną „inteligencję”, ale przez inteligencję bardzo konkretną – ludzką. Ludzie bowiem i ich cywilizacja emitują ogromne ilości tzw. gazów cieplarnianych, a szczególnie dwutlenku węgla i tym samym, według klimatyzmu, zwiększają, polegający, w dużym uproszczeniu, na uwięzieniu w atmosferze części promieniowania słonecznego, ziemski efekt cieplarniany. W konsekwencji globalne temperatury mają lawinowo rosnąć, aż do upieczenia całej ziemskiej biosfery i zamiany Ziemi w drugą Wenus, włącznie.

Podobnie, jak to było w przypadku kreacjonizmu, również nasz lokalny polski klimatyzm, jest zdecydowanie wtórny i stanowi tylko prowincjonalną mutację klimatyzmu amerykańskiego. Już sami owi pierwotni klimatyści anglosascy, nie są zbytnio z nauką obznajomieni, skoro ich medialnym „frontmenem” musiała, z braku lepszych, bardziej kompetentnych kandydatów, zostać niepełnosprawna szwedzka licealistka. Poziom merytoryczny klimatyzmu polskiego, musi być więc jeszcze niższy. Jego przedstawiciele pozują na bardzo naukowych, choć po bliższym przyjrzeniu się, widać, że z tą naukowością jest bardzo „nie bardzo”. Sztandarowym dziełem i swoistym manifestem polskiego klimatyzmu jest pozycja „Nauka o klimacie”. (Nok) Jej omówieniu poświęcony będzie właśnie niniejszy esej.

Książka ta poraża czytelnika już na pierwszy rzut oka. Samą edycją. Autorzy deklarujący głęboką troskę o stan środowiska i zużycie ziemskich zasobów przyrodniczych, na wydanie swojego opus magnum oszczędzać tychże zasobów wyraźnie nie mieli zamiaru. Twarda okładka, wysokiej jakości, albumowy, papier, liczne kolorowe grafiki i zdjęcia, zużyły przecież masę nieodnawialnych zasobów naszej planety. Informacji, ile gazów cieplarnianych zostało wyemitowane w związku z drukiem tej książki, próżno jednak szukać. Poświęcona z grubsza tej samej tematyce, książka Marcina Adamczyka „Mity globalnego ocieplenia”, przy dwukrotnie niższej cenie, waży od „Nauki o klimacie” sześciokrotnie mniej. Proste przeliczenie prowadzi do konkluzji, że treść tej ostatniej książki jest od „NoK” trzykrotnie bardziej wartościowa.

A jak jest w takim razie z treścią „Nok”?

Tutaj od razu należy przyznać, że merytorycznie, pod względem naukowym, biją klimatyści kreacjonistów na głowę. Ilość i ciężar gatunkowy błędów, czy celowych zafałszowań, jest w „Nok” zauważalnie niższa, niż u wspomnianego Johnsona. Niestety jednak, jest to różnica wyłącznie ilościowa. W trakcie lektury widać bowiem, że autorzy „NoK” piszą rzeczach znanych im wyłącznie ze słyszenia, nawet, jeżeli się do tego słuchania starali pilnie przykładać. Świadczy o tym nawet używane słownictwo, np. „równowaga energetyczna”, w miejsce utartego w polskiej nomenklaturze naukowej zwrotu „równowaga termodynamiczna”, a także traktowanie ropy jako głównego „paliwa kopalnego”, co jest prawdą w USA, skąd klimatyzm pochodzi, ale do polskich węglowych realiów niezupełnie pasuje.

 Na stronie 23 „Nok”, oznajmia się z kolei czytelnikowi, że średnia temperatura powierzchni Ziemi wynosi 14 stopni Celsjusza, podczas gdy już w tabelce na stronie 56 możemy zobaczyć, że jest to 288 Kelwinów, czyli …15 stopni. Różnica jednego stopnia może nie wydawać się wielka, ale przecież o tyle właśnie, wg dogmatów klimatystów, miały wzrosnąć temperatury na Ziemi od „okresu przedprzemysłowego”. Czyżby zatem ten rzekomy wzrost był jedynie artefaktem pomiarowym, wynikającym z nieumiejętności klimatystów, przeliczenia temperatury w różnych skalach? Autorzy najwyraźniej nie wiedzą też nic o istnieniu drugiej zasady termodynamiki i cyklu Carnota. Jest to fundamentalne, wynikające z samej natury, ograniczenie wydajności, z jaką można przekształcić ciepło na pracę. Tymczasem, na stronie 231 „Nok”, czytamy, że „W wypadku paliw ciekłych, spalanych w pojazdach, […] przyjmuje się, że energia końcowa […] równa jest dostarczonej energii pierwotnej” [sic!!!]. Jak wynika z tego dosłownego cytatu, klimatyści święcie wierzą, że silnik spalinowy mógłby w zasadzie, wbrew termodynamice, przerobić całą energię cieplną zawartą w paliwie na ruch pojazdu, a jedynym ograniczeniem są w tej materii kwestie inżynierskie.

Podobnie też jak kreacjoniści, autorzy „Nok”, zamiast pojęć ścisłych, precyzyjnych i ilościowych, lubią używać metafor, przenośni, alegorii, porównań i innych poetyckich środków wyrazu. Najczęściej zupełnie nieadekwatnych. Tak jest przykładowo z rozdziałem 2.1, gdzie przedstawiono planetę Ziemię jako …domek. Domek ogrzewany piecykiem – czyli w tej analogii promieniowaniem słonecznym i pokryty izolacją – czyli powodującą efekt cieplarniany atmosferą. Nie fatyguje się jednak czytelników informacją, że taki domek na prerii traci ciepło przede wszystkim w wyniku przewodzenia przez ściany i dach. Planety zaś, wyłącznie w wyniku promieniowania. Tempo tego pierwszego procesu zależy od różnicy temperatur w środku i na zewnątrz. Tego drugiego zaś, od różnicy czwartych potęg temperatur. To bardzo znacząca różnica. Gdyby opisywany w „Nok” domek był planetą, to po podwojeniu wpływającego do niego strumienia energii, jego temperatura nie wzrosła by o 10 stopni, jak w „domkowej” alegorii, ale o ponad 60.

Mimo tej ogólnej niekompetencji naukowej, pojawiają się w książce także istne perełki. W rozdziale 2.5, ni z tego ni z owego, przedstawiony jest, jak najbardziej prawidłowo wyprowadzony, wielowarstwowy model efektu cieplarnianego. Niestety, tylko tyle. Mając już taki gotowy model, autorzy nigdzie później się do niego nie odwołują i z niego nie korzystają. Nie jest to bynajmniej przypadkowe zapomnienie.

W tabeli 2.9.1 podano bowiem niezwykle ważną informację, że gdyby w ziemskiej atmosferze, znajdował się, z gazów cieplarnianych, jedynie CO2, to pochłaniałby on wtedy 24,6% ziemskiego promieniowania podczerwonego. Czyli, dla dwutlenku węgla, liczba warstw cieplarnianych, w modelu wielowarstwowym efektu cieplarnianego, tak zwana grubość optyczna atmosfery, wynosiłaby na Ziemi n = 0,246. Wracając następnie do tabeli 2.4.1, znajdziemy tam dane, co prawda też w niewielkim stopniu odbiegające od źródeł naukowych, o temperaturach efektywnych, czyli takich, które występowałyby tam bez efektu cieplarnianego, planet układu słonecznego – Marsa i Wenus. Planety te znajdują się właśnie w takiej sytuacji jak opisana wyżej – jedynym gazem cieplarnianym w ich atmosferach jest CO2. Tyle że na Marsie jest go, licząc na masę, 26 razy a, na Wenus aż 163 tysiące razy więcej niż na Ziemi. Składając te wszystkie, zaczerpnięte przecież z samej „Nok”, informacje do kupy, możemy teraz obliczyć temperatury, jakie, według wierzeń klimatystów, powinny na tych planetach panować. Są to odpowiednio 350,6 Kelwinów (75 stopni Celsjusza) na Marsie i 3113 Kelwinów na Wenus. Już rozgrzany do temperatury, niewiele niższej niż temperatura wrzenia wody, Mars, imponuje. Ale temperatury na Wenus sięgnęłyby już wartości nie planetarnych, ale gwiezdnych. Tak naprawdę, grubo ponad połowa gwiazd w naszej Galaktyce, jest chłodniejsza. Przypomina ponownie autor, że całego tego oszacowania dokonano wyłącznie w oparciu o dane i model zaprezentowane przez samych klimatystów. Ocenę, czy oni sami nie potrafiliby dokonać takiego obliczenia, pozostawia zaś domyślności czytelników.

Klimatyści jednak, jak już wspomniano, sami, z, przez samych siebie prezentowanego modelu efektu cieplarnianego, nigdzie nie korzystają. A czego używają w zamian? Kreacjoniści lubowali się w posługiwaniu się terminami, które na pierwszy rzut oka wyglądały naukowo, jak np. „cecha projektu”, czy „nieredukowalna złożoność”, ale których, na wszelki wypadek, nigdy dokładnie, precyzyjnie, ilościowo, nie definiowali. Klimatystycznym odpowiednikiem „nieredukowalnej złożoności” jest „wymuszenie radiacyjne”. Sami autorzy „Nok” szczerze też, na str. 69 deklarują, że nie zamierzają go szczegółowo omawiać. Z kontekstu wynika, że chodzi tu o dodatkowy strumień promieniowania docierający do powierzchni Ziemi, powstały wskutek zwiększenia efektu cieplarnianego. Na stronach 83-86 usiłują autorzy nawet wywieść, jak zmieniałoby się owo wymuszenie radiacyjne, w zależności od zmian stężenia dwutlenku węgla w ziemskiej atmosferze. Nie czynią tego jednak w sposób naukowy, czyli odwołując się od jakiejś głębszej zasady fizycznej, tylko wyprowadzają tzw. wzór empiryczny, poprzez obserwację zachowania …nie, nie, wcale nie rzeczywistej atmosfery, ani nawet wyników pomiarów w laboratorium. Robią to obserwując zachowanie …symulacji komputerowej! [sic!!!] Gdyby zechcieli odwołać się własnego modelu wielowarstwowego, to odkryliby, że tak zdefiniowane wymuszenie radiacyjne, zmienia się proporcjonalnie do ilorazu (2*n+1)/(n+1), czyli właśnie, jak zdumieni odkryli, dla małych n jest z grubsza liniowe, a dla dużych n – logarytmiczne.

Oprócz błędów wynikających z ignorancji naukowej autorów, są niestety także w „Nok” manipulacje zupełnie celowe. Każde z nich z osobna można uznać za drobne, ale razem wzięte mają swoją wagę. Do takich przemyconych niby mimochodem wrzutek, można przykładowo zaliczyć stwierdzenie ze strony 151, jakoby albedo wody wynosiło 10%. Tak jest owszem, ale w tropikach. Albedo wody bowiem zależy bardzo silnie od kąta padania promieni słonecznych, o czym mógł się przekonać każdy obserwator zachodu Słońca nad morzem i w okolicach polarnych, o których właśnie w kontekście tego albedo autorzy piszą, jest ono znacznie wyższe. Nie jest też prawdą, jakoby dopiero w roku 2010 jachty żaglowe mogły pokonać, wolne już wtedy od lodów, arktyczne Przejście Północno-Zachodnie. Już bowiem w roku 1977 takiego przejścia dokonał i to samotnie, belgijski żeglarz Villy de Roos. Do emisji CO2 wliczona jest też produkcja cementu, a przecież cement produkuje się wyłącznie w tym celu, żeby przerobić go na zaprawę i beton, w którym to procesie, wchłania on z powrotem wyemitowany w trakcie jego produkcji CO2. Podobnie jest z emisjami z rolnictwa. Metan emitowany przez zwierzęta hodowlane, powstaje z węgla zawartego w paszy, a rośliny tą paszą będące, pobierają ten pierwiastek z atmosferycznego CO2.Ta część „emisji’, podobnie jak w przypadku cementu, krąży zatem w obiegu zamkniętym. No, ale jakoś przecież przeforsowanie zakazu produkcji i spożywania mięsa, trzeba „naukawo” uzasadnić.

Jak już wspomniano, „Nauka o klimacie” udając dzieło popularno-naukowe, faktycznie jest manifestem ideologicznym i ma tej ideologii dostarczać uzasadnień „naukowych”. W rozdziale 4.1 mamy to wyłożone wprost, bez ogródek. Na stronie 238 przedstawili autorzy podstawowy dogmat klimatyzmu „bogactwo=zużycie energii=emisja CO2”. A ponieważ to ostatnie prowadzi, czemu poświęcona jest cała książka, do zagłady, to ostatecznie chodzi o to, aby wbić czytelnikom do głowy skojarzenie „bogactwo = zagłada” Stronę wcześniej mamy też wyłożony cel polityczny klimatystów, który pozwolimy sobie zacytować w całości;

Według różnych szacunków, bez paliw kopalnych, nawet przy dobrej organizacji społecznej, pojemność środowiska spadłaby do poziomu 2-3 mld osób. Dla 2/3 ludzkości nie byłoby miejsca na Ziemi..

Zważywszy na fakt, że cały wysiłek autorów „Nok” jest skoncentrowany właśnie na zwalczaniu paliw kopalnych i na postulowaniu ich całkowitego wyeliminowania, wniosek jest jednoznaczny. Klimatyści nie tylko nie przewidują dla nas miejsca na Ziemi, ale deklarują to szczerze wprost, bez żadnych zahamowań. Na szczęście dla masowej eksterminacji jest jednak pewna alternatywa, wąska furtka. Zamiast wysyłać zbędne miliardy ludzi na rozkurz, można, w zamian, wyzbyć się ”bogactwa”, co ma być tym łatwiejsze, że jest ono rzekomo skoncentrowane wśród „najbogatszego 1%” (str. 241).Jak wszyscy rewolucjoniści w dziejach, również klimatyści zapewniają, że „redukcja bogactwa” ma dotknąć jedynie tych obrzydliwie bogatych z górnego 1 %, a w żadnym razie tych, którzy, za przewodem klimatystów „grabić zagrabione” pójdą. Aby utwierdzić wyznawców w bezalternatywności takiego rozwiązania, omawiają autorzy „Nok”, trzeba im to przyznać, w rozdziale 5.7, różne, nie wymagające tak drastycznych „przekształceń społeczno-własnościowych”, metody przeciwdziałające wzrostowi temperatur i/lub stężeń CO2 w ziemskiej atmosferze. Przy czym ilość miejsca poświęconego danej metodzie, jest odwrotnie proporcjonalna do jej faktycznej użyteczności. Najbardziej sensowne projekty, jak np. nawożenie oceanów żelazem, doczekują się króciutkich wzmianek, a nawadnianie pustyń lądowych jest przemilczane całkowicie, natomiast pomysły bezsensowne, omawia się szeroko i szczegółowo. Efekt końcowy jest taki, jak być powinien – czytelnik ma być przekonany, że jedyną alternatywą „redukcji bogactwa”, jest jedynie …”redukcja populacji”.

Osoby z zewnątrz sekty, bywają często przekonane, że jednym z jej celów jest promocja, alternatywnych wobec energetyki opartej na paliwach kopalnych, tzw. odnawialnych źródeł energii, (OZE). Tak, owszem, było, dopóki klimatyści uważali, że OZE nigdy nie będą w stanie odgrywać znaczącej roli ekonomicznej. Mylili się jednak. Jeszcze w „Nok” znajdziemy ślady lekceważącego traktowania OZE, ze stwierdzeniem, że w roku 2017 pokryły one „zaledwie” 2,2% globalnego zapotrzebowania na energię, na czele. Już ta liczba jest znacznie zaniżona, albowiem wg raportów firmy BP było to 3,5%. A w kolejnym, 2018 roku już 4%. Łącznie bezemisyjne źródła energii, również atom i elektrownie wodne, stanowiły w 2018 roku 15,6% ogółu i tylko w ciągu jednego roku ten odsetek wzrósł o prawie 1 pkt procentowy. Niezwykle dynamiczny rozwój OZE, staje się zatem, coraz większym zagrożeniem dla ideologii klimatystycznej i chociaż w „Nok” bezpośredniej ich krytyki jeszcze nie znajdziemy, to w bieżącej publicystyce, klimatyści tacy powściągliwi już nie są.

„Nauka o klimacie” pozuje na dzieło naukowe w sumie znacznie bardziej umiejętnie niż niegdysiejsza propaganda kreacjonistyczna. Jednak nadal jest to tylko poza. Klimatyści, traktują naukę jedynie jako narzędzie, do głoszenia swojej wizji świata, a w dodatku, nie potrafiąc nawet prawidłowo przeliczyć temperatury ze skali Kelwina na Celsjusza, posługują się tym narzędziem dość nieudolnie. „Nauka o klimacie” może robić wrażenie swoją „cegłowatością”, jakością edycji, masą kolorowych zdjęć i schematów. Ale powoływanie się na to dzieło w poważnej dyskusji, świadczyłoby o pewnej ułomności intelektualnej.

Dlaczego jednak ideologia klimatyzmu odniosła tak duży sukces medialny i finansowy, natomiast bliźniacza ideologia kreacjonizmu, zginęła w otchłani historii? Ian Morris, autor niezwykle ciekawej pracy o historii cywilizacji „Dlaczego Zachód rządzi – na razie”, dokonał pewnego ważnego spostrzeżenia.

 „Każda epoka dostaje taką myśl, jakiej potrzebuje”.

Kiedy w jakimś społeczeństwie, niezależnie od kręgu kulturowego, dowodzi Morris, pojawiają się jakieś bariery natury ekonomicznej, społecznej, czy ekologicznej, które hamują dalszy rozwój tego społeczeństwa, z reguły pojawia się też w takiej populacji jakaś myśl, idea, która uzasadnia, czasami bardzo nieortodoksyjne działania, które jednak w rezultacie umożliwiają pokonanie owych barier i dalszy rozwój. O tym zatem, które z licznie w każdym czasie powstających ideologii, okażą się atrakcyjne i zyskają popularność, decydować ma ich użyteczność w uzasadnianiu zmian koniecznych do pokonania przeszkód w rozwoju cywilizacyjnym i ekonomicznym. Użyteczność mierzona też oczywiście sukcesem ekonomicznym, jaki w rezultacie odniosą owej idei twórcy i propagatorzy.

Ideologia klimatyzmu, odniosła od kreacjonizmu dużo większy, mierzony liczbą wyznawców i skalą politycznych wpływów, sukces. Nieomylnie oznacza to, że, inaczej niż jej poprzedniczka, odpowiada ona na jakieś istotne wyzwania w rozwoju obecnej cywilizacji globalnej. Tym wyzwaniem okazuje się być, trwająca od początku lat 70 XX wieku, ewolucja energetyczna ziemskiej cywilizacji i jej, powolne i nieregularne, ale niemniej od 1970 roku wyraźne, odchodzenie od paliw kopalnych Początkowo dzięki energetyce jądrowej, później, od 2007 roku, na rzecz OZE. Klimatyzm jest po prostu jakąś próbą ideowego uzasadnienia tego przejścia.

Jest to jednak próba zdecydowanie nieudolna. Przyczyny, trwającej już prawie pół wieku transformacji energetycznej, są bowiem czysto ekonomiczne i nie mają związku z żadnymi, zachodzącymi podobno równolegle, zmianami klimatycznymi. Niekopalne źródła energii są już zwyczajnie tańsze i bardziej wydajne niż węgiel czy ropa, a narastająca histeria i widoczna radykalizacja klimatystów, nieomylnie oznacza, że problemy związane z tymi paliwami są coraz bliższe rozwiązania. A ekstremiści stają się coraz bardziej ekstremalni, bo te rozwiązania nie są po ich myśli. Nie wymagają ani „redukcji strumienia populacji”, ani nawet „likwidacji bogactwa” i odgórnego „ograniczenia konsumpcji”.

Popkiewicz M. i in, „Nauka o klimacie” wyd. Sonia Draga 2019

Patrioci i idioci

Ostatnie wybory parlamentarne wyróżniły się tym, że, po raz pierwszy od momentu jego ustanowienia, próg wyborczy przekroczony został przez inicjatywę polityczną autorstwa Janusza Korwina Mikke, jednego z najstarszych weteranów polskiej sceny politycznej. Były to też pierwsze wybory, w których nie wystąpił efekt „zmarnowanego głosu”. Wszystkie komitety, które zarejestrowały listy w całym kraju, do parlamentu się dostały.

Pod innymi jednak względami, były to wybory, aż nadto zwyczajne. Znów nie popisały się, badające opinię wyborców, firmy sondażowe. Wypracowana, w innym niż polskie, otoczeniu społecznym i politycznym, metodologia badań preferencji politycznych, w najbardziej oczywisty sposób, nie do końca sprawdza się w polskich warunkach, a nadal nikt nie potrafi jej miarodajnie skorygować. Wyniki wyborów w porównaniu z sondażami przedstawia wykres:

Wyb 19 01

Widzimy na nim, po kolei, średnią z przedwyborczych sondaży z października, wraz z odchyleniem standardowym pokazanym za pomocą czarnej kreski, wyniki sondażu exit poll przeprowadzanego w momencie wyborów, sondażu late poll, oraz wyników rzeczywistych. Gołym okiem widać, że chociaż wynik SLD i PIS udało się firmom sondażowym przewidzieć dość trafnie, o tyle poparcie dla pozostałych partii zostało ewidentnie zaniżone, w przypadku Konfederacji i PSL aż o ponad dwa odchylenia standardowe. Oczywiście sondaże z października 2019 są uśrednione. Były firmy, które okazały się profesjonalne, była też kompletna amatorszczyzna. Listę firm sondażowych wraz ze średnim, podanym w pkt procentowych mierzonego poparcia, błędem kwadratowym przypadającym na partię, przedstawia poniższa tabelka. Za granicę przyzwoitości można uznać średni błąd na poziomie 1 pkt proc

Firma sondażowa Średni błąd kwadratowy
Pollster 0,6%
Indicator 0,7%
Kantar 0,8%
IBRiS 1,0%
Estymator 1,3%
Social Changes 1,3%
CBOS 1,9%

Sondaże, oprócz samego poziomu poparcia dla poszczególnych partii, próbują też czasami mierzyć, jaki konkretnie elektorat dane siły polityczne popiera. Wypytuje się ankietowanych, nie tylko o to, na kogo by zagłosowali, ale także o ich wiek, zarobki, wykształcenie, miejsce zamieszkania, stan zdrowia i wiele innych tzw. wrażliwych danych. Nie trzeba chyba detalicznie wyjaśniać, jak bardzo ta metoda zbierania danych jest zawodna. Przepytywani zwykle nie mają ochoty na podawanie takich informacji, a im dłuższa i bardziej skomplikowana jest ankieta, tym mniejsza jest chęć na wypełnianie jej w ogóle. W rezultacie, zebrane dane pochodzić będą głównie od pewnej specyficznej grupy wyborców, bardzo od reprezentatywności dalekiej.

Aby uniknąć takiej metodologicznej wpadki, naszą analizę elektoratów oprzemy, nie na subiektywnych i niereprezentatywnych deklaracjach, ale na twardych danych, w postaci rzeczywistych wyników wyborów, podanych przez PKW. Oprócz samej liczby głosów oddanych na poszczególne komitety wyborcze w poszczególnych gminach, można w nich znaleźć wiele innych interesujących informacji, z których wykorzystamy pięć. Podkreślić w tym miejscu należy, że cała poniższa analiza, dotyczy nie samych partii startujących w wyborach i ich programów, ale cech ich wyborców – tych, którzy na nie, 13 października naprawdę zagłosowali, a nie tylko wyrazili taką chęć w sondażu.

Pierwszą z rozpatrywanych cech, w miarę oczywistą, jest wielkość danej gminy. Nie ulega bowiem wątpliwości, że ma ona zasadniczy wpływ na rozkład preferencji politycznych mieszkańców, co przejawia się istnieniem jaskrawych różnic w wynikach wyborów, pomiędzy miastem a wsią. Kolejną istotną informacją, jest liczba głosujących przez pełnomocnika. Jest ona najlepszym osiągalnym przybliżeniem stanu zdrowia, a tym samym i wieku wyborców. Im ktoś jest starszy i bardziej schorowany, tym większe jest prawdopodobieństwo, że właśnie w ten sposób zagłosuje. Następnie mamy głosowanie na podstawie zaświadczeń. W ostatnich wyborach parlamentarnych, tak samo zresztą jak w, poprzedzających je, majowych wyborach do europarlamentu, najwyższy odsetek takich głosów, nawet do 50% wszystkich, oddano w popularnych miejscowościach turystycznych, górskich i nadmorskich. Ponieważ, ani wybory obecne, ani eurowybory, nie odbywały się w tradycyjnym okresie urlopowym, można uznać, że takie głosowanie koreluje z zamożnością wyborców, dla których weekendowy wypad do hotelu w górach, lub nad morzem, nie stanowi zauważalnego wysiłku finansowego. Czwarty parametr to frekwencja. Im jest wyższa, tym z większym poziomem upolitycznienia, obywatelskiej troski o państwo, czyli po prostu patriotyzmu, mamy do czynienia. Ostatnią i najbardziej wstydliwą kwestią są głosy nieważne. Niezależnie od tego, jak bardzo autorowi i czytelnikom niniejszego eseju, może się to wydawać niewiarygodne, zbiór osób, dla których prawidłowe wypełnienie dwóch prostych kart do glosowania, stanowi zbyt wielkie wyzwanie intelektualne, nie jest zbiorem pustym. Odsetek głosów nieważnych koreluje z przeciętnym poziomem inteligencji wyborców. Im jest on wyższy, tym ta inteligencja jest niższa.

Mając te pięć parametrów, podanych uprzejmie przez PKW w postaci liczbowej, zbadamy teraz ich korelacje z poziomem poparcia dla poszczególnych partii. Wynik przedstawiono na poniższym wykresie. Uwzględniono jedynie korelacje istotne statystycznie, czyli takie, dla których prawdopodobieństwo tego, że pojawiły się przypadkowo, jest mniejsze niż 1%.

Wyb 19 02

Wynik naszej analizy, nie do końca odpowiada powszechnemu wyobrażeniu, jaki w obiegu medialnym na ten temat kursuje. Faktycznie wyborcy PIS, zwycięzcy tych wyborów, tak jak to głoszą mądrości ludowe, wywodzą się ze wsi (największa ujemna korelacja z wielkością), są najstarsi (najwyższa dodatnia korelacja z pełnomocnikami) i biedni (największa ujemna korelacja z zaświadczeniami). Nie są już jednak najgłupsi. Zniknęła bowiem, a ściśle rzecz biorąc, stała się statystycznie nieistotna, obecna jeszcze w poprzednich eurowyborach, ich ujemna korelacja z głosami nieważnymi. Co do elektoratu pozostałych partii, zwłaszcza Konfederacji, to odbiega on od powszechnego wyobrażenia na swój temat, w znacznie większym, niż elektorat PIS, stopniu.

Ogólnie, głosujących w wyborach, można podzielić na dwie, bardzo wyraźnie odrębne grupy, w matematyce zwane klastrami.

Do pierwszego z nich, należą wyborcy miejscy, dobrego stanu zdrowia, czyli młodzi i w średnim wieku, ponadprzeciętnie inteligentni, czyli zapewne też wykształceni, zamożni i patriotycznie nastawieni. Drugi klaster to elektorat wiejski, starszy, biedny, niezbyt inteligentny i odnoszący się do spraw publicznych z głębokim dystansem. Starożytni Helleni nazwaliby ich „idiotes”.

Powstanie tych klastrów jest główną i najważniejszą zmianą, jaka zaszła pomiędzy eurowyborami, w których obowiązywała prosta dychotomia, podział na jednoelementowy klaster PIS i anty-PIS, czyli wszystkich pozostałych, a wyborami parlamentarnymi. Rozpad Koalicji Europejskiej i przyłączenie się resztek ruchu KUKIZ do PSL miał więc dużo większe politycznie znaczenie, niż to by się mogło wydawać. W poniższej tabelce umieszczono współrzędne środków opisanych klastrów, wraz z partiami, na które dany klaster zagłosował.

KO, SLD, KONFEDERACJA PIS, PSL
Wielkość 26,0% -22,5%
Pełnomocnicy -19,4% 8,7%
Zaświadczenia 13,4% -11,2%
Frekwencja 21,6% -24,2%
Nieważne -8,2% 22,8%

Wbrew zatem temu, co powszechnie, także wśród polityków Konfederacji, się na ten temat sądzi, jej wyborcy należą do tej samej grupy, co wyborcy KO i SLD, a z głosującymi na PIS, nie łączy ich praktycznie nic. Naturalnie istnienie opisanych klastrów nie oznacza, że nie ma w ich obrębie żadnych różnic, a jedynie, że te różnice są znacznie mniejsze, niż różnice pomiędzy klastrami. PSL, na ten przykład, ma wyborców młodszych i zdrowszych, ale też i głupszych, niż PIS. W obrębie klastra patriotycznego natomiast, wyborcy SLD odstają inteligencją w dół od pozostałych, natomiast elektorat Konfederacji jest mniej od tamtejszej średniej zamożny, czyli, można zaryzykować twierdzenie, że jest on po prostu młodszy. I jako taki, jeszcze się pozycji majątkowej i zawodowej w życiu nie dorobił. Z różnicy między sondażem exit poll, a wynikiem rzeczywistym, można też wywnioskować, że idioci preferują głosowanie poranne, podczas gdy klaster miejski (SLD i Konfederacja) głosuje raczej wieczorem.

Konsekwencją istnienia klastrów, są korelacje pomiędzy poparciem dla poszczególnych komitetów wyborczych. Partie patriotyczne, mają ze sobą korelacje dodatnią. Najsilniejszą w parze KO-SLD, gdzie przekracza ona 70%, słabszą, ale nadal statystycznie znaczącą, w parach z udziałem Konfederacji. Wyborcy tych ugrupowań, bez większych rozterek i ceregieli, przenoszą swoje poparcie na partie sąsiednie. Najchętniej na styku KO-SLD, ale i elektorat Konfederacji, w znaczącej liczbie uczestniczy w tym procesie. Wszystkie należące do tego obywatelskiego klastra partie, mają za to bardzo silną, sięgającą niemal -90%, ujemną korelację z partiami klastra idiotów. Przepływ elektoratu praktycznie tu nie zachodzi.

To nowe polityczne rozdanie, tworzy też swoisty „horyzont zdarzeń”, który bardzo utrudnia prześledzenie przepływów poparcia wyborczego, pomiędzy wyborami poprzednimi z 2015 roku, a wyborami dzisiejszymi. Oto liczba głosów oddanych na poszczególne ugrupowania w roku 2015 i obecnie.

Wyb 19 03

Założywszy rozsądnie, że ówcześni wyborcy Nowoczesnej poparli dzisiaj KO, a elektorat RAZEM przeszedł do SLD, najbardziej prawdopodobne jest, że poparcie dla KUKIZa zostało rozparcelowane między Konfederację a PSL, natomiast PIS najlepiej udała się mobilizacja elektoratu uprzednio niegłosującego, obecnie skorumpowanego „500+” Jaki to jest konkretnie elektorat, będzie jeszcze mowa w dalszej części eseju. Alternatywną, choć mniej prawdopodobną, możliwością jest rozbiór KUKIZa pomiędzy PSL a SLD, oraz ponadprzeciętny napływ do Konfederacji korwinowskich „kuców”, młodych, głosujących po raz pierwszy, wyborców.

Naszym następnym krokiem, będzie teraz zbadanie poparcia dla poszczególnych komitetów wyborczych, w rozbiciu na gminy. Rozkład taki jest widoczny na kolejnym wykresie. Na osi poziomej zaznaczono odsetek głosów oddanych na daną partię a na osi pionowej, odsetek gmin, w których taki właśnie wynik wyborczy miał miejsce.

Wyb 19 04

Tym razem wyraźnie wyróżnia się elektorat Konfederacji. Jest on, ze wszystkich innych, najbardziej równomiernie rozmieszczony w skali kraju. Poparcie dla tej partii, nie zmienia się z gminy na gminę, praktycznie wcale. Często prezentowane w mediach różnice geograficzne w preferencjach politycznych obywateli, różnice odziedziczone po II wojnie światowej, a nawet jeszcze po rozbiorach, stopniowo, z wyborów na wybory, się w Polsce zacierają, ale to właśnie Konfederacja jest tu niekwestionowanym liderem, pierwszą partią naprawdę ogólnopolską, mając program, którego atrakcyjność, w ogóle nie zależy od miejsca zamieszkania adresatów. Pozostałe partie nadal do tego nie doszły.

Drugim, słabiej na wykresie widocznym, niemniej ewidentnym, fenomenem, jest rozkład poparcia dla PIS. Dla wszystkich innych partii, ma on jeden wyraźny „pik”, gdzie odsetek gmin z danym poparciem osiąga swoje maksimum, najwyższy w przypadku Konfederacji. W przypadku PIS jednak, rozkład poparcia jest bimodalny i ma dwa wyraźne maksima, odpowiednio przy 45% i 66% poparcia w danej gminie. Podobny bimodalny rozkład miało w majowych eurowyborach poparcie dla Koalicji Europejskiej. Była ona właśnie koalicją i składała się z kilku różnych niedopasowanych politycznie elementów. Konsekwentnie jej wyborcy stanowili oddzielne grupy z własnymi, odrębnymi rozkładami poparcia, które, zsumowane, dały właśnie ów efekt podwójnego szczytu. Owa niespójność była zresztą powodem, dla którego KE rozpadła się zaraz po eurowyborach.

Nieomylnie oznacza to, że również elektorat PIS dzieli się na dwie, zupełnie odrębne grupy, co potencjalnie jest ogromną słabością tej, pozornie monolitycznej, jednolitej i skrajnie scentralizowanej partii i umiejętnie wykorzystane przez jej przeciwników, może łatwo doprowadzić ją do rozpadu i upadku. Aby dopomóc w tym zbożnym dziele, spróbujmy teraz zidentyfikować i rozróżnić te dwie populacje sierot po PRL. Na ostatnim wykresie przypisał autor gminy, należące do tych dwóch odrębnych pików poparcia, do poszczególnych województw.

Wyb 19 05

Pik 66% to tradycyjny geograficzny bastion PIS. W prostej linii potomkowie Goralenvolku. Polska wschodnia i południowo-wschodnia, a dokładniej prowincja tego obszaru, bo tamtejsze miasta są już znacznie bardziej patriotyczne. To wyborcy PIS o „wysokiej jakości”. Fanatyczni wyznawcy pisowskiego socjalizmu, zdeterminowani, aby pójść i zagłosować właśnie na PIS, a nie na kogokolwiek bądź innego. Nawet najbardziej drastyczne kompromitacje, afery gospodarcze, obyczajowe i kryminalne autorstwa swoich wybrańców, czy nawet całkowity kataklizm gospodarczy, nie zniechęcą ich do udzielania poparcia swoim idolom.

Inaczej jednak sprawy się mają z pikiem 45%. Mieszczą się tu duże i średnie miasta położone w tej, zdefiniowanej wyżej, pisowskiej strefie, w których PIS ma poparcie jednak sporo niższe, niż na otaczającej je prowincji. Głównie jednak występuje ów pik, na pozostałej części Polski i jak wykazuje bardziej subtelna, na poziomie powiatów, analiza, pokrywa się z terenami „pegieereowskimi”, miejscowościami najbardziej oddalonymi od nowoczesnej gospodarki, zapuszczonymi i zdewastowanymi. To elektorat nie socjalistyczny, ale socjalny, roszczeniowy, kupiony za osławione „500+”. Są to, całkowicie obojętni na wszystko, co wykracza poza czubek ich własnego nosa, koniunkturaliści. Zagłosowali ze strachu przed utratą „500+”, ale chętnie przerzucą poparcie na każdego, kto w sposób dla nich wiarygodny, coś im obieca. Lepper, Palikot, czy Kaczyński – wszystko im jedno. Musi być to jednak obietnica konkretna, materialna, bo gadanie o praworządności, jakości instytucji państwowych, roli Polski w gospodarce światowej, podatkach, czy globalnych trendach cywilizacyjnych, co czynią partie z klastra obywatelskiego, nie obchodzi ich wcale.

Na szczęście na tym terenie PISowi wyrósł właśnie konkurent, którego pojawienia się, jako żywo, niżej podpisany się w tym miejscu nie spodziewał i który zyskał właśnie olbrzymią szansę na odebranie PIS znaczącej części jego obecnego wśród idiotów poparcia.

Wbrew temu, co „wszyscy wiedzą” jednak, tym konkurentem nie jest Konfederacja. I próby rywalizowania z PISem o elektorat, co liderzy tej formacji do tej pory zwykli czynić, będą zawsze nieskuteczne. Elektorat PIS jest na wskroś albo socjalistyczny, albo socjalny i jak wynika z negatywnej korelacji z frekwencją, losy Polski jako zbiorowości, nic go nie obchodzą. Jako partia spozycjonowana jako część klastra miejskiego, patriotycznego, Konfederacja jest skazana na rywalizację o wyborców z KO i SLD, a to oznacza konieczność totalnej krytyki PIS i negowania jego programu i tez propagandowych w całości.

Autor artykułu zawsze się spodziewał, że polska scena polityczna w końcu upodobni się do swoich odpowiedników w rozwiniętych krajów Zachodu, tak samo, jak polskie społeczeństwo upodabnia się do tamtejszych społeczeństw. Kilka razy miał on już wrażenie, że ta konwergencja właśnie zachodzi i jak do tej pory, okazywało się to przedwczesne. Ale tym razem analogia jest już naprawdę silna. Jest już i progresywna lewica (SLD) i konserwatywna prawica (KO) i „siła antysystemowa” w postaci Konfederacji. PIS zaś, niezależnie od swoich pozorów siły i potęgi, jest jednak polityczną efemerydą, tak samo jak PZPR na której się wzoruje, a która rządząc od PIS znacznie dłużej, nie pozostawiła jednak w Polsce żadnych trwałych śladów swojej obecności. Nie może w XXI wieku trwale istnieć i dominować siła polityczna z programem wyciągniętym z pierwszej połowy wieku XX. Niestety, ta ulotność nie oznacza, że PIS nie jest w stanie dokonać w Polsce żadnych szkód. Szkodzić może i to z zapałem robi. Naprawdę lepiej by było, aby idiotów, sieroty po PRL, póki jeszcze w Polsce żyją, dało radę zagospodarować PSL.

Skrócona wersja niniejszego eseju była opublikowana w 1539-1540 numerze tygodnika „Najwyższy Czas”

Gwiezdne Wojny i Królestwo Niebieskie v. 2.0

Słyszeliście, że powiedziano: Oko za oko i ząb za ząb!
A Ja wam powiadam: Nie stawiajcie oporu złemu.
Lecz jeśli cię kto uderzy w prawy policzek, nadstaw mu i drugi!
Temu, kto chce prawować się z tobą i wziąć twoją szatę, odstąp i płaszcz!
Zmusza cię kto, żeby iść z nim tysiąc kroków, idź dwa tysiące!
 
Mt 5, 38-40
Jezus o strategiach mścicielskich

 

Pogódź się ze swoim przeciwnikiem szybko, dopóki jesteś z nim w drodze,
by cię przeciwnik nie podał sędziemu, a sędzia dozorcy,
i aby nie wtrącono cię do więzienia.
Zaprawdę, powiadam ci: nie wyjdziesz stamtąd, aż zwrócisz ostatni grosz.
 
Mt 5, 25-26
Jezus o strategiach legalistycznych

Rozpatrując, w poprzednich artykułach (nr 1, nr 2, nr 3), za pomocą modelu gry w jastrzębia i gołębia, stopniowo rozbudowywanego i modyfikowanego do postaci dwuwymiarowej, tzw. macierzy Hammersteina, teorię wojen i konfliktów, czyli ogólnie, grę o sumie mniejszej od zera, osiągnęliśmy, zwłaszcza wziąwszy pod uwagę prostotę tego modelu, bardzo wiele. Opisaliśmy, w jaki sposób konflikty o stałe, niemożliwe do wyprodukowania i powiększenia, zasoby, są rozwiązywane, zarówno w społecznościach prymitywnych – poprzez strategie mścicielskie, jak i w rozwiniętych i cywilizowanych – poprzez strategie legalistyczne. Odkryliśmy też, oddzielający ten Czas Honoru od Rządów Prawa, agresywny i niebezpieczny Grzbiet Pragmatyzmu i tym samym wyjaśniliśmy genezę tzw. Wojny Asurów, czyli mrocznego i agresywnego czasu pogardy, jakiego nasza cywilizacja zaznała w latach 1914-1945. Rozważania nasze, zakończyliśmy na tzw. III strefie macierzy Hammersteina, gdzie nasza cywilizacja się obecnie znajduje, a gdzie strategiami ewolucyjnie stabilnymi, są strategie legalistyczne, polegające na agresywnym zabieganiu o własne, obiektywne, spisane w kodeksach, prawa i wzajemne uznawanie podobnych, uzasadnionych obiektywnie, roszczeń, ze strony innych graczy. Spotykają się tu zawsze jastrzębie z gołębiami, a przyjęcie którejś z tych strategii zależy od obiektywnych praw własności do danego, będącego przedmiotem rywalizacji, zasobu.

W tej legalistycznej, praworządnej strefie, znajduje się, mając odpowiednio wysoki współczynnik S, iloraz strat i kosztów wojny do zysków, jakie z niej można uzyskać, większość współczesnych najbogatszych i najbardziej rozwiniętych społeczeństw i dlatego są one też bardzo praworządne, a współczynnik przestępczości jest w nich bardzo niski. To samo dotyczy stosunków międzynarodowych, które, nigdy w historii, nie były tak pokojowe jak obecnie. III wojna światowa nie tylko, wbrew obawom, jakie żywiły pokolenia zimnej wojny, nie wybuchła, ale, w miarę posuwania się w głąb obszaru legalistycznego, nazwanego przez autora Morzem Legalizmu, ryzyko wybuchu jakiegoś poważnego konfliktu systematycznie maleje.

Zakres stosowalności tak prostego przecież modelu, jak macierz Hammersteina, okazuje się zatem zadziwiająco szeroki, praktycznie wystarczający, aby wymodelować konflikty w całej dotychczasowej historii ludzkości i całkowicie wyjaśnić, zaobserwowany przez Stevena Pinkera, fenomen, nazwany przez niego „zmierzchem przemocy”. Fenomen, który Pinker odkrył, ale którego nie potrafił przekonująco wyjaśnić. Jednak cechą prawdziwie użytecznego modelu jest nie tylko wyjaśnienie zjawisk już istniejących, ale i przewidywanie przyszłych. Macierz Hammersteina znajduje się tu w szczególnie nieszczęśliwym położeniu, bo wynika z niej, że będziemy po prostu płynąć po Morzu Legalizmu na wschód coraz dalej i dalej i tak w miarę rozwoju cywilizacyjnego i wzrostu S praktycznie w nieskończoność, o ile ten ruch nie zostanie w końcu zahamowany przez pułapkę logistyczną. Tak czy inaczej nie wydarzy się już, jeżeli chodzi o historię konfliktów i wojen, kompletnie nic.

Ale moment, zaraz, zaraz… Skąd wiemy, że Morze Legalizmu nigdy się nie kończy? Z, pokazanego w rozdziale XI, rozwiązania analitycznego? Z przekonania, że taka właśnie, legalistyczna strategia, jest prawie, że optymalna w sensie Pareto i będzie coraz bardziej optymalna w miarę wzrostu S? Przecież analiza numeryczna wykazała, że dla S<10 strategia ewolucyjnie stabilna, odbiega od paretooptymalności niekiedy bardzo znacznie, a równowaga Nasha znajduje się czasami w najdziwniejszych miejscach. Więc jak to jest dla S>10? Jak wygląda kształt przyszłych wojen? Może nawet gwiezdnych wojen? Czy rozwinięta cywilizacja naukowo techniczna, cywilizacja o wysokim S, może jednak zniszczyć się sama w paroksyzmie samobójczej przemocy? Czy międzygwiezdne pancerniki, ostrzeliwujące się torpedami fotonowymi i plazmowymi fazerami, mogą się pojawić w realnej rzeczywistości?

Nasz dotychczasowy przewodnik po historii przemocy, macierz Hammersteina, ma dwa wymiary. Wspomniany już parametr S, oraz różnicę sił spierających się stron oznaczoną jako X. Posuwając się w głąb przyszłości, możemy jednak uprościć sobie życie i z jednego z tych wymiarów zrezygnować. Dla tak wysokich S bowiem, wielkość różnicy sił, przestaje mieć stopniowo jakiekolwiek znaczenie. Przyjmując więc z powrotem X=0,5, możemy ponowienie zapuścić naszą komputerową symulację.

I znów musiało upłynąć wiele czasu (komputerowego), zanim ten kształt, od wartości S=10, w górę, zaczął nam się z symulacji wyłaniać. W zakresie S od 10 do 500 żadnych niespodzianek nie stwierdzono. Stabilnie dominuje strategia mieszana (AL;L). Jednak nasze założenie, o spokojnym i bezproblemowym rejsie po Morzu Legalizmu, rzeczywiście okazało się nieco na wyrost. Oto niespodziewanie, ni stąd ni zowąd, kiedy S zbliża się do tysiąca, era legalizmu się …kończy.  Zaczyna się nowa strategia ewolucyjnie stabilna. Strategia, której, jako żywo, nigdy się niżej podpisany w tym miejscu nie spodziewał. A przecież, myśląc logicznie, powinien.

Oto wynik. Ze względu na dużą rozpiętość wartości parametru S, oś poziomą przedstawiono w postaci logarytmicznej.

Jasgoł 07a

Dla tak wysokiego S bowiem, każda jawna konfrontacja, jest istną katastrofą. A przecież, nawet w takim społeczeństwie, niemiłe, agresywne, jastrzębie, mutacje nadal się pojawiają. Oczywiście od razu z kretesem przegrywają, ale ich zwalczanie również staje się coraz bardziej kosztowne. W tej sytuacji, najbardziej opłacalne staje się demonstrowanie postawy agresywnej …wyłącznie w sposób symulowany i ucieczka, kiedy tylko zaistnieje jakiekolwiek ryzyko realnej konfrontacji. Dla S>1000, niezależnie od poziomu X, prawie absolutną, 98% frekwencję, zdobywają zatem …chojracy (AU). Zmuszeni ponosić rosnące koszty czyszczenia populacji z niemiłych mutacji legaliści (L, AL) znikają definitywnie z populacji. Zdolni normalnie chojraków poskromić, mściciele (UA, UP, UL), z tych samych względów, nie mogą się w niej pojawić. A agresywne mutacje A i P, nawet występując w bardzo mikrym odsetku, wykańczają się same. I tak cywilizacja kosmiczna, bo chyba o takiej możemy mówić przy S rzędu tysięcy, staje się Kosmicznymi Chojrakami. Tym samym, staje się ona niezdolna do dalszego rozwoju i utyka na tym etapie, gdzieś w okolicach I stopnia klasyfikacji Kardaszewa. Cywilizacja międzyplanetarna, na swojej drodze do przekształcenia w cywilizację międzygwiezdną, napotyka na niespodziewaną przeszkodę.

Aby ją pokonać, społeczeństwo musi się przed chojrakami obronić, w inny, niż liczenie na interwencję mścicieli, sposób. Aby odkryć ów sposób, pokażemy jeszcze raz macierz wypłat dla gry, tym razem z uwzględnieniem wszystkich strategii. Przyjęto dodatkowo parametr Q = 0,5*(1-S).

  A U L AU AL UA UL LA LU
A Q 1 0,5+0,5*Q 1 0,5+0,5*Q Q 0,5+0,5*Q Q 1
U 0 0,5 0,5*0,5 0 0 0,5 0,5 0,5*0,5 0,5*0,5
L 0,5*Q 0,5+0,5*0,5 0,5 0,5 0,5 0,5*Q+0,5*0,5 0,5+0,5*0,5 0,5*Q 0,5
AU 0 1 0,5 0,5 0,5*0,5 0 0,5 0 0,5+0,5*0,5
AL 0,5*Q 1 0,5 0,5+0,5*0,5 0,5 0,5*Q 0,5 0,5*Q 0,5+0,5*0,5
UA Q 0,5 0,5*0,5+0,5*Q 1 0,5+0,5*Q 0,5 0,5 0,5*0,5+0,5*Q 0,5*0,5+0,5
UL 0,5*Q 0,5 0,5*0,5 0,5 0,5 0,5 0,5 0,5*0,5 0,5*0,5
LA Q 0,5+0,5*0,5 0,5+0,5*Q 1 0,5+0,5*Q 0,5*Q+0,5*0,5 0,5+0,5*0,5 Q 1
LU 0 0,5+0,5*0,5 0,5 0,5*0,5 0,5*0,5 0,5*0,5 0,5*0,5+0,5 0 0,5

W środowisku zdominowanym przez legalistów, z czysto matematycznego punktu widzenia, chojrak, w spotkaniu z legalistą, zawsze będzie zachowywał się jak legalista. Jednak spotkanie dwóch chojraków, chociaż wycenione zostało w pierwszym przybliżeniu tak samo, jak spotkanie dwóch legalistów, w pewien subtelny sposób jednak się od niego różni. Tak samo, jak legaliści muszą ustalić, który z nich jest „w prawie”, co wszakże nie zawsze jest bezproblemowe i może nawet skończyć się w sądzie, tak samo chojracy muszą ustalić, który z nich jest akurat tym większym chojrakiem. Spotkanie dwóch legalistów, to zawsze spotkanie jastrzębia z gołębiem. Jednak spotkanie dwóch chojraków to, chociaż tylko deklaratywne, ale jednak zderzenie dwóch agresji. Owszem, najczęściej będzie tak, że któryś chojrak spęka pierwszy i ucieknie, ale nie można zaniedbać możliwości, że do konfliktu, na tym poziomie S, z użyciem laserów tachionowych i miotaczy antymaterii, może w takich okolicznościach dojść czystym przypadkiem, a wtedy koszty W będą gigantyczne. Nawet, jeżeli prawdopodobieństwo takiego obrotu rzeczy, nie jest duże, to pomnożone przez gigantyczne W daje całkiem pokaźną wartość oczekiwaną, dodatkowym kosztem obciążającą strategie chojrackie. Po uwzględnieniu w naszej macierzy gry tego efektu, do czego wystarcza osłabienie chojraków zaledwie o 1%, chojracy znów znikają w niebycie. A co zostaje? Do pewnego stopnia teren odzyskują legaliści, ale, po zdecydowanym przekroczeniu przez S poziomu 1000, pojawia się nowy, zadziwiający stan równowagi.

Wszystkie opisywane powyżej kombinacje dominujących strategii, niezależnie od tego, gdzie by na mapie naszego modelu się znajdowały, mają jedną wspólną cechę. Wszystkie one, jeżeli uwzględnimy także efekty drugorzędowe, czyli koszty pozyskiwania niezbędnej informacji i zużytego na to czasu, nie są, jak to już nieraz autor przypominał, paretooptymalne, czyli nie dają graczom maksymalnych możliwych wypłat. Dotyczy to także, najbardziej do takiej optymalności zbliżonej strategii L, bo nawet ona, jakieś koszty spisania, przestrzegania i skutecznego egzekwowania swoich praw, ponosić musi. Strategia naprawdę optymalna, takich kosztów mieć nie może.

Strategiami umożliwiającymi utrzymanie pokoju i tym samym rozwój cywilizacji są, w społeczności prymitywnej, strategie mścicielskie, a w społecznościach rozwiniętych, strategie legalistyczne. Jednak, największy w ludzkiej historii, zacytowany w motcie, Nauczyciel, zdecydowanie ich stosowania, zarówno jednych jak i drugich, nie zalecał. Zamiast nich, zaproponował strategię ewangeliczną właśnie, nadstawiania drugiego policzka, strategię gołębia (U). Jak już wiemy z pierwszego z tej serii artykułu, jest to właśnie strategia optymalna w sensie Pareto. Niemniej, pamiętajmy, że jest to także strategia niestabilna, podatna na inwazję jastrzębi. Z tego też względu, nauki Nauczyciela, bywały przez wieki wyśmiewane, a On sam często uchodził za pięknoducha i naiwniaka.

A jednak wystarczy spojrzeć na wykres:

Jasgoł 08a

 Przy odpowiednio wysokich S, nawet, kiedy mutant – jastrząb się pojawi, to, chociaż przepędzi raz dwa okoliczne gołębie, wcześniej czy później, trafi na drugiego jastrzębia. I nawzajem się oni wtedy doszczętnie zniszczą. Błogosławieni będą Cisi, albowiem oni na własność posiądą ziemię. A nawet Galaktykę. Legalizm jeszcze jakiś czas będzie się utrzymywał w przejściowej strategii LU, ale w końcu, przy S rzędu milionów, zapanuje powszechnie strategia U. Królestwo niebieskie naprawdę będzie Niebieskie. Nauczyciel, już w Czasie Honoru, kiedy to głosił swoje przesłanie, o tym wiedział, nie tylko na długo przed nadejściem Cichych, ale nawet na długo przed Rządami Prawa.

Gwiezdnych wojen zatem, nie ma i nigdy nie będzie. Jeżeli kiedykolwiek nawiążemy kontakt z jakąś pozaziemską cywilizacją, będzie to cywilizacja wysoce etyczna i pokojowa. Cywilizacja Cichych właśnie. LU, albo i czyste U. Postęp etyczny, podąża bowiem za postępem technologicznym. Zawsze. Od paleolitu, aż do galaktycznych Cichych, cywilizacji II stopnia według klasyfikacji Kardaszewa.

Przyszłość byłaby więc bardzo ewangeliczna i optymistyczna. Wnikliwy czytelnik mógłby jednak postawić w tym miejscu następujące pytanie. Skoro Rządy Prawa oddziela od Czasów Honoru bariera Grzbietu Pragmatyzmu i związanej z nią Wojny Asurów, to czy przejście od Rządów Prawa do Królestwa Niebieskiego nie wiąże się z podobnym progiem? Czy na drodze do galaktycznego Królestwa Niebieskiego czeka nas jednak jakaś Wojna Światów, Marsa z Ziemią i górnikami z planetoid jako języczkiem u wagi? Być może nasze założenie o nieistotności X jest jednak przedwczesne?

Aby odpowiedzieć na to pytanie, autor zbadał legalistyczno – ewangeliczne pogranicze bardziej wnikliwie. Od razu tez śpieszy uspokoić, że żaden odpowiednik Grzbietu Pragmatyzmu się tam nie pojawia. Owszem, ukłąd jest chaotyczny i niestabilny, co pokażemy na przykładzie punktu S = 1000 i X = 0,8. W odróżnieniu od wszystkich poprzednich, ten wykres okazuje ewolucję strategii w tym punkcie w funkcji czasu:

Jasgoł 09

Układ jest chaotyczny i niestabilny, ale oscyluje pomiędzy strategiami miłymi. Słudzy Prawa wymieniają się tu w miarę regularnie rolami z Cichymi (LU). Pojawiają się dodatkowo takie strategie jak PL (ostrożniejszy AL.), oraz w pewnej ilości chojracy AU, ale naprawdę groźny LP nie potrafi się jednak, pomimo podejmowanych regularnie prób, przebić. Nie jest ten obszar zatem bynajmniej drugim Grzbietem Pragmatyzmu.

Przynajmniej w naszym modelu. Rzeczywisty układ bowiem może zawierać więcej, niż tylko dwa rozpatrywane przez nas parametry (X, S), a które do tej pory nie dawały zauważalnego wkładu w jego zachowanie. Może się jednak to zmienić przy odpowiednio wysokich S, a wtedy wszystko, łącznie z również zapowiadaną w Piśmie, rozpierduchą tak totalną, że aż gwiazdy mają spadać, może się okazać możliwe. Czas pokaże.

Gry wojenne 1939 v.2.0

Oba Rządy oświadczają, że jest ich zamiarem porozumiewać się
bezpośrednio we wszelkiego rodzaju zagadnieniach, […]
W żadnym jednak wypadku nie będą się one uciekały
do stosowania przemocy w celu załatwienia
tego rodzaju spraw spornych.
 
Polsko-niemiecka deklaracja o niestosowaniu przemocy z 1934 roku
A ile dywizji ma papież?
 
Józef Stalin

 

W poprzednich dwóch artykułach, (nr 1, nr 2) na podstawie modelu teorii gier, zwanego macierzą Hammersteina, pokazaliśmy mechanizmy konfliktów i wojen, i to, jak się one zmieniły, w momencie przejścia od cywilizacji maltuzjanskiej, rolniczej, do industrialnej i postindustrialnej. W szczególności wyjaśniliśmy, jak doszło do tzw. „Wojny Asurów”, czyli I i II wojny światowej, a nawet jeszcze i zimnej wojny, traktowanych łącznie, jako konfliktu wygenerowanego na tzw. „Grzbiecie Pragmatyzmu”. Ten ostatni jest, jak autor przypomina, agresywnym obszarem na mapie macierzy Hammersteina, z dominującymi na nim strategiami pragmatycznymi, determinującymi politykę liczącą się jedynie z siłą. Cywilizacja, przechodząca fazę rewolucji przemysłowej, musi też przejść od mechanizmów rozwiązywania konfliktów, opartych na honorze i strategiach mścicielskich (jak ty mnie, tak ja tobie), do strefy praworządnej, ze strategiami legalistycznymi, opartej na prawie i kodeksach. Droga ta jednak, przecina konfliktowy i niespokojny Grzbiet Pragmatyzmu, gdzie wybuch wojny i eksplozja przemocy, są bardzo prawdopodobne.

Prawdopodobieństwo jednak, nie oznacza pewności. Pokazał autor też mechanizmy i sposoby, które teoretycznie, pozwoliłyby przebyć danej cywilizacji Grzbiet Pragmatyzmu, nawet zupełnie „suchą nogą”, a na pewno lepiej niż poradziła z nim sobie nasza, ziemska cywilizacja. Oczywiście były też możliwe znacznie gorsze alternatywy, w tym powrót do maltuzjanizmu, czy świat orwellowski.

Na Ziemi, Wojna Asurów jednak wybuchła i przybrała postać dwufazową, rozdzieloną dwudziestoletnim, chwiejnym i niestabilnym, ale jednak pokojem, zwanym pokojem wersalskim. W niniejszym rozdziale, posługując się naszym modelem, zajmiemy się zagadnieniem, czy ów pokój mógł bezpośrednio, bez II wojny światowej, przejść w, nazwany tak przez Stevena Pinkera, współczesny Długi Pokój. Wbrew temu, co się kiedyś piszącemu te słowa wydawało, było to jednak możliwe.

W poprzednim rozdziale, korzystając z naszego modelu, opisaliśmy wybuch I wojny światowej i rolę, jaką w tym odegrała polityka prowadzona przez poszczególne kraje i ich wybór zastosowanych strategii. Zapalnikiem, który bezpośrednio odpalił tę wojnę, była agresywna, pragmatyczna strategia AP, przyjęta przez Serbię i błędna, pochodząca jeszcze z, zakończonych właśnie, czasów honorowych, austro-węgierska odpowiedź UP na nią. Strategie pragmatyczne, ze względu na konieczność dokładnej znajomości sił, zarówno własnych jak i rywali, są bardzo podatne na błędy, ponadto w 1914 roku niewielu decydentów naprawdę rozumiało, jak bardzo, w porównaniu z czasami znanymi im z lekcji historii, a nawet jeszcze z własnego doświadczenia, zmieniły się parametry tej gry. W szczególności, jak bardzo wzrost parametru S – stosunku strat i kosztów wojny, do możliwych łupów ze zwycięstwa, zmienił paletę dominujących strategii.

Jednak lata 1914-1918 szybko nauczyły ich w praktyce tego, czego nie pojęli w teorii. Poziom strat był otrzeźwiającym szokiem dla wszystkich, tym bardziej, kiedy porównano je, z bardzo wątpliwymi, gorzkimi „owocami zwycięstwa”. We wschodniej Europie rozpadły się wręcz wszystkie, bardziej złożone struktury społeczne, w tym państwowe. Rosja, a potem Austro-Węgry po prostu zniknęły, pozostawiając próżnię polityczną, którą starały się wypełnić różne „rządy” „narodowe”, „rewolucyjne”, „ludowe” i tym podobne efemerydy. Również Polska powstała wtedy „ni z tego, ni z owego na pierwszego”.  Chaos ogarnął także Niemcy. To, że nie przeniknął jeszcze bardziej na zachód kontynentu i nie okazał się trwały, zawdzięczamy wyłącznie amerykańskiej interwencji, dostawom żywności, towarów pierwszej potrzeby, a później kapitału, na odbudowę zniszczonych gospodarek. USA podparło swoim bogactwem zachodnią Europę, a od 1919 roku, także wschodnią, co pozwoliło europejskim rządom utrzymać (na zachodzie) i odzyskać (na wschodzie) efektywną kontrolę nad własnym terytorium. Tylko dzięki temu, już I wojna światowa, nie zakończyła się przewidywanym przez Blocha powrotem do barbarzyństwa, chociaż i tak sytuacja przez wiele lat była jeszcze chwiejna i niestabilna, a zamachy, przewroty i lokalne konflikty – powszechne.

Wiedza o tym, jak wygląda nowoczesna wojna industrialna wysokiego S i jak się ona kończy, stała się więc powszechnie dostępna. Paradoksalnie jednak, dotyczyło to w pierwszej kolejności krajów teoretycznie zwycięskich, w tym Polski, natomiast w mniejszym państw przegranych, nie tylko faktycznie, ale i formalnie. W Niemczech i Rosji, katastrofa mogła zostać wytłumaczona, nie samą wojną, jako taką, a jedynie klęską w niej poniesioną.

Konsekwentnie, odrobiwszy tą lekcję, broniące porządku wersalskiego, kraje dawnej Ententy, porzuciły nieadekwatne strategie mścicielskie i pragmatyczne, a kurczowo uczepiły się legalizmu. I to też okazało się jednak w końcu nieskuteczne, ponieważ podróż cywilizacji przez Grzbiet Pragmatyzmu, wcale się jeszcze nie zakończyła, a wrogom Wersalu nadal, poleganie na strategiach pragmatycznych, mogło wydawać się sensowne.

Serbią II wojny światowej stała się Polska. Austro-Węgrami zaś – III Rzesza, jedno z państw sezonowych, powstałych na Grzbiecie Pragmatyzmu. Formalne podobieństwo tych sytuacji jest jednak złudne. Gra roku 1939 była inna, miała inne parametry i używano w niej innych strategii, niż ćwierć wieku wcześniej.

Narodowa i socjalistyczna partia NSDAP, ze swoim prezesem Hitlerem na czele, doszła do władzy pod hasłami uczynienia Niemiec znowu wielkimi, zerwania z polityką białej flagi, czyli realnie zaprzestania używania w polityce strategii ustępujących, podniesienia kraju z kolan i prowadzenia polityki godnościowej. W ówczesnych czasach rozumiano pod tymi pojęciami również, a nawet przede wszystkim, rozbudowę armii. Dzisiaj toczą się przewlekłe dyskusje, czy na wojsko wydawać 1,5, 2, czy może nawet 2,5% PKB i jak takie wydatki wpłyną na gospodarkę. Naziści jednaki takimi liczykrupami nie byli. Wydatki zbrojeniowe sięgnęły w III Rzeszy aż 25% jej PKB. Rządzący w ZSRR, kolejnym pokracznym bękarcie Grzbietu Pragmatyzmu, Stalin, wydawał w tym celu podobne kwoty. Była to logiczna i konsekwentna realizacja strategii pragmatycznej, wymagającej jak największej siły. Taki wysiłek zbrojeniowy, jest jednak oczywiście na dłuższą metę zabójczy dla każdej gospodarki, tym bardziej dla niewydajnej gospodarki socjalistycznej, cechującej zarówno ZSRR, jak i w mniejszym stopniu III Rzeszę. Oba te kraje, czekał więc, w dłuższej perspektywie czasowej, nieuchronny koniec. Ale właśnie na dłuższą metę i w dłuższej perspektywie. Na metę krótszą, taka polityka pragmatycznego zastraszania i wymuszania przyniosła nazistom oszałamiające pasmo sukcesów. Francja i Wlk. Brytania, trzymały się, jak już wspomniano, legalizmu, i były skłonne ustępować tam, gdzie uznawały naturalne prawa Niemiec, związane np. z zasadą suwerenności państwowej czy samostanowienia narodów. Zniesiono zatem wszystkie ograniczenia polityczne narzucone Niemcom przez traktat wersalski, przyłączono pokojowo, przy szalonej aprobacie tamtejszej ludności, Saarę, Austrię, Sudety i Kłajpedę. Gdyby w nowy rok 1939 Hitler zmarł na zawał, przeszedłby do historii, jako jeden z najwybitniejszych przywódców Niemiec, bo gospodarcze konsekwencje jego polityki obarczyłyby jego następców, a zjednoczone, powiększone i pozbawione narzuconych w Wersalu ograniczeń, Niemcy by zostały. Ale Hitler, na nieszczęście Niemiec i na szczęście ich przeciwników, nie umarł. Kolejnym adresatem niemieckich roszczeń stała się teraz Polska.

Inaczej niż Serbia w 1914, a tak samo jak Francja i Wlk Brytania, Polska trzymała się strategii legalistycznej, stojąc na gruncie utrzymania Wersalu. O ile jednak mocarstwa Zachodu używały „czystej” L, to Polska, będąc od III Rzeszy zdecydowanie słabsza i w wysokim stopniu zależna od niej gospodarczo, musiała się ograniczyć do LU. Przynajmniej początkowo. Kierujący polską polityką zagraniczną, Józef Beck, wiedząc, że Polska nie ma szans na stawienie oporu niemieckiej ekspansji samotnie, do czasu umiejętnie zwodził Hitlera, udając przyjaźń i zawierając nawet z Niemcami traktat w 1934 roku. Od wszelkich dalej idących deklaracji, nie mówiąc już o realnych działaniach na rzecz zawarcia ścisłego sojuszu, który w tamtejszych warunkach przypominałby do złudzenia nieco późniejszy „sojusz” polsko-radziecki, starannie się jednak Beck wykręcał. W międzyczasie Polska starała się, w miarę swoich sił, a wbrew werbalnym deklaracjom, zmniejszyć swoją ekonomiczną zależność od Niemiec, a wzmocnić za to więzi z Zachodem i skłonić go do zainteresowania się kwestiami Europy środkowej. Nieprzypadkowo w latach 1929-1938 udział Niemiec w polskim eksporcie spadł z 31,2% do 14,5%, a w imporcie z 27,3% do 14,5%. Proporcjonalnie wzrosła za to, choć, poprzez konieczność stosowania cen dumpingowych, było to dla Polski bardzo kosztowne, pozycja Wlk Brytanii, która stała się czołowym zagranicznym odbiorcą polskich towarów. Tak zachęcony ekonomicznie Albion, zaniepokojony został dodatkowo zajęciem przez Niemcy reszty Czech w marcu 1939 roku. Było to jawne złamanie, dopiero co podpisanych, układów w Monachium i stanowiło tym samym dla mocarstw wersalskich klęskę ich polityki legalistycznej. Brytyjscy i francuscy decydenci wreszcie odkryli, że Rzesza gra w zupełnie inną grę, z innymi strategiami, niż oni sami. Hitler nie stosował L, czy nawet PL, jak do tej pory sądzili. Hitler grał LP, czego, nielegalne, w myśl traktatów monachijskich, zajęcie Pragi, dało niepodważalny dowód. W rozpaczliwej próbie uniknięcia wojny Brytyjczycy, zatańczyli na melodię Hitlera i spróbowali zastraszyć Niemców pragmatycznie, tak jak Grzbiet Pragmatyzmu tego wymagał.

Wielka Brytania, z jednej strony, znów zaczęła się zbroić, choć wysiłek finansowy z tym związany, okazał się w końcu dla niej i jej oceanicznego imperium zabójczy, oraz udzieliła Polsce sławetnych gwarancji. Gwarancje te, w dzisiejszej publicystyce są bez litości wyszydzane, a nawet uważane za przyczynę klęski Polski w wojnie 1939 roku. Dzieje się tak, dlatego że, w przeciwieństwie do krajów anglosaskich, polska historiografia pozostaje domeną humanistów, wśród których jakiekolwiek liczby i wzory, także te związane z teorią gier, wywołują uczucie strachu i obrzydzenia. Na szczęście dla Polski, Beck jednak rozumował w sposób ścisły, a nie emocjonalny, sięgając kalkulacją dalej niż jego dzisiejsi domorośli krytycy. Wiedział, że Polska jest gospodarczo i demograficznie, a co za tym idzie, także militarnie, znacznie słabsza od Niemiec. Jednocześnie Polska miała z Niemcami na Pomorzu i Śląsku całkowicie sprzeczne i w zasadzie niemożliwe do pogodzenia interesy. Interes Polski wymagał dostępu do morza, a interes Niemiec – lądowej komunikacji z Prusami Wschodnimi. Przedzielony na pół granicą Śląsk zaś, nie mógł efektywnie funkcjonować, jako jeden okręg przemysłowy, zatem kwestią czasu i zdrowego rozsądku, było połączenie obu jego części w jednym państwie. Polskim, bądź niemieckim.

Konflikt ten, ze względu na różnice potencjału, musiałby zakończyć się, w ten czy inny sposób, sukcesem Niemiec. Jednak po tym, jak udało się w tą grę wciągnąć mocarstwa Zachodu, warunki zmieniły się zasadniczo. Był to gigantyczny triumf polityki Becka. Polska mogła z ulgą odrzucić krętacką i nieperspektywiczną strategię LU i przejść do czystego L. Wyrazem tej zmiany polityki, była słynna mowa Becka w sejmie, która, wbrew werbalnym, retorycznym, frazesom o honorze, była na wskroś legalistyczna.

Po przyjęciu brytyjskich gwarancji i odrzuceniu niemieckich pretensji i roszczeń, sytuacja wyglądała następująco. Niemcy nadal mogły rozpocząć wojnę z Polską i być może nawet Polskę zająć i podbić, niczym Austro-Węgry Serbię w 1915 roku. Ale wojna taka, inaczej niż przed 1939 rokiem, nie mogła już być zlokalizowana. Stawała się automatycznie wojną z Francją, Wlk. Brytanią i perspektywicznie również z USA. W latach 1917-1918, Niemcy zostały już raz przez tą koalicję powalone, zatem zważając również na fakt, ze Niemcy w 1939 były słabsze, a koalicja owa silniejsza, niż wtedy, można było oczekiwać, że historia się powtórzy. Dodatkowo dochodziła kwestia Stalina. Jeżeli polska obrona, rozumował Beck, wytrzyma niemiecki atak do czasu ofensywy alianckiej na Zachodzie, Stalin pozostanie neutralny. Jeżeli obrona ta się wcześniej załamie, jak to się w rzeczywistości stało, Stalin bez wątpienia zajmie wschodnie tereny Polski i wojska radzieckie staną oko w oko z hitlerowskimi. Nawet, jeżeli te potęgi nie rzucą się od razu na siebie, i zostanie zawarte pomiędzy nimi jakieś porozumienie, to zawsze będzie ono nieszczere i tymczasowe i sama groźba stalinowskiego ataku, będzie wiązać na wschodzie znaczące siły niemieckie. Z tego punktu widzenia widać, że znaczenie paktu Ribbentropp – Mołotow jest stanowczo przeceniane. Działania Stalina byłyby mniej więcej takie same, niezależnie od podpisania jakichkolwiek porozumień z Niemcami, gdyby tylko Niemcy na Polskę napadły. Jak się jeszcze przekonany, nawet bez podobnej zachęty ze strony Stalina, Hitler by się pewnie w końcu na atak na Polskę zdecydował.

Nawet po rozbiciu polskich wojsk i okupacji polskiego terytorium, Niemcy, wojny toczonej równocześnie z Francją i Wlk Brytanią, a potem także z USA i ZSRR, wygrać nie mogą. Prawdopodobieństwo niemieckiego zwycięstwa w takiej wojnie, nie jest większe, niż, powiedzmy, 5%

Niemcy mają do wyboru dwie strategie. Albo zaatakować Polskę (strategia A) i wywołać tym samym wojnę światową i ją przegrać z prawdopodobieństwem 95%, albo wycofać swe roszczenia wobec Polski (strategia U) i doświadczyć potężnego kryzysu ekonomicznego wywołanego przez dotychczasowe koszty zbrojeń i inne socjalistyczne ekstrawagancje nazistowskich rządów.

Jeżeli zaś Polska ugnie się przed Niemcami (strategia U), to po oddaniu najbardziej rozwiniętych gospodarczo swoich terenów na Śląsku i Pomorzu, oraz utracie dostępu do morza, stanie się niemieckim wasalem. Ponieważ jednak Niemcy, po zwasalizowaniu Polski, mając gospodarkę i tak już zdeformowaną i wykoślawioną, nadal będą kontynuować agresywną politykę ekspansji, to do tej wojny światowej i tak dojdzie, Niemcy wciągną w nią Polskę, wojnę tę przegrają, a Polska przegra ją wraz z nimi i zostanie małym kraikiem wielkości nieco powiększonego Księstwa Warszawskiego, który będzie miał szczęście, jeżeli nie zostanie włączony bezpośrednio do ZSRR.

A co będzie, jeżeli Polska przyjmie strategię A? Przed brytyjskimi gwarancjami zostałaby bez wątpienia najechana, podbita i podzielona pomiędzy III Hitlera i Stalina, a po przegranej przez Niemcy wojnie światowej, zapewne w całości wcielona do ZSRR. Ale prowokując i przyjmując brytyjskie gwarancję, Polska zmieniła macierz gry.

Aby w pełni to docenić, przypiszmy teraz poszczególnym wypłatom konkretne wartości liczbowe. Najpierw Niemcy. Dla ich zwycięstwa w II wojnie światowej przyjmijmy +100 jednostek (z prawdopodobieństwem 5%), dla klęski z prawdopodobieństwem 95% -100. W wypadku, gdyby Polska przyjęła niemieckie żądania, Niemcy zaś osiągają korzyść +10. Gdyby Niemcy ustąpiły, to doświadczyłyby kryzysu o wartości -10, ale zachowałyby większość dotychczasowych hitlerowskich rewindykacji, być może poza Protektoratem Czech i Moraw. Gdyby zaś ustąpiła wtedy także Polska, godząc się na jakieś wzajemne ustępstwa (np. ułatwienia w tranzycie przez Pomorze, czy plebiscyt w Gdańsku), Niemcy dodatkowo zyskują +5:

Polska Polska
Jastrząb A Gołąb U
Niemcy A 5%*100-95%*100 = -90 +10
Niemcy U -10 -10+5 = -5

Polska zaś, jeżeli stawi opór Niemcom, to, w przypadku wojny, przynajmniej broni swoją pozycję, tracąc na wschodzie na rzecz Stalina, a zyskując na zachodzie kosztem Niemiec, czyli, z uwzględnieniem strat wojennych, otrzymuje -5. Oczywiście, zawsze jest ryzyko, że Niemcy wojnę wygrają i wtedy Polski nie będzie już w ogóle (-100). Jeżeli zaś Niemcy nie zaatakują, i doznają kryzysu, Polska nie tylko bezpiecznie może przyłączyć Gdańsk, ale i wyrasta na głównego gracza w Europie środkowej otrzymując korzyść +10. Natomiast ustępstwa prowadzą, albo do przegrania wojny u boku Niemiec (-50), lub, w mało prawdopodobnym przypadku ich zwycięstwa, pozostanie niewiele znaczącym składnikiem nazistowskiej Mitteleuropy (-10). W żadne większe polskie nabytki kosztem ZSRR w wypadku niemieckiego sukcesu, Beck, mając w pamięci analogiczną politykę Niemiec na Wschodzie w czasie I wojny, słusznie nie wierzył. W sytuacji wzajemnych ustępstw, Polska zaś wychodzi na zero:

Niemcy Niemcy
Jastrząb A Gołąb U
Polska A = -5*95%-100*5% = -9,75 +10
Polska U -10*5%-50*95% = -48 0

Jak widać z powyższych tabel, Niemcom opłaca się strategia agresywna, tylko w tym przypadku, kiedy będą pewni, że Polska ustąpi. Czyli, po brytyjskiej interwencji, jedyną opcją dla Niemiec, pozostał chojrak AU. Gdyby Polska się niemieckiego chojractwa jednak nie zlękła, to Niemcy powinni ustąpić i wybrać kryzys. Polska zaś, niezależnie od stanowiska Niemiec, powinna być agresywna, nieustępliwie broniąc swoich słusznych legalnych praw w strategii L. Wciągając Wlk Brytanię w sprawy Europy środkowej, Polska zdeterminowała zatem tę grę. Ponieważ wiadomo było, że Polska zawsze przyjmie strategię A, Rzesza, nie mając innego racjonalnego wyboru, powinna w końcu przestać chojrakować i przyjąć U. Tym samym gra została, jak to się określa, zdominowana przez jedną strategię (Polska A, Niemcy U). Jedynym zmartwieniem polskiego rządu, było nie danie chojrakującym Niemcom najmniejszych nadziei, że Polska może jednak ustąpić. Stąd twarda mowa Becka o honorze, stąd, z dzisiejszego punktu widzenia, histeryczne i tromtadrackie tony ówczesnej propagandy „Nie oddamy nawet guzika”, etc.. Jednocześnie Polska, nadymając się, jeżąc, strasząc i robiąc groźne miny, nie zwiększała wcale swojego tempa zbrojeń i jej wydatki militarne pozostawały na skromnym, w porównaniu z niemieckim, czy radzieckim, poziomie 5% PKB, najwyższym możliwym, nie wywołującym jeszcze negatywnych perturbacji w gospodarce. Dla polskiego rządu, jasne bowiem było, że nawet zazbrojenie, znacznie biedniejszego od Niemiec kraju, na śmierć, nie pozwoli wygrać z nimi wojny jeden na jednego, natomiast, skoro zrujnowane przez koszty zbrojeń Niemcy powinny, tak czy owak, ustąpić, to absolutnie nie należało przy tej okazji rujnować również polskiej gospodarki. Cała polska przedwrześniowa polityka była zatem spójna, logiczna, na zimno skalkulowana, ze stalową konsekwencją wdrażana i na wskroś racjonalna. Tak bardzo, że przypuszczenia, że musieli ówcześni Polacy dokładnie przekalkulować sobie, to wszystko, co do tej pory napisaliśmy, narzuca się naprawdę z wielką mocą. Oficjalnie ten dział teorii gier powstał w drugiej połowie XX wieku, ale czy nie jest wykluczone, że naprawdę ktoś go stworzył, rozwiązał i doszedł do identycznych wniosków już wcześniej, tyle, że, ze względu na implikacje polityczne, zostało to utajnione? W pewnym kraju w środkowej Europie słynącym wtedy z geniuszu swoich matematyków? Kolejną przesłanką pozwalającą tak sądzić, jest fakt, że przed wojną Polska wydawała na armię, w liczbach bezwzględnych, piętnaście razy mniej pieniędzy niż III Rzesza. Ostatecznie jednak Wehrmacht okazał się w 1939 od Wojska Polskiego silniejszy ledwo trzykrotnie. Wydatki zbrojeniowe Polski były zatem, kilkukrotnie bardziej efektywne niż niemieckie. Polska organizacja, porządek i matematyczna precyzja, kontra niemiecka niechlujność, złodziejstwo i bałagan.

Żarty żartami, ale lata 1933-1939, to chyba jedyny okres w naszych wzajemnych stosunkach, w którym państwo polskie było lepiej (zdecydowanie lepiej) zorganizowane i rządzone niż państwo niemieckie. Dotyczy to też kwestii militarnych. Ilość, czasami wręcz monstrualnych, błędów, jakie nazistowscy generałowie popełnili w kampanii 1939 roku, jest tak gigantyczna, że tylko trzykrotnej przewadze liczebnej i pomocy Stalina, zawdzięcza Rzesza, że wojny nie przegrała już wtedy.

Jak wiadomo bowiem z historii, Rzesza, chociaż racjonalnie powinna skapitulować, dokonała jednak w końcu wyboru nieracjonalnego. Dlaczego? Inaczej, niż to było w roku 1914, nie można tym razem odwołać się do niepełnej informacji o parametrach gry. Niemieccy decydenci puszczający w ruch armie, tym razem doskonale zdawali sobie sprawę ze swojej słabości. Ułomnościami strategii pragmatycznych, można owszem, wyjaśnić I wojnę, ale metoda ta zawodzi w przypadku wojny nr II. Tutaj musimy wprowadzić dodatkowy element.

Beck bowiem, czy też ci, którzy mu w tej kwestii merytorycznie doradzali, popełnili jednak błąd, a nawet dwa błędy. Pierwszym z nich, było, oczywiste dla nas dzisiaj, niedoszacowanie strat wojennych Polski. Niemiecką okupację Polski wyobrażano sobie bowiem wtedy, jako swoiste powtórzenie tejże okupacji z I wojny światowej. Jako rzecz może i uciążliwą i kosztowną, naznaczoną rabunkami i rekwizycjami, ale do zniesienia. Dosłowne zrównanie kraju z ziemią i wymordowanie kilkunastu procent jego mieszkańców, przechodziło pojęcie ówczesnych rządzących. Na ich usprawiedliwienie można jednak zauważyć, że ogromu przyszłych niemieckich zbrodni, nie przewidywali wtedy nie tylko oni, ale i sami naziści. Jednak nawet powiększenie strat Polski z -5 do poziomu -15, nie zmienia w niczym przebiegu gry.

Istotny był drugi błąd Becka. Przyjmując strategię legalisty, założył, że skoro on sam, Józef Beck, reprezentuje Polskę, to symetrycznie Hitler reprezentuje Niemcy. Tak jednak nie było.

W przypadku gry indywidualnej, decyzję o przyjęciu odpowiedniej strategii podejmuje ten sam osobnik, który ją później realizuje, i ponosi jej wszelkie konsekwencje, inkasując zyski i doznając strat. Kiedy jednak mamy do czynienia z koalicją osobników, niezależnie od jej rangi, dochodzi dodatkowy stopień swobody. Przywództwo, czyli w przypadku państw – rządy. A rząd ma swoje własne interesy, które niekończenie muszą być do końca zbieżne z interesem rządzonej społeczności. Dopóki rząd jest prawowity, legalny, a takie były wszystkie rządy krajów rozpoczynających I wojnę światową, dopóty to rozróżnienie jest właściwie akademickie. Nie było jednak tak w przypadku II wojny światowej. Tę wojnę wywołały dwa reżimy Grzbietu Pragmatyzmu, których nikt prawowitymi rządami by nazwać nie mógł. Władza nielegalna zaś, główny swój wysiłek kieruje, nie w stronę zapewnienia realizacji interesów rządzonego przez siebie kraju i narodu, tylko uniknięcia odpowiedzialności za łamanie prawa. Dlatego też wszelkiego typu dyktatury, przynajmniej od końca ery maltuzjańskiej, mniej, lub bardziej, ale dławią rozwój rządzonych przez siebie krajów. Interes dyktatury jest, inaczej niż to jest z rządem legalnym, zasadniczo sprzeczny z interesem społeczeństwa, nad którym dyktatura panuje. Jest to zjawisko nieuchronne i zupełnie niezależne od woli samej dyktatury, która może mieć początkowo nawet jak najlepsze intencje, ale kończy zawsze w ten sam sposób. Jedynym mechanizmem, który przed tym w pewnej mierze zabezpiecza, jest jakiegoś rodzaju zalegalizowanie władzy, która stała się nią, w wyniku przewrotu, czy zamachu. Taką procedurę przeszła w dużym stopniu polska przedwrześniowa sanacja, a także tacy dyktatorzy, jak Pinochet w Chile i Franco w Hiszpanii i dlatego efekty tych rządów, nie były dla ich krajów negatywne. Inaczej jednak było z reżimami, które w 1939 roku rządziły Rosją i Niemcami.

W przeciwieństwie do rosyjskich bolszewików, którzy już z góry zakładali, że dobro narodu nie jest ich celem, doszli do władzy drogą przemocy i konsekwentnie nią podążali, niemieccy naziści faktycznie byli przekonani, że są czymś najlepszym, co się mogło Niemcom przytrafić, a ich delegalizacja następowała stopniowo, w miarę łamania kolejnych praw swojego kraju. Ostateczny rezultat władzy nazistów dla Niemiec, był zatem praktycznie taki sam, jak władzy bolszewików dla Rosji. Nie był to przypadek, tylko nieuchronny rezultat.

Ten zasadniczy konflikt interesów pomiędzy narodem, a jego bezprawną władzą, dotyczy też oczywiście kwestii wojny. Wojna była sprzeczna z interesem narodowym Rosji, czy Niemiec, ale była zgodna z interesem rządzących tymi krajami reżimów i dlatego właśnie ją one wywołały.

Sanacja doszła w Polsce do władzy drogą zamachu stanu, to jednak później swoje rządy, jako tako, poprzez zmanipulowane, ale jednak nie sfałszowane, wybory, zalegalizowała. Naziści zaś na odwrót. Władzę zdobyli legalnie, a dyktaturą stali się później. I jak zwykle w takich sytuacjach, główną, choć być może jeszcze w pełni nie uświadomioną, troską nazistów, stało się nie dobro kraju, ale utrzymanie się przy władzy. Jasne było, że jeżeli Rzesza ustąpi, do wojny, ku powszechnej uldze, także w Niemczech, nie dojdzie, ale zrujnowana zbrojeniami i przeróżnymi socjalistycznymi projektami gospodarka, już zapewne w przyszłym, 1940 roku, się zawali. Rządy Hitlera zostaną obalone, a on sam i jego kameraden pociągnięci do odpowiedzialności karnej. Wznowione zostanie dochodzenie w sprawie podpalenia Reichstagu, zbadana przez niezależnych medyków przyczyna śmierci prezydenta Hindenburga, przed niezawisłym sądem staną sprawcy nocy długich noży.

Grę toczył zatem Beck w imieniu Polski, ale nie z Niemcami, tylko z Hitlerem. A interesy Niemiec i Hitlera były w tym przypadku rozbieżne. W przypadku przyjęcia strategii ustępującej, Niemcy traciły, jak już wspomniano, w wyniku kryzysu, -10, ale Hitler tracił znacznie więcej, całe swoje życie i dotychczasową karierę, oraz to, na czym mu najbardziej zależało, czyli miejsce w niemieckiej historii. Miejsce największego w niej bohatera. Heroicznego, a jeżeli się nie da, to przynajmniej tragicznego. Dla Hitlera macierz gry wyglądała zatem tak:

Polska Polska
Jastrząb A Gołąb U
Hitler A 5%*100-95%*100 = -90 +10
Hitler U -100 -100+5 = -95

Inaczej niż same Niemcy, które w grze powinny ustąpić, Hitler w żadnym wypadku ustępować nie powinien. Z jego strony gra również była zdominowana, ale przez strategię (Hitler A, Polska A) W interesie Hitlera było jak najbrutalniej naciskać na Polskę, licząc na to, że Polska jednak ustąpi. A jeżeli nie ustąpi, wywołać wojnę, którą prawie na pewno nie można wygrać (5%), żeby uniknąć pokoju, którego wygrać nie można na pewno (0%). Warto w tym miejscu zauważyć, że powyższa macierz wyglądałaby nieco inaczej, gdyby Hitler był człowiekiem normalnej orientacji, miał rodzinę, dzieci i wnuki. Wówczas klęska i katastrofa Niemiec, wraz ze skazaniem swojego potomstwa na życie w pozostałych po klęsce ruinach, byłyby dla niego bardziej dotkliwe niż klęska i katastrofa osobista. I do wojny zapewne by w końcu nie doszło.

Trzeba w tym miejscu przypomnieć, że przed przyjęciem brytyjskich gwarancji Hitler mógł liczyć na sukces, bo wtedy gra była zdominowana przez strategię (Niemcy/Hitler A, Polska U), ale, po tych gwarancjach, interesy Niemiec i Hitlera drastycznie się rozjechały. Trudno mieć jednak pretensje do Becka, że sobie tego nie uświadomił, skoro nikt inny, w tym zapewne i najbardziej zainteresowany Hitler, nie uświadomił sobie tego również, chociaż wnosząc ze zmiany tonu jego polityki wobec Polski, z protekcjonalno – życzliwego przed kwietniem 1939, na histeryczny i brutalny po nim, coś musiał jednak przeczuwać.

Modne jest dzisiaj jojczenie, jak to II wojna światowa straszliwie obeszła się z naszym krajem, jak to wielką klęskę Polska w niej poniosła i tym podobne biadolenia. Głosy te dochodzą ze środowisk, które chciałyby, z mocą wsteczną, odrzucić brytyjskie gwarancje, a przyjąć propozycje Hitlera. To, że gdyby ich postulaty były spełnione, dzisiejsza Polska byłaby mniej więcej o połowę mniejsza, jej znaczenie byłoby porównywalne ze znaczeniem Węgier, od zachodu sąsiadowałaby ze znacznie większymi Niemcami, a obwód kaliningradzki zaczynałby się już za Mławą, wcale im nie przeszkadza. Straszliwie ograniczone i ciasne horyzonty czasoprzestrzenne, nie pozwalają im też na dostrzeżenie, że sytuacji Polski nie można rozpatrywać wyłącznie w kontekście II wojny światowej, ale trzeba spojrzeć na cały Grzbiet Pragmatyzmu, lata 1914-1945, a nawet 1914-1989. W 1914 Polski nie było wcale. Jeżeli to pojęcie się w ogóle w polityce pojawiało, to tylko, jako wewnętrzna sprawa Rosji. Po 1989 roku Polska zaś jest stabilnym krajem zakotwiczonym w zachodnich strukturach gospodarczych i wojskowych. Nigdy by do tego nie doszło, gdyby nie Wojna Asurów i przebycie cywilizacji przez Grzbiet Pragmatyzmu. Polska jest chyba największym beneficjentem tego fazowego przejścia.