Zapiski epidemiczne cz III

Dzisiaj zaprezentujemy krzywą zakażeń dla Hiszpanii:

 

Hiszpania 18 maja

 

Odpowiednie współczynniki modelu SIR:

a = 0,18

b=0,08

I specjalnie dla usera „kmat” Wlk Brytania:

UK 18 maja

Z parametrami:

a = 0,16

b = 0,08

 

Jak widać dla wszystkich omawianych krajów są te parametry bardzo zbliżone

Zapiski epidemiczne cz II

Tym razem dopasował autor niniejszego bloga krzywe dla dwóch krajów, które obecnie mają najwiecej zachorowań:

USA:

USA maj 08

Parametry modelu wynoszą tutaj:

a = 0,18

b = 0,09

 

I Rosja:

Rosja maj 08

a = 0,18

b= 0,08

Jak widać różnice w parametrach w porównaniu z przedstawionymi w poprzednim wpisie krajami europejskimi są minimalne. Niemniej Rosja ma szczyt zachorowań jeszcze przed sobą i ciekawe, jak tamtejszy reżim to wytrzyma…

Zapiski epidemiczne cz I

Niżej podpisany od początku obecnej epidemii grypy z Wuhan został zmuszony do pracy zdalnej na tzw. Home Office. Ponieważ wydajność takiej pracy nie jest wyższa niż 20-30% wydajności pracy zwykłej w biurze, na jakąkolwiek inną działalność, czasu pilastrowi nie zostało praktycznie wcale. Stąd brak wpisów i brak innej aktywności pilastra na forach. Niemniej śledzi on przebieg epidemii i dopasowuje dostępne dane do modelu SIR, który opisał już w „Matematyce czasów zarazy„, do którego lektury gorąco pilaster obecnie zachęca.

Ten wpis, z opisanych wyżej powodów ma charakter brudnopisu, czy bazgrołu i powstał tylko w celu zaprezentowania aktualnego przebiegu epidemii grypy z Wuhan w różnych krajach.  Na wykresach przedstawiono dzienny przyrost chorych, czyli wartość a*I*S z modelu SIR, bo ta wielkość jest najłatwiej dostępna

We Włoszech:

Włochy maj 06

najlepiej dopasowane współczynniki modelu SIR (zmiana dzienna)

a= 0,18

b= 0,08

w Szwecji:

Szwecja maj 06

a = 0,17

b=0,09

No i oczywiście w Polsce:

Polska maj 06

a = 0,18

b = 0,09

Warto zwrócić uwagę na dwa fakty. Po pierwsze oszacowana w ten sposób wielkość parametrów a i b jest prawie taka sama w tych trzech krajach i nie zależy od ostrości wprowadzonych przez ich rządy kwarantanny. Po drugie, grypa z Wuhan jest w sumie …mało zaraźliwa. Aby się nią zarazić trzeba przebywać w towarzystwie chorego prawie …tydzień. Średni czas zarażenia, czyli wielkość 1/a to ponad 5 dni. Nic dziwnego, że zarażają się albo współdomownicy chorych, albo współpracownicy na open spacach. Wyniki badań w pewnym call center w Seulu mówią same za siebie.

Nawet ci, którzy siedzieli na tym samym piętrze, ale po drugiej stronie trzonu wieżowca, już się nie zarazili.

Ryzyko zarażenia się zaś od osoby chorej przypadkowo spodkanej na ulicy, czy nawet w sklepie jest znikome.

Średni czas trwania choroby, wielkość 1/b to zaś 11-12 dni.

Na razie tyle, może się uda publikować coś w miarę regularnie. 😦

Jakby byli, to by byli. A skoro ich nie ma, to ich nie ma.

Niniejszy wpis jest polemiką z artykułem „Galaktyczny archipelag” zamieszczonym w 342 numerze „Świata Nauki”. Opiera się na wątkach opisywanych już we wpisach „Milczenie Wszechświata„, „Wiekuista cisza nieskończonych przestrzeni„, oraz „Dzieci gwiazd„.

Problem istnienia, a właściwie nieistnienia pozaziemskich cywilizacji naukowo – technicznych najbardziej popularny był w trzeciej ćwierci XX wieku, kiedy rozwój radioastronomii pozwalał na przekonanie, że odkrycie takich cywilizacji, a nawet nawiązanie z nimi dwustronnej łączności, jest kwestią bardzo niedługiego czasu. Ta fala entuzjazmu opadła jednak już dawno, publikacje na ten temat, nie tylko stały się rzadkie, ale w dodatku utraciły w znacznej mierze walor naukowy, stając się filozoficzno-humanistycznymi, jałowymi poznawczo, rozważaniami, których jedynym celem było danie wyrazu uprzedzeniom i fobiom ideologicznym swoich autorów. Paradoks Fermiego, czyli właśnie drastyczna rozbieżność pomiędzy oszacowaniami rozprzestrzenienia cywilizacji naukowo – technicznych w Galaktyce, a obserwowaną faktyczną, po odjęciu naszej, zerową, ich liczebnością, stało się dla autorów tylko pretekstem do głoszenia wyznawanych przez nich poglądów politycznych i społecznych, często zresztą zupełnie absurdalnych. Ta poznawcza pustynia jest tym bardziej przykra, że mamy przecież do czynienia z jednym z najważniejszych zagadnień w całej historii nauki i cywilizacji.

Z tym większym uznaniem należy zatem przyjąć publikację, która się z tego fatalnego schematu wyłamuje, która znów, jak kiedyś, odwołuje się do modeli ilościowych i która traktuje temat nie filozoficznie, a naukowo. Ma w tym miejscu na myśli niżej podpisany oczywiście artykuł „Galaktyczny archipelag” opublikowany w 342 numerze „Świata nauki” z lutego 2020 roku.

Niestety, oprócz swoich niewątpliwych, wspomnianych wyżej, zalet, ma artykuł także wady. Przede wszystkim analogia którą się w nim posłużono, analogia pomiędzy Wszechświatem, czy też skromniej, Galaktyką, z jej gwiazdami i planetami, a ziemskim oceanem z jego wyspami i archipelagami, jest całkowicie nieadekwatna. Przede wszystkim zupełnie inna jest skala wielkości. Najbardziej od wszystkich innych oddalonym, a zarazem zamieszkanym, terenem na Ziemi jest polinezyjska Wyspa Wielkanocna, zwana też Rapa Nui, mająca ok 15 km średnicy i położona 2,5 tys. km od najbliższego innego lądu. Stosunek tych dwóch wielkości, odległości do średnicy, wynosi zatem w jej przypadku ok 170. Tymczasem średnica planet podobnych do Ziemi i nadających się do zamieszkania, wynosi w zaokrągleniu 10 000 km. Średnia zaś odległość pomiędzy nimi jest i to w bardzo optymistycznej wersji, z grubsza równa średniej odległości pomiędzy gwiazdami w Galaktyce i sięga ok 5 lat świetlnych. Stosunek tych dwóch wielkości to jakieś 4,5 miliarda, czyli 30 milionów razy więcej niż w przypadku wysp na Pacyfiku.

Również skala zaawansowania cywilizacji, którą dany ląd, czy to oceaniczny, czy kosmiczny, może utrzymać, jest bardzo różna. Stopień komplikacji społeczeństwa, z którego poziom rozwoju cywilizacyjnego wprost wynika, jest bowiem proporcjonalny do jego liczebności. Zakładając, że twórcy takiej cywilizacji są z grubsza, co do rzędu wielkości, podobnych rozmiarów, co ludzie, to na Wyspie Wielkanocnej może ich stabilnie bytować nie więcej niż kilka tysięcy osobników. Dlatego też wyspa taka nigdy samoistnie bardziej złożonego społeczeństwa nie jest w stanie utrzymać, czego dzieje mieszkańców Rapa Nui, na której cywilizacja w dramatyczny sposób uległa swoistej redukcji i uproszczeniu, czy jeszcze mniejszej od niej wyspy Pitcairn gdzie zanikła całkowicie, są doskonałym przykładem. Populacja planetarna zaś bez trudu może iść w miliardy osobników a tym samym być domem zaawansowanej cywilizacji naukowo – technicznej.

Trzecią istotną różnicą jest to, że ocean ziemski jest …zakrzywiony. Z jednej konkretnej wyspy widać tylko te położone naprawdę blisko. Tych oddalonych bardziej niż o kilkadziesiąt kilometrów – nie widać nigdy. Tymczasem ocean kosmiczny jest płaski. Wzrok obserwatora bez trudu sięga na odległości nawet nie kosmiczne, ale wręcz kosmologiczne. Również przejrzystość ośrodka kosmicznego jest nieporównywalnie większa niż przejrzystość przykrywającej ocean, planetarnej atmosfery.

Wszystko to razem sprawia, że posługiwanie się modelem kolonizacji wysp na oceanie w celu opisu kolonizacji planet we Wszechświecie, jest bardzo zwodnicze i w konsekwencji prowadzi na manowce.

Autorzy artykułu tłumaczą bowiem brak, jakichkolwiek innych, niż nasza, cywilizacji w Galaktyce, tym, że Ziemia chwilowo znalazła się na uboczu galaktycznych „fal ekspansji”, jakie, zgodnie z ich modelem, naszą Galaktykę co jakiś czas przemierzają. Żyjąc w takiej „osadniczej pustce”, nie powinniśmy się, według autorów, dziwić, że żadne międzygwiezdne kosmoloty do nas obecnie, w historycznej skali czasu, nie docierają. Niestety, nie sposób, wiedząc już o błędach przyjętej przez nich analogii, się z tym argumentem zgodzić.

Po pierwsze, nawet jeżeli opisywane przez autorów „Galaktyczne archipelagi” znajdują się dziś dość daleko, tysiące lat świetlnych, od nas, to nadal, wskutek płaskości i przejrzystości Wszechświata, powinniśmy je doskonale widzieć, zarówno w zakresie fal radiowych, jak i w podczerwieni. Tymczasem wszystkie dotychczasowe próby wykrycia takich emisji, prowadzone, np. w ramach programu SETI, już od prawie siedemdziesięciu lat, zakończyły się całkowitym fiaskiem. Często dokonywane przy takich okazjach dodatkowe założenie, że rozwinięta cywilizacja międzygwiezdna w pewnym momencie po prostu porzuca technologię radiową, nie może jednak być traktowane poważnie, skoro, niezależnie od stopnia rozwoju technologicznego, radio pozostanie zawsze najtańszym środkiem łączności, wymagającym najmniej energii na przesłanie bita informacji. Dodatkowo, skoro nawet my, Ziemianie, na długo przed zbudowaniem naszej własnej międzygwiezdnej „wyspy osadniczej”, wysyłamy już od czasu do czasu celowe sygnały świadczące o naszym istnieniu (tzw. METI), to tym bardziej będą to robić istoty dużo bardziej od nas cywilizacyjnie zaawansowane.

Drugi argument podważający wnioski autorów wynika wprost z opisanej wyżej skali wielkości. Każda cywilizacja, po dłuższym, czy krótszym okresie istnienia i galaktycznej ekspansji, w końcu upada. Gdyby bowiem tego ograniczenia w modelu nie wprowadzać, nieuchronnym rezultatem okaże się bowiem współczesna Galaktyka skolonizowana w całości, aż do najbardziej zapadłych swoich zakątków włącznie, co w oczywisty sposób nie ma miejsca. Cywilizacje zatem w ten czy inny sposób, muszą mieć skończony czas istnienia.

Koniec końcowi jednak nierówny. Autorzy zakładają bowiem, że kiedy dana cywilizacja znika i upada, upada w całości, wraz z całą zasiedloną przez siebie gwiezdną ekumeną. Tymczasem, odległości międzygwiezdne sprawiają, że samo banalne przesłanie informacji z jednego krańca „wyspy osadniczej” na drugi może trwać życie kilku ludzkich pokoleń. W XVI, XVII i XVIII wieku, europejskie potęgi kolonialne dawały radę zarządzać swoimi imperiami w zbliżonych niejako warunkach, ale opóźnienia w łączności wynosiły tutaj, co najwyżej miesiące, a nie dekady, a poza tym odbywało się to kosztem utrzymania kolonii w stanie stałego niedorozwoju względem metropolii. Jak tylko koloniści osiągali zbliżony do metropolitalnego poziom rozwoju ekonomicznego, natychmiast starali się zależność od macierzystego kraju zerwać, czego najbardziej znanym, aczkolwiek nie jedynym, przykładem, są amerykańskie kolonie Wlk. Brytanii w XVIII wieku.

Gwiezdne imperia, wskutek swojej, niemożliwej ogarnięcia i kontrolowania z jednego miejsca, rozciągłości, nieuchronnie więc będą się rozpadać na praktycznie niezależne od siebie systemy gwiezdne. Ich mieszkańcy stopniowo utracą jedność nie tylko polityczną, ale i kulturową, ekonomiczną, a nawet biologiczną. Zresztą ten sam proces, chociaż mniej zaawansowany, zaszedł także w diasporze polinezyjskiej na wyspach Pacyfiku. Taki archipelag gwiezdnych wysp, których już nic, poza wspólnym pochodzeniem, nie łączy, nie może jednak upaść jako całość. Upadek czy zniszczenie jednej, czy dwóch takich odseparowanych od siebie placówek, w żaden bowiem sposób nie wpłynie na pozostałe, które nadal będą się rozwijać, wysyłać kolejne wyprawy kolonizacyjne, także rekolonizować utracone uprzednio systemy gwiezdne. Jeżeli średni czas potrzebny na skolonizowanie kolejnego układu gwiezdnego, jest chociaż minimalnie krótszy niż średni czas istnienia takiej subcywilizacji, to ekspansja cywilizacji w Galaktyce, chociaż odbywająca się, inaczej, niż w opisanym w artykule modelu, w sposób chaotyczny i nieskoordynowany, raz rozpoczęta, nie zatrzyma się nigdy, aż do skolonizowania wszystkich układów z naszym własnym, Słonecznym włącznie.

Wreszcie trzeci, unieważniający wnioski artykułu, argument. Ziemia może faktycznie, zgodnie z opisanymi obliczeniami, znajdować się na uboczu galaktycznych fal ekspansji, ale przecież nie jest to stan stabilny. Może on trwać, jak sami autorzy podają, kilka milionów lat, tymczasem wiek Galaktyki jest o, co najmniej trzy rzędy wielkości, dłuższy. W odleglejszej, geologicznej przeszłości, Ziemia powinna być celem wielu takich fal osadniczych i przez znaczące okresy czasu, być siedzibą rozwiniętych cywilizacji międzygwiezdnych. Nie istnieją jednak żadne ślady takich przeszłych fenomenów. Owszem, jak wspomniano w artykule, trudno oczekiwać, że materialne ślady cywilizacji, ruiny budynków, wraki maszyn, czy urządzeń, przetrwają na Ziemi z jej silnymi procesami erozyjnymi, wiatrami, deszczami, zlodowaceniami, wulkanizmem i tektoniką płyt, dłużej niż kilkaset tysięcy lat. Dotyczy to jednak Ziemi. Ślady cywilizacji międzygwiezdnej znajdowałyby się jednak przecież nie tylko na naszej planecie, ale w całym Układzie Słonecznym, gdzie, np. na Księżycu mogłyby przetrwać bez problemu nawet miliardy lat.

No i zostają jeszcze ślady niematerialne. Jeżeli kiedyś Ziemia stała się obiektem osadnictwa istot pochodzących z innego układu gwiezdnego, to musiałyby one dokonać, pewnych, choćby nawet bardzo prostych zabiegów „terraformujących”, np. sprowadzić ze sobą jakichś przedstawicieli macierzystego ekosystemu, odpowiedniki tamtejszej flory i fauny. Potomkowie tych dodatkowych, „stowarzyszonych” kolonistów, przynajmniej w niektórych przypadkach, mogły przetrwać na Ziemi wystarczająco długo, żeby jakoś zaznaczyć się w zapisie geologicznym, a właściwie mogłyby żyć między nami i do dzisiaj, gdzie przez swoją ewidentną obcość i niekompatybilność z rodzimymi ziemskimi gatunkami, powinny być doskonale dla biologów, czy paleontologów widoczne.

Reasumując. Milczenie Wszechświata w zakresie radiowym i podczerwonym, połączone z brakiem jakichkolwiek śladów, nawet bardzo odległej w czasie, obecności pozaziemskich cywilizacji na Ziemi i w jej bezpośrednim planetarnym otoczeniu, wskazuje na fakt, że ziemska cywilizacja jest osamotniona znacznie bardziej, niż to z artykułu wynika. Że faktycznie jesteśmy jedyną, pierwszą i najstarszą cywilizacją we Wszechświecie, a przynajmniej w Galaktyce.

Wniosek to zarazem pesymistyczny, jak i optymistyczny, ale stanowiący jedyne sensowne i zgodne ze wszystkimi danymi obserwacyjnymi, rozwiązanie Paradoksu Fermiego. Żadnych inteligentnych cywilizowanych pozaziemskich Obcych nie ma. I nigdy nie było.

Klimatystyczne imperium kontratakuje

Polemiki z różnymi przejawami pseudonauki uprawia pilaster już od wielu lat. Kiedyś, w zamierzchłej przeszłości, koncentrowała się ona głównie na kreacjonistach, bardzo wyraźnie wtedy obecnych w przestrzeni medialnej. Czasy się jednak zmieniają. Kreacjonizm już dawno został spłukany przez nurt historii, a na jego miejsce weszła pseudonauka znacznie bardziej przebiegła, a tym samym znacznie groźniejsza Pseudonauka klimatyzmu. Do obnażenia nędzy intelektualnej kreacjonizmu, wystarczyła wiedza z zakresu szkoły podstawowej. Na klimatystów trzeba już poziomu licealnego. Kompleksową krytykę tej ideologii a zwłaszcza jej pseudonaukowych uroszczeń, zawarł niżej podpisany w książce „Mity globalnego ocieplenia” (MGO). Jak należało się spodziewać, w odpowiedzi na tę publikację, ze strony klimatystów zapadło długie, wielomiesięczne milczenie, choć z reguły reagują oni znacznie szybciej i to na publikacje znacznie bardziej błahe. Wreszcie jednak się przełamali i polemikę podjęli. Z wielu poruszonych w książce zagadnień odnieśli się tylko do jednego, omawianego też wcześniej w artykule „Czerń niedoskonała”, no, ale lepszy rydz niż nic.

Polemika ta, zatytułowana „Efekt cieplarniany na Wenus, Ziemi i Marsie”, podpisana pseudonimem „Doskonale Szare” i zamieszczona na portalu “Nauka o klimacie”, nie jest jednak, niestety rzetelna. Kryjący się za tym pseudonimem autor, zamiast odnosić się do tego, co w książce faktycznie zostało zamieszczone, wolał postawić sobie tzw. chochoły, czyli sformułować tezy, których w MGO w ogóle nie ma i zająć się ich obalaniem, co oczywiście jest zadaniem znacznie łatwiejszym, niż próba merytorycznego odniesienia się do tego, co rzeczywiście w książce napisano. W całym omawianym artykule, wbrew gromkim deklaracjom, zamieszczony jest właściwie tylko jeden merytoryczny zarzut, który faktycznie dotyczy tego, co w książce się znajduje, ale nawet ten jeden zarzut jest, jak się zaraz przekonamy, bezzasadny.

Mimo takiego ułatwienia sobie pracy, anonimowy autor nie ustrzegł się wielu błędów i przeinaczeń, w tym takich, które, gdyby faktycznie wynikały z niewiedzy, a nie tylko, w co chcielibyśmy wierzyć, z oratorskiego rozpędu i zapędu, stawiałyby jego merytoryczne kompetencje do wypowiadania się w tym temacie, pod dużym znakiem zapytania. Pisze Doskonale Szare np.:

Głównym argumentem Adamczyka jest prosty model atmosfery, w którym podzielono ją na izotermiczne warstwy, grubość optyczna każdej warstwy jest wprost proporcjonalna do ilości dwutlenku węgla, a każda warstwa zachowuje się jak ciało doskonale czarne.

Podczas gdy rzeczony Adamczyk wyraźnie w książce napisał, że warstwy te, chociaż faktycznie, pochłaniają promieniowanie długofalowe – podczerwone, to są całkowicie przeźroczyste dla promieniowania krótkofalowego –słonecznego. Z definicji zatem nie są one doskonale czarne. Ciało doskonale czarne, z czego być może anonimowy autor „Efektu” nie zdaje sobie sprawy, to ciało które pochłania całość promieniowania, we wszystkich długościach fal.

Podobnie jak to czyni „MGO”, również „Efekt cieplarniany” próbuje porównać ze sobą tytułowe zjawisko termodynamiczne, występujące na trzech, sąsiadujących ze sobą, planetach Układu Słonecznego. Tak samo, jak Adamczyk, również anonimowy autor „Efektu” oblicza tzw. temperatury efektywne, czyli takie, jakie mają te planety oglądane z przestrzeni kosmicznej i jaka teoretycznie występowałaby na ich powierzchniach, gdyby efektu cieplarnianego nie było. Wychodzą mu też prawie identyczne wielkości. Wenus – 229 Kelwinów, Ziemia – 255 Kelwinów, Mars – 210 Kelwinów. Niestety, zaraz później, zapomina on o tych wartościach, wstawiając Rysunek nr 3. Wartości temperatur efektywnych na nim zamieszczone, są bowiem znacznie, od tych uprzednio obliczonych, wyższe. Dla Wenus o 25 stopni, dla Ziemi o 20 stopni a dla Marsa o 10 stopni od tych zamieszczonych w tekście polemiki. Co prawda w opisie rysunku wzmiankowano również o ciałach doskonale czarnych, ale na to z kolei zademonstrowane temperatury są zdecydowanie za niskie, w przypadku Wenus aż o 67 stopni. Zapomniało też Doskonale Szare w swoim świętym oburzeniu na „negacjonizm”, bo przecież nie ośmielimy się podejrzewać, że nigdy o nim nie wiedziało, o prawie Wiena. Zgodnie z nim maksimum emisji dla podanych na rysunku nr 3 „temperatur efektywnych” wynosi odpowiednio dla Marsa 13,2 mikrometra, dla Ziemi 10,5 mikrometra i dla Wenus 11,1 mikrometra, podczas gdy na rysunku są one przesunięte, co najmniej o 3 mikrometry „w prawo” w stosunku do miejsca, gdzie być powinny.

 Rzeczony Rysunek nr 3 przedstawia bowiem hipotetyczne widmo promieniowania tych planet, ale nie jest to widmo faktycznie zmierzone w wyniku obserwacji astronomicznych, ale widmo obliczone teoretycznie na podstawie modelu, który jest w oczywisty sposób błędny, o czym świadczy już jego niezgodność z faktycznymi temperaturami efektywnymi, jak i prawem Wiena, a o czym będzie jeszcze szczegółowo mowa.

Dalej nasz anonim na rysunkach 5,6,7 pokazuje hipotetyczne bilanse energetyczne atmosfer omawianych planet, czyli wielkości strumieni promieniowania pochłanianych, odbijanych i emitowanych przez poszczególne składowe ich powierzchni i atmosfer. Dane te są bardzo ciekawe i pouczające, ale, nad czym należy ubolewać, niepełne. Efekt cieplarniany, jak sama nazwa wskazuje, powoduje wzrost temperatury powierzchni planety, względem temperatury efektywnej. Wypadałoby go więc podać właśnie jako różnicę tych temperatur, czego jednak Doskonale Szare z jakichś powodów, jak gorąco wierzymy, innych, niż brak odpowiednich kompetencji, nie czyni. Musimy zatem zrobić to za niego. W przypadku Wenus możemy z rysunku (nr 6) odczytać całkowitą wartość pochłoniętego promieniowania słonecznego w wysokości 160 W/m2. Daje to, zgodnie z prawem Stefana – Boltzmana, temperaturę efektywną w wysokości 230 Kelwinów. Na razie wszystko się, z dokładnością do jednego stopnia, zgadza. Spójrzmy zatem na drugą stronę bilansu. Emisja z powierzchni Wenus to ponad 17 tys. W/m2 Po przeliczeniu daje to temperaturę powierzchni na poziomie 742 Kelwinów, nieco większą niż podawane przez źródła naukowe 737 Kelwiny. Znając te dwie wartości, można teraz obliczyć grubość optyczną atmosfery Wenus, czyli liczbę „warstw” w atmosferze pochłaniających i emitujących promieniowanie podczerwone. To n = 108,9, czyli liczba bardzo niewiele się różniąca od tej obliczonej przez Adamczyka, na podstawie, jako to autor „Efektu” twierdzi, „nadmiernie uproszczonego”, a nawet „bezwartościowego” modelu, n = 106,2. Tak czy inaczej, każdy kilopascal ciśnienia parcjalnego CO2, po sprowadzeniu go do ziemskiej grawitacji, dokłada do grubości optycznej n wartość ok 0,011. Przynajmniej jeżeli chodzi o Wenus.

Przejdźmy teraz do Marsa (rys 7) Pochłaniane przez planetę promieniowanie długofalowe to 109 W/m2, co, w przeliczeniu na temperaturę, daje 209 Kelwinów, czyli nadal mamy tu bardzo wysoką zgodność. Niestety, coś wyraźnie jest na tym rysunku nie tak z emisją. Wynosi ona 123 W/m2 co odpowiada temperaturze 216 Kelwinów. Jest to wartość podejrzanie wysoka i żadne źródło opisujące Marsa i jego klimat, tak wysokiej wartości średniej temperatury jego powierzchni nie podaje. Gdyby nasz anonimowy autor faktycznie orientował się w kwestiach, o których pisze, powinno to wzbudzić jego podejrzliwość w stosunku do tych danych. Jednak nie wzbudziło. Biorąc ten wynik za dobrą monetę, uwzględniając ilość CO2 w marsjańskiej atmosferze, jego słabszą od ziemskiej i wenusjańskiej siłę grawitacji, dochodzimy do wniosku, że w przypadku Marsa, dwutlenek węgla w jego atmosferze działa, jako gaz cieplarniany, dużo silniej niż na Wenus. Na 1 kPa ciśnienia parcjalnego CO2 (sprowadzonego do ziemskiego ciążenia), grubość optyczna atmosfery marsjańskiej wzrastałaby o n = 0,074, czyli prawie siedmiokrotnie szybciej niż na Wenus.

No wynik, jak wynik, mogłoby się wydawać. Może faktycznie zależność grubości optycznej od stężenia CO2 jest, inaczej niż to przyjęto w MGO, nieliniowa i w przy zmniejszaniu ciśnienia maleje wolniej niż liniowo? W tym miejscu jednak dochodzimy do owego jedynego rzeczywiście merytorycznego zarzutu, jaki opisywany artykuł stawia książce MGO. Zacytujmy go w całości:

Nawet jeśli gazy cieplarniane występują w atmosferze ziemskiej w śladowych ilościach, gazy nie-cieplarniane, takie jak azot i tlen, również wpływają na siłę efektu cieplarnianego. Wszystko dzięki temu, że pomiędzy cząsteczkami gazów dochodzi do zderzeń. Cząsteczka gazu cieplarnianego może pochłonąć falę o energii innej niż potrzebna do przejścia do stanu wzbudzonego, jeśli może natychmiast oddać jej część innej cząsteczce (dowolnego gazu), z którą się zderzy. Skutkuje to poszerzeniem zakresu długości fal, które mogą być pochłaniane. W rzadkiej atmosferze do takich zderzeń dochodzi z mniejszą częstością a zakresy długości pochłanianych fal są wąskie. Z tego też powodu dwutlenek węgla w atmosferze Marsa nie jest tak efektywnym gazem cieplarnianym, jak w atmosferze Ziemi. Z drugiej strony, wysoka gęstość i temperatura atmosfery Wenus powodują znaczące poszerzenie zakresu fal pochłanianych przez atmosferę.

I rzeczywiście. Ta sama ilość gazu cieplarnianego w gęstej atmosferze będzie dawała silniejszy efekt cieplarniany, niż w atmosferze rzadszej, czego Adamczyk w swoich rozważaniach nie uwzględnił. Jednak, jak wynika z powyższego, wcale nie musiał. Po pierwsze wykorzystaną przez siebie zależność grubości optycznej od stężenia CO2, oparł on, nie na przykładzie rzadkiej atmosfery marsjańskiej, ale znacznie od ziemskiej gęstszej wenusjańskiej, czyli nie zaniżył przez to, jak twierdzą jego krytycy, potencjał cieplarniany CO2, ale wręcz przeciwnie – zawyżył. Po drugie zaś, ów efekt, nawet jeżeli realnie istnieje, jest tak znikomy, że nie widać go nawet przy zmianie gęstości atmosfery z Wenus na Marsa, czyli przy różnicy znacznie większej niż przy porównaniu atmosfery Ziemi z którąkolwiek z pozostałych planet.

Dane, które przecież samo Doskonale Szare zaprezentowało, wskazują nawet na coś wręcz przeciwnego. W rzadszej, marsjańskiej, atmosferze gazy cieplarniane, a przynajmniej CO2, mają wg nich, działać znacznie silniej niż w atmosferze wenusjańskiej, kilkanaście tysięcy razy gęstszej. Po raz kolejny więc widać, że dane te, przynajmniej te dotyczące Marsa, są ewidentnie błędne. Zresztą, nawet gdyby wynik ten był prawidłowy, to, po podstawieniu do ziemskich warunków, nadal dawałby wzrost temperatury, po podwojeniu stężenia dwutlenku węgla, zaledwie o …0,3 stopnia.

Jak wspomniano na wstępie, poza tym jednym jedynym merytorycznym, acz nieuzasadnionym, zarzutem, „Efekt” zawiera właściwie same tylko „chochoły”, zarzuty wyimaginowane, krytykę tez, których w książce w ogóle nie ma. „Pamiętajmy o albedo!”, nawołuje Doskonale Szare, chociaż, jako żywo, Adamczyk nigdzie w swojej książce o albedo nie zapomniał.  Czyni też nasz anonimowy autor Adamczykowi wyrzut, że jego „nadmiernie uproszczony” i „bezwartościowy” model niewłaściwie odtwarza pionowy rozkład temperatur w atmosferze Wenus, zaniżając je na większych wysokościach. Także jednak przy tej okazji nasz anonim, w swoim religijnym zapale zwalczania pogan i heretyków, sam nie ustrzegł się błędu, zaniżając z kolei temperatury generowane przez model, w skrajnym przypadku, dla ciśnienia 1,38 bara, aż o 32 stopnie. Zresztą, abstrahując już od faktu, że faktyczny pionowy rozkład temperatur w wenusjańskiej atmosferze nie jest znany z dużą dokładnością, to przecież w MGO żaden taki rozkład nie jest w ogóle prezentowany i autor książki nigdzie do jego stworzenia, na podstawie tego modelu, nie pretendował. Liczy się jedynie grubość optyczna atmosfery, liczba „warstw” cieplarnianych, jak widać w modelu zaprezentowanym w „Efekcie”, prawie identyczna jak dla modelu wykorzystanym przez Adamczyka, a nie konkretne wysokości, gdzie te „warstwy” się znajdują. Nie są to przecież wydzielone, fizycznie istniejące płaszczyzny na podobieństwo szyb w szklarni, a jedynie ułatwiająca zrozumienie modelu wizualizacja grubości optycznej atmosfery.

Wszystko to nie oznacza, że nie da się tego uproszczonego modelu do odtworzenia profilu wenusjańskiej atmosfery wykorzystać. Zaprezentujemy go, aby czytelnicy nie czuli niedosytu. Jak widać na wykresie, uzyskany w ten sposób profil rzeczywiście nie jest zbyt dokładny, ale i tak dokładniejszy, niż Doskonale Szare podaje do wierzenia.

Wenus 01

Anonimowy autor „Efektu”, o czym już była mowa wyżej, z lubością nazywa model Adamczyka „nadmiernie uproszczonym”, „nieuprawnionym”, czy wręcz „bezwartościowym”. Problem jednak w tym, że …nie jest to, jak się jemu i jego współwyznawcom wydaje, „model Adamczyka”. Model ten, obecny w literaturze przedmiotu od wielu dziesięcioleci, został m. in. zaprezentowany w najbardziej w Polsce znanej propagandowej publikacji klimatystów pt. „Nauka o klimacie”, konkretnie w rozdziale 2.5 tej książki. Logicznie rozumując, klimatyści właśnie przyznali się, że prezentują publiczności dane i modele nieuprawnione i bezwartościowe. No, to by było akurat było uczciwym postawieniem sprawy. W sumie trudno się zatem dziwić, dlaczego autor „Efektu” wstydzi się tego, co napisał i woli się ukryć pod pretensjonalnym pseudonimem, niż narażać się na śmieszność pod własnym nazwiskiem.

Zielony ląd i czarna śmierć

Na początku był ogień. Gatunek inteligentny i świadomy, ze swoim niezwykle rozbudowanym i złożonym mózgiem, nie mógłby na Ziemi powstać, gdyby chemia ziemskiej atmosfery nie umożliwiała zachodzenia reakcji spalania. Opanowanie ognia, nie tylko było pierwszą zmianą technologiczną w ludzkiej historii, ale wręcz sam rodzaj Homo stworzyło. Obróbka termiczna pożywienia, umożliwia bowiem pozyskanie z tej samej masy pokarmu znacznie większej ilości energii, niż w przypadku surowizny i tym samym na utrzymanie tak energochłonnego organu jak ludzki mózg. Bez ognia niemożliwa jest inteligencja. Nie jest przypadkiem, że pierwszy inteligentny gatunek na Ziemi powstał dopiero po 4,5 miliarda lat jej istnienia, co jest znaczącym ułamkiem wieku całego Wszechświata. Nie jest też przypadkiem, że żadnego takiego gatunku nie można znaleźć nigdzie indziej we Wszechświecie. Bez zapewnienia odpowiedniego źródła zasilania, inteligencja w toku ewolucji nie powstanie, niezależnie od tego, jak silna będzie presja doboru naturalnego na takie rozwiązanie.

Ogień, czy, jak to się bardziej precyzyjnie wyraził Richard Wrangham w swojej znakomitej książce na ten temat, gotowanie stworzyło człowieka. I gotowanie nas przy życiu utrzymuje. Ludzki układ pokarmowy jest już dziś zdecydowanie za mały i za mało wydajny, aby jego właściciel mógł przeżyć na surowym pożywieniu. Dieta surowa, choćby nie wiadomo jak starannie komponowana i przygotowywana, w dłuższej perspektywie czasowej nieuchronnie prowadzi do śmierci głodowej. Opanowanie ognia jest więc nie tylko pierwszym w historii ludzkości energetycznym przejściem fazowym, ale i przejściem jednokierunkowym, swoistą zapadką termodynamiczną. Powrót do poprzedniej formy ewolucyjnej nie jest już możliwy.

Rodzaj ludzki wraz z opanowaniem ognia, stał się, z ekologicznego punktu widzenia, drapieżnikiem szczytowym. Polował na wszystkie inne gatunki, żaden natomiast, poza ewentualnie innymi ludźmi, nie polował na niego. Gotowanie posiłków umożliwiło mu też, również jako jedynemu gatunkowi na planecie, tworzenie zaawansowanych narzędzi, w tym, znów po raz pierwszy „narzędzi drugiego rzędu” – czyli narzędzi używanych do produkcji innych narzędzi, oraz zaskakująco wysublimowanych dzieł sztuki, w tym, do dzisiaj zatykającego dech w piersiach, malarstwa jaskiniowego. Ale i też na tym się to zatrzymało. Mimo swojej inteligencji, łowcy-zbieracze nie mogą pozyskać z ekosystemu, więcej niż kilka procent uwięzionej w nim energii słonecznej, czyli, tzw. produkcji pierwotnej netto. W konsekwencji ich liczebność, tak samo, jak liczebność wszystkich innych drapieżników, jest regulowana przez równania znane w ekologii pod nazwą modelu Lotki – Volterry. W sposób strukturalny zabraniają one, pod groźbą wyginięcia, przekroczenia przez populację drapieżników pewnego progu liczebności, a tym samym blokują powstanie w takiej populacji, niezależnie od tego, jak bardzo inteligentne są pojedyncze osobniki, społeczności bardziej złożonych, społecznego podziału pracy i wielkoskalowych sieci wymiany genów towarów i idei, czyli krótko pisząc – cywilizacji.

Aby do tego doszło, potrzebne jest kolejne termodynamiczne przejście fazowe, które na Ziemi przyjęło postać tzw. rewolucji neolitycznej, będącej skutkiem powstania rolnictwa. Zamiast pozyskiwać gotowane przez siebie pożywienie wprost z natury, ludzie zaczęli je wytwarzać. Konsekwencje tego faktu były niewiele tylko mniej znaczące niż konsekwencje poskromienia ognia. Rolnicy nie tylko są w stanie pozyskać z biosfery znacznie większy odsetek jej produkcji, ale mogą również, poprzez nawadnianie, nawożenie, pielenie i inne zabiegi agrotechniczne, znacząco podnieść samą produkcję pierwotną danego obszaru. Per saldo z tej samej powierzchni średnio może się wyżywić stukrotnie więcej rolników, niż łowców zbieraczy. Z ekologicznego punktu widzenia, rolnicy przestają być superdrapieżnikami, a stają się supersymbiontami. W przeciwieństwie do uwięzionych w kleszczach atraktorów równań L-V łowców, liczebność rolników staje się zmienna i niestabilna. Powstaje więc społeczność, w przeciwieństwie do łowców zbieraczy, zdolna do rozwoju i adaptacji, tworzenia i wdrażania zmian. Powstaje cywilizacja.

Przewaga rolników nad łowcami, a już na pewno wczesnych neolitycznych rolników, nie jest jednak bynajmniej ewidentna. Rolnictwo, kiedy już powstało, rozprzestrzeniało się po świecie zaskakująco powoli. Wyparcie łowców z niektórych lokalizacji zajmowało rolnikom niekiedy nawet tysiące lat. Jednak i tu mieliśmy do czynienia z efektem zapadki. Rolnictwo, niezależnie od tego jak ślamazarnie by się nie rozprzestrzeniało, nigdy się już nie cofnęło i łowcom miejsca z powrotem nie ustąpiło.

Z jednym wyjątkiem.

W przeciwieństwie do statycznych, niezmiennych w czasie i przestrzeni, kultur łowców, cywilizacja rolnicza ewoluuje wręcz błyskawicznie. Tym większe może być zaskoczenie, że ów wyjątek, nie dotyczy prymitywnej cywilizacji z dolnego neolitu, ale cywilizacji niezwykle już zaawansowanej, z późnego okresu żelaza.

Od VIII wieku na północnym Atlantyku zachodziła bowiem ekspansja pochodzących ze Skandynawii Normanów, zwanych też dzisiaj wikingami. Kolonizacja ta, przez samych zainteresowanych zwana landamem, czyli „objęciem (w posiadanie) ziemi”, doprowadziła do powstania wielu, wywodzących się z tej grupy etnicznej społeczności, od wyspy Man po Islandię, które w większości istnieją tam do dzisiaj. W większości ale nie w całości. Najbardziej oddalone od macierzystej Skandynawii normańskie kolonie w Ameryce Północnej, a zwłaszcza na największej wyspie tego kontynentu – Grenlandii przetrwały tam pół tysiąclecia, ale w końcu zostały wyparte przez populację eskimoskich łowców – zbieraczy, co jest wydarzeniem bez precedensu w historii ludzkiej cywilizacji.

Pierwsi Normanowie osiedlili się, na bezludnej wtedy, Grenlandii pod koniec X wieku, a na początku kolejnego stulecia dotarli i do kontynentu amerykańskiego. Ich potomkowie żyli tam jeszcze ponad cztery stulecia później, w wieku XV, kiedy w Polsce panował Władysław Jagiełło. A potem, nie wiadomo kiedy dokładnie, zniknęli. Kiedy w XVIII wieku do miejsca dawnych grenlandzkich osad dotarli ponownie Duńczycy, zastali tam tylko ruiny i grupy utrzymujących się z łowiectwa, żyjących w erze przedcywilizacyjnej, Eskimosów.

Historia amerykańskich wikingów, ze względu na ich, wyprzedzające o pół millenium dokonania Kolumba, eksplorację Ameryki, oraz na ich tajemnicze zniknięcie, jest owiana legendami i tajemnicami i mimo intensywnych badan historycznych i archeologicznych, daleka jest od wyjaśnienia. Hipotez na ten temat powstało multum i właściwie każda z nich jest w stanie wytłumaczyć jakąś część znanych archeologicznych i historycznych faktów, ale żadna wszystkich. Ze względu zresztą na szczupłość tych źródeł, owych hipotez autorzy tych hipotez, zamiast dopasowywać je do skąpo wydzielanych przez historię danych, dopasowują je raczej do własnych ideologicznych fiksacji.

Tak jest również z najbardziej obecnie popularnym i poniekąd kanonicznym poglądem na ten temat. Jego najbardziej znany i wpływowy popularyzator, Jared Diamond, szczegółowo opisał tą hipotezę w swojej książce „Upadek”. Rdzenni Grenlandczycy, głosi Diamond, wymarli z głodu, wskutek wyczerpania zasobów naturalnych, zniszczenia środowiska i zmian klimatu.

Faktycznie gospodarka rolnicza, którą ustanowili na Grenlandii Normanowie, przyczyniła się znacząco do dewastacji ekologicznej tego rejonu. Wycięto m in wszystkie drzewa i odtąd Grenlandczycy borykali się z notorycznym brakiem drewna. Brak drewna oznaczał też poważne problemy w produkcji, niezbędnego normańskiej gospodarce, żelaza. Wylesienie i nadmierne wypasy hodowanych zwierząt, owiec i krów, pociągnęło też za sobą erozję miejscowych gleb, a tym samym spadek plonów. Kiedy tylko klimat nieco się oziębił, komunikacja z Europą, skąd tylko mógł przejść ratunek, zerwała się, a rdzenni Grenlandczycy mieli zwyczajnie umrzeć z głodu.

Trudności te nie mogą być jednak przeceniane. Warunki klimatyczne i ekologiczne dla normańskiego osadnictwa na Grenlandii, chociaż trudne, obiektywnie nie były gorsze niż na innych zasiedlonych przez nich terenach. Największe skupisko osadnicze na Grenlandii, zwane Osiedlem Wschodnim leży na szerokości geograficznej Szetlandów, Nieco mniejsze i wbrew swojej nazwie, położone bardziej na północy, Osiedle Zachodnie – Wysp Owczych, a na obu tych archipelagach, jak zresztą i na wysuniętej jeszcze bardziej na północ Islandii, społeczności normańskie istnieją stabilnie aż do dzisiaj. Okres wegetacji jest na Grenlandii dłuższy niż na Islandii, a gleby lepsze i mniej podatne na erozję. Brakujące im drewno i żelazo sprowadzali Grenlandczycy z Europy, oraz pozyskiwali z kontynentalnej Ameryki, zwanej przez nich Winlandią, którą penetrowali znacznie dłużej i bardziej intensywnie, niż się to historykom jeszcze do niedawna wydawało.

Ostatnie znane szczątki Grenlandczyków, odkopane z XV wiecznego cmentarza, są pochowane z pełnym chrześcijańskim ceremoniałem, ubrane według najnowszej wtedy europejskiej mody, co świadczy o tym, że kontakt z Europą nie urwał się bynajmniej definitywnie, nie noszą też żadnych śladów degeneracji, czy niedożywienia. Temperatury wtedy też nie były jakoś specjalnie niskie. W XV wieku było na Grenlandii cieplej niż w wieku XIV, czy XVI. W najwcześniej, bo już w połowie wieku XIV, porzuconym Osiedlu Zachodnim, pozostało po jego mieszkańcach mnóstwo zdziczałych zwierząt hodowlanych, co przecież nie miałoby miejsca, gdyby owi mieszkańcy pomarli z głodu.

Dlatego wszystkie teorie odwołujące się do zniszczenia środowiska, zmian klimatycznych, głodu, etc są bardzo mało wiarygodne.

Ale oczywiście nie są jedyne. Inny popularny pogląd traktuje osiedla grenlandzkie, nie tak, jak wszystkie inne ówczesne normańskie Landnamy, jako miejsce do stałego osiedlenia się, tylko jako coś w rodzaju faktorii handlowej, której głównym celem było pozyskiwanie egzotycznych, drogich i poszukiwanych przez ówczesne europejskie elity towarów – kłów i skór morsów i futer niedźwiedzi polarnych, oraz zyskowny handel nimi. Kiedy tylko ceny kłów morsów – najważniejszego grenlandzkiego towaru eksportowego, spadły, a równocześnie trudności w pozyskiwaniu tego surowca, wskutek pojawienia się na tradycyjnych terenach łowieckich, zwanych przez Grenlandczyków Nordsetą, eskimoskiej konkurencji, wzrosły, grenlandzcy Normanowie po prostu zwinęli interes i przenieśli się z powrotem na Islandię czy wręcz do Norwegii. Teoria ta jednak również nie jest satysfakcjonująca. Kryzys popytowy na rynku kości zapewne odegrał, jak o tym jeszcze będzie mowa, jakąś rolę, ale na pewno nie decydującą. Wikingowie przedstawiani są we współczesnej kulturze nieodmiennie jako straszliwi wojownicy i grabieżcy, zdecydowanie rzadziej jako rzutcy i przedsiębiorczy kupcy. Tak też widziały ich i opisywały inne współczesne im kultury. Natomiast sami siebie Normanowie tak bynajmniej nie postrzegali.

Tym co pchało Normanów do zasiedlenia Grenlandii i prób osadnictwa w Ameryce,  nie było poszukiwanie towarów na handel, tylko ziemi do uprawy i osiedlania się. Życiowym celem każdego Normana nie było bowiem bynajmniej łupienie, ani zyskowne operacje handlowe. To były, co najwyżej, środki do celu, jakim było bycie bogatym gospodarzem na dużym gospodarstwie. Zasiedlając Grenlandię nie mogli Normanowie przewidzieć, że spotka ich w przyszłości deficyt drewna i żelaza i że będą rozpaczliwie potrzebować towarów na wymianę. Lukratywny handel kłami morsów rozwinął się wiele lat po grenlandzkim Landnamie. Tym bardziej nie powinno to dziwić, zważywszy na fakt, że Grenlandia jest naprawdę dużym lądem – największą wyspą świata i Nordseta – tereny gdzie Normanowie na morsy polowali, od normańskich osiedli były oddalone o ponad tysiąc kilometrów. Z drugiej strony, spadek cen i kryzys na tym rynku nastąpił już w połowie XIII wieku. Mniej więcej w tym samym czasie doszło też do pierwszych, niezbyt zresztą przyjaznych, kontaktów z przybyłymi z północy ludźmi kultury Thule, których dzisiejszych potomków znamy jako Eskimosów. Mimo tego, Grenlandczycy bynajmniej interesu nie zwijali i utrzymali się w swoim domu jeszcze dwa stulecia.

Kolejna grupa hipotez jest związana właśnie z tymi północnymi najeźdźcami. Eskimosi mieli rdzennych Grenlandczyków po prostu wymordować, w całości, lub w męskiej części, kobiety zaś zgwałcić i uprowadzić.

Istotnie, znane w źródłach kontakty miedzy tymi populacjami nie były najlepsze i od początku nacechowane były sporą dawką przemocy. Z drugiej jednak strony badania genetyczne nie znalazły w dzisiejszej eskimoskiej populacji wyraźnych genetycznych wpływów normańskich. W znaleziskach archeologicznych brak też jakichkolwiek śladów walk, spalonych i splądrowanych domostw, zwłok ludzi padłych w boju, etc…

Nie ma w tym nic dziwnego. Chociaż bowiem łowcy zbieracze żyjąc w stanie pierwotnej anarchii, nie znając ani prawa, ani własności prywatnej, nie mają nic przeciwko napadom na rolników i rabowaniu ich, dla łowców „niczyjego”, dobytku, na co w historii są liczne przykłady, to jednak dzicy nie są w stanie na serio zagrozić cywilizacji, która zawsze ma nad nimi druzgoczącą przewagę nie tylko technologiczną i organizacyjną, ale i liczebną. Nawet tak osamotnione placówki jak Osiedle Wschodnie, bez trudu mogły do swojej obrony wystawić ponad tysiąc uzbrojonych ludzi. Eskimoscy łowcy zbieracze, żyli zaś w rozproszonych kilkudziesięcioosobowych grupach klanowych. Nawet jeżeli 2-3 takie grupy, bo na pewno już nie większa ich liczba, mogły się w celu wspólnego złupienia rolników dogadać, to i tak dawało to stosunek sił 10:1 na korzyść obrońców.

Napadać na samotne, oddalone od sąsiadów farmy – owszem. Ale nie na osady zamieszkałe przez wielotysięczną populację. Hipotezę eskimoskiego najazdu osłabia też fakt, że zasoby eksploatowane przez Normanów (głównie pastwiska) i Eskimosów (głównie pełnomorskie łowiska) jedynie w niewielkim stopniu pokrywały się ze sobą. Można się zatem raczej spodziewać, że te dwie populacje generalnie ignorowały się nawzajem.

Z jakiegoś powodu natomiast, handel miedzy nimi nigdy się nie rozwinął na jakąś znaczącą skalę. Pewnie dlatego, że Grenlandczycy nie mieli zbyt wielu produktów na wymianę. Najbardziej pożądanych przez łowców-zbieraczy metali, sami nie mieli na zbyciu.

Skoro zatem nie wyczerpanie zasobów, nie zmiany klimatyczne, nie trendy ekonomiczne i nie eksterminacja Normanów z rąk Eskimosów doprowadziły do ich zniknięcia z Grenlandii, to co?

Jak już wspomniano, warunki przyrodnicze na Grenlandii, nie były dla normańskiej gospodarki gorsze niż w innych miejscach, gdzie do landnamu doszło, a od islandzkich były nawet lepsze. Grenlandia ma jednak, w porównaniu z Faroerami, czy Szetlandami, trzy istotne minusy, z których dwa zostały zauważone i opisane jeszcze przez Diamonda, ale jeden jakoś umyka wszystkim dotychczas zajmującym się tym zagadnieniem autorom, pewnie dlatego, że są to głównie humaniści, nie mający solidnej wiedzy z dziedziny statystyki. Pierwsza wada to obecność wrogo nastawionej populacji Eskimosów, co w innych miejscach zasiedlonych przez normańską diasporę nie miało miejsca. Oczywiście, jak już była o tym mowa, łowcy zbieracze nigdy nie są w stanie militarnie zagrozić znacznie liczniejszym populacjom rolniczym. Sama obecność dzikusów stanowi jednak dodatkowe obciążenie ekonomiczne. Trzeba zachowywać nieustanną czujność, utrudnione stają się wszystkie dalsze wyprawy, zwłaszcza na Nordsetę.  Koszty pozyskiwania kłów i skór morsów gwałtownie musiały wzrosnąć, a tym samym pogorszyć bilans handlowy.

Drugim minusem Grenlandii jest jej oddalenie od Europy. Nie tylko utrudniało to wymianę handlową, zwłaszcza kiedy warunki nautyczne na północnym Atlantyku się w XIV wieku pogorszyły. Wystąpił także jeszcze inny efekt. W gospodarce rolniczej, zwanej też maltuzjańską, występują bowiem swoiste cykle demograficzno-ekonomiczne. Po wprowadzeniu jakiejś innowacji technologicznej, czy organizacyjnej, bądź tylko skolonizowaniu, jak właśnie w omawianym przypadku, nowych terenów, następuje wzrost gospodarczy i produkcja (rolna) rośnie. Wcześniej czy później jednak, wzrost demograficzny dogania wzrost produkcji, warunki życia się pogarszają, gospodarka wpada w kryzys i stagnację, co w końcu kończy się ogólnym załamaniem i zapaścią cywilizacyjną. Długość takiego cyklu zależy zaś od ogólnej wielkości cywilizacji, w której on zachodzi. Dla populacji liczącej dziesiątki i setki milionów osobników, pełny taki cykl, od kryzysu do kryzysu może trwać nawet ponad tysiąc lat. Dla populacji liczonej w tysiącach, jest jednak około dwukrotnie krótszy. Izolacja Grenlandczyków od reszty Christianitas, nawet niepełna, sprawiła, że stracili oni swoistą synchronizację z cywilizacją macierzystą i weszli we własny cykl, znacząco, wskutek ich niewielkiej liczebności, krótszy od cyklu właściwego, chrześcijańskiego.

I tu dochodzimy do trzeciego, mniej oczywistego i zwykle ignorowanego minusa. Grenlandia, jak już o tym autor wspominał, jest wielka, ale ta jej część, która się nadawała dla normańskiego osadnictwa, jest z kolei …mała. Grenlandczyków nigdy nie było więcej niż kilka tysięcy, o rząd wielkości mniej niż Islandczyków. A mniejsza populacja, jeżeli jest dodatkowo odizolowana, nie tylko przyśpiesza nadejście maltuzjańskiego przeznaczenia, ale jest też narażona na większe proporcjonalnie losowe wahania swojej liczebności. Odchylenie standardowe, wartość określająca zakres takich wahań, jest bowiem proporcjonalne do pierwiastka kwadratowego z wielkości populacji. Jakoś tak umyka powszechnej uwagi, że pierwszy grenlandzki kryzys demograficzny, połączony z porzuceniem Osiedla Zachodniego, nastąpił w połowie XIV wieku. Dokładnie wtedy, kiedy w Norwegii, której króla władzę Grenlandczycy nad sobą uznawali, połowa populacji zmarła w trakcie epidemii Czarnej Śmierci. Zadziwiające, że wszyscy, przynajmniej milcząco, zakładają, że epidemia ta nigdy nie dotarła do Grenlandii. Owszem Grenlandia, z całej atlantyckiej normańskiej diaspory, była najbardziej izolowana, ale przecież nie całkowicie. Wskutek małej liczebności populacji, dżuma, kiedy już się tam pojawiła, mogła wybić nawet i 90% mieszkańców, a w porzuconym Osiedlu Zachodnim – wszystkich. W Europie były przecież miasta, które wymarły całkowicie. Islandia, czy Faroery mogły wyrównać taki ubytek wskutek imigracji nowych mieszkańców, ale Grenlandia miałaby z tym dużo większe problemy.

Nawrót epidemii gdzieś w połowie XV wieku, mógł zaś zredukować populację na tyle, ze ocalali zdecydowali się po prostu porzucić Grenlandię i przenieść się na Islandię, czy nawet do Norwegii. Takim losowym wydarzeniem, które ostatecznie dobiło kolonię, mógł być też napad piratów. W XV wieku pirackie okręty były już uzbrojone nawet w działa, a nowo zakładane np. na Wyspach Kanaryjskich miasta, właśnie w obawie przed morskimi rabusiami, budowano w pewnej odległości od morza. Takiej opcji, cofnięcia się w głąb lądu, Grenlandczycy nie mieli i wobec uzbrojonej w artylerię pirackiej flotylli, gdyby taka się u ich wybrzeży pojawiła, byli właściwie całkowicie bezbronni.

Bezpośrednią przyczyną, bezprecedensowego w skali światowej, zaniku cywilizacji na Grenlandii, byłaby więc epidemia, czy piraci, ale przyczyną zasadniczą, izolacja grenlandzkiej enklawy od jej cywilizacji macierzystej i jej niewielkie rozmiary, co skutecznie skróciło maltuzjański cykl cywilizacyjny i czyniło grenlandzkie osiedla podatnymi na takie właśnie wydarzenia losowe. Do ich całkowitej zagłady wystarczyły takie dwa. A miejsce opuszczone przez cywilizację zajęli dzicy.

Jest jednak jeszcze jedna hipoteza wyjaśniająca zniknięcie grenlandzkich chrześcijan. Hipoteza szalona i nie ma co ukrywać, bardzo mało prawdopodobna. Rdzenni Grenlandczycy mieliby, wg niej, zostać, ni mniej, ni więcej, ale …porwani przez obcą cywilizację i wywiezieni na pokładach jej statków. No, statków morskich, nie kosmicznych.

Twórca tej hipotezy, Gavin Menzies nie jest w środowisku historycznym traktowany poważnie, a jego książka „1421” w której tą hipotezę stawia, cierpi na przypadłość, którą niżej podpisany zwykł nazywać „danikenozą”. Polega ona, w największym uproszczeniu, na braku jakiegokolwiek krytycyzmu wobec zebranych źródeł i interpretowaniu ich wyłącznie na jedno kopyto. A mimo to nie jest ta hipoteza zupełnie bezsensowna. Zniknięcie grenlandzkiego Landnamu faktycznie zbiega się w czasie z wielką oceaniczną ekspansją Chin. Chińskie floty przemierzały światowe oceany na sto lat przed Magellanem. Liczyły po kilkadziesiąt gigantycznych statków tzw. baochuanów i po kilkadziesiąt tysięcy ludzi. Taka armada, gdyby przybyła do Osiedla Wschodniego mogła bez problemu wziąć je całe do niewoli.

Wizja ta jest niesłychanie atrakcyjna i imponuje rozmachem. Niestety, wbrew temu co twierdzi Menzies, nie ma żadnych przesłanek, że chińskie floty skarbowe w ogóle opłynęły Przylądek Dobrej Nadziei i pojawiły się na Atlantyku, nie mówiąc już o leżącej, z chińskiego punktu widzenia, dosłownie po drugiej stronie świata, Grenlandii. Gdyby w latach 20 XV wieku Chińczycy mogli dopłynąć do Grenlandii, to znaczy że mogli dopłynąć wszędzie, również do Europy. A śladów na to żadnych nie ma. Trochę szkoda, bo historia byłaby przez to o wiele bardziej interesująca.

Był las, będzie las.

Zgodnie z danymi GUS, pod koniec 2017 roku, lasy zajmowały 29,6% powierzchni Polski. Według alternatywnej, międzynarodowej metodologii liczenia, faktyczna lesistość wynosi już u nas 30,9%. Dla porównania, w 1945 roku lasy rosły tylko na 20,8% powierzchni naszego kraju. Lasów jest w Polsce nie tylko coraz więcej, ale i są one też coraz gęstsze. Ich tzw. miąższość, liczba metrów sześciennych drewna na jeden hektar, rośnie bowiem również systematycznie od 1945 roku.

W skali Europy nie jest też Polska pod tym względem żadnym ewenementem. Lasy systematycznie zwiększają swój zasięg w prawie wszystkich krajach kontynentu. Jednocześnie jednak, co rusz jesteśmy atakowani medialnymi doniesieniami o „zagładzie lasów”, o „utracie lasów”, o „rabunkowej wycince lasów”. I nie są to wcale alarmy wyssane z palca. Ponieważ jednak, jak widzimy, nie odnoszą się one do Europy, owa rabunkowa eksploatacja musi mieć miejsce na innych kontynentach. I znów, nie dotyczy to jednak takich krajów, jak Australia, Nowa Zelandia, Kanada, USA, czy Japonia.

Jeremiady nad zagładą lasów, starannie jednak tę kwestię omijają. Dlaczego w niektórych krajach lasy są wycinane, a w innych wręcz przeciwnie? Odpowiedź na to pytanie, to wszak pierwszy krok, aby lasy ochronić także w skali globalnej. W celu znalezienia tej odpowiedzi zbudujemy zatem teraz odpowiedni model lasu. W pierwszym przybliżeniu, las składa się z drzew, roślin o ekstremalnie długim czasie wzrostu. Zakładając, że po czasie T, drzewo osiąga swoją maksymalną objętość i dalej już nie przyrasta, najbardziej ekonomiczną opcją, jest wycięcie tych drzew, które w danym roku ten wiek T osiągnęły i na ich miejsce posadzenie nowych. W kolejnym roku wycina się drzewa, które rok wcześniej były w wieku T-1 i tak dalej. W ten sposób, można osiągnąć stały dochód z lasu, bez jego rabunkowej wycinki. Załóżmy, że roczny zysk, z tak racjonalnie eksploatowanego lasu, wynosi a jednostek. Ile można uzyskać z eksploatacji nieracjonalnej? Z wycięcia całego lasu w pień?

Jeżeli przyrost drzewa, jak i zresztą każdego innego żywego organizmu, odbywa się w trzech wymiarach, to łączna jego objętość rośnie proporcjonalnie do trzeciej potęgi czasu. Zakładając, że wartość kubika drewna też jest liniowo proporcjonalna do wieku drzewa, stosunek A/a, czyli kwoty, jaką można uzyskać z wycięcia wszystkich drzew, do zysku z wycięcia jedynie drzew najstarszych, w wieku T, wynosi ok. 0,2*T+0,46. Dotyczy to zresztą nie tylko lasów, ale i wszystkich innych zasobów przyrodniczych, słoni czy ryb w morzu. Nawet zatem dla stosunkowo dużych wartości T, jak T=100 lat, już po 20 latach racjonalna gospodarka leśna góruje ekonomicznie nad nieracjonalną, rabunkową. Dlatego przecież jest ona właśnie racjonalna.

Las można też jednak wyciąć z innego, niż żądza natychmiastowego zysku i wyzysku, powodu. Las bowiem, zajmuje pewną przestrzeń, która, wykorzystana w inny sposób, mogłaby przynieść swojemu właścicielowi wyższe, niż a, dochody. Alternatywny w stosunku do a zysk z danej powierzchni, oznaczmy jak b. Przegląd realnych dzisiejszych czynszów gruntowych, prowadzi jednak do konkluzji, że warunek b>a jest spełniony jedynie w przypadku terenów przeznaczonych pod budownictwo, czy ogólnie nieruchomości miejskich. Są to jednak, w skali planety, areały zbyt małe, aby wyjaśnić światowy kryzys leśny. Realnie lasy konkurują o miejsce na Ziemi nie z miastami i budynkami, ale z uprawami rolnymi. A tutaj ekonomia jest bezlitosna. Stosunek b/a w przypadku rolnictwa, jest obecnie znacznie niższy od jedności i waha się od 1/3 w lasach strefy umiarkowanej, takich jak lasy Polski, do nawet 1/10 w tropikalnych lasach deszczowych, akurat tam, gdzie problem deforestracji jest szczególnie palący. Roczny zysk z lasu jest, co najmniej kilkukrotnie wyższy, niż zysk z pola ziemniaków, czy soi. Wyraźnie widać zatem, że jakiegoś kluczowego czynnika w naszej kalkulacji nie uwzględniliśmy.

Tym nieuwzględnionym do tej pory czynnikiem jest czas. Wartość pieniądza nie jest bowiem stała i zmienia się w czasie. Wie o tym każdy, kto musiał się targować z dzieckiem, o to, czy woli ono jeden cukierek dzisiaj, czy dwa cukierki jutro. U dzieci ten spadek wartości kapitału, zwany też preferencją czasową, jest bowiem szczególnie duży. Jednak i w wieku dorosłym każdy wolałby dostać sto złotych raczej dzisiaj niż za rok, a zapłacić na odwrót. Tempo takiego spadku wartości pieniądza w czasie, którego to zjawiska nie należy mylić z inflacją, jest określone przez tzw. stopę dyskonta, albo stopę procentową. W ujęciu matematycznym zmianę wartości kapitału opisuje równanie wykładnicze:

P = P0*e-rt

W którym t to czas, a r, stopa procentowa. Opisane wyżej zjawisko jest podstawą, szeroko w biznesie stosowanej, analizy NPV (ang. Net Present Value). Polega ona na zsumowaniu wszystkich przewidywanych w przyszłości, w czasie t, wpływów i wydatków, czyli przepływów finansowych, tzw. Cash Flow CF i sprowadzenie ich, za pomocą wspomnianej formuły matematycznej, do obecnej wartości pieniądza, czyli ich zdyskontowanie. Im wyższy wynik NPV, tym bardziej korzystny finansowo jest dany biznes. Dla naszych celów zrobimy taką analizę dla czterech możliwych scenariuszy.

  1. Racjonalna eksploatacja posiadanego lasu z zyskiem a rocznie

NPV 1 = (a/r)*(1-e-rt)

  1. Wycięcie lasu i przeznaczenie gruntu pod uprawę soi czy ziemniaków z zyskiem b rocznie

NPV 2 = A+(b/r)*(1-e-rt)

  1. Racjonalna eksploatacja posiadanego pola z zyskiem b rocznie

NPV 3 = (b/r)*(1-e-rt)

  1. Zalesienie posiadanego pola soi czy ziemniaków, odczekanie przez czas T, aż wyrośnie tam las i jego późniejsza racjonalna eksploatacja z zyskiem a rocznie

NPV 4 = (a/r)*( e-rT -e-rt)

Właściciel pola może wybierać między scenariuszami 3 i 4, właściciel lasu pomiędzy 1 a 2. O tym, który ze scenariuszy jest bardziej opłacalny, decyduje kombinacja czterech parametrów. Pierwszy z nich, czas wzrostu T jest determinowany biologicznie i od ludzkich decyzji w ogóle nie zależy. Dwa następne parametry to stosunek b/a, oraz stopa procentowa r wynikają z sytuacji ekonomicznej, średniej ceny drewna i płodów rolnych, oraz od stopnia nasycenia gospodarki kapitałem. Stopa dyskonta z grubsza wynika bowiem z poziomu zysku, jakie mogą przynieść alternatywne sposoby tegoż kapitału zainwestowania. Wreszcie ostatni czynnik to czas t. W przypadku inwestycji w nieruchomości, uznaje się zazwyczaj, że założony zysk będzie wpływał zawsze, czyli że t dąży do nieskończoności. Nawet, jeżeli nieruchomość zostanie w którymś momencie sprzedana, to jej cena będzie odpowiadać sumie zdyskontowanych zysków, które dana nieruchomość przynosi, czyli tak zwanej wartości rezydualnej RV. Matematycznie są to sytuacje równoważne. W tej sytuacji możemy nasz model, przy stałym T (przyjęto 60 lat) i nieskończonym t, sprowadzić do dwóch tylko wymiarów. Wynik obliczeń przedstawia poniższy wykres:

Lasy 01

Można na nim wyróżnić trzy obszary. W strefie I, prawej górnej części wykresu, powyżej niebieskiej linii granicznej, przy niskich cenach drewna i wysokiej stopie procentowej, opłaca się las wyciąć i zastąpić go uprawami. Jednak, kiedy cena drewna wzrośnie, albo gospodarka nasyci się kapitałem, punkt równowagi przemieści się w lewo i w dół do kolejnej strefy – II. Tutaj już lasu wycinać w pień się nie opłaca, bo na racjonalnym nim gospodarowaniu można zarobić (w sensie NPV) więcej. Nadal jednak właściciel pola soi nie ma wystarczających bodźców ekonomicznych, aby swoje pole zalesić i czekać 60 lat na osiągnięcie wyższych niż b dochodów. To staje się opłacalne dopiero w strefie III, przy jeszcze niższych stopach procentowych i jeszcze wyższych cenach drewna. Nieużytki, dla których b = 0, opłaca się zalesić niezależnie od wysokości stóp procentowych. Oczywiście zachodzi tu też pewne sprzężenie zwrotne. Stosunek b/a w znacznym stopniu zależy od podaży i odzwierciedla stosunek przeznaczonych pod odpowiednie uprawy areałów. W strefie I stopniowe zmniejszanie lesistości prowadzi do spadku b/a i przesuwania się punktu równowagi w lewo, aż do momentu, kiedy dotrze on do granicy strefy II, gdzie wycinki zamierają. Dalszy rozwój gospodarczy prowadzi do akumulacji kapitału i spadku stóp procentowych, co powoduje ruch w dół wykresu, aż do momentu dotarcia do strefy III, gdzie lesistość zaczyna ponownie rosnąć, co z kolei prowadzi do wzrostu b/a Jeżeli zmiany te są wystarczająco powolne, w miarę spadku stóp procentowych punkt równowagi będzie się ześlizgiwać w dół wykresu wzdłuż granicy pomiędzy strefami II i III i lesistość będzie powolutku, lecz stale, rosnąć. Takie właśnie zjawisko obserwujemy w Europie i innych rozwiniętych obszarach świata.

Jednak nie wszędzie. Jak już wspomniano, w skali planety powierzchnia lasów się zmniejsza, czyli, poza Europą, Kanadą, czy USA, są obszary, zwłaszcza w Afryce, Ameryce łacińskiej, czy Azji, gdzie intensywność wyrębów jest znacznie wyższa niż wzrost lesistości w krajach rozwiniętych. Czy te obszary znajdują się w strefie I? Faktycznie, są to kraje biedne, w których występuje deficyt kapitału, zatem i stopy procentowe są tam wyższe niż w krajach rozwiniętych. Z drugiej jednak strony, dla dżungli tropikalnych, parametr b/a jest znacznie, kilkukrotnie niższy niż dla lasów strefy umiarkowanej. Lasy tropikalne rosną szybciej, a drewno z tej strefy klimatycznej, mahoń, tek czy heban jest też od sosny, czy brzozy znacznie droższe. W rezultacie punkt równowagi na wykresie leży wyżej (wyższe stopy procentowe), ale i bardziej w lewo (niższe b/a). Może i nie wystarczy to na utrzymanie się w strefie III, ale nie powinniśmy też wyjść w strefę I. Nasz model najwyraźniej tu szwankuje.

Zbyt pochopnie bowiem przyjęto w nim pewne uproszczenie. Nieprzypadkowo pierwszy wykres ma w tytule „gospodarkę wolnorynkową” Tylko w krajach cywilizowanych, z wolnorynkowym, praworządnym ustrojem gospodarczym, gdzie księgi wieczyste faktycznie są wieczyste, czas t władania daną nieruchomością można przyjąć, tak jak autor zrobił to wyżej, za nieskończony. Daleko jednak nie wszystkie kraje na świecie można za takowe uznać. W krajach dzikich, a takie właśnie stanowią w strefie występowania dżungli tropikalnych większość, własność prywatna i jej ochrona nie jest bynajmniej na czołowym miejscu na liście parytetów tamtejszych władz. Nawet, jeżeli ktoś jakąś działkę formalnie posiada, wcale nie może być pewien, czy za 5, lub 10 lat jakiś kolejny reżim nie zacznie bronić narodu przed wyzyskiem międzynarodowych korporacji i prywatnej własności, i w ramach sprawiedliwości ludowej, nie skonfiskuje. W konsekwencji władający (chwilowo) jakimś terenem będą się starali maksymalizować swoje wskaźniki NPV nie w nieskończoności, jak Szwajcarzy, czy Amerykanie, ale w przedziałach czasu znacząco krótszych. Im bardziej dziki, socjalistyczny i nieprzewidywalny jest tamtejszy reżim, tym ten przewidywany czas t będzie krótszy. Jak na to zareagują lasy? Ustalając, tak jak w poprzednim przypadku T na 60 lat i typowy obecnie poziom r = 4%, można zbadać losy lasu w zależności od zmian pozostałych parametrów modelu. Stosunku cen b/a i czasu władania t. Z pierwszego wykresu możemy dodatkowo odczytać, że, w warunkach wolnorynkowych, granicą wycinki przy tych założeniach byłoby b/a = 50%, a granicą zalesiania b/a = 9%.

Lasy 02

Wynik jest oczywisty. Przy odpowiednio krótkim czasie t, lasy będą znikać, nawet przy stosunkowo niskich stopach procentowych i właściwie dowolnie wysokich cenach drewna. W warunkach wysokiego stopnia socjalizmu (niskiego t) każdy próbuje się nachapać jak najszybciej, bez oglądania się na przyszłość.

Model nasz, jak każdy dobry model, nie tylko więc wyjaśnia obserwowany stan faktyczny w Europie, tak samo jak i w Afryce, ale i daje odpowiedź na pytanie, w jaki sposób światowe wylesienia powstrzymać i odwrócić. Stanie się tak, kiedy kraje, które na swoim terytorium posiadają ekosystemy tropikalne, będą choćby w przybliżeniu tak wolnorynkowe i praworządne jak kraje europejskie, Nowa Zelandia, czy Japonia. Nie tylko wzrośnie wtedy, docelowo do nieskończoności, oczekiwany czas władania t, ale i napłynie tam kapitał, obniżając stopę procentową r. Lasy Kongo, czy Ekwadoru będą wyglądać jak lasy Szwecji czy Francji wtedy, kiedy same Kongo i Ekwador będą równie praworządne jak Szwecja i Francja, a własność prywatna będzie tam, w przynajmniej porównywalnym stopniu, przez prawo i państwo chroniona.

W powyższych rozważaniach przyjęliśmy, że stosunek b/a zależy wyłącznie od podaży, czyli od odsetka powierzchni lasów w danym kraju. To oczywiście uproszczenie. Popyt też odgrywa znacząca rolę i może modyfikować zachowanie naszego modelu w zauważalnym stopniu. Kiedy zapotrzebowanie na drewno jest niskie, a na płody rolne wysokie, wylesienia będą znacznie większe, niż przy sytuacji przeciwnej. Kiedy jakiś czas temu zaczęto na świecie lansować, produkowane z kukurydzy, „ekologiczne”, tzw. „biopaliwa”, potencjalnie była to moda dla lasów bardzo niebezpieczna. Na szczęście biopaliwa z mody ostatecznie wyszły. Dzisiaj natomiast promuje się ograniczenia w produkcji i użyciu tworzyw sztucznych, plastików. W większości zastosowań najbardziej wygodną dla plastiku alternatywą jest właśnie drewno i materiały drewnopochodne, jak papier. Odejście od plastików spowoduje więc duży wzrost popytu na drewno. Na naszych wykresach jest to równoważne przesunięciu, w bardzo dużym stopniu, równowagi w lewo. Czyli w stronę strefy II a nawet III. Lasy na świecie nie tylko przestaną się kurczyć, ale znów zaczną powiększać swój areał. Co ciekawe, promotorzy tego rozwiązania, w ogóle go w ten sposób nie próbują uzasadniać, chociaż byłoby to znacznie bardziej sensowne i zrozumiałe, niż głoszone w zamian kłamliwe i niewiarygodne tezy o „zanieczyszczeniu środowiska”.

Aby jednak ten efekt wzrostu lesistości w pełni się objawił, potrzebna jest jednak jeszcze odpowiednia wysokość t, Jak widać na drugim wykresie, w krajach źle rządzonych, o niskiej, mniejszej niż ok 20 lat, jego wartości, żadne zwiększanie popytu nic nie da. Lasy i tak zostaną wycięte do końca, a nieudolne i skorumpowane tamtejsze reżimy będą o to obwiniać korporacje, globalny kapitał i „neoliberalizm”.

Węglowe requiem

Ideologii klimatyzmu, bardzo wpływowej obecnie, na poły sekcie religijnej, na poły politycznemu i ekonomicznemu lobby, poświęcił niżej podpisany już wiele artykułów, a nawet całą książkę. Temat jednak nadal jest daleki od wyczerpania. Sekta klimatystyczna, głosi, w największym skrócie, że wskutek kapitalistycznej żądzy zysku i wyzysku, „przeludnienia” i „zbytecznej, nadmiernej konsumpcji”, czeka nas w najbliższej, kilkunastoletniej perspektywie czasowej, totalna zagłada, lawinowy wzrost ziemskiej temperatury, aż do upieczenia całej ziemskiej biosfery włącznie. Bezpośrednią tego przyczyną ma być niekontrolowany wzrost tzw. efektu cieplarnianego, wywoływanego przez CO2 emitowany przy okazji spalania paliw kopalnych – węgla, ropy i gazu. Większa populacja = większa konsumpcja = większe spalanie = więcej CO2 = katastrofa.  Podobnie jak to było w przypadku poprzedzających ich w przestrzeni medialno – społecznej, kreacjonistów, również klimatystyści swoje Ciało Kierownicze mają w USA. Ciało to, o czym autor również miał niejednokrotnie okazję pisać, chociaż jest bez wątpienia bardziej od Ciała kreacjonistów kompetentne i z nauką obeznane, to jest to jednak różnica jedynie ilościowa. Tak samo również, lokalne mutacje klimatyzmu, w tym polska, są jeszcze bardziej przeraźliwie prowincjonalne i zaściankowe, co było widać przy okazji próby wykreowania polskiego odpowiednika Grety Thunberg – próby żałosnej w swojej wtórności i sztuczności.

Klimatyści spoza anglosaskiego kręgu kulturowego, ograniczają się bowiem jedynie do powielania i co najwyżej, tłumaczenia na inne języki, przekazu propagandowego płynącego z centrali. Tłumaczenia zresztą, wskutek luk w ich wykształceniu, bardzo ułomnego. Jednym z przejawów tego zjawiska jest prezentowanie amerykańskich realiów społecznych i ekonomicznych, jako reprezentatywnych także dla kraju, w którym akurat dany odłam klimatystów swoją Prawdę Głosi. Widocznym i bardzo jaskrawym tego przykładem jest notoryczne sprowadzanie „paliw kopalnych”, a nawet całej światowej energetyki w ogóle, wyłącznie do ropy naftowej. Owszem, prawdą jest, że ropa naftowa daje największy wkład w ludzką energetykę, ale jest to nadal jedynie 1/3 całości, choć jeszcze na początku lat 70 XX wieku, była to równo połowa. Obecnie jednak, 2/3 światowej produkcji energii pochodzi z innych, niż ropa naftowa, źródeł. Globalnie. Bo lokalnie, np. w polskiej węglowej rzeczywistości, te proporcje mogą być zupełnie odmienne, co sprawia, że mechanicznie przeniesiona tam klimatystyczna propaganda brzmi już bardzo dziwacznie i fałszywie.

Pod względem sposobów pozyskiwania energii, wszystkie kraje na świecie można bowiem podzielić na cztery główne grupy, w matematyce zwane klastrami. USA, ojczyzna klimatyzmu, podobnie jak Wielka Brytania i wiele innych krajów, w tym np. Japonia i Niemcy, należą do klastra, słusznie mogącego być nazwanego, naftowym. One akurat faktycznie reprezentują cywilizację „opartą na ropie”. Polska jednak, czego nasi lokalni klimatyści zwykle nie zauważają, do tej grupy nie należy. Wraz z Czechami i Ukrainą, ale także Chinami i Indiami, tworzy niewielki liczebnie, ale bardzo wyraźnie wyodrębniony, klaster „węglowy”. Trzecią, również bardzo wyraźnie widoczną grupą, są kraje „gazowe”. Przynależą tu głównie państwa z szeroko pojętego regionu Zatoki Perskiej, Iran, czy emiraty, kraje dawnego ZSRR z Rosją na czele, ale również Argentyna, czy Wenezuela. Udział gazu w mikście energetycznym przekracza tam nawet 80% (Uzbekistan). Najbardziej interesujący jest natomiast klaster czwarty. Obejmuje on kraje, w których poziom zużycia paliw kopalnych jest relatywnie niski. Nazwijmy go więc klastrem „eko”. Jego skład jest dziwny i nieintuicyjny. Obok krajów, których obecności w tej grupie moglibyśmy się spodziewać, jak kraje skandynawskie, Szwajcaria czy Kanada, znajdziemy tam też państwa latynoamerykańskie, Kolumbię Brazylię, Ekwador i Peru. Średni udział poszczególnych źródeł energii w klastrach przedstawia poniższy wykres:

Węgiel 01

Pierwsze, co rzuca się w oczy, to fakt, że kraje „eko” zawdzięczają swój przydomek nieproporcjonalnie wysokiemu udziałowi energetyki atomowej i zwłaszcza wodnej. Natomiast poziom wykorzystania odnawialnych źródeł energii, tzw. „OZE”, chociaż jest tam wyraźnie wyższy niż w krajach węglowych, czy szczególnie gazowych, nie różni się znacząco od tego samego wskaźnika dla krajów naftowych. Tym co łączy te dwa klastry jest także wysoki udział ropy. Ta ostatnia nie jest, jak już o tym wspomniano, w skali świata dominującym nośnikiem energii, ale, z jednej strony jest paliwem, z całej kopalnej triady, najłatwiejszym do transportu i przechowywania, z drugiej zaś, jej podaż, a tym samym cena, jest najmniej przewidywalna i zależna od kaprysów dostawców, którymi są w dominującej części skorumpowane i zamordystyczne reżimy. Pozostałe klastry, węglowy i gazowy, bazują głównie na rodzimych zasobach tych surowców i nie są tak uzależnione ekonomicznie od ich importu. Presja ekonomiczna na szukanie energetycznych alternatyw jest więc w nich zdecydowanie niższa i udział OZE tym samym mniejszy. Ceną za tą względną niezależność od rynków światowych, jest szkodliwa gospodarczo i społecznie dominacja polityczna krajowych monopoli, które te surowce wydobywają i dostarczają. Przeróżnych Gazpromów, Węglokoksów i innych podobnych gangów. Nie jest przypadkiem, że nie ma w tych klastrach żadnego ze światowych liderów cywilizacyjnych. Rozkładają się ci ostatni, w całości pomiędzy kraje naftowe i „eko”

Można postawić prawdopodobną hipotezę, że kraje należące obecnie do klastra „eko”, różnią się od naftowych jedynie tym, że mają bardziej od nich korzystne warunki naturalne do produkcji prądu z elektrowni wodnych (Norwegia, Szwajcaria), lub kiedyś podjęły decyzję polityczną o inwestowaniu w elektrownie jądrowe (Francja). Jedne i drugie zaś, nadal poszukują możliwości odejścia od ropy, co skutkuje inwestycyjnym rozmachem OZE.

Nie jest też dziełem przypadku, że klimatyzm, jako ruch ideowy, jest najsilniejszy właśnie w tych dwóch klastrach, bo tam odpowiada, cóż z tego, że nieadekwatnie, na autentyczne zapotrzebowanie społeczne. W Polsce natomiast pozostaje, jak do tej pory, absurdalnym dziwactwem, bardziej śmiesznym niż strasznym. Jak do tej pory.

Przez sto lat polska, oparta na węglu, energetyka, chociaż zdominowana przez węglowych monopolistów, była w dużej mierze niewrażliwa na światowe kryzysy i gwałtowne wahania cen. Czas ten jednak dobiegł właśnie końca. Łatwe w eksploatacji złoża węgla już się w Polsce wyczerpały, a wydobycie surowca z pozostałych jest coraz droższe. Konsekwentnie, mimo wszystkich wysiłków rządowej biurokracji, stawiającej temu procesowi bariery celne, podatkowe i biurokratyczne właśnie, węgiel krajowy staje się, w stosunku do importowanego, coraz bardziej niekonkurencyjny. Od 2017 roku, po raz pierwszy w spisanej historii, zużycia węgla w naszym kraju było wyższe niż krajowe wydobycie i tym samym Polska stała się zależna od importu węgla, co widać na poniższym wykresie:

Węgiel 02

Zależność ta, będzie się w przyszłości pogłębiać. Wziąwszy pod uwagę, że zużywana w Polsce ropa i gaz również pochodzi z importu, nasza gospodarka staje się coraz bardziej zależna od importu nośników energii, która to sytuacja nie jest na dłuższą metę korzystna politycznie i gospodarczo. Presja ekonomiczna i polityczna na wyjście Polski z klastra węglowego będzie się zatem nasilać.

Jakie są w takim razie alternatywy? Zamiana węgla na ropę czy gaz, ma dwa potencjalne plusy. Paliwa te pozostawiają po sobie znacznie mniej od węgla zanieczyszczeń (gaz – praktycznie wcale), oraz oznaczają koniec krajowych monopolistów energetycznych. Większe za to wpływy uzyskają za to u nas zagraniczne despotyczne kleptokracje, czy islamskie kacykaty. Zamienił stryjek siekierkę na kijek. W dodatku, tak samo jak węgiel, ropa i gaz obciążone będą stale rosnąca opłatą za „emisje CO2”, przy czym dla efektu ekonomicznego nie ma żadnego znaczenia, że te opłaty są merytorycznie nieuzasadnione. Najbardziej perspektywicznie obiecującym rozwiązaniem wydaje się więc przejście bezpośrednio do klastra „eko”. Niestety, z powodu dominującego u nas płaskiego krajobrazu i stosunkowo skąpych opadów, oparcie się na hydroelektrycznym modelu szwajcarskim, czy norweskim, nie wchodzi w Polsce w grę. Pozostają więc realnie dwie możliwości. OZE – wiatr i słońce, oraz energia atomowa. Każda z tych opcji ma swoje wady i zalety. OZE wymagają małego kapitału początkowego i jako źródła bardzo rozproszone, są mniej podatne na kartelowe zmowy producentów. Są jednak OZE kapryśne i zależne od pogody, choć ich słoneczno – wietrzny dualizm częściowo ten efekt łagodzi. W związku z tym potrzebują sprawnej i rozbudowanej sieci energetycznej, zdolnej do taniego magazynowania nadwyżki energii i oddawania jej w okresach deficytu.

Energetyka atomowa z kolei, ze względu na konieczność wyłożenia dużego kapitału początkowego i w związku z tym długiego okresu zwrotu, potrzebuje bardzo stabilnego otoczenia prawno-instytucjonalnego. Energia z tego źródła płynie za to zrównoważonym, przewidywalnym, strumieniem, a także łatwo generuje duże moce, co jest istotne dla przemysłu i wielkoskalowego transportu. Mogłoby się wydawać, że wadą atomu jest też uzależnienie od zagranicznych dostawców paliwa. Jednak ze względu na olbrzymią, milionkrotnie większą niż w paliwach kopalnych, zawartość energii w jednostce masy paliwa jądrowego, konieczna do produkcji energii ilość samego paliwa jest tak niewielka, że to uzależnienie jest też proporcjonalnie milionkrotnie mniejsze niż w przypadku ropy, czy gazu.

Zważywszy dodatkowo na fakt, że technologie te szybciej (OZE), lub wolniej (atom), ale nieustannie, się rozwijają, ustalenie jakie powinny być u nas, w dłuższej perspektywie czasowej, proporcje pomiędzy energią wiatru, słońca i atomu, jest analitycznie niezwykle trudnym, jeżeli w ogóle możliwym do rozwiązania zadaniem. Przestrzelenie z prognozami może zaś mieć niezwykle bolesne ekonomicznie dla Polski konsekwencje.

Zadanie to, nie powinno być zatem rozwiązywane w sposób analityczny, w jakimś rządowym biurze, czy zespole. Nawet gdyby udało się do niego pozyskać najlepszych fachowców, co samo w sobie jest wątpliwe, to przecież oni też są omylni i podatni na korupcję, a ewentualna pomyłka, jak już wspomniano, bardzo brzemienna w negatywne skutki. Optymalne rozwiązanie jest więc, jak to zwykle w podobnych zagadnieniach bywa, numeryczne, iteracyjne, czyli – wolnorynkowe. Ekonomiczna presja na poszukiwanie, alternatywnych do schyłkowego węgla, źródeł energii i tak już w Polsce istnieje, ale uwolnienie rynku, zniesienie dopłat i rekompensat, i urealnienie cen prądu, znacznie ją wzmocni i konieczne procesy inwestycyjne przyśpieszy. Poszukujący zysku inwestorzy będą budować elektrownie. A jakie konkretnie elektrownie – o tym zdecyduje już wolny rynek i rachunek ekonomiczny.

Rolą państwa jest zatem tylko stworzenie wspomnianego już otoczenia prawnego, który pozwoli inwestorom na myślenie w długich kategoriach czasowych, oraz, co najwyżej, jakiś udział w budowie i utrzymaniu odpowiednio rozbudowanej i elastycznej sieci elektroenergetycznej, która energię z różnych, pracujących w rozmaitych technologiach i reżimach, elektrowni będzie w stanie sprawnie do odbiorców i magazynów przekierować i zaabsorbować. Nawet obecnie, mimo że Polsce daleko jest od spełnienia opisanych warunków, prywatne elektrownie są budowane. Elektrownie jeszcze małe i bazujące na OZE, ale i zapowiedź powstania pierwszego w Polsce komercyjnego i prywatnego reaktora jądrowego, też już się pojawiła. Odejście od węgla i podróż w stronę klastra „eko” już zatem trwa. Można i należy ją przyśpieszyć, bo w końcu nawet klimatyści, w swoim przyciężkawym pomyślunku, połapią się, co jest grane i przełożą wajchy propagandy na zwalczanie bezwęglowych technologii. Emisje CO2, co prawda, się zmniejszą, docelowo pewnie do zera, ale  ..za łatwo i za tanio. Nie będzie to wymagało ani redukcji konsumpcji, ani tym bardziej redukcji populacji, a to są przecież główne cele klimatystów.

Dzieci gwiazd

Choć, według wszelkich rozsądnych oszacowań, w Galaktyce powinno roić się od pozaziemskich cywilizacji naukowo technicznych (CNT), czyli takich, które przynajmniej wynalazły radio, to bezpośrednie obserwacje wskazują coś zupełnie przeciwnego. Ani, trwający już od ponad półwiecza, program SETI nie wykrył żadnych pozaziemskich inteligentnych sygnałów radiowych, ani żadnych śladów pobytu przedstawicieli CNT w układzie słonecznym teraz, lub w przeszłości, nie znaleziono. Ta drastyczna rozbieżność pomiędzy przewidywaniami teoretycznymi, a wielkościami obserwowalnymi, nosi nazwę, od nazwiska uczonego, który pierwszy zwrócił na nią uwagę, paradoksu Fermiego.

Budując, a następnie analizując odpowiedni, model powstawania i rozprzestrzeniania się cywilizacji w Galaktyce, tzw. równanie Drake’a i jego rozszerzenia, można wyjaśnić ten brak na dwa sposoby. Albo średni czas istnienia takiej cywilizacji jest ekstremalnie krótki, albo prawdopodobieństwo jej powstania jest skrajnie małe.

Aby jednak wyjaśnić całkowity brak widocznych cywilizacji w Galaktyce tą pierwszą hipotezą, należałoby przyjąć nierealistycznie krótki czas istnienia CNT, rzędu …dziesięciu lat, lub mniej. Za posuchę cywilizacyjną musi zatem odpowiadać drugi parametr – prawdopodobieństwo powstania cywilizacji.

Niniejszy artykuł jest próbą oszacowania owego prawdopodobieństwa, poprzez potraktowanie zjawiska cywilizacji naukowo technicznej, jako skrajnego przypadku fenomenu znacznie lepiej naukowo poznanego i opisanego – życia.

Lepiej, nie oznacza jednak wcale, że wystarczająco dobrze. Nadal nie potrafimy fenomenu życia w laboratorium odtworzyć, zatem nie możemy twierdzić, że na pewno już wszystko o nim wiemy. Według jednak obecnego stanu wiedzy, do powstania i istnienia życia potrzebne są trzy elementy. Obecność wody w postaci ciekłej, dostępność odpowiednich pierwiastków i związków mineralnych, oraz jakieś źródło energii. Te trzy warunki są do zaistnienia zjawiska życia konieczne, ale jednak nie są wystarczające. Potrzebny jest jeszcze czwarty element, zwykle w rozważaniach tego rodzaju pomijany.

W największym możliwym uproszczeniu, z chemicznego punktu widzenia, życie to proces redukcji CO2 najczęściej w wyniku reakcji z wodorem, chociaż przebiegający w sposób niekiedy niesłychanie złożony. Aby ta reakcja, jak każda inna dowolna reakcja chemiczna, mogła w sposób ciągły zachodzić, potrzebny jest, również stale się utrzymujący, gradient, czyli różnica stężenia substratów i produktów, oraz ciągły strumień energii. Potrzebny jest zatem stan nierównowagi termodynamicznej. Ignorowanie tego wymogu spowodowało fiasko wszystkich dotychczasowych modeli powstania życia z „pierwotnego bulionu” cząsteczek organicznych, czy w innych proponowanych „pierwotnych” środowiskach pozostających jednak, tak samo jak „bulion”, w równowadze termodynamicznej. „Zupa pierwotna”, pozostawiona sama sobie, nie tylko, ignorując wysiłki pokoleń biochemików, nigdy żadnego życia nie stworzy, ale po jakimś czasie rozpadnie się na prostsze związki. Pierwsze prawo ekologii głosi, że „energia przepływa, materia krąży”, lecz dotyczy to dzisiejszej ziemskiej, rozbudowanej i złożonej biosfery. W samych początkach życia musiała przepływać nie tylko energia, ale również materia, a w „pierwotnym bulionie”, ani jedno, ani drugie, nie było możliwe.

Pojęcie „życie”, a już na pewno „życie pozaziemskie” jest w ogóle bardzo nieprecyzyjne. Gdyby przeprowadzić jakiś sondaż, co mianowicie zwykle się pod tym terminem rozumie, to zapewne okazałoby się, że wygrywa skojarzenie z jakimiś „zielonymi ludzikami”, istotami świadomymi, inteligentnymi, a do tego jeszcze humanoidalnymi. Tymczasem realnie fenomen życia można, pod względem stopnia jego złożoności, podzielić na sześć poziomów. Pierwszy (I) z nich to proste, pozbawione jądra i bardziej skomplikowanych struktur zwanych organellami komórki prokariotyczne, bakterie i archeony. Pod względem biochemicznym są one (na Ziemi) niezwykle zróżnicowane, ale pod względem budowy i morfologii aż nudne w swojej monotonności. Drugi (II) poziom komplikacji, to eukarionty, komórki z jądrem komórkowym i innymi skomplikowanymi organellami, mitochondriami, czy chloroplastami. Przedstawicielami tego poziomu są omawiane w szkole pantofelek, czy euglena. Poziom III, to duże, makroskopowe organizmy zbudowane z oddzielnych tkanek, znane na Ziemi jako rośliny, grzyby, i zwierzęta. Poziom IV to istoty z rozbudowanym układem nerwowym prowadzące złożone życie społeczne, na Ziemi z grubsza odpowiadałyby by im ptaki, ssaki oraz przynajmniej część gatunków kałamarnic i ośmiornic. Wreszcie poziom piąty (V) to istoty świadome i inteligentne, czyli Homo sapiens, oraz być może jego wymarli krewniacy, neandertalczycy, czy hobbici. Poziom VI to oczywiście szukana przez nas cywilizacja naukowo techniczna, zdolna do komunikacji międzygwiezdnej i przemieszczania się w kosmosie. Jak już wspomniano na wstępie, bardzo prawdopodobne, że istnieje tylko jedna taka we Wszechświecie, a przynajmniej w naszej Galaktyce – my sami.

Życie we Wszechświecie podzieliliśmy więc na kategorie pod względem poziomu komplikacji budowy i behawioru, czyli pod względem ilości zawartej w nim informacji. Informacja zaś jest, w pewnym uproszczeniu, odwrotnością parametru znanego w fizyce jako entropia, miara nieuporządkowania. Zgodnie z II zasadą termodynamiki, entropia nie może samorzutnie zmaleć, zatem aby utrzymać swój niski poziom entropii, organizmy żywe muszą, poprzez procesy metaboliczne, zwiększać entropię swojego otoczenia. Tym szybciej, im wyższy poziom komplikacji, czyli niższy entropii, same reprezentują. Odbywa się to głównie przez utratę ciepła. Im szybsza jest owa utrata, tym wyższy stopień komplikacji organizmy żywe mogą osiągnąć. Nieprzypadkowo właśnie na naszej planecie poziom IV złożoności reprezentowany jest w większości przez organizmy stałocieplne (endotermiczne), a w mniejszości przez organizmy bytujące w zimnych wodach, gdzie utrata ciepła jest znacznie, niż na lądzie, łatwiejsza. Proces wypychania nadmiaru entropii na zewnątrz organizmu, jest tym łatwiejszy, im niższa entropia w owym zewnętrzu panuje. Życie zatem może w procesie ewolucji osiągnąć tym wyższy poziom komplikacji, im środowisko, w którym występuje, ma niższą entropię.

Przechodząc od opisu jakościowego, do ścisłych rachunków ilościowych, wymodelujemy teraz życie na podobieństwo …maszyny parowej pana Watta. Analogia ta jest znacznie bliższa prawdy, niż mogłoby się to wydawać, bo w końcu maszyna parowa nie musi działać koniecznie na parze, ani być zbudowana z nitowanego żeliwa. Każdy inny materiał, czy czynnik roboczy też się nadaje, aby można było mówić o wyidealizowanej maszynie parowej, czyli silniku cieplnym, przerabiającym ciepło na pracę.

Zgodnie ze wspomnianą już II zasadą termodynamiki, proces taki nie jest możliwy ze 100% wydajnością. Maksymalną teoretycznie możliwą wydajność maszyny cieplnej osiąga się w tak zwanym cyklu Carnota (dla ciekawskich sprężanie izotermiczne, sprężanie adiabatyczne, rozprężanie izotermiczne, rozprężanie adiabatyczne). Podkreślić należy, ze sprawność cyklu Carnota jest fundamentalnym ograniczeniem wynikającym z samej natury, takim samym co do zasady, jak prędkość światła, stała Plancka, czy zero bezwzględne. Owa sprawność Carnota to

n = (T1-T2)/T1

Gdzie T1 jest temperaturą źródła ciepła (w Kelwinach), natomiast T2 to temperatura chłodnicy, otoczenia, do którego ciepło jest odprowadzane. Energia dostępna dla życia na danej planecie, niezależnie od jej pochodzenia, nigdy nie może być wykorzystana w całości, a tylko w części dopuszczonej przez powyższą zależność. Ową dostępną życiu energię, będziemy odtąd nazywać energią życiową. Jak wynika z przytoczonego wzoru, jej wielkość zależy od różnicy temperatur źródła energii i chłodnicy. Temperatura chłodnicy T2 to po prostu średnia temperatura planety, na której rozwija się życie. Można założyć, że ze względu na wspomnianą wyżej konieczność istnienia ciekłej wody, będzie owa temperatura, dla globów obdarzonych życiem, z grubsza stała. A temperatura źródła? Jeżeli podstawowym źródłem energii dla pozaziemskiego życia, będzie światło jego macierzystej gwiazdy, to tą temperaturą będzie temperatura samej gwiazdy, Tg, w przypadku Słońca, 5772 Kelwiny.

Energia życiowa równa się zatem

Eż = F*(Tg-Tp)/Tg

Gdzie F to strumień promieniowania docierający do powierzchni planety. Równanie to możemy jeszcze uprościć. Zgodnie bowiem z prawem Stefana-Boltzmana, utrzymanie planety w odpowiedniej, umiarkowanej temperaturze, wymaga  stałego strumienia energii. F jest bowiem funkcją Tp, dokładnie jej czwartej potęgi.

Energia życiowa zatem ostatecznie zależy wyłącznie od temperatury gwiazdy. Życie na danej planecie może osiągnąć tym większy stopień komplikacji, im wyższa jest ta temperatura.

Średni czas, nazwijmy go Lc, w jakim dana gwiazda jest w stanie wygenerować dany poziom komplikacji życia w swoim bezpośrednim otoczeniu, w tym oczywiście poziom VI – cywilizacyjny, byłby zatem odwrotnie proporcjonalny do jej temperatury.

Lc = A*(Ts/Tg)

Gdzie Ts to temperatura Słońca (5 772 kelwiny), a A pewna stała proporcjonalności.

Powyższe równanie jest więc termodynamicznym ograniczeniem średniego czasu powstawania cywilizacji.

Przyjęto tu jeszcze jedno niejawne założenie, że całość strumienia energii utrzymującego dany glob w temperaturze dogodnej dla życia, pochodzi z macierzystej gwiazdy. Tak jednak wcale być nie musi. Istnieją co najmniej dwa zjawiska, które mogą utrzymać w środowisku planetarnym ciekłą wodę, bez angażowania w to światła gwiazdy. Jednym z nich jest, pochodzące z rozpadów radioaktywnych, procesów pływowych, bądź nawet reakcji chemicznych, ciepło geotermalne. Na Ziemi nie odgrywa ono znaczącej roli, choć w głębinach oceanu utrzymuje całe, całkowite odcięte od światła słonecznego ekosystemy w tzw. kominach geotermalnych. Istnieją natomiast, nawet w naszym układzie słonecznym, globy, takie jak księżyce Jowisza i Saturna, gdzie ciepło geotermalne jest wystarczająco silne, żeby stopić lód i utworzyć przepastne, ogromne w porównaniu z ziemskimi, oceany. Prawdziwe, kompletnie odcięte od światła słonecznego, Czarne Oceany.

Warunki do powstania życia są w nich bardzo korzystne, natomiast do jego dalszej ewolucji ku bardziej złożonym formom, beznadziejnie słabe. Energia geotermalna ma niską, w porównaniu ze światłem gwiazdy, temperaturę, a zatem i wysoką entropię. Materia krąży, a energia (życiowa) przepływa, ale przepływa bardzo wąziutką strużką, o dwa rzędy wielkości od ziemskiej wątlejszą. Żyjące w tamtejszych kominach hydrotermalnych czarne ekosystemy składałyby się zatem wyłącznie z prokariontów (poziom I). Ten wniosek jest w pozornej sprzeczności z tym co wiemy o ziemskim środowisku tego typu, które grupuje bardzo złożone biomy, z organizmami poziomu III włącznie, ale trzeba uświadomić sobie, że dzieje się tak tylko dzięki obecności wolnego tlenu. Wydajność oddychania tlenowego wynosi ok 40%, podczas gdy oddychanie w środowisku beztlenowym nie przekracza 1% wydajności. Dlatego tylko w środowisku natlenionym możliwe są bardziej złożone łańcuchy troficzne, zależności typu drapieżnik – ofiara i związany z tym ewolucyjny „wyścig zbrojeń”, co napędza również pozornie odcięte od energii słonecznej ekosystemy kominów. Przy pięciu ogniwach łańcucha pokarmowego ostatnie z nich ma jeszcze przy wykorzystaniu oddychania tlenem do dyspozycji 0,4^5 = 1% pierwotnej energii, podczas gdy w środowisku beztlenowym byłoby to część tylko 0,01^5 = jedna …dziesięciobilionowa. Bez tlenu drapieżnictwo zatem w ogóle się nie opłaca. Tlen zaś może powstać tylko w wyniku pozyskiwania przez procesy życiowe potrzebnych do redukcji CO2 elektronów drogą fotosyntezy z wody. A to z kolei, z uwagi na bardzo silne wiązania chemiczne spajające cząsteczki wody, wymaga energii naprawdę bardzo „wysokiej jakości” (niskiej entropii), jaką tylko światło słoneczne jest w stanie zapewnić. Czarne Oceany są zatem beztlenowe, życie w nich nie przekracza poziomu I, a scena spotkania z podwodną cywilizacją z Europy, jaką uraczył widzów James Cameron w filmie „Aliens of the deep” jest czystą fantazją, nigdy nie mającą szans na realizację w praktyce.

Drugim zjawiskiem mogącym podgrzać planetę ponad naturalny, wynikający tylko z nasłonecznienia, poziom, jest efekt cieplarniany. Polega on niejako na uwięzieniu w atmosferze części docierającego do planety promieniowania. To wtórne promieniowanie dogrzewa dodatkowo powierzchnię planety. Niestety, jest to promieniowanie podczerwone, mające wyższą niż promieniowanie gwiazdy, entropię. Znów zatem, im silniejszy jest efekt cieplarniany, tym nierównowaga termodynamiczna mniejsza i mniejsza też szansa, mimo teoretycznie odpowiedniej temperatury, na istnienie w takim miejscu bardziej złożonych form życia.

Aby dokonać kolejnego kroku w naszym rozumowaniu musimy sięgnąć teraz po znany w astronomii diagram pokazujący zależność pomiędzy masą a temperaturą gwiazdy, zwany też diagramem Hertzsprunga – Russela. Większość swojego życia gwiazdy spędzają świecąc stabilnie na tzw. ciągu głównym tego diagramu. Ich temperatura zależy wtedy z grubsza od pierwiastka kwadratowego z ich masy. Gwiazda czterokrotnie bardziej masywna, ma dwukrotnie wyższą temperaturę powierzchni. Można by się zatem naiwnie spodziewać, że gwiazdy bardziej masywne będą bardziej sprzyjały powstaniu cywilizacji. Niestety, gwiazdy bardziej masywne żyją też krócej. Tempo reakcji jądrowych napędzających gwiazdę rośnie wraz z jej masą dużo szybciej niż temperatura. Chociaż średni czas w jakim dochodzi do narodzin cywilizacji, Lc, maleje w przybliżeniu wraz z pierwiastkiem kwadratowym masy gwiazdy, czyli do potęgi 0,5, to czas pobytu danej gwiazdy na ciągu głównym, maleje proporcjonalnie do potęgi 2,5 jej masy. Zależności te pokazano na wykresie nr 1

Cywgw 01

Ponieważ, wraz ze wzrostem masy, czas pobytu danej gwiazdy na ciągu głównym skraca się szybciej niż średni czas powstawania CNT, istnieje taka maksymalna masa, powyżej której gwiazda cywilizacji nie wygeneruje nigdy. Tę granicę nazwiemy granicą nuklearną. Dodatkowo, ponieważ życie, a zatem i cywilizacja, wymaga obecności odpowiedniego zestawu metali, pierwiastków cięższych od wodoru i helu, gwiazda macierzysta musi je zawierać, czyli realnie należeć do tzw. I populacji, co tworzy trzecie, kosmologiczne ograniczenie. Gwiazdy I populacji nie mogły bowiem powstawać we Wszechświecie dawniej niż 10 mld lat temu. Jeżeli więc dla danej gwiazdy średni czas Lc jest dłuższy niż ta granica,  to, nawet jeżeli sama gwiazda może istnieć znacznie dłużej, cywilizacja tam jeszcze nie powstała.

Niestety, chociaż zależności między masą gwiazdy, a jej temperaturą i czasem życia, astronomia ustaliła z bardzo dużą dokładnością, to stała proporcjonalności A, wiążąca czas powstania cywilizacji i temperaturę gwiazdy, pozostaje nieznana. Znamy tylko jedną cywilizację a wnioskowanie z jednostkowego przykładu jest w statystyce niedopuszczalne. Gdyby jednak nasza cywilizacja była przeciętna, to średni czas powstania cywilizacji w okolicy gwiazdy o temperaturze Słońca wynosiłby A = 4,5 mld lat. Sytuacja wyglądałaby jak na wykresie poniżej:

Cywgw 02

Wszystkie trzy wymienione ograniczenia na powstanie cywilizacji, tworzą trójkątne pole, zaznaczone na wykresie na niebiesko. Pokazuje ono, ile cywilizacji powstało we Wszechświecie do tej pory. Pozornie niewielkie rozmiary tego pola mogą być mylące. Po pierwsze skala wykresu jest logarytmiczna. Najstarsze cywilizacje, położone blisko prawego dolnego rogu trójkąta, powstały już …6,3 miliarda lat temu. Cywilizacje wygenerowane przez gwiazdy mniejsze i chłodniejsze od Słońca, te z lewej części trójkąta, są oczywiście młodsze. Ale ponieważ, to po drugie, gwiazd mniejszych jest we Wszechświecie znacznie więcej niż gwiazd bardziej masywnych, cywilizacji wokół takich gwiazd, powinno być w naszej Galaktyce nieprzeliczone mrowie. Nawet zatem przy bardzo krótkim, ale pozostającym w granicach rozsądku, średnim czasie istnienia takiej cywilizacji, powinniśmy obserwować masę sygnałów SETI, a i odwiedziny pozaziemskich kosmolotów powinny zdarzać się w miarę często.

Jasne więc jest, że ziemska cywilizacja w żadnej mierze przeciętną być nie może i stała A musi być znacznie większa. Rozważmy teraz sytuację, kiedy równa się ona 10 mld lat.

Cywgw 03

Teraz sytuacja jest zupełnie inna. Niebieski trójkąt znika, a najstarsze cywilizacje powstają w Galaktyce wokół gwiazd podobnych do Słońca i właśnie teraz. To nam, Ziemianom przypada teraz ten zaszczyt, że jesteśmy we Wszechświecie jaki pierwsi.

Spotykane w literaturze przedmiotu próby rozwiązania paradoksu Fermiego skupiają się zwykle wokół krótkiego czasu trwania cywilizacji, postulując jej szybką zagładę, a to w wyniku globalnej wojny termojądrowej (hipotezy dawniejsze), a to z powodu wyczerpania planetarnych zasobów i zniszczenia środowiska (hipotezy współczesne). Te, będące w mniejszości, wyjaśnienia, odwołujące się do nikłego prawdopodobieństwa powstania CNT, próbują je wytłumaczyć właściwościami planet (tzw. hipoteza rzadkiej Ziemi). Tymczasem odpowiedź, jak się wydaje tkwi raczej we charakterystyce termodynamicznej samych gwiazd i stosunkowo młodym jeszcze wieku Wszechświata.

Ziemska cywilizacja powstała jako pierwsza, ponieważ nie tylko znajduje się koło najbardziej masywnej, a zatem wytwarzającej też na swoich planetach najniższą entropię, gwiazdy, która cywilizację w ogóle może wygenerować, ale i znajduje się w lewym ogonie rozkładu. Powstała bowiem znacznie wcześniej, niżby wynikało to tylko ze średniej dla danego typu gwiazdy.

Szczęście i wynikające z niego pierwszeństwo Ziemian we Wszechświecie, a już na pewno w Galaktyce, jest jeszcze większe, jeżeli weźmiemy pod uwagę bardziej subtelne zjawiska astrofizyczne. Założenie, od którego zaczynaliśmy nasze rozważania, nie jest bowiem do końca spełnione.

To, że gwiazda przebywa na ciągu głównym, nie oznacza bowiem, że w tym czasie nic się z nią nie dzieje. W ciągu tego okresu temperatura, jak i ilość emitowanej przez gwiazdę energii również się zmieniają i to dość znacząco. Słońce staje się jaśniejsze mniej więcej o 10% na każdy miliard lat przebywania w ciągu głównym, co ma oczywiście wpływ na ziemską biosferę. W odległych epokach geologicznych, energia życiowa Ziemi, choć nie, podtrzymywana przez, dużo silniejszy niż dziś, efekt cieplarniany, temperatura, była mniejsza niż obecnie i konsekwentnie życie ziemskie miało niski poziom komplikacji. Przez 2 miliardy lat nie przekraczało poziomu I, potem, przez kolejny miliard, zwany nie bez kozery nudnym miliardem, poziomu II. Okres ten zakończony został dość nagłym zmniejszeniem się ziemskiego efektu cieplarnianego, co spowodowało serię potężnych zlodowaceń, zwanych też „ziemią śnieżką”. Podniosła się energia życiowa i tym samym ziemska biosfera mogła przejść na poziom III. Dalsze rozgrzewanie się Słońca i kolejna seria zlodowaceń w karbonie i permie podniosło ziemskie życie na poziom IV, wreszcie ostatnia redukcja efektu cieplarnianego i zlodowacenie plejstoceńskie na poziom V. Inteligentne istoty z poziomu V sięgnęły po inne niż fotosynteza źródła energii i rozpoczęły budowę, ledwo 200 lat temu, cywilizacji, czyli poziomu VI. Obecnie ziemski efekt cieplarniany jest już bardzo niewielki i dalej już obniżony być nie może, a zatem i energia życiowa osiągnęła swoje maksimum. Dalsze rozgrzewanie Słońca będzie rozgrzewać także Ziemię. Ziemskie Tp zacznie rosnąć i za miliard lat, znacznie wcześniej niż Słońce opuści ciąg główny, życie na Ziemi w ogóle przestanie być możliwe.

Ten proces stopniowego rozgrzewania gwiazdy, szybszy dla gwiazd bardziej masywnych, nakłada dodatkowe ograniczenia na powstanie cywilizacji, zmniejszając liczbę zdatnych do tego gwiazd od strony większych mas. Teoretycznie cywilizacje mogłyby powstawać licznie koło gwiazd podobnych do Słońca w końcowym okresie ich życia, ale uniemożliwia to opisane zjawisko. Realny czas życia gwiazdy na ciągu głównym trzeba w związku z tym skrócić mniej więcej dwukrotnie, co jest równoznaczne z przesunięciem granicy nuklearnej w lewą stronę wykresu. Zjawisko to miałoby natomiast zaskakujące konsekwencje w przypadku gwiazd małomasywnych – czerwonych karłów. Żyją one tak długo i rozgrzewają się tak powoli, że w ciągu swojego życia mogłyby utworzyć nie jedną, a kilka cywilizacji na kolejnych wchodzących stopniowo w powoli rozszerzającą się ekostrefę planetach. Każdą kolejną, wskutek wzrostu w tym czasie swojej temperatury, szybciej niż poprzednie.

Zakres możliwych dla zaistnienia cywilizacji mas i jasności gwiazd w obecnym Wszechświecie jest zatem bardzo wąski. Podobnie wąski jest zakres czasowy w jakim cywilizacja może powstać, nawet wokół właściwej gwiazdy. Pół miliarda lat temu nie było to jeszcze na Ziemi możliwe, za pół miliarda lat będzie już na to za późno. W dodatku, nawet przy maksymalnym obecnym poziomie Eż, przejście na poziom V i VI też nie musi być wcale automatyczne i nieuchronne. Per analogiam, o ile osiągniecie poziomu III i IV odbyło się na Ziemi w sposób polifiletyczny, czyli wiele razy niezależnie w różnych taksonach ewolucyjnych, o tyle z kolei poziom II został osiągnięty wyłącznie raz – monofiletycznie, co świadczy o tym, że sam odpowiedni poziom energii życiowej, nie wystarczy do tego celu i potrzebne były jakieś dodatkowe czynniki, których wystąpienie było mało prawdopodobne. Tak samo może być i z poziomem V, czy VI.

O ile samo życie jest więc zapewne we współczesnym Wszechświecie czymś powszechnym i często spotykanym, o tyle cywilizacje muszą być ekstremalnie mało prawdopodobną odchyłką od średniej, a ich powstanie wymaga wstrzelenia się w bardzo rzadko występujące warunki. Nie należy się zatem dziwić paradoksowi Fermiego i fiasku programu SETI. To nieunikniona konsekwencja praw termodynamiki.

Wszechświat, w myśl opisanej hipotezy, generuje życie i cywilizacje na podobnej zasadzie jak generuje pierwiastki, galaktyki, gwiazdy i planety. I podobnie jak w tamtych przypadkach muszą być spełnione ku temu odpowiednie warunki, które we Wszechświecie dzisiejszym spełnione jeszcze nie są. Era Gwiazdowa we Wszechświecie trwa od dawna, ale Era Cywilizacji jeszcze nie nadeszła, a Ziemia jest ekstremalnie mało prawdopodobną fluktuacją statystyczną. Jesteśmy sami we Wszechświecie i długo jeszcze sami pozostaniemy. Jak długo? Na ostatnim wykresie przedstawmy Wszechświat za 5 miliardów lat. W stosunku do wykresów poprzednich powiększono najbardziej interesujący fragment.

Cywgw 04

Ponieważ istniejemy, można by stwierdzić, że Era Cywilizacji już się we Wszechświecie zaczęła. Jednak, jak już wspomniano, ziemska cywilizacja narodziła się przedwcześnie i pomógł jej w tym szczęśliwy traf. Wskutek niestabilności gwiazd na ciągu głównym, jeszcze przez kolejne 3,1 miliarda lat, cywilizacje we Wszechświecie będą bardzo elitarne. Będą powstawać koło gwiazd z zakresu [0,7 – 1] mas Słońca, ale rzadko i nieregularnie. Upłyną pewnie dziesiątki milionów lat, zanim w naszej Galaktyce powstanie kolejna CNT. Sytuacja zmieni się dopiero wtedy, kiedy proces powstawania CNT ogarnie gwiazdy o mniejszej, od tego przedziału, masie. Wtedy cywilizacje będą mogły powstawać na naprawdę masową skalę, liczoną w setkach milionów na galaktykę. Chyba że nie dopuszczą do tego starsze cywilizacje elitarne. Mając na to miliardy lat czasu, bez żadnego problemu mogą rozprzestrzenić się w Galaktyce i urosnąć do poziomu III w klasyfikacji Kardaszewa i tym samym zablokować proces powstawania cywilizacji masowych – drugiej generacji, dopuszczając go, być może, w jakichś zapadłych zakątkach galaktyki na zasadzie ciekawostki, podobnie jak dzisiejsza ziemska cywilizacja planetarna zachowała gdzieniegdzie zacofane enklawy łowców – zbieraczy.

Powyższy artykuł został opublikowany w 83 numerze miesięcznika „Astronomia” w maju 2019 roku

Jeśli chcesz wiedzieć więcej, przeczytaj:

[1] Artymowicz P. „Astrofizyka układów planetarnych” Wydawnictwo naukowe PWN 1995

[2] Lane N. ”Pytanie o życie. Energia, ewolucja i pochodzenie życia” Prószyński i s-ka 2016

[3] Lane N. „Największe wynalazki ewolucji” Prószyński i s-ka 2012

[4] Weiner J. „Życie i ewolucja biosfery” Wydawnictwo naukowe PWN 2008

[5] Shu F. „Galaktyki, gwiazdy, życie” Prószyński i s-ka 2003

[6] Stocker H. „Nowoczesne kompendium fizyki” Wydawnictwo naukowe PWN 2010

[7] Kubiak M. „Gwiazdy i materia międzygwiazdowa” Wydawnictwo naukowe PWN 1994

[8] Adamczyk M. „A kosmos milczy, milczy, milczy…” Astronomia nr 28 październik 2014

Nieucy o klimacie

Na przełomie XX i XXI wieku, pewien rozgłos uzyskała, wywodząca się z fundamentalistycznych odłamów protestantyzmu, sekta kreacjonistyczna. Jej przedstawiciele, a wśród nich także osoby z tytułami naukowymi, byli wtenczas bardzo aktywni medialnie, gorliwie podkreślając, że „naukowcy już dawno odrzucili teorię ewolucji” i zapewniając, z jak wielkim rozmachem setki, czy tysiące naukowców prowadzą badania naukowe „inteligentnego projektu”.  Elokwentnie przekonywali, że przecież jest niemożliwe, aby gatunki, ekosystemy, planety, gwiazdy i galaktyki zmieniały się „same z siebie”, „na skutek przypadku” i jakiś Ktoś, „jakaś inteligencja” po prostu musi tym wszystkim kierować. Sztandarową publikacją, za pomocą której do kreacjonizmu zachęcano, była wtedy książka „Na bezdrożach teorii ewolucji” Johnsona. Praca ta pozowała na dzieło „naukowe”, używała naukowo brzmiącej terminologii, a jej autor co rusz zapewniał czytelników, że darwinowska teoria ewolucji jest „nienaukowa” i już dawno została przez naukę odrzucona i tylko wyjątkowo uparci „denialiści” nie chcą przyjąć tego jeszcze do wiadomości.

Równocześnie jednak, to pretendująca do „naukowości” książka, roiła się od, często monstrualnych, na poziomie szkoły podstawowej błędów, oraz celowych przekłamań, oczywistych dla każdego, kto odebrał jakąkolwiek edukację na poziomie przynajmniej średnim.

Kreacjonizm jednak, po kilkunastu latach medialnego brylowania, stopniowo zanikł, a dokładnie został z przestrzeni społecznej wyparty przez ideologię, jeżeli chodzi o podstawy (a właściwie ich brak) merytoryczne i naukowe, bliźniaczo wręcz podobną, ale znacznie bardziej finansowo, politycznie i prestiżowo dla swoich głosicieli atrakcyjną. Ideologię klimatyzmu.

Klimatyzm głosi, że „sam z siebie” nie może zmieniać się nie, jak twierdzili kreacjoniści, ziemski ekosystem, ale klimat. I jest on sterowany, nawet nie przez jakąś bliżej nieokreśloną „inteligencję”, ale przez inteligencję bardzo konkretną – ludzką. Ludzie bowiem i ich cywilizacja emitują ogromne ilości tzw. gazów cieplarnianych, a szczególnie dwutlenku węgla i tym samym, według klimatyzmu, zwiększają, polegający, w dużym uproszczeniu, na uwięzieniu w atmosferze części promieniowania słonecznego, ziemski efekt cieplarniany. W konsekwencji globalne temperatury mają lawinowo rosnąć, aż do upieczenia całej ziemskiej biosfery i zamiany Ziemi w drugą Wenus, włącznie.

Podobnie, jak to było w przypadku kreacjonizmu, również nasz lokalny polski klimatyzm, jest zdecydowanie wtórny i stanowi tylko prowincjonalną mutację klimatyzmu amerykańskiego. Już sami owi pierwotni klimatyści anglosascy, nie są zbytnio z nauką obznajomieni, skoro ich medialnym „frontmenem” musiała, z braku lepszych, bardziej kompetentnych kandydatów, zostać niepełnosprawna szwedzka licealistka. Poziom merytoryczny klimatyzmu polskiego, musi być więc jeszcze niższy. Jego przedstawiciele pozują na bardzo naukowych, choć po bliższym przyjrzeniu się, widać, że z tą naukowością jest bardzo „nie bardzo”. Sztandarowym dziełem i swoistym manifestem polskiego klimatyzmu jest pozycja „Nauka o klimacie”. (Nok) Jej omówieniu poświęcony będzie właśnie niniejszy esej.

Książka ta poraża czytelnika już na pierwszy rzut oka. Samą edycją. Autorzy deklarujący głęboką troskę o stan środowiska i zużycie ziemskich zasobów przyrodniczych, na wydanie swojego opus magnum oszczędzać tychże zasobów wyraźnie nie mieli zamiaru. Twarda okładka, wysokiej jakości, albumowy, papier, liczne kolorowe grafiki i zdjęcia, zużyły przecież masę nieodnawialnych zasobów naszej planety. Informacji, ile gazów cieplarnianych zostało wyemitowane w związku z drukiem tej książki, próżno jednak szukać. Poświęcona z grubsza tej samej tematyce, książka Marcina Adamczyka „Mity globalnego ocieplenia”, przy dwukrotnie niższej cenie, waży od „Nauki o klimacie” sześciokrotnie mniej. Proste przeliczenie prowadzi do konkluzji, że treść tej ostatniej książki jest od „NoK” trzykrotnie bardziej wartościowa.

A jak jest w takim razie z treścią „Nok”?

Tutaj od razu należy przyznać, że merytorycznie, pod względem naukowym, biją klimatyści kreacjonistów na głowę. Ilość i ciężar gatunkowy błędów, czy celowych zafałszowań, jest w „Nok” zauważalnie niższa, niż u wspomnianego Johnsona. Niestety jednak, jest to różnica wyłącznie ilościowa. W trakcie lektury widać bowiem, że autorzy „NoK” piszą rzeczach znanych im wyłącznie ze słyszenia, nawet, jeżeli się do tego słuchania starali pilnie przykładać. Świadczy o tym nawet używane słownictwo, np. „równowaga energetyczna”, w miejsce utartego w polskiej nomenklaturze naukowej zwrotu „równowaga termodynamiczna”, a także traktowanie ropy jako głównego „paliwa kopalnego”, co jest prawdą w USA, skąd klimatyzm pochodzi, ale do polskich węglowych realiów niezupełnie pasuje.

 Na stronie 23 „Nok”, oznajmia się z kolei czytelnikowi, że średnia temperatura powierzchni Ziemi wynosi 14 stopni Celsjusza, podczas gdy już w tabelce na stronie 56 możemy zobaczyć, że jest to 288 Kelwinów, czyli …15 stopni. Różnica jednego stopnia może nie wydawać się wielka, ale przecież o tyle właśnie, wg dogmatów klimatystów, miały wzrosnąć temperatury na Ziemi od „okresu przedprzemysłowego”. Czyżby zatem ten rzekomy wzrost był jedynie artefaktem pomiarowym, wynikającym z nieumiejętności klimatystów, przeliczenia temperatury w różnych skalach? Autorzy najwyraźniej nie wiedzą też nic o istnieniu drugiej zasady termodynamiki i cyklu Carnota. Jest to fundamentalne, wynikające z samej natury, ograniczenie wydajności, z jaką można przekształcić ciepło na pracę. Tymczasem, na stronie 231 „Nok”, czytamy, że „W wypadku paliw ciekłych, spalanych w pojazdach, […] przyjmuje się, że energia końcowa […] równa jest dostarczonej energii pierwotnej” [sic!!!]. Jak wynika z tego dosłownego cytatu, klimatyści święcie wierzą, że silnik spalinowy mógłby w zasadzie, wbrew termodynamice, przerobić całą energię cieplną zawartą w paliwie na ruch pojazdu, a jedynym ograniczeniem są w tej materii kwestie inżynierskie.

Podobnie też jak kreacjoniści, autorzy „Nok”, zamiast pojęć ścisłych, precyzyjnych i ilościowych, lubią używać metafor, przenośni, alegorii, porównań i innych poetyckich środków wyrazu. Najczęściej zupełnie nieadekwatnych. Tak jest przykładowo z rozdziałem 2.1, gdzie przedstawiono planetę Ziemię jako …domek. Domek ogrzewany piecykiem – czyli w tej analogii promieniowaniem słonecznym i pokryty izolacją – czyli powodującą efekt cieplarniany atmosferą. Nie fatyguje się jednak czytelników informacją, że taki domek na prerii traci ciepło przede wszystkim w wyniku przewodzenia przez ściany i dach. Planety zaś, wyłącznie w wyniku promieniowania. Tempo tego pierwszego procesu zależy od różnicy temperatur w środku i na zewnątrz. Tego drugiego zaś, od różnicy czwartych potęg temperatur. To bardzo znacząca różnica. Gdyby opisywany w „Nok” domek był planetą, to po podwojeniu wpływającego do niego strumienia energii, jego temperatura nie wzrosła by o 10 stopni, jak w „domkowej” alegorii, ale o ponad 60.

Mimo tej ogólnej niekompetencji naukowej, pojawiają się w książce także istne perełki. W rozdziale 2.5, ni z tego ni z owego, przedstawiony jest, jak najbardziej prawidłowo wyprowadzony, wielowarstwowy model efektu cieplarnianego. Niestety, tylko tyle. Mając już taki gotowy model, autorzy nigdzie później się do niego nie odwołują i z niego nie korzystają. Nie jest to bynajmniej przypadkowe zapomnienie.

W tabeli 2.9.1 podano bowiem niezwykle ważną informację, że gdyby w ziemskiej atmosferze, znajdował się, z gazów cieplarnianych, jedynie CO2, to pochłaniałby on wtedy 24,6% ziemskiego promieniowania podczerwonego. Czyli, dla dwutlenku węgla, liczba warstw cieplarnianych, w modelu wielowarstwowym efektu cieplarnianego, tak zwana grubość optyczna atmosfery, wynosiłaby na Ziemi n = 0,246. Wracając następnie do tabeli 2.4.1, znajdziemy tam dane, co prawda też w niewielkim stopniu odbiegające od źródeł naukowych, o temperaturach efektywnych, czyli takich, które występowałyby tam bez efektu cieplarnianego, planet układu słonecznego – Marsa i Wenus. Planety te znajdują się właśnie w takiej sytuacji jak opisana wyżej – jedynym gazem cieplarnianym w ich atmosferach jest CO2. Tyle że na Marsie jest go, licząc na masę, 26 razy a, na Wenus aż 163 tysiące razy więcej niż na Ziemi. Składając te wszystkie, zaczerpnięte przecież z samej „Nok”, informacje do kupy, możemy teraz obliczyć temperatury, jakie, według wierzeń klimatystów, powinny na tych planetach panować. Są to odpowiednio 350,6 Kelwinów (75 stopni Celsjusza) na Marsie i 3113 Kelwinów na Wenus. Już rozgrzany do temperatury, niewiele niższej niż temperatura wrzenia wody, Mars, imponuje. Ale temperatury na Wenus sięgnęłyby już wartości nie planetarnych, ale gwiezdnych. Tak naprawdę, grubo ponad połowa gwiazd w naszej Galaktyce, jest chłodniejsza. Przypomina ponownie autor, że całego tego oszacowania dokonano wyłącznie w oparciu o dane i model zaprezentowane przez samych klimatystów. Ocenę, czy oni sami nie potrafiliby dokonać takiego obliczenia, pozostawia zaś domyślności czytelników.

Klimatyści jednak, jak już wspomniano, sami, z, przez samych siebie prezentowanego modelu efektu cieplarnianego, nigdzie nie korzystają. A czego używają w zamian? Kreacjoniści lubowali się w posługiwaniu się terminami, które na pierwszy rzut oka wyglądały naukowo, jak np. „cecha projektu”, czy „nieredukowalna złożoność”, ale których, na wszelki wypadek, nigdy dokładnie, precyzyjnie, ilościowo, nie definiowali. Klimatystycznym odpowiednikiem „nieredukowalnej złożoności” jest „wymuszenie radiacyjne”. Sami autorzy „Nok” szczerze też, na str. 69 deklarują, że nie zamierzają go szczegółowo omawiać. Z kontekstu wynika, że chodzi tu o dodatkowy strumień promieniowania docierający do powierzchni Ziemi, powstały wskutek zwiększenia efektu cieplarnianego. Na stronach 83-86 usiłują autorzy nawet wywieść, jak zmieniałoby się owo wymuszenie radiacyjne, w zależności od zmian stężenia dwutlenku węgla w ziemskiej atmosferze. Nie czynią tego jednak w sposób naukowy, czyli odwołując się od jakiejś głębszej zasady fizycznej, tylko wyprowadzają tzw. wzór empiryczny, poprzez obserwację zachowania …nie, nie, wcale nie rzeczywistej atmosfery, ani nawet wyników pomiarów w laboratorium. Robią to obserwując zachowanie …symulacji komputerowej! [sic!!!] Gdyby zechcieli odwołać się własnego modelu wielowarstwowego, to odkryliby, że tak zdefiniowane wymuszenie radiacyjne, zmienia się proporcjonalnie do ilorazu (2*n+1)/(n+1), czyli właśnie, jak zdumieni odkryli, dla małych n jest z grubsza liniowe, a dla dużych n – logarytmiczne.

Oprócz błędów wynikających z ignorancji naukowej autorów, są niestety także w „Nok” manipulacje zupełnie celowe. Każde z nich z osobna można uznać za drobne, ale razem wzięte mają swoją wagę. Do takich przemyconych niby mimochodem wrzutek, można przykładowo zaliczyć stwierdzenie ze strony 151, jakoby albedo wody wynosiło 10%. Tak jest owszem, ale w tropikach. Albedo wody bowiem zależy bardzo silnie od kąta padania promieni słonecznych, o czym mógł się przekonać każdy obserwator zachodu Słońca nad morzem i w okolicach polarnych, o których właśnie w kontekście tego albedo autorzy piszą, jest ono znacznie wyższe. Nie jest też prawdą, jakoby dopiero w roku 2010 jachty żaglowe mogły pokonać, wolne już wtedy od lodów, arktyczne Przejście Północno-Zachodnie. Już bowiem w roku 1977 takiego przejścia dokonał i to samotnie, belgijski żeglarz Villy de Roos. Do emisji CO2 wliczona jest też produkcja cementu, a przecież cement produkuje się wyłącznie w tym celu, żeby przerobić go na zaprawę i beton, w którym to procesie, wchłania on z powrotem wyemitowany w trakcie jego produkcji CO2. Podobnie jest z emisjami z rolnictwa. Metan emitowany przez zwierzęta hodowlane, powstaje z węgla zawartego w paszy, a rośliny tą paszą będące, pobierają ten pierwiastek z atmosferycznego CO2.Ta część „emisji’, podobnie jak w przypadku cementu, krąży zatem w obiegu zamkniętym. No, ale jakoś przecież przeforsowanie zakazu produkcji i spożywania mięsa, trzeba „naukawo” uzasadnić.

Jak już wspomniano, „Nauka o klimacie” udając dzieło popularno-naukowe, faktycznie jest manifestem ideologicznym i ma tej ideologii dostarczać uzasadnień „naukowych”. W rozdziale 4.1 mamy to wyłożone wprost, bez ogródek. Na stronie 238 przedstawili autorzy podstawowy dogmat klimatyzmu „bogactwo=zużycie energii=emisja CO2”. A ponieważ to ostatnie prowadzi, czemu poświęcona jest cała książka, do zagłady, to ostatecznie chodzi o to, aby wbić czytelnikom do głowy skojarzenie „bogactwo = zagłada” Stronę wcześniej mamy też wyłożony cel polityczny klimatystów, który pozwolimy sobie zacytować w całości;

Według różnych szacunków, bez paliw kopalnych, nawet przy dobrej organizacji społecznej, pojemność środowiska spadłaby do poziomu 2-3 mld osób. Dla 2/3 ludzkości nie byłoby miejsca na Ziemi..

Zważywszy na fakt, że cały wysiłek autorów „Nok” jest skoncentrowany właśnie na zwalczaniu paliw kopalnych i na postulowaniu ich całkowitego wyeliminowania, wniosek jest jednoznaczny. Klimatyści nie tylko nie przewidują dla nas miejsca na Ziemi, ale deklarują to szczerze wprost, bez żadnych zahamowań. Na szczęście dla masowej eksterminacji jest jednak pewna alternatywa, wąska furtka. Zamiast wysyłać zbędne miliardy ludzi na rozkurz, można, w zamian, wyzbyć się ”bogactwa”, co ma być tym łatwiejsze, że jest ono rzekomo skoncentrowane wśród „najbogatszego 1%” (str. 241).Jak wszyscy rewolucjoniści w dziejach, również klimatyści zapewniają, że „redukcja bogactwa” ma dotknąć jedynie tych obrzydliwie bogatych z górnego 1 %, a w żadnym razie tych, którzy, za przewodem klimatystów „grabić zagrabione” pójdą. Aby utwierdzić wyznawców w bezalternatywności takiego rozwiązania, omawiają autorzy „Nok”, trzeba im to przyznać, w rozdziale 5.7, różne, nie wymagające tak drastycznych „przekształceń społeczno-własnościowych”, metody przeciwdziałające wzrostowi temperatur i/lub stężeń CO2 w ziemskiej atmosferze. Przy czym ilość miejsca poświęconego danej metodzie, jest odwrotnie proporcjonalna do jej faktycznej użyteczności. Najbardziej sensowne projekty, jak np. nawożenie oceanów żelazem, doczekują się króciutkich wzmianek, a nawadnianie pustyń lądowych jest przemilczane całkowicie, natomiast pomysły bezsensowne, omawia się szeroko i szczegółowo. Efekt końcowy jest taki, jak być powinien – czytelnik ma być przekonany, że jedyną alternatywą „redukcji bogactwa”, jest jedynie …”redukcja populacji”.

Osoby z zewnątrz sekty, bywają często przekonane, że jednym z jej celów jest promocja, alternatywnych wobec energetyki opartej na paliwach kopalnych, tzw. odnawialnych źródeł energii, (OZE). Tak, owszem, było, dopóki klimatyści uważali, że OZE nigdy nie będą w stanie odgrywać znaczącej roli ekonomicznej. Mylili się jednak. Jeszcze w „Nok” znajdziemy ślady lekceważącego traktowania OZE, ze stwierdzeniem, że w roku 2017 pokryły one „zaledwie” 2,2% globalnego zapotrzebowania na energię, na czele. Już ta liczba jest znacznie zaniżona, albowiem wg raportów firmy BP było to 3,5%. A w kolejnym, 2018 roku już 4%. Łącznie bezemisyjne źródła energii, również atom i elektrownie wodne, stanowiły w 2018 roku 15,6% ogółu i tylko w ciągu jednego roku ten odsetek wzrósł o prawie 1 pkt procentowy. Niezwykle dynamiczny rozwój OZE, staje się zatem, coraz większym zagrożeniem dla ideologii klimatystycznej i chociaż w „Nok” bezpośredniej ich krytyki jeszcze nie znajdziemy, to w bieżącej publicystyce, klimatyści tacy powściągliwi już nie są.

„Nauka o klimacie” pozuje na dzieło naukowe w sumie znacznie bardziej umiejętnie niż niegdysiejsza propaganda kreacjonistyczna. Jednak nadal jest to tylko poza. Klimatyści, traktują naukę jedynie jako narzędzie, do głoszenia swojej wizji świata, a w dodatku, nie potrafiąc nawet prawidłowo przeliczyć temperatury ze skali Kelwina na Celsjusza, posługują się tym narzędziem dość nieudolnie. „Nauka o klimacie” może robić wrażenie swoją „cegłowatością”, jakością edycji, masą kolorowych zdjęć i schematów. Ale powoływanie się na to dzieło w poważnej dyskusji, świadczyłoby o pewnej ułomności intelektualnej.

Dlaczego jednak ideologia klimatyzmu odniosła tak duży sukces medialny i finansowy, natomiast bliźniacza ideologia kreacjonizmu, zginęła w otchłani historii? Ian Morris, autor niezwykle ciekawej pracy o historii cywilizacji „Dlaczego Zachód rządzi – na razie”, dokonał pewnego ważnego spostrzeżenia.

 „Każda epoka dostaje taką myśl, jakiej potrzebuje”.

Kiedy w jakimś społeczeństwie, niezależnie od kręgu kulturowego, dowodzi Morris, pojawiają się jakieś bariery natury ekonomicznej, społecznej, czy ekologicznej, które hamują dalszy rozwój tego społeczeństwa, z reguły pojawia się też w takiej populacji jakaś myśl, idea, która uzasadnia, czasami bardzo nieortodoksyjne działania, które jednak w rezultacie umożliwiają pokonanie owych barier i dalszy rozwój. O tym zatem, które z licznie w każdym czasie powstających ideologii, okażą się atrakcyjne i zyskają popularność, decydować ma ich użyteczność w uzasadnianiu zmian koniecznych do pokonania przeszkód w rozwoju cywilizacyjnym i ekonomicznym. Użyteczność mierzona też oczywiście sukcesem ekonomicznym, jaki w rezultacie odniosą owej idei twórcy i propagatorzy.

Ideologia klimatyzmu, odniosła od kreacjonizmu dużo większy, mierzony liczbą wyznawców i skalą politycznych wpływów, sukces. Nieomylnie oznacza to, że, inaczej niż jej poprzedniczka, odpowiada ona na jakieś istotne wyzwania w rozwoju obecnej cywilizacji globalnej. Tym wyzwaniem okazuje się być, trwająca od początku lat 70 XX wieku, ewolucja energetyczna ziemskiej cywilizacji i jej, powolne i nieregularne, ale niemniej od 1970 roku wyraźne, odchodzenie od paliw kopalnych Początkowo dzięki energetyce jądrowej, później, od 2007 roku, na rzecz OZE. Klimatyzm jest po prostu jakąś próbą ideowego uzasadnienia tego przejścia.

Jest to jednak próba zdecydowanie nieudolna. Przyczyny, trwającej już prawie pół wieku transformacji energetycznej, są bowiem czysto ekonomiczne i nie mają związku z żadnymi, zachodzącymi podobno równolegle, zmianami klimatycznymi. Niekopalne źródła energii są już zwyczajnie tańsze i bardziej wydajne niż węgiel czy ropa, a narastająca histeria i widoczna radykalizacja klimatystów, nieomylnie oznacza, że problemy związane z tymi paliwami są coraz bliższe rozwiązania. A ekstremiści stają się coraz bardziej ekstremalni, bo te rozwiązania nie są po ich myśli. Nie wymagają ani „redukcji strumienia populacji”, ani nawet „likwidacji bogactwa” i odgórnego „ograniczenia konsumpcji”.

Popkiewicz M. i in, „Nauka o klimacie” wyd. Sonia Draga 2019