500 minus, minus, minus.

Pod koniec XVIII wieku angielski ekonomista Thomas Malthus odkrył i w jawny sposób sformułował prawo nazwane później jego nazwiskiem. W największym możliwym uproszczeniu, głosi ono, że ludzie, tak samo jak wszystkie inne zwierzęta, rozmnażają się proporcjonalnie do dostępnych sobie zasobów. Im więcej mają dóbr, tym więcej dzieci urodzą i wychowają.

Obserwacja ta może się wydawać trywialna i oczywista, ale prawo Malthusa, zwane też czasami „żelaznym prawem społecznym” ma bardzo rozległe konsekwencje, czasami bardzo trudne do intuicyjnego zrozumienia. Dla rozważań poruszanych w niniejszym eseju, najważniejszą z nich jest stabilny długoterminowo dobrobyt, czyli poziom zasobów przypadających na jednego członka społeczeństwa, mierzony, w pewnym uproszczeniu, PKB per capita. Ekonomiczny atraktor zwany też „pułapką maltuzjańską”. Niezależnie od tego, jak wiele dóbr wytworzy gospodarka, niezależnie od tego, jakie innowacje wprowadzi się w technologii, czy organizacji produkcji, zwiększona produktywność zawsze w końcu przełoży się na zwiększoną populację i dobrobyt pozostaje bez zmian. Jednak, co odkrył Malthus, wzrost demograficzny różni się zarówno tempem, jak i charakterystyką od wzrostu ekonomicznego. Ten pierwszy jest wykładniczy, ten drugi, w czasach Malthusa, liniowy. W rezultacie powstaje pewne, trwające 2-3 pokolenia, a jeżeli w tym czasie uda się podbić i skolonizować nowe tereny, nawet dłużej, opóźnienie, w trakcie którego dobrobyt może przejściowo wzrosnąć, co kolejne, sprowadzone znów do pułapki maltuzjańskiej pokolenia, wspominają jako swoisty „złoty wiek” dobrobytu. W czasach Malthusa ostatni, ponadstandardowo wydłużony przez kolonizację Ameryki i rozwój handlu światowego, z takich „złotych” okresów, wystąpił na przełomie XVII i XVIII wieku i kiedy Malthus pisał swoje „Prawo ludności” należał już do przeszłości. Żelazne prawo społeczne przewidywało więc na następne, XIX i XX stulecia, powszechną nędzę, głód, zarazy i wojny, zakończone regresem ekonomicznym, społecznym i w końcu także demograficznym, upadkiem państw i głęboką zapaścią cywilizacyjną, porównywalną z upadkiem cywilizacji antycznej w stuleciach IV-VII.

Jak wiemy z historii, tak się jednak nie stało. Zamiast upadku i katastrofy nastąpiła, bezprecedensowa w dotychczasowych dziejach ludzkości, prosperity. Tworząc model nazwany jego nazwiskiem, Malthus zignorował bowiem dwa jego istotne ograniczenia. Pierwsze z nich to niejawne założenie, że wraz ze wzrostem PKB, zaludnienie może rosnąć nieograniczenie. Tymczasem, jak wykazał to dwa pokolenia po Malthusie belgijski matematyk Pierre Verhulst, istnieje taka graniczna wielkość zagęszczenia populacji, przy której włącza się konkurencja o zasoby. Poszczególne osobniki coraz więcej zasobów poświęcać muszą na konkurencję, czy, łagodniej określając, na wzajemne relacje, a coraz mniej na rozmnażanie. Po uwzględnieniu tego efektu, maltuzjanizm płynnie przechodzi w okres zwany niezbyt ściśle i myląco rewolucją przemysłową. W jej czasie, populacja wraz ze wzrostem PKB, nadal, co prawda, rośnie, ale nie liniowo, wprost proporcjonalnie, jak u Malthusa. Jak się można, po rozwiązaniu stosownych równań, przekonać, wzrost ten jest proporcjonalny do pierwiastka kwadratowego ze wzrostu PKB. Czterokrotny wzrost produkcji oznacza dwukrotny wzrost populacji, Wzrost dziewięciokrotny – potrojenie populacji. W konsekwencji dobrobyt, PKB per capita, zaczyna wzrastać ponad naturalny „maltuzjański” poziom i społeczeństwo opuszcza pułapkę maltuzjańską.

Rewolucja industrialna, po spełnieniu pewnych dodatkowych warunków, staje się samonapędzającym się mechanizmem. W bogatszym społeczeństwie kapitał jest bardziej dostępny i tym samym jego reinwestycja w dalszy wzrost gospodarczy jest znacznie łatwiejsza. O ile oczywiście tylko jakość instytucji państwowych, na co zwracał uwagę już współczesny Malthusowi Adam Smith, jest wystarczająco wysoka. O ile istnieje prawo własności i przynajmniej jako tako działające sądownictwo. W maltuzjanizmie jakość władzy nie ma większego wpływu na poziom życia obywateli, ale inaczej jest w erze industrialnej, w której kraje rządzone lepiej rozwijają się też szybciej, niż kraje rządzone gorzej. U schyłku XVIII wieku w Anglii i Japonii – dwóch wyspiarskich krajach położonych na dwóch przeciwległych krańcach Eurazji, zostały spełnione wszystkie niezbędne do rozpoczęcia rewolucji przemysłowej warunki demograficzne i społeczne. I w Anglii faktycznie do niej doszło, natomiast Japonia przez kolejne prawie sto lat tkwiła w stagnacji. Miała znacznie gorsze od angielskich instytucje prawne i ustrojowe, i, dopóki ich, w wyniku tzw. rewolucji Meiji, nie zmieniła, rozwijać się dalej nie mogła.

Rewolucja industrialna jest więc, w porównaniu z poprzedzającym ją maltuzjanizmem, okresem bardzo dynamicznym i burzliwym, ale też stosunkowo krótkim. W krajach, które weszły w nią jako pierwsze, trwała nie dłużej niż sto lat i zakończyła się tzw. przejściem demograficznym. O ile w maltuzjanizmie przyrost naturalny jest wprost proporcjonalny do wzrostu gospodarczego, w erze industrialnej jest równy pierwiastkowi kwadratowemu z tego wzrostu, o tyle w momencie przejścia demograficznego spada w okolice zera i żadne dalsze zmiany ekonomiczne nie mają już na niego wpływu.

Mechanizm przejścia demograficznego wynika z naturalnych fizjologicznych ograniczeń ludzkiego gatunku. Wzrost dobrobytu zarówno, jak chciał Malthus, zwiększa rozrodczość, jak i wydłuża średnią długość życia, ale przecież nie w nieskończoność. Bez względu na poziom dobrobytu, żadna kobieta nie jest w stanie urodzić w ciągu życia więcej niż kilkanaścioro dzieci, a nawet najbogatsi miliarderzy z reguły nie dożywają setki. Kiedy poziom zasobów per capita przekroczy więc pewną graniczną wartość, liczba ludności w danym kraju stabilizuje się, a rewolucja przemysłowa dobiega tym samym końca.

Ów docelowy, niezależny od wielkości zasobów, poziom zaludnienia jakiegoś obszaru dany jest wzorem.

K=(r-m)/c

W którym r jest naturalnym, maksymalnym poziomem rozrodczości, jaki by istniał, gdyby zasoby były po pierwsze nieograniczone, po drugie zaś, przy braku oddziaływań międzyosobniczych, przeznaczone były by wyłącznie na rodzenie i wychowywanie dzieci, a m naturalnym minimalnym wskaźnikiem śmiertelności Homo sapiens. Różnica tych dwóch wartości, czyli tzw. współczynnik rozrodczości netto, w dzisiejszym świecie równa się średnio 2,4%, co niewiele się różni od oszacowanej ponad 200 lat temu przez Malthusa w jego eseju wartości 2,8%

Współczynnik c to stała konkurencji. Ma ona wymiar powierzchni/osobę i odzwierciedla „przekrój czynny” poszczególnych osobników. Wejdą oni ze sobą w interakcję, jeżeli pole c jednego z nich zajdzie na pole drugiego. Stała ta zależy przede wszystkim od warunków klimatycznych i geograficznych. Kraje pustynne, lub położone w strefie polarnej, mają stałą c bardzo wysoką. Kraje o umiarkowanym klimacie i obfitej wegetacji, stosunkowo niską. Ale konkurencja zależy nie tylko od klimatu i geografii, ale również od rodzaju instytucji prawnych i ustrojowych w danym kraju. I zmienia się wraz ze zmianą instytucji, czasami w sposób znaczny. Taki, stosunkowo niewielki, spadek stałej konkurencji w połowie lat 80 XX wieku, odkrył niżej podpisany w USA i Kanadzie. Były jednak zmiany i na większa skalę.

Po upadku komunizmu, w wielu krajach, w których był on szczególnie głęboko zakorzeniony, doszło do spadku zaludnienia. Tak było w Rosji, na Ukrainie, na Węgrzech, czy w Bułgarii. Doszukiwano się wielu przyczyn tego zjawiska, podczas gdy rozwiązanie jest bardzo proste. W komunizmie, gdzie wszyscy mają mniej więcej po równo, nie opłaca się inwestować w jakość potomstwa, bo jeżeli nawet będzie ono zdolniejsze, pracowitsze i oszczędniejsze od reszty, to i tak państwo mu wypracowaną nadwyżkę zabierze. Opłaca się za to mieć więcej dzieci niż sąsiad, bo przy „równym podziale” w sumie potomstwo to dostanie więcej niż potomstwo sąsiada. Dlatego stała konkurencji jest w komunizmie niższa i jej powiększenie po komunizmu porzuceniu pociąga za sobą spadek zaludnienia. Działa to też w drugą stronę. Można ostrożnie przyjąć, że zmiany stałej konkurencji w danym kraju są skorelowane ze zmianami jego IEF (index of economic freedom), chociaż zaznaczyć trzeba, że ten związek jest stosunkowo słaby. Potrzeba naprawdę dużej zmiany IEF, aby stała c zmieniła się w zauważalny sposób. W Polsce akurat nawet przejście z PRL do III RP stałą konkurencji nie zachwiało. Ewentualny powrót w drugą stronę też by zatem raczej jej nie zmienił.

W kraju w którym zaszło już przejście demograficzne, takim jak Polska, liczba ludności jest więc, pomijając jakieś przypadkowe fluktuacje, stała. W szczególności nie zależy ona od poziomu dobrobytu. Nie wszyscy jednak ten stan rzeczy chcą przyjąć do wiadomości.

Istnieją bowiem środowiska, dla których ów demograficzny atraktor jest nieodpowiedni. Część z nich chciałaby Polski znacznie bardziej od obecnej zaludnionej. Niestety jest to część, której polityczną emanacją jest partia PIS, obecnie w Polsce sprawująca władzę. Jej zwolennicy nie wyszli nigdy intelektualnie poza najprostszy model maltuzjański, przyczyn stagnacji demograficznej upatrują zatem właśnie w maltuzjanizmie. Polacy, wg nich, nie chcą się rozmnażać, ponieważ są …za biedni i brakuje im niezbędnych do tego celu zasobów. Zupełnie inaczej było w latach 50, kiedy przyrost naturalny w Polsce był olbrzymi. Wtedy przecież żadnych środków nie brakowało i młode małżeństwa mogły na ten przykład przebierać dowolnie w ofercie mieszkaniowej.

Niewiele myśląc, myślenie bowiem i analizowania czegokolwiek jest typowe dla liberałów, zwolenników wolnego rynku, własności prywatnej i innego podobnego lewactwa, PIS, jak to u konserwatywnej prawicy jest we zwyczaju, postanowił obrabować Polaków bardziej oszczędnych, zdolnych i pracowitych i uzyskane w ten sposób środki wypłacić w postaci zasiłków leniom, rozrzutnikom i tępakom. Kryterium wypłacania owych zasiłków uczynił zaś PIS …liczbę posiadanych dzieci. Więcej dzieci = więcej pieniędzy.

W świetle jednak mechanizmów cywilizacyjnych, opisanych wyżej, program 500+, bo o nim właśnie piszemy, równoważność „więcej pieniędzy = więcej dzieci”, nie zachodzi. Zaludnienie Polski, która przejście demograficzne już dawno ma za sobą, nawet nie drgnie. Nie oznacza to oczywiście, że w ogóle nic się nie stanie. Krótkoterminowo, te pary, które i tak były już na urodzenie dziecka zdecydowane, pod wpływem tego bodźca, przyśpieszą swoją decyzję. Nastąpi, a właściwie już nastąpił, krótkotrwały wzrost liczby urodzeń, kosztem jednak kompensującego ten efekt spadku urodzeń w latach późniejszych. W rezultacie powstanie rocznikowa „górka”, która potem będzie miała zwiększone problemy przy rekrutacji w przedszkolu, szkole i na studiach. Za górką zaś powstanie, będący jej negatywowym odbiciem, – dołek. Te skutki krótkoterminowe nie będą może specjalnie spektakularne, ale przecież będą i skutki długoterminowe.

Jak już wspomniano, szeregowi apologeci władzy i programu 500+, nie zdają sobie z faktycznych mechanizmów ekonomicznych i demograficznych, sprawy, ale przecież nie dotyczy to pisowskich decydentów, którzy o całkowitej, w realizacji deklarowanych celów, bezskuteczności swojego sztandarowego programu, doskonale wiedzą. Gdyby rzeczywiście uważali, że Polaków powinno być więcej, to przede wszystkim staraliby się powiększyć „biologiczny” poziom rozrodczości r. Jak wynika z modelu, to działanie, choćby poprzez popieranie i propagowanie technologii „in vitro”, faktycznie, realnie zaludnienie Polski by zwiększyło. Jednak akurat tego PIS nie robi i „in vitro” pryncypialnie zwalcza.

Powstaje zatem pytanie. Po co w ogóle to niesłychanie dla kraju kosztowne przedsięwzięcie pisowscy decydenci podjęli? Wielu publicystów, nawet skrajnie PISowi nieprzychylnych, głosi że głównym tego powodem była chęć skorumpowania biedniejszej części elektoratu i skłonienia jej do popierania PISu właśnie. Na pierwszy rzut oka to wyjaśnienie brzmi wiarygodne, ale na rzut drugi przestaje pasować. Gdyby istotnie korupcja była tu jedynym, albo chociaż głównym motywem, 500+ wdrażano by na około rok przed kolejnymi wyborami, żeby targetowi beneficjenci mieli czas się nacieszyć, ale nie mieli czasu, żeby zapomnieć, komu tą radość zawdzięczają. Tymczasem PIS wprowadziło masową alimentację praktycznie natychmiast po wyborach poprzednich, czyli zależało im na tym, żeby oddziaływała ona na społeczeństwo jak najdłużej.

Czyli PIS musiało mieć na oku skutki długoterminowe, które muszą być tak ważne, że poświecono na ich rzecz nawet większość efektu korupcyjnego.

Nie odkryjemy Ameryki, jeżeli stwierdzimy, że w długoterminowej perspektywie, największe zmiany przyniesie ten program wśród nizin społecznych. Osoby, które bez zasiłku, miałyby szansę na podjęcie jakiejś uczciwej pracy i wzięcie tym samym za siebie odpowiedzialności, teraz zostały z tego zwolnione. Jakaś ich część, domagając się „godnego” (czyli wygodnego) życia na cudzy koszt, właśnie swój życiowy cel zrealizowała. PIS niewiele z tego będzie miało, bo indywidua tego rodzaju i tak stanowią podstawę jego wyborców, ale kurczący się do tej pory systematycznie obszar tzw. „patologii” znacząco się w Polsce rozszerzy. Zmieni się struktura społeczna w Polsce. Ubędzie ludzi zdolnych pracowitych i oszczędnych. Ich miejsce zajmą miłośnicy „czy się stoi czy się leży”, a także znęceni oferowaną im przez PIS „dżizją” islamscy migranci, którzy wcześniej, z braku podobnych zasiłków, Polskę szerokim łukiem omijali.

Spadnie wzrost gospodarczy, a wzrośnie, a przynajmniej nie zmaleje o tyle ile by mogła, przestępczość. Polski rozwój zwolni i szanse na doszlusowanie do najbardziej rozwiniętych i cywilizowanych krajów na świecie ponownie, jak to już było w czasach PRL, zmaleją, a przecież odwrócenie wszystkich zmian, które zaszły w Polsce po 1989 roku jest głównym strategicznym, nigdy nie ukrywanym, i jawnie głoszonym, celem PIS.

PIS jest, co do czego nie można mieć już najmniejszych wątpliwości, najgorszym rządem w Polsce od czasów Gierka. A ze wszystkich pisowskich fatalnych posunięć, jak zakaz nabywania ziemi przez Polaków, likwidacja aptek, czy zakaz robienia zakupów w niedzielę, 500+ jest posunięciem bez wątpienia najgorszym i najbardziej dla Polski kosztownym. Kosztownym nie tylko w sensie finansowym, choć i to są koszty dla budżetu ogromne, ale także politycznym. Żadna następna władza, nawet bardzo prawicowa, nie ośmieli się go zlikwidować i jego fatalne skutki będą przechodzić na kolejne lata i dziesięciolecia.

Ale i to nie jest jeszcze najgorsze.

Otóż uzasadniając ten program kwestiami demograficznymi, PIS tym samym uzurpowało sobie prawo do ustalenia jaka liczebność Polaków jest właściwa. Potraktowali nas jak bydło, trzodę, używając pisowskiego języka, swój „zasób”, którego wielkość właściciel może sobie dowolnie regulować. Akurat PIS uważa, że Polaków jest zbyt mało.  Ale PIS to nie jedyne środowisko, któremu polski atraktor demograficzny nie odpowiada. Istnieją też tacy, rojący o rzekomym „przeludnieniu”, dla których Polaków jest z kolei …zbyt dużo. I PIS właśnie stworzył im wspaniały precedens do podjęcia prób regulacji polskiej populacji w przeciwną stronę. No bo skoro Polacy to tylko trzoda i zasób, to dlaczego jego właściciel, w pisowskim języku „suweren”, miałby być akurat w tej materii ograniczany? Skoro w Chinach mogła istnieć „polityka jednego dziecka”, to dlaczego nie w Polsce? Jeżeli w przyszłości Polska wpadnie w szpony jakichś razemitów, czy innych „przeludnieniowców” i podobna polityka zostanie wprowadzona, to znaczna część winy za ten stan rzeczy spadnie na PIS.

Niewykluczone zresztą, że i samo PIS pomyśli o takich rozwiązaniach, jeżeli tylko dojdzie do wniosku, że mu to pomoże utrzymać się przy władzy. Jest to jednak mało prawdopodobne, bo w PRL żadnej „walki z przeludnieniem” jednak nie prowadzono. Była jednak wtedy dostępna aborcja na życzenie i to z kolei może PIS spróbować kiedyś odtworzyć.

Reklamy

O pożytkach z koszenia trawników

W latach 1989-2015 Polska dokonała gigantycznego skoku cywilizacyjnego. Jednym z jego rezultatów było powstanie nowoczesnej sieci transportowej, autostrad i dróg ekspresowych, której brak był niegdyś w Polsce przysłowiowy, a ich budowa przedmiotem niekończącej się fali dowcipów. Sieć dróg szybkiego ruchu, oprócz widocznych dla wszystkich zalet w postaci znacznego skrócenia czasu podróży pomiędzy różnymi miejscami w Polsce, ma też skutki mniej widoczne, bo nie tyczące bezpośrednio ludzi. Drogi te są zazwyczaj zabezpieczone siatką rozpiętą na słupkach. Na tych ostatnich uważny obserwator często gęsto może dostrzec, zwłaszcza w porze zmierzchu, siedzące …ptaszyska. Niżej podpisany nie posiada na tyle rozbudowanej wiedzy ornitologicznej, żeby je jednoznacznie przypisać gatunkowo, ale bez wątpienia są to ptaszyska drapieżne, „jastrzębiokształtne”. Siedzą na tych słupkach i ewidentnie na coś czekają. A na co może czekać drapieżne ptaszysko siedząc na słupku w odległości kilkudziesięciu metrów od autostrady pełnej pędzących w obie strony hałaśliwych i śmierdzących pojazdów?

Jednym z rzekomych sukcesów, jakimi chwaliła się niegdyś w Polsce komunistyczna władza, miała być masowa migracja ze wsi do miast. Życie w mieście postrzegano wtedy jako zaletę. Jednak od upadku komunizmu, obserwuje się w naszym kraju proces odwrotny. Współcześnie, kiedy dostęp do tzw. wygód, prądu, czy bieżącej wody, przestał oddzielać wieś od miasta, mieszkanie na wsi stało się popularne i bardziej pożądane niż mieszkanie w mieście. Ma jednak ta lokalizacja kilka nie dla wszystkich na pierwszy rzut oka widocznych wad. Obok problemów komunikacyjnych, jednym z głównych minusów mieszkania na wsi są …robale. Pod tym zbiorczym określeniem kryje się rozległe królestwo mikrofauny, głównie pajęczaków i owadów. Wychowany na ósmym piętrze stojącego w środku tramwajowych rozjazdów bloku mieszczuch, marząc o domku na wsi, wyobraża zwykle sobie, jak to będzie sobie siedział wieczorem na tarasie, spożywając wykwintną kolację, a ptaszęta niebieskie będą mu do talerza swoje trele srebrzyste i złociste rozsnuwały.

Tym większe bywa jego rozczarowanie, kiedy się okazuje, że fauną, która akompaniuje mu do posiłku, okazuje się bynajmniej nie awifauna. Bzyczenie much, gzów, meszek i komarów, wraz z ich fizyczną napastliwością, skutecznie amatorów posiłku na łonie przyrody zniechęca. Mieszkanie w bloku w centrum miasta nie okazuje się już wcale tak nieatrakcyjną alternatywą, jak to się mogłoby wydawać.

Jak zatem wieśniacy sobie z tym problemem radzą? Jeżeli są w miarę zamożni i zdeterminowani – chemią. Regularne opryski zdecydowanie zmniejszają brzęczącą i bzyczącą uciążliwość. Jest jednak chemia po pierwsze droga, po drugie zaś, co by nie mówić, niezbyt zdrowa. Nie tylko dla owadów, ale i dla pozostałej fauny, w tym ludzi. Można jednak oba te minusy zamienić na plusy, porzucając chemię a wykorzystując wiedzę ekologiczną.

Ekologia, wbrew temu co wypisują na ten temat humaniści, nie jest bynajmniej nauką o ochronie przyrody, tylko o zależnościach między żywymi organizmami a środowiskiem w którym bytują. Tym środowiskiem mogą też być i często bywają inne organizmy. Wykorzystajmy zatem ekologię do pozbycia się naszego robaczywego problemu.

Energia przepływa, materia krąży. Sformułowanie to nazywa się często pierwszym i najważniejszym prawem ekologii. Ów przepływ energii odbywa się wzdłuż łańcuchów troficznych. Każdy coś zżera (rośliny promieniowanie słoneczne) i każdy jest przez kogoś zżerany (szczytowe drapieżniki przez bakterie i grzyby). Również komary, meszki i muchy mają swoich wrogów, którzy na ich populacji żerują. To są naturalni sprzymierzeńcy miłośników wieśniactwa.

Zależność liczebności ofiar od liczebności drapieżników opisuje, kilkukrotnie już na tym blogu demonstrowany, model Lotki-Volterry, w którym N to liczebność ofiar, a V – liczebność drapieżników. Liczebność ofiar i drapieżników podaje się w procentach. Przy braku drapieżników liczebność ofiar wynosi 100%

dN/dt = r*N*(1-N)-a*N*V

dV/dt = a*b*N*V-V/L

a jest współczynnikiem określającym sprawność polowania, b sprawność przerabiania upolowanej biomasy na kolejne pokolenia drapieżników, a L to średnia długość tychże drapieżników życia. Przy zastrzeżeniu że a*b*L>1, bo inaczej populacja drapieżników nie jest w stanie się utrzymać, stabilnym rozwiązaniem równań LV jest wielkość populacji drapieżników:

Vs = (r/a)*(1-1/(a*b*L))

Oraz szczególnie nas interesująca w kontekście komfortu życia wiejskiego, wielkość populacji ofiar

Ns = 1/(a*b*L)

Interesuje nas oczywiście to, żeby ta ostatnia wartość była jak najniższa. Niestety, dużo do powiedzenia w tej materii jednak nie mamy. Współczynniki a i b zależą tylko od biologii i ewolucji, pewien wpływ możemy mieć tylko na długość życia naszych sprzymierzeńców. Są to głównie różne gatunki ptaków i naprawdę warto dołożyć starań, aby podnieść im dobrostan a tym samym wydłużyć L. Zakładajmy im budki, dokarmiajmy zimą, chrońmy przed kotami, a na pewno się to nam opłaci.

Jednak nie na tyle, aby móc się wiejskim wywczasem spokojnie rozkoszować. Nie damy rady wydłużyć średniego L polujących na owady drapieżników o więcej niż o kilka – kilkanaście procent, a to nam zmniejszy jedynie problem w takiej właśnie proporcji, co na pewno nas nie usatysfakcjonuje.

Na szczęście w tym miejscu sprawa się nie kończy. Aby jednak pójść dalej musimy nieco skomplikować nasz model. W obecnej bowiem postaci opisuje on populację drapieżników (V) i ofiar (N) całkowicie ignorując resztę środowiska w którym gatunki te bytują. A ekologia jest przecież nauką o oddziaływaniach organizmów nie tylko ze sobą nawzajem, ale i ze środowiskiem.

Jaką rolę w modelu odgrywa zatem środowisko zewnętrzne? Przede wszystkim, zwłaszcza dla organizmów o niewielkich rozmiarach, a o nie właśnie nam się rozchodzi, zapewnia …kryjówki. Część populacji, Z% całkowitej jej wielkości może się zawsze ukryć przed drapieżnikami i pozostać dla nich niedostępne. Zmodyfikowane o tą zależność równanie L-V wygląda następująco:

dN/dt = r*N*(1-N)-a*(N-Z)*V

dV/dt = a*b*(N-Z)*V-V/L

A stabilna liczebność populacji ofiar, przy założeniu że Z<1-1/(a*b*L), przy większej bowiem ilości kryjówek, drapieżnik wyginie, wynosi

Ns= Z+1/(a*b*L)

Nawet populacja bardzo narażona na ataki drapieżników, może więc znajdować się stosunkowo blisko swojej maksymalnej pojemności środowiska (w naszym modelu 100%), o ile tylko ma do dyspozycji dużą liczbę kryjówek Z. Zależność ta tłumaczy, dlaczego takie środowiska jak rafy koralowe są, w porównaniu z otwartym pelagialem, bogatymi i złożonymi ekosystemami i dlaczego czasami celowo zatapia się w morzach i jeziorach „sztuczne rafy” w postaci wraków statków, czy nawet …samochodów, aby bioróżnorodność i tym samym ekonomiczną produktywność tych ekosystemów zwiększyć.

Opisana wyżej komplikacja modelu daje też nową nadzieję wieśniakom. O ile nie mają oni wpływu na współczynniki a i b, a na L wpływ bardzo niewielki, o tyle nic nie zabrania im zabrać się za współczynnik Z. I naszych sześcio- i ośmionogich nieprzyjaciół pozbawić ich największego atutu – chroniącego ich przed drapieżnikami środowiska.

Dlatego należy przycinać gałęzie, karczować krzaczory, a przede wszystkim – kosić trawniki. Miłośnicy gazonów nie miłują ich tylko ze względu na walory estetyczne. Regularne przycinanie trawników pozwala drapieżnikom zrobić swoje i uwolnić nas od bzyczącej plagi. Przyjemne z pożytecznym. Niżej podpisany mógł obserwować to zjawisko na własne oczy. Zaraz po przeprowadzce był nękany przez praktycznie nieustającą, poza sezonem zimowym, plagę komarów. Dziś jednak, dzięki regularnym sianokosom, jakim oddaje się wraz z sąsiadami, straszliwych krwiopijców nie ma prawie wcale. Populacja komarów i innych dokuczliwych owadów spadła praktycznie do zera.

Sukces ten jest nawet znacznie większy, niżby to wynikało z prezentowanego modelu. Stało się tak, ponieważ na owady poluje więcej niż jeden gatunek drapieżnika. A różne ich gatunki mają różne współczynniki a i b. Dopóki kryjówek dla komarów było stosunkowo dużo, dopóty dla wielu kombinacji a i b wspomniany warunek stabilnego istnienia w ekosystemie drapieżników Z< 1 – 1/(a*b*L) nie był spełniony i drapieżniki te nie mogły na działce autora niniejszego eseju bytować. W miarę jednak zmniejszania Z, kolejne drapieżniki włączały się w polowanie i zmniejszały populację robali znacznie bardziej niż mógłby to zrobić jeden tylko ich gatunek.

Łączna liczba zatem populacji ofiar na wykoszonej łące spadła bardzo drastycznie. A jak jest z populacją drapieżców? Na poniższym wykresie pokażemy ich liczebność w zależności od ich skuteczności polowania a, zakładając że inne ich parametry (b, L) są takie same, i ilości kryjówek Z. P1 to drapieżnik bardzo sprawny (wysokie a), P2 średni, a P3 nieudolny (niskie a)

Traw 01

Wbrew zatem powierzchownemu, a fałszywemu mniemaniu, pozbawienie ofiar kryjówek i idące za tym drastyczne zmniejszenie ich liczebności wcale nie musi pociągnąć za sobą redukcji liczebności drapieżników. Przeciwnie, ich łączna liczba może nawet wzrosnąć. W morzu najwyższa koncentracja biomasy faktycznie ma miejsce na, naturalnych i sztucznych, rafach, ale największe, najbardziej imponujące drapieżniki, orki, rekiny, kaszaloty, czy architeutusy spotyka się na pełnym morzu.

Wróćmy zatem teraz do naszych siedzących na słupkach autostradowego ogrodzenia orłów i innych sokołów. Ich pożywieniem nie są, co prawda, owady, ale mechanizm skłaniający ich do czatowania w oparach spalin i wyciu silników jest dokładnie taki sam. Pasy trawników wzdłuż autostrady są również regularnie strzyżone tworząc wąskie, lecz bardzo długie strefy, w których pokarm ptaszysk w postaci drobnych gryzoni jest bardzo dobrze widoczny i nie może się skryć. Populacja gryzoni tym samym spada, ale populacja i różnorodność biologiczna drapieżników rośnie.

Co się będzie z tym układem działo dalej? W dotychczasowych rozważaniach zakładaliśmy że zmiana parametrów środowiska Z, ma konsekwencje wyłącznie ekologiczne. Że populacje biologiczne będą się do niej dostosowywać bez zmiany swoich „wrodzonych” parametrów a, b, L. W krótkim okresie czasu tak będzie. Jednak jeżeli ta zmiana Z będzie w miarę długotrwała, zadziałają także mechanizmy ewolucyjne. W długiej perspektywie parametry modelu L-V stałe już nie będą.

Ewolucyjny wyścig pomiędzy drapieżnikami a ofiarami, zwany też „wyścigiem zbrojeń” trwa permanentnie. W przeważającej większości przypadków wygrywają go i zawsze są „o krok do przodu” ofiary. Ten pozornie sprzeczny z intuicją rezultat wynika z dwóch wzajem wspierających się mechanizmów. Po pierwsze dobór naturalny wywiera na ofiary dużo silniejszą presję niż na drapieżniki. Królik, który wygra pojedynek biegowy z lisem odnosi dużo większy sukces ewolucyjny niż lis, który wygra pojedynek z królikiem. Po drugie populacja ofiar składa się zwykle z organizmów mniejszych i tym samym szybciej się rozmnażających niż populacja drapieżników. Zatem, nawet przy zbliżonej sile doboru, sam proces ewolucyjny zachodzi w niej szybciej. Incydentalnie zdarza się jednak, że proporcja ofiar i drapieżników jest odwrotna (duże ofiary, małe drapieżniki) i, jeżeli ta różnica w tempie ewolucji jest na tyle duża, że jest w stanie skompensować różnicę w sile doboru, wyścig zbrojeń mogą „wygrać” drapieżniki, „Wygrać” w cudzysłowie, bo ten „sukces” prowadzi rzecz jasna do wyginięcia populacji ofiar, a tym samym, jeżeli gatunek drapieżnika zdążył się w międzyczasie wyspecjalizować w polowaniu na niego, także i uzależnionego od danej ofiary drapieżnika.

W ten sposób prawdopodobnie wymarły liczne niegdyś gatunki szablastozębnych kotów, czy gigantyczne rekiny – megalodony. Osobnym przypadkiem jest człowiek – paleolityczny łowca. Jego ewolucja jako łowcy przynajmniej częściowo zachodziła w sferze kultury, zatem w porównaniu z ewolucją genetyczną była wręcz natychmiastowa. Nic dziwnego, że ludzie ci dokonali praktycznie całkowitej anihilacji tzw. megafauny, a to, że przy okazji sami nie wyginęli, zawdzięczali wyłącznie temu, że byli drapieżnikiem wyjątkowo oportunistycznym, pozyskującym pożywienie z wielu różnych źródeł, także ze zbieractwa.

W naszym jednak przypadku mamy do czynienia z sytuacją klasyczną. Ofiary, czyli owady, na pewno będą ewoluować znacznie szybciej, niż żywiące się nimi ptaki, czy nietoperze. Zwykle odpowiedzią ofiar na zwiększoną presję drapieżników, jest przyśpieszenie rozrodu, wzrost parametru r. Wiąże się to też ze zmniejszeniem rozmiarów ciała – zmniejszeniu b. O ile ta pierwsza tendencja, zgodnie z rozwiązaniem modelu LV, zwiększy jedynie populację drapieżników, o tyle ta druga zaowocuje zwiększeniem liczebności ofiar, a zmniejszeniem drapieżników. Wkurzające robale będą mniejsze, ale będzie ich więcej. Dodatkowo ofiary będą się starały uniknąć schwytania, dobór będzie faworyzował zmniejszanie a. W skrajnych okolicznościach, ofiary mogą wręcz „przeewoluować” drapieżniki i sprowadzając iloczyn a*b*L poniżej jedności, doprowadzić do wymarcia swoich prześladowców, a przynajmniej ich najbardziej nieudolnych (niskie a), największych (niskie b), najbardziej długowiecznych (L) gatunków. Oczywiście i drapieżniki z czasem ewolucyjnie na presję odpowiedzą zwiększając jakoś a i b, ale z omówionych wyżej powodów zrobią to z opóźnieniem. Ustali się jakaś nowa równowaga na poziomie bardziej dla wieśniaków przykrym niż uzyskali początkowo kosząc trawniki, ale i tak korzystniejszym, niż gdyby ich nie kosili w ogóle i utrzymali wysokie Z. Walka ewolucyjna trwa i nigdy się nie skończy.

Syfilis i inne france

W poprzednim artykule „Matematyka w czasach zarazy” omówiony został model rozprzestrzeniania się chorób zakaźnych w populacji, tzw. model SIR. Dzieli on populację na trzy grupy – podatnych na zachorowanie S (suspectible), zarażonych I (infectious) i ozdrowiałych R (recovered). Podatni (S) zarażają się przez kontakt z osobami chorymi (I) i sami przechodzą do tej grupy. Po jakimś czasie zdrowieją, nabywają odporność i stają się odpornymi (R). Przebieg choroby pokazuje więc schemat

S => I => R

Kluczowy dla rozwiązania tego modelu jest tzw. bazowy współczynnik reprodukcji (BWR) dla danej infekcji. Pokazuje on ile osób podatnych (S) zarazi średnio, podczas swojej choroby, jeden chory (I). Kiedy BWR jest większy od jedności choroba przeradza się w epidemię, kiedy jest mniejszy, wygasa. BWR dany jest wzorem.

BWR = a*S/b

Gdzie S to odsetek podatnych (S), a wielkości a i b to odpowiednio tempo zarażania i tempo zdrowienia. a jest odwrotnością średniego czasu, w jakim osobnik (S) pozostając w kontakcie z osobnikiem chorym (I) zarazi się od niego, a b średniego czasu potrzebnego na przebycie choroby, czyli przejścia z kategorii (I) do (R). W modelu SIR, przynajmniej w perspektywie krótkookresowej, gdy można zaniedbać naturalną wymianę pokoleniową, liczy się tylko czas trwania choroby 1/b, niezależnie od tego, czy kończy się ona wyzdrowieniem pacjenta, czy też jego zgonem. Mamy więc od razu odpowiedź, dlaczego nie istnieją, znane z przeróżnych wizji katastroficznych i horrorów, superplagi, zabijające zarażonych w czasie rzędu godzin lub krótszym. Przy tak wysokim b, chory zwyczajnie nie zdążyłby przed swoją śmiercią nikogo zainfekować i epidemia wygasłaby, zanim zdążyłaby wybuchnąć.

Aby wygasić epidemię, należy więc sprowadzić BWR poniżej jedności. Można to osiągnąć na trzy sposoby. Poprzez szybkie i sprawne leczenie chorych, czyli podwyższanie b, poprzez kwarantannę, izolację chorych od zdrowych, czyli obniżanie a, albo poprzez powszechne szczepienia, czyli obniżenie S poniżej ilorazu b/a, lub (b+m)/a, jeżeli uwzględnimy także naturalną wymianę ludzkiej populacji w tempie m% rocznie. Ten ostatni sposób jest najtańszy, zarówno jeżeli liczyć w kosztach czysto finansowych, jak i  w ograniczaniu ludzkiej wolności, bo przymusowa kwarantanna i leczenie, kiedy już do epidemii dojdzie, są znacznie pod tymi względami droższe. Argumenty przeciwników szczepień, przynajmniej jeżeli chodzi o choroby o stosunkowo wysokich a i b, czyli bardzo zaraźliwych, a zarazem stosunkowo krótkotrwałych, są zatem całkowicie nieadekwatne. Szczepionki bowiem, nie tylko są tańsze od leczenia, ale i nie tylko chronią zaszczepionych przed chorobami, ale także całe społeczeństwo przed epidemiami. Skutki ekonomiczne i społeczne epidemii zaś, daleko wybiegają poza aspekty czysto medyczne i w skrajnych przypadkach mogą przybrać rozmiary prawdziwej katastrofy. Szczepionki można zatem zaliczyć do tzw. w ekonomii dóbr publicznych, których obowiązek stosowania władza publiczna może, podobnie, jak choćby reguły ruchu drogowego, narzucić.

Oczywiście szczepionki nie są jakimś cudownym panaceum i nie zawsze przynoszą pozytywne rezultaty. Może się zdarzyć, że zamiast być rozwiązaniem problemu, staną się tegoż problemu częścią. Rozważmy, kiedy tak się stanie.

Istnieją choroby, na które nie można nabyć odporności i tym samym nie można wyprodukować na nie szczepionek. Do takich należy większość chorób wenerycznych. Model SIR przestaje być tu adekwatny i przechodzi w model SIS przewidujący powrót ozdrowieńców do grupy ryzyka (S). Dodatkowo choroby te mają bardzo długi czas przebiegu, porównywalny z całkowitą długością życia i współczynnik b jest bardzo niski, zbliżony wielkością do m. W tej sytuacji w populacji mamy tylko podatnych (S), których jest (b+m)/a i zarażonych (I). Ponieważ choroby weneryczne mogą rozprzestrzeniać się też drogą dziedziczenia bezpośrednio po rodzicach, nie należy się dziwić, że jeszcze na początku XX wieku w Polsce, odsetek zarażonych syfilisem w niektórych wioskach góralskich sięgał stu procent, o czym pisali ówcześni etnografowie i krajoznawcy.

W drugiej jednak połowie zeszłego stulecia wynaleziono na syfilis, zwany też kiłą, skuteczne terapie, czyli zwiększono b. Skrócenie dzięki temu przebiegu choroby z kilkunastu, czy kilkudziesięciu lat, do kilku miesięcy powinno, zgodnie z zaprezentowanym modelem, zredukować liczbę nosicieli w tej samej proporcji, czyli, mniej więcej, kilkudziesięciokrotnie. Tym bardziej intrygujący jest fakt, że wcale się tak nie stało. Odsetek nosicieli kiły nie spadł wcale o taką właśnie wielkość. Spadł znacznie bardziej. Z kilkunastu, czy nawet kilkudziesięciu procent, do ułamka promila, czyli od kilkuset do kilku tysięcy razy. Nawet epidemia AIDS, zupełnie nowej choroby, na którą bardzo długo nie było, mogącego efektywnie zwiększyć b, lekarstwa, nie przybrała nigdy podobnych do syfilisu rozmiarów i tylko w najbardziej dzikich i zacofanych krajach liczba nosicieli wirusa przekracza kilka procent.

To znaczy, że oprócz zwiększenia b, musiało też zajść coś innego. Musiało także radykalnie zmniejszyć się a, czyli zmaleć ryzyko zachorowania.

Choroby weneryczne różnią się bowiem od grypy, ospy, czy świnki jeszcze jednym ważnym elementem. Nie można się nimi zarazić przypadkowo na ulicy, czy w kinie. W związku z tym, wprowadzenie kwarantanny w celu obniżenia parametru a jest wyjątkowo proste – wystarczy powstrzymać się od przypadkowych kontaktów seksualnych. Nie od wszystkich kontaktów, ale od przypadkowych. Taki proces, całkowicie medialnie niezauważony, musiał zajść w drugiej połowie XX wieku, bo inaczej, wobec braku szczepionek na przenoszone drogą seksualną choroby, nie udałoby się obniżyć odsetka nosicieli do tak niskiego poziomu. Po cichu, bez medialnego rozgłosu, w najbardziej rozwiniętych społeczeństwach zaszła zatem istna purytańska kontrrewolucja obyczajowa. Z jednej strony hałaśliwie i szeroko rozprawiano o „wolnej miłości”, z drugiej jednak, realne procesy społeczne, wbrew tym werbalnym deklaracjom, szły w zupełnie inną, przeciwną stronę. Wbrew powszechnemu złudzeniu, żyjemy więc obecnie w bardzo cnotliwych i mało wyuzdanych czasach.

Przyczyną tych przemian było zapewne stopniowe bogacenie się społeczeństwa i związany z tym wzrost wartości jedynego zasobu, którego nie da się kupić, wyprodukować, zmagazynować, czy odłożyć na później. Wartości czasu. Podczas gdy rosła liczba alternatywnych sposobów tegoż czasu wykorzystania, samego czasu bynajmniej nie przybywało. Zgodnie z podstawowym prawem ekonomii, czas stał się więc zbyt cenny, aby tracić go na chorowanie, zwłaszcza na tak, nawet po wynalezieniu lekarstw, długie, paskudne i ślimaczące się choroby. Znacznie bardziej opłacalne czasowo stało się takich chorób unikanie, a najtańszym na to sposobem było wprowadzenie swoistej „autokwarantanny” i unikanie przygodnego seksu.

Ten medal ma jednak i swoją odwrotną stronę. Współczynnik a w modelu SIR jest kształtowany przez ludzkie zachowania, w przypadku chorób wenerycznych – seksualne, ale zachodzi tu też sprzężenie zwrotne. Wartość tego współczynnika, a dokładnie wartość iloczynu a*S, z bazowego współczynnika reprodukcji (BWR), czyli ryzyko złapania kosztownej, w sensie czasu, choroby, wpływa też na ludzkie zachowania. Po wprowadzeniu skutecznej szczepionki na kiłę, czy AIDS, proces „autokwarantanny” znacznie by osłabł, bo znikłaby obawa przed stratą czasu na chorowanie. Wskutek tego, częstotliwość przygodnych stosunków, a zatem i ryzyko zachorowania, jeżeli nie akurat na zaszczepioną chorobę, to na inną, z szerokiej palety tego typu schorzeń, znów by wzrosły. I dopiero ponownie rosnący koszt czasu ustabilizowałby parametr a na nowym, znacznie wyższym, niż dzisiejszy, poziomie. W rezultacie zmalałoby S, ale przy kompensującym to wzroście a, poziom zachorowalności na choroby weneryczne pozostałby taki sam, tylko społeczeństwo ponosiłoby dodatkowe, zupełnie zbyteczne, koszty na przymusowe szczepienia. Ten sam efekt widoczny jest zresztą w przypadku stosowania prezerwatyw, o czym niżej podpisany już kiedyś zresztą pisał.

Zwykłe choroby zakaźne, o wysokim a i wysokim b, rozprzestrzeniające się poprzez codzienne kontakty międzyludzkie, łatwiej i taniej jest, jak już autor dowodził w poprzednim eseju, zwalczać poprzez szczepienia niż przez kwarantannę. W przypadku chorób wenerycznych o niskim a i niskim b, (choć ciągle o spełnionym warunku a>b) jest jednak inaczej. Kwarantanna, w postaci swoistej „autokwarantanny” jest, także w sensie społecznym, tańsza i skuteczniejsza, niż szczepionki, czy prezerwatywy.

Ponieważ na choroby weneryczne, jak już wspomniano, szczepionek właściwie nie ma, problem opisany wyżej może się wydawać czystym teoretyzowaniem. Istnieje jednak przynajmniej jeden wyjątek. Jest to szczepionka na wirus brodawczaka HPV wywołujący u (niezaszczepionych) kobiet raka szyjki macicy. W Polsce władza planowały wprowadzić tą szczepionkę jako obowiązkową, ale szczęśliwie odstąpiła od tego zamiaru. W przeciwieństwie do innych szczepionek, ta bowiem, żadnego społecznego problemu nie rozwiązuje, zatem akurat obowiązkowa być nie powinna, a chętni do jej przyjęcia powinni zapłacić za nią sami, z własnej kieszeni.

Kolejnym zabiegiem, jakiego dokonamy teraz na modelu SIR, jest obliczenie jaki, przy stałych parametrach a i b, czyli przy założeniu, że nie dojdzie do kwarantanny, odsetek populacji zachoruje podczas epidemii. Interesuje nas zarówno odsetek maksymalny, czyli maksymalna liczba osób, które będą chorować jednocześnie, jak i całkowity, czyli ile osób zachoruje łącznie w trakcie trwania epidemii. Rozwiązanie pokazujemy niżej w postaci graficznej. Przyjęto, że początkowa liczba chorych wynosi 0,01% populacji.

Szczep 02

W momencie, kiedy czas wyzdrowienia jest tylko dwukrotnie dłuższy niż czas zarażenia, w maksymalnej fazie epidemii choruje na raz prawie 16% populacji, a łącznie, choć nie jednocześnie, zachoruje 80%. Przy trzykrotnej różnicy, liczby te wynoszą odpowiednio  30% i 94%. Dobrodziejstwo szczepień widoczne jest teraz w całej pełni, podobnie jak nicość antyszczepionkowej propagandy. Kiedy bowiem zawodzi argument wolnościowy, jak i argument finansowy, ostatnią linią oporu ruchów antyszczepionkowych, jest kwestia tzw. NOPów, czyli ewentualnych komplikacji i powikłań jakie przy okazji zabiegu szczepienia mogą się pojawić. Znaj jednak proporcję, mocium panie. Prawdopodobieństwo wystąpienia ciężkiego NOPu, groźniejszego dla zdrowia niż choroba, przed którą szczepienie chroni, jest znikome, nie większe niż jeden na kilka milionów przypadków. Tymczasem prawdopodobieństwo zachorowania w przypadku braku szczepień i wybuchu epidemii, jeżeli nawet nie wynosi 100%, to doprawdy niewiele tylko mniej. A powikłania, prowadzące nawet do zgonu, choćby po zwykłej grypie, są znacznie częstsze niż nieszczęsne NOPy. Skutki uboczne zażywanych w trakcie choroby leków również mogą być znacznie od NOPów groźniejsze. Jeżeli zatem mamy do czynienia z chorobami wysoce zakaźnymi, o wysokim parametrze a, szczepienia są najtańszym i najbardziej bezpiecznym sposobem walki z tym problemem. Przymus szczepień jest tutaj całkowicie uzasadniony. Nie jest tak jednak w przypadku chorób wenerycznych, jak HPV, o niskim a i bardzo niskim b, co szczegółowo uzasadniono wyżej. Nie widać jednak u przeciwników szczepień najmniejszego śladu tego typu refleksji. Stają się oni przez to całkowicie niewiarygodni, także w tym zakresie, w którym akurat mogliby mieć rację.

Matematyka w czasach zarazy

W roku 64 po Chrystusie Rzym, największe wtedy miasto świata, został strawiony przez gigantyczny pożar. Wydarzenie to jest dziś najbardziej znane z powodu oskarżeń, jakie o spowodowanie tej katastrofy wysunięto wobec członków pewnej małej żydowskiej sekty i związanych z tym jej pierwszych prześladowań. Mniej znaną konsekwencją pożogi było zaś wydanie przez panującego wtedy cesarza Nerona, rozporządzenia, które zabraniało stosowania jednych i tych samych drewnianych belek stropowych, w więcej niż jednym z przylegających do siebie budynkach. Ta popularna wcześniej praktyka obniżała koszty budowy, ale sprzyjała rozprzestrzenianiu się, wzdłuż owych drewnianych dźwigarów, ognia na kolejne obiekty. Zarządzenie to, patrząc z perspektywy czasu, spełniło swoją rolę. Pożary w Rzymie nadal, co prawda, wybuchały, ale żaden już, tak gigantycznych rozmiarów, jak ten za czasów Nerona, nie przyjął.

Jest to przykład, znanego z teorii gier, tzw. dylematu więźnia. Pozostawieni samym sobie budowniczowie rzymskich insuli skorzystaliby co prawda na wydzieleniu stref pożarowych, ale każdy z nich musiałby ponieść w tym celu pewne koszty, bez żadnych gwarancji, że sąsiedzi postąpią tak samo, a dopiero powszechne stosowanie tej zasady przyniosłoby wszystkim wymierne korzyści. Nikt więc sam z siebie w ochronę przeciwpożarową nie inwestował, zatem w przypadku pożaru straty ponosili wszyscy.

Dylemat więźnia może jednak zostać przełamany wskutek zmiany parametrów gry i w związku z tym jej równowagi Nasha. Władza publiczna, albo, np. towarzystwo ubezpieczeniowe, może wymagać od inwestorów określonych standardów i egzekwować ich przestrzeganie. Wszyscy pod przymusem ponoszą wtedy pewne koszty, ale też wszyscy odnoszą z przestrzegania wymuszonych reguł korzyści, od owych kosztów wyższe, zatem per saldo osiąga się tak zwany zysk społeczny.

Interwencja państwa jest więc uzasadniona w tych przypadkach, w których zaniechanie takiego działania, pogarsza ogólny dobrostan. Cywilizowane społeczeństwa, w ramach dostarczania usług publicznych, narzucają więc swoim członkom pewne regulacje, w postaci reguł wznoszenia budynków, zasad ruchu drogowego, czy norm emisji zanieczyszczeń.

Oczywiście w praktyce, ustalenie co dokładnie może być uznane za usługę publiczną, a co powinno być pozostawione niewidzialnej ręce rynku, nie należy do prostych rzeczy i jest przedmiotem często długich i zażartych dyskusji. Niemniej, co do takich kwestii, jak obrona narodowa, policja, sądownictwo, walka z katastrofami żywiołowymi, i zapobieganie nim, panuje, z grubsza przynajmniej,  konsensus, a konieczności utrzymywania ze środków publicznych straży pożarnej nikt poważnie nie kwestionuje.

Inaczej jest w dziedzinie, której podobieństwo do pożarnictwa jest uderzające, ale inaczej niż w tym drugim przypadku, konieczność odgórnego narzucania pewnych rozwiązań wywołuje wiele kontrowersji.

Epidemie mają wiele cech wspólnych z pożarami. Zaczynają się od małego ogniska, rozprzestrzeniają się w szybkim tempie w populacji i wreszcie, z braku „opału”, czyli możliwych do zarażenia osobników, wygasają.  Zanim do tego dojdzie, znów podobnie jak pożar, przynoszą społeczeństwu wymierne straty ludzkie i materialne. Zapobieganie i walka z epidemiami jak najbardziej mieszczą się więc w obrębie zadań publicznych, co w przypadku innych działów medycyny nie jest wcale oczywiste.

Przebieg chorób zakaźnych, czyli takich, którymi ludzie zarażają się bezpośrednio od siebie nawzajem, opisuje tzw. model SIR. Dzieli on populację na trzy grupy – podatnych na zachorowanie S (suspectible), zarażonych I (infectious) i ozdrowiałych R (recovered). Podatni (S) zarażają się przez kontakt z osobami chorymi (I) i sami przechodzą do tej grupy. Po jakimś czasie zdrowieją, nabywają odporność i stają się odpornymi (R). Przebieg choroby pokazuje więc schemat

S => I => R

I zestaw równań

  • dS/dt = m*(1-S)-a*S*I
  • dI/dt = a*S*I-m*I-b*I
  • dR/dt = b*I-m*R

W których wartości S, I, R podane są, jako odsetki całkowitej populacji.

Parametry a i b to odpowiednio tempo zarażania  i tempo zdrowienia. Dodatkowo należy uwzględnić naturalną wymianę populacji odbywająca się z szybkością m % w jednostce czasu. Współczynnik m jest odwrotnością średniej długości ludzkiego życia i tak samo współczynnik a jest odwrotnością średniego czasu, w jakim osobnik (S) pozostając w kontakcie z osobnikiem (I) zarazi się od niego, a b średniego czasu potrzebnego na przebycie choroby, czyli przejścia z kategorii (I) do (R).

Z drugiego równania w powyższym zestawie możemy wprost odczytać, kiedy dochodzi do epidemii. Dzieje się tak wtedy, kiedy liczba chorych wzrasta, czyli jej pochodna po czasie jest większa od zera.

Zatem

SIR 01

A przy założeniu, że choroba trwa dużo krócej niż średni czas życia osobnika, czyli m<<b

SIR 02

 Wyrażenie po lewej stronie powyższej nierówności to tzw. bazowy współczynnik reprodukcji (BWR) dla danej infekcji. Pokazuje on ile osób podatnych (S) zarazi średnio, podczas swojej choroby, jeden chory (I).

Epidemia wygasa zatem wtedy, kiedy BWR jest mniejszy od jedności. Dojdzie do tego zawsze wtedy, kiedy a<b, czyli średni czas zarażania będzie dłuższy niż średni czas zdrowienia. Można to osiągnąć albo odpowiednio wydłużając ten pierwszy, albo skracając ten drugi. To ostatnie odbywa się poprzez skuteczne leczenie zarażonych. Jednak odpowiednie terapie nie zawsze są dostępne, nie zawsze są tanie i nie zawsze chorzy mają ochotę się im poddać. Wydłużyć średni czas zarażenia 1/a jest już prościej. Wystarczy ograniczyć kontakt zdrowych z chorymi. Metodę tę wypracowano, drogą prób i błędów, już w XIV wieku i nosi ona miano kwarantanny. Aby jednak kwarantanna była skuteczna, znów odpowiednio wysoki odsetek chorych musi się do niej zastosować. Bez użycia państwowych środków przymusu nie zawsze jest to osiągalne.

Pozostaje pytanie czy, na poziomie państwowym, warto z epidemią w ogóle walczyć, czy nie pozostawić tego podmiotom prywatnym. W końcu, nawet bez podjęcia jakichkolwiek środków zaradczych, wraz z ubywaniem osób podatnych (S),  wcześniej czy później, BWR spadnie poniżej jedności i zaraza wygaśnie sama. Istnieją jednak ważne powody, dla których taka bierność nie jest wskazana. Widać je na poniższym wykresie przedstawiającym odsetek osób chorych (I) w populacji dla choroby o parametrach a = 1,9 b = 0,9 w ciągu roku, czyli dla choroby którą stosunkowo trudno jest się zarazić, (średni czas zarażenia wynosi ponad pół roku), ale i długo się na nią cierpi

Szczep 01

Analogia z pożarem jest całkowicie uzasadniona. Bez podjęcia jakichkolwiek działań, odsetek chorych staje się bardzo wysoki, w tym przypadku przekraczający 20% ogółu ludności, co grozi, nawet nie paraliżem, ale wręcz rozpadem, choćby tylko chwilowym, całego społeczeństwa, na co w historii można znaleźć liczne przykłady z epidemią „Czarnej Śmierci” z  XIV wieku na czele. Po drugie, nawet po przejściu epidemii, choroba nadal pozostaje obecna w populacji i kiedy, w wyniku naturalnej wymiany pokoleń, odsetek podatnych (S) znów wzrośnie, epidemia wybucha ponownie. Podobne oscylacje mogą się pojawić również wtedy, kiedy choroba ma długą fazę utajoną. Wszystkie te wysokie koszty społeczne uzasadniają więc interwencję państwa w powstrzymywanie epidemii.

Jednak, jak już wyżej wspomniano, taka interwencja jest niesłychanie kosztowna, zarówno licząc w pieniądzu, jak i w ograniczeniu ludzkiej wolności. Po drugie, przymusowa kwarantanna i leczenie, jeżeli to drugie w ogóle jest dostępne, nigdy nie będą też stuprocentowo skuteczne i mogą być wdrożone jedynie tymczasowo. Ograniczą one, co prawda, rozmiary epidemii, może nawet bardzo znacznie, ale nie wyeliminują danej choroby z populacji na stałe. Jakiś odsetek chorych przez, z definicji ociężały i nieudolny, aparat państwowy, zawsze zostanie przeoczony i choroba będzie się w sposób niewidoczny propagować, aż do chwili wybuchu następnej epidemii.

Na szczęście istnieje rozwiązanie alternatywne. Wiemy już, że zaraza wygaśnie, kiedy bazowy współczynnik reprodukcji (BWR) będzie mniejszy od jedności. Zapiszmy ten warunek w nieco innej postaci:

SIR 03

Jak wynika z tego wzoru, zamiast gasić pożary, poprzez drogie i mało skuteczne oddziaływania na parametry a i b można im zapobiegać, poprzez wykorzystanie ostatniego składnika BWR, mianowicie odsetka podatnych S. Jeżeli będzie on mniejszy od ilorazu czasu zarażenia i czasu wyzdrowienia, dana choroba nie tylko nie przyjmie postaci epidemii, ale w ogóle zniknie z populacji całkowicie i na stałe. Warunek ten nie zależy od początkowej liczby osób zarażonych (I), zatem nawet bardzo duża inwazja chorych osobników z innych populacji nie stanowi żadnego niebezpieczeństwa.

O ile kwarantanna została wynaleziona już stulecia temu, o tyle możliwość zmniejszenia odsetka osób podatnych pojawiła się, w odniesieniu do niektórych chorób, dopiero w XIX wieku. Mowa oczywiście o szczepieniach.

W porównaniu z przymusową kwarantanną i leczeniem są one tanie, znów biorąc pod uwagę zarówno kwestie czysto finansowe jak i miarę ograniczania ludzkiej wolności. Nie muszą też być w stu procentach skuteczne. Wystarczy że odsetek skutecznie zaszczepionych w populacji będzie wyższy niż wartość graniczna (a-b)/a, a uwzględniając naturalną wymianę ludności, nawet nieco mniej. Przymus państwowy może być tu łagodny i w zasadzie ograniczać się do nacisku psychologicznego i niewielkich zachęt finansowych. I faktycznie zastosowanie obowiązkowych szczepień pozwoliło całkowicie wyeliminować wiele bardzo groźnych chorób, które wcześniej zbierały bogate żniwo w chorych i zmarłych.

Nie można jednak oczywiście zaprzeczyć, że przymus szczepień nadal jest przymusem i tym samym jakimś ograniczeniem wolności wyboru. Konieczność jego istnienia jest też ostatnio kwestionowana przez niezwykle hałaśliwe środowiska, które w imię obrony wolności właśnie, domagają się nie tylko zniesienia samego tego przymusu, ale kwestionują też wartość szczepień w ogóle i usiłują wywołać w społeczeństwie strach przed tym zabiegiem. Przedstawiciele tych środowisk twierdzą, że przecież jak ktoś się nie zaszczepi to, co najwyżej, sam zachoruje, to jego wybór i nikomu nic do tego. Ignoruje się jednak w tym momencie fakt, że, w razie wybuchu epidemii, straty, choćby tylko wynikające z masowej absencji chorobowej pracowników firm i instytucji publicznych, ponoszą wszyscy. Chorzy, zdrowi, zaszczepieni i nie. Naturalnie, jak wyżej opisano, epidemie można zwalczać także przez przymusową kwarantannę, ale jakoś deklaracji, że przeciwnicy szczepień są gotowi tej procedurze, w razie wystąpienia takiej potrzeby, się poddać, nie słychać.

W szczerość tych wolnościowych deklaracji tym bardziej też trudno uwierzyć, że osoby wygłaszające takie poglądy, zwykle zaliczają się do zwolenników obecnie rządzącego w Polsce reżimu i broniąc werbalnie wolności w kwestii szczepień, równocześnie entuzjastycznie popierają zakaz nabywania przez Polaków ziemi rolnej, zakaz zakładania nowych aptek, czy zakaz robienia zakupów w niedziele.

Gwoli prawdy, obok argumentów wolnościowych, często podnoszone są też kwestie finansowe, czyli rzekomo olbrzymie koszty powszechnych szczepień. Jednak, jak już autor wyżej przekonywał, koszty epidemii, kiedy już wybuchnie, są znacznie wyższe i nawet, krwiożercze i chciwe koncerny farmaceutyczne z antyszczepionkowej propagandy, znacznie więcej zarobiłyby na sprzedaży i dystrybucji lekarstw, zwłaszcza w momencie związanej z wybuchem epidemii paniki, niż na samych szczepionkach.

Ponieważ poglądy antyszczepionkowe wygłaszają nie tylko szeregowi sympatycy reżimu, ale i jego wysocy funkcjonariusze, do rangi premiera włącznie, nie sposób oprzeć się wrażeniu, że wywołanie epidemii nie jest wcale tylko skutkiem ubocznym ich programu, ale właśnie jego celem głównym. Po co mianowicie próbują oni tą epidemię wywołać, nie wiadomo, ale zważywszy dodatkowo na wprowadzany przez rządzących równolegle program ograniczania dostępu do aptek i leków, na pewno nie przyniesie ona społeczeństwu niczego dobrego.

Ewolucja energetyczna. O roku 2296 opowieść.

Z punktu widzenia termodynamiki, nauki o energii, całą historię rodzaju ludzkiego można w zasadzie zredukować do trzech wydarzeń. Pierwszym z nich było opanowanie ognia. Obróbka termiczna pożywienia pozwoliła naszym, na wpół zwierzęcym jeszcze przodkom, uzyskać ze spożywanego pokarmu znacznie więcej, niż z żywności surowej energii i tym samym stymulowała w ludzkiej linii ewolucyjnej dalszy wzrost mózgu, powstanie inteligencji i świadomości. Drugim przełomem była rewolucja neolityczna, wynalezienie rolnictwa, powstanie złożonych relacji społecznych i ekonomicznych i tym samym wyjście ze stanu dzikości i narodziny cywilizacji. Rolnicy z danej powierzchni mogą bowiem pozyskać około stu razy więcej przechwyconej przez rośliny energii słonecznej, niż łowcy – zbieracze.

Trzecim takim przejściem fazowym jest rewolucja przemysłowa, powstanie cywilizacji naukowo-technicznej, zdolnej do projekcji swojego oddziaływania w kosmos, poza rodzinną planetę. Fenomenu, o ile nam wiadomo, unikatowego w skali Wszechświata, a już na pewno Galaktyki. Stało się tak, dzięki pozyskaniu przez ludzką cywilizacje innych, niż tylko część zachowanej w ekosystemie energii słonecznej, źródeł energii. Proces ten zresztą nadal trwa.

Historycznie pierwszym napędem ery industrialnej były paliwa kopalne i do dzisiaj odgrywają one decydująca rolę. Część energii, jaką paliwa kopalne dostarczają ludzkiej cywilizacji, przedstawia poniższy wykres. (wszystkie wykorzystane w artykule dane pochodzą z raportu energetycznego firmy BP). Nadal jest to lwia część.

Ew En 01

Niemniej, udział tych paliw, węgla, ropy i gazu, w ciągu ostatniego półwiecza spadł o prawie 9 pkt procentowych. Spadek ten odbywał się jednak bardzo nierównomiernie, zarówno w czasie, skoro na początku XXI wieku doszło nawet do swoistej „remisji”, jak i w podziale na poszczególne paliw kopalnych składowe.

Ew En 02

Pierwszym zaskoczeniem jest dość stabilna pozycja węgla, choć intuicyjnie należałoby oczekiwać, że to właśnie on, najbardziej brudne i kłopotliwe w użytkowaniu paliwo, będzie tracił najwięcej. Udział gazu, czego z kolei można się było spodziewać, wzrósł z 16% do ponad 24%. Największą niespodzianką zaś jest, że, wbrew szeroko rozpowszechnianym hasełkom medialnym o „uzależnieniu od ropy”, czy „cywilizacji opartej na ropie”, udział tego surowca, od swoistego „peak oilu” w roku 1973, zmalał o ponad 15 pkt procentowych. Zapadający powoli zmierzch paliw kopalnych okazuje się być, jak na razie, zmierzchem ropy.

Paliwa kopalne zatem straciły udziały w światowym zużyciu energii. Jakie inne jej źródła weszły na to opróżnione miejsce? Odpowiedź przyniesie nam kolejny wykres.

Ew En 25

Pierwsza faza wypierania paliw kopalnych, w latach 70 i 80 XX wieku była spowodowana ekspansją energetyki atomowej. Jednak koniec zimnej wojny i związany z tym znaczny spadek zapotrzebowania na produkowane w reaktorach jądrowych materiały do budowy głowic nuklearnych, spowodował długotrwały kryzys w tym sektorze. Dopiero po zmianach technologicznych, zoptymalizowaniu nowo projektowanych reaktorów do produkcji nie, jak to miało miejsce w XX wieku, ładunków jądrowych, a energii elektrycznej, energetyka atomowa mogłaby, po roku 2010 znów ruszyć z miejsca. Nie stanowiła dla niej konkurencji energetyka wodna, której udział na świecie, owszem rósł, ale bardzo powoli.

Mogłaby, gdyby nie fakt pojawienia się atrakcyjnej, jak to się, wbrew przewidywaniom, jakie żywił i niżej podpisany, okazało, dla atomu konkurencji. Odnawialnych źródeł energii, tzw. OZE. Udział OZE, jeszcze na początku XXI wieku zupełnie pomijalny, obecnie przekroczył już w skali świata 3% i rośnie bardzo dynamicznie.

Tak samo jak paliwa kopalne, również OZE, składają się z kilku, bardzo od siebie różniących się nawzajem, składowych. Ich udział przedstawiono na poniższym wykresie:

Ew En 03

Wykres ten różni się od poprzednich dwoma detalami. Zamiast udziału w całkowitym zużyciu w procentach, pokazano na nim wartości bezwzględne, tzw. Mtoe, czyli energetyczny ekwiwalent miliona ton ropy naftowej. Drugą różnicą jest przedstawienie osi pionowej w skali logarytmicznej Dokonał autor tego zabiegu po to, żeby dobitnie unaocznić, że zużycie energii ze źródeł OZE, rośnie, z bardzo wysokim dopasowaniem, wykładniczo. Tempo tego wzrostu jest jednak bardzo dla poszczególnych składników OZE nierównomierne. Najwolniej odbywa się to dla OZE „innych” gdzie wrzucono razem biopaliwa i geotermię. Zużycie energii z tych źródeł podwaja się co 135 miesięcy Dla energii wiatru podwojenie takie zachodzi co każde 36 miesięcy, zaś dla energetyki słonecznej, co 31 miesięcy. Ten wykładniczy trend trwa już, z niewielkimi zaburzeniami, od ćwierćwiecza, można więc ostrożnie założyć, że potrwa jeszcze przynajmniej pokolenie.

Do roku 2040, co przecież nastąpi jeszcze za życia wielu obecnych czytelników, ziemska energetyka zmieni się zatem w sposób radykalny. Przyszłość będzie całkowicie obcą dla nas krainą.

Udział paliw kopalnych spadnie poniżej 15% całości, w tym samej ropy do zaledwie 5%. Natomiast grubo ponad 80% energii pochodzić będzie ze źródeł odnawialnych, w tym jedna czwarta czerpana będzie bezpośrednio ze Słońca. Taka jest potęga przyrostu wykładniczego, którym charakteryzują się OZE i jego przewagi nad wzrostem liniowym, typowym dla pozostałych źródeł energii

Oczywiście żaden proces wykładniczy w skończonym świecie nie może trwać wiecznie i w końcu nawet energetyka słoneczna napotka gdzieś na swoje bariery rozwojowe, które wyhamują jej rozwój i ustabilizują produkcję energii z tego źródła na jakimś, choć, z dzisiejszego punktu widzenia zapewne niewyobrażalnym, poziomie. Dopiero wtedy, znacznie później niż się to autor niniejszego eseju kiedyś spodziewał, do łask wróci znów energia atomowa, tym razem zapewne już w postaci fuzji. Ale brudne, niewydajne, o niskiej tzw. entalpii właściwej, i bardzo kłopotliwe politycznie, paliwa kopalne będą należeć już do zamierzchłej przeszłości.

Pozyskiwanie i przerób energii to proces, który oprócz korzyści, wiąże się też z pewnymi, jak to się w naukach ekonomicznych określa, kosztami zewnętrznymi. Do najbardziej znanych takich kosztów należy zanieczyszczenie środowiska. I znów przed erą industrialną, ludzkie społeczności dokonywały, co prawda, głębokich przekształceń środowiska przyrodniczego, wybijały mamuty, czy karczowały lasy, ale nie odprowadzały do środowiska praktycznie żadnych odpadów. Tak zwany dzisiaj recykling, sięgał wtedy prawie 100%. Wraz z rewolucją przemysłową pojawiły się jednak także śmieci i odpady. Aby ocenić obecny poziom emitowanych skażeń posłużymy się wskaźnikiem emisji dwutlenku węgla w przeliczeniu na jednostkę energii toe. Co prawda sam CO2 akurat nie jest specjalnie szkodliwy, ale jego emisja jest dość dobrze skorelowana z emisją zanieczyszczeń znacznie bardziej od niego niebezpiecznych.

Ew En 04

Wykres ten, jest z grubsza podobny do pierwszego wykresu pokazującego udział paliw kopalnych w światowej konsumpcji energii. W miarę zmniejszania ich udziału, maleją także emisje zanieczyszczeń. Różnica polega na tym, że trend spadkowy jest tu bardziej konsekwentny, a zaburzenie w nim widoczne na początku XXI wieku, wyraźniejsze. Gdyby nie owa anomalia, nieprzypadkowo zapewne skorelowana z rozpętaną wówczas medialną histerią wokół tzw. „globalnego ocieplenia”, które obecnie po cichu zmieniono już na „globalne zmiany klimatyczne”, nie musielibyśmy czekać z marginalizacją znaczenia ropy i węgla do roku 2040, a poziom emitowanych skażeń już dziś byłby niższy niż 2 tys. kg CO2/toe.

Niniejszy esej poświęcony jest termodynamice, czyli napędzającej naszą cywilizację energii. Jednak wytwarzanie i pozyskiwanie energii, tylko dla centralnie planowanej gospodarki socjalistycznej, może być celem samym w sobie. W gospodarce normalnej, wolnorynkowej, energię pozyskuje się nie po to, żeby osiągnąć jakiś wskaźnik kilowatogodzin przeliczonych na tony wyprodukowanej surówki, ale po to, aby zarobić pieniądze, czyli w przybliżeniu, wytworzyć PKB. Relacja pomiędzy poziomem zużycia energii a wielkością PKB nie jest bynajmniej jednoznaczna i liniowa. Gospodarka maltuzjańska, rolnicza, preindustrialna, wytwarza, patrząc dzisiejszymi kategoriami, niewiele PKB, ale energii zużywa jeszcze mniej. W rezultacie przetwarza ona dostępną sobie energię na produkt z zaskakująco wysoką wydajnością. Wraz z początkiem ery industrialnej pojawiają się nowe, wcześniej niedostępne źródła energii. Cena kilowatogodziny maleje bardzo znacznie, a PKB wytwarzany z jednostki energii spada dramatycznie, czasami o kilka rzędów wielkości. Z biegiem czasu jednak nośniki energii drożeją, technologie jej przerobu się rozwijają, a wydajność energetyczna gospodarki ponownie rośnie. Na kolejnym wykresie przedstawiono ten proces dla kilku różnych krajów, w tym Polski.

Ew En 05

Widać pewną generalną prawidłowość, zgodnie z którą, kraje położone w chłodnym klimacie, zużywające zatem sporo energii na ogrzewanie, oraz kraje rozległe i rzadko zaludnione, gdzie dużym odbiorcą energii jest transport, mają wydajność energetyczną, w porównaniu z krajami ciepłymi i gęsto zaludnionymi, stosunkowo niską. Stąd przewaga Indii nad Chinami, stąd też stosunkowo słaby wynik USA i jeszcze gorszy, nie pokazanej na wykresie, Kanady, stąd też mierna pozycja Szwecji i Norwegii, krajów przecież bardzo rozwiniętych. Jednak wszędzie tam, gdzie industrializacja już zaszła, nawet w miejscach tak zacofanych i prymitywnych, jak Rosja, jest widoczny, słabszy, lub silniejszy, ale jednoznaczny trend wznoszący. Poza państwami ciągle jeszcze maltuzjańskimi, jak Wenezuela, czy Kuwejt, dzisiaj na świecie wzrost gospodarczy jest szybszy niż wzrost zużycia energii. Nie oznacza to jednak, że w przyszłości ten trend się utrzyma, a nawet, w przypadku nagłego potanienia energii, że się znów nie odwróci. Do dalszych rozważań przyjmiemy jednak, że średnio wzrost gospodarczy będzie wprost proporcjonalny do poziomu zużycia energii.

Ten ostatni jest czasami używany jako wskaźnik zaawansowania naukowego i  technologicznego hipotetycznych cywilizacji pozaziemskich, mierzony tzw. skalą Kardaszewa. Jest to skala logarytmiczna, o współczynnikach dobranych w taki sposób, aby wskaźnikowi równemu 1 odpowiadała wielkość całej energii jaka dociera do Ziemi ze Słońca, a wskaźnikowi równemu 2, całkowita energia wytwarzana przez Słońce. Cywilizacja, która osiągnęła poziom I jest zdolna do opanowania i zagospodarowania swojego układu planetarnego. Cywilizacja poziomu II prowadzi już z pełnym rozmachem ekspansję w Galaktyce, aż do opanowania jej całej i stania się tym samym cywilizacją poziomu III

W roku 2016 całkowita moc produkowana przez ziemską cywilizację wynosiła 18 terawatów, co daje naszej planecie, w skali Kardaszewa, poziom 0,73. Ponieważ zużycie energii rośnie wykładniczo, zatem sam współczynnik Kardaszewa, z bardzo dobrym dopasowaniem, liniowo. Ekstrapolując dotychczasowy trend w przyszłość, możemy więc znaleźć datę osiągnięcia przez Ziemian poziomu I. Będzie to tytułowy rok 2296 i wtedy też zapewne pierwsi ludzie wyruszą ku innym, niż Słońce, gwiazdom. Ponieważ jednak, jak już wspomniano, utrzymanie jakiegokolwiek wykładniczego wzrostu w środowisku o skończonych rozmiarach w nieskończoność, a globalnej produkcji energii nawet tylko do końca XXIII wieku, nie jest możliwe, zatem aby osiągnąć poziom I, ludzka cywilizacja będzie po prostu musiała wykorzystać w tym celu zasoby nie jednej planety, ale całego układu słonecznego. Jak wykazuje bardziej subtelne dopasowanie do obecnego trendu, kiedy wystartują pierwsze gwiazdoloty, tylko około 84% całej dostępnej ówcześnie ludzkości energii, a zatem i PKB, będzie wytwarzane na Ziemi, natomiast reszta, poza naszą planetą. Udział Ziemi będzie zresztą systematycznie maleć już od połowy XXI wieku, kiedy gospodarka pozaziemska, powinna po raz pierwszy osiągnąć zauważalny udział w całkowitym PKB.

Ew En 06

Powyższy artykuł został opublikowany w numerze 1461/1462 tygodnika „Najwyższy Czas”

Patogeny i patomemy

Niżej podpisany jest na tyle stary, żeby pamiętać początek lat 80 XX wieku i szał jaki ogarnął wtedy Polskę. Szał na punkcie zabawki, zwanej kostką Rubika. Narodowy, zrepolonizowany, socjalistyczny przemysł, jak zwykle w PRL, nie był w stanie pokryć zapotrzebowania na ten produkt, na szczęście właśnie wtedy zaczął się nieśmiało rozwijać sektor prywatny i akurat ten nieskomplikowany produkt był w stanie na rynek „rzucić”.

I zaczęło się szaleństwo. Przez kilka lat wszędzie jak okiem sięgnąć, wszyscy układali kostkę. O kostce pisano artykuły w gazetach i robiono programy w obu ówczesnych kanałach telewizyjnych. O kostce się mówiło w domu, pracy i szkole. W układaniu kostki organizowano zawody i turnieje.

A potem się skończyło. Kostka Rubika do dzisiaj jest produkowana i sprzedawana, ale nie porywa już tłumów, tak jak wtedy. Podobne cykle popularności odbywa wiele różnych sezonowych mód. Zaczynają się od niewielkiej grupki entuzjastów, rozszerzają się, często z szybkością płomienia, po czym, po osiągnięciu szczytu zainteresowania stopniowo słabną i zanikają, ostając się tylko ewentualnie w jakichś niszach.

Co zatem sprawia, że niektóre produkty, np. wirtualne kurczaki tamagotchi, zyskują, choćby i chwilową, ale jednak olbrzymią popularność, a inne, na pozór niczym się od nich nie różniące, nie?

Ludzie, tak jak i inne zwierzęta o dostatecznie złożonym układzie nerwowym, uczą się poprzez naśladownictwo. Tempo rozprzestrzeniania się danej idei będzie więc proporcjonalne do ilości osób ową ideę, choćby tylko własnym przykładem, propagujących. Aby jednak zdobyć popularność, moda musi być też stosunkowo łatwa do przyjęcia i mieć pewien potencjał zaintrygowania osób postronnych. Jeżeli dany kapelusz będzie w oczach większości wyglądał obciachowo, to nawet najbardziej uparte lansowanie go, nie zapewni sukcesu. Moda nie musi być też dawać swoim nosicielom żadnych korzyści. Wiele z popularnych niegdyś mód było nawet jawnie szkodliwych. Mody, czy idee pożyteczne utrwalają się w społeczeństwie, bo są stale użytkowane. Mody neutralne lub szkodliwe z czasem, jak wspomniano, znikają.

Próbując zbudować oparty na powyższych założeniach model rozprzestrzeniania się idei w społeczeństwie, niżej podpisany, nie bez zdziwienia odkrył, że wcale nie musi tego robić, bo odpowiednie równania już istnieją. Jest to tzw. model SIR, oryginalnie powstały w celu opisania przebiegu chorób zakaźnych. Autor się więc zdziwił, ale, logicznie rozumując, nie powinien . Matematyka zdolna opisywać transmisję patogenów, równie dobrze nada się przecież do opisu transmisji patomemów. W końcu nie bez powodu istnieje powiedzenie, że pomysły są zaraźliwe.

Wspomniany model SIR dzieli populację na trzy grupy – podatnych na zainfekowanie S (suspectible), zarażonych I (infectious) i ozdrowiałych R (recovered). Podatni (S) zarażają się przez kontakt z osobami chorymi (I) i sami przechodzą do tej grupy. Po jakimś czasie zdrowieją, nabywają odporność i stają się odpornymi (R). Przebieg inwazji patogenów pokazuje więc schemat

S => I => R

I zestaw równań

  • dS/dt = m(1-S)-aSI
  • dI/dt = aSI-mI-bI
  • dR/dt = bI-mR

W których wartości S, I, R podane są jako odsetki całkowitej populacji.

Parametry a i b to odpowiednio tempo zarażania  i tempo zdrowienia. Dodatkowo należy uwzględnić naturalną wymianę populacji odbywająca się z szybkością m % w jednostce czasu. Współczynnik m jest odwrotnością średniej długości ludzkiego życia i tak samo współczynnik a jest odwrotnością średniego czasu, w jakim osobnik (S) pozostając w kontakcie z osobnikiem (I) się od niego, chorobą, czy ideą, zarazi, a b średniego czasu potrzebnego na przebycie choroby, czyli przejścia z kategorii (I) do (R).

Z drugiego równania w powyższym zestawie możemy wprost odczytać, kiedy dochodzi do epidemii, w naszym przypadku epidemii mody. Dzieje się tak wtedy, kiedy liczba zarażonych wzrasta, czyli jej pochodna po czasie jest większa od zera

Zatem

SIR 01

A przy założeniu, że moda trwa dużo krócej niż średni czas życia osobnika, czyli m<<b

SIR 02

 Wyrażenie po lewej stronie powyższej nierówności to tzw. bazowy współczynnik reprodukcji (BWR) dla danej infekcji. Pokazuje on ile osób podatnych (S) zarazi średnio, podczas swojej choroby, jeden chory (I).

Powiedzmy więc, że jesteśmy marketingowcami jakiegoś koncernu, który chce wylansować nową zabawkę i na tym zarobić. Jak najlepiej się do tego zabrać? Odpowiedź przynosi nam bazowy współczynnik reprodukcji. W pierwszym rzędzie należy zatem zadbać o swoistych prekursorów, osoby, które modę na nasz gadżet, w swoich środowiskach będą lansować. Dopóki bowiem I = 0, rozwiązaniem modelu SIR jest stabilna populacja S = 100%. Intuicyjnie można by oczekiwać, że im więcej zatrudnimy takich osób, tym więcej klientów będziemy mogli pozyskać. I faktycznie, taka zależność istnieje. Jednak jest ona dość słaba i aby zaobserwować faktyczny wpływ liczby prekursorów na poziom sprzedaży, liczba ta musiałaby być nierealistycznie wysoka, rzędu 10 procent całości populacji. Ilość, wbrew marksistom, nie przechodzi w tym przypadku w jakość. O tym, jak dużo naszego produktu uda się na rynku rozprowadzić, decyduje za to stosunek a/b, co widać na wykresie, sporządzonym dla początkowego I na poziomie zaledwie 0,01%

Szczep 02

Nawet nieznacznie przekraczając w tym stosunku 1, osiągniemy spektakularny sukces marketingowy, mogąc sprzedać nasz produkt niespodziewanie wysokiemu odsetkowi populacji. Dla a/b = 2,5 będzie to już 90% obywateli. Musimy więc zadbać, aby a było dostatecznie wysokie, a b – wręcz przeciwnie. Nie jest to bynajmniej proste. Aby b było odpowiednio niskie, musi dany produkt pozostawać dla swojego użytkownika atrakcyjny przez odpowiednio długi czas. Warto zauważyć, że ten warunek nie jest spełniony w dziedzinie, która, jak żadna inna, jest wprost uosobieniem mody – czyli w branży odzieżowej. Modny ciuch zwykle przestaje być modny bardzo szybko – w skrajnych przypadkach po jednorazowym założeniu. Ta cecha mody powoduje, że zostaje zachowana różnorodność w ubiorze i społeczeństwo, jeżeli nie jest poddane rządom totalitarnym, nigdy nie jest jednolicie umundurowane. Natomiast kostką Rubika, czy kurczakiem tamogochi, można się cieszyć i bawić stosunkowo długo, dlatego też te mody etap epidemii osiągnęły.

Kwestia współczynnika a jest bardziej złożona. Po pierwsze zależy on od łatwości użytkowania. Zabawka zbyt skomplikowana, której reguł obsługi trzeba się mozolnie i długo uczyć, nie zdobędzie frekwencji. Po drugie zależy od dostępności. Artykuł który trzeba zamawiać na miesiące do przodu również nie stanie się modowym hitem. No i wreszcie kwestia ceny. Produkt, w stosunku do zarobków, drogi, jest z natury elitarny i nigdy, co oczywiste, nie sprzeda się w dużych ilościach i żadne, najbardziej nawet energiczne i kompetentne, lansowanie mody na Ferrari w niczym tu nie pomoże. Nieprzypadkowo do najlepiej sprzedających się gier planszowych należą gry z serii Catan i Carcassone.  Nie są drogie, mają one stosunkowo proste, łatwe do ogarnięcia, reguły, które jednak generują bardzo wiele skomplikowanych i czasami zaskakujących kampanii.

Warto też zauważyć, że jeżeli już uda się osiągnąć nierówność a>b i moda przyjmie postać samonapędzającej się epidemii, to popyt na nasze zabawki w pewnym momencie narośnie lawinowo i jeżeli nie będziemy na to dystrybucyjnie przygotowani, to braki w zaopatrzeniu gwałtownie pogorszą nam BWR i sprzedaż się załamie ma długo przed osiągnięciem teoretycznej granicy wysycenia rynku.

Innym niebezpieczeństwem jest konkurencja. Ona nigdy nie śpi i zrobi wszystko, żeby nasypać nam piasku w tryby i wsadzić kij w szprychy. W szczególności, kontynuując analogię z chorobami, będzie próbowała potencjalnych konsumentów na nasz produkt …zaszczepić, czyli obniżyć potencjalną liczbę nabywców S poniżej poziomu b/a, co w epidemiologii gwarantuje, że do rzeczonej epidemii nie dojdzie. Będziemy więc słyszeć, że nasz produkt jest szkodliwy, rakotwórczy, wywołuje impotencje, dyskryminuje buddystów, transwestytów i małe zwierzęta, a do jego produkcji używa się resztek abortowanych płodów. Każda plotka, która może obniżyć BWR, jest dobra. I podobnie jak w przypadku prawdziwych szczepień, jedne plotki przyjmują się łatwiej, inne trudniej. Marketing to naprawdę ciężki kawałek chleba.

Mody i memy, w tym patomemy rozprzestrzeniają się zatem według modelu SIR. Dotyczy to nie tylko handlu i reszty gospodarki. Dotyczy to też polityki. W tej sferze również potrafią rozprzestrzeniać się idee, nawet jawnie dla nosicieli, nie mówiąc już o osobach postronnych, szkodliwe. Na poniższym wykresie pokażemy nasilenie jednej z takich memetycznych chorób. Konkretnie chodzi o widoczne w Polsce pragnienie do powrotu stosunków społecznych i gospodarczych z czasów PRL, dlatego też autor nazwał tą chorobę „Epidemią PRL”. Nie ulega wątpliwości, że jest to idea szkodliwa dla wszystkich bez wyjątku, bo w PRL, nawet najwyżsi dygnitarze partyjni, w porównaniu nawet z robotnikami wykfalifikowanymi z krajów normalnych, byli skończonymi dziadami. Niemniej, mimo tej ewidentnej szkodliwości ów patomem swoich nosicieli znajduje. Pomarańczowe słupki pokazują odsetek zainfekowanych w dorosłej populacji Polski w poszczególnych latach, dla których takie dane są dostępne, niebieska linia najlepsze dopasowanie modelu SIR

Szczep 03

Dopasowanie jest zadziwiająco dokładne, średni błąd kwadratowy wynosi 0,34 pkt proc. Dane rzeczywiste pochodzą, jak łatwo się domyślić, z wyników wyborów parlamentarnych i są zsumowanym wynikiem jaki uzyskały (jako odsetek uprawnionych do głosowania) partie polityczne obiecujące, w  sposób mniej lub bardziej zawoalowany, powrót do PRL. Chodzi oczywiście głównie o partię PIS i jej „przystawki” z którymi w przeszłości elektoratem się wymieniała i w końcu je wszystkie pożarła.

Parametry niebieskiej krzywej to, przy tempie wymiany populacji m= 1,67% rocznie,  a = 0,34 b = 0,16. Aby zarazić się PISem potrzeba zatem niezaszczepionej osobie średnio ok 35 miesięcy obcowania z ich propagandą, ale żeby z PISu wyzdrowieć, potrzeba czasu ponad dwukrotnie dłuższego. I taki proces jest widoczny. Osoby publiczne, które wyleczyły się z epidemii PRL za pamięci niżej podpisanego, to np. Giertych, Marcinkiewicz, Ujazdowski, Dorn, prawdopodobnie też Gursztyn i Warzecha, choć ci ostatni, zależni od PIS finansowo, nie postawili do dzisiaj kropki nad i. Do osób, które na PIS, czasami w spektakularny sposób, zachorowały zaliczyć można Ziemkiewicza, Pilipiuka, czy Cejrowskiego.

Jak każda dobra teoria, również ta zawiera w sobie możliwe do doświadczalnej weryfikacji prognozy. Widać na wykresie że maksimum epidemii wystąpiło w 2010 roku. Data ta w niepokojący sposób jest zbieżna z katastrofą smoleńską – mitem założycielskim PIS. Hipoteza, że ktoś już wówczas wyrysował sobie powyższy wykres i chciał w ten sposób utorować wtedy genetycznym patriotom drogę do władzy, nie jest więc zupełnie nieprawdopodobna. Obecnie fascynacja PRLem jest jednak już w fazie schyłkowej W roku 2019, kiedy odbyć się mają następne wybory parlamentarne, poparcie dla PIS spadnie do poziomu ok 15,2% uprawnionych do głosowania, co przy tradycyjnej frekwencji bliskiej 50% powinno dać PIS nieco tylko ponad 30% głosów. Równolegle rośnie też siła „antyPISu”, czyli osób odpornych (R) i w 2019 osoby takie przekroczą 50% populacji. Prognoza ta może się wydać optymistyczna, ale niestety, znają ją również PIS i jego protektorzy, zatem przeprowadzenia uczciwych wyborów i uznanie ich wyników, nie jest tym, czego można by w przyszłym roku w Polsce oczekiwać. Nie po to PIS zmieniał ordynację i zlikwidował niezależne sądownictwo z, ustalającym ważność wyborów, sądem najwyższym na czele.

Czwarty element. Samowary, czarne oceany i to coś pomiędzy.

Niniejszy artykuł jest kontynuacją wpisu o Paradoksie Fermiego (cz I, cz II), który zaleca się wcześniej przeczytać

W artykule „O milczeniu Wszechświata”, niżej podpisany rozważał możliwe przyczyny tzw. „paradoksu Fermiego”, czyli braku jakichkolwiek śladów istnienia pozaziemskich cywilizacji. Takie ślady, według wszelkich racjonalnych założeń, powinny być bowiem, zwłaszcza w postaci sygnałów radiowych, spotykane często i łatwo. Budując, a następnie analizując adekwatny model powstawania i rozprzestrzeniania się cywilizacji w Galaktyce, doszedł autor do dwóch wniosków. Po pierwsze zjawisko, zwane z łacińska Silentium Universii, jest zjawiskiem rzeczywistym, a nie wynikającym tylko z ludzkich ograniczeń technologicznych, tzn. cywilizacji nie widać, ponieważ ich faktycznie nie ma. A jedynym sensownym rozwiązaniem paradoksu Fermiego jest przyjęcie, że prawdopodobieństwo powstania takiej cywilizacji jest ekstremalnie małe. Tak małe, że do dzisiaj w Galaktyce zdążyła powstać tylko jedna – nasza własna. Mimo że wniosek ten jest w pewnym sensie przełomowy, ponieważ większość autorów rozważających to zagadnienie, jako przyczynę owego wielkiego milczenia wskazuje raczej na mikrą średnią długość życia już powstałej cywilizacji, to jednak pozostawał artykuł czytelnika w pewnym niedosycie. Nie zostało bowiem w nim w żaden sposób wyjaśnione, dlaczego owo prawdopodobieństwo miałoby być aż tak nikłe. Artykuł niniejszy jest próbą uzupełnienia tej luki, poprzez potraktowanie zjawiska cywilizacji naukowo-technicznej, jako skrajnego przypadku fenomenu znacznie lepiej naukowo poznanego i opisanego – życia.

Poszukiwania życia pozaziemskiego prowadzone były właściwie już od momentu, kiedy zorientowano się, że planety nie są tylko poruszającymi się po niebie zgodnie ze skomplikowanymi, ale możliwymi do zrozumienia regułami, światełkami, ale także oddzielnymi światami, w jakimś tam stopniu podobnymi do Ziemi. Przełom kopernikański nie polegał bowiem tylko, jak to się zwykle w wąskiej, czysto astronomicznej, interpretacji przedstawia, na zmianie punktu odniesienia wokół którego orbitują ciała niebieskie z Ziemi na Słońce, ale na całkowitej zmianie myślenia o Wszechświecie. W obowiązującej do czasów warmińskiego kanonika fizyce arystotelesowskiej, życie i w ogóle jakiekolwiek bardziej skomplikowane struktury mogły istnieć wyłącznie na Ziemi, bo tylko w tej „sferze” możliwe było mieszanie się „żywiołów”, ich wzajemne oddziaływanie i tym samym arystotelesowski odpowiednik chemii. Przestrzeń pozaziemska była natomiast straszliwie monotonna i wypełniona tylko jednym „żywiołem” (pierwiastkiem) – uranoizą, zwanej też z łacińska kwintesencją. Odkrycie Kopernika zerwało radykalnie z tym paradygmatem, a Kosmos okazał się być prostym przedłużeniem Ziemi. Skoro więc prawa rządzące Kosmosem okazały się być takie same, jak na naszym globie, to i rezultat działania tych praw powinien być, zgodnie z tym rozumowaniem, zbliżony, w szczególności na planetach podobnych do Ziemi powinny bytować podobne do ziemskich istoty.

 W pewnym momencie uważano nawet, że praktycznie wszystkie znane planety i księżyce są zamieszkane, nawet przez inteligentne formy życia, a przekonanie to było tak silne, że w przypadku najbardziej obiecujących pod tym względem lokalizacji, jak Wenus, czy Mars, utrzymało się aż do połowy XX wieku. Wszelkie jednak podobne spekulacje okazały się przedwczesne i przyniosły wyłącznie rozczarowanie. Dwie były przyczyny tego stanu rzeczy. Nie tylko, aż do powstania międzyplanetarnej kosmonautyki, nie znano dokładnie warunków panujących na innych planetach, ale też nie rozumiano zbyt dobrze samego zjawiska życia, tego jak ono powstaje, czym się charakteryzuje i jakie są jego interakcje ze środowiskiem w którym występuje. I do dzisiaj, pomimo, że wiemy na ten temat już całkiem sporo, nie można twierdzić, że nic nas już w tej materii nie zaskoczy, skoro nadal nie potrafimy fenomenu życia w laboratorium odtworzyć. Obecnie życia pozaziemskiego szuka się już raczej poza układem słonecznym i w ciągu kilku-kilkunastu lat, wraz z wejściem do użytku nowej generacji gigantycznych teleskopów naziemnych i orbitalnych, można się wreszcie spodziewać sukcesu w tej kwestii. Na razie, co rusz jesteśmy elektryzowani doniesieniami o odkryciu kolejnych pozasłonecznych planet leżących w tzw. ekostrefie, czyli w takiej odległości od swoich macierzystych gwiazd, która gwarantuje na tych globach odpowiednią, dla potencjalnego istnienia tam żywej biosfery, temperaturę.

Temperaturę odpowiednią, to znaczy właściwie jaką? Najczęściej spotykaną odpowiedzią na to pytanie, jest nieco enigmatyczne stwierdzenie, że temperatura odpowiednia, to taka, która umożliwia na danej planecie istnienie wody w stanie ciekłym. Obecność tej substancji, obok dostępności odpowiednich związków mineralnych, oraz jakiegoś źródła energii, uznaje się bowiem za podstawowy czynnik umożliwiający powstanie i istnienie na takim globie istot żywych. W rzeczywistości jednak, jak się jeszcze o tym przekonamy, chociaż faktycznie te trzy warunki są do zaistnienia zjawiska życia konieczne, to jednak nie są wystarczające. Potrzebny jest jeszcze czwarty, tytułowy element, zwykle w rozważaniach tego rodzaju pomijany.

Warunek występowania ciekłej wody, w skrajnie uproszczonej interpretacji, przekłada się na oczekiwanie, że niezbędna temperatura będzie się zawierać w przedziale od 0 do 100 stopni Celsjusza. Jest to jednak oczekiwanie nieco naiwne. Patrząc na górny koniec skali, nie można zapominać, że temperatura wrzenia wody wynosi, owszem, 100 stopni Celsjusza (373 Kelwiny), ale tylko pod ciśnieniem atmosferycznym, czyli takim, jakie jest obecnie na Ziemi – 0,1 MPa. W miarę spadku ciśnienia, np. w wysokich górach, temperatura wrzenia się obniża, aż do 0 stopni w tzw. punkcie potrójnym pod ciśnieniem 612 Pa. W drugą stronę, przy ciśnieniach wyższych od atmosferycznego, temperatura wrzenia stopniowo rośnie, aż do osiągnięcia ciśnienia krytycznego, ok 2,2 MPa (218 atmosfer), powyżej którego woda nie będzie wrzeć niezależnie od wysokości temperatury. Teoretycznie więc można sobie wyobrazić, jakąś bardzo gorącą planetę z oceanami o temperaturze kilkuset stopni i gęstą atmosferą wysyconą parą wodną. Taka planeta – samowar musiałaby być bardzo ciężka, typu zwanego w astronomii „superziemią”, bo lżejszy glob, wielkości Ziemi, lub mniejszej, szybko by taką atmosferę, wskutek zjawiska zwanego wypływem hydrodynamicznym, lub ucieczką Jeansa, utracił, ale podany warunek przebywania w ekostrefie, czyli występowania na powierzchni wody w stanie ciekłym, jak najbardziej by spełniała. Co więcej nawet na Ziemi istnieją organizmy, które w takiej ultragorącej wodzie w temperaturze przekraczającej 100 stopni bytują i prosperują. Bariera 100 stopni dla ciekłej wody nie jest zatem bynajmniej barierą nieprzeniknioną, a takie złudzenie mogło powstać i funkcjonować wyłącznie dlatego, że w naszym Układzie Słonecznym, pomijając Wenus, która ma na to zbyt słabą grawitację, podobnej planety – samowara w ogóle nie ma.

Nie da się jednak tego powiedzieć o drugim końcu skali, obiektach bardzo zimnych, których z kolei mamy na naszym kosmicznym podwórku bez liku.

Zanim jednak do nich przejdziemy, omówimy wcześniej, na przykładzie najlepiej nam znanego układu planetarnego, samą ekostrefę jako taką. Zważywszy na fakt że planety gazowe, takie jak Jowisz, Saturn, czy nawet Uran i Neptun, cechują się swoistą, sobie tylko właściwą, dynamiką, ich temperatura w niewielkim tylko stopniu zależy od odległości od Słońca, a ponadto nie mają one oczywistej powierzchni, punktu odniesienia, której temperaturę moglibyśmy porównywać między sobą, w dalszych rozważaniach weźmiemy pod uwagę jedynie obiekty skaliste, mające stałą powierzchnię. Globy te, niezależnie od tego, czy okrążają one bezpośrednio swoją gwiazdę macierzystą, czy też są księżycami jakiejś innej planety, nazywać będziemy zbiorczo „planetami”

W pierwszym przybliżeniu możemy założyć, że temperatura na danej planecie, zależy od wielkości strumienia energii dostarczanej jej przez macierzystą gwiazdę, u nas Słońce. Zależność między temperaturą a promieniowaniem opisuje prawo Stefana – Boltzmana

samo 01

gdzie F, to strumień promieniowania słonecznego w watach/metr kwadratowy, zwany także niezbyt ściśle stałą słoneczną, T to temperatura w Kelwinach, a σ, to stała Stefana-Boltzmana równa 5,67*10^-8 W/(m^2*K^4)

Strumień promieniowania słonecznego docierający na planetę zawiera się w kole o promieniu równym promieniowi tejże planety. To promieniowanie rozkłada się na powierzchnię, będącą w dobrym przybliżeniu sferą. Ponieważ zaś powierzchnia sfery jest cztery razy większa od powierzchni koła o tym samym promieniu, zatem równanie nasze przybierze postać:

samo 02

Stała słoneczna F maleje (jak widać nazywanie jej stałą nie jest szczególnie uprawnione) wraz z odległością od gwiazdy odwrotnie proporcjonalnie do kwadratu odległości

samo 03

L jest zaś całkowitą mocą wypromieniowaną przez daną gwiazdę, w przypadku Słońca to 3,85*1026 watów, a R odległością od gwiazdy. Po odpowiednich przekształceniach otrzymujemy temperaturę powierzchni danego globu.

samo 04

Na poniższym wykresie przedstawimy teraz rozkład tej temperatury w zależności od odległości od Słońca. Czerwone kwadraciki reprezentują rzeczywiste ciała niebieskie. Dla polepszenia czytelności, obie osie przedstawiono w skali logarytmicznej. Temperatura, w bezwzględnej skali Kelvina, maleje, jak wynika z powyższego wzoru, odwrotnie proporcjonalnie do pierwiastka kwadratowego odległości od naszej gwiazdy.

Ekostrefa 01

Jak widać, dopasowanie rzeczywistych planet do krzywej teoretycznej jest, na pierwszy rzut oka, dość dobre. Przypatrując się jednak wykresowi bliżej, można jednak zauważyć pewne niedokładności. Najbardziej rzuca się w oczy odchyłka w przypadku Wenus, ale i pozostałe globy też nie leżą dokładnie tam, gdzie nasza teoria przewiduje. Oczywiste więc jest, że zaprezentowany model jakieś dość istotne zjawiska pomija. Uwzględniamy w nim bowiem tylko cechy centralnej gwiazdy układu, oraz charakterystyki orbit planetarnych, całkowicie pomijając właściwości samych planet. Musimy zatem wprowadzić do modelu odpowiednią uwzględniającą ten fakt poprawkę, nazywając ją „współczynnikiem planetarnym” P. Współczynnik P określa o ile należy zmodyfikować docierający do planety strumień promieniowania, aby uzyskać obserwowaną na niej temperaturę. Model przybiera teraz postać:

samo 05

Wielkość współczynnika planetarnego dla poszczególnych planet przedstawia kolejny wykres.

Ekostrefa 02

Od czego zależy ów „współczynnik planetarny”? Rozdzielimy go na dwie składowe. Pierwsza z nich będzie osłabiać efektywny strumień promieniowania docierający do powierzchni planety, druga przeciwnie, zwiększać go. Czyli:

samo 06

Składowa A to tzw. albedo. W pierwotnym modelu założyliśmy bowiem milcząco, że nasze planety są ciałami doskonale czarnymi pochłaniającymi całość padającego na nie promieniowania. W realnym przypadku jednak, część promieniowania zawsze będzie odbijana z powrotem w kosmos. O tym jaka to część, decyduje właśnie współczynnik zwany albedo, czy, żeby być bardziej precyzyjnym, albedo Bonda. Planety brane tutaj pod uwagę mają albedo bardzo zróżnicowane, od 9% w przypadku Ceres, do 99% dla, nie bez powodu, jak widać, zwanego zwierciadłem układu słonecznego, Enceladusa. Istnienie większego od zera albedo powoduje schłodzenie danego ciała poniżej temperatury, jaką przywidywał dla niego pierwotny model. Kwestia albedo jest jeszcze stosunkowo prosta, a jego wartości dla większych ciał krążących w Układzie Słonecznym dość dobrze poznane i opisane. Inaczej ma się sprawa z podgrzewaniem – współczynnikiem E, które może mieć więcej niż jedną przyczynę.

 Na kolejnym wykresie pokażemy teraz o ile dany obiekt, już po uwzględnieniu wpływu albedo, jest w skali bezwzględnej, cieplejszy od przewidywań teoretycznych.

Ekostrefa 03

Planety z wykresu można z grubsza podzielić na trzy grupy. Do pierwszej należą te ciała, których temperatura jest opisywalna tylko i wyłącznie przez wielkość lokalnej stałej słonecznej i albedo, czyli w których przypadku E0. Do tego zbioru należą Merkury, Księżyc, Mars, i Ceres. Niewielką nadwyżkę temperatury w przypadku Ceres można bez trudu złożyć na karb błędów w pomiarach jej średniej temperatury i/lub albedo. Potem mamy Wenus i Ziemię, dwie planety obdarzone gęstą atmosferą. Gazy wchodzące w skład tych atmosfer, działają jako swoiste przegrody, przepuszczające światło słoneczne, ale pochłaniające wypromieniowywane przez powierzchnie planet promieniowanie podczerwone. Podgrzane w ten sposób atmosfery emitują wtórne promieniowanie w stronę powierzchni, co podnosi jej temperaturę powyżej przewidzianego teoretycznie poziomu. Zjawisko to nazywa się efektem cieplarnianym. Hipotetycznie można do tej grupy zaliczyć także posiadającego gęstą, ale o odmiennym od ziemskiego, czy wenusjańskiego składzie, atmosferę Tytana. Hipotetycznie, bo Tytan z kolei jest członkiem obszernej grupy planet skalisto-lodowych, którą teraz będziemy omawiać.

Wszystkie one, podobnie jak Wenus i Ziemia, ale tym razem na pewno nie z powodu efektu cieplarnianego, wykazują nadwyżkę zmierzonej temperatury powierzchni nad temperaturą teoretyczną, wynikającą z wielkości stałej słonecznej i albedo. Naturalnie nadwyżka nadwyżce nierówna. Temperatura, jak należy przypomnieć, jest wprost proporcjonalna do pierwiastka czwartego stopnia z promieniowania, stąd podniesienie o 10% temperatury z poziomu 10 Kelwinów to zupełnie co innego niż podniesienie temperatury o 10% z poziomu 100 Kelwinów. To pierwsze wymaga zwiększenia strumienia promieniowania zaledwie o 0,00026 W/m2, to drugie już o 2,63 W/m2, wielkość o 5 rzędów wielkości większą. Dlatego na kolejnym wykresie pokażemy nadwyżkę energii, jaka jest potrzebna do podgrzania skalno-lodowych globów w zewnętrznym układzie słonecznym do obserwowanych temperatur.

Ekostrefa 04

Skąd się ta dodatkowa energia bierze? Skoro nie pochodzi ona z zewnątrz, z promieniowania słonecznego, to jedynym możliwym jej źródłem jest samo wnętrze rozpatrywanych planet, czyli ciepło geotermalne. Strumień energii o wielkości kilku watów na m2, czyli rzędu jednego procenta tej wielkości, którą Ziemia dostaje od Słońca, może nie wydaje się imponujący, ale w porównaniu z strumieniem geotermalnym Ziemi, wynoszącym ledwo 0,06 W/m2 są to wielkości gigantyczne. Gigantyczne do tego stopnia, że pozwalają one tym globom na posiadanie pod lodową zewnętrzną skorupą, tam gdzie Słońce dosłownie nie dochodzi, ogromnych zbiorników ciekłej wody, prawdziwie czarnych oceanów. Jedynym wyjątkiem jest, w przeciwieństwie do pozostałych naszych lodowych planet, akurat wody pozbawiony Io.

We wnętrzu tych planet muszą zatem zachodzić procesy generujące duże ilości ciepła. Rozważający tę kwestię autorzy opublikowanego w 303 numerze „Świata nauki” artykułu „Pod morzami Enceladusa” [8], proponują trzy takie możliwe mechanizmy wewnętrznego grzania tych planet. Pierwszy z nich, to ten sam, który generuje większość wewnętrznego ciepła Ziemi – rozpad izotopów promieniotwórczych w jej wnętrzu. Aby sprawdzić tę możliwość, musimy dokonać jeszcze jednego przeliczenia naszych danych. Strumień geotermalny jest bowiem parametrem, jak się jeszcze przekonamy, niezwykle istotnym, ale nie uwzględnia jednej kluczowej zmiennej – wielkości planety. Im większa bowiem planeta, tym, mając większy stosunek objętości do powierzchni, trudniej traci ciepło. Zatem mniejsze globy, dla podtrzymania zbliżonego strumienia geotermalnego, muszą produkować nieproporcjonalnie więcej ciepła. Porównajmy zatem nie strumienie geotermalne, ale ogólną ilość wydzielonego ciepła w przeliczeniu na objętość planety. Wielkość grzania podana jest w watach na kilometr sześcienny.

Ekostrefa 05

Produkcja ciepła przez planety lodowe, wśród których nawet niemrawy Tryton przewyższa w tej materii Ziemię dwukrotnie, jest tak olbrzymia, że hipotezę radioaktywną, dodatkowo biorąc jeszcze pod uwagę, że ze względu na swoją znacznie mniejszą od Ziemi gęstość, omawiane przez nas planety posiadają też proporcjonalnie mniejszą od ziemskiej zawartość ciężkich długożyciowych pierwiastków radioaktywnych, uranu i toru, możemy śmiało odesłać w niebyt. To nie energia atomowa podgrzewa czarne oceany. Drugą możliwością jest energia pływów. Są one generowane przez tzw. siły pływowe, które pojawiają się w momencie, kiedy ciała niebieskie przestają być, jak się zwykle w astronomii przyjmuje, idealnie sprężystymi punktami materialnymi. Konsekwencje odchyłki od tego wyidealizowanego modelu, każdy, kto choć raz w życiu znalazł się nad oceanem, mógł obserwować na własne oczy.

Tak samo jak Ziemia przyciąga Księżyc, tak samo Księżyc przyciąga Ziemię. Ponieważ Ziemia nie jest jednak punktem, części Ziemi leżące bliżej Księżyca są przyciągane silniej, niż części Ziemi leżące dalej. Różnica tych sił jest właśnie siłą pływową. W przeciwieństwie do klasycznej siły grawitacji Newtona zmienia się ona w przybliżeniu nie z kwadratem odległości, od ciała wywołującego pływy, ale znacznie szybciej – proporcjonalnie do sześcianu tego dystansu. Siły pływowe usiłują rozciągnąć daną planetę wzdłuż kierunku w którym działają. Gdyby planety były ciałami idealnie sprężystymi, które odkształcałyby się liniowo dokładnie według prawa Hooke’a, nie dawałoby to żadnego szczególnego efektu, ale oczywiście planety takimi ciałami nie są. Dzięki istnieniu zjawiska relaksacji, odkształcenie ciał rzeczywistych jest zawsze nieco opóźnione w stosunku do przyłożonego naprężenia. Moment wystąpienia maksymalnej wysokości fali pływowej, o czym wie każdy marynarz, zawsze jest więc opóźniony w stosunku do górowania nad danym południkiem Księżyca. Krzywa pokazująca zależność odkształcenia od naprężenia, w przypadku ciała idealnie sprężystego będąca, zgodnie z prawem Hooke’a, po prostu …prostą, staje się …krzywą właśnie, a odkształcenie pod wpływem naprężenia przebiega innym torem niż powrót do poprzedniego kształtu po ustaniu naprężenia, co tworzy tzw. pętlę histerezy. Obszar wewnątrz tej pętli to nadwyżka energii sprężystej (energia to całka siły po drodze, albo właśnie naprężenia po odkształceniu), która musi się rozproszyć w postaci ciepła. Ponieważ siły wywołujące pływy mają charakter cykliczny, możemy ten proces przedstawić za pomocą modelu tłumionego oscylatora, gdzie siłą wymuszającą drgania jest właśnie siła pływowa, a jej częstość jest znacznie mniejsza od częstości drgań własnych planety. Nie wdając się w szczegóły matematyczne, w celu poznania których odsyła chętnych autor do podręcznika Pawła Artymowicza [1], możemy stwierdzić, że wielkość pętli histerezy, a tym samym ilość ciepła wydzielanego w każdym cyklu pływowym, zależy od tzw. współczynnika dobroci układu drgającego Q, który z grubsza jest odwrotnością odsetka energii traconej w każdym cyklu drgań. Wielkość Q zależy bardzo silnie od wewnętrznej budowy planety, od nieregularności jej kształtu i odchyłek od symetrycznego rozkładu masy i może się wahać w dość szerokim zakresie od Q = 10 dla takich ciał jak Ziemia, czy Księżyc do Q ≈ 100 000 dla globów w całości ciekłych, typu Jowisz, czy Saturn. Wielkość Q, określa zatem tempo w jakim energia ruchu obrotowego, czy pola grawitacyjnego jest przetwarzana na ciepło. W zależności od wzajemnych stosunków mas, momentów pędu, mimośrodów orbitalnych, czy właśnie współczynników dobroci, pod wpływem sił pływowych ciała mogą, w sposób  niekiedy bardzo złożony i skomplikowany, zwiększać lub zmniejszać prędkość obrotu wokół osi, zbliżać się do siebie lub oddalać, zmieniać orbity, aż do osiągnięcia stanu równowagi, czyli zajęcia orbit ściśle kołowych i wzajemnej synchronizacji ruchu obrotowego, tak, że oba obiegające się nawzajem ciała są zwrócone do siebie stale tymi samymi półkulami. W takich warunkach przepływ energii wywołany pływami ustaje ostatecznie. Zanim jednak do tego dojdzie, można oczekiwać, że niezależnie od różnych wartości dobroci, tempo produkcji ciepła geotermalnego będzie w jakimś zakresie zależeć od odległości danego księżyca od planety, którą obiega. Na kolejnym wykresie pokazano zatem tą zależność dla księżyców Jowisza i Saturna. Ponownie obie osie przedstawiono w postaci logarytmicznej.

Ekostrefa 06

Energia geotermalna czarnych oceanów rzeczywiście zdaje się zależeć od ich odległości od planety, która obiegają, ale nie tak, jak byśmy mogli tego oczekiwać. Siły pływowe, zależą wprost proporcjonalnie od masy ciała wywołującego je, tymczasem na wykresie widać, że jeżeli między księżycami Saturna, a trzykrotnie bardziej masywnego Jowisza istnieje jakaś różnica, to raczej właśnie księżyce Jowisza są podgrzewane nieco słabiej. Może to wynikać z faktu, że są one wystarczająco masywne, aby, w przeciwieństwie do saturnowych maluchów, wpływać na siebie nawzajem. To oddziaływanie w przeszłości doprowadziło do „wygładzenia” i synchronizacji ich ruchu i tym samym zmniejszenia sił pływowych. Przykład Io, obecnie praktycznie pozbawionego wody, jest przesłanką, na to, że niegdyś glob ten był grzany znacznie intensywniej, na poziomie porównywalnym do dzisiejszego Enceladusa, i wskutek tego swoje zasoby wody utracił, co w dzisiejszych warunkach już by miejsca mieć nie mogło. Niestety, do tego schematu nijak nie pasuje kolejny wyjątek. Uważni czytelnicy zapewne już zauważyli, że we wszystkich dotychczasowych zestawieniach czarnych oceanów, ziała znacząca luka. Konsekwentnie bowiem autor niniejszego artykułu pomijał w nich najdalszy księżyc Jowisza – Kallisto. No, może nie do końca konsekwentnie, bo na pierwszym wykresie pokazującym zależność temperatury od odległości od Słońca, Kallisto jednak się znalazła – to najwyżej położony czerwony kwadracik ze tych pokazujących księżyce Jowisza.

Teraz już widać, że nie było to przypadkowe przeoczenie. Kallisto bowiem jest, w proporcji do swojej odległości od Jowisza, rozpalona niczym piec, na poziomie najbliższych księżyców Saturna. O ile najprostsze i najbardziej oczywiste wyjaśnienie tej anomalii, przyjęcie, że podawana w źródłach średnia temperatura powierzchni tego księżyca na poziomie 134K, została zwyczajnie błędnie zmierzona, nie jest prawdziwe, to wnętrze Kallisto może kryć coś naprawdę wyjątkowego.

Pomijając jednak opisane nieregularności i tak dochodzimy do wniosku, że co prawda, średnia energia geotermalna faktycznie regularnie maleje wraz ze wzrostem odległości od Jowisza, czy Saturna, to jednak maleje o wiele za wolno, niż po sile pływowej byśmy się tego spodziewali. Teoretycznie wykładnik w tej zależności powinien wynosić -3, a faktycznie ma on wartość zaledwie -1,7. Chociaż zatem ciepło to faktycznie jest produkowane przez pływy, to jednak na pewno nie wyłącznie, co pokazuje też przykład nadspodziewanie ciepłego Plutona. Skąd pochodzi reszta tej energii?

Trzecie możliwe źródło grzania geotermalnego wymienione we wspomnianym artykule ze „Świata Nauki”, jest szczególnie istotne w interesującym nas kontekście istnienia życia. W końcu czarne oceany, mimo że orbitują daleko poza teoretyczną granicą ekostrefy, posiadają wszystkie wymieniane potrzebne do zaistnienia tego fenomenu składniki. Istnieje ciekła woda, istnieją odpowiednie, wypłukiwane przez wodę ze skalistego jądra, związki mineralne, istnieje też źródło energii geotermalnej. Czego chcieć więcej?

Procesu serpentynizacji. Pod tą nieco zagadkową nazwą ukrywa się reakcja chemiczna, uwodnienie obecnego w skałach wulkanicznych minerału zwanego oliwinem do serpentynitu właśnie. Jest to reakcja egzotermiczna, w której, oprócz ciepła, wydzielają się także dwutlenek węgla i wodór, a wytrącające się z roztworu sole wytwarzają na morskim dnie, gdzie zwykle taki proces zachodzi, potężne struktury zwane zasadowymi, albo, w odróżnieniu od gorących wulkanicznych „czarnych” kominów, chłodnymi kominami hydrotermalnymi. Ostatnie badania biochemików, opisane w książce Nicka Lane’a „Pytanie o życie” [2], wskazują, że właśnie owe zasadowe kominy są tym środowiskiem, w którym na Ziemi tytułowe życie powstało. Aby bowiem mogło do tego dojść, nie wystarczy, jak już wspomniano, woda, związki chemiczne i energia. Potrzeba jeszcze czwartego elementu. W największym możliwym uproszczeniu, z chemicznego punktu widzenia, życie to proces redukcji CO2 najczęściej w wyniku reakcji z wodorem, chociaż przebiegający w sposób niekiedy niesłychanie złożony. Aby ta reakcja, jak zresztą każda inna dowolna reakcja chemiczna, mogła w sposób ciągły zachodzić, potrzebny jest, również stale się utrzymujący, gradient, czyli różnica stężenia substratów i produktów, oraz ciągły strumień energii. Potrzebny jest stan nierównowagi termodynamicznej. Ignorowanie tego wymogu spowodowało fiasko wszystkich dotychczasowych modeli powstania życia z „pierwotnego bulionu” cząsteczek organicznych, czy w innych proponowanych „pierwotnych” środowiskach pozostających jednak, tak samo jak „bulion”, w równowadze termodynamicznej. „Zupa pierwotna” rozpuszczonych w wodzie związków organicznych pozostawiona sama sobie, nie tylko, ignorując wysiłki pokoleń biochemików, nigdy żadnego życia nie stworzy, ale po jakimś czasie rozpadnie się na prostsze związki. Pierwsze prawo ekologii głosi, że „energia przepływa, materia krąży”, lecz dotyczy to dzisiejszej ziemskiej, rozbudowanej i złożonej biosfery. W samych początkach życia musiała przepływać nie tylko energia, ale również materia, a w „pierwotnym bulionie”, ani jedno, ani drugie, nie było możliwe.

Natomiast kominy serpentynitowe to zupełnie inna sprawa. Są one poprzecinane wąskimi kapilarami, przez które nieustannie przepływa ciepła, o temperaturze, 60-90 stopni Celsjusza, woda dostarczając duże ilości CO2 i H2, oraz nieustannie usuwając reagenty. W mikroskopijnych porach stężenia potrzebnych związków organicznych mogą lokalnie rosnąć ułatwiając reakcję, a jony żelaza, niklu, molibdenu i siarki, dostarczają pierwszych prymitywnych katalizatorów owe reakcje przyśpieszających. W takim środowisku faktycznie życie nie tylko mogło, ale wręcz musiało powstać. Serpentynitowe kominy hydrotermalne są znane na Ziemi, a analizując skład wyrzucanej przez Enceladusa do saturnijskiego pierścienia E materii, odkryto je także na tym niewielkim księżycu. Skoro jednak są na Enceladusie, to znaczy, że występują również w każdym innym czarnym oceanie, o zbliżonym do Enceladusa składzie chemicznym i budowie wewnętrznej. Ciepło serpentynizacji to właśnie ten dodatkowy, trzeci czynnik grzewczy, który zaburzał nam rozkład produkcji ciepła w czarnych oceanach.

Czy zatem w czarnych oceanach, daleko poza formalną granicą ekostrefy, występuje życie? Jeżeli hipoteza prezentowana przez Nicka Lane’a jest prawdziwa, a wygląda ona naprawdę solidnie, to w zasadzie można być tego pewnym. Nawet w naszym Układzie Słonecznym istnieje co najmniej kilka – kilkanaście oddzielnie powstałych i niezależnych od siebie biosfer, co nawet XVIII i XIX wiecznych entuzjastów życia na Księżycu, Jowiszu i …Słońcu właściwie mogłoby usatysfakcjonować.

Tylko że tak jakby …nie do końca.

Pojęcie „życie”, a już na pewno „życie pozaziemskie” jest bowiem bardzo nieprecyzyjne. Gdyby przeprowadzić jakiś sondaż, co mianowicie zwykle się pod tym terminem rozumie, to zapewne okazałoby się, że wygrywa skojarzenie z jakimiś „zielonymi ludzikami”, istotami świadomymi, inteligentnymi, a do tego jeszcze humanoidalnymi, w wersji skrajnej nawet używającymi ludzkich języków. Tymczasem realnie fenomen życia można, pod względem stopnia jego złożoności, podzielić na pięć, albo nawet i sześć poziomów. Pierwszy (I) z nich to proste, pozbawione jądra i bardziej skomplikowanych struktur zwanych organellami komórki prokariotyczne, bakterie i archeony. Pod względem biochemicznym są one (na Ziemi) niezwykle zróżnicowane, ale pod względem budowy i morfologii aż nudne w swojej monotonności. Drugi (II) poziom komplikacji, to eukarionty, komórki z jądrem komórkowym i innymi skomplikowanymi organellami, mitochondriami, czy chloroplastami. Przedstawicielami tego poziomu są omawiane w szkole pantofelek, czy euglena. Poziom III, to duże, makroskopowe organizmy zbudowane z oddzielnych tkanek, ze szczególnym uwzględnieniem tkanki nerwowej, które na Ziemi znane są jako zwierzęta (a w mniejszym zakresie rośliny naczyniowe). Poziom IV to istoty z bardziej rozbudowanym układem nerwowym prowadzące złożone życie społeczne, na Ziemi z grubsza odpowiadałyby by im ptaki, ssaki oraz przynajmniej część gatunków kałamarnic i ośmiornic. Wreszcie poziom piąty (V) to istoty świadome i inteligentne, czyli Homo sapiens, oraz być może jego wymarli krewniacy neandertalczycy, czy hobbici. Dodatkowy poziom VI to oczywiście szukana przez nas cywilizacja naukowo techniczna, zdolna do komunikacji międzygwiezdnej i przemieszczania się w kosmosie. Jak już wspomniano na wstępie, bardzo prawdopodobne, że istnieje tylko jedna taka we Wszechświecie, a przynajmniej w naszej Galaktyce – my sami.

Życie we Wszechświecie podzieliliśmy na kategorie pod względem poziomu komplikacji budowy i behawioru, czyli pod względem ilości zawartej w nim informacji. Informacja zaś jest, w pewnym uproszczeniu, odwrotnością parametru znanego w fizyce jako entropia, miara nieuporządkowania. Zgodnie z II zasadą termodynamiki, entropia nie może globalnie samorzutnie zmaleć, zatem aby utrzymać swój niski poziom entropii, organizmy żywe muszą, poprzez procesy metaboliczne, zwiększać entropię swojego otoczenia. Tym szybciej, im wyższy poziom komplikacji, czyli niższy entropii, same reprezentują. Odbywa się to głównie przez utratę ciepła. Im szybsza jest owa utrata, tym wyższy stopień komplikacji organizmy żywe mogą osiągnąć. Nieprzypadkowo właśnie na naszej planecie poziom IV złożoności reprezentowany jest w większości przez organizmy stałocieplne (endotermiczne), a w mniejszości przez organizmy bytujące w zimnych wodach, gdzie utrata ciepła jest znacznie niż na lądzie łatwiejsza. Proces wypychania nadmiaru entropii na zewnątrz organizmu, ten jest tym łatwiejszy, im niższa entropia w owym zewnętrzu panuje. Życie zatem może w procesie ewolucji osiągnąć tym wyższy poziom komplikacji, im środowisko w którym występuje ma niższą entropię.

Przechodząc od opisu jakościowego, do ścisłych rachunków ilościowych, wymodelujemy teraz życie na podobieństwo …maszyny parowej pana Watta. Analogia ta jest znacznie bliższa prawdy, niż mogłoby się to wydawać, bo w końcu maszyna parowa nie musi działać koniecznie na parze, ani być zbudowana z nitowanego żeliwa. Każdy inny materiał, czy czynnik roboczy też się nadaje, aby można było mówić o wyidealizowanej maszynie parowej, czyli silniku cieplnym, przerabiającym ciepło na pracę.

Zgodnie ze wspomnianą już II zasadą termodynamiki, proces taki nie jest możliwy ze 100% wydajnością. Maksymalną teoretycznie możliwą wydajność maszyny parowej osiąga się w tak zwanym cyklu Carnota (dla ciekawskich sprężanie izotermiczne, sprężanie adiabatyczne, rozprężanie izotermiczne, rozprężanie adiabatyczne). Podkreślić należy, ze sprawność cyklu Carnota nie wynika z takich czy innych braków technologicznych, lecz jest fundamentalnym ograniczeniem wynikającym z samej natury, takim samym co do zasady, jak prędkość światła, stała Plancka, czy zero bezwzględne. Tak samo jak nie da się przekroczyć prędkości światła, tak samo nie da się przerobić ciepła na pracę z większą niż w cyklu Carnota sprawnością. Owa sprawność Carnota to:

samo 07

Gdzie T1 jest temperaturą źródła ciepła (w Kelwinach), natomiast T2 to temperatura chłodnicy, otoczenia, do którego ciepło jest odprowadzane. Energia dostępna dla życia na danej planecie, niezależnie od jej pochodzenia, nigdy nie może być wykorzystana w całości, a tylko w części dopuszczonej przez powyższą zależność. Ową dostępną życiu energię, będziemy odtąd nazywać energią życiową. Jak wynika z przytoczonego wzoru, jej wielkość wynika z różnicy temperatur źródła energii i chłodnicy. Temperatura chłodnicy T2 to po prostu średnia temperatura danej planety Tp, wartość, którą już na początku tego artykułu omawialiśmy. A temperatura źródła? Dla życia ziemskiego, czerpiącego energię ze Słońca, będzie to temperatura promieniowania słonecznego – 5772 Kelwiny. Natomiast dla czarnych oceanów będzie to co najwyżej temperatura kominów hydrotermalnych, w najlepszych warunkach, dla „czarnych” wulkanicznych gorących kominów –  kilkaset Kelwinów.

Porównanie dostępnej na danych planetach energii życiowej, czy dokładniej energii życiowej na metr kwadratowy powierzchni na sekundę zamieszczono na następnym wykresie. Wartości tej energii dla czarnych oceanów zostały maksymalnie zawyżone, poprzez dołączenie do energii geotermalnej także tej resztki światła słonecznego, która do nich dociera, oraz założenie, że możliwa do wykorzystania przez procesy życiowe temperatura chłodnicy może być dowolnie niska, ograniczona od dołu wyłącznie temperaturą powierzchni danej planety.

Ekostrefa 07

Od razu na wstępie zaznaczyć musimy, że dwa obiekty z największą energią życiową na naszym wykresie, wprowadzają tylko w błąd. Zarówno Księżyc, jak i Merkury zawdzięczają swoją pozycję liderów wyłącznie temu, że są pozbawionymi hydrosfer i atmosfer gołymi skałami, czyli nie spełniają jednego z trzech „bazowych” warunków istnienia życia. Gdyby Księżyc posiadał na powierzchni ciekłą wodę i atmosferę, wyglądałby i miał takie same parametry jak Ziemia, a Merkury byłby „samowarem” gorętszym od Wenus z jeszcze wyższym niż ona albedo i współczynnikiem planetarnym P, a tym samym z jeszcze niższą energią życiową.

Po pominięciu ciał nie posiadających atmosfer, ani wody w ciekłej formie, oprócz Merkurego i Księżyca, również Ceres, możemy zaobserwować pewną znajomą tendencję. Najwyższą energią życiową (224 W/m2) cechuje się …Ziemia, wyprzedzając w tej materii swoich sąsiadów Marsa (106) i Wenus (57). I – cóż za niezwykły zbieg okoliczności! – na Ziemi właśnie istnieje życie. Jak wynika z naszego wykresu, również na Marsie i Wenus w zasadzie mogłoby ono istnieć, gdyby te planety zdołały zachować swoje zasoby wody, czyli realnie gdyby były kilkukrotnie masywniejsze niż są. Mars wielkości Ziemi, nie byłby, co prawda, o wiele cieplejszy niż teraz, ale nadal posiadałby oceany i wody powierzchniowe. Byłyby one w większości zamarznięte, ale lokalnie latem, w tropikach, czy wskutek działalności wulkanicznej, mogłyby odtajać i tym samym umożliwiać wegetację. Życie mogłoby istnieć, aczkolwiek wątpliwe jest, aby, wskutek słabszego strumienia energii (energia przepływa, materia krąży) osiągnęło większy od III poziom komplikacji.

Gorzej miałyby się sprawy na „Superwenus”. Wyglądałaby ona z grubsza jak obecna Wenus, z tym, że pod grubą warstwą chmur w wiecznym półmroku kryłby się gorący, o temperaturze kilkuset stopni, ocean. Atmosfera mogłaby być nawet mniej gęsta, część dominującego obecnie w niej CO2 byłaby bowiem rozpuszczona w wodzie i wytrącona w postaci węglanów, ale zawierając w zamian ogromne ilości pary wodnej, wywoływałaby jeszcze silniejszy, niż na Wenus obecnej, efekt cieplarniany. W świetle tego co już wiemy o serpentynizacji jako źródle życia, należy zauważyć, że choć teoretycznie życie, mogłoby w takim samowarze istnieć, to jednak nie mogłoby w żaden sposób w nim powstać! Serpentynizacja w tak gorącej wodzie po prostu w ogóle nie zachodzi, a najstabilniejszą formą związków węgla w temperaturze kilkuset stopni jest dwutlenek węgla, zatem prebiotyczne związki organiczne, prekursory życia, błyskawicznie by się do CO2 rozpadły, a właściwie w ogóle by w takiej gorącej wodzie nie powstały. Życiodajna serpentynizacja na planecie – samowarze miałaby swoją szansę tylko przez bardzo krótki czas, zanim planeta rozgrzałaby się do stanu samowara, potem okienko czasowe zostałoby na stałe zamknięte. Drugą możliwością byłoby dotarcie na taką planetę bakterii z zewnątrz, z innej bardziej przyjaznej planety, co również nie zdarza się codziennie. Tak czy inaczej planety samowary nie są lokalizacjami, gdzie życie na pewno musi występować, a jeżeli już występuje, to na niskim, nie większym niż II, stopniu złożoności.

A co z naszymi czarnymi oceanami? Tu sytuacja jest tylko nieco lepsza niż w przypadku samowarów. Warunki do powstania życia są bardzo korzystne, natomiast do jego dalszej ewolucji ku bardziej złożonym formom, beznadziejnie słabe. Materia krąży, a energia (życiowa) przepływa, ale przepływa bardzo wąziutką strużką, o dwa rzędy wielkości od ziemskiej wątlejszą. Żyjące w tamtejszych kominach hydrotermalnych czarne ekosystemy składałyby się zatem wyłącznie z prokariontów (poziom I). Ten wniosek jest w pozornej sprzeczności z tym co wiemy o ziemskim środowisku tego typu, które grupuje wokół kominów hydrotermalnych, zwłaszcza tych wulkanicznych, gorących, bardzo złożone biomy, z organizmami poziomu III włącznie, ale trzeba uświadomić sobie, że dzieje się tak tylko dzięki obecności wolnego tlenu. Wydajność oddychania tlenowego wynosi ok 40%, podczas gdy oddychanie w środowisku beztlenowym nie przekracza 1% wydajności. Dlatego tylko w środowisku natlenionym możliwe są bardziej złożone łańcuchy troficzne, zależności typu drapieżnik – ofiara i związany z tym ewolucyjny „wyścig zbrojeń”, co napędza również pozornie odcięte od energii słonecznej ekosystemy kominów. Przy pięciu ogniwach łańcucha pokarmowego ostatnie z nich ma jeszcze przy wykorzystaniu oddychania tlenem do dyspozycji 0,4^5 = 1% pierwotnej energii, podczas gdy w środowisku beztlenowym byłoby to część tylko 0,01^5 = jedna …dziesięciobilionowa. Bez tlenu drapieżnictwo zatem w ogóle się nie opłaca. Tlen zaś może powstać tylko w wyniku pozyskiwania przez procesy życiowe potrzebnych do redukcji CO2 elektronów drogą fotosyntezy z wody. A to z kolei, z uwagi na bardzo silne wiązania chemiczne spajające cząsteczki wody, wymaga energii naprawdę bardzo „wysokiej jakości” (niskiej entropii), jaką tylko światło słoneczne jest w stanie zapewnić. Czarne oceany są zatem beztlenowe, życie w nich nie przekracza poziomu I, a scena spotkania z podwodną cywilizacją z Europy, jaką uraczył widzów James Cameron w filmie „Aliens of the deep” jest czystą fantazją, nigdy nie mającą szans na realizację w praktyce.

W poszukiwaniu zatem Obcych o makroskopowych rozmiarach musimy postawić na planety typu ziemskiego, czy „superziemskiego”, czerpiących energię życiową z promieniowania macierzystej gwiazdy, niekoniecznie będącej Słońcem. Uogólnijmy zatem nasz model:

samo 05

 tak, aby obejmował również takie przypadki. W przeciwieństwie do planet, gwiazdy mogą być traktowane z bardzo dobrym przybliżeniem jako ciała doskonale czarne. Czyli ich moc promieniowania L zależy tylko od dwóch parametrów temperatury Tg i powierzchni:

samo 09

Gdzie r to promień danej gwiazdy

Po podstawieniu otrzymujemy

samo 10

Gdzie k=R/r jest odległością planety od macierzystej gwiazdy wyrażoną w promieniach tejże gwiazdy.

Stała słoneczna, czy też już raczej stała gwiazdowa, wynosi teraz

samo 11

A po uwzględnieniu kulistego kształtu planety, niezerowego albedo i sprawności termodynamicznej n otrzymujemy wzór na energię życiową danej planety, a dokładniej na energię na sekundę na metr kwadratowy, albo moc na powierzchnię:

samo 12

Energia życiowa zależy oczywiście od odległości od gwiazdy (k), ale zależy również od wysokości współczynnika planetarnego P i albedo A. Im są one wyższe, tym energia niższa. Z tego punktu widzenia, dobrodziejstwa efektu cieplarnianego, który może utrzymać ciekłą wodę na powierzchni planet, w innym przypadku, zbyt oddalonych od życiodajnej gwiazdy, są wątpliwe. Co prawda, podnosi on temperaturę, ale poprzez pogorszenie sprawności termodynamicznej, obniża energię życiową.

Mamy zatem udoskonalony, obejmujący nie jeden, jak w pierwszej, prymitywnej wersji, ale dwa parametry – temperaturę i energię życiową, model ekostrefy, możemy za jego pomocą zbadać rzeczywiste podobne do Ziemi planety, odkryte w ciągu ostatnich kilkunastu lat. Grupę najbardziej obiecujących kandydatów, o najwyższym tzw. ESI, czyli Earth Similarity Index, możemy znaleźć na stronie uniwersytetu Puerto Rico w słynnym Arecibo.

Korzystając z danych tam zamieszczonych, obliczymy temperaturę i energię życiową każdej z nich. Największy kłopot sprawi nam wyznaczenie granicy, na której planeta typu „Ziemia” zmienia się w planetę – samowar, czy w przypadku mniejszej masy, w „Wenus”. W Układzie Słonecznym Ziemia leży na izotermie (dla ciała doskonale czarnego) 5 stopni Celsjusza, a Wenus 55 stopni Celsjusza. Pomiędzy tymi izotermami następuje więc stopniowe przejście od „ziemi” do „samowara”. Mechanizm jest dość prosty. Im większa stała słoneczna, tym więcej promieniowania otrzymuje planeta, tym wyższa jej temperatura, a tym samym szybsze parowanie wód powierzchniowych. W cieplejszej atmosferze gromadzi się więcej pary wodnej – podstawowego dla planet z hydrosferą gazu cieplarnianego, oraz tworzy się więcej chmur – mających wysokie albedo i również silnie wzmacniających efekt cieplarniany. W konsekwencji im mocniej podświetlana jest planeta, tym większy jest jej współczynnik planetarny i wyższe albedo, aż do stanu zbliżonego do Wenus, choć w jej przypadku, po utracie wody, zarówno chmury, jak i gazy cieplarniane składają się z innych, cięższych niż woda, związków chemicznych. Po uwzględnieniu tego mechanizmu możemy obliczyć parametry ekostrefy dla znanych planet pozasłonecznych. Zarówno temperaturę, jak i energię życiową obliczono przy założeniu, że owe planety mają zbliżony do Ziemi skład chemiczny, w szczególności posiadają hydrosferę, oraz że mają dostatecznie dużą masę, aby wodę na swojej powierzchni, niezależnie od wysokości temperatur, utrzymać. Siedemnaście planet pochodzi ze wspomnianego katalogu, osiemnasta, ostatnia, to przypadek osobny, o którym dalej.

Ekostrefa tabela

Wyniki są znamienne. Dokładnie wszystkie planety pozasłoneczne, niezależnie od temperatur na ich powierzchniach, mają mniejszą energię życiową od Ziemi. No dobrze. Faktycznie autor musi się w tym momencie przyznać do popełnienia pewnego nadużycia. Założył on bowiem, że wraz ze wzrostem temperatury, zarówno efekt cieplarniany, jak i albedo, rosną liniowo. Tak na pewno nie jest i może się zdarzyć, że niektóre planety, zwłaszcza Kepler – 452b, oraz Wolf 1061c mogą mieć w rzeczywistości niższą, niż podana w tabeli, temperaturę powierzchni, jak również wyższą energię życiową, może nawet wyższą od Ziemi. Jeżeli nawet jednak tak by było, to różnica nie byłaby wielka, najwyżej klika watów na m2. Tak czy owak, okazuje się, że Ziemia ma najwyższą, albo jedną z najwyższych energii życiowych wśród wszystkich planet w Galaktyce. Energia życiowa może wzrosnąć znacząco powyżej tej wartości tylko dla obiektów, które i tak do życia się nie nadają –w rodzaju Księżyca, czy Merkurego. Dla planet potencjalnie życiodajnych, każde zwiększenie stałej słonecznej powyżej „ziemskiego” progu wiąże się jednak ze spadkiem energii życiowej. Czy nie ma innego sposobu na zwiększenie tej energii bez dodatkowego podgrzania planety? Teoretycznie jest. Przepiszmy jeszcze raz wzór na energię życiową, ale nieco inaczej sformułowany

samo 13

Wiemy już że nie możemy zwiększyć stałej słonecznej (gwiazdowej) F powyżej wartości typowej dla Ziemi, bez nieproporcjonalnego wzrostu zarówno wartości albedo A, jak i temperatury planety Tp. Pozostaje jednak jeszcze jedna zmienna. Temperatura gwiazdy Tg. Z zamieszczonej wyżej tabeli możemy się przekonać, że dokładnie wszystkie znane, potencjalnie życiodajne planety pozasłoneczne krążą wokół gwiazd chłodniejszych od Słońca. A gdyby trafiła się jakaś gwiazda od Słońca gorętsza? Np. typu widmowego F, o temperaturze 7000 K, albo nawet A z temperaturą 9 000 K? Taką planetą, co prawda fikcyjną, była znana z historii literatury Arrakis zwana Diuną, krążąca wokół gwiazdy Canopus. Warto zwrócić uwagę, że jej twórca, Frank Herbert już w latach 60 ub. wieku zdawał sobie sprawę, że aby jakiekolwiek życie na Arrakis było możliwe, planeta ta może posiadać na powierzchni jedynie minimalną ilość wody. Podstawiając Canopus (r = 71 promieni Słońca, T = 6998 K), oraz Arrakis (ponieważ jest prawie pozbawiona otwartych zbiorników wody, jest bardziej podobna do Marsa niż do Ziemi P = 1, A = 0,25)  do naszego modelu i umieszczając ją na izotermie 293 Kelwinów (mając mało wody może być Arrakis w związku z tym bardziej od Ziemi podgrzana), otrzymujemy parametry Tp = 293 Kelwinów (20 stopni Celsjusza) i Eż = 300 W/m2, czyli sporo więcej niż dla Ziemi. Nie należy się zatem dziwić, że ekosystem na Arrakis z jego piaskopływakami i szej-huludami jest najbardziej zdumiewający w Galaktyce i jako jedyny potrafi produkować „melanż” zwany „przyprawą”, najbardziej niezwykłą i pożądaną substancję znaną w ludzkim kosmosie.

Nieprzypadkowo jednak Arrakis jest tylko fikcją literacką. Gwiazdy jaśniejsze od Słońca, w tym Canopus, przysparzają bowiem z punktu widzenia potencjalnego istnienia wokół nich biosfery, wiele problemów. Po pierwsze jest ich w ogóle mało. Słońce czasami nazywa się w publikacjach popularnonaukowych „przeciętną gwiazdą”, ale naprawdę Słońce jest jaśniejsze od 90% gwiazd w Galaktyce. Gwiazd znacząco jaśniejszych, takich jak Canopus, typu F lub „wyżej”, jest raptem kilka procent. Po drugie widma tych jaśniejszych gwiazd są znacznie agresywniejsze, z dużo większą niż u Słońca ilością nadfioletu, który dla form życia opartych na znanej biochemii (a inna jest raczej mało prawdopodobna) jest zabójczy. Nawet na Arrakis, aby utrzymać ziemską florę w oranżerii, władcy planety musieli zainstalować specjalne filtry odcinające najbardziej energetyczną część widma Canopusa. (chociaż ustępując przed wymogami fabuły, Fremeni sadzą ziemskie rośliny pod otwartym niebem bez żadnych zabójczych dla owych roślin skutków). Na takich planetach życie lądowe jest raczej wykluczone. Wreszcie, co najważniejsze, większe, jaśniejsze gwiazdy żyją szybko i umierają młodo. Czas, jaki gwiazda spędza na tzw. ciągu głównym, świecąc w miarę równo i stabilnie, można oszacować, wiedząc, że reakcje termojądrowe w jej wnętrzu przerabiające jądra wodoru na hel i energię działają z wydajnością ok 0,7% i że gwiazda może przerobić w ten sposób ok 10% swojej masy, zanim przejdzie w kolejne stadium swojej ewolucji i opuści ciąg główny. Zatem:

samo 14

 Gdzie c to oczywiście prędkość światła, a Mg masa gwiazdy. Obliczona w ten sposób długość życia Słońca to 10,5 mld lat, Proximy Centauri 800 mld lat (w rzeczywistości dłużej, bo tak małe gwiazdy mogą w ciągu głównym zużyć znacznie więcej niż 10% swojego wodoru), natomiast Canopusa zaledwie …7,6 mln lat. Czas zatem, w jakim Arrakis nadaje się do zamieszkania jest o wiele za krótki, aby cokolwiek bardziej złożonego, nawet mając do dyspozycji wysoki poziom energii życiowej, mogło wyewoluować. Nie koniec to jednak problemów. To, że gwiazda przebywa na ciągu głównym, nie oznacza, że w tym czasie nic się z nią nie dzieje. W ciągu tego okresu temperatura, jak i promień gwiazdy, a zatem i ilość emitowanej energii również się zmieniają i to dość znacząco. Słońce staje się jaśniejsze mniej więcej o 10% na każdy miliard lat przebywania w ciągu głównym, co ma oczywiście wpływ na ziemską biosferę. W odległych epokach geologicznych, energia życiowa Ziemi, choć niekoniecznie podtrzymywana przez dużo silniejszy niż dziś efekt cieplarniany temperatura, była mniejsza niż obecnie i konsekwentnie życie ziemskie miało niski poziom komplikacji. Przez 2 miliardy lat nie przekraczało poziomu I, potem przez kolejny miliard, zwany nie bez kozery nudnym miliardem, poziomu II. Okres ten zakończony został dość nagłym zmniejszeniem się ziemskiego efektu cieplarnianego, co spowodowało serię potężnych zlodowaceń, zwanych też „ziemią śnieżką”. Współczynnik planetarny Ziemi obniżył się znacznie, zatem podniosła się też energia życiowa i tym samym ziemska biosfera mogła przejść na poziom III. Dalsze rozgrzewanie się Słońca i kolejna seria zlodowaceń (czyli zmniejszenia się P) w karbonie i permie podniosło ziemskie życie na poziom IV, wreszcie ostatnia redukcja efektu cieplarnianego i zlodowacenie plejstoceńskie na poziom V. Inteligentne istoty z poziomu V sięgnęły po inne niż fotosynteza źródła energii i rozpoczęły budowę, ledwo 200 lat temu, cywilizacji, czyli poziomu VI. Obecnie ziemski efekt cieplarniany jest bardzo niewielki i dalej już obniżony być nie może, a zatem i energia życiowa osiągnęła swoje maksimum. Dalsze podgrzewanie będzie popychać Ziemię już w stronę samowara i za miliard lat, znacznie wcześniej niż Słońce opuści ciąg główny, życie na Ziemi w ogóle przestanie być możliwe.

Powstanie zatem inteligencji (poziomu V) i cywilizacji naukowo technicznej (VI) nie są możliwe na planetach obiegających gwiazdy mniejsze i chłodniejsze od Słońca, bo poziom energii życiowej i tym samym możliwy poziom komplikacji żywych organizmów jest tam zbyt niski. Nie są jednak także możliwe wokół gwiazd większych i gorętszych, bo zmieniają się one zbyt szybko i emitują za dużo szkodliwego ultrafioletu. Zakres możliwych dla zaistnienia cywilizacji mas i jasności gwiazd jest zatem niespodziewanie wąski. Podobnie wąski jest zakres czasowy w jakim cywilizacja może powstać, nawet wokół właściwej gwiazdy. Pół miliarda lat temu nie było to jeszcze na Ziemi możliwe, za pół miliarda lat będzie już na to za późno. W dodatku, nawet przy maksymalnym obecnym poziomie Eż, przejście na poziom V i VI też nie musi być wcale automatyczne i nieuchronne. Per analogiam, o ile osiągniecie poziomu III i IV odbyło się na Ziemi w sposób polifiletyczny, czyli wiele razy niezależnie w różnych taksonach ewolucyjnych, o tyle z kolei poziom II został osiągnięty wyłącznie raz – monofiletycznie, co świadczy o tym, że sam odpowiedni poziom energii życiowej, który warunkuje też obecność tlenu w środowisku, nie wystarczy do tego celu i potrzebne były jakieś dodatkowe czynniki, których wystąpienie było mało prawdopodobne. Tak samo może być i z poziomem V, czy VI.

O ile samo życie jest więc zapewne we Wszechświecie czymś powszechnym i często spotykanym, o tyle cywilizacje muszą być ekstremalnie mało prawdopodobną odchyłką od średniej, a ich powstanie wymaga wstrzelenia się w bardzo rzadko występujące warunki. Nie należy się zatem dziwić paradoksowi Fermiego i fiasku programu SETI. To nieunikniona konsekwencja praw termodynamiki.

Oczywiście opisana zależność poziomu komplikacji od energii życiowej ma charakter statystyczny. W końcu wszystkie te wartości są wartościami średnimi, a w obrębie całej planety wartość temperatury i energii życiowej może się zmieniać w stopniu bardzo znacznym. Nie można zatem wykluczyć, że poziom komplikacji biosfery może wzrosnąć i na globach o niższej energii życiowej, o ile będzie zapewniona odpowiednia ilość czasu. Dużych zasobów tego ostatniego dostarczają gwiazdy mniejsze od Słońca, które zmieniają się znacznie wolniej i żyją znacznie dłużej. Jeżeli jednak powstanie cywilizacji na planetach czerwonego karła wymagałoby średnio np 20 mld lat, to nie należy się dziwić, dlaczego takich cywilizacji jeszcze nie ma. Wszechświat nie jest na to po prostu wystarczająco stary. Ale przecież kiedyś będzie. Jeżeli prawdopodobieństwo powstania cywilizacji faktycznie zależy, w jakimś stosunku, od poziomu dostępnej energii życiowej, to powstawanie cywilizacji byłoby wtedy podyktowane tempem ewolucji gwiazd, a nasza ziemska cywilizacja miała akurat szczęście powstać koło największej możliwej nadającej się do tego celu gwiazdy, zatem też w najwcześniejszym możliwym terminie. Ale era cywilizacji w dziejach Wszechświata jeszcze się na dobre nie rozpoczęła i dlatego, póki co, musimy cierpieć samotność.

Jeśli chcesz wiedzieć więcej, przeczytaj:

[1] Artymowicz P. „Astrofizyka układów planetarnych” Wydawnictwo naukowe PWN 1995

[2] Lane N. ”Pytanie o życie. Energia, ewolucja i pochodzenie życia” Prószyński i s-ka 2016

[3] Lane N. „Największe wynalazki ewolucji” Prószyński i s-ka 2012

[4] Weiner J. „Życie i ewolucja biosfery” Wydawnictwo naukowe PWN 2008

[5] Shu F. „Galaktyki, gwiazdy, życie” Prószyński i s-ka 2003

[6] Stocker H. „Nowoczesne kompendium fizyki” Wydawnictwo naukowe PWN 2010

[7] Kubiak M. „Gwiazdy i materia międzygwiazdowa” Wydawnictwo naukowe PWN 1994

[8] Postberg F, Tobie G., Dambeck T. „Pod morzami Enceladusa” „Świat nauki” nr 303 listopad 2016

[9] Adamczyk M. „A kosmos milczy, milczy, milczy…” Astronomia nr 28 październik 2014

[10] Adamczyk M. „Trzy kolory. Czerwony nie zmieni się w niebieski, ale biały tak” Astronomia nr 48 czerwiec 2016

Planety podobne do Ziemi:

[11] http://phl.upr.edu/projects/habitable-exoplanets-catalog

Planety pozasłoneczne

[12] http://exoplanet.eu/catalog/

[13] http://exoplanetarchive.ipac.caltech.edu/index.html

 

 

Nie wystarczyniekraść

Kiedy wół był ministrem i rządził rozsądnie,
Szły, prawda, rzeczy z wolna, ale szły porządnie.
Jednostajność na koniec monarchę znudziła;
Dał miejsce woła małpie lew, bo go bawiła.
Dwór był kontent, kontenci poddani — z początku;
Ustała wkrótce radość — nie było porządku.
Pan się śmiał, śmiał minister, płakał lud ubogi.
Kiedy więc coraz większe nastawały trwogi,
Zrzucono z miejsca małpę. Żeby złemu radził,
Wzięto lisa: ten pana i poddanych zdradził.
Nie osiedział się zdrajca i ten, który bawił:
Znowu wół był ministrem i wszystko naprawił.
 
Ignacy Krasicki

 

Król Kazimierz, ostatni polski władca z dynastii Piastów, nie zasłynął z żadnej większej zwycięskiej bitwy, nie odebrał też wrogom zagarniętych przez nich, a należących do jego przodków, ziem. Jednak, jako jedyny z naszych monarchów, nosi przydomek „Wielki”.

O wielkości Kazimierza przesądziła gospodarka. Jest on znany z tego, że „zastał Polskę drewnianą, a zostawił murowaną.” Wzrost gospodarczy osiągnięty przez Polskę za rządów Kazimierza był rzeczywiście spektakularny, zauważony i doceniony już przez mu współczesnych. Polska, jeszcze w latach 30 XIV wieku będąca małym kraikiem wciśniętym pomiędzy znacznie od siebie potężniejszych wrogów, kraikiem, którego władca nazywany był, nie bez lekceważącej ironii, „królem krakowskim”, kilkadziesiąt lat później stała się czołowym mocarstwem Europy środkowej.

Sukces ten Kazimierz osiągnął, bynajmniej nie dzięki „wstawaniu z kolan”, „zerwaniu z polityką białej flagi”, czyli wygrażaniu wszystkim bliższym i dalszym sąsiadom, a dzięki reformom ustrojowymi i prawnym, inwestycjom w infrastrukturę, oraz utrzymywaniu poprawnych stosunków z ościennymi potęgami i dyplomatycznym zamienianiu wrogów, jeżeli nawet nie w sojuszników, to w przynajmniej w spokojnych sąsiadów. Wojny toczył Kazimierz nie tam, gdzie miał największą „słuszność”, ale tam, gdzie miał największe szanse na zwycięstwo. Nie odzyskał ani Śląska, ani Pomorza, ale zajął za to bogatą i strategicznie położoną Ruś Halicką.

Dobrą władzę zatem, jak widać po powyższym przykładzie, można rozpoznać po tym, że zapewnia ona rządzonemu przez siebie krajowi nie „poczucie godności”, ale dobrobyt i wzrost gospodarczy, dzisiaj mierzony wielkością PKB i PKB per capita. Oczywiście gospodarka, nawet już gospodarka feudalna, średniowieczna, jest systemem niezwykle złożonym i skomplikowanym. Polityka władz jest tylko jednym z wielu czynników wpływających na procesy ekonomiczne i to trudnym do jednoznacznego wyodrębnienia. Kazimierzowi Wielkiemu na pewno sprzyjała też koniunktura, niemniej nawet koniunkturę można wykorzystywać lepiej lub gorzej.

Aby zatem ocenić faktyczny wpływ polityki władz na stan gospodarki, należy od wyników PKB odjąć wpływ czynników od władz niezależnych. Najprościej to uczynić poprzez porównanie wyników gospodarczych danego kraju z wynikami krajów sąsiednich, najlepiej maksymalnie zbliżonych do niego geograficznie, klimatycznie i kulturowo. Potraktowana takim narzędziem polityka Kazimierza broni się w całej rozciągłości. Przed Kazimierzem, wojska Zakonu mogły praktycznie bezkarnie najeżdżać i pustoszyć sam rdzeń ziem polskich, a Krzyżacy mogli na serio i wiarygodnie grozić królowi, że będą go ścigać aż do Krakowa. Po Kazimierzu, wszystkie kolejne wojny z Zakonem, toczyły się już na jego ziemiach i nieodmiennie kończyły się polskimi zwycięstwami.

Drugi z głównych ówczesnych wrogów Polski, Czechy Luksemburgów, z pozycji niekwestionowanego lidera naszej części Europy, stoczyły się zaś do roli państwa upadłego, rozrywanego wewnętrznymi konfliktami i w końcu krwawą wojną domową.

Tak to było u schyłku Średniowiecza. A jak jest teraz? Inaczej niż wtedy, dzisiaj dysponujemy narzędziami, w postaci baz danych i metod statystycznych, które umożliwiają nam wyznaczenie tej różnicy bardziej, niż w XIV wieku, precyzyjnie. Zastosujmy je więc i zbadajmy jakość rządów w Polsce po roku 1989. W tym celu wykorzystamy zmiany polskiego PKB per capita. Zgodnie z regułą opisaną wyżej, weźmiemy pod uwagę dynamikę stosunku tego wskaźnika dla Polski i średniej ważonej dla jedenastu krajów postkomunistycznych, należących dzisiaj, tak samo jak Polska, do UE. Dodatkowo porównamy Polskę ze średnią dla wszystkich obecnych (28) krajów UE. Źródłem danych jest fundacja Conference Board

DZmiana 01

Porównując Polskę z całą dzisiejszą UE, widać, że od 1991 roku systematycznie nadganiamy dystans do krajów zachodnioeuropejskich. Jest to efekt w małym stopniu zależny od bieżącej polityki, słabo koreluje też z koniunkturą. Wynika on w znacznej mierze z konwergencji gospodarki polskiej z gospodarką europejską i wyrównywaniu potencjałów między nimi.

Dużo ciekawszy obraz uzyskujemy po wyłączeniu tego efektu, porównując Polskę tylko z krajami postkomunistycznymi. Widać tu trzy główne okresy. Dekada lat 90 XX wieku, to stosunkowo szybkie równanie w górę do średniej dla tych krajów. To też efekt swoistej „mikrokonwergencji”, PRL bowiem, u swego schyłku był, o czym wielu dzisiaj nie chce pamiętać, kompletnym dziadostwem, nie tylko w porównaniu z krajami normalnymi, niesocjalistycznymi, ale także z większością bratnich baraków obozu pokoju i postępu.

Jednak po osiągnięciu tej średniej, około roku 2000, nastąpił proces odwrotny. Polska, nadal, co prawda nadganiając dystans od całej UE, zaczęła się cofać w stosunku do krajów podobnych sobie. Ten regres trwał do 2007 roku, po czym nastąpił trzeci etap, odbicia w górę i wyrównania do dzisiejszego poziomu liczącego ok 105% średniej dla tych krajów. W jaki sposób te wyniki rozkładają się na poszczególne ekipy rządzące w tym czasie naszym krajem?

DZmiana 02

Wykres nr 2 ujawnia bardziej subtelne zjawiska, wcześniej słabo widoczne. Efekt konwergencji z gospodarką zachodnioeuropejską miał charakter bimodalny. Pierwszy szczyt nastąpił w latach 1993-1997 i wynikał z transformacji od gospodarki komunistycznej, nakazowo-rozdzielczej, do, z grubsza rzecz biorąc, wolnorynkowej i nawiązaniu z krajami tamtego regionu normalnych stosunków handlowych. Szczyt drugi, z lat 2007-2011 to efekt integracji ze strukturami unijnymi i wspólnym rynkiem. Przebieg tego procesu, wynikłego z podjęcia jeszcze za czasów „wczesnego Balcerowicza” strategicznej decyzji o przyjęciu zachodnioeuropejskiego modelu gospodarczego, na co wszak nie wszystkie kraje postkomunistyczne się zdecydowały, od bieżących decyzji politycznych był jednak mało zależny. Co innego w przypadku porównania z krajami postkomunistycznymi. Tu wyniki są znacznie bardziej urozmaicone. Jeżeli nie liczyć, zdominowanego przez mikrokonwergencję, okresu bezpośrednio po 1989 roku, to najlepsze wyniki w rządzeniu osiągnęła ekipa PO w latach 2007-2011. Oprócz umiejętnego zarządzania, PO dopisało także szczęście, bo na lata te, przypadło też maksymalne oddziaływanie „dużej” konwergencji. Nic zatem dziwnego, że, w uznaniu tych gospodarczych sukcesów, wyborcy, po raz pierwszy w historii III RP, nagrodzili PO drugą kadencją, w której jednak PO szło już nie tak dobrze, co zakończyło się utratą przez nią władzy w roku 2015.

Co jednak sprawia, że jedne rządy są lepsze od innych? Na czym polega właściwa, zapewniająca wzrost i rozwój, polityka gospodarcza? Nie odkryjemy w tym miejscu Ameryki, twierdząc, że na stwarzaniu odpowiednich do rozwoju warunków. Prawnych, instytucjonalnych i infrastrukturalnych. Na zapewnieniu odpowiedniego poziomu wolności gospodarczej po prostu.

Miernikiem który mierzy poziom takiej wolności i przyjazność danego kraju dla prowadzenia w nim przedsięwzięć biznesowych, jest, publikowany co roku przez fundację Heritage, Wskaźnik wolności Gospodarczej, Index of Economic Freedom, IEF. Oczywiście, podobnie jak to jest z PKB, również zmiany IEF zależą nie tylko od decyzji władz, ale, choć w znacznie mniejszym stopniu, od innych czynników. Dlatego tez ponownie nie porównamy, co czyni wiele poruszających to zagadnienie publikacji, wartości bezwzględnych IEF, ale właśnie, podobnie jak poprzednio, dynamikę jego różnic od 1995 roku.

DZmiana 03

Po nałożeniu dwóch ostatnich wykresów na siebie, od razu widać przyczyny fluktuacji polskiego wzrostu gospodarczego. Do roku 2002, pod względem wolności gospodarczej, polska gospodarka była na poziomie średniej krajów postkomunistycznych i wraz z nimi systematycznie nadrabiała dystans od krajów rozwiniętych. Jednak w roku 2002 nadeszło załamanie. Dwa kolejne fatalne rządy, SLD w latach 2001-2005 i PIS 2005-2007, sprowadziły polski IEF na dno. W najgorszym, 2007 roku różnica wynosiła już prawie 11 pkt dla średniej unijnej i 5,5 pkt w porównaniu z krajami postkomunistycznymi. To, że nie było w tym czasie w Polsce żadnej recesji, zawdzięczamy wyłącznie wzrastającemu wtedy efektowi konwergencji. Po roku 2007, na szczęście, polski IEF znów jednak poszedł w górę, aby w roku 2016, sięgając prawie 70 pkt i będąc najwyższy w całej historii Polski, zrównać się wreszcie ze średnią europejską. Niestety, już w roku 2015 powróciła w Polsce do rządów polityka godnościowa, i przez ostatnie dwa lata, polski IEF znów spada, zarówno w liczbach bezwzględnych, jak i w stosunku do średniej europejskiej.

PIS zatem, ponownie objąwszy w 2015 roku władzę, nie tylko nie wyciągnął żadnych wniosków z porażki poprzedników, ale nawet i ze swojej własnej z roku 2007. Nadal, tak jak wtedy, prowadzi politykę nastawioną na obniżanie polskiego IEF, a to zakazując Polakom nabywania ziemi, a to ograniczając konkurencję na rynku aptekarskim, a to zabraniając robienia zakupów w niedzielę, o szerokim wprowadzeniu socjalnego, skrajnie demoralizującego rozdawnictwa, nawet nie wspominając.

Nic dziwnego, że powtarzając swoje nieudolne działania z lat 2005-2007, gospodarczo ma PIS, jak widać na drugim wykresie, gorsze od PO wyniki gospodarcze. W odróżnieniu jednak od tamtego okresu, obecnie polski PKB per capita osiągnął już ponad 70% średniej unijnej i w związku z tym efekt konwergencji jest znacznie słabszy i maskować nieudolności rządzącej ekipy, tak jak wtedy, już nie będzie. Tym bardziej, że PIS, w sposób tylko słabo zawoalowany, zapowiada chęć wyrwania Polski z zachodnioeuropejskich struktur politycznych i gospodarczych, co oczywiście spowoduje w Polsce natychmiastową zapaść gospodarczą, porównywalną do skutków rządów Gierka. Wskaźniki będą nadal spadać i pod rządami PIS Polska prostą drogą pomaszeruje do tzw. pułapki średniego rozwoju, kiedy to, po wyczerpaniu się możliwości inwestycji kapitałowych i obniżeniu w związku z tym średniej stopy zwrotu do poziomu krajów zachodnich, rozwój Polski zatrzyma się w miejscu.

Narastająca katastrofa gospodarcza została już chyba zresztą zauważona przez pisowskich funkcjonariuszy. Podczas gdy jeszcze w zeszłym roku chwalili się oni, a to wiekopomnym rzekomo sukcesem „500+”, a to przełomowymi podobno skutkami „wystarczyniekraść”, snując wizje świetlanej przyszłości pełnej elektrycznych samochodów, czy gigantycznych lotnisk, tak dzisiaj wątki ekonomiczne praktycznie zniknęły z reżimowej propagandy, a dominująca stała się w niej „polityka historyczna” coraz bardziej przeradzająca się w politykę histeryczną. Potrzeba wykreowania wroga, jakiegoś żydowsko-niemieckiego banderowca, na którego będzie można zwalić winę za opłakane skutki swojej polityki, staje się dla PIS najwyraźniej coraz bardziej paląca.

W PIS pokutuje przekonanie, że właściwa polityka gospodarcza polega na wymianie odpowiedzialnych za nią osób z komunistów, kosmopolitów i innych „osób wykorzenionych z poczucia polskości” na patriotów. Wystarczyniekraść i gospodarka pod wpływem patriotycznych zaklęć automatycznie rozkwitnie. Tym bardziej zwolenników PIS frustruje fakt, że ekonomia na ich zaklęcia nie reaguje i okazuje się, że samo wystarczyniekraść jednak nie wystarcza. Tym bardziej, że pod rządami PIS i tak kradnie się ze znacznie większym rozmachem niż za PO. Udowadnia to zachowanie kolejnego wskaźnika – indeksu percepcji korupcji (Corruption Perception Index), CPI, którego zmiany, ty razem w postaci bezwzględnej, pokazano na przedostatnim wykresie.

DZmiana 04a

Korupcja pod koniec rządów SLD osiągnęła w Polsce taki poziom, że same tylko proste działania policyjne podjęte przez PIS w latach 2005-2007 pozwoliły nieco ją ograniczyć. Wtedy wystarczyniekraść faktycznie, inaczej niż dzisiaj,  mogło pomóc. Jednak dopiero po roku 2007 CPI w Polsce zaczął stale i systemowo rosnąć. Chociaż rządy PO, dzięki wysiłkom pisowskiej propagandy, kojarzą się zwykle z „aferami”, to jednak w latach 2013-2016 Polska, naprawdę była drugim, po Estonii, najmniej skorumpowanym krajem postkomunistycznym na …świecie. Było, minęło. Od roku 2015, korupcja w Polsce znów zaczyna lawinowo narastać. I nie jest to żadna patologia, sabotaż czy przypadek. To nieunikniony rezultat socjalizmu. Skoro zamiast prywatnych, generujących wzrost PKB, sprzedawców, dostawców i handlowców, w niedziele pracują teraz państwowi, przeżerający PKB inspektorzy, urzędnicy i kontrolerzy mający pilnować by ci pierwsi nie pracowali, to jak korupcja ma nie rosnąć? Nie wystarczy nie kraść, a nawet nie kraść się w takim systemie po prostu nie da.

W eseju „O państwie i mizerii akapu” niżej podpisany skonstruował swoistą macierz pozwalającą umiejscowić poszczególne kraje pod względem panującego w nich ustroju społeczno – politycznego. Model ten uwzględnia z jednej strony sprawność państwa w stanowieniu i efektywnym egzekwowaniu prawa, ze szczególnym uwzględnieniem prawa własności (oś pionowa) z drugiej zaś koszty tegoż państwa utrzymywania – efektywną wysokość opodatkowania (oś pozioma). Zainteresowanych szczegółową metodologią tworzenia tej macierzy odsyła pilaster do wspomnianego eseju, teraz zaś przedstawi zaktualizowaną macierz za bieżący, 2018 rok. Łamana czerwona linia, to przemieszczająca się po wykresie pozycja Polski od 1995 roku.

DZmiana 05

PO, powoli i zakosami, ale prowadziła Polskę w stronę lewego górnego rogu – krajów liberalnych, takich jak nowa Zelandia, Singapur, czy Hong Kong – tanich w utrzymaniu, a zarazem wysoce efektywnych. PIS natomiast, zarówno w latach 2005-2007 jak i obecnie podąża w stronę dziadostwa. Oddala Polskę od cywilizowanych krajów Zachodu, zarówno europejskiego, jak i amerykańskiego, czy australijsko – nowozelandzkiego, a coraz bardziej przybliża do Chin, a zwłaszcza Rosji, kraju dla PIS wzorcowo wręcz „suwerennego”.

W tym swoistym, opisanym wyżej, „teście na Kazimierza Wielkiego” zdecydowanie wygrywa, nie tylko po 1989 roku, ale w całej historii pomiarów (czyli ci najmniej od 1950 roku) PO. Prowadziła ugodową politykę „białej flagi” Kazimierza i osiągnęła podobne do Kazimierza rezultaty. PIS natomiast, najgorszy rząd od czasów Edwarda Gierka,  przegrywa z kretesem. PIS jednak, jako środowisko Polsce wrogie i Polski nienawidzące, historię naszego kraju zna bardzo słabo. Słyszeli tam coś o Kazimierzu Wielkim jako wybitnym władcy i usiłując się podpiąć pod tą tradycję kazali nawet swoim polskojęzycznym mediom wyprodukować stosowny serial. Serial ten, pomimo swoich wielu, szczegółowo opisanych już w publicystyce wad, od strony ściśle historycznej jest jednak zrobiony, jak na produkcję tego rodzaju, dość rzetelnie. I dzięki temu, absolutnie na opak intencjom swoich zleceniodawców, stał serialem skrajnie antypisowskim. Serialowy Kazimierz co rusz deklaruje, że na wojnę z tym czy z tamtym wrogiem Królestwa nie stać. Że na konflikt z tym, czy z tamtym jesteśmy za słabi, że lepiej zainwestować w infrastrukturę, niż w wojnę, czyli wygłasza tezy absolutnie PISowi obmierzłe. Natomiast przedstawicielem pisiorstwa, głoszącego konieczność permanentnej wojny na wszystkich frontach jest, pokazany w utworze w negatywnym świetle, biskup Jan Grot. A co jest w tym wszystkim najbardziej zabawne, to fakt, że chyba dotąd nikt w PIS nie zorientował się co też mu, widać niedostatecznie zlustrowani podwładni, zmajstrowali.

Skrócona wersja powyższego artykułu została opublikowana w 1453/1454 numerze „Najwyższego Czasu”

(O)błędy pikettyzmu

Rozumie się z doliczeniem procentu
w stosunku… sześć… do ośmiu od sta rocznie…
Bolesław Prus

 

Oszczędnością i pracą narody się bogacą. Specjaliści od przymusowego wyzwalania społeczeństwa z okowów materializmu i konsumpcjonizmu nie próbując kwestionować tej oczywistości, atakują w zamian leżące u podstaw tego powiedzenia niejawne założenie, że owo bogacenie się jest czymś pozytywnym.

Przykładem takiego rozumowania jest książka „Kapitał w XXI wieku” Thomasa Pikettego. Pozycja, darzona w środowiskach socjalistycznych, z grubsza pokrywających się w Polsce z elektoratem partii PIS i RAZEM, swoistym kultem, będąc dla nich, na co sam tytuł zresztą wskazuje, współczesnym odpowiednikiem XIX wiecznego „Kapitału” Marksa. „Kapitał XXI wieku” ma właśnie to jedno zasadnicze przesłanie i pomimo ponad 700 stron objętości, da się streścić w dwóch zdaniach.

  1. Ci, którzy oszczędzają, faktycznie bogacą się szybciej, niż ci, którzy nie oszczędzają.
  2. Jest to jednak zjawisko bardzo szkodliwe, któremu trzeba energicznie przeciwdziałać.

Piketty ma bowiem, a właśnie ten fakt jest przyczyną jego niezwykłej u lewicy wszelkiej maści popularności, swoistą fobię. Lęk przed nierównością. To, że ludzie nie są równi i jednakowi, po prostu jego i jego współwyznawców przeraża. Sytuacja, w której najbiedniejsi zarabiają sto złotych a najbogatsi trzysta, jest dla nich znacznie lepsza, bo mniej nierówna, niż sytuacja w której najbiedniejsi zarabiają tysiąc a najbogatsi dziesięć tysięcy złociszy, choćby obiektywnie wszyscy wtedy mieli lepiej. Stopień nasilenia tej fobii z góry wyklucza jakiekolwiek próby jej racjonalnego wytłumaczenia. Na żadnej z ponad 700 stron formatu A3 „Kapitału”, nie znajdziemy ani jednego merytorycznego argumentu uzasadniającego szkodliwość „nierówności” i konieczność ich „wyrównywania”. Co więcej, nie próbuje też nawet Piketty określić jakiejś górnej dopuszczalnej, jego zdaniem, granicy „nierówności”, poniżej której należałoby owe nierówności sprowadzić. Chociaż recenzowana pozycja, zgodnie ze swoim tytułem, traktuje o nierównościach wynikłych z różnic w poziomie oszczędzania, czyli nierównościach majątkowych, nie oznacza jednak, że nierówności wynikające z różnic w pracowitości są uznawane przez autora za uzasadnione. Bynajmniej. Różnice w zarobkach są dla Pikettego równie naganne jak różnice w poziomie posiadanego majątku, a potraktowanie ich w swoim dziele po macoszemu wyjaśnia on faktem, że te pierwsze są znacznie mniejsze niż te drugie. Mniejsze, ale równie dla pikettystów nie do przyjęcia. Z bogatymi, a już na pewno z tymi, których bogactwo wynika z oszczędzania, należy się bezwzględnie rozprawić, co Piketty postuluje właśnie takiego słownictwa („zwalczanie” rentierów, a nawet „eksterminacja” rentierów) używając, bo wszak rentier, osoba żyjąca z oszczędności to dla Pikettego „wróg ludu” tj, wróg demokracji.

Nie doczekawszy się więc uzasadnienia podstawowej i najważniejszej tezy książki, przejdźmy do tejże książki części merytorycznej. I tu napotkamy na wiele osobliwości. Na pierwszy rzut oka „Kapitał” wygląda jak, wypełniona tabelami i wykresami, poważna pozycja naukowa, skierowana do kogoś, komu nie trzeba szczegółowo wyjaśniać, jaki przebieg ma funkcja wykładnicza, ani tym bardziej, co to jest iloczyn. Problem w tym, że Piketty właśnie takie rzeczy swoim czytelnikom …tłumaczy. Widać zatem, że jest to dzieło, „naukawe” które naukowość jedynie udaje, a trafić ma do odbiorcy, który, nie tylko nie będzie posiadał żadnych kwalifikacji i narzędzi, aby tą „naukawość” zweryfikować, ale nawet nie będzie odczuwał takiej potrzeby. Do wyznawcy, który bezkrytycznie przyjmie wszystko to, co mu guru do wierzenia podać zaplanuje. Dla takiego odbiorcy nie warto się nawet starać i robić szczegółowej korekty, która by przykładowo wyłapała i usunęła stwierdzenie, że w Europie są tylko państwa należące do UE, oraz Rosja i Ukraina.

Nie jest więc przypadkiem, że krytycy Pikettego, wytknęli mu wiele błędów i przekłamań, w tym i takie, które całkowicie unieważniają jego wywody. Sam niżej podpisany, pomijając już drobne wpadki w rodzaju „zniknięcia” Szwajcarii, Norwegii, Serbii, czy Białorusi, zwrócił uwagę na dwa poważne, już nawet nie błędy, ale jawne i oczywiste kłamstwa. Pierwszym z nich jest stwierdzenie, że płace realne robotników w okresie rewolucji przemysłowej zaczęły rosnąć dopiero od roku 1870, podczas gdy w rzeczywistości były już wtedy średnio dwa razy wyższe niż w roku 1800. Pomimo, że akurat to przekłamanie w niczym nie wspiera wywodów Pikettego, to nietrudno odkryć jego źródło. Tak właśnie twierdził w swoim „Kapitale” Karol Marks, a Piketty w widoczny sposób jest zafascynowany tą złowrogą postacią i jego mrocznym dziełem i zaprzeczanie w czymkolwiek Mistrzowi przychodzi mu z widocznym trudem, choć, gwoli prawdy, robi to, kiedy już absolutnie nie ma innego wyjścia. Zupełnie na odwrót, niż kiedy wspomina klasyków nauk ekonomicznych, Smitha, Malthusa, czy Ricardo, do których deklaruje Piketty wyłącznie pogardę.

„Kapitał w XXI wieku” nie jest jednak pozycją naukową tylko z powodu swoich błędów i celowych przekłamań, a nawet przede wszystkim nie dlatego. Istotą działania naukowego jest bowiem zbudowanie takiego modelu badanego zjawiska, który można, poprzez eksperymenty, lub obserwacje, testować i tym samym określić czy i w jakim stopniu adekwatnie on dane zjawisko opisuje. Jaki jest zakres jego stosowalności, jakie parametry modelu mają duży wpływ na wynik, a jakie niewielki. Jakie są podstawy fizyczne danego zjawiska, które właśnie taki a nie inny model generują.

Niczego podobnego u Pikettego nie znajdziemy. Nie tylko nie prezentuje on żadnych modeli, ale, co jest zresztą typowe dla całej tej formacji ideowej, wręcz programowo od ich tworzenia się odżegnuje, otwarcie krytykując „matematyzację nauk społecznych”. Separując się od nauki, ląduje więc Piketty w obrębie pseudonauki, stając się kreacjonistą ekonomicznym, podobnie jak kreacjoniści pozostałych obrządków, przekonanym, że procesy ekonomiczne nie przebiegają „same z siebie”, ale są i powinny być ręcznie sterowane przez Inteligentnego Projektanta – Planistę.

Szczegółowo rozważa zatem Piketty dynamikę wzrostu demograficznego i osobno gospodarczego, na przestrzeni ostatnich kilkuset lat, ale nawet nie stawia pytania, nie mówiąc już o odpowiedzi na nie, czy aby nie istnieje między nimi jakiś związek i jeżeli tak, to jaki. Zależność, którą zauważył już Malthus pod koniec XVIII wieku, nie zaprząta głowy naszego (neo)Marksa w wieku XXI. Opisując nierówności ekonomiczne, zauważa Piketty, jak już wyżej wspomniano, że nierówności w dochodach z pracy najemnej są znacznie mniejsze niż nierówności w posiadanym kapitale, ale znów czytelnik nie ma żadnych szans dowiedzieć się, dlaczego tak jest. Ponownie dając dowód własnej, wynikającej z programowej niechęci do metodologii naukowej, ignorancji w tym zakresie, wspomina Piketty o rozkładzie potęgowym Pareto (nie zaniedbując przy tym solennego zwyzywania samego Pareto od „faszystów”). Najwyraźniej jednak nie zdaje sobie sprawy, że rozkład potęgowy, generowany przez zjawisko swoistego przyciągania się kapitału, zwane też „pieniądz rodzi pieniądz”, owszem, bardzo dobrze opisuje rozkład własności kapitału, ale dochody z pracy, jako z grubsza proporcjonalne do kompetencji pracowników, opisywane są z kolei przez rozkład logarytmiczno – normalny, zwany też, ze względu na to, że opisuje on również prędkość cząsteczek w gazie w zależności od temperatury, rozkładem termicznym.

Piketty 01

Nie mając więc i z założenia nie chcąc mieć, żadnego sensownego, testowalnego modelu, nie może też, w sposób uprawniony, postawić Piketty żadnej hipotezy dotyczącej możliwego zachowania się opisywanego przez siebie układu w przyszłości. Nie może tego zrobić w sposób uprawniony, robi więc to w sposób nieuprawniony, po prostu ekstrapolując obecne trendy w przyszłość, chociaż sam doskonale zdaje sobie sprawę, że w przeszłości owe trendy zmieniały się co najmniej kilkukrotnie, zatem mogą też zmienić się, i, jak się jeszcze przekonamy, zmienią, w przyszłości.

I w tym miejscu przechodzimy do samego jądra pikettyzmu, czyli słynnej w tym światku nierówności r>g. Twierdzi otóż Piketty, że, jeżeli w dłuższym okresie czasu, średnia stopa zwrotu z kapitału r, będzie wyższa niż wzrost gospodarczy (PKB) – g, to wtedy kapitalizacja zysków z kapitału doprowadzi do systematycznego wzrostu nierówności majątkowych w społeczeństwie, teoretycznie w nieskończoność. W granicy tego trendu jedna osoba mogłaby posiadać cały ziemski kapitał. Zważywszy na fakt, że przez „kapitał” rozumie Piketty wszystko to, co może być objęte prawem własności, od praw autorskich do zbioru sonetów, po meble w mieszkaniu, perspektywa taka, nawet dla kogoś, kto nierówności uważa za zjawisko pożądane i naturalne, może wydać się niepokojąca.

Ponieważ jednak Piketty nie dysponuje żadnym opisującym dynamikę tych wielkości modelem, nie może też w żaden sposób przewidzieć, jak się będą one kształtować w przyszłości, w szczególności, czy faktycznie r będzie większe od g. W całym „Kapitale” co rusz czytelnik natrafia na frazy „Jeżeli r będzie takie, a g będzie takie, to wtedy stanie się to i to”, nigdzie jednak nie ma żadnego wyjaśnienia, dlaczego te parametry miałyby akurat takie, a nie inne wartości przyjmować. W zamian otrzymujemy gorące zapewnienia autora, że średni poziom zwrotu z kapitału r od tysięcy lat był z grubsza stały i wynosił +/- 5%. Taki też zatem będzie on w przyszłości. I to jest właśnie drugie, ze wspomnianych  na wstępie, jawnych kłamstw Pikettego. Używam określenia „kłamstwa” z całą świadomością wagi tego zarzutu, ponieważ prawdziwe dane dotyczące zarówno zarobków, jak i poziomu stóp procentowych w ujęciu historycznym są opisane przez George’a Clarka, którego Piketty bez skrępowania w bibliografii wymienia. Zna więc  te dane, ale je z premedytacją i celowo ignoruje, ponieważ nie pasują mu do ideologii.

Sam Piketty zachęca do tego, żeby informacji o średniej stopie zwrotu z kapitału, np. w XIX wieku, poszukiwać w ówczesnej literaturze, obficie przytaczając a to Balzaca, a to Jane Austen. W powieściach autorstwa tych pisarzy, twierdzi Piketty, znajdziemy informację o właśnie pięcioprocentowej stopie zwrotu we współczesnych im czasach. Pójdźmy zatem tym tropem i zajrzyjmy, choćby do „Lalki” Prusa, która, rozgrywając się w latach 70 XIX wieku, w dużej mierze o sprawach finansowych traktuje. I już napotkamy niespodziankę. Średnia stopa zwrotu z kapitału jest u Prusa jest znacznie wyższa niż podawana przez Pikettego. Zgodnie z cytatem w motcie niniejszego eseju, wynosi zwykle około siedmiu procent, a dla szczególnie intratnych biznesów, znacznie więcej. Założona przez Wokulskiego spółka do handlu z Rosją przynosi swoim akcjonariuszom nawet osiemnaście procent zysku. Nawet, jeżeli jest to wartość skrajna, podana dla podkreślenia niezwykłych zdolności biznesowych samego Wokulskiego, to i tak przekroczenie 10% stopy zwrotu nie jest dla bohaterów Prusa żadnym ewenementem.

Przechodząc od beletrystyki, której twórcy w końcu niekoniecznie musieli się twardo trzymać współczesnych sobie realiów (nawet w pozytywistycznej, realistycznej, „Lalce” napotykamy przecież metal lżejszy od powietrza), do poważnych badań naukowych, dowiadujemy się od wspomnianego Clarka, że Prus jest jednak bliższy prawdy niż Piketty. Średnia stopa procentowa była tym większa, im dawniejszy okres bierzemy pod uwagę. W Średniowieczu wynosiła kilkanaście procent, w greckim i rzymskim Antyku nawet dwadzieścia kilka. W czasach, kiedy wzrost gospodarczy był, mierzony dzisiejszymi kategoriami, mikroskopijny, zwrot z kapitału był z kolei kolosalny. Piketty starannie przemilcza ten fakt, musiałby bowiem wytłumaczyć, dlaczego, mimo tak drastycznej, do tego utrzymującej się przez całe millenia różnicy r>>>g, jakoś cały ówczesny świat własnością jednej osoby, czy dynastii się nie stał. Różnice majątkowe były oczywiście gigantyczne, znacznie większe niż dzisiejsze, ale do wieszczonej przez pikettystów „ostatecznej kumulacji kapitału” nigdy nie doszło.

W tym miejscu, nie bez powodu starannie przed czytelnikiem ukrytym, pikettyzm rozpada się zatem całkowicie, bo u jego podstaw leży jeszcze jeden fundamentalny błąd. Potraktowanie całego pikettowskiego „kapitału” łącznie, jakby nie było pomiędzy jego składowymi żadnych różnic. Tymczasem w naukach ekonomicznych, nieprzypadkowo, czego Piketty starannie unika, rozdziela się kapitał fizyczny, istniejący w formie narzędzi, maszyn, budynków, fabryk, środków transportu, etc, kapitał ludzki, czyli wykształcenie, wiedzę i umiejętności pracowników, i „ziemię”, czyli te dobra, nie tylko ziemię w sensie dosłownym, których nie da się wytworzyć. Te środki produkcji, wrzucone w „Kapitale w XXI wieku” do jednego wora, różnią się jednak od siebie w sposób zasadniczy.

W czasach maltuzjańskich, przed rewolucją przemysłową, podstawowym środkiem produkcji, „kapitałem” w sensie pikettowskim, była „ziemia”. Ziemia rolna, surowce i minerały. A „ziemia” ma jedną charakterystyczną cechę. Stałą, nieelastyczną, czyli niezależną od ceny, podaż. W konsekwencji tego faktu, ziemia praktycznie nie podlega akumulacji. Bogaty właściciel ziemski, może oczywiście dokupywać kolejne łany, ale w miarę jak będzie to czynił, przy stałej podaży, cena każdej kolejnej morgi będzie systematycznie rosnąć, zatem jej użyteczność krańcowa będzie stale maleć, aż do zera. Im bardziej landlord jest bogaty, im więcej ziemi posiada, tym trudniej mu swoje bogactwo dalej powiększać. W końcu, mimo bardzo wysokich stóp zwrotu, ustala się pewna równowaga i rozkład bogactwa w społeczeństwie pozostaje stabilny.

Sytuacja zmienia się diametralnie podczas rewolucji przemysłowej. Ziemia traci na znaczeniu, a dominować zaczyna kapitał fizyczny. Ten akumulacji z kolei podlega. Jednak, pomimo tego faktu, nierówności w cywilizacji industrialnej kapitalistycznej, są, znów odwołując się do Clarka, znacznie mniejsze niż w cywilizacji maltuzjańskiej, feudalnej. Dzieje się tak, ponieważ z jednej strony, wzrost gospodarczy g jest w kapitalizmie znacznie szybszy, z drugiej zaś, w miarę akumulacji kapitału, maleje jego krańcowa stopa zwrotu, a zatem r systematycznie spada. Wybudowanie pierwszej w kraju fabryki samochodów może być bardzo dochodowe, ale wybudowanie dziesiątej, już nie bardzo. Spadek stopy zwrotu w miarę akumulacji kapitału, nie jest zresztą, ani przez Pikettego, ani nawet przez Marksa, negowany. Nie zauważyli jednak oni, że kiedy owa stopa zwrotu zrówna się ze średnim wzrostem gospodarczym (r=g), inwestycje kapitałowe przestają się opłacać i dalsza akumulacja kapitału fizycznego staje się niemożliwa. Kapitał fizyczny, tak jak wcześniej ziemia, przestaje mieć znaczenie jako główny środek produkcji. Decydujące stają się umożliwiające wzrost wydajności innowacje i zdolny do ich dokonywania i wdrożenia kapitał ludzki. A jego nie tylko nie da się, jak kapitału fizycznego, zakumulować, ale nawet kupić, jak ziemię, na własność. W innowacje trzeba zainwestować, za każdym razem od początku, bo chociaż pieniądz faktycznie rodzi pieniądz, to jednak jedne innowacje nie kreują automatycznie i bezkosztowo kolejnych innowacji. Za kapitał ludzki zaś, wiedzę, umiejętności i kompetencje pracowników, trzeba zapłacić. Już w tej chwili innowacje odpowiadają za połowę całego światowego wzrostu gospodarczego i udział ten w przyszłości może wyłącznie rosnąć. Narody się bowiem bogacą nie tylko oszczędnością i pracą, ale i zdolnościami i pomysłami. Tym bardziej po ustabilizowaniu się światowej populacji, co drastycznie ograniczy podaż „pracy”, a zatem i podniesie jej cenę. Tempo wzrostu g, tak jak obstawia to, ale ponownie w żaden sposób tego nie uzasadniając, Piketty, znacząco zmaleje, ale stopa zwrotu r zmaleje jeszcze szybciej.

W konsekwencji głównym środkiem produkcji staną się wiedza i umiejętności. Wynagrodzenia za pracę, początkowo oczywiście pracowników najwyżej wykwalifikowanych i najbardziej kompetentnych, już zaczynają rosnąć, co zauważył także Piketty, nazywając to zjawisko pojawieniem się „superkadr”. Jednak, zamiast wyrazić zadowolenie z tego faktu, autor „Kapitału” znów pogrążył się w czarnej rozpaczy. Bo wszak, skoro zarobki najlepszych pracowników już rosną, a tych gorszych jeżeli nawet, to wolniej, to przyczynia się to do kolejnego wzrostu szatana „nierówności”.

W miarę jednak dalszego spadku r, w warunkach stabilizacji demograficznej, udział płac w produkcie, nawet w przypadku gorzej wykwalifikowanych pracowników, nieuchronnie wzrośnie, a udział kapitału równie nieuchronnie zmaleje. Już teraz oprocentowanie najpewniejszych papierów wartościowych zbliża się do zera, lub nawet spada poniżej tego poziomu. Za sto, dwieście lat, bardziej opłacalne będzie wykonywanie zawodu śmieciarza, niż życie jako znienawidzony przez pikettystów rentier. Kapitału fizycznego w XXI, a już na pewno w XXII wieku będzie tak wiele, że będzie on, jako źródło dochodu, praktycznie bezwartościowy.

Ignorowanie opisanych zależności, pomiędzy wzrostem gospodarczym, stopami procentowymi i wzrostem demograficznym, traktowanie ich, jako wielkości całkowicie od siebie niezależnych, co Piketty w swojej pracy uczynił, jest tym właśnie błędem pikettyzmu, który nie tylko w stu procentach unieważnia jego diagnozy, ale też, przez snucie takich chybionych prognoz, całkowicie intelektualnie to środowisko dyskwalifikuje.

Thomas Piketty

„Kapitał w XXI wieku”

Wydawnictwo Krytyki Politycznej 2015

Niniejsza recenzja została opublikowana w 1451-1452 numerze „Najwyższego Czasu”

Wojna Asurów cz II

Niniejszy wpis jest kontynuacją artykułu „Wojna Asurów. 1984„, który należy przeczytać przed lekturą artykułu poniższego.

Błogosławieni ubodzy w duchu, albowiem do nich należy królestwo niebieskie.
Błogosławieni, którzy się smucą, albowiem oni będą pocieszeni.
Błogosławieni cisi, albowiem oni na własność posiądą ziemię.
Błogosławieni, którzy łakną i pragną sprawiedliwości, albowiem oni będą nasyceni.
Błogosławieni miłosierni, albowiem oni miłosierdzia dostąpią.
Błogosławieni czystego serca, albowiem oni Boga oglądać będą.
Błogosławieni, którzy wprowadzają pokój, albowiem oni będą nazwani synami Bożymi.
Błogosławieni, którzy cierpią prześladowanie dla sprawiedliwości, albowiem do nich należy królestwo niebieskie.
Mt (5, 3-10)
 
Nie sądźcie, że przyszedłem znieść Prawo albo Proroków. Nie przyszedłem znieść, ale wypełnić
Mt (5, 17)

 

Od dłuższego już czasu autora niniejszego bloga pochłania modelowanie wojen i konfliktów, zarówno w ujęciu mikro, pomiędzy jednostkami, jak i makro, pomiędzy grupami, narodami, państwami i ich koalicjami. Na ten temat powstało już wiele artykułów, (nr 1, nr 2, nr 3, nr 4, nr 5, nr 6) a badania nadal są dalekie od ukończenia. Kiedy niżej podpisany po raz pierwszy zetknął się z opisującym taki konflikt modelem, zwanym macierzą Hammersteina, był przekonany, że wyczerpie temat w jednym, góra dwóch artykułach. Tymczasem zagadnienie rozrosło się do rozmiarów bez mała doktoratu. Istnienia tak wielkiego potencjału, który, jak się okazuje, tkwi w tak prostym, zaledwie dwuparametrowym, modelu, autor w ogóle się nie spodziewał.

Szczegółowo macierz Hammersteina była omówiona w poprzednich artykułach na ten temat, teraz tylko przypomnimy zatem tylko jej ogólne założenia.

W przypadku rywalizacji o jakiś zasób o wartości V, dwie rywalizujące strony mają do wyboru przyjęcie strategii agresywnej, czyli dążenie do zawłaszczenia zasobu bez względu na roszczenia drugiej strony, albo ustępującej. Jeżeli jedna strona sporu jest agresywna a druga ustępująca, zasób przypada stronie agresywnej. Jeżeli ustępują obie strony, jest dzielony po połowie, jeżeli zaś obie są agresywne, dochodzi do starcia, w którym można, co prawda, zdobyć zasób V, ale ponosi się koszty walki o wysokości W. Szanse na wygranie starcia zależą od stosunku sił spierających się stron, oznaczonego literą X. Ponownie też przypomnieć należy, że macierz Hammersteina jest grą o sumie zerowej, w której, inaczej niż w grach o sumie dodatniej, strony nie mogą przez wspólne działanie zwiększyć puli wypłat.

Analizę modelu rozpoczęliśmy od prostego analitycznego rozwiązania, które ujawniło istnienie trzech optymalnych (w sensie Pareto) strategii. W zależności od stosunku strat do zysków oznaczonego S = W/V, oraz stosunku sił X, optymalnymi strategiami są I – bezwarunkowa agresja, II Pragmatyzm, czyli zachowanie agresywne kiedy jest się silniejszym, a ustępujące, kiedy jest się słabszym, oraz III – Legalizm, rozstrzyganie sporów w oparciu o kryteria obiektywne, u ludzi przyjmujące kształt prawa własności.

Broń 01

Jednak, co również wielokrotnie autor zaznaczał, to, że jakaś strategia jest paretooptymalna, czyli daje graczom maksymalną sumę wypłat, nie oznacza że gracze na pewno będą ją stosować. W słynnym dylemacie więźnia, optymalna jest współpraca, ale gracze wybierają zdradę. Dlatego czym innym jest optymalność, a czym innym stabilność. Również w macierzy Hammersteina, strategie długoterminowo, ewolucyjnie, stabilne, nie muszą wcale być optymalne. Co więcej, teoretycznie możliwych strategii, przynajmniej w przypadku organizmów takich jak ludzie, o bardziej rozwiniętym układzie nerwowym, może być więcej niż wspomniane cztery podstawowe (A, U, P, L). W kolejnych artykułach dodawaliśmy kolejne strategie i za pomocą symulacji komputerowej, badaliśmy, które z nich są stabilne ewolucyjne dla danych wielkości parametrów (S, X). Zgodnie bowiem z twierdzeniem Nasha, przy dopuszczeniu strategii mieszanych, jakaś równowaga w naszej grze musi istnieć. Okazało się, że krajobraz przestrzeni fazowej takich równowagowych stabilnych ewolucyjnie strategii, jest bardzo bogaty, skomplikowany i odmienny od pierwszego analitycznego rozwiązania. Za jego pomocą, symulując interakcje 10 strategii, udało się wyjaśnić przykładowo genezę I i II wojny światowej, co opisano w artykule „Wojna Asurów”. Wojny te, ze względu na swoją ewidentną bezsensowność, gigantyczne koszty materialne i ludzkie, oraz brak faktycznych zwycięzców, co zresztą precyzyjnie przewidziano na długo przed ich wybuchem, opierały się wcześniej racjonalnej analizie i sprawiały wrażenie wydarzeń przypadkowych, absurdalnych, idącej pod prąd naturalnego biegu rzeczy, fluktuacji statystycznej. Okazuje się jednak, że taka, zwana właśnie „Wojną Asurów” agresywna faza, w rozwoju dowolnej cywilizacji (także pozaziemskiej!), dokonującej rewolucji przemysłowej i przejścia demograficznego, czyli osiągającej parametr S>1, jest naturalną konsekwencją rozwiązań macierzy Hammersteina, czyli wynika wprost z praw przyrody. Tą niebezpieczną przestrzeń na naszej mapie ochrzciliśmy mianem „Grzbietu Pragmatyzmu”, od rodzaju dominujących na tym obszarze strategii.

No, ale nawet 10 strategii rozważanych w poprzednim artykule, to jednak bynajmniej nie wszystkie. Ile ich w ogóle jest możliwe? Mechanizm generowania strategii w macierzy Hammersteina, zaproponowany został przez usera „kmat”, który tym samym stał się w jakiejś części współautorem tego eseju, i wygląda następująco:

Każda strategia składa się z dwóch części. Fazy początkowej, czyli deklaracji i reakcji na strategię zastosowaną przez oponenta. Jeżeli w odpowiedzi na deklarację przeciwnik przyjmie postawę ustępującą, strategia pozostaje niezmieniona, czyli reakcja równa się deklaracji. Jeżeli przeciwnik będzie agresywny, strategia się zmienia. W tym sensie „podstawowe” strategie A, U, P, L stają się strategiami AA, UU, PP, LL, a wszystkich możliwych kombinacji jest 4*4, czyli 16:

Cztery omówione wyżej strategie podstawowe (A, U, P, L),

Trzy strategie chojrackie (AU, AP, AL), zaczynające od postawy agresywnej, a w przypadku adekwatnej odpowiedzi w różnym stopniu podwijające ogon pod siebie.

Trzy strategie mścicielskie (UA, UP, UL) zaczynające od ustępstw, a przy agresywnej odpowiedzi, same stające się agresywne.

Trzy strategie pragmatyczne (PA, PU, PL), w tym, nazwany tak przez kmata, „berserk” (PA)

Trzy strategie legalistyczne (LA, LP, LU).

16 strategii oznacza, że macierz wypłat liczy teraz 256 pozycji, która to liczba pokazuje skalę trudności całego przedsięwzięcia.

Ponownie należy w tym miejscu zaznaczyć, że stabilne społeczeństwo może istnieć tylko wtedy, jeżeli unika wyniszczających wzajemnych walk, czyli w tych obszarach, w których strategie, mogą sobie może nawet i grozić, ale nie atakują się nawzajem i uznając jakieś elementarne reguły praworządności, nie opierają się tylko na nagiej sile, jak strategie P. Z tego punktu widzenia można podzielić wszystkie strategie na „miłe” (U, L, AU, AL, UA, UP, UL, PU, PL, LU) i „niemiłe” (A, P, AP, PA, LA, LP). Na poniższej mapie (jej obliczenie zajęło komputerowi kilka godzin pracy – proszę to docenić) przestrzeni fazowej pokazano krajobraz strategii niemiłych. Jest to krajobraz „pierwotny”, czyli nie uwzględniający efektów drugorzędowych, o których później.

Asur 11

W porównaniu do, prezentowanego w poprzednim artykule, krajobrazu dla 10 strategii, zaszły w nim pewne zmiany. Przede wszystkim poszerzyła się Mściwa Zatoka, sięgając teraz znacznie bardziej na wschód. Dawny groźny sprawca Wojny Asurów, Grzbiet Pragmatyzmu, również przemieścił się w tym samym kierunku i rozpadł się na Archipelag Pragmatyzmu. Na południe od Morza Legalizmu wyrosła za to nie archipelag Wysp Nieszczęśliwych, ale cała Ściana Nieszczęścia. Każdy z tych obszarów ma swój zestaw ewolucyjnie stabilnych strategii, które przedstawiamy na kolejnym wykresie.

Asur 12

I w tabeli:

  Ziemia Agresorów Mściwa Zatoka Archipelag Pragmatyzmu Morze Legalizmu Ściana Nieszczęścia
A 68,7% 1,5% 0,2% 0,0% 0,0%
U 0,1% 2,7% 0,3% 0,3% 0,4%
P 0,6% 1,9% 58,5% 0,1% 50,5%
L 0,5% 1,8% 0,2% 48,1% 0,1%
AU 0,1% 0,3% 0,9% 0,9% 1,0%
AP 0,7% 0,5% 31,3% 0,1% 2,2%
AL 0,2% 0,5% 0,5% 48,2% 0,2%
UA 2,5% 74,8% 0,1% 0,1% 0,0%
UP 0,2% 6,0% 0,5% 0,1% 0,5%
UL 0,4% 3,7% 0,2% 0,7% 0,1%
PA 21,6% 2,3% 0,3% 0,2% 0,1%
PU 0,2% 0,3% 0,9% 0,4% 1,7%
PL 0,3% 0,6% 0,6% 2,3% 0,3%
LA 5,3% 3,9% 0,3% 0,2% 0,0%
LU 0,1% 0,4% 0,3% 0,9% 0,4%
LP 0,5% 1,4% 6,8% 0,1% 45,1%

Podobnie jak w przypadku 10 strategii, także i teraz obszary pragmatyczne (Archipelag i Ściana) są wrażliwe na efekty drugorzędowe. Strategie bazujące na pragmatyzmie wymagają bowiem precyzyjnej i dokładnej informacji o faktycznym poziomie siły własnym i przeciwnika, co realnie, zwłaszcza na Ścianie, przy X bliskim 0,5 jest bardzo trudne do osiągnięcia. Zwłaszcza, że każdy stosujący tą strategię usiłuje się nadymać, odgrażać i na wszelkie sposoby wydawać silniejszym niż jest naprawdę, aby skłonić przeciwnika do przyjęcia postawy ustępującej. Pragmatyzm wiąże się więc z dodatkowymi, nie uwzględnionymi w podstawowej wersji modelu, kosztami. Po ich uwzględnieniu, Ściana i Archipelag zostają znacznie zredukowane, a mogą nawet zniknąć bez śladu. Wychodzi więc na to, że przebycie Archipelagu Pragmatyzmu może być łatwiejsze niż początkowo przypuszczaliśmy, a Wojna Asurów wcale niekoniecznie musi wybuchnąć, jeżeli odpowiednio wcześnie uda się zbudować efektywny system prawa międzynarodowego, który będzie, choćby tylko w niewielkim stopniu, faworyzował legalizm kosztem pragmatyzmu. Tym bardziej w stosunkach wewnętrznych, wysoka jakość instytucji prawnych, proste i zrozumiałe kodeksy, sprawny i nieskorumpowany system wymiaru sprawiedliwości, umożliwiają społeczeństwu przebycie obszaru pragmatycznego bez popadania w dyktaturę, czy wręcz totalitaryzm. Na Ziemi w latach 1914-1945 uniknęły tego niebezpieczeństwa właśnie kraje o najwyższym poziomie praworządności, jak Szwajcaria, Benelux, kraje skandynawskie, czy anglosaskie. Dyktatury uniknęła Francja, ale nie bardziej od niej skorumpowane Włochy. Ciekawy wyjątek stanowią Niemcy, kraj praworządny o niskim poziomie korupcji, ale który, pomimo tego popadł w totalitaryzm porównywalny z rosyjskim. Stało się tak zapewne dlatego, że niemiecki Rechtstaat nie był, inaczej niż systemy anglosaskie, nastawiony na ochronę praw własności, czyli nie faworyzował legalizmu w dostatecznej skali.

Nasz ukompletowany model z 16 strategiami ma jednak jeszcze jedną ciekawą cechę. Przedstawione wyżej strategie ewolucyjnie stabilne są stabilne globalnie, dla warunków początkowych, które przypisują wszystkim strategiom tą samą szansę na pojawienie się. W rzeczywistości jednak, społeczność która wkracza na dany obszar naszego krajobrazu, wkracza na niego z zestawem strategii typowym dla obszaru sąsiedniego. A wtedy wynik może okazać się inny. Mogą pojawić się stabilności lokalne. Na warunki początkowe, jak się okazuje, nie jest wrażliwa Ziemia Agresorów, Mściwa Zatoka i Morze Legalizmu. Wrażliwe są jednak obszary pragmatyczne. Można do nich dotrzeć albo od strony strategii mścicielskich, albo legalistycznych, czyli, tak czy owak, od strategii miłych. Krajobraz wtedy, nawet bez osłabiania strategii pragmatycznych, zmienia się znacząco.

Asur 13

Ponownie zawęża się Mściwa Zatoka, a jej wschodnia granica przebiega teraz dokładnie wzdłuż obliczonej teoretycznie granicy pomiędzy strefami II i III w rozwiązaniu analitycznym. Archipelag Pragmatyzmu chowa się pod wodę i redukuje się do kilkunastoprocentowych wkładów do miłych, poza tym, strategii mieszanych. W tych warunkach przejście od typowych dla społeczeństw preindustrialnych, maltuzjańskich, strategii mścicielskich, do industrialnego i postindustrialnego legalizmu wydaje się łatwe i bezproblemowe. I będzie takie, o ile zostanie zachowana owa lokalna równowaga. Strategie miłe na terenach pragmatycznych są skuteczne tylko wtedy, kiedy są w większości. Wystarczy jednak jakiekolwiek losowe zaburzenie układu, aby na wierzch wypłynęły stabilne globalnie strategie pragmatyczne. Proces ten może zaś przebiegać bardzo gwałtownie, przyjmując postać krwawych przewrotów i rewolucji. Dodatkowo, ponownie należy przypomnieć, że zmiany parametru S = W/V, które kształtują krajobraz Hammersteina, same nie są bynajmniej od tego krajobrazu niezależne. S nie może trwale rosnąć w obrębie strategii niemiłych, zatem taka nagła eksplozja pragmatyzmu, nie tylko może zatrzymać cywilizację w rozwoju, ale wręcz cofnąć ją do stanu maltuzjańskiego, preindustrialnego.

A co w takim razie z przyszłością? Czy nadal czeka nas Jęzor Zemsty i powrót do honorowych zasad rozstrzygania sporów? Oto zatem strategie mścicielskie (UA, UP, UL) dla wysokich S

Asur 14

Chociaż teraz Jęzor Zemsty się zdecydowanie wyciągnął w stronę wyższych S i przestał być tak spoisty jak w poprzedniej wersji, to jednak nadal istnieje. Co więcej, w przeciwieństwie do obszarów pragmatycznych, wydaje się niewrażliwy na warunki początkowe. Dokładny skład stabilnej strategii w obrębie Jęzora, przedstawia wykres:

Asur 15

Kiedy zatem zauważymy w naszym społeczeństwie jego oddziaływanie? Kiedy do łask wrócą zachowania i strategie oparte na honorze?

Jeżeli chodzi o stosunki międzynarodowe, to obecnie wymiana handlowa między najbardziej rozwiniętymi krajami sięga kilkukrotności ich PKB. Zysk zaś, jakie ewentualnie mogłyby osiągnąć one z wojny, nie jest większy niż kilka,  kilkanaście procent PKB. Podobnie jest na poziomie indywidualnym. Potencjalny zysk z grabieży w najbogatszych społeczeństwach jest na poziomie tygodniowego zarobku robotnika wykwalifikowanego. Wynika z tego, że współczynnik S jeżeli jeszcze nie osiągnął 100, to wkrótce to uczyni. Pierwszych objawów powrotu Mścicieli, o ile cała nasza teoria jest adekwatna, powinniśmy się zatem doczekać w ciągu kilkunastu – kilkudziesięciu najbliższych lat.

Jednak na tym wcale nie koniec. Jak do tej pory, zmiany wprowadzone w naszym modelu przez rozszerzenie go do 16 strategii nie były w sumie duże i wyłącznie ilościowe. Pojawiła się jednak także, bardzo istotna, zmiana jakościowa, całkowicie zmieniająca wymowę modelu. W poprzedniej wersji, dla S>500 wkraczaliśmy w obszar chaotyczny, w którym każda strategia była właściwie jednakowo prawdopodobna. Jednak dodanie kolejnych strategii ustabilizowało układ i obszar chaotyczny, chociaż nadal istnieje, to jest jednak stosunkowo mały i wąski. Od S równego mniej więcej 500 zaczyna się nowa strategia ewolucyjnie stabilna. Strategia, której, jako żywo, nigdy się niżej podpisany w tym miejscu nie spodziewał. A przecież, myśląc logicznie, powinien.

Dla tak wysokiego S bowiem, każda jawna konfrontacja, jest istną katastrofą. A przecież, nawet w takim społeczeństwie, niemiłe mutacje nadal się pojawiają. Oczywiście od razu z kretesem przegrywają, ale ich zwalczanie również staje się coraz bardziej kosztowne. W tej sytuacji najbardziej opłacalne staje się demonstrowanie postawy agresywnej …wyłącznie w sposób symulowany i ucieczka, kiedy tylko zaistnieje jakiekolwiek ryzyko realnej konfrontacji. Dla S>500, właściwie niezależnie od poziomu X, prawie absolutną, 98% frekwencję, zdobywają zatem …chojracy (AU). Zmuszeni ponosić rosnące koszty czyszczenia populacji z niemiłych mutacji legaliści (L, AL) znikają definitywnie z populacji. Zdolni normalnie chojraków poskromić mściciele (UA, UP, UL) z tych samych względów nie mogą się w niej pojawić. A agresywne mutacje A i P, nawet występując w bardzo mikrym odsetku, wykańczają się same. I tak cywilizacja kosmiczna, bo chyba o takiej możemy mówić przy S rzędu tysięcy, staje się Kosmicznymi Chojrakami. Tym samym staje się niezdolna do dalszego rozwoju i utyka na tym etapie, gdzieś w okolicach I stopnia klasyfikacji Kardaszewa.

Na szczęście i na Kosmiczne Chojractwo znajdziemy lekarstwo. Chojracy bowiem mogą wyprzeć legalistów, o czym już wspominaliśmy w poprzednich artykułach, tylko wtedy, kiedy spotkanie dwóch chojraków jest matematycznie nieodróżnialne od spotkania dwóch legalistów, co nasz model w pierwszym przybliżeniu zapewnia. Jednak bardziej subtelna analiza wskazuje, że to założenie, zwłaszcza przy tak wysokich S, nie może być spełnione. Spotkanie dwóch legalistów to spotkanie strategii agresywnej z ustępującą. Spotkanie dwóch chojraków to, chociaż tylko deklaratywne, ale jednak zderzenie dwóch agresji. Owszem, najczęściej będzie tak, że któryś chojrak spęka jako pierwszy i ucieknie, ale nie można zaniedbać możliwości, że do konfliktu, na tym poziomie z użyciem laserów tachionowych i miotaczy antymaterii, może w takich okolicznościach dojść czystym przypadkiem, a wtedy koszty W będą gigantyczne. Nawet jeżeli prawdopodobieństwo takiego obrotu rzeczy nie jest duże, to pomnożone przez gigantyczne W daje całkiem pokaźną wartość oczekiwaną, dodatkowym kosztem obciążającą strategie chojrackie. Po uwzględnieniu tego efektu chojracy zdecydowanie stają się ostrożniejsi i dominację zyskuje strategia chojraka pragmatycznego – PU. Jednak pragmatyzm, jak już wspomniano, również wiąże się z dodatkowymi kosztami związanymi z prawidłową oceną wzajemnego poziomu sił. Po osłabieniu nie tylko chojraków, ale i pragmatyków, również ostrożniejsi chojracy znikają w niebycie. A co zostaje?

Niżej podpisany spodziewał się, że cywilizacja będzie ewoluować w stronę strategii Jezusa, czyli wzajemnych ustępstw U, jako strategii najbardziej optymalnej. Niestety, chaos panujący w poprzednim rozwiązaniu dla S>500 uniemożliwił mu sprawdzenie tej ewangelicznej hipotezy. Jednak teraz obszar chaotyczny, jak już wspomniano, został znacznie zredukowany. Ostatni wykres pokazuje ostateczny los konfliktów w rozwiniętej cywilizacji galaktycznej:

Asur 16

Galaktykę ostatecznie odziedziczą Cisi, czyli strategia LU. Jedynie w wąskim pasie północnym, dla bardzo wysokich X utrzymuje się nadal strategia L (ale już nie AL). Nie jest to dokładnie to, czego autor oczekiwał, ale dostatecznie blisko, aby odczuwać satysfakcję. Jest to Jezus uzupełniony o prawo. Jezus – legalista.