O pożytkach z koszenia trawników

W latach 1989-2015 Polska dokonała gigantycznego skoku cywilizacyjnego. Jednym z jego rezultatów było powstanie nowoczesnej sieci transportowej, autostrad i dróg ekspresowych, której brak był niegdyś w Polsce przysłowiowy, a ich budowa przedmiotem niekończącej się fali dowcipów. Sieć dróg szybkiego ruchu, oprócz widocznych dla wszystkich zalet w postaci znacznego skrócenia czasu podróży pomiędzy różnymi miejscami w Polsce, ma też skutki mniej widoczne, bo nie tyczące bezpośrednio ludzi. Drogi te są zazwyczaj zabezpieczone siatką rozpiętą na słupkach. Na tych ostatnich uważny obserwator często gęsto może dostrzec, zwłaszcza w porze zmierzchu, siedzące …ptaszyska. Niżej podpisany nie posiada na tyle rozbudowanej wiedzy ornitologicznej, żeby je jednoznacznie przypisać gatunkowo, ale bez wątpienia są to ptaszyska drapieżne, „jastrzębiokształtne”. Siedzą na tych słupkach i ewidentnie na coś czekają. A na co może czekać drapieżne ptaszysko siedząc na słupku w odległości kilkudziesięciu metrów od autostrady pełnej pędzących w obie strony hałaśliwych i śmierdzących pojazdów?

Jednym z rzekomych sukcesów, jakimi chwaliła się niegdyś w Polsce komunistyczna władza, miała być masowa migracja ze wsi do miast. Życie w mieście postrzegano wtedy jako zaletę. Jednak od upadku komunizmu, obserwuje się w naszym kraju proces odwrotny. Współcześnie, kiedy dostęp do tzw. wygód, prądu, czy bieżącej wody, przestał oddzielać wieś od miasta, mieszkanie na wsi stało się popularne i bardziej pożądane niż mieszkanie w mieście. Ma jednak ta lokalizacja kilka nie dla wszystkich na pierwszy rzut oka widocznych wad. Obok problemów komunikacyjnych, jednym z głównych minusów mieszkania na wsi są …robale. Pod tym zbiorczym określeniem kryje się rozległe królestwo mikrofauny, głównie pajęczaków i owadów. Wychowany na ósmym piętrze stojącego w środku tramwajowych rozjazdów bloku mieszczuch, marząc o domku na wsi, wyobraża zwykle sobie, jak to będzie sobie siedział wieczorem na tarasie, spożywając wykwintną kolację, a ptaszęta niebieskie będą mu do talerza swoje trele srebrzyste i złociste rozsnuwały.

Tym większe bywa jego rozczarowanie, kiedy się okazuje, że fauną, która akompaniuje mu do posiłku, okazuje się bynajmniej nie awifauna. Bzyczenie much, gzów, meszek i komarów, wraz z ich fizyczną napastliwością, skutecznie amatorów posiłku na łonie przyrody zniechęca. Mieszkanie w bloku w centrum miasta nie okazuje się już wcale tak nieatrakcyjną alternatywą, jak to się mogłoby wydawać.

Jak zatem wieśniacy sobie z tym problemem radzą? Jeżeli są w miarę zamożni i zdeterminowani – chemią. Regularne opryski zdecydowanie zmniejszają brzęczącą i bzyczącą uciążliwość. Jest jednak chemia po pierwsze droga, po drugie zaś, co by nie mówić, niezbyt zdrowa. Nie tylko dla owadów, ale i dla pozostałej fauny, w tym ludzi. Można jednak oba te minusy zamienić na plusy, porzucając chemię a wykorzystując wiedzę ekologiczną.

Ekologia, wbrew temu co wypisują na ten temat humaniści, nie jest bynajmniej nauką o ochronie przyrody, tylko o zależnościach między żywymi organizmami a środowiskiem w którym bytują. Tym środowiskiem mogą też być i często bywają inne organizmy. Wykorzystajmy zatem ekologię do pozbycia się naszego robaczywego problemu.

Energia przepływa, materia krąży. Sformułowanie to nazywa się często pierwszym i najważniejszym prawem ekologii. Ów przepływ energii odbywa się wzdłuż łańcuchów troficznych. Każdy coś zżera (rośliny promieniowanie słoneczne) i każdy jest przez kogoś zżerany (szczytowe drapieżniki przez bakterie i grzyby). Również komary, meszki i muchy mają swoich wrogów, którzy na ich populacji żerują. To są naturalni sprzymierzeńcy miłośników wieśniactwa.

Zależność liczebności ofiar od liczebności drapieżników opisuje, kilkukrotnie już na tym blogu demonstrowany, model Lotki-Volterry, w którym N to liczebność ofiar, a V – liczebność drapieżników. Liczebność ofiar i drapieżników podaje się w procentach. Przy braku drapieżników liczebność ofiar wynosi 100%

dN/dt = r*N*(1-N)-a*N*V

dV/dt = a*b*N*V-V/L

a jest współczynnikiem określającym sprawność polowania, b sprawność przerabiania upolowanej biomasy na kolejne pokolenia drapieżników, a L to średnia długość tychże drapieżników życia. Przy zastrzeżeniu że a*b*L>1, bo inaczej populacja drapieżników nie jest w stanie się utrzymać, stabilnym rozwiązaniem równań LV jest wielkość populacji drapieżników:

Vs = (r/a)*(1-1/(a*b*L))

Oraz szczególnie nas interesująca w kontekście komfortu życia wiejskiego, wielkość populacji ofiar

Ns = 1/(a*b*L)

Interesuje nas oczywiście to, żeby ta ostatnia wartość była jak najniższa. Niestety, dużo do powiedzenia w tej materii jednak nie mamy. Współczynniki a i b zależą tylko od biologii i ewolucji, pewien wpływ możemy mieć tylko na długość życia naszych sprzymierzeńców. Są to głównie różne gatunki ptaków i naprawdę warto dołożyć starań, aby podnieść im dobrostan a tym samym wydłużyć L. Zakładajmy im budki, dokarmiajmy zimą, chrońmy przed kotami, a na pewno się to nam opłaci.

Jednak nie na tyle, aby móc się wiejskim wywczasem spokojnie rozkoszować. Nie damy rady wydłużyć średniego L polujących na owady drapieżników o więcej niż o kilka – kilkanaście procent, a to nam zmniejszy jedynie problem w takiej właśnie proporcji, co na pewno nas nie usatysfakcjonuje.

Na szczęście w tym miejscu sprawa się nie kończy. Aby jednak pójść dalej musimy nieco skomplikować nasz model. W obecnej bowiem postaci opisuje on populację drapieżników (V) i ofiar (N) całkowicie ignorując resztę środowiska w którym gatunki te bytują. A ekologia jest przecież nauką o oddziaływaniach organizmów nie tylko ze sobą nawzajem, ale i ze środowiskiem.

Jaką rolę w modelu odgrywa zatem środowisko zewnętrzne? Przede wszystkim, zwłaszcza dla organizmów o niewielkich rozmiarach, a o nie właśnie nam się rozchodzi, zapewnia …kryjówki. Część populacji, Z% całkowitej jej wielkości może się zawsze ukryć przed drapieżnikami i pozostać dla nich niedostępne. Zmodyfikowane o tą zależność równanie L-V wygląda następująco:

dN/dt = r*N*(1-N)-a*(N-Z)*V

dV/dt = a*b*(N-Z)*V-V/L

A stabilna liczebność populacji ofiar, przy założeniu że Z<1-1/(a*b*L), przy większej bowiem ilości kryjówek, drapieżnik wyginie, wynosi

Ns= Z+1/(a*b*L)

Nawet populacja bardzo narażona na ataki drapieżników, może więc znajdować się stosunkowo blisko swojej maksymalnej pojemności środowiska (w naszym modelu 100%), o ile tylko ma do dyspozycji dużą liczbę kryjówek Z. Zależność ta tłumaczy, dlaczego takie środowiska jak rafy koralowe są, w porównaniu z otwartym pelagialem, bogatymi i złożonymi ekosystemami i dlaczego czasami celowo zatapia się w morzach i jeziorach „sztuczne rafy” w postaci wraków statków, czy nawet …samochodów, aby bioróżnorodność i tym samym ekonomiczną produktywność tych ekosystemów zwiększyć.

Opisana wyżej komplikacja modelu daje też nową nadzieję wieśniakom. O ile nie mają oni wpływu na współczynniki a i b, a na L wpływ bardzo niewielki, o tyle nic nie zabrania im zabrać się za współczynnik Z. I naszych sześcio- i ośmionogich nieprzyjaciół pozbawić ich największego atutu – chroniącego ich przed drapieżnikami środowiska.

Dlatego należy przycinać gałęzie, karczować krzaczory, a przede wszystkim – kosić trawniki. Miłośnicy gazonów nie miłują ich tylko ze względu na walory estetyczne. Regularne przycinanie trawników pozwala drapieżnikom zrobić swoje i uwolnić nas od bzyczącej plagi. Przyjemne z pożytecznym. Niżej podpisany mógł obserwować to zjawisko na własne oczy. Zaraz po przeprowadzce był nękany przez praktycznie nieustającą, poza sezonem zimowym, plagę komarów. Dziś jednak, dzięki regularnym sianokosom, jakim oddaje się wraz z sąsiadami, straszliwych krwiopijców nie ma prawie wcale. Populacja komarów i innych dokuczliwych owadów spadła praktycznie do zera.

Sukces ten jest nawet znacznie większy, niżby to wynikało z prezentowanego modelu. Stało się tak, ponieważ na owady poluje więcej niż jeden gatunek drapieżnika. A różne ich gatunki mają różne współczynniki a i b. Dopóki kryjówek dla komarów było stosunkowo dużo, dopóty dla wielu kombinacji a i b wspomniany warunek stabilnego istnienia w ekosystemie drapieżników Z< 1 – 1/(a*b*L) nie był spełniony i drapieżniki te nie mogły na działce autora niniejszego eseju bytować. W miarę jednak zmniejszania Z, kolejne drapieżniki włączały się w polowanie i zmniejszały populację robali znacznie bardziej niż mógłby to zrobić jeden tylko ich gatunek.

Łączna liczba zatem populacji ofiar na wykoszonej łące spadła bardzo drastycznie. A jak jest z populacją drapieżców? Na poniższym wykresie pokażemy ich liczebność w zależności od ich skuteczności polowania a, zakładając że inne ich parametry (b, L) są takie same, i ilości kryjówek Z. P1 to drapieżnik bardzo sprawny (wysokie a), P2 średni, a P3 nieudolny (niskie a)

Traw 01

Wbrew zatem powierzchownemu, a fałszywemu mniemaniu, pozbawienie ofiar kryjówek i idące za tym drastyczne zmniejszenie ich liczebności wcale nie musi pociągnąć za sobą redukcji liczebności drapieżników. Przeciwnie, ich łączna liczba może nawet wzrosnąć. W morzu najwyższa koncentracja biomasy faktycznie ma miejsce na, naturalnych i sztucznych, rafach, ale największe, najbardziej imponujące drapieżniki, orki, rekiny, kaszaloty, czy architeutusy spotyka się na pełnym morzu.

Wróćmy zatem teraz do naszych siedzących na słupkach autostradowego ogrodzenia orłów i innych sokołów. Ich pożywieniem nie są, co prawda, owady, ale mechanizm skłaniający ich do czatowania w oparach spalin i wyciu silników jest dokładnie taki sam. Pasy trawników wzdłuż autostrady są również regularnie strzyżone tworząc wąskie, lecz bardzo długie strefy, w których pokarm ptaszysk w postaci drobnych gryzoni jest bardzo dobrze widoczny i nie może się skryć. Populacja gryzoni tym samym spada, ale populacja i różnorodność biologiczna drapieżników rośnie.

Co się będzie z tym układem działo dalej? W dotychczasowych rozważaniach zakładaliśmy że zmiana parametrów środowiska Z, ma konsekwencje wyłącznie ekologiczne. Że populacje biologiczne będą się do niej dostosowywać bez zmiany swoich „wrodzonych” parametrów a, b, L. W krótkim okresie czasu tak będzie. Jednak jeżeli ta zmiana Z będzie w miarę długotrwała, zadziałają także mechanizmy ewolucyjne. W długiej perspektywie parametry modelu L-V stałe już nie będą.

Ewolucyjny wyścig pomiędzy drapieżnikami a ofiarami, zwany też „wyścigiem zbrojeń” trwa permanentnie. W przeważającej większości przypadków wygrywają go i zawsze są „o krok do przodu” ofiary. Ten pozornie sprzeczny z intuicją rezultat wynika z dwóch wzajem wspierających się mechanizmów. Po pierwsze dobór naturalny wywiera na ofiary dużo silniejszą presję niż na drapieżniki. Królik, który wygra pojedynek biegowy z lisem odnosi dużo większy sukces ewolucyjny niż lis, który wygra pojedynek z królikiem. Po drugie populacja ofiar składa się zwykle z organizmów mniejszych i tym samym szybciej się rozmnażających niż populacja drapieżników. Zatem, nawet przy zbliżonej sile doboru, sam proces ewolucyjny zachodzi w niej szybciej. Incydentalnie zdarza się jednak, że proporcja ofiar i drapieżników jest odwrotna (duże ofiary, małe drapieżniki) i, jeżeli ta różnica w tempie ewolucji jest na tyle duża, że jest w stanie skompensować różnicę w sile doboru, wyścig zbrojeń mogą „wygrać” drapieżniki, „Wygrać” w cudzysłowie, bo ten „sukces” prowadzi rzecz jasna do wyginięcia populacji ofiar, a tym samym, jeżeli gatunek drapieżnika zdążył się w międzyczasie wyspecjalizować w polowaniu na niego, także i uzależnionego od danej ofiary drapieżnika.

W ten sposób prawdopodobnie wymarły liczne niegdyś gatunki szablastozębnych kotów, czy gigantyczne rekiny – megalodony. Osobnym przypadkiem jest człowiek – paleolityczny łowca. Jego ewolucja jako łowcy przynajmniej częściowo zachodziła w sferze kultury, zatem w porównaniu z ewolucją genetyczną była wręcz natychmiastowa. Nic dziwnego, że ludzie ci dokonali praktycznie całkowitej anihilacji tzw. megafauny, a to, że przy okazji sami nie wyginęli, zawdzięczali wyłącznie temu, że byli drapieżnikiem wyjątkowo oportunistycznym, pozyskującym pożywienie z wielu różnych źródeł, także ze zbieractwa.

W naszym jednak przypadku mamy do czynienia z sytuacją klasyczną. Ofiary, czyli owady, na pewno będą ewoluować znacznie szybciej, niż żywiące się nimi ptaki, czy nietoperze. Zwykle odpowiedzią ofiar na zwiększoną presję drapieżników, jest przyśpieszenie rozrodu, wzrost parametru r. Wiąże się to też ze zmniejszeniem rozmiarów ciała – zmniejszeniu b. O ile ta pierwsza tendencja, zgodnie z rozwiązaniem modelu LV, zwiększy jedynie populację drapieżników, o tyle ta druga zaowocuje zwiększeniem liczebności ofiar, a zmniejszeniem drapieżników. Wkurzające robale będą mniejsze, ale będzie ich więcej. Dodatkowo ofiary będą się starały uniknąć schwytania, dobór będzie faworyzował zmniejszanie a. W skrajnych okolicznościach, ofiary mogą wręcz „przeewoluować” drapieżniki i sprowadzając iloczyn a*b*L poniżej jedności, doprowadzić do wymarcia swoich prześladowców, a przynajmniej ich najbardziej nieudolnych (niskie a), największych (niskie b), najbardziej długowiecznych (L) gatunków. Oczywiście i drapieżniki z czasem ewolucyjnie na presję odpowiedzą zwiększając jakoś a i b, ale z omówionych wyżej powodów zrobią to z opóźnieniem. Ustali się jakaś nowa równowaga na poziomie bardziej dla wieśniaków przykrym niż uzyskali początkowo kosząc trawniki, ale i tak korzystniejszym, niż gdyby ich nie kosili w ogóle i utrzymali wysokie Z. Walka ewolucyjna trwa i nigdy się nie skończy.

Reklamy

Syfilis i inne france

W poprzednim artykule „Matematyka w czasach zarazy” omówiony został model rozprzestrzeniania się chorób zakaźnych w populacji, tzw. model SIR. Dzieli on populację na trzy grupy – podatnych na zachorowanie S (suspectible), zarażonych I (infectious) i ozdrowiałych R (recovered). Podatni (S) zarażają się przez kontakt z osobami chorymi (I) i sami przechodzą do tej grupy. Po jakimś czasie zdrowieją, nabywają odporność i stają się odpornymi (R). Przebieg choroby pokazuje więc schemat

S => I => R

Kluczowy dla rozwiązania tego modelu jest tzw. bazowy współczynnik reprodukcji (BWR) dla danej infekcji. Pokazuje on ile osób podatnych (S) zarazi średnio, podczas swojej choroby, jeden chory (I). Kiedy BWR jest większy od jedności choroba przeradza się w epidemię, kiedy jest mniejszy, wygasa. BWR dany jest wzorem.

BWR = a*S/b

Gdzie S to odsetek podatnych (S), a wielkości a i b to odpowiednio tempo zarażania i tempo zdrowienia. a jest odwrotnością średniego czasu, w jakim osobnik (S) pozostając w kontakcie z osobnikiem chorym (I) zarazi się od niego, a b średniego czasu potrzebnego na przebycie choroby, czyli przejścia z kategorii (I) do (R). W modelu SIR, przynajmniej w perspektywie krótkookresowej, gdy można zaniedbać naturalną wymianę pokoleniową, liczy się tylko czas trwania choroby 1/b, niezależnie od tego, czy kończy się ona wyzdrowieniem pacjenta, czy też jego zgonem. Mamy więc od razu odpowiedź, dlaczego nie istnieją, znane z przeróżnych wizji katastroficznych i horrorów, superplagi, zabijające zarażonych w czasie rzędu godzin lub krótszym. Przy tak wysokim b, chory zwyczajnie nie zdążyłby przed swoją śmiercią nikogo zainfekować i epidemia wygasłaby, zanim zdążyłaby wybuchnąć.

Aby wygasić epidemię, należy więc sprowadzić BWR poniżej jedności. Można to osiągnąć na trzy sposoby. Poprzez szybkie i sprawne leczenie chorych, czyli podwyższanie b, poprzez kwarantannę, izolację chorych od zdrowych, czyli obniżanie a, albo poprzez powszechne szczepienia, czyli obniżenie S poniżej ilorazu b/a, lub (b+m)/a, jeżeli uwzględnimy także naturalną wymianę ludzkiej populacji w tempie m% rocznie. Ten ostatni sposób jest najtańszy, zarówno jeżeli liczyć w kosztach czysto finansowych, jak i  w ograniczaniu ludzkiej wolności, bo przymusowa kwarantanna i leczenie, kiedy już do epidemii dojdzie, są znacznie pod tymi względami droższe. Argumenty przeciwników szczepień, przynajmniej jeżeli chodzi o choroby o stosunkowo wysokich a i b, czyli bardzo zaraźliwych, a zarazem stosunkowo krótkotrwałych, są zatem całkowicie nieadekwatne. Szczepionki bowiem, nie tylko są tańsze od leczenia, ale i nie tylko chronią zaszczepionych przed chorobami, ale także całe społeczeństwo przed epidemiami. Skutki ekonomiczne i społeczne epidemii zaś, daleko wybiegają poza aspekty czysto medyczne i w skrajnych przypadkach mogą przybrać rozmiary prawdziwej katastrofy. Szczepionki można zatem zaliczyć do tzw. w ekonomii dóbr publicznych, których obowiązek stosowania władza publiczna może, podobnie, jak choćby reguły ruchu drogowego, narzucić.

Oczywiście szczepionki nie są jakimś cudownym panaceum i nie zawsze przynoszą pozytywne rezultaty. Może się zdarzyć, że zamiast być rozwiązaniem problemu, staną się tegoż problemu częścią. Rozważmy, kiedy tak się stanie.

Istnieją choroby, na które nie można nabyć odporności i tym samym nie można wyprodukować na nie szczepionek. Do takich należy większość chorób wenerycznych. Model SIR przestaje być tu adekwatny i przechodzi w model SIS przewidujący powrót ozdrowieńców do grupy ryzyka (S). Dodatkowo choroby te mają bardzo długi czas przebiegu, porównywalny z całkowitą długością życia i współczynnik b jest bardzo niski, zbliżony wielkością do m. W tej sytuacji w populacji mamy tylko podatnych (S), których jest (b+m)/a i zarażonych (I). Ponieważ choroby weneryczne mogą rozprzestrzeniać się też drogą dziedziczenia bezpośrednio po rodzicach, nie należy się dziwić, że jeszcze na początku XX wieku w Polsce, odsetek zarażonych syfilisem w niektórych wioskach góralskich sięgał stu procent, o czym pisali ówcześni etnografowie i krajoznawcy.

W drugiej jednak połowie zeszłego stulecia wynaleziono na syfilis, zwany też kiłą, skuteczne terapie, czyli zwiększono b. Skrócenie dzięki temu przebiegu choroby z kilkunastu, czy kilkudziesięciu lat, do kilku miesięcy powinno, zgodnie z zaprezentowanym modelem, zredukować liczbę nosicieli w tej samej proporcji, czyli, mniej więcej, kilkudziesięciokrotnie. Tym bardziej intrygujący jest fakt, że wcale się tak nie stało. Odsetek nosicieli kiły nie spadł wcale o taką właśnie wielkość. Spadł znacznie bardziej. Z kilkunastu, czy nawet kilkudziesięciu procent, do ułamka promila, czyli od kilkuset do kilku tysięcy razy. Nawet epidemia AIDS, zupełnie nowej choroby, na którą bardzo długo nie było, mogącego efektywnie zwiększyć b, lekarstwa, nie przybrała nigdy podobnych do syfilisu rozmiarów i tylko w najbardziej dzikich i zacofanych krajach liczba nosicieli wirusa przekracza kilka procent.

To znaczy, że oprócz zwiększenia b, musiało też zajść coś innego. Musiało także radykalnie zmniejszyć się a, czyli zmaleć ryzyko zachorowania.

Choroby weneryczne różnią się bowiem od grypy, ospy, czy świnki jeszcze jednym ważnym elementem. Nie można się nimi zarazić przypadkowo na ulicy, czy w kinie. W związku z tym, wprowadzenie kwarantanny w celu obniżenia parametru a jest wyjątkowo proste – wystarczy powstrzymać się od przypadkowych kontaktów seksualnych. Nie od wszystkich kontaktów, ale od przypadkowych. Taki proces, całkowicie medialnie niezauważony, musiał zajść w drugiej połowie XX wieku, bo inaczej, wobec braku szczepionek na przenoszone drogą seksualną choroby, nie udałoby się obniżyć odsetka nosicieli do tak niskiego poziomu. Po cichu, bez medialnego rozgłosu, w najbardziej rozwiniętych społeczeństwach zaszła zatem istna purytańska kontrrewolucja obyczajowa. Z jednej strony hałaśliwie i szeroko rozprawiano o „wolnej miłości”, z drugiej jednak, realne procesy społeczne, wbrew tym werbalnym deklaracjom, szły w zupełnie inną, przeciwną stronę. Wbrew powszechnemu złudzeniu, żyjemy więc obecnie w bardzo cnotliwych i mało wyuzdanych czasach.

Przyczyną tych przemian było zapewne stopniowe bogacenie się społeczeństwa i związany z tym wzrost wartości jedynego zasobu, którego nie da się kupić, wyprodukować, zmagazynować, czy odłożyć na później. Wartości czasu. Podczas gdy rosła liczba alternatywnych sposobów tegoż czasu wykorzystania, samego czasu bynajmniej nie przybywało. Zgodnie z podstawowym prawem ekonomii, czas stał się więc zbyt cenny, aby tracić go na chorowanie, zwłaszcza na tak, nawet po wynalezieniu lekarstw, długie, paskudne i ślimaczące się choroby. Znacznie bardziej opłacalne czasowo stało się takich chorób unikanie, a najtańszym na to sposobem było wprowadzenie swoistej „autokwarantanny” i unikanie przygodnego seksu.

Ten medal ma jednak i swoją odwrotną stronę. Współczynnik a w modelu SIR jest kształtowany przez ludzkie zachowania, w przypadku chorób wenerycznych – seksualne, ale zachodzi tu też sprzężenie zwrotne. Wartość tego współczynnika, a dokładnie wartość iloczynu a*S, z bazowego współczynnika reprodukcji (BWR), czyli ryzyko złapania kosztownej, w sensie czasu, choroby, wpływa też na ludzkie zachowania. Po wprowadzeniu skutecznej szczepionki na kiłę, czy AIDS, proces „autokwarantanny” znacznie by osłabł, bo znikłaby obawa przed stratą czasu na chorowanie. Wskutek tego, częstotliwość przygodnych stosunków, a zatem i ryzyko zachorowania, jeżeli nie akurat na zaszczepioną chorobę, to na inną, z szerokiej palety tego typu schorzeń, znów by wzrosły. I dopiero ponownie rosnący koszt czasu ustabilizowałby parametr a na nowym, znacznie wyższym, niż dzisiejszy, poziomie. W rezultacie zmalałoby S, ale przy kompensującym to wzroście a, poziom zachorowalności na choroby weneryczne pozostałby taki sam, tylko społeczeństwo ponosiłoby dodatkowe, zupełnie zbyteczne, koszty na przymusowe szczepienia. Ten sam efekt widoczny jest zresztą w przypadku stosowania prezerwatyw, o czym niżej podpisany już kiedyś zresztą pisał.

Zwykłe choroby zakaźne, o wysokim a i wysokim b, rozprzestrzeniające się poprzez codzienne kontakty międzyludzkie, łatwiej i taniej jest, jak już autor dowodził w poprzednim eseju, zwalczać poprzez szczepienia niż przez kwarantannę. W przypadku chorób wenerycznych o niskim a i niskim b, (choć ciągle o spełnionym warunku a>b) jest jednak inaczej. Kwarantanna, w postaci swoistej „autokwarantanny” jest, także w sensie społecznym, tańsza i skuteczniejsza, niż szczepionki, czy prezerwatywy.

Ponieważ na choroby weneryczne, jak już wspomniano, szczepionek właściwie nie ma, problem opisany wyżej może się wydawać czystym teoretyzowaniem. Istnieje jednak przynajmniej jeden wyjątek. Jest to szczepionka na wirus brodawczaka HPV wywołujący u (niezaszczepionych) kobiet raka szyjki macicy. W Polsce władza planowały wprowadzić tą szczepionkę jako obowiązkową, ale szczęśliwie odstąpiła od tego zamiaru. W przeciwieństwie do innych szczepionek, ta bowiem, żadnego społecznego problemu nie rozwiązuje, zatem akurat obowiązkowa być nie powinna, a chętni do jej przyjęcia powinni zapłacić za nią sami, z własnej kieszeni.

Kolejnym zabiegiem, jakiego dokonamy teraz na modelu SIR, jest obliczenie jaki, przy stałych parametrach a i b, czyli przy założeniu, że nie dojdzie do kwarantanny, odsetek populacji zachoruje podczas epidemii. Interesuje nas zarówno odsetek maksymalny, czyli maksymalna liczba osób, które będą chorować jednocześnie, jak i całkowity, czyli ile osób zachoruje łącznie w trakcie trwania epidemii. Rozwiązanie pokazujemy niżej w postaci graficznej. Przyjęto, że początkowa liczba chorych wynosi 0,01% populacji.

Szczep 02

W momencie, kiedy czas wyzdrowienia jest tylko dwukrotnie dłuższy niż czas zarażenia, w maksymalnej fazie epidemii choruje na raz prawie 16% populacji, a łącznie, choć nie jednocześnie, zachoruje 80%. Przy trzykrotnej różnicy, liczby te wynoszą odpowiednio  30% i 94%. Dobrodziejstwo szczepień widoczne jest teraz w całej pełni, podobnie jak nicość antyszczepionkowej propagandy. Kiedy bowiem zawodzi argument wolnościowy, jak i argument finansowy, ostatnią linią oporu ruchów antyszczepionkowych, jest kwestia tzw. NOPów, czyli ewentualnych komplikacji i powikłań jakie przy okazji zabiegu szczepienia mogą się pojawić. Znaj jednak proporcję, mocium panie. Prawdopodobieństwo wystąpienia ciężkiego NOPu, groźniejszego dla zdrowia niż choroba, przed którą szczepienie chroni, jest znikome, nie większe niż jeden na kilka milionów przypadków. Tymczasem prawdopodobieństwo zachorowania w przypadku braku szczepień i wybuchu epidemii, jeżeli nawet nie wynosi 100%, to doprawdy niewiele tylko mniej. A powikłania, prowadzące nawet do zgonu, choćby po zwykłej grypie, są znacznie częstsze niż nieszczęsne NOPy. Skutki uboczne zażywanych w trakcie choroby leków również mogą być znacznie od NOPów groźniejsze. Jeżeli zatem mamy do czynienia z chorobami wysoce zakaźnymi, o wysokim parametrze a, szczepienia są najtańszym i najbardziej bezpiecznym sposobem walki z tym problemem. Przymus szczepień jest tutaj całkowicie uzasadniony. Nie jest tak jednak w przypadku chorób wenerycznych, jak HPV, o niskim a i bardzo niskim b, co szczegółowo uzasadniono wyżej. Nie widać jednak u przeciwników szczepień najmniejszego śladu tego typu refleksji. Stają się oni przez to całkowicie niewiarygodni, także w tym zakresie, w którym akurat mogliby mieć rację.

Matematyka w czasach zarazy

W roku 64 po Chrystusie Rzym, największe wtedy miasto świata, został strawiony przez gigantyczny pożar. Wydarzenie to jest dziś najbardziej znane z powodu oskarżeń, jakie o spowodowanie tej katastrofy wysunięto wobec członków pewnej małej żydowskiej sekty i związanych z tym jej pierwszych prześladowań. Mniej znaną konsekwencją pożogi było zaś wydanie przez panującego wtedy cesarza Nerona, rozporządzenia, które zabraniało stosowania jednych i tych samych drewnianych belek stropowych, w więcej niż jednym z przylegających do siebie budynkach. Ta popularna wcześniej praktyka obniżała koszty budowy, ale sprzyjała rozprzestrzenianiu się, wzdłuż owych drewnianych dźwigarów, ognia na kolejne obiekty. Zarządzenie to, patrząc z perspektywy czasu, spełniło swoją rolę. Pożary w Rzymie nadal, co prawda, wybuchały, ale żaden już, tak gigantycznych rozmiarów, jak ten za czasów Nerona, nie przyjął.

Jest to przykład, znanego z teorii gier, tzw. dylematu więźnia. Pozostawieni samym sobie budowniczowie rzymskich insuli skorzystaliby co prawda na wydzieleniu stref pożarowych, ale każdy z nich musiałby ponieść w tym celu pewne koszty, bez żadnych gwarancji, że sąsiedzi postąpią tak samo, a dopiero powszechne stosowanie tej zasady przyniosłoby wszystkim wymierne korzyści. Nikt więc sam z siebie w ochronę przeciwpożarową nie inwestował, zatem w przypadku pożaru straty ponosili wszyscy.

Dylemat więźnia może jednak zostać przełamany wskutek zmiany parametrów gry i w związku z tym jej równowagi Nasha. Władza publiczna, albo, np. towarzystwo ubezpieczeniowe, może wymagać od inwestorów określonych standardów i egzekwować ich przestrzeganie. Wszyscy pod przymusem ponoszą wtedy pewne koszty, ale też wszyscy odnoszą z przestrzegania wymuszonych reguł korzyści, od owych kosztów wyższe, zatem per saldo osiąga się tak zwany zysk społeczny.

Interwencja państwa jest więc uzasadniona w tych przypadkach, w których zaniechanie takiego działania, pogarsza ogólny dobrostan. Cywilizowane społeczeństwa, w ramach dostarczania usług publicznych, narzucają więc swoim członkom pewne regulacje, w postaci reguł wznoszenia budynków, zasad ruchu drogowego, czy norm emisji zanieczyszczeń.

Oczywiście w praktyce, ustalenie co dokładnie może być uznane za usługę publiczną, a co powinno być pozostawione niewidzialnej ręce rynku, nie należy do prostych rzeczy i jest przedmiotem często długich i zażartych dyskusji. Niemniej, co do takich kwestii, jak obrona narodowa, policja, sądownictwo, walka z katastrofami żywiołowymi, i zapobieganie nim, panuje, z grubsza przynajmniej,  konsensus, a konieczności utrzymywania ze środków publicznych straży pożarnej nikt poważnie nie kwestionuje.

Inaczej jest w dziedzinie, której podobieństwo do pożarnictwa jest uderzające, ale inaczej niż w tym drugim przypadku, konieczność odgórnego narzucania pewnych rozwiązań wywołuje wiele kontrowersji.

Epidemie mają wiele cech wspólnych z pożarami. Zaczynają się od małego ogniska, rozprzestrzeniają się w szybkim tempie w populacji i wreszcie, z braku „opału”, czyli możliwych do zarażenia osobników, wygasają.  Zanim do tego dojdzie, znów podobnie jak pożar, przynoszą społeczeństwu wymierne straty ludzkie i materialne. Zapobieganie i walka z epidemiami jak najbardziej mieszczą się więc w obrębie zadań publicznych, co w przypadku innych działów medycyny nie jest wcale oczywiste.

Przebieg chorób zakaźnych, czyli takich, którymi ludzie zarażają się bezpośrednio od siebie nawzajem, opisuje tzw. model SIR. Dzieli on populację na trzy grupy – podatnych na zachorowanie S (suspectible), zarażonych I (infectious) i ozdrowiałych R (recovered). Podatni (S) zarażają się przez kontakt z osobami chorymi (I) i sami przechodzą do tej grupy. Po jakimś czasie zdrowieją, nabywają odporność i stają się odpornymi (R). Przebieg choroby pokazuje więc schemat

S => I => R

I zestaw równań

  • dS/dt = m*(1-S)-a*S*I
  • dI/dt = a*S*I-m*I-b*I
  • dR/dt = b*I-m*R

W których wartości S, I, R podane są, jako odsetki całkowitej populacji.

Parametry a i b to odpowiednio tempo zarażania  i tempo zdrowienia. Dodatkowo należy uwzględnić naturalną wymianę populacji odbywająca się z szybkością m % w jednostce czasu. Współczynnik m jest odwrotnością średniej długości ludzkiego życia i tak samo współczynnik a jest odwrotnością średniego czasu, w jakim osobnik (S) pozostając w kontakcie z osobnikiem (I) zarazi się od niego, a b średniego czasu potrzebnego na przebycie choroby, czyli przejścia z kategorii (I) do (R).

Z drugiego równania w powyższym zestawie możemy wprost odczytać, kiedy dochodzi do epidemii. Dzieje się tak wtedy, kiedy liczba chorych wzrasta, czyli jej pochodna po czasie jest większa od zera.

Zatem

SIR 01

A przy założeniu, że choroba trwa dużo krócej niż średni czas życia osobnika, czyli m<<b

SIR 02

 Wyrażenie po lewej stronie powyższej nierówności to tzw. bazowy współczynnik reprodukcji (BWR) dla danej infekcji. Pokazuje on ile osób podatnych (S) zarazi średnio, podczas swojej choroby, jeden chory (I).

Epidemia wygasa zatem wtedy, kiedy BWR jest mniejszy od jedności. Dojdzie do tego zawsze wtedy, kiedy a<b, czyli średni czas zarażania będzie dłuższy niż średni czas zdrowienia. Można to osiągnąć albo odpowiednio wydłużając ten pierwszy, albo skracając ten drugi. To ostatnie odbywa się poprzez skuteczne leczenie zarażonych. Jednak odpowiednie terapie nie zawsze są dostępne, nie zawsze są tanie i nie zawsze chorzy mają ochotę się im poddać. Wydłużyć średni czas zarażenia 1/a jest już prościej. Wystarczy ograniczyć kontakt zdrowych z chorymi. Metodę tę wypracowano, drogą prób i błędów, już w XIV wieku i nosi ona miano kwarantanny. Aby jednak kwarantanna była skuteczna, znów odpowiednio wysoki odsetek chorych musi się do niej zastosować. Bez użycia państwowych środków przymusu nie zawsze jest to osiągalne.

Pozostaje pytanie czy, na poziomie państwowym, warto z epidemią w ogóle walczyć, czy nie pozostawić tego podmiotom prywatnym. W końcu, nawet bez podjęcia jakichkolwiek środków zaradczych, wraz z ubywaniem osób podatnych (S),  wcześniej czy później, BWR spadnie poniżej jedności i zaraza wygaśnie sama. Istnieją jednak ważne powody, dla których taka bierność nie jest wskazana. Widać je na poniższym wykresie przedstawiającym odsetek osób chorych (I) w populacji dla choroby o parametrach a = 1,9 b = 0,9 w ciągu roku, czyli dla choroby którą stosunkowo trudno jest się zarazić, (średni czas zarażenia wynosi ponad pół roku), ale i długo się na nią cierpi

Szczep 01

Analogia z pożarem jest całkowicie uzasadniona. Bez podjęcia jakichkolwiek działań, odsetek chorych staje się bardzo wysoki, w tym przypadku przekraczający 20% ogółu ludności, co grozi, nawet nie paraliżem, ale wręcz rozpadem, choćby tylko chwilowym, całego społeczeństwa, na co w historii można znaleźć liczne przykłady z epidemią „Czarnej Śmierci” z  XIV wieku na czele. Po drugie, nawet po przejściu epidemii, choroba nadal pozostaje obecna w populacji i kiedy, w wyniku naturalnej wymiany pokoleń, odsetek podatnych (S) znów wzrośnie, epidemia wybucha ponownie. Podobne oscylacje mogą się pojawić również wtedy, kiedy choroba ma długą fazę utajoną. Wszystkie te wysokie koszty społeczne uzasadniają więc interwencję państwa w powstrzymywanie epidemii.

Jednak, jak już wyżej wspomniano, taka interwencja jest niesłychanie kosztowna, zarówno licząc w pieniądzu, jak i w ograniczeniu ludzkiej wolności. Po drugie, przymusowa kwarantanna i leczenie, jeżeli to drugie w ogóle jest dostępne, nigdy nie będą też stuprocentowo skuteczne i mogą być wdrożone jedynie tymczasowo. Ograniczą one, co prawda, rozmiary epidemii, może nawet bardzo znacznie, ale nie wyeliminują danej choroby z populacji na stałe. Jakiś odsetek chorych przez, z definicji ociężały i nieudolny, aparat państwowy, zawsze zostanie przeoczony i choroba będzie się w sposób niewidoczny propagować, aż do chwili wybuchu następnej epidemii.

Na szczęście istnieje rozwiązanie alternatywne. Wiemy już, że zaraza wygaśnie, kiedy bazowy współczynnik reprodukcji (BWR) będzie mniejszy od jedności. Zapiszmy ten warunek w nieco innej postaci:

SIR 03

Jak wynika z tego wzoru, zamiast gasić pożary, poprzez drogie i mało skuteczne oddziaływania na parametry a i b można im zapobiegać, poprzez wykorzystanie ostatniego składnika BWR, mianowicie odsetka podatnych S. Jeżeli będzie on mniejszy od ilorazu czasu zarażenia i czasu wyzdrowienia, dana choroba nie tylko nie przyjmie postaci epidemii, ale w ogóle zniknie z populacji całkowicie i na stałe. Warunek ten nie zależy od początkowej liczby osób zarażonych (I), zatem nawet bardzo duża inwazja chorych osobników z innych populacji nie stanowi żadnego niebezpieczeństwa.

O ile kwarantanna została wynaleziona już stulecia temu, o tyle możliwość zmniejszenia odsetka osób podatnych pojawiła się, w odniesieniu do niektórych chorób, dopiero w XIX wieku. Mowa oczywiście o szczepieniach.

W porównaniu z przymusową kwarantanną i leczeniem są one tanie, znów biorąc pod uwagę zarówno kwestie czysto finansowe jak i miarę ograniczania ludzkiej wolności. Nie muszą też być w stu procentach skuteczne. Wystarczy że odsetek skutecznie zaszczepionych w populacji będzie wyższy niż wartość graniczna (a-b)/a, a uwzględniając naturalną wymianę ludności, nawet nieco mniej. Przymus państwowy może być tu łagodny i w zasadzie ograniczać się do nacisku psychologicznego i niewielkich zachęt finansowych. I faktycznie zastosowanie obowiązkowych szczepień pozwoliło całkowicie wyeliminować wiele bardzo groźnych chorób, które wcześniej zbierały bogate żniwo w chorych i zmarłych.

Nie można jednak oczywiście zaprzeczyć, że przymus szczepień nadal jest przymusem i tym samym jakimś ograniczeniem wolności wyboru. Konieczność jego istnienia jest też ostatnio kwestionowana przez niezwykle hałaśliwe środowiska, które w imię obrony wolności właśnie, domagają się nie tylko zniesienia samego tego przymusu, ale kwestionują też wartość szczepień w ogóle i usiłują wywołać w społeczeństwie strach przed tym zabiegiem. Przedstawiciele tych środowisk twierdzą, że przecież jak ktoś się nie zaszczepi to, co najwyżej, sam zachoruje, to jego wybór i nikomu nic do tego. Ignoruje się jednak w tym momencie fakt, że, w razie wybuchu epidemii, straty, choćby tylko wynikające z masowej absencji chorobowej pracowników firm i instytucji publicznych, ponoszą wszyscy. Chorzy, zdrowi, zaszczepieni i nie. Naturalnie, jak wyżej opisano, epidemie można zwalczać także przez przymusową kwarantannę, ale jakoś deklaracji, że przeciwnicy szczepień są gotowi tej procedurze, w razie wystąpienia takiej potrzeby, się poddać, nie słychać.

W szczerość tych wolnościowych deklaracji tym bardziej też trudno uwierzyć, że osoby wygłaszające takie poglądy, zwykle zaliczają się do zwolenników obecnie rządzącego w Polsce reżimu i broniąc werbalnie wolności w kwestii szczepień, równocześnie entuzjastycznie popierają zakaz nabywania przez Polaków ziemi rolnej, zakaz zakładania nowych aptek, czy zakaz robienia zakupów w niedziele.

Gwoli prawdy, obok argumentów wolnościowych, często podnoszone są też kwestie finansowe, czyli rzekomo olbrzymie koszty powszechnych szczepień. Jednak, jak już autor wyżej przekonywał, koszty epidemii, kiedy już wybuchnie, są znacznie wyższe i nawet, krwiożercze i chciwe koncerny farmaceutyczne z antyszczepionkowej propagandy, znacznie więcej zarobiłyby na sprzedaży i dystrybucji lekarstw, zwłaszcza w momencie związanej z wybuchem epidemii paniki, niż na samych szczepionkach.

Ponieważ poglądy antyszczepionkowe wygłaszają nie tylko szeregowi sympatycy reżimu, ale i jego wysocy funkcjonariusze, do rangi premiera włącznie, nie sposób oprzeć się wrażeniu, że wywołanie epidemii nie jest wcale tylko skutkiem ubocznym ich programu, ale właśnie jego celem głównym. Po co mianowicie próbują oni tą epidemię wywołać, nie wiadomo, ale zważywszy dodatkowo na wprowadzany przez rządzących równolegle program ograniczania dostępu do aptek i leków, na pewno nie przyniesie ona społeczeństwu niczego dobrego.

Ewolucja energetyczna. O roku 2296 opowieść.

Z punktu widzenia termodynamiki, nauki o energii, całą historię rodzaju ludzkiego można w zasadzie zredukować do trzech wydarzeń. Pierwszym z nich było opanowanie ognia. Obróbka termiczna pożywienia pozwoliła naszym, na wpół zwierzęcym jeszcze przodkom, uzyskać ze spożywanego pokarmu znacznie więcej, niż z żywności surowej energii i tym samym stymulowała w ludzkiej linii ewolucyjnej dalszy wzrost mózgu, powstanie inteligencji i świadomości. Drugim przełomem była rewolucja neolityczna, wynalezienie rolnictwa, powstanie złożonych relacji społecznych i ekonomicznych i tym samym wyjście ze stanu dzikości i narodziny cywilizacji. Rolnicy z danej powierzchni mogą bowiem pozyskać około stu razy więcej przechwyconej przez rośliny energii słonecznej, niż łowcy – zbieracze.

Trzecim takim przejściem fazowym jest rewolucja przemysłowa, powstanie cywilizacji naukowo-technicznej, zdolnej do projekcji swojego oddziaływania w kosmos, poza rodzinną planetę. Fenomenu, o ile nam wiadomo, unikatowego w skali Wszechświata, a już na pewno Galaktyki. Stało się tak, dzięki pozyskaniu przez ludzką cywilizacje innych, niż tylko część zachowanej w ekosystemie energii słonecznej, źródeł energii. Proces ten zresztą nadal trwa.

Historycznie pierwszym napędem ery industrialnej były paliwa kopalne i do dzisiaj odgrywają one decydująca rolę. Część energii, jaką paliwa kopalne dostarczają ludzkiej cywilizacji, przedstawia poniższy wykres. (wszystkie wykorzystane w artykule dane pochodzą z raportu energetycznego firmy BP). Nadal jest to lwia część.

Ew En 01

Niemniej, udział tych paliw, węgla, ropy i gazu, w ciągu ostatniego półwiecza spadł o prawie 9 pkt procentowych. Spadek ten odbywał się jednak bardzo nierównomiernie, zarówno w czasie, skoro na początku XXI wieku doszło nawet do swoistej „remisji”, jak i w podziale na poszczególne paliw kopalnych składowe.

Ew En 02

Pierwszym zaskoczeniem jest dość stabilna pozycja węgla, choć intuicyjnie należałoby oczekiwać, że to właśnie on, najbardziej brudne i kłopotliwe w użytkowaniu paliwo, będzie tracił najwięcej. Udział gazu, czego z kolei można się było spodziewać, wzrósł z 16% do ponad 24%. Największą niespodzianką zaś jest, że, wbrew szeroko rozpowszechnianym hasełkom medialnym o „uzależnieniu od ropy”, czy „cywilizacji opartej na ropie”, udział tego surowca, od swoistego „peak oilu” w roku 1973, zmalał o ponad 15 pkt procentowych. Zapadający powoli zmierzch paliw kopalnych okazuje się być, jak na razie, zmierzchem ropy.

Paliwa kopalne zatem straciły udziały w światowym zużyciu energii. Jakie inne jej źródła weszły na to opróżnione miejsce? Odpowiedź przyniesie nam kolejny wykres.

Ew En 25

Pierwsza faza wypierania paliw kopalnych, w latach 70 i 80 XX wieku była spowodowana ekspansją energetyki atomowej. Jednak koniec zimnej wojny i związany z tym znaczny spadek zapotrzebowania na produkowane w reaktorach jądrowych materiały do budowy głowic nuklearnych, spowodował długotrwały kryzys w tym sektorze. Dopiero po zmianach technologicznych, zoptymalizowaniu nowo projektowanych reaktorów do produkcji nie, jak to miało miejsce w XX wieku, ładunków jądrowych, a energii elektrycznej, energetyka atomowa mogłaby, po roku 2010 znów ruszyć z miejsca. Nie stanowiła dla niej konkurencji energetyka wodna, której udział na świecie, owszem rósł, ale bardzo powoli.

Mogłaby, gdyby nie fakt pojawienia się atrakcyjnej, jak to się, wbrew przewidywaniom, jakie żywił i niżej podpisany, okazało, dla atomu konkurencji. Odnawialnych źródeł energii, tzw. OZE. Udział OZE, jeszcze na początku XXI wieku zupełnie pomijalny, obecnie przekroczył już w skali świata 3% i rośnie bardzo dynamicznie.

Tak samo jak paliwa kopalne, również OZE, składają się z kilku, bardzo od siebie różniących się nawzajem, składowych. Ich udział przedstawiono na poniższym wykresie:

Ew En 03

Wykres ten różni się od poprzednich dwoma detalami. Zamiast udziału w całkowitym zużyciu w procentach, pokazano na nim wartości bezwzględne, tzw. Mtoe, czyli energetyczny ekwiwalent miliona ton ropy naftowej. Drugą różnicą jest przedstawienie osi pionowej w skali logarytmicznej Dokonał autor tego zabiegu po to, żeby dobitnie unaocznić, że zużycie energii ze źródeł OZE, rośnie, z bardzo wysokim dopasowaniem, wykładniczo. Tempo tego wzrostu jest jednak bardzo dla poszczególnych składników OZE nierównomierne. Najwolniej odbywa się to dla OZE „innych” gdzie wrzucono razem biopaliwa i geotermię. Zużycie energii z tych źródeł podwaja się co 135 miesięcy Dla energii wiatru podwojenie takie zachodzi co każde 36 miesięcy, zaś dla energetyki słonecznej, co 31 miesięcy. Ten wykładniczy trend trwa już, z niewielkimi zaburzeniami, od ćwierćwiecza, można więc ostrożnie założyć, że potrwa jeszcze przynajmniej pokolenie.

Do roku 2040, co przecież nastąpi jeszcze za życia wielu obecnych czytelników, ziemska energetyka zmieni się zatem w sposób radykalny. Przyszłość będzie całkowicie obcą dla nas krainą.

Udział paliw kopalnych spadnie poniżej 15% całości, w tym samej ropy do zaledwie 5%. Natomiast grubo ponad 80% energii pochodzić będzie ze źródeł odnawialnych, w tym jedna czwarta czerpana będzie bezpośrednio ze Słońca. Taka jest potęga przyrostu wykładniczego, którym charakteryzują się OZE i jego przewagi nad wzrostem liniowym, typowym dla pozostałych źródeł energii

Oczywiście żaden proces wykładniczy w skończonym świecie nie może trwać wiecznie i w końcu nawet energetyka słoneczna napotka gdzieś na swoje bariery rozwojowe, które wyhamują jej rozwój i ustabilizują produkcję energii z tego źródła na jakimś, choć, z dzisiejszego punktu widzenia zapewne niewyobrażalnym, poziomie. Dopiero wtedy, znacznie później niż się to autor niniejszego eseju kiedyś spodziewał, do łask wróci znów energia atomowa, tym razem zapewne już w postaci fuzji. Ale brudne, niewydajne, o niskiej tzw. entalpii właściwej, i bardzo kłopotliwe politycznie, paliwa kopalne będą należeć już do zamierzchłej przeszłości.

Pozyskiwanie i przerób energii to proces, który oprócz korzyści, wiąże się też z pewnymi, jak to się w naukach ekonomicznych określa, kosztami zewnętrznymi. Do najbardziej znanych takich kosztów należy zanieczyszczenie środowiska. I znów przed erą industrialną, ludzkie społeczności dokonywały, co prawda, głębokich przekształceń środowiska przyrodniczego, wybijały mamuty, czy karczowały lasy, ale nie odprowadzały do środowiska praktycznie żadnych odpadów. Tak zwany dzisiaj recykling, sięgał wtedy prawie 100%. Wraz z rewolucją przemysłową pojawiły się jednak także śmieci i odpady. Aby ocenić obecny poziom emitowanych skażeń posłużymy się wskaźnikiem emisji dwutlenku węgla w przeliczeniu na jednostkę energii toe. Co prawda sam CO2 akurat nie jest specjalnie szkodliwy, ale jego emisja jest dość dobrze skorelowana z emisją zanieczyszczeń znacznie bardziej od niego niebezpiecznych.

Ew En 04

Wykres ten, jest z grubsza podobny do pierwszego wykresu pokazującego udział paliw kopalnych w światowej konsumpcji energii. W miarę zmniejszania ich udziału, maleją także emisje zanieczyszczeń. Różnica polega na tym, że trend spadkowy jest tu bardziej konsekwentny, a zaburzenie w nim widoczne na początku XXI wieku, wyraźniejsze. Gdyby nie owa anomalia, nieprzypadkowo zapewne skorelowana z rozpętaną wówczas medialną histerią wokół tzw. „globalnego ocieplenia”, które obecnie po cichu zmieniono już na „globalne zmiany klimatyczne”, nie musielibyśmy czekać z marginalizacją znaczenia ropy i węgla do roku 2040, a poziom emitowanych skażeń już dziś byłby niższy niż 2 tys. kg CO2/toe.

Niniejszy esej poświęcony jest termodynamice, czyli napędzającej naszą cywilizację energii. Jednak wytwarzanie i pozyskiwanie energii, tylko dla centralnie planowanej gospodarki socjalistycznej, może być celem samym w sobie. W gospodarce normalnej, wolnorynkowej, energię pozyskuje się nie po to, żeby osiągnąć jakiś wskaźnik kilowatogodzin przeliczonych na tony wyprodukowanej surówki, ale po to, aby zarobić pieniądze, czyli w przybliżeniu, wytworzyć PKB. Relacja pomiędzy poziomem zużycia energii a wielkością PKB nie jest bynajmniej jednoznaczna i liniowa. Gospodarka maltuzjańska, rolnicza, preindustrialna, wytwarza, patrząc dzisiejszymi kategoriami, niewiele PKB, ale energii zużywa jeszcze mniej. W rezultacie przetwarza ona dostępną sobie energię na produkt z zaskakująco wysoką wydajnością. Wraz z początkiem ery industrialnej pojawiają się nowe, wcześniej niedostępne źródła energii. Cena kilowatogodziny maleje bardzo znacznie, a PKB wytwarzany z jednostki energii spada dramatycznie, czasami o kilka rzędów wielkości. Z biegiem czasu jednak nośniki energii drożeją, technologie jej przerobu się rozwijają, a wydajność energetyczna gospodarki ponownie rośnie. Na kolejnym wykresie przedstawiono ten proces dla kilku różnych krajów, w tym Polski.

Ew En 05

Widać pewną generalną prawidłowość, zgodnie z którą, kraje położone w chłodnym klimacie, zużywające zatem sporo energii na ogrzewanie, oraz kraje rozległe i rzadko zaludnione, gdzie dużym odbiorcą energii jest transport, mają wydajność energetyczną, w porównaniu z krajami ciepłymi i gęsto zaludnionymi, stosunkowo niską. Stąd przewaga Indii nad Chinami, stąd też stosunkowo słaby wynik USA i jeszcze gorszy, nie pokazanej na wykresie, Kanady, stąd też mierna pozycja Szwecji i Norwegii, krajów przecież bardzo rozwiniętych. Jednak wszędzie tam, gdzie industrializacja już zaszła, nawet w miejscach tak zacofanych i prymitywnych, jak Rosja, jest widoczny, słabszy, lub silniejszy, ale jednoznaczny trend wznoszący. Poza państwami ciągle jeszcze maltuzjańskimi, jak Wenezuela, czy Kuwejt, dzisiaj na świecie wzrost gospodarczy jest szybszy niż wzrost zużycia energii. Nie oznacza to jednak, że w przyszłości ten trend się utrzyma, a nawet, w przypadku nagłego potanienia energii, że się znów nie odwróci. Do dalszych rozważań przyjmiemy jednak, że średnio wzrost gospodarczy będzie wprost proporcjonalny do poziomu zużycia energii.

Ten ostatni jest czasami używany jako wskaźnik zaawansowania naukowego i  technologicznego hipotetycznych cywilizacji pozaziemskich, mierzony tzw. skalą Kardaszewa. Jest to skala logarytmiczna, o współczynnikach dobranych w taki sposób, aby wskaźnikowi równemu 1 odpowiadała wielkość całej energii jaka dociera do Ziemi ze Słońca, a wskaźnikowi równemu 2, całkowita energia wytwarzana przez Słońce. Cywilizacja, która osiągnęła poziom I jest zdolna do opanowania i zagospodarowania swojego układu planetarnego. Cywilizacja poziomu II prowadzi już z pełnym rozmachem ekspansję w Galaktyce, aż do opanowania jej całej i stania się tym samym cywilizacją poziomu III

W roku 2016 całkowita moc produkowana przez ziemską cywilizację wynosiła 18 terawatów, co daje naszej planecie, w skali Kardaszewa, poziom 0,73. Ponieważ zużycie energii rośnie wykładniczo, zatem sam współczynnik Kardaszewa, z bardzo dobrym dopasowaniem, liniowo. Ekstrapolując dotychczasowy trend w przyszłość, możemy więc znaleźć datę osiągnięcia przez Ziemian poziomu I. Będzie to tytułowy rok 2296 i wtedy też zapewne pierwsi ludzie wyruszą ku innym, niż Słońce, gwiazdom. Ponieważ jednak, jak już wspomniano, utrzymanie jakiegokolwiek wykładniczego wzrostu w środowisku o skończonych rozmiarach w nieskończoność, a globalnej produkcji energii nawet tylko do końca XXIII wieku, nie jest możliwe, zatem aby osiągnąć poziom I, ludzka cywilizacja będzie po prostu musiała wykorzystać w tym celu zasoby nie jednej planety, ale całego układu słonecznego. Jak wykazuje bardziej subtelne dopasowanie do obecnego trendu, kiedy wystartują pierwsze gwiazdoloty, tylko około 84% całej dostępnej ówcześnie ludzkości energii, a zatem i PKB, będzie wytwarzane na Ziemi, natomiast reszta, poza naszą planetą. Udział Ziemi będzie zresztą systematycznie maleć już od połowy XXI wieku, kiedy gospodarka pozaziemska, powinna po raz pierwszy osiągnąć zauważalny udział w całkowitym PKB.

Ew En 06

Powyższy artykuł został opublikowany w numerze 1461/1462 tygodnika „Najwyższy Czas”

Czwarty element. Samowary, czarne oceany i to coś pomiędzy.

Niniejszy artykuł jest kontynuacją wpisu o Paradoksie Fermiego (cz I, cz II), który zaleca się wcześniej przeczytać

W artykule „O milczeniu Wszechświata”, niżej podpisany rozważał możliwe przyczyny tzw. „paradoksu Fermiego”, czyli braku jakichkolwiek śladów istnienia pozaziemskich cywilizacji. Takie ślady, według wszelkich racjonalnych założeń, powinny być bowiem, zwłaszcza w postaci sygnałów radiowych, spotykane często i łatwo. Budując, a następnie analizując adekwatny model powstawania i rozprzestrzeniania się cywilizacji w Galaktyce, doszedł autor do dwóch wniosków. Po pierwsze zjawisko, zwane z łacińska Silentium Universii, jest zjawiskiem rzeczywistym, a nie wynikającym tylko z ludzkich ograniczeń technologicznych, tzn. cywilizacji nie widać, ponieważ ich faktycznie nie ma. A jedynym sensownym rozwiązaniem paradoksu Fermiego jest przyjęcie, że prawdopodobieństwo powstania takiej cywilizacji jest ekstremalnie małe. Tak małe, że do dzisiaj w Galaktyce zdążyła powstać tylko jedna – nasza własna. Mimo że wniosek ten jest w pewnym sensie przełomowy, ponieważ większość autorów rozważających to zagadnienie, jako przyczynę owego wielkiego milczenia wskazuje raczej na mikrą średnią długość życia już powstałej cywilizacji, to jednak pozostawał artykuł czytelnika w pewnym niedosycie. Nie zostało bowiem w nim w żaden sposób wyjaśnione, dlaczego owo prawdopodobieństwo miałoby być aż tak nikłe. Artykuł niniejszy jest próbą uzupełnienia tej luki, poprzez potraktowanie zjawiska cywilizacji naukowo-technicznej, jako skrajnego przypadku fenomenu znacznie lepiej naukowo poznanego i opisanego – życia.

Poszukiwania życia pozaziemskiego prowadzone były właściwie już od momentu, kiedy zorientowano się, że planety nie są tylko poruszającymi się po niebie zgodnie ze skomplikowanymi, ale możliwymi do zrozumienia regułami, światełkami, ale także oddzielnymi światami, w jakimś tam stopniu podobnymi do Ziemi. Przełom kopernikański nie polegał bowiem tylko, jak to się zwykle w wąskiej, czysto astronomicznej, interpretacji przedstawia, na zmianie punktu odniesienia wokół którego orbitują ciała niebieskie z Ziemi na Słońce, ale na całkowitej zmianie myślenia o Wszechświecie. W obowiązującej do czasów warmińskiego kanonika fizyce arystotelesowskiej, życie i w ogóle jakiekolwiek bardziej skomplikowane struktury mogły istnieć wyłącznie na Ziemi, bo tylko w tej „sferze” możliwe było mieszanie się „żywiołów”, ich wzajemne oddziaływanie i tym samym arystotelesowski odpowiednik chemii. Przestrzeń pozaziemska była natomiast straszliwie monotonna i wypełniona tylko jednym „żywiołem” (pierwiastkiem) – uranoizą, zwanej też z łacińska kwintesencją. Odkrycie Kopernika zerwało radykalnie z tym paradygmatem, a Kosmos okazał się być prostym przedłużeniem Ziemi. Skoro więc prawa rządzące Kosmosem okazały się być takie same, jak na naszym globie, to i rezultat działania tych praw powinien być, zgodnie z tym rozumowaniem, zbliżony, w szczególności na planetach podobnych do Ziemi powinny bytować podobne do ziemskich istoty.

 W pewnym momencie uważano nawet, że praktycznie wszystkie znane planety i księżyce są zamieszkane, nawet przez inteligentne formy życia, a przekonanie to było tak silne, że w przypadku najbardziej obiecujących pod tym względem lokalizacji, jak Wenus, czy Mars, utrzymało się aż do połowy XX wieku. Wszelkie jednak podobne spekulacje okazały się przedwczesne i przyniosły wyłącznie rozczarowanie. Dwie były przyczyny tego stanu rzeczy. Nie tylko, aż do powstania międzyplanetarnej kosmonautyki, nie znano dokładnie warunków panujących na innych planetach, ale też nie rozumiano zbyt dobrze samego zjawiska życia, tego jak ono powstaje, czym się charakteryzuje i jakie są jego interakcje ze środowiskiem w którym występuje. I do dzisiaj, pomimo, że wiemy na ten temat już całkiem sporo, nie można twierdzić, że nic nas już w tej materii nie zaskoczy, skoro nadal nie potrafimy fenomenu życia w laboratorium odtworzyć. Obecnie życia pozaziemskiego szuka się już raczej poza układem słonecznym i w ciągu kilku-kilkunastu lat, wraz z wejściem do użytku nowej generacji gigantycznych teleskopów naziemnych i orbitalnych, można się wreszcie spodziewać sukcesu w tej kwestii. Na razie, co rusz jesteśmy elektryzowani doniesieniami o odkryciu kolejnych pozasłonecznych planet leżących w tzw. ekostrefie, czyli w takiej odległości od swoich macierzystych gwiazd, która gwarantuje na tych globach odpowiednią, dla potencjalnego istnienia tam żywej biosfery, temperaturę.

Temperaturę odpowiednią, to znaczy właściwie jaką? Najczęściej spotykaną odpowiedzią na to pytanie, jest nieco enigmatyczne stwierdzenie, że temperatura odpowiednia, to taka, która umożliwia na danej planecie istnienie wody w stanie ciekłym. Obecność tej substancji, obok dostępności odpowiednich związków mineralnych, oraz jakiegoś źródła energii, uznaje się bowiem za podstawowy czynnik umożliwiający powstanie i istnienie na takim globie istot żywych. W rzeczywistości jednak, jak się jeszcze o tym przekonamy, chociaż faktycznie te trzy warunki są do zaistnienia zjawiska życia konieczne, to jednak nie są wystarczające. Potrzebny jest jeszcze czwarty, tytułowy element, zwykle w rozważaniach tego rodzaju pomijany.

Warunek występowania ciekłej wody, w skrajnie uproszczonej interpretacji, przekłada się na oczekiwanie, że niezbędna temperatura będzie się zawierać w przedziale od 0 do 100 stopni Celsjusza. Jest to jednak oczekiwanie nieco naiwne. Patrząc na górny koniec skali, nie można zapominać, że temperatura wrzenia wody wynosi, owszem, 100 stopni Celsjusza (373 Kelwiny), ale tylko pod ciśnieniem atmosferycznym, czyli takim, jakie jest obecnie na Ziemi – 0,1 MPa. W miarę spadku ciśnienia, np. w wysokich górach, temperatura wrzenia się obniża, aż do 0 stopni w tzw. punkcie potrójnym pod ciśnieniem 612 Pa. W drugą stronę, przy ciśnieniach wyższych od atmosferycznego, temperatura wrzenia stopniowo rośnie, aż do osiągnięcia ciśnienia krytycznego, ok 2,2 MPa (218 atmosfer), powyżej którego woda nie będzie wrzeć niezależnie od wysokości temperatury. Teoretycznie więc można sobie wyobrazić, jakąś bardzo gorącą planetę z oceanami o temperaturze kilkuset stopni i gęstą atmosferą wysyconą parą wodną. Taka planeta – samowar musiałaby być bardzo ciężka, typu zwanego w astronomii „superziemią”, bo lżejszy glob, wielkości Ziemi, lub mniejszej, szybko by taką atmosferę, wskutek zjawiska zwanego wypływem hydrodynamicznym, lub ucieczką Jeansa, utracił, ale podany warunek przebywania w ekostrefie, czyli występowania na powierzchni wody w stanie ciekłym, jak najbardziej by spełniała. Co więcej nawet na Ziemi istnieją organizmy, które w takiej ultragorącej wodzie w temperaturze przekraczającej 100 stopni bytują i prosperują. Bariera 100 stopni dla ciekłej wody nie jest zatem bynajmniej barierą nieprzeniknioną, a takie złudzenie mogło powstać i funkcjonować wyłącznie dlatego, że w naszym Układzie Słonecznym, pomijając Wenus, która ma na to zbyt słabą grawitację, podobnej planety – samowara w ogóle nie ma.

Nie da się jednak tego powiedzieć o drugim końcu skali, obiektach bardzo zimnych, których z kolei mamy na naszym kosmicznym podwórku bez liku.

Zanim jednak do nich przejdziemy, omówimy wcześniej, na przykładzie najlepiej nam znanego układu planetarnego, samą ekostrefę jako taką. Zważywszy na fakt że planety gazowe, takie jak Jowisz, Saturn, czy nawet Uran i Neptun, cechują się swoistą, sobie tylko właściwą, dynamiką, ich temperatura w niewielkim tylko stopniu zależy od odległości od Słońca, a ponadto nie mają one oczywistej powierzchni, punktu odniesienia, której temperaturę moglibyśmy porównywać między sobą, w dalszych rozważaniach weźmiemy pod uwagę jedynie obiekty skaliste, mające stałą powierzchnię. Globy te, niezależnie od tego, czy okrążają one bezpośrednio swoją gwiazdę macierzystą, czy też są księżycami jakiejś innej planety, nazywać będziemy zbiorczo „planetami”

W pierwszym przybliżeniu możemy założyć, że temperatura na danej planecie, zależy od wielkości strumienia energii dostarczanej jej przez macierzystą gwiazdę, u nas Słońce. Zależność między temperaturą a promieniowaniem opisuje prawo Stefana – Boltzmana

samo 01

gdzie F, to strumień promieniowania słonecznego w watach/metr kwadratowy, zwany także niezbyt ściśle stałą słoneczną, T to temperatura w Kelwinach, a σ, to stała Stefana-Boltzmana równa 5,67*10^-8 W/(m^2*K^4)

Strumień promieniowania słonecznego docierający na planetę zawiera się w kole o promieniu równym promieniowi tejże planety. To promieniowanie rozkłada się na powierzchnię, będącą w dobrym przybliżeniu sferą. Ponieważ zaś powierzchnia sfery jest cztery razy większa od powierzchni koła o tym samym promieniu, zatem równanie nasze przybierze postać:

samo 02

Stała słoneczna F maleje (jak widać nazywanie jej stałą nie jest szczególnie uprawnione) wraz z odległością od gwiazdy odwrotnie proporcjonalnie do kwadratu odległości

samo 03

L jest zaś całkowitą mocą wypromieniowaną przez daną gwiazdę, w przypadku Słońca to 3,85*1026 watów, a R odległością od gwiazdy. Po odpowiednich przekształceniach otrzymujemy temperaturę powierzchni danego globu.

samo 04

Na poniższym wykresie przedstawimy teraz rozkład tej temperatury w zależności od odległości od Słońca. Czerwone kwadraciki reprezentują rzeczywiste ciała niebieskie. Dla polepszenia czytelności, obie osie przedstawiono w skali logarytmicznej. Temperatura, w bezwzględnej skali Kelvina, maleje, jak wynika z powyższego wzoru, odwrotnie proporcjonalnie do pierwiastka kwadratowego odległości od naszej gwiazdy.

Ekostrefa 01

Jak widać, dopasowanie rzeczywistych planet do krzywej teoretycznej jest, na pierwszy rzut oka, dość dobre. Przypatrując się jednak wykresowi bliżej, można jednak zauważyć pewne niedokładności. Najbardziej rzuca się w oczy odchyłka w przypadku Wenus, ale i pozostałe globy też nie leżą dokładnie tam, gdzie nasza teoria przewiduje. Oczywiste więc jest, że zaprezentowany model jakieś dość istotne zjawiska pomija. Uwzględniamy w nim bowiem tylko cechy centralnej gwiazdy układu, oraz charakterystyki orbit planetarnych, całkowicie pomijając właściwości samych planet. Musimy zatem wprowadzić do modelu odpowiednią uwzględniającą ten fakt poprawkę, nazywając ją „współczynnikiem planetarnym” P. Współczynnik P określa o ile należy zmodyfikować docierający do planety strumień promieniowania, aby uzyskać obserwowaną na niej temperaturę. Model przybiera teraz postać:

samo 05

Wielkość współczynnika planetarnego dla poszczególnych planet przedstawia kolejny wykres.

Ekostrefa 02

Od czego zależy ów „współczynnik planetarny”? Rozdzielimy go na dwie składowe. Pierwsza z nich będzie osłabiać efektywny strumień promieniowania docierający do powierzchni planety, druga przeciwnie, zwiększać go. Czyli:

samo 06

Składowa A to tzw. albedo. W pierwotnym modelu założyliśmy bowiem milcząco, że nasze planety są ciałami doskonale czarnymi pochłaniającymi całość padającego na nie promieniowania. W realnym przypadku jednak, część promieniowania zawsze będzie odbijana z powrotem w kosmos. O tym jaka to część, decyduje właśnie współczynnik zwany albedo, czy, żeby być bardziej precyzyjnym, albedo Bonda. Planety brane tutaj pod uwagę mają albedo bardzo zróżnicowane, od 9% w przypadku Ceres, do 99% dla, nie bez powodu, jak widać, zwanego zwierciadłem układu słonecznego, Enceladusa. Istnienie większego od zera albedo powoduje schłodzenie danego ciała poniżej temperatury, jaką przywidywał dla niego pierwotny model. Kwestia albedo jest jeszcze stosunkowo prosta, a jego wartości dla większych ciał krążących w Układzie Słonecznym dość dobrze poznane i opisane. Inaczej ma się sprawa z podgrzewaniem – współczynnikiem E, które może mieć więcej niż jedną przyczynę.

 Na kolejnym wykresie pokażemy teraz o ile dany obiekt, już po uwzględnieniu wpływu albedo, jest w skali bezwzględnej, cieplejszy od przewidywań teoretycznych.

Ekostrefa 03

Planety z wykresu można z grubsza podzielić na trzy grupy. Do pierwszej należą te ciała, których temperatura jest opisywalna tylko i wyłącznie przez wielkość lokalnej stałej słonecznej i albedo, czyli w których przypadku E0. Do tego zbioru należą Merkury, Księżyc, Mars, i Ceres. Niewielką nadwyżkę temperatury w przypadku Ceres można bez trudu złożyć na karb błędów w pomiarach jej średniej temperatury i/lub albedo. Potem mamy Wenus i Ziemię, dwie planety obdarzone gęstą atmosferą. Gazy wchodzące w skład tych atmosfer, działają jako swoiste przegrody, przepuszczające światło słoneczne, ale pochłaniające wypromieniowywane przez powierzchnie planet promieniowanie podczerwone. Podgrzane w ten sposób atmosfery emitują wtórne promieniowanie w stronę powierzchni, co podnosi jej temperaturę powyżej przewidzianego teoretycznie poziomu. Zjawisko to nazywa się efektem cieplarnianym. Hipotetycznie można do tej grupy zaliczyć także posiadającego gęstą, ale o odmiennym od ziemskiego, czy wenusjańskiego składzie, atmosferę Tytana. Hipotetycznie, bo Tytan z kolei jest członkiem obszernej grupy planet skalisto-lodowych, którą teraz będziemy omawiać.

Wszystkie one, podobnie jak Wenus i Ziemia, ale tym razem na pewno nie z powodu efektu cieplarnianego, wykazują nadwyżkę zmierzonej temperatury powierzchni nad temperaturą teoretyczną, wynikającą z wielkości stałej słonecznej i albedo. Naturalnie nadwyżka nadwyżce nierówna. Temperatura, jak należy przypomnieć, jest wprost proporcjonalna do pierwiastka czwartego stopnia z promieniowania, stąd podniesienie o 10% temperatury z poziomu 10 Kelwinów to zupełnie co innego niż podniesienie temperatury o 10% z poziomu 100 Kelwinów. To pierwsze wymaga zwiększenia strumienia promieniowania zaledwie o 0,00026 W/m2, to drugie już o 2,63 W/m2, wielkość o 5 rzędów wielkości większą. Dlatego na kolejnym wykresie pokażemy nadwyżkę energii, jaka jest potrzebna do podgrzania skalno-lodowych globów w zewnętrznym układzie słonecznym do obserwowanych temperatur.

Ekostrefa 04

Skąd się ta dodatkowa energia bierze? Skoro nie pochodzi ona z zewnątrz, z promieniowania słonecznego, to jedynym możliwym jej źródłem jest samo wnętrze rozpatrywanych planet, czyli ciepło geotermalne. Strumień energii o wielkości kilku watów na m2, czyli rzędu jednego procenta tej wielkości, którą Ziemia dostaje od Słońca, może nie wydaje się imponujący, ale w porównaniu z strumieniem geotermalnym Ziemi, wynoszącym ledwo 0,06 W/m2 są to wielkości gigantyczne. Gigantyczne do tego stopnia, że pozwalają one tym globom na posiadanie pod lodową zewnętrzną skorupą, tam gdzie Słońce dosłownie nie dochodzi, ogromnych zbiorników ciekłej wody, prawdziwie czarnych oceanów. Jedynym wyjątkiem jest, w przeciwieństwie do pozostałych naszych lodowych planet, akurat wody pozbawiony Io.

We wnętrzu tych planet muszą zatem zachodzić procesy generujące duże ilości ciepła. Rozważający tę kwestię autorzy opublikowanego w 303 numerze „Świata nauki” artykułu „Pod morzami Enceladusa” [8], proponują trzy takie możliwe mechanizmy wewnętrznego grzania tych planet. Pierwszy z nich, to ten sam, który generuje większość wewnętrznego ciepła Ziemi – rozpad izotopów promieniotwórczych w jej wnętrzu. Aby sprawdzić tę możliwość, musimy dokonać jeszcze jednego przeliczenia naszych danych. Strumień geotermalny jest bowiem parametrem, jak się jeszcze przekonamy, niezwykle istotnym, ale nie uwzględnia jednej kluczowej zmiennej – wielkości planety. Im większa bowiem planeta, tym, mając większy stosunek objętości do powierzchni, trudniej traci ciepło. Zatem mniejsze globy, dla podtrzymania zbliżonego strumienia geotermalnego, muszą produkować nieproporcjonalnie więcej ciepła. Porównajmy zatem nie strumienie geotermalne, ale ogólną ilość wydzielonego ciepła w przeliczeniu na objętość planety. Wielkość grzania podana jest w watach na kilometr sześcienny.

Ekostrefa 05

Produkcja ciepła przez planety lodowe, wśród których nawet niemrawy Tryton przewyższa w tej materii Ziemię dwukrotnie, jest tak olbrzymia, że hipotezę radioaktywną, dodatkowo biorąc jeszcze pod uwagę, że ze względu na swoją znacznie mniejszą od Ziemi gęstość, omawiane przez nas planety posiadają też proporcjonalnie mniejszą od ziemskiej zawartość ciężkich długożyciowych pierwiastków radioaktywnych, uranu i toru, możemy śmiało odesłać w niebyt. To nie energia atomowa podgrzewa czarne oceany. Drugą możliwością jest energia pływów. Są one generowane przez tzw. siły pływowe, które pojawiają się w momencie, kiedy ciała niebieskie przestają być, jak się zwykle w astronomii przyjmuje, idealnie sprężystymi punktami materialnymi. Konsekwencje odchyłki od tego wyidealizowanego modelu, każdy, kto choć raz w życiu znalazł się nad oceanem, mógł obserwować na własne oczy.

Tak samo jak Ziemia przyciąga Księżyc, tak samo Księżyc przyciąga Ziemię. Ponieważ Ziemia nie jest jednak punktem, części Ziemi leżące bliżej Księżyca są przyciągane silniej, niż części Ziemi leżące dalej. Różnica tych sił jest właśnie siłą pływową. W przeciwieństwie do klasycznej siły grawitacji Newtona zmienia się ona w przybliżeniu nie z kwadratem odległości, od ciała wywołującego pływy, ale znacznie szybciej – proporcjonalnie do sześcianu tego dystansu. Siły pływowe usiłują rozciągnąć daną planetę wzdłuż kierunku w którym działają. Gdyby planety były ciałami idealnie sprężystymi, które odkształcałyby się liniowo dokładnie według prawa Hooke’a, nie dawałoby to żadnego szczególnego efektu, ale oczywiście planety takimi ciałami nie są. Dzięki istnieniu zjawiska relaksacji, odkształcenie ciał rzeczywistych jest zawsze nieco opóźnione w stosunku do przyłożonego naprężenia. Moment wystąpienia maksymalnej wysokości fali pływowej, o czym wie każdy marynarz, zawsze jest więc opóźniony w stosunku do górowania nad danym południkiem Księżyca. Krzywa pokazująca zależność odkształcenia od naprężenia, w przypadku ciała idealnie sprężystego będąca, zgodnie z prawem Hooke’a, po prostu …prostą, staje się …krzywą właśnie, a odkształcenie pod wpływem naprężenia przebiega innym torem niż powrót do poprzedniego kształtu po ustaniu naprężenia, co tworzy tzw. pętlę histerezy. Obszar wewnątrz tej pętli to nadwyżka energii sprężystej (energia to całka siły po drodze, albo właśnie naprężenia po odkształceniu), która musi się rozproszyć w postaci ciepła. Ponieważ siły wywołujące pływy mają charakter cykliczny, możemy ten proces przedstawić za pomocą modelu tłumionego oscylatora, gdzie siłą wymuszającą drgania jest właśnie siła pływowa, a jej częstość jest znacznie mniejsza od częstości drgań własnych planety. Nie wdając się w szczegóły matematyczne, w celu poznania których odsyła chętnych autor do podręcznika Pawła Artymowicza [1], możemy stwierdzić, że wielkość pętli histerezy, a tym samym ilość ciepła wydzielanego w każdym cyklu pływowym, zależy od tzw. współczynnika dobroci układu drgającego Q, który z grubsza jest odwrotnością odsetka energii traconej w każdym cyklu drgań. Wielkość Q zależy bardzo silnie od wewnętrznej budowy planety, od nieregularności jej kształtu i odchyłek od symetrycznego rozkładu masy i może się wahać w dość szerokim zakresie od Q = 10 dla takich ciał jak Ziemia, czy Księżyc do Q ≈ 100 000 dla globów w całości ciekłych, typu Jowisz, czy Saturn. Wielkość Q, określa zatem tempo w jakim energia ruchu obrotowego, czy pola grawitacyjnego jest przetwarzana na ciepło. W zależności od wzajemnych stosunków mas, momentów pędu, mimośrodów orbitalnych, czy właśnie współczynników dobroci, pod wpływem sił pływowych ciała mogą, w sposób  niekiedy bardzo złożony i skomplikowany, zwiększać lub zmniejszać prędkość obrotu wokół osi, zbliżać się do siebie lub oddalać, zmieniać orbity, aż do osiągnięcia stanu równowagi, czyli zajęcia orbit ściśle kołowych i wzajemnej synchronizacji ruchu obrotowego, tak, że oba obiegające się nawzajem ciała są zwrócone do siebie stale tymi samymi półkulami. W takich warunkach przepływ energii wywołany pływami ustaje ostatecznie. Zanim jednak do tego dojdzie, można oczekiwać, że niezależnie od różnych wartości dobroci, tempo produkcji ciepła geotermalnego będzie w jakimś zakresie zależeć od odległości danego księżyca od planety, którą obiega. Na kolejnym wykresie pokazano zatem tą zależność dla księżyców Jowisza i Saturna. Ponownie obie osie przedstawiono w postaci logarytmicznej.

Ekostrefa 06

Energia geotermalna czarnych oceanów rzeczywiście zdaje się zależeć od ich odległości od planety, która obiegają, ale nie tak, jak byśmy mogli tego oczekiwać. Siły pływowe, zależą wprost proporcjonalnie od masy ciała wywołującego je, tymczasem na wykresie widać, że jeżeli między księżycami Saturna, a trzykrotnie bardziej masywnego Jowisza istnieje jakaś różnica, to raczej właśnie księżyce Jowisza są podgrzewane nieco słabiej. Może to wynikać z faktu, że są one wystarczająco masywne, aby, w przeciwieństwie do saturnowych maluchów, wpływać na siebie nawzajem. To oddziaływanie w przeszłości doprowadziło do „wygładzenia” i synchronizacji ich ruchu i tym samym zmniejszenia sił pływowych. Przykład Io, obecnie praktycznie pozbawionego wody, jest przesłanką, na to, że niegdyś glob ten był grzany znacznie intensywniej, na poziomie porównywalnym do dzisiejszego Enceladusa, i wskutek tego swoje zasoby wody utracił, co w dzisiejszych warunkach już by miejsca mieć nie mogło. Niestety, do tego schematu nijak nie pasuje kolejny wyjątek. Uważni czytelnicy zapewne już zauważyli, że we wszystkich dotychczasowych zestawieniach czarnych oceanów, ziała znacząca luka. Konsekwentnie bowiem autor niniejszego artykułu pomijał w nich najdalszy księżyc Jowisza – Kallisto. No, może nie do końca konsekwentnie, bo na pierwszym wykresie pokazującym zależność temperatury od odległości od Słońca, Kallisto jednak się znalazła – to najwyżej położony czerwony kwadracik ze tych pokazujących księżyce Jowisza.

Teraz już widać, że nie było to przypadkowe przeoczenie. Kallisto bowiem jest, w proporcji do swojej odległości od Jowisza, rozpalona niczym piec, na poziomie najbliższych księżyców Saturna. O ile najprostsze i najbardziej oczywiste wyjaśnienie tej anomalii, przyjęcie, że podawana w źródłach średnia temperatura powierzchni tego księżyca na poziomie 134K, została zwyczajnie błędnie zmierzona, nie jest prawdziwe, to wnętrze Kallisto może kryć coś naprawdę wyjątkowego.

Pomijając jednak opisane nieregularności i tak dochodzimy do wniosku, że co prawda, średnia energia geotermalna faktycznie regularnie maleje wraz ze wzrostem odległości od Jowisza, czy Saturna, to jednak maleje o wiele za wolno, niż po sile pływowej byśmy się tego spodziewali. Teoretycznie wykładnik w tej zależności powinien wynosić -3, a faktycznie ma on wartość zaledwie -1,7. Chociaż zatem ciepło to faktycznie jest produkowane przez pływy, to jednak na pewno nie wyłącznie, co pokazuje też przykład nadspodziewanie ciepłego Plutona. Skąd pochodzi reszta tej energii?

Trzecie możliwe źródło grzania geotermalnego wymienione we wspomnianym artykule ze „Świata Nauki”, jest szczególnie istotne w interesującym nas kontekście istnienia życia. W końcu czarne oceany, mimo że orbitują daleko poza teoretyczną granicą ekostrefy, posiadają wszystkie wymieniane potrzebne do zaistnienia tego fenomenu składniki. Istnieje ciekła woda, istnieją odpowiednie, wypłukiwane przez wodę ze skalistego jądra, związki mineralne, istnieje też źródło energii geotermalnej. Czego chcieć więcej?

Procesu serpentynizacji. Pod tą nieco zagadkową nazwą ukrywa się reakcja chemiczna, uwodnienie obecnego w skałach wulkanicznych minerału zwanego oliwinem do serpentynitu właśnie. Jest to reakcja egzotermiczna, w której, oprócz ciepła, wydzielają się także dwutlenek węgla i wodór, a wytrącające się z roztworu sole wytwarzają na morskim dnie, gdzie zwykle taki proces zachodzi, potężne struktury zwane zasadowymi, albo, w odróżnieniu od gorących wulkanicznych „czarnych” kominów, chłodnymi kominami hydrotermalnymi. Ostatnie badania biochemików, opisane w książce Nicka Lane’a „Pytanie o życie” [2], wskazują, że właśnie owe zasadowe kominy są tym środowiskiem, w którym na Ziemi tytułowe życie powstało. Aby bowiem mogło do tego dojść, nie wystarczy, jak już wspomniano, woda, związki chemiczne i energia. Potrzeba jeszcze czwartego elementu. W największym możliwym uproszczeniu, z chemicznego punktu widzenia, życie to proces redukcji CO2 najczęściej w wyniku reakcji z wodorem, chociaż przebiegający w sposób niekiedy niesłychanie złożony. Aby ta reakcja, jak zresztą każda inna dowolna reakcja chemiczna, mogła w sposób ciągły zachodzić, potrzebny jest, również stale się utrzymujący, gradient, czyli różnica stężenia substratów i produktów, oraz ciągły strumień energii. Potrzebny jest stan nierównowagi termodynamicznej. Ignorowanie tego wymogu spowodowało fiasko wszystkich dotychczasowych modeli powstania życia z „pierwotnego bulionu” cząsteczek organicznych, czy w innych proponowanych „pierwotnych” środowiskach pozostających jednak, tak samo jak „bulion”, w równowadze termodynamicznej. „Zupa pierwotna” rozpuszczonych w wodzie związków organicznych pozostawiona sama sobie, nie tylko, ignorując wysiłki pokoleń biochemików, nigdy żadnego życia nie stworzy, ale po jakimś czasie rozpadnie się na prostsze związki. Pierwsze prawo ekologii głosi, że „energia przepływa, materia krąży”, lecz dotyczy to dzisiejszej ziemskiej, rozbudowanej i złożonej biosfery. W samych początkach życia musiała przepływać nie tylko energia, ale również materia, a w „pierwotnym bulionie”, ani jedno, ani drugie, nie było możliwe.

Natomiast kominy serpentynitowe to zupełnie inna sprawa. Są one poprzecinane wąskimi kapilarami, przez które nieustannie przepływa ciepła, o temperaturze, 60-90 stopni Celsjusza, woda dostarczając duże ilości CO2 i H2, oraz nieustannie usuwając reagenty. W mikroskopijnych porach stężenia potrzebnych związków organicznych mogą lokalnie rosnąć ułatwiając reakcję, a jony żelaza, niklu, molibdenu i siarki, dostarczają pierwszych prymitywnych katalizatorów owe reakcje przyśpieszających. W takim środowisku faktycznie życie nie tylko mogło, ale wręcz musiało powstać. Serpentynitowe kominy hydrotermalne są znane na Ziemi, a analizując skład wyrzucanej przez Enceladusa do saturnijskiego pierścienia E materii, odkryto je także na tym niewielkim księżycu. Skoro jednak są na Enceladusie, to znaczy, że występują również w każdym innym czarnym oceanie, o zbliżonym do Enceladusa składzie chemicznym i budowie wewnętrznej. Ciepło serpentynizacji to właśnie ten dodatkowy, trzeci czynnik grzewczy, który zaburzał nam rozkład produkcji ciepła w czarnych oceanach.

Czy zatem w czarnych oceanach, daleko poza formalną granicą ekostrefy, występuje życie? Jeżeli hipoteza prezentowana przez Nicka Lane’a jest prawdziwa, a wygląda ona naprawdę solidnie, to w zasadzie można być tego pewnym. Nawet w naszym Układzie Słonecznym istnieje co najmniej kilka – kilkanaście oddzielnie powstałych i niezależnych od siebie biosfer, co nawet XVIII i XIX wiecznych entuzjastów życia na Księżycu, Jowiszu i …Słońcu właściwie mogłoby usatysfakcjonować.

Tylko że tak jakby …nie do końca.

Pojęcie „życie”, a już na pewno „życie pozaziemskie” jest bowiem bardzo nieprecyzyjne. Gdyby przeprowadzić jakiś sondaż, co mianowicie zwykle się pod tym terminem rozumie, to zapewne okazałoby się, że wygrywa skojarzenie z jakimiś „zielonymi ludzikami”, istotami świadomymi, inteligentnymi, a do tego jeszcze humanoidalnymi, w wersji skrajnej nawet używającymi ludzkich języków. Tymczasem realnie fenomen życia można, pod względem stopnia jego złożoności, podzielić na pięć, albo nawet i sześć poziomów. Pierwszy (I) z nich to proste, pozbawione jądra i bardziej skomplikowanych struktur zwanych organellami komórki prokariotyczne, bakterie i archeony. Pod względem biochemicznym są one (na Ziemi) niezwykle zróżnicowane, ale pod względem budowy i morfologii aż nudne w swojej monotonności. Drugi (II) poziom komplikacji, to eukarionty, komórki z jądrem komórkowym i innymi skomplikowanymi organellami, mitochondriami, czy chloroplastami. Przedstawicielami tego poziomu są omawiane w szkole pantofelek, czy euglena. Poziom III, to duże, makroskopowe organizmy zbudowane z oddzielnych tkanek, ze szczególnym uwzględnieniem tkanki nerwowej, które na Ziemi znane są jako zwierzęta (a w mniejszym zakresie rośliny naczyniowe). Poziom IV to istoty z bardziej rozbudowanym układem nerwowym prowadzące złożone życie społeczne, na Ziemi z grubsza odpowiadałyby by im ptaki, ssaki oraz przynajmniej część gatunków kałamarnic i ośmiornic. Wreszcie poziom piąty (V) to istoty świadome i inteligentne, czyli Homo sapiens, oraz być może jego wymarli krewniacy neandertalczycy, czy hobbici. Dodatkowy poziom VI to oczywiście szukana przez nas cywilizacja naukowo techniczna, zdolna do komunikacji międzygwiezdnej i przemieszczania się w kosmosie. Jak już wspomniano na wstępie, bardzo prawdopodobne, że istnieje tylko jedna taka we Wszechświecie, a przynajmniej w naszej Galaktyce – my sami.

Życie we Wszechświecie podzieliliśmy na kategorie pod względem poziomu komplikacji budowy i behawioru, czyli pod względem ilości zawartej w nim informacji. Informacja zaś jest, w pewnym uproszczeniu, odwrotnością parametru znanego w fizyce jako entropia, miara nieuporządkowania. Zgodnie z II zasadą termodynamiki, entropia nie może globalnie samorzutnie zmaleć, zatem aby utrzymać swój niski poziom entropii, organizmy żywe muszą, poprzez procesy metaboliczne, zwiększać entropię swojego otoczenia. Tym szybciej, im wyższy poziom komplikacji, czyli niższy entropii, same reprezentują. Odbywa się to głównie przez utratę ciepła. Im szybsza jest owa utrata, tym wyższy stopień komplikacji organizmy żywe mogą osiągnąć. Nieprzypadkowo właśnie na naszej planecie poziom IV złożoności reprezentowany jest w większości przez organizmy stałocieplne (endotermiczne), a w mniejszości przez organizmy bytujące w zimnych wodach, gdzie utrata ciepła jest znacznie niż na lądzie łatwiejsza. Proces wypychania nadmiaru entropii na zewnątrz organizmu, ten jest tym łatwiejszy, im niższa entropia w owym zewnętrzu panuje. Życie zatem może w procesie ewolucji osiągnąć tym wyższy poziom komplikacji, im środowisko w którym występuje ma niższą entropię.

Przechodząc od opisu jakościowego, do ścisłych rachunków ilościowych, wymodelujemy teraz życie na podobieństwo …maszyny parowej pana Watta. Analogia ta jest znacznie bliższa prawdy, niż mogłoby się to wydawać, bo w końcu maszyna parowa nie musi działać koniecznie na parze, ani być zbudowana z nitowanego żeliwa. Każdy inny materiał, czy czynnik roboczy też się nadaje, aby można było mówić o wyidealizowanej maszynie parowej, czyli silniku cieplnym, przerabiającym ciepło na pracę.

Zgodnie ze wspomnianą już II zasadą termodynamiki, proces taki nie jest możliwy ze 100% wydajnością. Maksymalną teoretycznie możliwą wydajność maszyny parowej osiąga się w tak zwanym cyklu Carnota (dla ciekawskich sprężanie izotermiczne, sprężanie adiabatyczne, rozprężanie izotermiczne, rozprężanie adiabatyczne). Podkreślić należy, ze sprawność cyklu Carnota nie wynika z takich czy innych braków technologicznych, lecz jest fundamentalnym ograniczeniem wynikającym z samej natury, takim samym co do zasady, jak prędkość światła, stała Plancka, czy zero bezwzględne. Tak samo jak nie da się przekroczyć prędkości światła, tak samo nie da się przerobić ciepła na pracę z większą niż w cyklu Carnota sprawnością. Owa sprawność Carnota to:

samo 07

Gdzie T1 jest temperaturą źródła ciepła (w Kelwinach), natomiast T2 to temperatura chłodnicy, otoczenia, do którego ciepło jest odprowadzane. Energia dostępna dla życia na danej planecie, niezależnie od jej pochodzenia, nigdy nie może być wykorzystana w całości, a tylko w części dopuszczonej przez powyższą zależność. Ową dostępną życiu energię, będziemy odtąd nazywać energią życiową. Jak wynika z przytoczonego wzoru, jej wielkość wynika z różnicy temperatur źródła energii i chłodnicy. Temperatura chłodnicy T2 to po prostu średnia temperatura danej planety Tp, wartość, którą już na początku tego artykułu omawialiśmy. A temperatura źródła? Dla życia ziemskiego, czerpiącego energię ze Słońca, będzie to temperatura promieniowania słonecznego – 5772 Kelwiny. Natomiast dla czarnych oceanów będzie to co najwyżej temperatura kominów hydrotermalnych, w najlepszych warunkach, dla „czarnych” wulkanicznych gorących kominów –  kilkaset Kelwinów.

Porównanie dostępnej na danych planetach energii życiowej, czy dokładniej energii życiowej na metr kwadratowy powierzchni na sekundę zamieszczono na następnym wykresie. Wartości tej energii dla czarnych oceanów zostały maksymalnie zawyżone, poprzez dołączenie do energii geotermalnej także tej resztki światła słonecznego, która do nich dociera, oraz założenie, że możliwa do wykorzystania przez procesy życiowe temperatura chłodnicy może być dowolnie niska, ograniczona od dołu wyłącznie temperaturą powierzchni danej planety.

Ekostrefa 07

Od razu na wstępie zaznaczyć musimy, że dwa obiekty z największą energią życiową na naszym wykresie, wprowadzają tylko w błąd. Zarówno Księżyc, jak i Merkury zawdzięczają swoją pozycję liderów wyłącznie temu, że są pozbawionymi hydrosfer i atmosfer gołymi skałami, czyli nie spełniają jednego z trzech „bazowych” warunków istnienia życia. Gdyby Księżyc posiadał na powierzchni ciekłą wodę i atmosferę, wyglądałby i miał takie same parametry jak Ziemia, a Merkury byłby „samowarem” gorętszym od Wenus z jeszcze wyższym niż ona albedo i współczynnikiem planetarnym P, a tym samym z jeszcze niższą energią życiową.

Po pominięciu ciał nie posiadających atmosfer, ani wody w ciekłej formie, oprócz Merkurego i Księżyca, również Ceres, możemy zaobserwować pewną znajomą tendencję. Najwyższą energią życiową (224 W/m2) cechuje się …Ziemia, wyprzedzając w tej materii swoich sąsiadów Marsa (106) i Wenus (57). I – cóż za niezwykły zbieg okoliczności! – na Ziemi właśnie istnieje życie. Jak wynika z naszego wykresu, również na Marsie i Wenus w zasadzie mogłoby ono istnieć, gdyby te planety zdołały zachować swoje zasoby wody, czyli realnie gdyby były kilkukrotnie masywniejsze niż są. Mars wielkości Ziemi, nie byłby, co prawda, o wiele cieplejszy niż teraz, ale nadal posiadałby oceany i wody powierzchniowe. Byłyby one w większości zamarznięte, ale lokalnie latem, w tropikach, czy wskutek działalności wulkanicznej, mogłyby odtajać i tym samym umożliwiać wegetację. Życie mogłoby istnieć, aczkolwiek wątpliwe jest, aby, wskutek słabszego strumienia energii (energia przepływa, materia krąży) osiągnęło większy od III poziom komplikacji.

Gorzej miałyby się sprawy na „Superwenus”. Wyglądałaby ona z grubsza jak obecna Wenus, z tym, że pod grubą warstwą chmur w wiecznym półmroku kryłby się gorący, o temperaturze kilkuset stopni, ocean. Atmosfera mogłaby być nawet mniej gęsta, część dominującego obecnie w niej CO2 byłaby bowiem rozpuszczona w wodzie i wytrącona w postaci węglanów, ale zawierając w zamian ogromne ilości pary wodnej, wywoływałaby jeszcze silniejszy, niż na Wenus obecnej, efekt cieplarniany. W świetle tego co już wiemy o serpentynizacji jako źródle życia, należy zauważyć, że choć teoretycznie życie, mogłoby w takim samowarze istnieć, to jednak nie mogłoby w żaden sposób w nim powstać! Serpentynizacja w tak gorącej wodzie po prostu w ogóle nie zachodzi, a najstabilniejszą formą związków węgla w temperaturze kilkuset stopni jest dwutlenek węgla, zatem prebiotyczne związki organiczne, prekursory życia, błyskawicznie by się do CO2 rozpadły, a właściwie w ogóle by w takiej gorącej wodzie nie powstały. Życiodajna serpentynizacja na planecie – samowarze miałaby swoją szansę tylko przez bardzo krótki czas, zanim planeta rozgrzałaby się do stanu samowara, potem okienko czasowe zostałoby na stałe zamknięte. Drugą możliwością byłoby dotarcie na taką planetę bakterii z zewnątrz, z innej bardziej przyjaznej planety, co również nie zdarza się codziennie. Tak czy inaczej planety samowary nie są lokalizacjami, gdzie życie na pewno musi występować, a jeżeli już występuje, to na niskim, nie większym niż II, stopniu złożoności.

A co z naszymi czarnymi oceanami? Tu sytuacja jest tylko nieco lepsza niż w przypadku samowarów. Warunki do powstania życia są bardzo korzystne, natomiast do jego dalszej ewolucji ku bardziej złożonym formom, beznadziejnie słabe. Materia krąży, a energia (życiowa) przepływa, ale przepływa bardzo wąziutką strużką, o dwa rzędy wielkości od ziemskiej wątlejszą. Żyjące w tamtejszych kominach hydrotermalnych czarne ekosystemy składałyby się zatem wyłącznie z prokariontów (poziom I). Ten wniosek jest w pozornej sprzeczności z tym co wiemy o ziemskim środowisku tego typu, które grupuje wokół kominów hydrotermalnych, zwłaszcza tych wulkanicznych, gorących, bardzo złożone biomy, z organizmami poziomu III włącznie, ale trzeba uświadomić sobie, że dzieje się tak tylko dzięki obecności wolnego tlenu. Wydajność oddychania tlenowego wynosi ok 40%, podczas gdy oddychanie w środowisku beztlenowym nie przekracza 1% wydajności. Dlatego tylko w środowisku natlenionym możliwe są bardziej złożone łańcuchy troficzne, zależności typu drapieżnik – ofiara i związany z tym ewolucyjny „wyścig zbrojeń”, co napędza również pozornie odcięte od energii słonecznej ekosystemy kominów. Przy pięciu ogniwach łańcucha pokarmowego ostatnie z nich ma jeszcze przy wykorzystaniu oddychania tlenem do dyspozycji 0,4^5 = 1% pierwotnej energii, podczas gdy w środowisku beztlenowym byłoby to część tylko 0,01^5 = jedna …dziesięciobilionowa. Bez tlenu drapieżnictwo zatem w ogóle się nie opłaca. Tlen zaś może powstać tylko w wyniku pozyskiwania przez procesy życiowe potrzebnych do redukcji CO2 elektronów drogą fotosyntezy z wody. A to z kolei, z uwagi na bardzo silne wiązania chemiczne spajające cząsteczki wody, wymaga energii naprawdę bardzo „wysokiej jakości” (niskiej entropii), jaką tylko światło słoneczne jest w stanie zapewnić. Czarne oceany są zatem beztlenowe, życie w nich nie przekracza poziomu I, a scena spotkania z podwodną cywilizacją z Europy, jaką uraczył widzów James Cameron w filmie „Aliens of the deep” jest czystą fantazją, nigdy nie mającą szans na realizację w praktyce.

W poszukiwaniu zatem Obcych o makroskopowych rozmiarach musimy postawić na planety typu ziemskiego, czy „superziemskiego”, czerpiących energię życiową z promieniowania macierzystej gwiazdy, niekoniecznie będącej Słońcem. Uogólnijmy zatem nasz model:

samo 05

 tak, aby obejmował również takie przypadki. W przeciwieństwie do planet, gwiazdy mogą być traktowane z bardzo dobrym przybliżeniem jako ciała doskonale czarne. Czyli ich moc promieniowania L zależy tylko od dwóch parametrów temperatury Tg i powierzchni:

samo 09

Gdzie r to promień danej gwiazdy

Po podstawieniu otrzymujemy

samo 10

Gdzie k=R/r jest odległością planety od macierzystej gwiazdy wyrażoną w promieniach tejże gwiazdy.

Stała słoneczna, czy też już raczej stała gwiazdowa, wynosi teraz

samo 11

A po uwzględnieniu kulistego kształtu planety, niezerowego albedo i sprawności termodynamicznej n otrzymujemy wzór na energię życiową danej planety, a dokładniej na energię na sekundę na metr kwadratowy, albo moc na powierzchnię:

samo 12

Energia życiowa zależy oczywiście od odległości od gwiazdy (k), ale zależy również od wysokości współczynnika planetarnego P i albedo A. Im są one wyższe, tym energia niższa. Z tego punktu widzenia, dobrodziejstwa efektu cieplarnianego, który może utrzymać ciekłą wodę na powierzchni planet, w innym przypadku, zbyt oddalonych od życiodajnej gwiazdy, są wątpliwe. Co prawda, podnosi on temperaturę, ale poprzez pogorszenie sprawności termodynamicznej, obniża energię życiową.

Mamy zatem udoskonalony, obejmujący nie jeden, jak w pierwszej, prymitywnej wersji, ale dwa parametry – temperaturę i energię życiową, model ekostrefy, możemy za jego pomocą zbadać rzeczywiste podobne do Ziemi planety, odkryte w ciągu ostatnich kilkunastu lat. Grupę najbardziej obiecujących kandydatów, o najwyższym tzw. ESI, czyli Earth Similarity Index, możemy znaleźć na stronie uniwersytetu Puerto Rico w słynnym Arecibo.

Korzystając z danych tam zamieszczonych, obliczymy temperaturę i energię życiową każdej z nich. Największy kłopot sprawi nam wyznaczenie granicy, na której planeta typu „Ziemia” zmienia się w planetę – samowar, czy w przypadku mniejszej masy, w „Wenus”. W Układzie Słonecznym Ziemia leży na izotermie (dla ciała doskonale czarnego) 5 stopni Celsjusza, a Wenus 55 stopni Celsjusza. Pomiędzy tymi izotermami następuje więc stopniowe przejście od „ziemi” do „samowara”. Mechanizm jest dość prosty. Im większa stała słoneczna, tym więcej promieniowania otrzymuje planeta, tym wyższa jej temperatura, a tym samym szybsze parowanie wód powierzchniowych. W cieplejszej atmosferze gromadzi się więcej pary wodnej – podstawowego dla planet z hydrosferą gazu cieplarnianego, oraz tworzy się więcej chmur – mających wysokie albedo i również silnie wzmacniających efekt cieplarniany. W konsekwencji im mocniej podświetlana jest planeta, tym większy jest jej współczynnik planetarny i wyższe albedo, aż do stanu zbliżonego do Wenus, choć w jej przypadku, po utracie wody, zarówno chmury, jak i gazy cieplarniane składają się z innych, cięższych niż woda, związków chemicznych. Po uwzględnieniu tego mechanizmu możemy obliczyć parametry ekostrefy dla znanych planet pozasłonecznych. Zarówno temperaturę, jak i energię życiową obliczono przy założeniu, że owe planety mają zbliżony do Ziemi skład chemiczny, w szczególności posiadają hydrosferę, oraz że mają dostatecznie dużą masę, aby wodę na swojej powierzchni, niezależnie od wysokości temperatur, utrzymać. Siedemnaście planet pochodzi ze wspomnianego katalogu, osiemnasta, ostatnia, to przypadek osobny, o którym dalej.

Ekostrefa tabela

Wyniki są znamienne. Dokładnie wszystkie planety pozasłoneczne, niezależnie od temperatur na ich powierzchniach, mają mniejszą energię życiową od Ziemi. No dobrze. Faktycznie autor musi się w tym momencie przyznać do popełnienia pewnego nadużycia. Założył on bowiem, że wraz ze wzrostem temperatury, zarówno efekt cieplarniany, jak i albedo, rosną liniowo. Tak na pewno nie jest i może się zdarzyć, że niektóre planety, zwłaszcza Kepler – 452b, oraz Wolf 1061c mogą mieć w rzeczywistości niższą, niż podana w tabeli, temperaturę powierzchni, jak również wyższą energię życiową, może nawet wyższą od Ziemi. Jeżeli nawet jednak tak by było, to różnica nie byłaby wielka, najwyżej klika watów na m2. Tak czy owak, okazuje się, że Ziemia ma najwyższą, albo jedną z najwyższych energii życiowych wśród wszystkich planet w Galaktyce. Energia życiowa może wzrosnąć znacząco powyżej tej wartości tylko dla obiektów, które i tak do życia się nie nadają –w rodzaju Księżyca, czy Merkurego. Dla planet potencjalnie życiodajnych, każde zwiększenie stałej słonecznej powyżej „ziemskiego” progu wiąże się jednak ze spadkiem energii życiowej. Czy nie ma innego sposobu na zwiększenie tej energii bez dodatkowego podgrzania planety? Teoretycznie jest. Przepiszmy jeszcze raz wzór na energię życiową, ale nieco inaczej sformułowany

samo 13

Wiemy już że nie możemy zwiększyć stałej słonecznej (gwiazdowej) F powyżej wartości typowej dla Ziemi, bez nieproporcjonalnego wzrostu zarówno wartości albedo A, jak i temperatury planety Tp. Pozostaje jednak jeszcze jedna zmienna. Temperatura gwiazdy Tg. Z zamieszczonej wyżej tabeli możemy się przekonać, że dokładnie wszystkie znane, potencjalnie życiodajne planety pozasłoneczne krążą wokół gwiazd chłodniejszych od Słońca. A gdyby trafiła się jakaś gwiazda od Słońca gorętsza? Np. typu widmowego F, o temperaturze 7000 K, albo nawet A z temperaturą 9 000 K? Taką planetą, co prawda fikcyjną, była znana z historii literatury Arrakis zwana Diuną, krążąca wokół gwiazdy Canopus. Warto zwrócić uwagę, że jej twórca, Frank Herbert już w latach 60 ub. wieku zdawał sobie sprawę, że aby jakiekolwiek życie na Arrakis było możliwe, planeta ta może posiadać na powierzchni jedynie minimalną ilość wody. Podstawiając Canopus (r = 71 promieni Słońca, T = 6998 K), oraz Arrakis (ponieważ jest prawie pozbawiona otwartych zbiorników wody, jest bardziej podobna do Marsa niż do Ziemi P = 1, A = 0,25)  do naszego modelu i umieszczając ją na izotermie 293 Kelwinów (mając mało wody może być Arrakis w związku z tym bardziej od Ziemi podgrzana), otrzymujemy parametry Tp = 293 Kelwinów (20 stopni Celsjusza) i Eż = 300 W/m2, czyli sporo więcej niż dla Ziemi. Nie należy się zatem dziwić, że ekosystem na Arrakis z jego piaskopływakami i szej-huludami jest najbardziej zdumiewający w Galaktyce i jako jedyny potrafi produkować „melanż” zwany „przyprawą”, najbardziej niezwykłą i pożądaną substancję znaną w ludzkim kosmosie.

Nieprzypadkowo jednak Arrakis jest tylko fikcją literacką. Gwiazdy jaśniejsze od Słońca, w tym Canopus, przysparzają bowiem z punktu widzenia potencjalnego istnienia wokół nich biosfery, wiele problemów. Po pierwsze jest ich w ogóle mało. Słońce czasami nazywa się w publikacjach popularnonaukowych „przeciętną gwiazdą”, ale naprawdę Słońce jest jaśniejsze od 90% gwiazd w Galaktyce. Gwiazd znacząco jaśniejszych, takich jak Canopus, typu F lub „wyżej”, jest raptem kilka procent. Po drugie widma tych jaśniejszych gwiazd są znacznie agresywniejsze, z dużo większą niż u Słońca ilością nadfioletu, który dla form życia opartych na znanej biochemii (a inna jest raczej mało prawdopodobna) jest zabójczy. Nawet na Arrakis, aby utrzymać ziemską florę w oranżerii, władcy planety musieli zainstalować specjalne filtry odcinające najbardziej energetyczną część widma Canopusa. (chociaż ustępując przed wymogami fabuły, Fremeni sadzą ziemskie rośliny pod otwartym niebem bez żadnych zabójczych dla owych roślin skutków). Na takich planetach życie lądowe jest raczej wykluczone. Wreszcie, co najważniejsze, większe, jaśniejsze gwiazdy żyją szybko i umierają młodo. Czas, jaki gwiazda spędza na tzw. ciągu głównym, świecąc w miarę równo i stabilnie, można oszacować, wiedząc, że reakcje termojądrowe w jej wnętrzu przerabiające jądra wodoru na hel i energię działają z wydajnością ok 0,7% i że gwiazda może przerobić w ten sposób ok 10% swojej masy, zanim przejdzie w kolejne stadium swojej ewolucji i opuści ciąg główny. Zatem:

samo 14

 Gdzie c to oczywiście prędkość światła, a Mg masa gwiazdy. Obliczona w ten sposób długość życia Słońca to 10,5 mld lat, Proximy Centauri 800 mld lat (w rzeczywistości dłużej, bo tak małe gwiazdy mogą w ciągu głównym zużyć znacznie więcej niż 10% swojego wodoru), natomiast Canopusa zaledwie …7,6 mln lat. Czas zatem, w jakim Arrakis nadaje się do zamieszkania jest o wiele za krótki, aby cokolwiek bardziej złożonego, nawet mając do dyspozycji wysoki poziom energii życiowej, mogło wyewoluować. Nie koniec to jednak problemów. To, że gwiazda przebywa na ciągu głównym, nie oznacza, że w tym czasie nic się z nią nie dzieje. W ciągu tego okresu temperatura, jak i promień gwiazdy, a zatem i ilość emitowanej energii również się zmieniają i to dość znacząco. Słońce staje się jaśniejsze mniej więcej o 10% na każdy miliard lat przebywania w ciągu głównym, co ma oczywiście wpływ na ziemską biosferę. W odległych epokach geologicznych, energia życiowa Ziemi, choć niekoniecznie podtrzymywana przez dużo silniejszy niż dziś efekt cieplarniany temperatura, była mniejsza niż obecnie i konsekwentnie życie ziemskie miało niski poziom komplikacji. Przez 2 miliardy lat nie przekraczało poziomu I, potem przez kolejny miliard, zwany nie bez kozery nudnym miliardem, poziomu II. Okres ten zakończony został dość nagłym zmniejszeniem się ziemskiego efektu cieplarnianego, co spowodowało serię potężnych zlodowaceń, zwanych też „ziemią śnieżką”. Współczynnik planetarny Ziemi obniżył się znacznie, zatem podniosła się też energia życiowa i tym samym ziemska biosfera mogła przejść na poziom III. Dalsze rozgrzewanie się Słońca i kolejna seria zlodowaceń (czyli zmniejszenia się P) w karbonie i permie podniosło ziemskie życie na poziom IV, wreszcie ostatnia redukcja efektu cieplarnianego i zlodowacenie plejstoceńskie na poziom V. Inteligentne istoty z poziomu V sięgnęły po inne niż fotosynteza źródła energii i rozpoczęły budowę, ledwo 200 lat temu, cywilizacji, czyli poziomu VI. Obecnie ziemski efekt cieplarniany jest bardzo niewielki i dalej już obniżony być nie może, a zatem i energia życiowa osiągnęła swoje maksimum. Dalsze podgrzewanie będzie popychać Ziemię już w stronę samowara i za miliard lat, znacznie wcześniej niż Słońce opuści ciąg główny, życie na Ziemi w ogóle przestanie być możliwe.

Powstanie zatem inteligencji (poziomu V) i cywilizacji naukowo technicznej (VI) nie są możliwe na planetach obiegających gwiazdy mniejsze i chłodniejsze od Słońca, bo poziom energii życiowej i tym samym możliwy poziom komplikacji żywych organizmów jest tam zbyt niski. Nie są jednak także możliwe wokół gwiazd większych i gorętszych, bo zmieniają się one zbyt szybko i emitują za dużo szkodliwego ultrafioletu. Zakres możliwych dla zaistnienia cywilizacji mas i jasności gwiazd jest zatem niespodziewanie wąski. Podobnie wąski jest zakres czasowy w jakim cywilizacja może powstać, nawet wokół właściwej gwiazdy. Pół miliarda lat temu nie było to jeszcze na Ziemi możliwe, za pół miliarda lat będzie już na to za późno. W dodatku, nawet przy maksymalnym obecnym poziomie Eż, przejście na poziom V i VI też nie musi być wcale automatyczne i nieuchronne. Per analogiam, o ile osiągniecie poziomu III i IV odbyło się na Ziemi w sposób polifiletyczny, czyli wiele razy niezależnie w różnych taksonach ewolucyjnych, o tyle z kolei poziom II został osiągnięty wyłącznie raz – monofiletycznie, co świadczy o tym, że sam odpowiedni poziom energii życiowej, który warunkuje też obecność tlenu w środowisku, nie wystarczy do tego celu i potrzebne były jakieś dodatkowe czynniki, których wystąpienie było mało prawdopodobne. Tak samo może być i z poziomem V, czy VI.

O ile samo życie jest więc zapewne we Wszechświecie czymś powszechnym i często spotykanym, o tyle cywilizacje muszą być ekstremalnie mało prawdopodobną odchyłką od średniej, a ich powstanie wymaga wstrzelenia się w bardzo rzadko występujące warunki. Nie należy się zatem dziwić paradoksowi Fermiego i fiasku programu SETI. To nieunikniona konsekwencja praw termodynamiki.

Oczywiście opisana zależność poziomu komplikacji od energii życiowej ma charakter statystyczny. W końcu wszystkie te wartości są wartościami średnimi, a w obrębie całej planety wartość temperatury i energii życiowej może się zmieniać w stopniu bardzo znacznym. Nie można zatem wykluczyć, że poziom komplikacji biosfery może wzrosnąć i na globach o niższej energii życiowej, o ile będzie zapewniona odpowiednia ilość czasu. Dużych zasobów tego ostatniego dostarczają gwiazdy mniejsze od Słońca, które zmieniają się znacznie wolniej i żyją znacznie dłużej. Jeżeli jednak powstanie cywilizacji na planetach czerwonego karła wymagałoby średnio np 20 mld lat, to nie należy się dziwić, dlaczego takich cywilizacji jeszcze nie ma. Wszechświat nie jest na to po prostu wystarczająco stary. Ale przecież kiedyś będzie. Jeżeli prawdopodobieństwo powstania cywilizacji faktycznie zależy, w jakimś stosunku, od poziomu dostępnej energii życiowej, to powstawanie cywilizacji byłoby wtedy podyktowane tempem ewolucji gwiazd, a nasza ziemska cywilizacja miała akurat szczęście powstać koło największej możliwej nadającej się do tego celu gwiazdy, zatem też w najwcześniejszym możliwym terminie. Ale era cywilizacji w dziejach Wszechświata jeszcze się na dobre nie rozpoczęła i dlatego, póki co, musimy cierpieć samotność.

Jeśli chcesz wiedzieć więcej, przeczytaj:

[1] Artymowicz P. „Astrofizyka układów planetarnych” Wydawnictwo naukowe PWN 1995

[2] Lane N. ”Pytanie o życie. Energia, ewolucja i pochodzenie życia” Prószyński i s-ka 2016

[3] Lane N. „Największe wynalazki ewolucji” Prószyński i s-ka 2012

[4] Weiner J. „Życie i ewolucja biosfery” Wydawnictwo naukowe PWN 2008

[5] Shu F. „Galaktyki, gwiazdy, życie” Prószyński i s-ka 2003

[6] Stocker H. „Nowoczesne kompendium fizyki” Wydawnictwo naukowe PWN 2010

[7] Kubiak M. „Gwiazdy i materia międzygwiazdowa” Wydawnictwo naukowe PWN 1994

[8] Postberg F, Tobie G., Dambeck T. „Pod morzami Enceladusa” „Świat nauki” nr 303 listopad 2016

[9] Adamczyk M. „A kosmos milczy, milczy, milczy…” Astronomia nr 28 październik 2014

[10] Adamczyk M. „Trzy kolory. Czerwony nie zmieni się w niebieski, ale biały tak” Astronomia nr 48 czerwiec 2016

Planety podobne do Ziemi:

[11] http://phl.upr.edu/projects/habitable-exoplanets-catalog

Planety pozasłoneczne

[12] http://exoplanet.eu/catalog/

[13] http://exoplanetarchive.ipac.caltech.edu/index.html

 

 

Wojna Asurów cz II

Niniejszy wpis jest kontynuacją artykułu „Wojna Asurów. 1984„, który należy przeczytać przed lekturą artykułu poniższego.

Błogosławieni ubodzy w duchu, albowiem do nich należy królestwo niebieskie.
Błogosławieni, którzy się smucą, albowiem oni będą pocieszeni.
Błogosławieni cisi, albowiem oni na własność posiądą ziemię.
Błogosławieni, którzy łakną i pragną sprawiedliwości, albowiem oni będą nasyceni.
Błogosławieni miłosierni, albowiem oni miłosierdzia dostąpią.
Błogosławieni czystego serca, albowiem oni Boga oglądać będą.
Błogosławieni, którzy wprowadzają pokój, albowiem oni będą nazwani synami Bożymi.
Błogosławieni, którzy cierpią prześladowanie dla sprawiedliwości, albowiem do nich należy królestwo niebieskie.
Mt (5, 3-10)
 
Nie sądźcie, że przyszedłem znieść Prawo albo Proroków. Nie przyszedłem znieść, ale wypełnić
Mt (5, 17)

 

Od dłuższego już czasu autora niniejszego bloga pochłania modelowanie wojen i konfliktów, zarówno w ujęciu mikro, pomiędzy jednostkami, jak i makro, pomiędzy grupami, narodami, państwami i ich koalicjami. Na ten temat powstało już wiele artykułów, (nr 1, nr 2, nr 3, nr 4, nr 5, nr 6) a badania nadal są dalekie od ukończenia. Kiedy niżej podpisany po raz pierwszy zetknął się z opisującym taki konflikt modelem, zwanym macierzą Hammersteina, był przekonany, że wyczerpie temat w jednym, góra dwóch artykułach. Tymczasem zagadnienie rozrosło się do rozmiarów bez mała doktoratu. Istnienia tak wielkiego potencjału, który, jak się okazuje, tkwi w tak prostym, zaledwie dwuparametrowym, modelu, autor w ogóle się nie spodziewał.

Szczegółowo macierz Hammersteina była omówiona w poprzednich artykułach na ten temat, teraz tylko przypomnimy zatem tylko jej ogólne założenia.

W przypadku rywalizacji o jakiś zasób o wartości V, dwie rywalizujące strony mają do wyboru przyjęcie strategii agresywnej, czyli dążenie do zawłaszczenia zasobu bez względu na roszczenia drugiej strony, albo ustępującej. Jeżeli jedna strona sporu jest agresywna a druga ustępująca, zasób przypada stronie agresywnej. Jeżeli ustępują obie strony, jest dzielony po połowie, jeżeli zaś obie są agresywne, dochodzi do starcia, w którym można, co prawda, zdobyć zasób V, ale ponosi się koszty walki o wysokości W. Szanse na wygranie starcia zależą od stosunku sił spierających się stron, oznaczonego literą X. Ponownie też przypomnieć należy, że macierz Hammersteina jest grą o sumie zerowej, w której, inaczej niż w grach o sumie dodatniej, strony nie mogą przez wspólne działanie zwiększyć puli wypłat.

Analizę modelu rozpoczęliśmy od prostego analitycznego rozwiązania, które ujawniło istnienie trzech optymalnych (w sensie Pareto) strategii. W zależności od stosunku strat do zysków oznaczonego S = W/V, oraz stosunku sił X, optymalnymi strategiami są I – bezwarunkowa agresja, II Pragmatyzm, czyli zachowanie agresywne kiedy jest się silniejszym, a ustępujące, kiedy jest się słabszym, oraz III – Legalizm, rozstrzyganie sporów w oparciu o kryteria obiektywne, u ludzi przyjmujące kształt prawa własności.

Broń 01

Jednak, co również wielokrotnie autor zaznaczał, to, że jakaś strategia jest paretooptymalna, czyli daje graczom maksymalną sumę wypłat, nie oznacza że gracze na pewno będą ją stosować. W słynnym dylemacie więźnia, optymalna jest współpraca, ale gracze wybierają zdradę. Dlatego czym innym jest optymalność, a czym innym stabilność. Również w macierzy Hammersteina, strategie długoterminowo, ewolucyjnie, stabilne, nie muszą wcale być optymalne. Co więcej, teoretycznie możliwych strategii, przynajmniej w przypadku organizmów takich jak ludzie, o bardziej rozwiniętym układzie nerwowym, może być więcej niż wspomniane cztery podstawowe (A, U, P, L). W kolejnych artykułach dodawaliśmy kolejne strategie i za pomocą symulacji komputerowej, badaliśmy, które z nich są stabilne ewolucyjne dla danych wielkości parametrów (S, X). Zgodnie bowiem z twierdzeniem Nasha, przy dopuszczeniu strategii mieszanych, jakaś równowaga w naszej grze musi istnieć. Okazało się, że krajobraz przestrzeni fazowej takich równowagowych stabilnych ewolucyjnie strategii, jest bardzo bogaty, skomplikowany i odmienny od pierwszego analitycznego rozwiązania. Za jego pomocą, symulując interakcje 10 strategii, udało się wyjaśnić przykładowo genezę I i II wojny światowej, co opisano w artykule „Wojna Asurów”. Wojny te, ze względu na swoją ewidentną bezsensowność, gigantyczne koszty materialne i ludzkie, oraz brak faktycznych zwycięzców, co zresztą precyzyjnie przewidziano na długo przed ich wybuchem, opierały się wcześniej racjonalnej analizie i sprawiały wrażenie wydarzeń przypadkowych, absurdalnych, idącej pod prąd naturalnego biegu rzeczy, fluktuacji statystycznej. Okazuje się jednak, że taka, zwana właśnie „Wojną Asurów” agresywna faza, w rozwoju dowolnej cywilizacji (także pozaziemskiej!), dokonującej rewolucji przemysłowej i przejścia demograficznego, czyli osiągającej parametr S>1, jest naturalną konsekwencją rozwiązań macierzy Hammersteina, czyli wynika wprost z praw przyrody. Tą niebezpieczną przestrzeń na naszej mapie ochrzciliśmy mianem „Grzbietu Pragmatyzmu”, od rodzaju dominujących na tym obszarze strategii.

No, ale nawet 10 strategii rozważanych w poprzednim artykule, to jednak bynajmniej nie wszystkie. Ile ich w ogóle jest możliwe? Mechanizm generowania strategii w macierzy Hammersteina, zaproponowany został przez usera „kmat”, który tym samym stał się w jakiejś części współautorem tego eseju, i wygląda następująco:

Każda strategia składa się z dwóch części. Fazy początkowej, czyli deklaracji i reakcji na strategię zastosowaną przez oponenta. Jeżeli w odpowiedzi na deklarację przeciwnik przyjmie postawę ustępującą, strategia pozostaje niezmieniona, czyli reakcja równa się deklaracji. Jeżeli przeciwnik będzie agresywny, strategia się zmienia. W tym sensie „podstawowe” strategie A, U, P, L stają się strategiami AA, UU, PP, LL, a wszystkich możliwych kombinacji jest 4*4, czyli 16:

Cztery omówione wyżej strategie podstawowe (A, U, P, L),

Trzy strategie chojrackie (AU, AP, AL), zaczynające od postawy agresywnej, a w przypadku adekwatnej odpowiedzi w różnym stopniu podwijające ogon pod siebie.

Trzy strategie mścicielskie (UA, UP, UL) zaczynające od ustępstw, a przy agresywnej odpowiedzi, same stające się agresywne.

Trzy strategie pragmatyczne (PA, PU, PL), w tym, nazwany tak przez kmata, „berserk” (PA)

Trzy strategie legalistyczne (LA, LP, LU).

16 strategii oznacza, że macierz wypłat liczy teraz 256 pozycji, która to liczba pokazuje skalę trudności całego przedsięwzięcia.

Ponownie należy w tym miejscu zaznaczyć, że stabilne społeczeństwo może istnieć tylko wtedy, jeżeli unika wyniszczających wzajemnych walk, czyli w tych obszarach, w których strategie, mogą sobie może nawet i grozić, ale nie atakują się nawzajem i uznając jakieś elementarne reguły praworządności, nie opierają się tylko na nagiej sile, jak strategie P. Z tego punktu widzenia można podzielić wszystkie strategie na „miłe” (U, L, AU, AL, UA, UP, UL, PU, PL, LU) i „niemiłe” (A, P, AP, PA, LA, LP). Na poniższej mapie (jej obliczenie zajęło komputerowi kilka godzin pracy – proszę to docenić) przestrzeni fazowej pokazano krajobraz strategii niemiłych. Jest to krajobraz „pierwotny”, czyli nie uwzględniający efektów drugorzędowych, o których później.

Asur 11

W porównaniu do, prezentowanego w poprzednim artykule, krajobrazu dla 10 strategii, zaszły w nim pewne zmiany. Przede wszystkim poszerzyła się Mściwa Zatoka, sięgając teraz znacznie bardziej na wschód. Dawny groźny sprawca Wojny Asurów, Grzbiet Pragmatyzmu, również przemieścił się w tym samym kierunku i rozpadł się na Archipelag Pragmatyzmu. Na południe od Morza Legalizmu wyrosła za to nie archipelag Wysp Nieszczęśliwych, ale cała Ściana Nieszczęścia. Każdy z tych obszarów ma swój zestaw ewolucyjnie stabilnych strategii, które przedstawiamy na kolejnym wykresie.

Asur 12

I w tabeli:

  Ziemia Agresorów Mściwa Zatoka Archipelag Pragmatyzmu Morze Legalizmu Ściana Nieszczęścia
A 68,7% 1,5% 0,2% 0,0% 0,0%
U 0,1% 2,7% 0,3% 0,3% 0,4%
P 0,6% 1,9% 58,5% 0,1% 50,5%
L 0,5% 1,8% 0,2% 48,1% 0,1%
AU 0,1% 0,3% 0,9% 0,9% 1,0%
AP 0,7% 0,5% 31,3% 0,1% 2,2%
AL 0,2% 0,5% 0,5% 48,2% 0,2%
UA 2,5% 74,8% 0,1% 0,1% 0,0%
UP 0,2% 6,0% 0,5% 0,1% 0,5%
UL 0,4% 3,7% 0,2% 0,7% 0,1%
PA 21,6% 2,3% 0,3% 0,2% 0,1%
PU 0,2% 0,3% 0,9% 0,4% 1,7%
PL 0,3% 0,6% 0,6% 2,3% 0,3%
LA 5,3% 3,9% 0,3% 0,2% 0,0%
LU 0,1% 0,4% 0,3% 0,9% 0,4%
LP 0,5% 1,4% 6,8% 0,1% 45,1%

Podobnie jak w przypadku 10 strategii, także i teraz obszary pragmatyczne (Archipelag i Ściana) są wrażliwe na efekty drugorzędowe. Strategie bazujące na pragmatyzmie wymagają bowiem precyzyjnej i dokładnej informacji o faktycznym poziomie siły własnym i przeciwnika, co realnie, zwłaszcza na Ścianie, przy X bliskim 0,5 jest bardzo trudne do osiągnięcia. Zwłaszcza, że każdy stosujący tą strategię usiłuje się nadymać, odgrażać i na wszelkie sposoby wydawać silniejszym niż jest naprawdę, aby skłonić przeciwnika do przyjęcia postawy ustępującej. Pragmatyzm wiąże się więc z dodatkowymi, nie uwzględnionymi w podstawowej wersji modelu, kosztami. Po ich uwzględnieniu, Ściana i Archipelag zostają znacznie zredukowane, a mogą nawet zniknąć bez śladu. Wychodzi więc na to, że przebycie Archipelagu Pragmatyzmu może być łatwiejsze niż początkowo przypuszczaliśmy, a Wojna Asurów wcale niekoniecznie musi wybuchnąć, jeżeli odpowiednio wcześnie uda się zbudować efektywny system prawa międzynarodowego, który będzie, choćby tylko w niewielkim stopniu, faworyzował legalizm kosztem pragmatyzmu. Tym bardziej w stosunkach wewnętrznych, wysoka jakość instytucji prawnych, proste i zrozumiałe kodeksy, sprawny i nieskorumpowany system wymiaru sprawiedliwości, umożliwiają społeczeństwu przebycie obszaru pragmatycznego bez popadania w dyktaturę, czy wręcz totalitaryzm. Na Ziemi w latach 1914-1945 uniknęły tego niebezpieczeństwa właśnie kraje o najwyższym poziomie praworządności, jak Szwajcaria, Benelux, kraje skandynawskie, czy anglosaskie. Dyktatury uniknęła Francja, ale nie bardziej od niej skorumpowane Włochy. Ciekawy wyjątek stanowią Niemcy, kraj praworządny o niskim poziomie korupcji, ale który, pomimo tego popadł w totalitaryzm porównywalny z rosyjskim. Stało się tak zapewne dlatego, że niemiecki Rechtstaat nie był, inaczej niż systemy anglosaskie, nastawiony na ochronę praw własności, czyli nie faworyzował legalizmu w dostatecznej skali.

Nasz ukompletowany model z 16 strategiami ma jednak jeszcze jedną ciekawą cechę. Przedstawione wyżej strategie ewolucyjnie stabilne są stabilne globalnie, dla warunków początkowych, które przypisują wszystkim strategiom tą samą szansę na pojawienie się. W rzeczywistości jednak, społeczność która wkracza na dany obszar naszego krajobrazu, wkracza na niego z zestawem strategii typowym dla obszaru sąsiedniego. A wtedy wynik może okazać się inny. Mogą pojawić się stabilności lokalne. Na warunki początkowe, jak się okazuje, nie jest wrażliwa Ziemia Agresorów, Mściwa Zatoka i Morze Legalizmu. Wrażliwe są jednak obszary pragmatyczne. Można do nich dotrzeć albo od strony strategii mścicielskich, albo legalistycznych, czyli, tak czy owak, od strategii miłych. Krajobraz wtedy, nawet bez osłabiania strategii pragmatycznych, zmienia się znacząco.

Asur 13

Ponownie zawęża się Mściwa Zatoka, a jej wschodnia granica przebiega teraz dokładnie wzdłuż obliczonej teoretycznie granicy pomiędzy strefami II i III w rozwiązaniu analitycznym. Archipelag Pragmatyzmu chowa się pod wodę i redukuje się do kilkunastoprocentowych wkładów do miłych, poza tym, strategii mieszanych. W tych warunkach przejście od typowych dla społeczeństw preindustrialnych, maltuzjańskich, strategii mścicielskich, do industrialnego i postindustrialnego legalizmu wydaje się łatwe i bezproblemowe. I będzie takie, o ile zostanie zachowana owa lokalna równowaga. Strategie miłe na terenach pragmatycznych są skuteczne tylko wtedy, kiedy są w większości. Wystarczy jednak jakiekolwiek losowe zaburzenie układu, aby na wierzch wypłynęły stabilne globalnie strategie pragmatyczne. Proces ten może zaś przebiegać bardzo gwałtownie, przyjmując postać krwawych przewrotów i rewolucji. Dodatkowo, ponownie należy przypomnieć, że zmiany parametru S = W/V, które kształtują krajobraz Hammersteina, same nie są bynajmniej od tego krajobrazu niezależne. S nie może trwale rosnąć w obrębie strategii niemiłych, zatem taka nagła eksplozja pragmatyzmu, nie tylko może zatrzymać cywilizację w rozwoju, ale wręcz cofnąć ją do stanu maltuzjańskiego, preindustrialnego.

A co w takim razie z przyszłością? Czy nadal czeka nas Jęzor Zemsty i powrót do honorowych zasad rozstrzygania sporów? Oto zatem strategie mścicielskie (UA, UP, UL) dla wysokich S

Asur 14

Chociaż teraz Jęzor Zemsty się zdecydowanie wyciągnął w stronę wyższych S i przestał być tak spoisty jak w poprzedniej wersji, to jednak nadal istnieje. Co więcej, w przeciwieństwie do obszarów pragmatycznych, wydaje się niewrażliwy na warunki początkowe. Dokładny skład stabilnej strategii w obrębie Jęzora, przedstawia wykres:

Asur 15

Kiedy zatem zauważymy w naszym społeczeństwie jego oddziaływanie? Kiedy do łask wrócą zachowania i strategie oparte na honorze?

Jeżeli chodzi o stosunki międzynarodowe, to obecnie wymiana handlowa między najbardziej rozwiniętymi krajami sięga kilkukrotności ich PKB. Zysk zaś, jakie ewentualnie mogłyby osiągnąć one z wojny, nie jest większy niż kilka,  kilkanaście procent PKB. Podobnie jest na poziomie indywidualnym. Potencjalny zysk z grabieży w najbogatszych społeczeństwach jest na poziomie tygodniowego zarobku robotnika wykwalifikowanego. Wynika z tego, że współczynnik S jeżeli jeszcze nie osiągnął 100, to wkrótce to uczyni. Pierwszych objawów powrotu Mścicieli, o ile cała nasza teoria jest adekwatna, powinniśmy się zatem doczekać w ciągu kilkunastu – kilkudziesięciu najbliższych lat.

Jednak na tym wcale nie koniec. Jak do tej pory, zmiany wprowadzone w naszym modelu przez rozszerzenie go do 16 strategii nie były w sumie duże i wyłącznie ilościowe. Pojawiła się jednak także, bardzo istotna, zmiana jakościowa, całkowicie zmieniająca wymowę modelu. W poprzedniej wersji, dla S>500 wkraczaliśmy w obszar chaotyczny, w którym każda strategia była właściwie jednakowo prawdopodobna. Jednak dodanie kolejnych strategii ustabilizowało układ i obszar chaotyczny, chociaż nadal istnieje, to jest jednak stosunkowo mały i wąski. Od S równego mniej więcej 500 zaczyna się nowa strategia ewolucyjnie stabilna. Strategia, której, jako żywo, nigdy się niżej podpisany w tym miejscu nie spodziewał. A przecież, myśląc logicznie, powinien.

Dla tak wysokiego S bowiem, każda jawna konfrontacja, jest istną katastrofą. A przecież, nawet w takim społeczeństwie, niemiłe mutacje nadal się pojawiają. Oczywiście od razu z kretesem przegrywają, ale ich zwalczanie również staje się coraz bardziej kosztowne. W tej sytuacji najbardziej opłacalne staje się demonstrowanie postawy agresywnej …wyłącznie w sposób symulowany i ucieczka, kiedy tylko zaistnieje jakiekolwiek ryzyko realnej konfrontacji. Dla S>500, właściwie niezależnie od poziomu X, prawie absolutną, 98% frekwencję, zdobywają zatem …chojracy (AU). Zmuszeni ponosić rosnące koszty czyszczenia populacji z niemiłych mutacji legaliści (L, AL) znikają definitywnie z populacji. Zdolni normalnie chojraków poskromić mściciele (UA, UP, UL) z tych samych względów nie mogą się w niej pojawić. A agresywne mutacje A i P, nawet występując w bardzo mikrym odsetku, wykańczają się same. I tak cywilizacja kosmiczna, bo chyba o takiej możemy mówić przy S rzędu tysięcy, staje się Kosmicznymi Chojrakami. Tym samym staje się niezdolna do dalszego rozwoju i utyka na tym etapie, gdzieś w okolicach I stopnia klasyfikacji Kardaszewa.

Na szczęście i na Kosmiczne Chojractwo znajdziemy lekarstwo. Chojracy bowiem mogą wyprzeć legalistów, o czym już wspominaliśmy w poprzednich artykułach, tylko wtedy, kiedy spotkanie dwóch chojraków jest matematycznie nieodróżnialne od spotkania dwóch legalistów, co nasz model w pierwszym przybliżeniu zapewnia. Jednak bardziej subtelna analiza wskazuje, że to założenie, zwłaszcza przy tak wysokich S, nie może być spełnione. Spotkanie dwóch legalistów to spotkanie strategii agresywnej z ustępującą. Spotkanie dwóch chojraków to, chociaż tylko deklaratywne, ale jednak zderzenie dwóch agresji. Owszem, najczęściej będzie tak, że któryś chojrak spęka jako pierwszy i ucieknie, ale nie można zaniedbać możliwości, że do konfliktu, na tym poziomie z użyciem laserów tachionowych i miotaczy antymaterii, może w takich okolicznościach dojść czystym przypadkiem, a wtedy koszty W będą gigantyczne. Nawet jeżeli prawdopodobieństwo takiego obrotu rzeczy nie jest duże, to pomnożone przez gigantyczne W daje całkiem pokaźną wartość oczekiwaną, dodatkowym kosztem obciążającą strategie chojrackie. Po uwzględnieniu tego efektu chojracy zdecydowanie stają się ostrożniejsi i dominację zyskuje strategia chojraka pragmatycznego – PU. Jednak pragmatyzm, jak już wspomniano, również wiąże się z dodatkowymi kosztami związanymi z prawidłową oceną wzajemnego poziomu sił. Po osłabieniu nie tylko chojraków, ale i pragmatyków, również ostrożniejsi chojracy znikają w niebycie. A co zostaje?

Niżej podpisany spodziewał się, że cywilizacja będzie ewoluować w stronę strategii Jezusa, czyli wzajemnych ustępstw U, jako strategii najbardziej optymalnej. Niestety, chaos panujący w poprzednim rozwiązaniu dla S>500 uniemożliwił mu sprawdzenie tej ewangelicznej hipotezy. Jednak teraz obszar chaotyczny, jak już wspomniano, został znacznie zredukowany. Ostatni wykres pokazuje ostateczny los konfliktów w rozwiniętej cywilizacji galaktycznej:

Asur 16

Galaktykę ostatecznie odziedziczą Cisi, czyli strategia LU. Jedynie w wąskim pasie północnym, dla bardzo wysokich X utrzymuje się nadal strategia L (ale już nie AL). Nie jest to dokładnie to, czego autor oczekiwał, ale dostatecznie blisko, aby odczuwać satysfakcję. Jest to Jezus uzupełniony o prawo. Jezus – legalista.

Wojna Asurów 1984

80 milionom trzeba dać to, co im się należy.
Ich egzystencja musi zostać zabezpieczona. Silniejszy ma rację.
Adolf Hitler
 
Tam, gdzie stanie żołnierz radziecki, tam już jest Związek Radziecki.
Józef Stalin
 
Wojna to pokój
George Orwell

Niniejszy artykuł nawiązuje do poprzednich wpisów „Ludzie honoru i słudzy prawa” oraz „Mściciel, Legalista, Jezus„. Zaleca się przeczytanie ich przed lekturą artykułu niniejszego

Kim Stanley Robinson, amerykański pisarz, literacko średni, ale obdarzony niezwykle potężną siłą wyobraźni, najbardziej znany jest jako autor tzw. trylogii marsjańskiej i w ogóle dzieł opisujących hipotetyczną przyszłość ludzkiej cywilizacji. Zdarzyło mu się jednak także popełnić, wydaną w Polsce w roku 2007, powieść „Lata ryżu i soli”, będącą tzw. historią alternatywną. Jak przystało na Robinsona, wizja ta została przedstawiona z niezwykłym rozmachem, a zarazem w sposób niesłychanie drobiazgowy i głęboko przemyślany, co też sprawia, że dla czytelnika historia ta wygląda wyjątkowo wiarygodnie.

Punktem wyjścia dla fabuły jest epidemia „Czarnej śmierci” z XIV wieku, która u Robinsona była jeszcze straszniejsza niż w historycznej rzeczywistości i która doprowadziła do zagłady praktycznie całej populacji Europy. W rezultacie zachodnia Christianitas przestała istnieć, a powstałą próżnię zapełniły cywilizacje chińska, indyjska i muzułmańska. Alternatywna historia tego dziwnego świata jest niesłychanie intrygująca i wielokrotnie zaskakująca, jednak jej autor, ze względu na żywione przez siebie prokomunistyczne sympatie, nie potrafił zerwać do końca z marksistowskim determinizmem. Otóż pomimo braku kręgu kulturowego, który w historii rzeczywistej przez kolejne kilkaset lat przodował cywilizacyjnie na planecie, tempo rozwoju naukowego, technologicznego i cywilizacyjnego, jest u Robinsona dokładnie takie samo jak w historii rzeczywistej, tylko główni tegoż rozwoju liderzy są inni. Nie zadaje sobie Robinson podstawowego pytania, dlaczego nauka, technika, gospodarka i w końcu rewolucja przemysłowa rozwijały się w obrębie Christianitas, a w innych zakątkach świata jakoś nie i w takim razie dlaczego miałyby się nadal, w niezmienionym tempie, rozwijać, gdyby Christianitas zabrakło.

W konsekwencji tego marksistowskiego determinizmu, także u Robinsona dochodzi do swoistego powtórzenia wojen światowych z pierwszej połowy XX wielu, z tą tylko różnicą, że przyjmują one postać jednej potężnej „Wojny Asurów”, również, tak samo jak w historii rzeczywistej, rozstrzygniętej przez interwencję państwa leżącego w Ameryce Północnej. Tak daleko posunięta zbieżność przekroczyła już zdolność niżej podpisanego do zawieszenia niewiary i została przez niego potraktowana jako bardzo poważny zgrzyt w znakomitej, poza tym, powieści.

Jeszcze całkiem do niedawna, uważał on bowiem, że okres 1914-1945 (1989 – kiedy zniknęły ostatnie ślady tego wydarzenia) był swoistą aberracją historyczną, mało prawdopodobną fluktuacją statystyczną, która równie dobrze, albo i lepiej, wcale nie musiała się wydarzyć. Argumenty, przytoczone już w artykule „Miecze na lemiesze”, w tym obliczenia przeprowadzone na długo przed wybuchem Wojny Asurów przez Jana Blocha, wydawały się niepodważalne. Pewne poszlaki, sugerujące, że Wojna Asurów była czymś więcej, niż tylko przypadkową fluktuacją wynikłą z kumulacji wielu różnych błędów, jednak istniały. Okres 1914-1945 to bowiem nie tylko konflikt militarny. Zaznaczył się on też bardzo wyraźną i znaczącą transformacją technologiczną, widoczną nawet w przebiegu antropogenicznych emisji CO2 do ziemskiej atmosfery. Ostatnio wpadła też w ręce autora tego artykułu nieco kuriozalna książka „Kapitał w XXI wieku”, w której autor, Thomas Piketty, obok czasami żenujących, dziecinnych wręcz błędów merytorycznych i dawaniu upustu swoim ideologicznym frustracjom, przedstawił też całkiem ciekawe badania dotyczące zmian wielkości tytułowego kapitału na przestrzeni dziejów. I znów okazało się, że opisywany przez Pikettego wskaźnik, tzw. stosunek kapitału do dochodu, bardzo stabilny do początku XX wieku, doznał nagłego załamania właśnie w okresie 1914-1945 i dopiero całkiem niedawno, około roku 2010, wrócił do swojego naturalnego poziomu sprzed Wojny Asurów.

Czyżby rację miał w tej materii jednak Robinson? Czym zatem była Wojna Asurów i jakie były jej przyczyny, jeżeli w ogóle jakieś były?

Przekonanie o przypadkowości tego wydarzenia, wywiódł autor z, opisującego strategie konfliktu modelu matematycznego noszącego w teorii gier nazwę macierzy Hammersteina, bardziej szczegółowo opisanego w poprzednich artykułach na ten temat. (nr 1, nr 2, nr 3, nr 4,) Model ten, w najprostszej wersji, ma trzy rozwiązania. W zależności od kombinacji parametrów macierzy, konkretnie stosunku strat do zysków z konfliktu (S), oraz stosunku sił spierających się podmiotów (X), istnieją w jego przestrzeni fazowej trzy strefy. Przy niskich wartościach S<1 i w miarę wyrównanych siłach (X bliskie 0,5) najbardziej opłaca się agresja (A), bo straty z tytułu przegranej walki są niskie w stosunku do zysków z, choćby i mało prawdopodobnej, wygranej. Przy większej różnicy w sile i/lub wyższych S najbardziej opłaca się być agresywnym kiedy jest się silniejszym, a ustępować kiedy jest się słabszym, co nazwaliśmy strategią Pragmatyka (P). Wreszcie, przy dostatecznie wysokim S triumfuje strategia legalisty (L), czyli rozstrzygania sporu bez walki, w oparciu o jakieś kryteria obiektywne, w przypadku ludzi – prawo, stanowione, bądź przynajmniej zwyczajowe.

Broń 01

Jednak uwzględnianie tylko tych trzech strategii może być uzasadnione w ekologii, skąd ten model się wywodzi, kiedy bada się zachowania owadów, lub, co najwyżej, żab. Organizmy o bardziej złożonym układzie nerwowym mogą jednak stosować strategie bardziej złożone. Już możliwe zastosowanie dwóch tylko dodatkowych strategii, chojraka (C), który jest agresywny wobec strategii ustępujących i ustępujący wobec agresywnych i mściciela (M) ustępującego ustępującym i agresywnego wobec agresywnych zmienia rozwiązanie modelu diametralnie. Co prawda wymienione na wstępie strategie A, P i L nadal pozostają optymalne, tzn. dające ich użytkownikom w danej strefie maksymalne korzyści, ale większa pula możliwości sprawia, że stają się one niestabilne, podatne na inwazję innych strategii i znikają z populacji. Symulacje komputerowe wykazują, że, we wszystkich trzech strefach, ewolucyjnie stabilna okazuje się, wbrew intuicji, strategia M. Nie jest ona wprawdzie optymalna, ale jest odporna na inwazję wszystkich innych możliwych kombinacji stosowanych strategii. Ale przecież i tak rozszerzona paleta możliwych strategii wcale nie jest kompletna. Zwiększając poziom komplikacji układu o kolejne strategie,

– Chojrak Pragmatyk (CP) – zaczynający agresywnie, a w przypadku spotkania się z oporem, przechodzący do Pragmatyka

– Chojrak Legalista (CL) – jak wyżej, tyle że stosujący strategię Legalisty

– Mściciel Pragmatyk (MP)  – zaczynający od ustępstw, i przy agresywnej odpowiedzi przechodzący do pragmatyzmu

– Mściciel Legalista (ML) – przechodzący do legalizmu.

znów zmieniamy przestrzeń fazową rozwiązań. W artykule „Mściciel, Legalista, Jezus” przebadaliśmy ją punktowo, dochodząc do wniosku, że, w nieco okrojonej strefie III ponownie stabilizują się strategie legalistyczne, mieszanka L i CL, poza tą strefą stabilna pozostaje strategia M, a przy odpowiednio wysokich X, wygrywa tą rywalizację strategia A, a także, że istnieją jeszcze swoiste „wyspy”, na których stabilne ewolucyjnie strategie znacznie różnią się od obszarów je otaczających.

W każdym bądź razie, społeczeństwa, także międzynarodowe, znajdujące się w głębi strefy III, mogły się nawet i odgrażać, nadymać i grozić, (strategia CL), ale w końcu powinny być wysoce praworządne a wszelkie spory rozstrzygać na drodze prawa, w tym przypadku międzynarodowego. To, że układ międzynarodowy, przynajmniej w Europie, już na długo przed 1914 rokiem cechował parametr S>1, czyli że koszty i straty poniesione w trakcie ewentualnej wojny zdecydowanie przewyższały możliwe do osiągnięcia korzyści, obliczył już w swojej znakomitej pracy „Przyszła wojna” Jan Bloch. System wzajemnych sojuszy Trójprzymierza (przyszłych państw centralnych) i Trójporozumienia (przyszłej ententy) gwarantował zrównoważenie sił, czyli odpowiednio niski poziom X. Ewidentnie była to już strefa III, legalistyczna. A jednak…

Żeby zbadać, co się wtedy faktycznie stało, wróćmy do naszego krajobrazu fazowego Hammersteina. Jest on, o czym wspomnieliśmy wyżej, złożony i zróżnicowany i dobrze by było obejrzeć go nie punktowo, jak w poprzednim artykule, ale w całości. Stworzenie mapy tego krajobrazu było zadaniem nie tyle nawet trudnym koncepcyjnie, ile niesłychanie wręcz, zwłaszcza dla komputera, pracochłonnym. Po raz pierwszy w historii niniejszego bloga, czas pracy komputera obliczającego żmudnie kolejne iteracje na tworzonej mapie, przekroczył, i to znacznie, czas pracy ludzkiego tutejszych artykułów autora. Koniec jednak wieńczy dzieło i można wreszcie takowe mapy przedstawić. Dla uproszczenia podzieliliśmy nasze 10 strategii na dwie grupy. Pierwsza z nich to strategie miłe, które, może czasami nawet i pogrożą (CL), ale na pewno nie zaatakują pierwsze bez powodu. Są to U, M, MP, ML, L i CL. Druga grupa to strategie niemiłe, czyli A, C, P, CP. Na pierwszej mapie, obejmującej zakres X od 0 do 0,5 i S od 0 do 10, pokazano występowanie strategii niemiłych.

Asur 01

Jak widać, wynik jest zupełnie inny, niż wynikałoby to tylko z prostego rozwiązania analitycznego. Strategie niemiłe grupują się w trzech wyróżnionych obszarach, mało mających wspólnego z dawną strefą I i II. Na północnym zachodzie mamy Ziemię Agresorów, ze zdecydowanie królującą tu strategią A. Jedynie na skrajnej północy, przy X zbliżonym do jedności, gdzie zaciera się granica między agresją i pragmatyzmem, występują też strategie pragmatyczne. Z Ziemi Agresorów wychodzi półwysep nazwany Grzbietem Pragmatyzmu, w pewnym przybliżeniu leżący na pograniczu stref II i III. Dominują tu, jak sama nazwa wskazuje, strategie pragmatyczne, P i CP, ale z poważnym udziałem strategii A, rosnącym w miarę przesuwania się z południa na północ. Na dalekim południu, przy X=0,5 dla S>2 znajdziemy archipelag Wysp Nieszczęśliwych, tym razem już czysto pragmatycznych. Wyspy te leżą na Morzu Legalizmu, z jego miłymi, legalistycznymi strategiami L i CL. Morze to pokrywa się w większości ze strefą III, bez jej zajętego przez Grzbiet Pragmatyzmu północno-zachodniego pogranicza ze strefą II. Dla X = 0,5, tak samo jak na dalekiej północy, zanika różnica pomiędzy strategiami pragmatycznymi i legalistycznymi, i stąd też obecność pragmatyków w tym rejonie. Grzbiet Pragmatyków od Ziemi Agresorów oddziela Mściwa Zatoka, której istnienie warunkowane jest przez dominację strategii mścicielskich M, MP, i ML. Warto zwrócić uwagę, że granice między strategiami miłymi i niemiłymi są ostre i wyraźne. Prawie wszystkie wybrzeża na naszej mapie mają charakter klifowy, a obszary gdzie te grupy strategii współwystępują są bardzo nieliczne. Jeśli zatem już wlazłeś już między wrony, musisz krakać tak jak one. Nie da się być miłym w niemiłym towarzystwie i na odwrót.

Oczywiste jest, że, jeżeli społeczność, także międzynarodowa, ma w miarę stabilnie bytować i prosperować, musi znajdować się w obrębie strategii miłych. Istnieją na mapie dwa takie miejsca. W pierwszym z nich, Mściwej Zatoce, spory rozstrzyga się według zasad honorowych, a pokój utrzymuje się za pomocą odstraszania, demonstrowania chęci i możliwości rewanżu i groźby odwetu. Obszar ten odpowiada z grubsza społeczeństwu w którym nie doszło jeszcze do rewolucji przemysłowej, społeczności maltuzjańskiej, w którym S<1 i V>W, czyli zyski z wygranej wojny zdecydowanie przewyższają straty jakie można w niej odnieść. W samym południowo – zachodnim narożniku mamy łowców zbieraczy, plemiona o tak niskim S, że nawet niewielkie zaburzenie równowagi sił X przenosi je na Ziemie Agresorów powodując wybuch przemocy i agresji. Nieprzypadkowo są to najbardziej wojownicze i agresywne społeczności w ludzkiej historii. Ludy rolnicze są przesunięte nieco w prawo, zatem i bardziej pokojowo nastawione, ale maltuzjanizm nie pozwala im na trwały wzrost dobrobytu, mierzonego PKB per capita, i tym samym utrzymuje ich S poniżej jedności. Społeczeństwa maltuzjańskie mogą jednak żyć w pokoju, kołysząc się na falach Mściwej Zatoki, dopóki panuje wśród nich względna równowaga. Jeżeli jednak X za bardzo wzrośnie, albo potencjalny łup V jest wyjątkowo atrakcyjny (a tym samym S stanie się wyjątkowo niskie), układ przemieszcza się na Ziemię Agresorów i dochodzi do wojny. Z okresów historycznych, z których mamy dużo źródeł pisanych, wiadomo, że główną troską maltuzjańskich dyplomatów przy zawieraniu traktatów pokojowych, było właśnie zapewnienie równowagi sił, bo tylko niski poziom X gwarantował pokój.

Maltuzjanizm rządził ludzką cywilizacją przez prawie 10 tysięcy lat i tyleż też pozostawała ona w Mściwej Zatoce, od czasu do czasu prowadząc wojny na Ziemi Agresorów. Ale w końcu, na przełomie XVIII i XIX wieku maltuzjanizm się skończył, nastąpiła rewolucja przemysłowa, i wreszcie, w wyniku rozwoju technologicznego i organizacyjnego, zaczął rosnąć nie tylko PKB, ale i PKB per capita. Konsekwencje tego cywilizacyjnego przejścia fazowego były na naszej mapie znaczące. Bogacące się społeczeństwo miało coraz więcej do stracenia, zatem współczynnik S przebił wreszcie poziom 1 i cały układ rozpoczął dryf w prawo.

Pierwszym rezultatem tego procesu było oddalenie się od przeklętych klifów Ziemi Agresorów. Okres 1815-1914 był najspokojniejszy i najbardziej pokojowy w dotychczasowych dziejach Europy. Z wolna narastało więc przekonanie, że tak już będzie zawsze. Sukces czytelniczy, jaki odniósł Jan Bloch, szczegółowo, ilościowo pokazując, że na przełomie XIX i XX wieku S jest już znacznie większe od jedności i wojna stała się kompletnie nieopłacalna, pokazuje, że idealnie trafił on w oczekiwania opinii publicznej. Tego, że układ dryfuje prosto na ukryty we mgle przyszłości Grzbiet Pragmatyzmu, nikt nie zauważał. Aż w końcu, na początku wieku XX ludzkość znane sobie doskonale wody Mściwej Zatoki opuściła.

W tym miejscu przerwijmy chwilowo narrację historyczną i zastanówmy się, dlaczego społeczeństwo z pierwszej polowy XX wieku, o S>1 i odpowiednio niskim X, czyli takie, w którym zgodnie z macierzą Hammersteina, agresja nie opłaca się już żadnej ze stron konfliktu, może w ogóle być pragmatyczne, a nawet agresywne, ale jeszcze nie legalistyczne, wbrew temu, co analityczne rozwiązanie macierzy Hammersteina przewiduje. W odpowiedzi na to pytanie pomoże nam kolejna mapa, pokazując stabilny ewolucyjnie rozkład strategii U – bezwarunkowo zawsze ustępującej.

Asur 02

Strategie mścicielskie, którym Mściwa Zatoka zawdzięcza swoją nazwę, praktycznie nigdy nie występują samotnie. Korzystając z ich ochrony, w tej samej strefie mogą egzystować w pewnej liczbie właśnie strategie U. Ich udział rośnie od zera na wybrzeżu Ziemi Agresorów, do nawet kilkunastu procent na plażach Grzbietu Pragmatyków. Tak duży odsetek U stanowi właśnie podłoże, na którym żerować mogą strategie pragmatyczne i agresywne, których w tym miejscu mściciele powstrzymywać już, a legaliści jeszcze, nie mogą. Stąd też obecność niemiłej strefy przejściowej, do której ludzka cywilizacja dotarła na początku XX wieku.

Teoretycznie mogłoby się wydawać, że, nawet na Grzbiecie Pragmatyzmu, Wojna Asurów niekoniecznie musiałaby wybuchnąć. W końcu to odpowiednik strefy II z rozwiązania analitycznego i dominujące tam strategie pragmatyczne, są właśnie pragmatyczne. Słabsi ustępują silniejszym i do otwartej wojny dochodzić nie powinno. Jednak nie zawsze ten mechanizm się sprawdza. Po pierwsze Grzbiet Pragmatyzmu nie jest do końca pragmatyczny i występują w nim obszary, (najbardziej na południe położony odnaleziono w punkcie o współrzędnych S = 1,8, X = 0,65) o podwyższonej, nawet kilkudziesięcioprocentowej obecności A. Korzystając z analogii geologicznej, można je uznać za rdzenie ze skał wulkanicznych przykryte warstwami osadowymi skał pragmatycznych.

Asur 03

Druga trudność wynika z pewnej niestabilności kryjącej się w samym pragmatyzmie. Aby skutecznie tą strategię stosować, należy mieć dokładną wiedzę o sile, zarówno własnej jak i rywala. W praktyce, zwłaszcza przy w miarę wyrównanych potencjałach, ocenić to jest czasami bardzo trudno, zwłaszcza że przecież przeciwnik tego nie ułatwia, starając się zaprezentować jako silniejszy niż jest w rzeczywistości, aby skłonić rywali do przyjęcia postawy ustępującej. Przy niskich, zbliżonych do 0,5, wartościach X, obie strony mogą być przekonane o własnej przewadze i tym samym eskalować konflikt aż do wybuchu, co też stało się w 1914 roku. Wreszcie trzecie nie dające się pominąć zagrożenie – przyzwyczajenie. Przez 10 tysięcy lat ludzkość zapewniała sobie pokój strategiami mścicielskimi. To, że nagle, w ciągu właściwie jednego pokolenia, przestały one działać, wcale nie dla wszystkich musiało być oczywiste.

Od czasu zamachu stanu i zamordowania króla Aleksandra w 1903 roku, władze Serbii prowadziły wobec Austro-Węgier zdecydowanie wrogą politykę, a udział w spisku mającym na celu zamordowanie następcy tronu przebrał miarę. Austro-Węgry zareagowały na prowokację stawiając Serbii bardzo ostre ultimatum, czyli tradycyjnie, acz nieadekwatnie, strategią MP. Gdyby Serbia stosowała strategię pragmatyczną, powinna teraz skapitulować. Ale Serbia nie była pragmatyczna. Była agresywna. Rosja, serbski sojusznik, była przekonana, że jest od Austro-Węgier silniejsza, a w sojuszu z Francją, silniejsza również od Niemiec – sojusznika Austro-Węgier. Pragmatycznie zatem nacisnęła na Austro-Węgry, co spowodowało, równie we własnym mniemaniu pragmatyczną, reakcję Niemiec. Wojna Asurów wybuchła.

Warto zauważyć, że pragmatyczne strategie Niemiec, Austro-Węgier i Rosji, właśnie wskutek niewłaściwego oszacowania sił, okazały się zdecydowanie błędne. Natomiast serbska strategia A, przyniosła, mimo dużych strat i zniszczeń wojennych, olbrzymi sukces i dzięki niej właśnie Serbia stworzyła swoje jugosłowiańskie imperium. Imperium to jednak, będąc efemerycznym tworem Grzbietu Pragmatyzmu, rozsypało się, wraz z innymi podobnymi bytami, jak Czechosłowacja, czy ZSRR, zaraz po tym, jak ludzkość Wojnę Asurów w końcu zakończyła i przekroczywszy Grzbiet Pragmatyzmu, wpłynęła na Morze Legalizmu.

Stoczona na Grzbiecie Pragmatyzmu Wojna Asurów, pod wieloma względami była podobna do toczonych wcześniej maltuzjańskich wojen na Ziemi Agresorów. Masowe, posunięte do ludobójstwa, zbrodnie wojenne, masakrowanie ludności cywilnej, mordy, gwałty i rabunki, nie były, wbrew często spotykanym poglądom, żadnym ewenementem, czy precedensem. Tak zawsze wojny na Ziemi Agresorów toczono. Tyle, że przez długi okres przemieszczania się od jednego wybrzeża Mściwej Zatoki do drugiego, zdążono o tym zapomnieć. Era industrialna zmieniła też narzędzia eksterminacji. Zamiast mieczy, włóczni i noży żołdaków, używano cekaemów, komór gazowych i bomb lotniczych. Śmierć i zniszczenie pozostały jednak te same.

Była jednak też pewna istotna różnica. W przeciwieństwie do wojen dawniejszych, ta odbyła się w warunkach S>1. Nie było w niej faktycznych zwycięzców. Wszyscy jej uczestnicy, nawet znajdujące się w relatywnie najlepszej sytuacji USA, ponieśli per saldo wyłącznie straty. Całe, wspomniane wyżej, wojenne barbarzyństwo, było odczuwalne dużo bardziej, niż w czasach maltuzjańskich, dotkliwie i wzbudziło też dużo większą zgrozę i oburzenie. Niemniej była faktycznie Wojna Asurów wojną, która położyła kres, choć wyłącznie w sensie statystycznym, wszystkim innym wojnom. Od jej zakończenia poziom natężenia agresji w stosunkach międzyludzkich i międzynarodowych, jak przekonywująco wykazał Steven Pinker w „Zmierzchu przemocy” systematycznie, jak na Morzu Legalizmu należałoby się tego spodziewać, spada.

Należy zatem podziwiać Robinsona za genialną intuicję. Do Wojny Asurów, jeżeli dana cywilizacja faktycznie w fazie rewolucji przemysłowej już się znajdzie, dojść, w takiej, czy innej postaci, musi. Co gorsza, wcale nie musi się ona skończyć przekroczeniem Grzbietu Pragmatyzmu. Wszak, inaczej niż w wojnach maltuzjańskich, które mogły zachwiać ekonomią i demografią toczących je państw jedynie chwilowo, bo nawet po największych zniszczeniach i masakrach, układ zawsze musi do pułapki maltuzjańskiej powrócić, Wojna Asurów bezpośrednio wpływa na poziom produktywności gospodarki i tym samym, przynajmniej hamuje, o ile nie zatrzymuje w ogóle, dalszy wzrost S. W Niemczech, kraju, który najbardziej się w tą wojnę zaangażował, PKB per capita w roku 1946, kiedy przynajmniej gorąca faza Wojny Asurów się zakończyła, wynosił zaledwie 60% poziomu wypracowanego w roku 1913. To, że nie powróciły Niemcy do stanu z roku 1885 także cywilizacyjnie, zawdzięczały wyłącznie temu, że inne kraje, zwłaszcza USA, poniosły jednak mniejsze straty i miały chęć i środki, aby Niemcom gospodarkę pomóc odbudować. Równie dobrze można jednak sobie wyobrazić przebieg wydarzeń, w którym tak by nie było. Na Ziemi prawdopodobnie wystarczyłby (kolejny ukłon w stronę przenikliwości Robinsona) brak Ameryki, a ściśle rzecz biorąc, brak leżącego tam kraju dorównującego potęgą głównym mocarstwom Wyspy Świata, a którego interwencja w kluczowym momencie przeważyłaby szalę na którąś ze stron i wojnę zakończyła. Gdyby nie to, przy istniejącej równowadze sił, wojna mogłaby trwać dziesiątki lat, aż w końcu gospodarczy holocaust wszystkich walczących krajów zepchnąłby je z powrotem do stanu maltuzjańskiego, tym bardziej, gdyby, przy odrobinie pecha, broń nuklearna weszła do wojujących arsenałów jeszcze w zachodniej części Grzbietu Pragmatyzmu.

Przekroczenie Grzbietu Pragmatyzmu dla cywilizacji bytującej na planecie mniej zróżnicowanej geograficznie i środowiskowo niż dzisiejsza Ziemia, byłoby więc bardzo trudne. Dwie czy trzy takie nieudane próby, pamięć o milionowych ofiarach i zniszczonych atomowym ogniem miastach, mogłyby dodatkowo wytworzyć w takiej pechowej cywilizacji potężną traumę i bardzo silne tabu blokujące jakikolwiek rozwój naukowo-techniczny ponad poziom z końca XVIII wieku. Jest zatem Grzbiet Pragmatyzmu ostatnim z, co najmniej kilku istniejących, filtrów blokujących powstanie cywilizacji naukowo technicznej i tym samym przynajmniej częściowo wyjaśnia on paradoks Fermiego – brak, poza naszą, jakichkolwiek cywilizacji naukowo technicznych we Wszechświecie, a przynajmniej w naszej Galaktyce.

Teoretycznie, obok przejścia Grzbietu na stronę wschodnią lub odbicia się od niego na zachodnią, istnieje jeszcze trzecia możliwość. Jest to, opisane w książce „1984” George Orwella, utknięcie na Grzbiecie Pragmatyzmu na dobre i przejście Wojny Asurów w stan permanentny, utrzymujący się przez wiele pokoleń. Sytuacja ta jest mało prawdopodobna, wymagałaby bowiem utrzymywania stałego poziomu S i X, czyli, wojna i terror wewnętrzny musiałyby pochłaniać zasoby dokładnie w takim samym tempie, w jakim zniewolone społeczeństwo by je wytwarzało. U Orwella dzieje się tak, wskutek regulowania intensywności konfliktu ręcznie przez władze, i regularnych zmian sojuszy, ale w praktyce byłby to system bardzo niestabilny i wcześniej czy później układ stoczyłby się na którąś, wschodnią, czy zachodnią, stronę Grzbietu, tak samo jak wojny maltuzjańskie zawsze w końcu zrzucały swoich uczestników z Ziemi Agresorów z powrotem do Mściwej Zatoki. U Orwella zresztą pierwsze oznaki takiego przesilenia są widoczne, technika powoli, bo powoli, ale się jednak cofa, a bohaterowie narzekają na zmniejszające się przydziały kartkowe, co oznacza że system opisany w powieści rozpoczął już powrót do maltuzjanizmu.

Nieprzypadkowo również, u Orwella wszystkie wojujące na Grzbiecie Pragmatyzmu mocarstwa są skrajnie totalitarne, a u Robinsona tego typu, powstałe w trakcie Wojny Asurów, reżimy noszą barwną nazwę „Kongresów Talentu Militarnego”. Wszak prezentowany model odnosi się równie dobrze do konfliktów wewnętrznych, jak i międzynarodowych. Na Grzbiecie Pragmatyzmu niestabilne stają się zatem również stosunki wewnętrzne, a nie tylko zagraniczne. Jeżeli dane społeczeństwo, wchodząc na Grzbiet Pragmatyzmu, trafi wyłącznie na osadowe skały Pragmatyczne, wówczas pół biedy. Do utrzymania stabilności wewnętrznej wystarczy stworzenie i rozbudowa zwykłej dyktatury, państwa policyjnego, jakimi w końcu większość państw w trakcie Wojny Asurów się stała. Gorzej, jeżeli trafi się wulkaniczny rdzeń agresji. Strategie pragmatyczne zawsze ustąpią przed policją, jeżeli będzie ona dostatecznie silna. Strategie agresywne nie. Państwo policyjne nie wystarczy i powstaje państwo totalitarne, które wrogów nie zastrasza, ale fizycznie eksterminuje.

Na szczęście nie jest to jedyne możliwe rozwiązanie. W końcu w latach 1914-1945 nie wszystkie kraje stały się policyjnymi dyktaturami, a tym bardziej nie wszystkie pobudowały polarne łagry i krematoryjne piece. W stosunkach wewnętrznych występuje bowiem jeszcze jeden dodatkowy stopień swobody, którego nie ma, a przynajmniej w okresie Wojny Asurów nie było, w stosunkach międzypaństwowych.

Jak już autor wyżej wspominał, strategie pragmatyczne są, w porównaniu z innymi, stosunkowo kosztowne w użyciu, wymagając, zwłaszcza przy niskim poziomie X, zdobycia dokładnej i precyzyjnej informacji o faktycznie istniejącej różnicy sił. Nie tylko jest to skomplikowane samo w sobie, ale i potencjalni przeciwnicy aktywnie w tym przeszkadzają starając się okazać silniejszymi, niż są w rzeczywistości i tym samym skłonić rywala do przyjęcia postawy ustępującej. Obciąża to strategie pragmatyczne dodatkowymi, nie uwzględnionymi w naszym modelu, kosztami drugorzędowymi. W szczególności ważny jest poziom tych kosztów w porównaniu z kosztami sąsiadujących z Grzbietem od wschodu strategiami legalistycznymi. Jeżeli koszty pragmatyzmu są chociaż minimalnie wyższe od kosztów legalizmu, czyli jeżeli jakość stanowienia i egzekwowania prawa przekracza pewne minimum, nasz układ zmienia swój atraktor. Oto mapa krajobrazu Hammersteina przy osłabieniu strategii pragmatycznych o 1%

Asur 04

Nawet tak mała różnica wystarczy legalistom do dokonania znacznych zdobyczy terytorialnych i utworzenia bardzo szerokiej strefy styku ze strategiami mścicielskimi. Przy okazji znikają też Wyspy Nieszczęśliwe, do czego de facto wystarczy różnica zaledwie 0,1%. Grzbiet Pragmatyzmu zostaje natomiast znacznie nadwyrężony (a przy 2% różnicy znika zupełnie) i miedzy Mściwą Zatoką i Morzem Legalizmu powstaje szerokie przejście, które umożliwiło wielu krajom przejście od strategii M do L bez turbulencji i komplikacji. Nieprzypadkowo były to właśnie kraje o największym poziomie praworządności, z intrygującym wyjątkiem Niemiec, w których przecież samo pojęcie „Rechtsstaat” wymyślono. Pewnie, z jakichś powodów, strategie pragmatyczne były w tym kraju łatwiejsze niż gdzie indziej do stosowania i legaliści nie zdołali wypracować tam niezbędnej przewagi.

Należy więc podziwiać zarówno Robinsona, jak i Orwella, że, nie dysponując opisanym modelem, nie dokonując żadnych związanych z nim obliczeń i symulacji, wysnuli swoje absolutnie wiarygodne wizje z czystej intuicji. To co autor niniejszego artykułu, musiał żmudnie analizować, pisać równania, tworzyć macierze i w końcu obliczać, oni odgadli samą siłą wyobraźni.

Zakres stosowalności tak prostego przecież modelu, jak macierz Hammersteina, okazuje się zatem zadziwiająco szeroki, praktycznie wystarczający, aby wymodelować konflikty w całej dotychczasowej historii ludzkości i całkowicie wyjaśnić zaobserwowany przez Stevena Pinkera fenomen nazwany przez niego „zmierzchem przemocy”, który Pinker odkrył, ale którego nie potrafił przekonująco wyjaśnić. Jednak cechą prawdziwie użytecznego modelu jest nie tylko wyjaśnienie zjawisk już istniejących, ale i przewidywanie przyszłych. Macierz Hammersteina znajduje się tu w szczególnie nieszczęśliwym położeniu, bo wynika z niej, że będziemy po prostu płynąć po Morzu Legalizmu na wschód coraz dalej i dalej i tak w miarę rozwoju cywilizacyjnego i wzrostu S praktycznie w nieskończoność, o ile ten ruch nie zostanie w końcu zahamowany przez pułapkę logistyczną. Tak czy inaczej nie wydarzy się już, jeżeli chodzi o historię konfliktów i wojen, kompletnie nic.

Ale moment, zaraz, zaraz… Skąd wiemy że Morze Legalizmu nigdy się nie kończy? Z pokazanego na początku eseju rozwiązania analitycznego? Że taka właśnie, legalistyczna strategia jest optymalna w sensie Pareto i będzie coraz bardziej optymalna w miarę wzrostu S? ? Przecież właśnie wykazaliśmy, że dla S<10 strategia ewolucyjnie stabilna odbiega od paretooptymalności niekiedy bardzo znacznie, a równowaga Nasha znajduje się czasami w najdziwniejszych miejscach. Więc jak to jest dla S>10? Jak wygląda kształt rzeczy przyszłych?

I znów musiało upłynąć wiele czasu (komputerowego), zanim ten kształt, dla zakresu S od 10 do 510, zaczął nam się z macierzy wyłaniać. Jeżeli chodzi o strategie agresywne i pragmatyczne, niespodzianki nie było. Poza wąziutkim paskiem w pobliżu X = 1, nie występują one w tym zakresie parametrów wcale. Jednak nasze założenie o spokojnym i bezproblemowym rejsie po Morzu Legalizmu rzeczywiście okazało się nieco na wyrost. Oto niespodziewanie ni stąd ni zowąd, pojawia się w pewnym momencie strategia, która nigdy dotąd żadnego zauważalnego, mierzonego w procentach sukcesu nie odnosiła. Oto i ona.

Asur 05

 Jest to chojrak. Chojractwo nie popłacało dla żadnej z dotychczas badanych kombinacji współrzędnych, o ile tylko S<10. Teraz to się zmieniło. Dla wyższych S niespodziewanie chojracy zaczynają się pojawiać w znaczącej, przekraczającej 10% strategii, liczbie. A skoro pojawia się chojrak, to tylko czekać, jak w ślad za nim pojawi się mściciel. Na ostatnim wykresie przedstawimy zatem strategie mścicielskie obecne w omawianym zakresie.

Asur 06

Jak widać, pomimo praktycznego braku strategii niemiłych, krajobraz Morza Legalizmu wcale nie jest tak jednostajny i monotonny, jakby się mogło wydawać. W szczególności w pewnych obszarach, wskutek niespodziewanej aktywności chojraków, legaliści zostają całkowicie wyparci przez mścicieli. W rezultacie pojawia się obszar nazwany przez autora Jęzorem Zemsty. Mimo że nie jest on tak niemiły jak Grzbiet Pragmatyzmu, jego przebycie również może być dla cywilizacji bardzo kłopotliwe. Strategie oparte, nie na obiektywnych prawach własności, ale na poczuciu honoru i zemście, nie powodują, co prawda eksplozji przemocy i agresji, ale poważnie utrudniają dalszy rozwój cywilizacyjny i gospodarczy, a tym samym wzrost S. Społeczeństwo, które dotarło już w swoim rozwoju do tego punktu, nie popadnie w konflikty, ale też i utknie właśnie w tym miejscu. Co gorsza, w przeciwieństwie do strategii z Grzbietu Pragmatyzmu, o Wyspach Nieszczęśliwych już nie wspominając, Jęzor Zemsty jest znacznie bardziej stabilny i żadne zmiany kosztów drugorzędowych i osłabianie chojraków nie robią na nim wrażenia. W przeciwieństwie jednak do Grzbietu Pragmatyzmu, Jęzor Zemsty nie obejmuje wszystkich zakresów X i jest możliwe jego opłynięcie od północy. Cywilizacja, która podąży ta drogą będzie się mogła dalej rozwijać, ale kosztem zwiększenia wewnętrznych nierówności X. Jeżeli wierzyć, do czego jednak nie zachęcamy, wspomnianemu już Pikketemu i jego fiksacji na punkcie nierówności, ten proces już mógł się rozpocząć.

W ten sposób zbadaliśmy krajobraz Hammersteina do zakresu S = 510. A co dalej?

Dalej kończy się stosowalność modelu. Dla X = 0,5, już przy stosunkowo niskich S pojawiały się nieregularności widoczne w postaci archipelagu Wysp Nieszczęśliwych. Dla S przekraczającego 400 chaos rozszerza się na kolejne zakresy. W obszarze zaznaczonym na ostatnim wykresie białą elipsą, wszystkie strategie stają się jednakowo prawdopodobne, a dla jeszcze większych S ten chaotyczny obszar się systematycznie poszerza. Jakaś równowaga Nasha na pewno nadal istnieje, ale jest ona tak płytka, że same losowe fluktuacje powodują, że układ nie może się w niej zakotwiczyć na stałe. W świecie transmutatorów antymaterii, gdzie praktycznie wszystko można sobie za darmo zreplikować w nanofakturze, samo pojęcie własności traci sens. Jedyną rzeczą, która ma wymierną wartość jest już tylko czas. Którego nie można jednak zrabować, kupić, ukraść, ani nawet zmagazynować na później. Ponieważ zaś praktycznie zanika w tym miejscu stabilność ewolucyjna, zatem w praktyce górę weźmie dążenie do paretooptymalności. I zrealizowane w praktyce zostaną zalecenia Jezusa w postaci powszechnego stosowania strategii (U, U). Jeżeli zatem kiedykolwiek bezpośrednio spotkamy we Wszechświecie inną cywilizację, będzie to niczym spotkanie dwóch Jezusów. Doświadczenie przełomowe i jedyne w swoim rodzaju, ale całkowicie bezkonfliktowe. Gwiezdnych Wojen nie ma, nigdy nie było i nigdy nie będzie.

Wojna Asurów cz II

Mściciel, Legalista, Jezus

Niniejszy wpis jest kontynuacją artykułu „Ludzie honoru i słudzy prawa„, który należy przeczytać przed lekturą artykułu poniższego

Słyszeliście, że powiedziano: Oko za oko i ząb za ząb!
A Ja wam powiadam: Nie stawiajcie oporu złemu.
Lecz jeśli cię kto uderzy w prawy policzek, nadstaw mu i drugi!
Temu, kto chce prawować się z tobą i wziąć twoją szatę, odstąp i płaszcz!
Zmusza cię kto, żeby iść z nim tysiąc kroków, idź dwa tysiące!
Mt 5, 38-40
 
Pogódź się ze swoim przeciwnikiem szybko, dopóki jesteś z nim w drodze,
by cię przeciwnik nie podał sędziemu, a sędzia dozorcy,
i aby nie wtrącono cię do więzienia.
Zaprawdę, powiadam ci: nie wyjdziesz stamtąd, aż zwrócisz ostatni grosz.
Mt 5, 25-26

 

W publikacjach na niniejszym blogu (nr 1, nr 2, nr 3, nr 4), od jakiegoś czasu autor demonstruje tzw. macierz Hammersteina, model opisujący występujące w świecie przyrody, a zatem także i w społecznościach ludzkich, konflikty o zasoby. Konflikty rozumiane jako gra o sumie zerowej, w której sukces jednej strony oznacza automatycznie porażkę drugiej. Dane terytorium, łup łowiecki, pozycja w hierarchii, mogą bowiem należeć tylko do jednego. Strony takiego konfliktu mogą albo przyjąć postawę agresywną, czyli dążyć do zagarnięcia danego dobra w całości, nie licząc się z roszczeniami oponenta, bądź, w obawie przed kosztami jakie może przynieść, wynikająca ze zderzenia dwóch strategii agresywnych, fizyczna o zasoby konfrontacja, ze spornego zasobu ustąpić. Macierz Hammersteina jest modelem dwuparametrowym, zatem o tym, jaka strategia jest najbardziej w danych warunkach opłacalna, decyduje właśnie wielkość tych dwóch parametrów. Są to, decydujący o prawdopodobieństwie zwycięstwa w  walce, stosunek sił spierających się stron, oznaczany literą X, oraz S – stosunek potencjalnych zysków ze zwycięstwa w fizycznym starciu z przeciwnikiem, do strat wynikających z, zawsze możliwej w starciu, porażki. W najprostszym rozwiązaniu macierzy Hammersteina, przedstawionym już w esejach „Koniec kryminału”, „Miecze na lemiesze”, oraz „Czas na broń” istnieją, w zależności od kombinacji X i S, trzy optymalne strategie. Przy niskich wartościach S<1 i w miarę wyrównanych siłach (X bliskie 0,5) najbardziej opłaca się agresja (A), bo straty z tytułu przegranej walki są niskie w stosunku do zysków z, choćby i mało prawdopodobnej, wygranej. Przy większej różnicy w sile i/lub wyższych S najbardziej opłaca się być agresywnym kiedy jest się silniejszym, a ustępować kiedy jest się słabszym, co nazwaliśmy strategią Pragmatyka (P). Wreszcie, przy dostatecznie wysokim S triumfuje strategia legalisty (L), czyli rozstrzygania sporu bez walki, w oparciu o jakieś kryteria obiektywne, w przypadku ludzi – prawo własności.

Jednak te trzy strategie nie są bynajmniej jedynie możliwe. W ostatnim eseju na ten temat „Ludzie honoru i słudzy prawa” przedstawione zostały dodatkowe, bardziej złożone strategie. Chojraka (C), który zaczyna spór jak agresor, a w przypadku napotkania równie agresywnej odpowiedzi, staje się ustępujący, oraz jego odwrotności – Mściciela (M), zaczynającego jako ustępujący i stającego się agresywnym w przypadku napotkania agresywnej odpowiedzi. Po dopuszczeniu tych strategii rozwiązanie modelu zmienia się diametralnie. We wszystkich trzech strefach, strategią ewolucyjnie stabilną (SES) staje się wtedy, wbrew intuicji, Mściciel właśnie. Rzeczywiste dane historyczne i współczesne, zdają się też potwierdzać, że ludzkie społeczeństwa ze strefy I i II faktycznie hołdują tej właśnie mścicielskiej strategii, dlatego też nazwane zostały społecznościami honorowymi. Inaczej jest jednak w przypadku społeczeństw najbardziej rozwiniętych i najbogatszych, ze strefy III, które bynajmniej przez mścicieli zdominowane nie są i zdecydowanie można je zaliczyć do legalistycznych sług prawa.

Ta rozbieżność z modelem może być wytłumaczona bardziej subtelnymi efektami drugorzędowymi, czyli różnicami w kosztach, które poszczególni gracze muszą ponieść, aby pozyskać, niezbędną do zastosowania właściwej strategii, informację. Legaliści muszą wiedzieć, który z nich jest „w prawie”, Pragmatycy, który z nich jest silniejszy, a przede wszystkim Chojracy, który z dwóch rywalizujących chojraków jest „tym większym” chojrakiem. O ile tylko koszty chojraczenia są choćby odrobinę wyższe niż koszty legalistycznego pieniactwa, czyli o ile prawo osiąga pewne niezbędne minimum prostoty i precyzji, a aparat je egzekwujący nie jest zbyt skorumpowany, w strefie III ponownie triumfują legaliści.

Jednak czy to wyjaśnienie na pewno jest prawdziwe i ostateczne? Jeden z czytelników wspomnianego eseju, user kmat, zwrócił uwagę na możliwość zastosowania jeszcze bardziej złożonych strategii. Są to kolejno:

– Chojrak Pragmatyk (CP) – zaczynający agresywnie, a w przypadku spotkania się z oporem, przechodzący do Pragmatyka

– Chojrak Legalista (CL) – jak wyżej, tyle że stosujący strategię Legalisty

– Mściciel Pragmatyk (MP)  – zaczynający od ustępstw, i przy agresywnej odpowiedzi przechodzący do pragmatyzmu

– Mściciel Legalista (ML) – przechodzący do legalizmu.

Sprawdzenie, jak się przy tych dodatkowych strategiach zachowuje nasz model, nie było bynajmniej rzeczą banalną, którą można by przeprowadzić od ręki. Aby to zrozumieć wystarczy zobaczyć, jak wygląda teraz, o ile nie popełnił autor jakiegoś błędu, tabela wypłat w naszej grze. Ponownie przez Q oznaczono wynik walki dwóch strategii agresywnych  Q = X-(1-X)*S.

kmat 00

No, ale w końcu młyny Excela wolno, bo wolno, ale model przemieliły. Ponieważ obecnie mamy już 10 możliwych strategii, za warunki początkowe przyjęto więc w każdym rozpatrywanym przypadku 10% udział każdej z nich w populacji. Na pierwszy ogień weźmiemy strefę I – agresywną X = 0,6, S = 0,5

kmat 01

Jak widać niespodzianki tu nie ma. Zdecydowanie (80%) wygrywa Mściciel (M). Obecne są jednak w zauważalnej (3-4%) ilości inne strategie. A, U, L, MP, ML. Rzuca się w oczy brak chojraków (C, CP, CL). Chojractwo ewidentnie tutaj nie popłaca. Przejdźmy zatem do strefy II X = 0,7, S = 1

kmat 02

Wynik praktycznie nie uległ zmianie. Ponownie, chociaż w nieco mniejszym stopniu wygrywa Mściciel, ponownie swój udział mają pozostałe strategie niechojrackie, ponownie też brak jest chojraków. Jednak zmienia się to przy przejściu do strefy III X = 0,7 S = 10

kmat 03

I tu niespodzianka. Oczekiwana przez nas inwazja chojraków i wywołana przez nią zemsta mścicieli nie nastąpiła. Strategią ewolucyjnie stabilną okazuje się kombinacja (55% CL, 45% L) z incydentalnym, niewielkim udziałem C i ML. Dzięki wprowadzeniu dodatkowych strategii, głównie CL, społeczeństwo samorzutnie utrzymało swój legalistyczny charakter. Przy spotkaniu z Legalistą bowiem, Chojrak Legalista zawsze zachowa się jak Legalista. Taki sam będzie efekt spotkania dwóch CL. Któryś z nich wymięknie pierwszy i przejdzie do strategii L, a wtedy drugi się do tego dostosuje. Nie potrzeba nawet postulować istnienia żadnych efektów drugorzędowych, choć przy ich wprowadzeniu otrzymujemy jeszcze lepszy dla nas rezultat. Konkretnie przy podniesieniu kosztów chojractwa zaledwie o 1% powyżej legalizmu, otrzymujemy proporcję (2/3 L, 1/3 CL). Ta proporcja utrzymuje się stabilnie na zdecydowanej większości strefy III, niezależnie od dokładnych wartości (X, S), zwiększając się na korzyść legalistów tylko w miarę wzrostu kosztów chojractwa.

Jednak wzbogacenie palety możliwych strategii z czterech (A, U, P, L) do dziesięciu, zmienia nasz model nie tylko w strefie III, ale i w wielu innych miejscach. W szczególności pojawiają się na mapie macierzy Hammersteina swoiste „wyspy” w których ewolucyjnie stabilne proporcje strategii potrafią się bardzo różnić od obszarów wyspę otaczających. I przyjmować czasami bardzo zaskakujące proporcje. Oto jedna z takich wysp, położona na granicy strefy II i III. X = 0,8, S = 4

kmat 04

Stabilna ewolucyjnie strategia to w tym przypadku (48% A, 26% CP, 22% P), bardzo odległa zarówno od dominacji M w sąsiedniej strefie II, jak i strategii L i CL w strefie III. W odróżnieniu od swoich sąsiadów ze strefy III (przewaga L), jak i nawet II (przewaga M), społeczeństwo bytujące na tej wyspie jest na pewno bardzo mało sympatyczne. Aby się go pozbyć z rozważań, znów musimy uwzględnić efekty drugorzędowe, tym razem osłabiające nie tylko chojraków, ale i zmuszanych ustalać wzajemny poziom sił pragmatyków. Po osłabieniu strategii pragmatycznych o 2% powyższa wyspa tonie i ponownie otrzymujemy SES na poziomie (58,5% M, 18,5% MP, 13% ML, 7,5% U), czyli zdecydowaną dominację strategii mścicielskich.

Opisane wyżej „wyspy”, które jednak można usunąć przez bardziej subtelną rozbudowę modelu, nie są jedyną jego osobliwością. Przy odpowiednio wysokim poziomie X, pojawia się na naszej mapie kolejna strefa. Przy bardzo dużej szansie na zwycięstwo w siłowej konfrontacji, nie opłaca się już stosować strategii mściciela, czy nawet pragmatyka, zwłaszcza osłabionego. U góry mapy, nawet przy stosunkowo wysokim S dominują agresorzy (A), co nie miałoby miejsca, gdyby nie niewielkie, ale jednak widoczne, występowanie strategii, na których A może żerować – U, C, CP Prawdopodobieństwo porażki takiego potężnego A i tak małe, jest jeszcze bardziej zmniejszone przez ich obecność, a także przez osłabienie pragmatyków. Jest to dodatkowy, kolejny argument, żeby nie dopuszczać do pojawienia się w społeczeństwie tak wysokiego poziomu X i propagować jednak powszechniejszy dostęp do broni zwłaszcza dla osobników z natury słabszych, przede wszystkim kobiet.

Wszystkie opisywane powyżej SES, niezależnie od tego, gdzie by na mapie naszego modelu się znajdowały, mają jedną wspólną cechę. Wszystkie one, jeżeli uwzględnimy także efekty drugorzędowe, czyli koszty pozyskiwania niezbędnej informacji i zużytego na to czasu, nie są, jak to się w teorii gier określa, paretooptymalne, czyli nie dają graczom maksymalnych możliwych wypłat. Dotyczy to także najbardziej do takiej optymalności zbliżonej strategii L, bo nawet ona jakieś koszty spisania, przestrzegania i skutecznego egzekwowania swoich praw, ponosić musi. Strategia paretooptymalna, musi bowiem przede wszystkim być najbardziej efektywna, czyli taka, w której suma wypłat, po potrąceniu wszystkich opisanych wyżej kosztów drugorzędowych, jest maksymalna. Jednak sama tak wyznaczona efektywność nie wystarczy. W tym sensie efektywna jest np. strategia (A; U), albo (C; U), ale trudno oczekiwać, by gracze ją w sposób trwały stosowali. Aby tak było, wynik musiałby być nie tylko efektywny, ale i sprawiedliwy, czyli, w naszym wyidealizowanym modelu, równy. Z istotnym zastrzeżeniem, że w rzeczywistości fizycznej równość i sprawiedliwość nie zawsze są tożsame.  Taką równościową sprawiedliwość dają np. strategie (L; L), czy (C; C), ale nie są one, wskutek istnienia kosztów drugorzędowych, efektywne. Wynik, dla naszego ostatniego przykładu, (X = 0,7, S = 10) przedstawimy na wykresie poniżej.

kmat 05

Jak widać, większość możliwych kombinacji, z najgorszą z nich (A; A) na czele, nie jest ani efektywna, ani sprawiedliwa. Strategią optymalną w sensie Pareto okazuje się, leżąca na przecięciu osi sprawiedliwości z osią efektywności, strategia (U; U). Daje ona graczom sprawiedliwie podzieloną największą sumę wypłat przy najniższych, bo zerowych, kosztach własnych. Niestety, jak już wyżej obliczyliśmy, nie jest (U; U) ewolucyjnie stabilna w całym zakresie parametrów (X; S). Jednak, jak wynika z motta, Bóg oczekuje od nas, że właśnie nią będziemy stosować, co byłoby przecież z największą dla nas korzyścią. Że odstąpimy zarówno od strategii M (pierwszy cytat), jak i od strategii L (drugi cytat), choćby wydawały się łatwe i kuszące, bo przecież wcale najbardziej intratne one nie są. Najlepsza, najbardziej ze wszystkich opłacalna, okazuje się być strategia Jezusa – nadstawiania drugiego policzka. Ponieważ jednak nie jest ona ewolucyjnie stabilna, wymaga jednak wysokiej świadomości i samodyscypliny. Może kiedyś ludzkość dojrzeje do zastosowania się do tych nauk Najwyższego Nauczyciela i Cisi posiądą ziemię.

Autor niniejszego eseju daleko nie wyczerpał tematu, a poruszanie się po tak wzbogaconej macierzy Hammersteina jest bardzo fascynujące i bardzo pouczające. Gdyby któryś z czytelników miał jakieś pytania jak wygląda krajobraz przy jakiejś konkretnej kombinacji parametrów, proszę je śmiało zadawać.

Ciąg dalszy w „Wojna Asurów 1984

Ważka w bursztynie

Poniższy tekst jest popularnym podsumowaniem teorii psychohistorycznej Fragmenty artykułu były opublikowane w 1436 numerze tygodnika „Najwyższy Czas”.

Jako żołnierzowi, który w jeździe całe życie służył, mówić mi tego nie wypada, ale owóż temu, że wszędy piechota a armaty grunt, dopieroż one pochody a obroty wojenne, a marsze, a kontrmarsze. Siła książek w cudzoziemskim wojsku człek musi zjeść, siła rzymskich autorów przewertować, nim oficerem znaczniejszym zostanie, u nas zaś nic to. Po staremu jazda w dym kupą chodzi i szablami goli, a jak zrazu nie wygoli, to ją wygolą…
Henryk Sienkiewicz

Szkolne podręczniki nadal dzielą historię ludzkości na podstawie stworzonych jeszcze w XVIII wieku kryteriów. Mamy więc Antyk, albo Starożytność, bywa, że uzupełniany „Prehistorią”, czyli czasami sprzed wynalezienia pisma, Średniowiecze, Nowożytność, oraz „Współczesność” – ostatnie sto lat.

Upadek imperium rzymskiego, który wyznacza koniec Antyku i początek Średniowiecza, na pierwszy rzut oka, wydaje się obiektywnie rozdzielać dwie epoki historyczne. Nie był to tylko upadek jednego tylko, choćby i bardzo wielkiego, kraju. Była to katastrofa całej śródziemnomorskiej cywilizacji. Głęboki regres ekonomiczny i w konsekwencji także kulturowy i cywilizacyjny właśnie. Powtórnie poziom produkcji z czasów Imperium osiągnęła Europa dopiero po tysiącu latach.

Upadek Rzymu wygląda jednak tak spektakularnie wyłącznie dlatego, że był to ostatni tak głęboki regres cywilizacyjny i wydarzył się najbliżej naszych czasów. Nie był to jednak bynajmniej żaden wyjątek ani precedens. W czasach starożytnych podobne kryzysy zdarzały się regularnie i cyklicznie, czego najlepszym przykładem są dzieje antycznego Egiptu. Trwająca ponad trzy millenia lat jego państwowość, dzieli się zwykle na Stare, Średnie i Nowe Państwo. Te okresy egipskiej świetności i potęgi, były jednak przedzielone kryzysami, zwanymi „okresami przejściowymi”. Kryzysy takie pojawiały się zatem w historii Egiptu i świata z grubsza co tysiąc lat, a upadek Rzymu był tylko ostatnim z tej serii.

Sięgająca millenium długość takich cykli spowodowała, że, choć wyraźnie odciskały się one w kulturze w postaci podań o minionym „złotym wieku” i popularnych w starożytności przekonaniach o cykliczności czasu, długo przez historyków pozostawały niezauważone. Dopiero stosunkowo niedawno odkryto, że owa zaskakująco regularna oscylacja ludzkiej cywilizacji pomiędzy okresami wzrostu i prosperity, a „okresami przejściowymi”  ma swoje głębokie przyczyny naturalne.

Człowiek współczesny, Homo sapiens, istnieje na naszej planecie przynajmniej od 200 tysięcy lat, a jeżeli rozciągnąć człowieczeństwo również na inne gatunki rodzaju Homo, to okres ten wydłuży się dziesięciokrotnie. Praktycznie cały ten czas, ludzie prowadzili łowiecko-zbieracki tryb życia. Z ekologicznego punktu widzenia, niczym nie różnili się od innych wielkich drapieżników, jak lwy, czy wilki. Liczebność zatem ludzkiej populacji, jej poziom życia, a nawet stopień rozwoju technologicznego, były kształtowane przez opisujące zależność pomiędzy drapieżnikiem a jego ofiarami, równanie, znane w ekologii jako model Lotki-Volterry.

Rozwiązania tego modelu mają trudne do intuicyjnego zrozumienia cechy. Liczebność populacji łowiecko – zbierackiej zależy oczywiście, jak należałoby tego oczekiwać, od poziomu zaawansowania jej technologii łowieckich, czyli współczynnika zwanego w równaniach L-V, „skutecznością polowania” – s, ale zależy silnie nieliniowo. Zgodnie z intuicją, myśliwi nieporadni, o zbyt niskiej skuteczności polowania, nie dadzą rady utrzymać swojej populacji i szybko wymrą. Jednak dalej intuicja już zawodzi. Myśliwi zbyt skuteczni, o s zbyt wysokim, tak bardzo przetrzebią populacje swoich ofiar, że …wymrą również. Zależność ta pokazana jest na poniższym wykresie. N – liczebność myśliwych, V – liczebność ich ofiar.

Ważka 01

Optymalny poziom „wydajności polowania”, przy którym populacja drapieżników osiąga maksimum, jest raptem tylko dwukrotnie wyższy od poziomu minimalnego, poniżej którego drapieżniki wymierają. Ma to ciekawe konsekwencje ewolucyjne. Wszystkie bowiem znane drapieżniki, usiłując zmieścić się w tej wąskiej strefie, są w gruncie rzeczy w polowaniu dość nieudolne. Sukces łowiecki muszą opłacać wieloma nieudanymi próbami, co też przyprawia o nieustająca frustrację autorów filmów przyrodniczych, którzy na udane ujęcie polowania muszą również czekać bardzo długo. Drapieżniki bowiem zbyt w polowaniu skuteczne, redukują tym samym swoją liczebność, zwiększając prawdopodobieństwo wymarcia, co spotkało liczne gatunki szablastozębnych kotów, czy gigantyczne rekiny – megalodony.

Dotyczy to też ludzkich łowców zbieraczy. Zbyt sprawni myśliwi, tak samo jak myśliwi zbyt słabi, redukowali swoją liczebność i znikali z kart (pre)historii. Dlatego też historia Paleolitu, epoki obejmującej ów najdłuższy etap ludzkich dziejów, jest niesłychanie wręcz nudna. Odnajdywane przez archeologów narzędzia łowców, przez dziesiątki, czy nawet setki tysięcy lat nie zmieniały się wcale, rzadko też wykazywały jakiekolwiek regionalizmy.

Drugą dziwaczną dla nas konsekwencją rozwiązań równań L-V jest wynikający z nich przeciętny poziom dobrobytu, dzisiaj mierzony wartością PKB per capita, a w Paleolicie po prostu ilością upolowanego i uzbieranego pożywienia przypadającą na jednego członka plemienia. Dobrobyt paleolitu zależy tylko od dwóch zmiennych. Wydajności z jaką myśliwskie łupy są przerabiane na potomstwo, oraz średniej długości życia łowców. Zależy dobrobyt od nich ..odwrotnie proporcjonalnie. Im krócej łowcy żyją, tym większy panuje u nich dobrobyt. Nic dziwnego zatem, że plemiona łowiecko – zbierackie należały też do najbardziej agresywnych społeczeństw w ludzkiej historii, a wzajemna przemoc była wśród nich główną przyczyną śmierci. Nie zależy natomiast wcale dobrobyt łowców od ich sprawności polowania – s.

W tej sytuacji dziwić nie powinien fakt, że Paleolit trwał tak długo, ale że się w ogóle skończył. Zdecydowała o tym tzw. „rewolucja neolityczna”, czyli powstanie rolnictwa. Zasoby, zamiast, jak do tej pory, czerpać prosto z natury, ludzie zaczęli wytwarzać sami. Konsekwencją tego faktu było nie tylko drastyczne zwiększenie podaży żywności i tym samym liczebności ludzkiej populacji, nie tylko pojawienie się w społeczeństwie zawodów nie związanych bezpośrednio z pozyskiwaniem pożywienia, ale przede wszystkim wyjście ze stanu dzikości i powstanie cywilizacji. Uprawiając rośliny i hodując zwierzęta, ludzie przestali być zwyczajnym gatunkiem dużego drapieżnika i przestali podlegać równaniom L-V.

Wynalezienie rolnictwa jest zatem wydarzeniem dużo bardziej znaczącym niż wynalezienie pisma i początek nowej ery wyznacza znacznie bardziej obiektywnie – zmianą atraktora, czyli docelowych wartości, do których parametry populacji, takie jak jej gęstość zaludnienia, czy poziom dobrobytu, dążą.

Prawo, jakiemu w tej nowej epoce podlegało społeczeństwo, nazywamy, od nazwiska ekonomisty, który pierwszy je w sposób jawny sformułował, maltuzjanizmem. W odróżnieniu od modelu L-V, maltuzjanizm nie zabrania wprowadzania innowacji i wzrostu wydajności gospodarki, co też społeczeństwa rolników mogły bezkarnie osiągać. Liczebność ludzkich populacji, nie ograniczana już kleszczami atraktorów L-V, zaczęła rosnąć. Neolit płynnie przeszedł w epokę brązu, potem żelaza. Wynaleziono pismo, koło, stworzono rozległe sieci irygacyjne. Przez kilka tysięcy lat ludzkość zmieniła się bardziej niż przez poprzednie setki tysięcy. Jednak i maltuzjanizm krył w sobie pułapkę. Pułapkę maltuzjańską. PKB, inaczej niż w paleolicie, rósł, ale proporcjonalnie rosła też liczba ludności, zatem przeciętny dobrobyt, PKB per capita, nadal pozostawał praktycznie bez zmian. Wynikało to z faktu, że ludzki przyrost naturalny, tak samo jak w paleolicie, pozostawał wprost proporcjonalny do posiadanych zasobów. Istnieje oczywiście minimalny poziom tychże zasobów per capita, poniżej którego ludzie nie rozmnażają się wcale. Jednak każda nadwyżka powyżej tej wartości powoduje proporcjonalny wzrost rozrodczości. Wszelki zatem wzrost gospodarczy, czy to w wyniku innowacji technologicznych lub organizacyjnych, czy wskutek podboju i kolonizacji nowych terenów, podnosi chwilowo, na kilka pokoleń, poziom dobrobytu, ale w dłuższej perspektywie zawsze nastąpi wyrównanie do poziomu wyjściowego. Zależności te przedstawia wykres nr 2. Oznaczenia to N – liczba ludności, P – PKB per capita, Pm – pułapka maltuzjańska

Ważka 02

To, o ile wartość Pm, czyli przeciętny dobrobyt w pułapce maltuzjańskiej, przewyższa minimalny, wymagany do rozrodu, poziom, nie zależy, tak samo jak w Paleolicie, od produktywności gospodarki, a od średniej długości życia, a także wydajności, z jaką zasoby przetwarzane są na potomstwo. Im mniejsza rozrodczość, a większa śmiertelność – tym poziom przeciętnego dochodu jest wyższy.

W konsekwencji, wdrożenie jakiejś znaczącej innowacji technologicznej lub organizacyjnej, podnoszącej produktywność gospodarki, czy choćby tylko zasiedlanie i kolonizacja nowych ziem, powoduje gwałtowny wzrost gospodarczy, który w pierwszych pokoleniach podnosi też przeciętny dobrobyt. Nadchodzi „złoty wiek” prosperity, w którym wszystkim warstwom społecznym żyje się bardzo dobrze. Niestety, już kilka pokoleń później, przyrost naturalny dogania wzrost gospodarczy. Dobrobyt, zwłaszcza niższych warstw, systematycznie się zmniejsza, pojawiają się coraz częściej klęski głodu, osłabioną i zabiedzoną populację atakują przeróżne choroby. Władza usiłuje zaradzić problemom w jedyny dostępny sobie sposób, czyli poprzez podbój i ekspansję. Jeżeli się uda, to na kilka pokoleń kryzys zostaje oddalony. Ale potem znów wraca. W końcu jakiś błahy incydent, w „złotym wieku” absolutnie niegroźny, jakiś najazd, rebelia, albo drobne zmiany klimatyczne, powoduje nieproporcjonalnie gwałtowną reakcję społeczną, erupcję przemocy, upadek systemu gospodarczego i rozpad struktur państwowych. W konsekwencji następuje też spadek produktywności gospodarki i skraca się średnia długość życia. Zgodnie z wykresem nr 2, pociąga to za sobą redukcję liczby ludności. Owa redukcja zaś, znów powoduje …wzrost przeciętnego dochodu. Po jakimś czasie gospodarka się więc odradza, produkcja znów rośnie, a wraz z nią dobrobyt. Struktury społeczne się odbudowywują, nastaje kolejny okres wzrostu i prosperity.

Wynika z tego, że cykliczne kryzysy, okresy przejściowe, są wręcz integralnie w maltuzjanizm wpisane. Imperium rzymskie przeszło dokładnie tą samą drogę. Dopóki mogło wchłaniać i zagospodarowywać kolejne tereny, dopóty rozkwitało. Ale w końcu wszystkie nadające się do skolonizowania przez rzymską gospodarkę kraje zostały zdobyte. Po zajęciu Dacji, ostatniego trwałego rzymskiego podboju, „złoty wiek” musiał się nieodwołalnie skończyć, a los imperium był przesądzony. Na terenie jedynej pozostałej jeszcze potencjalnie zdobyczy, Mezopotamii i Armenii, Rzym starł się rozpaczliwie z inną, stojącą przed dokładnie takimi samymi maltuzjańskimi wyzwaniami, cywilizacją – Persją. Toczone z rosnącą desperacją wojny między tymi mocarstwami trwały sześć stuleci, aż skończyły się ich wzajemną anihilacją, a na gruzach cywilizowanych imperiów zatriumfowali pustynni barbarzyńcy.

W nieuchronny sposób też, po upadku nadeszło odrodzenie. Dodatkowym impulsem stała się epidemia „Czarnej Śmierci” z XIV wieku, znacznie ograniczająca średnią długość życia, a tym samym, paradoksalnie, zwiększająca dobrobyt tych którzy ją przeżyli. Następujący po przejściu epidemii, XV wiek, stał się, zarówno na chrześcijańskim Zachodzie, jak i na chińskim Wschodzie, kolejnym „złotym wiekiem”. Szczytowym pod względem średniego dobrobytu, choć jeszcze nie pod względem globalnej produkcji. Ta wciąż rosła, choć już znowu wolniej niż wzrost populacji. Już w XVI wieku zaczęły się związane z tym kłopoty. Udało się je przejściowo zażegnać przez kolonizację Ameryki, oraz globalizację. Połączenie światowej gospodarki, dwóch jej największych ówczesnych ośrodków zachodniego i chińskiego, w jeden system. W latach 1650-1750 dobrobyt, przynajmniej w północno-zachodniej części Europy, znów przejściowo wzrósł, choć nie do poziomu „złotego”, XV wieku. Ale w połowie wieku XVIII i te rezerwy się wyczerpały. Choć światowa produkcja wciąż rosła, to dobrobyt ciągle spadał. Kolejny okres przejściowy, tym razem na skalę, nie, jak w przypadku egipskim, jednego regionu, nie, jak w rzymskim, jednego kontynentu, ale całego, zglobalizowanego już świata, nadchodził nieuchronnie. Pod sam koniec XVIII wieku Thomas Malthus odkrył i opisał prawidłowości, które właśnie omówiliśmy. Kryzys narastał, wskutek globalizacji synchronicznie, w Europie, jej amerykańskich koloniach, w Chinach, a nawet w odciętej od ówczesnych globalnych rynków Japonii. Kolejny, XIX wiek, po prostu musiał być już stuleciem spektakularnego krachu i krwawego chaosu.

A potem wszystko się zmieniło.

Katastrofy nie tylko, wbrew prognozom Malthusa, nie było. Zamiast niej nastąpił spektakularny rozkwit, nigdy dotychczas w dziejach ludzkości nie spotykany. Maltuzjanizm, żelazne prawo rządzące ludzkością od końca Paleolitu, przez prawie 10 tysięcy lat, niespodziewanie wyzionął ducha praktycznie w tym samym momencie, kiedy został odkryty i nazwany. Ludzkość nieoczekiwanie się z pułapki maltuzjańskiej wydostała. Co się stało?

To, co zostało już na temat maltuzjanizmu tutaj napisane, mogło wywołać mylne wrażenie, że każdy kolejny jego cykl niczym się od poprzedniego nie różnił. Tak jednak nie było. W trakcie każdego kolejnego kryzysu część wypracowanych w „złotych wiekach” technologii bywała, co prawda, porzucana i zapominana, ale nigdy wszystkie. A w kolejnych okresach prosperity kumulowano kolejne innowacje. Upadek Rzymu odbywał się z innego poziomu niż upadek egipskiego Nowego Państwa, a wiek XVIII, to cywilizacyjnie i gospodarczo zupełnie inne czasy niż wiek VI. Jedną z najbardziej istotnych różnic stanowiła broń palna. Piesze armie XVIII wiecznych państw rolniczych, uzyskały taką siłę ognia, że, po raz pierwszy w dziejach, osiągnęły przewagę taktyczną nad konnymi łucznikami ze stepów. W konsekwencji kolejne fale konnych koczowników, zwykle skwapliwe wykorzystującymi każdy maltuzjanski kryzys do zagrożenia i często także obalenia cywilizowanych imperiów, zarówno na wschodzie, jak i na zachodzie, już nie nadciągały. Pozwoliło to na dodatkowe wydłużenie ostatniego cyklu maltuzjańskiego i osiągnięcie w nim wyższego, niż we wszystkich poprzednich, poziomu produkcji, czyli także gęstości zaludnienia.

Chociaż więc przeciętny poziom dobrobytu pozostawał przez millenia maltuzjanizmu praktycznie stały, to istniały rzeczy, które w tym czasie zmieniły się bardzo znacznie. Przede wszystkim gęstość zaludnienia, która rosła maltuzjańsko wraz ze wzrostem produkcji. Innym takim, w miarę stale rosnącym wskaźnikiem, był średni poziom wykształcenia., wbrew popularnym mniemaniom, w wieku XV znacznie wyższy niż w wieku I. Trzecim ważnym trendem, był stale malejący poziom stóp procentowych, czyli taniejący kapitał. Wreszcie, pod koniec XVIII wieku, wszystkie te wskaźniki osiągnęły poziom, który zainicjował kolejne, drugie po neolitycznym, przejście fazowe ludzkiej cywilizacji. Zjawisko niezbyt słusznie zwane „rewolucją przemysłową”.

Tani kapitał pozwolił na reinwestowanie zysków w inny, niż tylko nabywanie kolejnych nieruchomości ziemskich, sposób. Wzrost gospodarczy przestał być, jak do tej pory, jednorazowy, czy, co najwyżej, liniowy, ale stał się wykładniczy. A gęstość zaludnienia osiągnęła wystarczający poziom, aby unieważnić kolejne założenie maltuzjanizmu. Żyjący dwa pokolenia po Malthusie Pierre Verhulst zauważył, że zasoby wcale nie są, jak zakładał to Malthus, przydzielane po równo. Im większa jest gęstość zaludnienia, tym większa jest konkurencja o dostęp do nich i tym więcej zasobów jest przeznaczanych na konkurencję, a mniej na rozmnażanie. Przy takim założeniu otrzymujemy nowy model, zwany równaniem logistycznym, albo równaniem Verhulsta. Zaludnienie, co prawda, nadal rośnie wraz z wzrostem gospodarczym, ale rośnie od niego dwukrotnie wolniej. W nowej erze, rośnie więc nie tylko, jak w maltuzjanizmie, PKB, ale także PKB per capita. Pułapka maltuzjańska zostaje daleko w tyle.

Przez cały XIX wiek przyrost naturalny w najbardziej rozwiniętych krajach był, zgodnie z nowym, industrialnym modelem, w przybliżeniu równy pierwiastkowi kwadratowemu ze wzrostu ich PKB. Pod koniec tego stulecia włączył się zaś, jeszcze jeden przeoczony przez Malthusa mechanizm – naturalne ograniczenia biologiczne ludzkiego gatunku. Niezależnie bowiem od poziomu dostępnych zasobów, ani ludzki wskaźnik rozrodczości, ani długość życia, nie mogą przecież rosnąć w nieskończoność. Gdyby wyłączyć wspomnianą konkurencję o zasoby, najbogatsze kobiety bez trudu byłoby dzisiaj stać na urodzenie i wychowanie nawet kilkanaściorga dzieci. Ale już, niezależnie od poziomu owego bogactwa, nie więcej. Ta biologiczna blokada odpowiada za kolejne, pozornie tajemnicze zjawisko – „przejście demograficzne”, czyli, widoczny w najbogatszych krajach już na początku XX wieku, pomimo nadal trwającego  wzrostu PKB, spadek przyrostu naturalnego do zera.

Zadziwiające, że pomimo, już w XIX wieku gołym okiem widocznego, załamania maltuzjanizmu, nadal niektóre hałaśliwe gremia głoszą, że trwający już dwa stulecia wzrost światowego dobrobytu jest tylko kolejnym maltuzjańskim cyklem. Cyklem, który, tak samo jak wszystkie poprzednie, zakończy się, nawet nie przewidywanym przez teorię, łagodnym, wielopokoleniowym zjazdem, ale powrotem do pułapki maltuzjańskiej jako procesem jednorazowym, gwałtownym i krwawym, swoistym „zderzeniem”. Neomaltuzjaniści z lubością powtarzają przy tym, że przecież żaden wzrost, a tym bardziej wzrost wykładniczy, nie może trwać w nieskończoność.

No i w tym akurat mają rację. W nieskończoność żaden wzrost, w skończonym przecież świecie, trwać nie może. I nie trwa. W miarę, jak kolejne, obecnie już praktycznie wszystkie, poza Afryką, kraje, wkraczają w przejście demograficzne, przyrost naturalny na świecie maleje, a liczba mieszkańców Ziemi w ciągu stu najbliższy lat ustabilizuje się na poziomie kilkunastu miliardów. A co ze wzrostem gospodarczym?

I on w nieskończoność trwać nie może. Do wytworzenia jakiegokolwiek dobra, obok surowców i kapitału, potrzebni są bowiem pracownicy. Oczywiście ich niezbędna, w przeliczeniu na produkt, liczba, maleje wraz z rozwojem technologii, maleje czasami bardzo drastycznie, nigdy jednak do zera. Dopóki populacja, wraz ze wzrostem gospodarczym, rośnie, problemu nie ma, pracownicy się zawsze w końcu znajdują. Jednak po przejściu demograficznym populacja rosnąć przestaje. Wkrótce więc rosnącej gospodarce zaczyna brakować siły roboczej. Obecnie najbardziej rozwinięte kraje, albo przenoszą produkcję do krajów, które przejścia demograficznego jeszcze nie zakończyły, albo wprost sprowadzają z nich pracowników. Jednak w ciągu kilku pokoleń niedobory siły roboczej staną się problemem globalnym. Wzrost gospodarczy zwolni i w warunkach stałej liczby pracowników, będzie zachodził jedynie tak szybko, jak postęp technologiczny i wzrost poziomu wykształcenia będzie w stanie podnosić wartość produktu na jednego pracującego. I te procesy jednak, o ile gospodarka nie będzie w stanie w ogóle obyć się bez ludzi, nie mogą trwać w nieskończoność.

Po zatrzymaniu wzrostu populacji, zatrzyma się zatem też, wcześniej, czy później, wzrost gospodarczy. Dynamika rewolucji przemysłowej ostatecznie się zakończy, a ludzka cywilizacja znów znajdzie się w stanie statycznym, podobnym bardziej Paleolitowi nawet niż maltuzjanizmowi. Stałe bowiem będą zarówno poziom zaludnienia, jak i produkcji PKB. W odróżnieniu jednak od poprzednich, paleolitycznego i maltuzjańskiego, atraktorów, owa pułapka logistyczna, będzie stanem wysokiego, a nie niskiego dochodu. Całą historię ludzkości można zatem przedstawić na wykresie. N2 – liczebność populacji, P2 – jej PKB per capita

Ważka 03

Ludzkość nie zginie zatem w prorokowanym przez neomaltuzjanistów „zderzeniu”, ani nie przejdzie żadnej „osobliwości” głoszonej z kolei przez wyznawców transhumanizmu. Ludzkość zastygnie w końcu w osiągniętych do mniej więcej połowy XXII wieku formach technologicznych i społecznych niczym ważka w bursztynie. Jedynym działaniem, które w tych warunkach może jeszcze wykrzesać jakąkolwiek niezbędną do dalszego rozwoju dynamikę społeczną, pozostanie już tylko kolonizacja kosmosu i zasiedlanie nowych planet.

Psychohistoria szerzej omówiona została w artykułach:

0 – Wstęp

1 – Myśliwi i króliki

2 – Dzieci lasu i dzieci lodu

3 – Hii venantur monstra maris et opes aequoreas

4 – W znojnym trudzie skarby ziemi wydzierając

5 – Na skrzydłach kapitału

6 – Rozkosze dobrobytu

7 – Kształt rzeczy przyszłych

8 – 1050 lat historii pod flagą biało-czerwoną

9 – Kres wszystkich rzeczy?

10 – Koniec kryminału

11 – Miecze na lemiesze

12 – Gry wojenne 1939

13 – O państwie i mizerii akapu

Ludzie honoru i słudzy prawa

Mówiłem panu zawsze: procesów zaniechać;
Mówiłem panu zawsze: najechać, zajechać!
Tak było po dawnemu: kto raz grunt posiądzie,
Ten dziedzic; wygraj w polu, a wygrasz i w sądzie.

 

Adam Mickiewicz

 

  1. A Fast-Fish belongs to the party fast to it.
  2. A Loose-Fish is fair game for anybody who can soonest catch it.
Herman Melville

Świat i wszystkie znajdujące się w nim zasoby nie są nieskończone. O zasoby owe musi się zatem rozgrywać konkurencja. W świecie przyrody jej rezultatem jest darwinowska ewolucja gatunków. W krótszych, niż ewolucyjne, skalach czasowych, konkurencja o zasoby również odgrywa decydującą rolę i w decydującej mierze kształtuje ludzki behawior. Przebieg takiego konfliktu opisuje teoria gier, a dokładnie tzw. macierz Hammersteina.

Model ten zakłada, że strony konfliktu mogą przyjąć dwie możliwe strategie. Albo dążyć do zawłaszczenia danego dobra, bez względu na roszczenia strony przeciwnej, czyli przyjąć tzw. strategię agresora (A), albo rywalizację, z różnych powodów, odpuścić – jest to strategia ustępująca (U). O przyjęciu danej strategii decydują zaś parametry gry.

Są to stosunek potencjalnych strat (W) do potencjalnych zysków (V), który oznaczymy literą S = W/V, oraz różnica w sile obu stron oznaczona jako X. Jeżeli strategia agresywna spotka się z ustępującą, agresor zgarnia całą pulę, a ustępujący musi obyć się smakiem. Przy spotkaniu dwóch strategii ustępujących, dobro dzieli się po połowie. Natomiast zderzenie dwóch strategii agresywnych prowadzi do walki. Jej zwycięzca zgarnia nagrodę V, natomiast przegrany ponosi straty o wysokości W. Oczywiście większe szanse na zwycięstwo ma silniejszy z przeciwników. Prawdopodobieństwo jego zwycięstwa to X, a porażki (1-X)

Tabela wypłat w zależności od tego, czy dany osobnik przyjmę strategię agresywną (A), czy ustępującą, (U) wygląda zatem następująco:

Strategia Agresor A Ustępujący U
Agresor A X-S*(1-X) 1
Ustępujący U 0 0,5

Z tabeli tej możemy odczytać, że, kiedy średni zysk z agresji, zarówno silniejszej, jak i słabszej strony jest większy od zera, obie strony przyjmą postawę agresywną. Stanie się tak wtedy, kiedy (1-X)-S*X>0, czyli X<1/(1+S). Krzywa o tym równaniu oddziela strefę (I), na poniższym wykresie zaznaczoną na niebiesko, w której trwa stała wojna wszystkich ze wszystkimi, gdzie, idąc za przytoczoną w pierwszym motcie radą Gerwazego, niecha się wszelkich procesów, a preferuje najechanie i zaniechanie, od strefy (II) – zielonej, w której konflikty kończą się poprzez ustępowanie silniejszemu, jeżeli się jest słabszym, a wymuszanie takiego ustępstwa, jeżeli jest się silniejszym, czyli przez przyjęcie strategii Pragmatyka (P). Jest jednak jeszcze jedna, III, czerwona strefa, w której zastosowanie przemocy nie opłaca się nie tylko słabszemu z rywali, ale także silniejszemu, czyli wtedy, kiedy X-S*(1-X)<0, zatem X<S/(1+S). W tej strefie obie strony unikają bezpośredniej walki, a rywalizacja jest rozstrzygana przez czynniki obiektywne, które w ludzkich społeczeństwach przyjmują postać regulacji prawnych, czy to zwyczajowych, jak te przytoczone w drugim motcie niniejszego eseju, czy to spisanych. Oparta na takich kryteriach strategia nosi więc nazwę strategii legalisty (L). Podobnie jak w strefie II spotykają się zawsze strategie agresywne z ustępującymi, ale decydujący jest nie stosunek sił, ale obiektywne reguły prawne, zwłaszcza prawo własności. Legalista z legalistą dzielą się zatem, podobnie jak dwaj ustępujący, średnio dobrem po połowie. Raz bowiem „w prawie” będzie jeden, raz drugi.

 Przestrzeń rozwiązań macierzy Hammersteina w postaci graficznej przedstawiono na wykresie nr 1

Broń 01

Większość współczesnych najbogatszych i najbardziej rozwiniętych społeczeństw znajduje się już w strefie III i dlatego są one też bardzo praworządne, a współczynnik przestępczości jest w nich bardzo niski. To samo dotyczy stosunków międzynarodowych, które nigdy w historii nie były tak pokojowe jak obecnie.

W III strefie zatem, strategia legalisty, daje najwyższe wypłaty wszystkim graczom, czyli w języku teorii gier, jest optymalna w sensie Pareto. Jednak wcale nie musi to oznaczać, że gracze będą ją stosować. Często bowiem zdarza się, jak w słynnym „dylemacie więźnia”, że strategia optymalna nie jest zarazem strategią ewolucyjne stabilną, to znaczy nie jest odporna na inwazję innych, alternatywnych strategii. W dylemacie więźnia wszyscy odnieśliby korzyści ze zmiany strategii, ale pierwszy gracz, który to uczyni, przegra z tymi, którzy strategii nie zmienią.

Aby zbadać to zagadnienie, autor przeprowadził odpowiednią symulację komputerową. Założymy, że populacja ma parametry X = 0,7, S = 20, czyli znajduje się głęboko w strefie III. Początkowo składa się ona w połowie z agresorów (A), w połowie z ustępujących (U). Prawdopodobieństwo „mutacji”, czyli losowej zmiany strategii używanej poprzednio na jakąś inną, także legalistyczną (L), wynosi 0,2%.  Przyjmujemy, że populacja jest nieskończona, czyli ignorujemy losowy dryf strategii. W każdej turze strategie grają przeciwko sobie, a strategia częściej wygrywająca zwiększa swój udział w populacji kosztem strategii częściej przegrywających. Rezultat symulacji wygląda następująco:

Strat 02

Przy tak wysokim współczynniku S, czyli dużych kosztach porażki w stosunku do potencjalnej nagrody, strategia (A) nie opłaca się wcale i jej udział szybko spada do zera. Równie gwałtownie wzrasta za to udział strategii (U). Wkrótce jednak w populacji pojawia się, wcześniej tam nieobecna, strategia legalistyczna i błyskawicznie, w ciągu zaledwie 50 rund zdobywa zdecydowaną przewagę, wypierając obie pozostałe strategie na stałe. Zapewniająca pokój społeczny i międzynarodowy strategia legalisty jest w III strefie zatem, nie tylko optymalna, ale i stabilna.

Na tym można by rozważania na ten temat zakończyć, gdyby nie poczucie pewnego niedosytu. Czy opisane wyżej trzy strategie (A), (U) i (L), wraz z pominiętą, dla jasności wywodu, strategią (P), są na pewno jedyne możliwe? Przecież, skoro jedynie konsekwencje ewentualnej porażki, powstrzymują agresora, to czy można zostać agresorem bez tych konsekwencji? Zacząć od strategii agresywnej. Kiedy przeciwnik ustąpi, można wtedy zgarnąć całą pulę, bez dzielenia się nią, co średnio musi robić legalista. Natomiast, jeżeli przeciwnik w odpowiedzi będzie agresywny, wtedy ustąpić i uniknąć kosztów ewentualnej przegranej. Każdy, kto choćby z grubsza zna stosunki panujące wśród dzieci szkolnych, doskonale taką postawę zna. To strategia chojraka (C). Przy spotkaniu z agresorem chojrak zawsze ustąpi, przy spotkaniu z ustępującym zawsze będzie agresywny. W rywalizacji z legalistą będzie się zachowywał jak legalista, zaś w konfrontacji dwóch chojraków, któryś w końcu „pęknie” pierwszy, zatem, nagroda również będzie podzielona po połowie. Symulacje wykazują, że chojractwo nie popłaca ani w strefie I, ani II. Co się jednak stanie, jeżeli chojracy pojawią się w strefie III, w społeczeństwie legalistów? Odpowiedź znajdziemy na następnym wykresie. Parametry modelu są te same co przedtem.

Strat 03

Wbrew temu, czego można by intuicyjnie oczekiwać, udział chojraków powoli, ale systematycznie wzrasta. Chociaż bowiem w społeczeństwie legalistów chojracy są niewykrywalni, to jednak lepiej od legalistów są odporni na stale zachodzącą „pełzającą” inwazję pozostałych strategii. W starciu z, pojawiającymi się od czasu do czasu, ustępującymi, chojracy będą mieli średnio większy od legalistów profit, tak samo unikając konfliktu z agresorami, poniosą mniejsze od legalistów straty. Per saldo zatem poradzą sobie od legalistów trochę lepiej. W końcu legalizm znika zupełnie. Wtedy pojawiają się agresorzy. Będą oni owocnie żerować na zawsze ustępujących przed nimi chojrakach, ale ich udział będą limitować wzajemne kosztowne walki. Ewolucyjnie stabilna okazuje się strategia mieszana złożona w ok 90% z chojraków i 10% agresorów. Co gorsza, owa stabilna strategia, w przeciwieństwie do legalistycznej, już nie jest optymalna. Na szczęście jednak i chojrak ma swego pogromcę. W celu jego znalezienia powtórnie musimy sięgnąć do doświadczeń ze szkoły podstawowej. Receptą na chojraka jest tam swoista chojraka odwrotność – mściciel (M). W spotkaniu ze strategią agresywną jest agresywny, w spotkaniu ze strategią ustępującą sam jest ustępujący. Powtórzmy zatem poprzednią symulację dodając możliwość pojawienia się mścicieli. Ponownie wszystkie parametry modelu pozostają bez zmian.

Strat 04

Początkowo wszystko przebiega tak jak w poprzedniej symulacji. Chojracy stopniowo wypierają legalistów. Jednak kiedy osiągają oni dominację liczebną, z popiołów i gruzów praworządności powstaje Mroczny Mściciel… No dobrze, bez poetyckich metafor, po prostu mściciel (M). Strategia (M) błyskawicznie wymiata z populacji chojraków. Społeczeństwo samych mścicieli nie jest jednak stabilne i stopniowo nasyca się także ustępującymi, którzy ponoszą mniejsze od mścicieli straty w wyniku inwazji strategii agresywnych, ale gorzej od nich radzą sobie z chojrakami. Ostatecznie stabilna ewolucyjnie okazuje się strategia mieszana złożona w ¾ (M) i ¼ (U). Ta strategia, podobnie jak strategia 90% (C) i 10% (A) z poprzedniego wykresu, również nie jest paretooptymalna, ale różnica, w stosunku do legalistów, jest niewielka.

Strategia (M) jest zresztą tak skuteczna, że ostatecznie wygrywa nie tylko w strefie III, „legalistycznej”, ale i w obu pozostałych, co wydaje się być sprzeczne z intuicją. W końcu mściciel musi walczyć z agresorami narażając się na straty, a w spotkaniu z ustępującymi zadowala się tylko połową możliwego zysku. A jednak w dłuższej perspektywie szkolna strategia „sam nikogo nie zaczepiaj, ale jak cię ktoś zaczepi to natychmiast mu oddaj” pokonuje wszystkich rywali.

Pozostaje pytanie, dlaczego w ogóle się przejmować, że społeczeństwo (M)/(U), czyli, z grubsza rzecz biorąc, oparte na honorze, jest bardziej stabilne niż społeczeństwo (L) oparte na prawie i praworządności, skoro różnica w całkowitej sumie wypłat jest bardzo niewielka?

No cóż, nieprzypadkowo, aby zademonstrować strategie (C) i (M), musieliśmy się odwołać do przykładu szkoły podstawowej. W przeciwieństwie bowiem do naszego teoretycznego, wyidealizowanego modelu, w realnym życiu, społeczeństwa honorowe, zdominowane przez mścicieli, występują tylko, albo wśród dzieci, albo wśród najbiedniejszych, najbardziej prymitywnych warstw społecznych, jak przykładowo więźniowie. Historycznie zaś, rozwój cywilizacji, wiązał się z ugruntowaniem postaw legalistycznych i rugowaniem wszelkich typowych dla mścicieli zachowań honorowych, jak np. pojedynków. Ta rozbieżność z modelem świadczy o tym, że czegoś istotnego w tym ostatnim nie uwzględniliśmy. Czego konkretnie?

Parametr S, czyli stosunek kosztów porażki do zysków ze zwycięstwa, jak wyżej autor uzasadniał, określa które strategie w której strefie są optymalne, a które dominujące. Ale ów parametr, co do tej pory ignorowaliśmy, sam również od tych strategii w swoistym sprzężeniu zwrotnym zależy. Wysokie S odpowiada społecznościom zamożnym, w wysokim stopniu złożonym i rozwiniętym cywilizacyjnie. Ale tak wysoki poziom ekonomiczny i cywilizacyjny jest w stanie zbudować wyłącznie społeczeństwo praworządne, z ugruntowanym prawem własności, społeczeństwo legalistów, podczas gdy społeczeństwo mścicieli, wyższego, niż plemienny, poziomu rozwoju nigdy samodzielnie nie osiągnie. Jednak takie rozwinięte i skomplikowane społeczności legalistów, jak się okazuje, są wysoce podatne na inwazję chojraków i w konsekwencji na zdominowanie przez mścicieli, a zatem i upadek.

Aby uniknąć tej groźby, społeczeństwo musi się przed chojrakami bronić, w inny, niż liczenie na interwencję mścicieli, sposób. Jak już to opisano, w spotkaniu z legalistą, chojrak zawsze będzie zachowywał się jak legalista. Jednak spotkanie dwóch chojraków, chociaż wycenione zostało w pierwszym przybliżeniu tak samo, jak spotkanie dwóch legalistów, w pewien subtelny sposób jednak się od niego różni. Tak samo jak legaliści muszą ustalić który z nich jest „w prawie”, co wszakże nie zawsze jest bezproblemowe i może nawet skończyć się w sądzie, tak samo chojracy muszą ustalić który z nich jest akurat tym większym chojrakiem. W jeszcze gorszej sytuacji są, potraktowani w niniejszym eseju nieco po macoszemu, pragmatycy, bo oni z kolei muszą ustalić, który z nich jest silniejszy, co jest procesem znacznie bardziej złożonym i podatnym na błędy, niż wszelkie, nawet docierające na poziom sądowy, spory legalistów, czy teatralne miny i gesty chojraków. Dlatego też realnie strategia (P) osiąga gorsze wyniki, niżby to wynikało z teorii, a, co za tym idzie, strefa II ma mniejszy zasięg niż to widać na wykresie nr1.

 Jeżeli zatem sam proces wyłonienia zwycięzcy rywalizacji pochłonie chojrakom więcej czasu i zasobów, niż ma to miejsce w przypadku legalistów, chojracy znajdą się na przegranej pozycji i legalistom nie zagrożą. Im bardziej zatem zasady prawne są proste, zrozumiałe i stabilne, a system prawny sprawny, obiektywny i nieskorumpowany, tym większa jest przewaga legalistów nad chojrakami, mniejszy jest udział tych ostatnich w społeczeństwie i tym samym na wyższy poziom rozwoju gospodarczego i cywilizacyjnego może ono się wspiąć. Na ostatnim wykresie pokazano taki zmodyfikowany model, który zakłada, że rozstrzygnięcie sporu miedzy chojrakami jest o 4% kosztowniejsze niż sporu pomiędzy legalistami.

Strat 05

Nawet tak niewielka różnica, wystarczy do tego, żeby zahamować ekspansję chojraków i uzyskać strategię ewolucyjnie stabilną 80% (L) i 20% (C). Oczywiście im ta różnica będzie większa, tym udział strategii chojrackich w takim społeczeństwie będzie niższy, i tym samym to społeczeństwo będzie zamożniejsze i bardziej rozwinięte.

Widać zatem, dlaczego, co autor opisywał w esejach o psychohistorii, jakość instytucji, prawa i sposób sprawowania władzy ma tym większe znaczenie, im bardziej rozwiniętego, tzn. posiadającego wyższy S, społeczeństwa dotyczy. Szeregowi członkowie społeczeństw predindustrialnych, bytujących, z punktu widzenia macierzy Hammersteina, w strefie I, lub, co najwyżej, II, nie odnoszą z lepszej jakości władzy i sądów żadnych wymiernych korzyści ekonomicznych. Dlatego też rządy w takich społeczeństwach są domeną warstw nie szeregowych. Arystokracji bądź oligarchii, które mają dostatecznie wiele do stracenia, aby procesem politycznym się interesować i weń ingerować, oraz aby budować sprawiedliwy system prawny …dla siebie.

Jednak populacja, która przeszła już rewolucję industrialną i dotarła do strefy III, zachowuje się już zupełnie inaczej i wszelkie analogie historyczne z czasów maltuzjańskich nijak do niej nie pasują. Im głębiej w strefę III społeczeństwo się zanurzy, tym bardziej będzie czułe na jakość stanowionego prawa i jego egzekucji. Wbrew niektórym popularnym poglądom, państwo zatem nie znika, ale musi ewoluować w stronę coraz większej wydajności. Różnice pomiędzy krajami rządzonymi dobrze, a tymi rządzonymi źle, stają się coraz większe i narastają coraz szybciej, w końcu nawet bardzo drobne różnice w jakości rządzenia mogą skutkować bardzo dużymi różnicami cywilizacyjnymi. Dlatego socjalizm radziecki w XX wieku przetrwał pół stulecia, a socjalizm boliwariański, mimo że nieporównywalnie od radzieckiego lepszy, w wieku XXI nie utrzymał się nawet dekady. Narodowy socjalizm pisowski w Polsce również nie ma przed sobą na szczęście żadnej przyszłości. Upaść musi. Pytanie tylko, czy razem z okupowaną przez siebie Polską.

Na zakończenie autor przedstawi jeszcze pełny model Hammerteina wraz ze wszystkimi omawianymi strategiami. Przyjęto dodatkowo parametr Q = X+(1-X)*S, jako wynik bezpośredniego konfliktu.

Strat 06a

Aby urealnić powyższą tabelę, należałoby dodatkowo, jak o tym wyżej napisano, zmniejszyć wypłatę dla kombinacji dwóch chojraków (C) – (C), oraz dla wszystkich wypłat Pragmatyka (P)

Ciąg dalszy eseju pod tytułem „Mściciel, Legalista, Jezus

Ciąg jeszcze dalszy „Wojna Asurów 1984