Był las, będzie las.

Zgodnie z danymi GUS, pod koniec 2017 roku, lasy zajmowały 29,6% powierzchni Polski. Według alternatywnej, międzynarodowej metodologii liczenia, faktyczna lesistość wynosi już u nas 30,9%. Dla porównania, w 1945 roku lasy rosły tylko na 20,8% powierzchni naszego kraju. Lasów jest w Polsce nie tylko coraz więcej, ale i są one też coraz gęstsze. Ich tzw. miąższość, liczba metrów sześciennych drewna na jeden hektar, rośnie bowiem również systematycznie od 1945 roku.

W skali Europy nie jest też Polska pod tym względem żadnym ewenementem. Lasy systematycznie zwiększają swój zasięg w prawie wszystkich krajach kontynentu. Jednocześnie jednak, co rusz jesteśmy atakowani medialnymi doniesieniami o „zagładzie lasów”, o „utracie lasów”, o „rabunkowej wycince lasów”. I nie są to wcale alarmy wyssane z palca. Ponieważ jednak, jak widzimy, nie odnoszą się one do Europy, owa rabunkowa eksploatacja musi mieć miejsce na innych kontynentach. I znów, nie dotyczy to jednak takich krajów, jak Australia, Nowa Zelandia, Kanada, USA, czy Japonia.

Jeremiady nad zagładą lasów, starannie jednak tę kwestię omijają. Dlaczego w niektórych krajach lasy są wycinane, a w innych wręcz przeciwnie? Odpowiedź na to pytanie, to wszak pierwszy krok, aby lasy ochronić także w skali globalnej. W celu znalezienia tej odpowiedzi zbudujemy zatem teraz odpowiedni model lasu. W pierwszym przybliżeniu, las składa się z drzew, roślin o ekstremalnie długim czasie wzrostu. Zakładając, że po czasie T, drzewo osiąga swoją maksymalną objętość i dalej już nie przyrasta, najbardziej ekonomiczną opcją, jest wycięcie tych drzew, które w danym roku ten wiek T osiągnęły i na ich miejsce posadzenie nowych. W kolejnym roku wycina się drzewa, które rok wcześniej były w wieku T-1 i tak dalej. W ten sposób, można osiągnąć stały dochód z lasu, bez jego rabunkowej wycinki. Załóżmy, że roczny zysk, z tak racjonalnie eksploatowanego lasu, wynosi a jednostek. Ile można uzyskać z eksploatacji nieracjonalnej? Z wycięcia całego lasu w pień?

Jeżeli przyrost drzewa, jak i zresztą każdego innego żywego organizmu, odbywa się w trzech wymiarach, to łączna jego objętość rośnie proporcjonalnie do trzeciej potęgi czasu. Zakładając, że wartość kubika drewna też jest liniowo proporcjonalna do wieku drzewa, stosunek A/a, czyli kwoty, jaką można uzyskać z wycięcia wszystkich drzew, do zysku z wycięcia jedynie drzew najstarszych, w wieku T, wynosi ok. 0,2*T+0,46. Dotyczy to zresztą nie tylko lasów, ale i wszystkich innych zasobów przyrodniczych, słoni czy ryb w morzu. Nawet zatem dla stosunkowo dużych wartości T, jak T=100 lat, już po 20 latach racjonalna gospodarka leśna góruje ekonomicznie nad nieracjonalną, rabunkową. Dlatego przecież jest ona właśnie racjonalna.

Las można też jednak wyciąć z innego, niż żądza natychmiastowego zysku i wyzysku, powodu. Las bowiem, zajmuje pewną przestrzeń, która, wykorzystana w inny sposób, mogłaby przynieść swojemu właścicielowi wyższe, niż a, dochody. Alternatywny w stosunku do a zysk z danej powierzchni, oznaczmy jak b. Przegląd realnych dzisiejszych czynszów gruntowych, prowadzi jednak do konkluzji, że warunek b>a jest spełniony jedynie w przypadku terenów przeznaczonych pod budownictwo, czy ogólnie nieruchomości miejskich. Są to jednak, w skali planety, areały zbyt małe, aby wyjaśnić światowy kryzys leśny. Realnie lasy konkurują o miejsce na Ziemi nie z miastami i budynkami, ale z uprawami rolnymi. A tutaj ekonomia jest bezlitosna. Stosunek b/a w przypadku rolnictwa, jest obecnie znacznie niższy od jedności i waha się od 1/3 w lasach strefy umiarkowanej, takich jak lasy Polski, do nawet 1/10 w tropikalnych lasach deszczowych, akurat tam, gdzie problem deforestracji jest szczególnie palący. Roczny zysk z lasu jest, co najmniej kilkukrotnie wyższy, niż zysk z pola ziemniaków, czy soi. Wyraźnie widać zatem, że jakiegoś kluczowego czynnika w naszej kalkulacji nie uwzględniliśmy.

Tym nieuwzględnionym do tej pory czynnikiem jest czas. Wartość pieniądza nie jest bowiem stała i zmienia się w czasie. Wie o tym każdy, kto musiał się targować z dzieckiem, o to, czy woli ono jeden cukierek dzisiaj, czy dwa cukierki jutro. U dzieci ten spadek wartości kapitału, zwany też preferencją czasową, jest bowiem szczególnie duży. Jednak i w wieku dorosłym każdy wolałby dostać sto złotych raczej dzisiaj niż za rok, a zapłacić na odwrót. Tempo takiego spadku wartości pieniądza w czasie, którego to zjawiska nie należy mylić z inflacją, jest określone przez tzw. stopę dyskonta, albo stopę procentową. W ujęciu matematycznym zmianę wartości kapitału opisuje równanie wykładnicze:

P = P0*e-rt

W którym t to czas, a r, stopa procentowa. Opisane wyżej zjawisko jest podstawą, szeroko w biznesie stosowanej, analizy NPV (ang. Net Present Value). Polega ona na zsumowaniu wszystkich przewidywanych w przyszłości, w czasie t, wpływów i wydatków, czyli przepływów finansowych, tzw. Cash Flow CF i sprowadzenie ich, za pomocą wspomnianej formuły matematycznej, do obecnej wartości pieniądza, czyli ich zdyskontowanie. Im wyższy wynik NPV, tym bardziej korzystny finansowo jest dany biznes. Dla naszych celów zrobimy taką analizę dla czterech możliwych scenariuszy.

  1. Racjonalna eksploatacja posiadanego lasu z zyskiem a rocznie

NPV 1 = (a/r)*(1-e-rt)

  1. Wycięcie lasu i przeznaczenie gruntu pod uprawę soi czy ziemniaków z zyskiem b rocznie

NPV 2 = A+(b/r)*(1-e-rt)

  1. Racjonalna eksploatacja posiadanego pola z zyskiem b rocznie

NPV 3 = (b/r)*(1-e-rt)

  1. Zalesienie posiadanego pola soi czy ziemniaków, odczekanie przez czas T, aż wyrośnie tam las i jego późniejsza racjonalna eksploatacja z zyskiem a rocznie

NPV 4 = (a/r)*( e-rT -e-rt)

Właściciel pola może wybierać między scenariuszami 3 i 4, właściciel lasu pomiędzy 1 a 2. O tym, który ze scenariuszy jest bardziej opłacalny, decyduje kombinacja czterech parametrów. Pierwszy z nich, czas wzrostu T jest determinowany biologicznie i od ludzkich decyzji w ogóle nie zależy. Dwa następne parametry to stosunek b/a, oraz stopa procentowa r wynikają z sytuacji ekonomicznej, średniej ceny drewna i płodów rolnych, oraz od stopnia nasycenia gospodarki kapitałem. Stopa dyskonta z grubsza wynika bowiem z poziomu zysku, jakie mogą przynieść alternatywne sposoby tegoż kapitału zainwestowania. Wreszcie ostatni czynnik to czas t. W przypadku inwestycji w nieruchomości, uznaje się zazwyczaj, że założony zysk będzie wpływał zawsze, czyli że t dąży do nieskończoności. Nawet, jeżeli nieruchomość zostanie w którymś momencie sprzedana, to jej cena będzie odpowiadać sumie zdyskontowanych zysków, które dana nieruchomość przynosi, czyli tak zwanej wartości rezydualnej RV. Matematycznie są to sytuacje równoważne. W tej sytuacji możemy nasz model, przy stałym T (przyjęto 60 lat) i nieskończonym t, sprowadzić do dwóch tylko wymiarów. Wynik obliczeń przedstawia poniższy wykres:

Lasy 01

Można na nim wyróżnić trzy obszary. W strefie I, prawej górnej części wykresu, powyżej niebieskiej linii granicznej, przy niskich cenach drewna i wysokiej stopie procentowej, opłaca się las wyciąć i zastąpić go uprawami. Jednak, kiedy cena drewna wzrośnie, albo gospodarka nasyci się kapitałem, punkt równowagi przemieści się w lewo i w dół do kolejnej strefy – II. Tutaj już lasu wycinać w pień się nie opłaca, bo na racjonalnym nim gospodarowaniu można zarobić (w sensie NPV) więcej. Nadal jednak właściciel pola soi nie ma wystarczających bodźców ekonomicznych, aby swoje pole zalesić i czekać 60 lat na osiągnięcie wyższych niż b dochodów. To staje się opłacalne dopiero w strefie III, przy jeszcze niższych stopach procentowych i jeszcze wyższych cenach drewna. Nieużytki, dla których b = 0, opłaca się zalesić niezależnie od wysokości stóp procentowych. Oczywiście zachodzi tu też pewne sprzężenie zwrotne. Stosunek b/a w znacznym stopniu zależy od podaży i odzwierciedla stosunek przeznaczonych pod odpowiednie uprawy areałów. W strefie I stopniowe zmniejszanie lesistości prowadzi do spadku b/a i przesuwania się punktu równowagi w lewo, aż do momentu, kiedy dotrze on do granicy strefy II, gdzie wycinki zamierają. Dalszy rozwój gospodarczy prowadzi do akumulacji kapitału i spadku stóp procentowych, co powoduje ruch w dół wykresu, aż do momentu dotarcia do strefy III, gdzie lesistość zaczyna ponownie rosnąć, co z kolei prowadzi do wzrostu b/a Jeżeli zmiany te są wystarczająco powolne, w miarę spadku stóp procentowych punkt równowagi będzie się ześlizgiwać w dół wykresu wzdłuż granicy pomiędzy strefami II i III i lesistość będzie powolutku, lecz stale, rosnąć. Takie właśnie zjawisko obserwujemy w Europie i innych rozwiniętych obszarach świata.

Jednak nie wszędzie. Jak już wspomniano, w skali planety powierzchnia lasów się zmniejsza, czyli, poza Europą, Kanadą, czy USA, są obszary, zwłaszcza w Afryce, Ameryce łacińskiej, czy Azji, gdzie intensywność wyrębów jest znacznie wyższa niż wzrost lesistości w krajach rozwiniętych. Czy te obszary znajdują się w strefie I? Faktycznie, są to kraje biedne, w których występuje deficyt kapitału, zatem i stopy procentowe są tam wyższe niż w krajach rozwiniętych. Z drugiej jednak strony, dla dżungli tropikalnych, parametr b/a jest znacznie, kilkukrotnie niższy niż dla lasów strefy umiarkowanej. Lasy tropikalne rosną szybciej, a drewno z tej strefy klimatycznej, mahoń, tek czy heban jest też od sosny, czy brzozy znacznie droższe. W rezultacie punkt równowagi na wykresie leży wyżej (wyższe stopy procentowe), ale i bardziej w lewo (niższe b/a). Może i nie wystarczy to na utrzymanie się w strefie III, ale nie powinniśmy też wyjść w strefę I. Nasz model najwyraźniej tu szwankuje.

Zbyt pochopnie bowiem przyjęto w nim pewne uproszczenie. Nieprzypadkowo pierwszy wykres ma w tytule „gospodarkę wolnorynkową” Tylko w krajach cywilizowanych, z wolnorynkowym, praworządnym ustrojem gospodarczym, gdzie księgi wieczyste faktycznie są wieczyste, czas t władania daną nieruchomością można przyjąć, tak jak autor zrobił to wyżej, za nieskończony. Daleko jednak nie wszystkie kraje na świecie można za takowe uznać. W krajach dzikich, a takie właśnie stanowią w strefie występowania dżungli tropikalnych większość, własność prywatna i jej ochrona nie jest bynajmniej na czołowym miejscu na liście parytetów tamtejszych władz. Nawet, jeżeli ktoś jakąś działkę formalnie posiada, wcale nie może być pewien, czy za 5, lub 10 lat jakiś kolejny reżim nie zacznie bronić narodu przed wyzyskiem międzynarodowych korporacji i prywatnej własności, i w ramach sprawiedliwości ludowej, nie skonfiskuje. W konsekwencji władający (chwilowo) jakimś terenem będą się starali maksymalizować swoje wskaźniki NPV nie w nieskończoności, jak Szwajcarzy, czy Amerykanie, ale w przedziałach czasu znacząco krótszych. Im bardziej dziki, socjalistyczny i nieprzewidywalny jest tamtejszy reżim, tym ten przewidywany czas t będzie krótszy. Jak na to zareagują lasy? Ustalając, tak jak w poprzednim przypadku T na 60 lat i typowy obecnie poziom r = 4%, można zbadać losy lasu w zależności od zmian pozostałych parametrów modelu. Stosunku cen b/a i czasu władania t. Z pierwszego wykresu możemy dodatkowo odczytać, że, w warunkach wolnorynkowych, granicą wycinki przy tych założeniach byłoby b/a = 50%, a granicą zalesiania b/a = 9%.

Lasy 02

Wynik jest oczywisty. Przy odpowiednio krótkim czasie t, lasy będą znikać, nawet przy stosunkowo niskich stopach procentowych i właściwie dowolnie wysokich cenach drewna. W warunkach wysokiego stopnia socjalizmu (niskiego t) każdy próbuje się nachapać jak najszybciej, bez oglądania się na przyszłość.

Model nasz, jak każdy dobry model, nie tylko więc wyjaśnia obserwowany stan faktyczny w Europie, tak samo jak i w Afryce, ale i daje odpowiedź na pytanie, w jaki sposób światowe wylesienia powstrzymać i odwrócić. Stanie się tak, kiedy kraje, które na swoim terytorium posiadają ekosystemy tropikalne, będą choćby w przybliżeniu tak wolnorynkowe i praworządne jak kraje europejskie, Nowa Zelandia, czy Japonia. Nie tylko wzrośnie wtedy, docelowo do nieskończoności, oczekiwany czas władania t, ale i napłynie tam kapitał, obniżając stopę procentową r. Lasy Kongo, czy Ekwadoru będą wyglądać jak lasy Szwecji czy Francji wtedy, kiedy same Kongo i Ekwador będą równie praworządne jak Szwecja i Francja, a własność prywatna będzie tam, w przynajmniej porównywalnym stopniu, przez prawo i państwo chroniona.

W powyższych rozważaniach przyjęliśmy, że stosunek b/a zależy wyłącznie od podaży, czyli od odsetka powierzchni lasów w danym kraju. To oczywiście uproszczenie. Popyt też odgrywa znacząca rolę i może modyfikować zachowanie naszego modelu w zauważalnym stopniu. Kiedy zapotrzebowanie na drewno jest niskie, a na płody rolne wysokie, wylesienia będą znacznie większe, niż przy sytuacji przeciwnej. Kiedy jakiś czas temu zaczęto na świecie lansować, produkowane z kukurydzy, „ekologiczne”, tzw. „biopaliwa”, potencjalnie była to moda dla lasów bardzo niebezpieczna. Na szczęście biopaliwa z mody ostatecznie wyszły. Dzisiaj natomiast promuje się ograniczenia w produkcji i użyciu tworzyw sztucznych, plastików. W większości zastosowań najbardziej wygodną dla plastiku alternatywą jest właśnie drewno i materiały drewnopochodne, jak papier. Odejście od plastików spowoduje więc duży wzrost popytu na drewno. Na naszych wykresach jest to równoważne przesunięciu, w bardzo dużym stopniu, równowagi w lewo. Czyli w stronę strefy II a nawet III. Lasy na świecie nie tylko przestaną się kurczyć, ale znów zaczną powiększać swój areał. Co ciekawe, promotorzy tego rozwiązania, w ogóle go w ten sposób nie próbują uzasadniać, chociaż byłoby to znacznie bardziej sensowne i zrozumiałe, niż głoszone w zamian kłamliwe i niewiarygodne tezy o „zanieczyszczeniu środowiska”.

Aby jednak ten efekt wzrostu lesistości w pełni się objawił, potrzebna jest jednak jeszcze odpowiednia wysokość t, Jak widać na drugim wykresie, w krajach źle rządzonych, o niskiej, mniejszej niż ok 20 lat, jego wartości, żadne zwiększanie popytu nic nie da. Lasy i tak zostaną wycięte do końca, a nieudolne i skorumpowane tamtejsze reżimy będą o to obwiniać korporacje, globalny kapitał i „neoliberalizm”.

Węglowe requiem

Ideologii klimatyzmu, bardzo wpływowej obecnie, na poły sekcie religijnej, na poły politycznemu i ekonomicznemu lobby, poświęcił niżej podpisany już wiele artykułów, a nawet całą książkę. Temat jednak nadal jest daleki od wyczerpania. Sekta klimatystyczna, głosi, w największym skrócie, że wskutek kapitalistycznej żądzy zysku i wyzysku, „przeludnienia” i „zbytecznej, nadmiernej konsumpcji”, czeka nas w najbliższej, kilkunastoletniej perspektywie czasowej, totalna zagłada, lawinowy wzrost ziemskiej temperatury, aż do upieczenia całej ziemskiej biosfery włącznie. Bezpośrednią tego przyczyną ma być niekontrolowany wzrost tzw. efektu cieplarnianego, wywoływanego przez CO2 emitowany przy okazji spalania paliw kopalnych – węgla, ropy i gazu. Większa populacja = większa konsumpcja = większe spalanie = więcej CO2 = katastrofa.  Podobnie jak to było w przypadku poprzedzających ich w przestrzeni medialno – społecznej, kreacjonistów, również klimatystyści swoje Ciało Kierownicze mają w USA. Ciało to, o czym autor również miał niejednokrotnie okazję pisać, chociaż jest bez wątpienia bardziej od Ciała kreacjonistów kompetentne i z nauką obeznane, to jest to jednak różnica jedynie ilościowa. Tak samo również, lokalne mutacje klimatyzmu, w tym polska, są jeszcze bardziej przeraźliwie prowincjonalne i zaściankowe, co było widać przy okazji próby wykreowania polskiego odpowiednika Grety Thunberg – próby żałosnej w swojej wtórności i sztuczności.

Klimatyści spoza anglosaskiego kręgu kulturowego, ograniczają się bowiem jedynie do powielania i co najwyżej, tłumaczenia na inne języki, przekazu propagandowego płynącego z centrali. Tłumaczenia zresztą, wskutek luk w ich wykształceniu, bardzo ułomnego. Jednym z przejawów tego zjawiska jest prezentowanie amerykańskich realiów społecznych i ekonomicznych, jako reprezentatywnych także dla kraju, w którym akurat dany odłam klimatystów swoją Prawdę Głosi. Widocznym i bardzo jaskrawym tego przykładem jest notoryczne sprowadzanie „paliw kopalnych”, a nawet całej światowej energetyki w ogóle, wyłącznie do ropy naftowej. Owszem, prawdą jest, że ropa naftowa daje największy wkład w ludzką energetykę, ale jest to nadal jedynie 1/3 całości, choć jeszcze na początku lat 70 XX wieku, była to równo połowa. Obecnie jednak, 2/3 światowej produkcji energii pochodzi z innych, niż ropa naftowa, źródeł. Globalnie. Bo lokalnie, np. w polskiej węglowej rzeczywistości, te proporcje mogą być zupełnie odmienne, co sprawia, że mechanicznie przeniesiona tam klimatystyczna propaganda brzmi już bardzo dziwacznie i fałszywie.

Pod względem sposobów pozyskiwania energii, wszystkie kraje na świecie można bowiem podzielić na cztery główne grupy, w matematyce zwane klastrami. USA, ojczyzna klimatyzmu, podobnie jak Wielka Brytania i wiele innych krajów, w tym np. Japonia i Niemcy, należą do klastra, słusznie mogącego być nazwanego, naftowym. One akurat faktycznie reprezentują cywilizację „opartą na ropie”. Polska jednak, czego nasi lokalni klimatyści zwykle nie zauważają, do tej grupy nie należy. Wraz z Czechami i Ukrainą, ale także Chinami i Indiami, tworzy niewielki liczebnie, ale bardzo wyraźnie wyodrębniony, klaster „węglowy”. Trzecią, również bardzo wyraźnie widoczną grupą, są kraje „gazowe”. Przynależą tu głównie państwa z szeroko pojętego regionu Zatoki Perskiej, Iran, czy emiraty, kraje dawnego ZSRR z Rosją na czele, ale również Argentyna, czy Wenezuela. Udział gazu w mikście energetycznym przekracza tam nawet 80% (Uzbekistan). Najbardziej interesujący jest natomiast klaster czwarty. Obejmuje on kraje, w których poziom zużycia paliw kopalnych jest relatywnie niski. Nazwijmy go więc klastrem „eko”. Jego skład jest dziwny i nieintuicyjny. Obok krajów, których obecności w tej grupie moglibyśmy się spodziewać, jak kraje skandynawskie, Szwajcaria czy Kanada, znajdziemy tam też państwa latynoamerykańskie, Kolumbię Brazylię, Ekwador i Peru. Średni udział poszczególnych źródeł energii w klastrach przedstawia poniższy wykres:

Węgiel 01

Pierwsze, co rzuca się w oczy, to fakt, że kraje „eko” zawdzięczają swój przydomek nieproporcjonalnie wysokiemu udziałowi energetyki atomowej i zwłaszcza wodnej. Natomiast poziom wykorzystania odnawialnych źródeł energii, tzw. „OZE”, chociaż jest tam wyraźnie wyższy niż w krajach węglowych, czy szczególnie gazowych, nie różni się znacząco od tego samego wskaźnika dla krajów naftowych. Tym co łączy te dwa klastry jest także wysoki udział ropy. Ta ostatnia nie jest, jak już o tym wspomniano, w skali świata dominującym nośnikiem energii, ale, z jednej strony jest paliwem, z całej kopalnej triady, najłatwiejszym do transportu i przechowywania, z drugiej zaś, jej podaż, a tym samym cena, jest najmniej przewidywalna i zależna od kaprysów dostawców, którymi są w dominującej części skorumpowane i zamordystyczne reżimy. Pozostałe klastry, węglowy i gazowy, bazują głównie na rodzimych zasobach tych surowców i nie są tak uzależnione ekonomicznie od ich importu. Presja ekonomiczna na szukanie energetycznych alternatyw jest więc w nich zdecydowanie niższa i udział OZE tym samym mniejszy. Ceną za tą względną niezależność od rynków światowych, jest szkodliwa gospodarczo i społecznie dominacja polityczna krajowych monopoli, które te surowce wydobywają i dostarczają. Przeróżnych Gazpromów, Węglokoksów i innych podobnych gangów. Nie jest przypadkiem, że nie ma w tych klastrach żadnego ze światowych liderów cywilizacyjnych. Rozkładają się ci ostatni, w całości pomiędzy kraje naftowe i „eko”

Można postawić prawdopodobną hipotezę, że kraje należące obecnie do klastra „eko”, różnią się od naftowych jedynie tym, że mają bardziej od nich korzystne warunki naturalne do produkcji prądu z elektrowni wodnych (Norwegia, Szwajcaria), lub kiedyś podjęły decyzję polityczną o inwestowaniu w elektrownie jądrowe (Francja). Jedne i drugie zaś, nadal poszukują możliwości odejścia od ropy, co skutkuje inwestycyjnym rozmachem OZE.

Nie jest też dziełem przypadku, że klimatyzm, jako ruch ideowy, jest najsilniejszy właśnie w tych dwóch klastrach, bo tam odpowiada, cóż z tego, że nieadekwatnie, na autentyczne zapotrzebowanie społeczne. W Polsce natomiast pozostaje, jak do tej pory, absurdalnym dziwactwem, bardziej śmiesznym niż strasznym. Jak do tej pory.

Przez sto lat polska, oparta na węglu, energetyka, chociaż zdominowana przez węglowych monopolistów, była w dużej mierze niewrażliwa na światowe kryzysy i gwałtowne wahania cen. Czas ten jednak dobiegł właśnie końca. Łatwe w eksploatacji złoża węgla już się w Polsce wyczerpały, a wydobycie surowca z pozostałych jest coraz droższe. Konsekwentnie, mimo wszystkich wysiłków rządowej biurokracji, stawiającej temu procesowi bariery celne, podatkowe i biurokratyczne właśnie, węgiel krajowy staje się, w stosunku do importowanego, coraz bardziej niekonkurencyjny. Od 2017 roku, po raz pierwszy w spisanej historii, zużycia węgla w naszym kraju było wyższe niż krajowe wydobycie i tym samym Polska stała się zależna od importu węgla, co widać na poniższym wykresie:

Węgiel 02

Zależność ta, będzie się w przyszłości pogłębiać. Wziąwszy pod uwagę, że zużywana w Polsce ropa i gaz również pochodzi z importu, nasza gospodarka staje się coraz bardziej zależna od importu nośników energii, która to sytuacja nie jest na dłuższą metę korzystna politycznie i gospodarczo. Presja ekonomiczna i polityczna na wyjście Polski z klastra węglowego będzie się zatem nasilać.

Jakie są w takim razie alternatywy? Zamiana węgla na ropę czy gaz, ma dwa potencjalne plusy. Paliwa te pozostawiają po sobie znacznie mniej od węgla zanieczyszczeń (gaz – praktycznie wcale), oraz oznaczają koniec krajowych monopolistów energetycznych. Większe za to wpływy uzyskają za to u nas zagraniczne despotyczne kleptokracje, czy islamskie kacykaty. Zamienił stryjek siekierkę na kijek. W dodatku, tak samo jak węgiel, ropa i gaz obciążone będą stale rosnąca opłatą za „emisje CO2”, przy czym dla efektu ekonomicznego nie ma żadnego znaczenia, że te opłaty są merytorycznie nieuzasadnione. Najbardziej perspektywicznie obiecującym rozwiązaniem wydaje się więc przejście bezpośrednio do klastra „eko”. Niestety, z powodu dominującego u nas płaskiego krajobrazu i stosunkowo skąpych opadów, oparcie się na hydroelektrycznym modelu szwajcarskim, czy norweskim, nie wchodzi w Polsce w grę. Pozostają więc realnie dwie możliwości. OZE – wiatr i słońce, oraz energia atomowa. Każda z tych opcji ma swoje wady i zalety. OZE wymagają małego kapitału początkowego i jako źródła bardzo rozproszone, są mniej podatne na kartelowe zmowy producentów. Są jednak OZE kapryśne i zależne od pogody, choć ich słoneczno – wietrzny dualizm częściowo ten efekt łagodzi. W związku z tym potrzebują sprawnej i rozbudowanej sieci energetycznej, zdolnej do taniego magazynowania nadwyżki energii i oddawania jej w okresach deficytu.

Energetyka atomowa z kolei, ze względu na konieczność wyłożenia dużego kapitału początkowego i w związku z tym długiego okresu zwrotu, potrzebuje bardzo stabilnego otoczenia prawno-instytucjonalnego. Energia z tego źródła płynie za to zrównoważonym, przewidywalnym, strumieniem, a także łatwo generuje duże moce, co jest istotne dla przemysłu i wielkoskalowego transportu. Mogłoby się wydawać, że wadą atomu jest też uzależnienie od zagranicznych dostawców paliwa. Jednak ze względu na olbrzymią, milionkrotnie większą niż w paliwach kopalnych, zawartość energii w jednostce masy paliwa jądrowego, konieczna do produkcji energii ilość samego paliwa jest tak niewielka, że to uzależnienie jest też proporcjonalnie milionkrotnie mniejsze niż w przypadku ropy, czy gazu.

Zważywszy dodatkowo na fakt, że technologie te szybciej (OZE), lub wolniej (atom), ale nieustannie, się rozwijają, ustalenie jakie powinny być u nas, w dłuższej perspektywie czasowej, proporcje pomiędzy energią wiatru, słońca i atomu, jest analitycznie niezwykle trudnym, jeżeli w ogóle możliwym do rozwiązania zadaniem. Przestrzelenie z prognozami może zaś mieć niezwykle bolesne ekonomicznie dla Polski konsekwencje.

Zadanie to, nie powinno być zatem rozwiązywane w sposób analityczny, w jakimś rządowym biurze, czy zespole. Nawet gdyby udało się do niego pozyskać najlepszych fachowców, co samo w sobie jest wątpliwe, to przecież oni też są omylni i podatni na korupcję, a ewentualna pomyłka, jak już wspomniano, bardzo brzemienna w negatywne skutki. Optymalne rozwiązanie jest więc, jak to zwykle w podobnych zagadnieniach bywa, numeryczne, iteracyjne, czyli – wolnorynkowe. Ekonomiczna presja na poszukiwanie, alternatywnych do schyłkowego węgla, źródeł energii i tak już w Polsce istnieje, ale uwolnienie rynku, zniesienie dopłat i rekompensat, i urealnienie cen prądu, znacznie ją wzmocni i konieczne procesy inwestycyjne przyśpieszy. Poszukujący zysku inwestorzy będą budować elektrownie. A jakie konkretnie elektrownie – o tym zdecyduje już wolny rynek i rachunek ekonomiczny.

Rolą państwa jest zatem tylko stworzenie wspomnianego już otoczenia prawnego, który pozwoli inwestorom na myślenie w długich kategoriach czasowych, oraz, co najwyżej, jakiś udział w budowie i utrzymaniu odpowiednio rozbudowanej i elastycznej sieci elektroenergetycznej, która energię z różnych, pracujących w rozmaitych technologiach i reżimach, elektrowni będzie w stanie sprawnie do odbiorców i magazynów przekierować i zaabsorbować. Nawet obecnie, mimo że Polsce daleko jest od spełnienia opisanych warunków, prywatne elektrownie są budowane. Elektrownie jeszcze małe i bazujące na OZE, ale i zapowiedź powstania pierwszego w Polsce komercyjnego i prywatnego reaktora jądrowego, też już się pojawiła. Odejście od węgla i podróż w stronę klastra „eko” już zatem trwa. Można i należy ją przyśpieszyć, bo w końcu nawet klimatyści, w swoim przyciężkawym pomyślunku, połapią się, co jest grane i przełożą wajchy propagandy na zwalczanie bezwęglowych technologii. Emisje CO2, co prawda, się zmniejszą, docelowo pewnie do zera, ale  ..za łatwo i za tanio. Nie będzie to wymagało ani redukcji konsumpcji, ani tym bardziej redukcji populacji, a to są przecież główne cele klimatystów.

Dzieci gwiazd

Choć, według wszelkich rozsądnych oszacowań, w Galaktyce powinno roić się od pozaziemskich cywilizacji naukowo technicznych (CNT), czyli takich, które przynajmniej wynalazły radio, to bezpośrednie obserwacje wskazują coś zupełnie przeciwnego. Ani, trwający już od ponad półwiecza, program SETI nie wykrył żadnych pozaziemskich inteligentnych sygnałów radiowych, ani żadnych śladów pobytu przedstawicieli CNT w układzie słonecznym teraz, lub w przeszłości, nie znaleziono. Ta drastyczna rozbieżność pomiędzy przewidywaniami teoretycznymi, a wielkościami obserwowalnymi, nosi nazwę, od nazwiska uczonego, który pierwszy zwrócił na nią uwagę, paradoksu Fermiego.

Budując, a następnie analizując odpowiedni, model powstawania i rozprzestrzeniania się cywilizacji w Galaktyce, tzw. równanie Drake’a i jego rozszerzenia, można wyjaśnić ten brak na dwa sposoby. Albo średni czas istnienia takiej cywilizacji jest ekstremalnie krótki, albo prawdopodobieństwo jej powstania jest skrajnie małe.

Aby jednak wyjaśnić całkowity brak widocznych cywilizacji w Galaktyce tą pierwszą hipotezą, należałoby przyjąć nierealistycznie krótki czas istnienia CNT, rzędu …dziesięciu lat, lub mniej. Za posuchę cywilizacyjną musi zatem odpowiadać drugi parametr – prawdopodobieństwo powstania cywilizacji.

Niniejszy artykuł jest próbą oszacowania owego prawdopodobieństwa, poprzez potraktowanie zjawiska cywilizacji naukowo technicznej, jako skrajnego przypadku fenomenu znacznie lepiej naukowo poznanego i opisanego – życia.

Lepiej, nie oznacza jednak wcale, że wystarczająco dobrze. Nadal nie potrafimy fenomenu życia w laboratorium odtworzyć, zatem nie możemy twierdzić, że na pewno już wszystko o nim wiemy. Według jednak obecnego stanu wiedzy, do powstania i istnienia życia potrzebne są trzy elementy. Obecność wody w postaci ciekłej, dostępność odpowiednich pierwiastków i związków mineralnych, oraz jakieś źródło energii. Te trzy warunki są do zaistnienia zjawiska życia konieczne, ale jednak nie są wystarczające. Potrzebny jest jeszcze czwarty element, zwykle w rozważaniach tego rodzaju pomijany.

W największym możliwym uproszczeniu, z chemicznego punktu widzenia, życie to proces redukcji CO2 najczęściej w wyniku reakcji z wodorem, chociaż przebiegający w sposób niekiedy niesłychanie złożony. Aby ta reakcja, jak każda inna dowolna reakcja chemiczna, mogła w sposób ciągły zachodzić, potrzebny jest, również stale się utrzymujący, gradient, czyli różnica stężenia substratów i produktów, oraz ciągły strumień energii. Potrzebny jest zatem stan nierównowagi termodynamicznej. Ignorowanie tego wymogu spowodowało fiasko wszystkich dotychczasowych modeli powstania życia z „pierwotnego bulionu” cząsteczek organicznych, czy w innych proponowanych „pierwotnych” środowiskach pozostających jednak, tak samo jak „bulion”, w równowadze termodynamicznej. „Zupa pierwotna”, pozostawiona sama sobie, nie tylko, ignorując wysiłki pokoleń biochemików, nigdy żadnego życia nie stworzy, ale po jakimś czasie rozpadnie się na prostsze związki. Pierwsze prawo ekologii głosi, że „energia przepływa, materia krąży”, lecz dotyczy to dzisiejszej ziemskiej, rozbudowanej i złożonej biosfery. W samych początkach życia musiała przepływać nie tylko energia, ale również materia, a w „pierwotnym bulionie”, ani jedno, ani drugie, nie było możliwe.

Pojęcie „życie”, a już na pewno „życie pozaziemskie” jest w ogóle bardzo nieprecyzyjne. Gdyby przeprowadzić jakiś sondaż, co mianowicie zwykle się pod tym terminem rozumie, to zapewne okazałoby się, że wygrywa skojarzenie z jakimiś „zielonymi ludzikami”, istotami świadomymi, inteligentnymi, a do tego jeszcze humanoidalnymi. Tymczasem realnie fenomen życia można, pod względem stopnia jego złożoności, podzielić na sześć poziomów. Pierwszy (I) z nich to proste, pozbawione jądra i bardziej skomplikowanych struktur zwanych organellami komórki prokariotyczne, bakterie i archeony. Pod względem biochemicznym są one (na Ziemi) niezwykle zróżnicowane, ale pod względem budowy i morfologii aż nudne w swojej monotonności. Drugi (II) poziom komplikacji, to eukarionty, komórki z jądrem komórkowym i innymi skomplikowanymi organellami, mitochondriami, czy chloroplastami. Przedstawicielami tego poziomu są omawiane w szkole pantofelek, czy euglena. Poziom III, to duże, makroskopowe organizmy zbudowane z oddzielnych tkanek, znane na Ziemi jako rośliny, grzyby, i zwierzęta. Poziom IV to istoty z rozbudowanym układem nerwowym prowadzące złożone życie społeczne, na Ziemi z grubsza odpowiadałyby by im ptaki, ssaki oraz przynajmniej część gatunków kałamarnic i ośmiornic. Wreszcie poziom piąty (V) to istoty świadome i inteligentne, czyli Homo sapiens, oraz być może jego wymarli krewniacy, neandertalczycy, czy hobbici. Poziom VI to oczywiście szukana przez nas cywilizacja naukowo techniczna, zdolna do komunikacji międzygwiezdnej i przemieszczania się w kosmosie. Jak już wspomniano na wstępie, bardzo prawdopodobne, że istnieje tylko jedna taka we Wszechświecie, a przynajmniej w naszej Galaktyce – my sami.

Życie we Wszechświecie podzieliliśmy więc na kategorie pod względem poziomu komplikacji budowy i behawioru, czyli pod względem ilości zawartej w nim informacji. Informacja zaś jest, w pewnym uproszczeniu, odwrotnością parametru znanego w fizyce jako entropia, miara nieuporządkowania. Zgodnie z II zasadą termodynamiki, entropia nie może samorzutnie zmaleć, zatem aby utrzymać swój niski poziom entropii, organizmy żywe muszą, poprzez procesy metaboliczne, zwiększać entropię swojego otoczenia. Tym szybciej, im wyższy poziom komplikacji, czyli niższy entropii, same reprezentują. Odbywa się to głównie przez utratę ciepła. Im szybsza jest owa utrata, tym wyższy stopień komplikacji organizmy żywe mogą osiągnąć. Nieprzypadkowo właśnie na naszej planecie poziom IV złożoności reprezentowany jest w większości przez organizmy stałocieplne (endotermiczne), a w mniejszości przez organizmy bytujące w zimnych wodach, gdzie utrata ciepła jest znacznie, niż na lądzie, łatwiejsza. Proces wypychania nadmiaru entropii na zewnątrz organizmu, jest tym łatwiejszy, im niższa entropia w owym zewnętrzu panuje. Życie zatem może w procesie ewolucji osiągnąć tym wyższy poziom komplikacji, im środowisko, w którym występuje, ma niższą entropię.

Przechodząc od opisu jakościowego, do ścisłych rachunków ilościowych, wymodelujemy teraz życie na podobieństwo …maszyny parowej pana Watta. Analogia ta jest znacznie bliższa prawdy, niż mogłoby się to wydawać, bo w końcu maszyna parowa nie musi działać koniecznie na parze, ani być zbudowana z nitowanego żeliwa. Każdy inny materiał, czy czynnik roboczy też się nadaje, aby można było mówić o wyidealizowanej maszynie parowej, czyli silniku cieplnym, przerabiającym ciepło na pracę.

Zgodnie ze wspomnianą już II zasadą termodynamiki, proces taki nie jest możliwy ze 100% wydajnością. Maksymalną teoretycznie możliwą wydajność maszyny cieplnej osiąga się w tak zwanym cyklu Carnota (dla ciekawskich sprężanie izotermiczne, sprężanie adiabatyczne, rozprężanie izotermiczne, rozprężanie adiabatyczne). Podkreślić należy, ze sprawność cyklu Carnota jest fundamentalnym ograniczeniem wynikającym z samej natury, takim samym co do zasady, jak prędkość światła, stała Plancka, czy zero bezwzględne. Owa sprawność Carnota to

n = (T1-T2)/T1

Gdzie T1 jest temperaturą źródła ciepła (w Kelwinach), natomiast T2 to temperatura chłodnicy, otoczenia, do którego ciepło jest odprowadzane. Energia dostępna dla życia na danej planecie, niezależnie od jej pochodzenia, nigdy nie może być wykorzystana w całości, a tylko w części dopuszczonej przez powyższą zależność. Ową dostępną życiu energię, będziemy odtąd nazywać energią życiową. Jak wynika z przytoczonego wzoru, jej wielkość zależy od różnicy temperatur źródła energii i chłodnicy. Temperatura chłodnicy T2 to po prostu średnia temperatura planety, na której rozwija się życie. Można założyć, że ze względu na wspomnianą wyżej konieczność istnienia ciekłej wody, będzie owa temperatura, dla globów obdarzonych życiem, z grubsza stała. A temperatura źródła? Jeżeli podstawowym źródłem energii dla pozaziemskiego życia, będzie światło jego macierzystej gwiazdy, to tą temperaturą będzie temperatura samej gwiazdy, Tg, w przypadku Słońca, 5772 Kelwiny.

Energia życiowa równa się zatem

Eż = F*(Tg-Tp)/Tg

Gdzie F to strumień promieniowania docierający do powierzchni planety. Równanie to możemy jeszcze uprościć. Zgodnie bowiem z prawem Stefana-Boltzmana, utrzymanie planety w odpowiedniej, umiarkowanej temperaturze, wymaga  stałego strumienia energii. F jest bowiem funkcją Tp, dokładnie jej czwartej potęgi.

Energia życiowa zatem ostatecznie zależy wyłącznie od temperatury gwiazdy. Życie na danej planecie może osiągnąć tym większy stopień komplikacji, im wyższa jest ta temperatura.

Średni czas, nazwijmy go Lc, w jakim dana gwiazda jest w stanie wygenerować dany poziom komplikacji życia w swoim bezpośrednim otoczeniu, w tym oczywiście poziom VI – cywilizacyjny, byłby zatem odwrotnie proporcjonalny do jej temperatury.

Lc = A*(Ts/Tg)

Gdzie Ts to temperatura Słońca (5 772 kelwiny), a A pewna stała proporcjonalności.

Powyższe równanie jest więc termodynamicznym ograniczeniem średniego czasu powstawania cywilizacji.

Przyjęto tu jeszcze jedno niejawne założenie, że całość strumienia energii utrzymującego dany glob w temperaturze dogodnej dla życia, pochodzi z macierzystej gwiazdy. Tak jednak wcale być nie musi. Istnieją co najmniej dwa zjawiska, które mogą utrzymać w środowisku planetarnym ciekłą wodę, bez angażowania w to światła gwiazdy. Jednym z nich jest, pochodzące z rozpadów radioaktywnych, procesów pływowych, bądź nawet reakcji chemicznych, ciepło geotermalne. Na Ziemi nie odgrywa ono znaczącej roli, choć w głębinach oceanu utrzymuje całe, całkowite odcięte od światła słonecznego ekosystemy w tzw. kominach geotermalnych. Istnieją natomiast, nawet w naszym układzie słonecznym, globy, takie jak księżyce Jowisza i Saturna, gdzie ciepło geotermalne jest wystarczająco silne, żeby stopić lód i utworzyć przepastne, ogromne w porównaniu z ziemskimi, oceany. Prawdziwe, kompletnie odcięte od światła słonecznego, Czarne Oceany.

Warunki do powstania życia są w nich bardzo korzystne, natomiast do jego dalszej ewolucji ku bardziej złożonym formom, beznadziejnie słabe. Energia geotermalna ma niską, w porównaniu ze światłem gwiazdy, temperaturę, a zatem i wysoką entropię. Materia krąży, a energia (życiowa) przepływa, ale przepływa bardzo wąziutką strużką, o dwa rzędy wielkości od ziemskiej wątlejszą. Żyjące w tamtejszych kominach hydrotermalnych czarne ekosystemy składałyby się zatem wyłącznie z prokariontów (poziom I). Ten wniosek jest w pozornej sprzeczności z tym co wiemy o ziemskim środowisku tego typu, które grupuje bardzo złożone biomy, z organizmami poziomu III włącznie, ale trzeba uświadomić sobie, że dzieje się tak tylko dzięki obecności wolnego tlenu. Wydajność oddychania tlenowego wynosi ok 40%, podczas gdy oddychanie w środowisku beztlenowym nie przekracza 1% wydajności. Dlatego tylko w środowisku natlenionym możliwe są bardziej złożone łańcuchy troficzne, zależności typu drapieżnik – ofiara i związany z tym ewolucyjny „wyścig zbrojeń”, co napędza również pozornie odcięte od energii słonecznej ekosystemy kominów. Przy pięciu ogniwach łańcucha pokarmowego ostatnie z nich ma jeszcze przy wykorzystaniu oddychania tlenem do dyspozycji 0,4^5 = 1% pierwotnej energii, podczas gdy w środowisku beztlenowym byłoby to część tylko 0,01^5 = jedna …dziesięciobilionowa. Bez tlenu drapieżnictwo zatem w ogóle się nie opłaca. Tlen zaś może powstać tylko w wyniku pozyskiwania przez procesy życiowe potrzebnych do redukcji CO2 elektronów drogą fotosyntezy z wody. A to z kolei, z uwagi na bardzo silne wiązania chemiczne spajające cząsteczki wody, wymaga energii naprawdę bardzo „wysokiej jakości” (niskiej entropii), jaką tylko światło słoneczne jest w stanie zapewnić. Czarne Oceany są zatem beztlenowe, życie w nich nie przekracza poziomu I, a scena spotkania z podwodną cywilizacją z Europy, jaką uraczył widzów James Cameron w filmie „Aliens of the deep” jest czystą fantazją, nigdy nie mającą szans na realizację w praktyce.

Drugim zjawiskiem mogącym podgrzać planetę ponad naturalny, wynikający tylko z nasłonecznienia, poziom, jest efekt cieplarniany. Polega on niejako na uwięzieniu w atmosferze części docierającego do planety promieniowania. To wtórne promieniowanie dogrzewa dodatkowo powierzchnię planety. Niestety, jest to promieniowanie podczerwone, mające wyższą niż promieniowanie gwiazdy, entropię. Znów zatem, im silniejszy jest efekt cieplarniany, tym nierównowaga termodynamiczna mniejsza i mniejsza też szansa, mimo teoretycznie odpowiedniej temperatury, na istnienie w takim miejscu bardziej złożonych form życia.

Aby dokonać kolejnego kroku w naszym rozumowaniu musimy sięgnąć teraz po znany w astronomii diagram pokazujący zależność pomiędzy masą a temperaturą gwiazdy, zwany też diagramem Hertzsprunga – Russela. Większość swojego życia gwiazdy spędzają świecąc stabilnie na tzw. ciągu głównym tego diagramu. Ich temperatura zależy wtedy z grubsza od pierwiastka kwadratowego z ich masy. Gwiazda czterokrotnie bardziej masywna, ma dwukrotnie wyższą temperaturę powierzchni. Można by się zatem naiwnie spodziewać, że gwiazdy bardziej masywne będą bardziej sprzyjały powstaniu cywilizacji. Niestety, gwiazdy bardziej masywne żyją też krócej. Tempo reakcji jądrowych napędzających gwiazdę rośnie wraz z jej masą dużo szybciej niż temperatura. Chociaż średni czas w jakim dochodzi do narodzin cywilizacji, Lc, maleje w przybliżeniu wraz z pierwiastkiem kwadratowym masy gwiazdy, czyli do potęgi 0,5, to czas pobytu danej gwiazdy na ciągu głównym, maleje proporcjonalnie do potęgi 2,5 jej masy. Zależności te pokazano na wykresie nr 1

Cywgw 01

Ponieważ, wraz ze wzrostem masy, czas pobytu danej gwiazdy na ciągu głównym skraca się szybciej niż średni czas powstawania CNT, istnieje taka maksymalna masa, powyżej której gwiazda cywilizacji nie wygeneruje nigdy. Tę granicę nazwiemy granicą nuklearną. Dodatkowo, ponieważ życie, a zatem i cywilizacja, wymaga obecności odpowiedniego zestawu metali, pierwiastków cięższych od wodoru i helu, gwiazda macierzysta musi je zawierać, czyli realnie należeć do tzw. I populacji, co tworzy trzecie, kosmologiczne ograniczenie. Gwiazdy I populacji nie mogły bowiem powstawać we Wszechświecie dawniej niż 10 mld lat temu. Jeżeli więc dla danej gwiazdy średni czas Lc jest dłuższy niż ta granica,  to, nawet jeżeli sama gwiazda może istnieć znacznie dłużej, cywilizacja tam jeszcze nie powstała.

Niestety, chociaż zależności między masą gwiazdy, a jej temperaturą i czasem życia, astronomia ustaliła z bardzo dużą dokładnością, to stała proporcjonalności A, wiążąca czas powstania cywilizacji i temperaturę gwiazdy, pozostaje nieznana. Znamy tylko jedną cywilizację a wnioskowanie z jednostkowego przykładu jest w statystyce niedopuszczalne. Gdyby jednak nasza cywilizacja była przeciętna, to średni czas powstania cywilizacji w okolicy gwiazdy o temperaturze Słońca wynosiłby A = 4,5 mld lat. Sytuacja wyglądałaby jak na wykresie poniżej:

Cywgw 02

Wszystkie trzy wymienione ograniczenia na powstanie cywilizacji, tworzą trójkątne pole, zaznaczone na wykresie na niebiesko. Pokazuje ono, ile cywilizacji powstało we Wszechświecie do tej pory. Pozornie niewielkie rozmiary tego pola mogą być mylące. Po pierwsze skala wykresu jest logarytmiczna. Najstarsze cywilizacje, położone blisko prawego dolnego rogu trójkąta, powstały już …6,3 miliarda lat temu. Cywilizacje wygenerowane przez gwiazdy mniejsze i chłodniejsze od Słońca, te z lewej części trójkąta, są oczywiście młodsze. Ale ponieważ, to po drugie, gwiazd mniejszych jest we Wszechświecie znacznie więcej niż gwiazd bardziej masywnych, cywilizacji wokół takich gwiazd, powinno być w naszej Galaktyce nieprzeliczone mrowie. Nawet zatem przy bardzo krótkim, ale pozostającym w granicach rozsądku, średnim czasie istnienia takiej cywilizacji, powinniśmy obserwować masę sygnałów SETI, a i odwiedziny pozaziemskich kosmolotów powinny zdarzać się w miarę często.

Jasne więc jest, że ziemska cywilizacja w żadnej mierze przeciętną być nie może i stała A musi być znacznie większa. Rozważmy teraz sytuację, kiedy równa się ona 10 mld lat.

Cywgw 03

Teraz sytuacja jest zupełnie inna. Niebieski trójkąt znika, a najstarsze cywilizacje powstają w Galaktyce wokół gwiazd podobnych do Słońca i właśnie teraz. To nam, Ziemianom przypada teraz ten zaszczyt, że jesteśmy we Wszechświecie jaki pierwsi.

Spotykane w literaturze przedmiotu próby rozwiązania paradoksu Fermiego skupiają się zwykle wokół krótkiego czasu trwania cywilizacji, postulując jej szybką zagładę, a to w wyniku globalnej wojny termojądrowej (hipotezy dawniejsze), a to z powodu wyczerpania planetarnych zasobów i zniszczenia środowiska (hipotezy współczesne). Te, będące w mniejszości, wyjaśnienia, odwołujące się do nikłego prawdopodobieństwa powstania CNT, próbują je wytłumaczyć właściwościami planet (tzw. hipoteza rzadkiej Ziemi). Tymczasem odpowiedź, jak się wydaje tkwi raczej we charakterystyce termodynamicznej samych gwiazd i stosunkowo młodym jeszcze wieku Wszechświata.

Ziemska cywilizacja powstała jako pierwsza, ponieważ nie tylko znajduje się koło najbardziej masywnej, a zatem wytwarzającej też na swoich planetach najniższą entropię, gwiazdy, która cywilizację w ogóle może wygenerować, ale i znajduje się w lewym ogonie rozkładu. Powstała bowiem znacznie wcześniej, niżby wynikało to tylko ze średniej dla danego typu gwiazdy.

Szczęście i wynikające z niego pierwszeństwo Ziemian we Wszechświecie, a już na pewno w Galaktyce, jest jeszcze większe, jeżeli weźmiemy pod uwagę bardziej subtelne zjawiska astrofizyczne. Założenie, od którego zaczynaliśmy nasze rozważania, nie jest bowiem do końca spełnione.

To, że gwiazda przebywa na ciągu głównym, nie oznacza bowiem, że w tym czasie nic się z nią nie dzieje. W ciągu tego okresu temperatura, jak i ilość emitowanej przez gwiazdę energii również się zmieniają i to dość znacząco. Słońce staje się jaśniejsze mniej więcej o 10% na każdy miliard lat przebywania w ciągu głównym, co ma oczywiście wpływ na ziemską biosferę. W odległych epokach geologicznych, energia życiowa Ziemi, choć nie, podtrzymywana przez, dużo silniejszy niż dziś, efekt cieplarniany, temperatura, była mniejsza niż obecnie i konsekwentnie życie ziemskie miało niski poziom komplikacji. Przez 2 miliardy lat nie przekraczało poziomu I, potem, przez kolejny miliard, zwany nie bez kozery nudnym miliardem, poziomu II. Okres ten zakończony został dość nagłym zmniejszeniem się ziemskiego efektu cieplarnianego, co spowodowało serię potężnych zlodowaceń, zwanych też „ziemią śnieżką”. Podniosła się energia życiowa i tym samym ziemska biosfera mogła przejść na poziom III. Dalsze rozgrzewanie się Słońca i kolejna seria zlodowaceń w karbonie i permie podniosło ziemskie życie na poziom IV, wreszcie ostatnia redukcja efektu cieplarnianego i zlodowacenie plejstoceńskie na poziom V. Inteligentne istoty z poziomu V sięgnęły po inne niż fotosynteza źródła energii i rozpoczęły budowę, ledwo 200 lat temu, cywilizacji, czyli poziomu VI. Obecnie ziemski efekt cieplarniany jest już bardzo niewielki i dalej już obniżony być nie może, a zatem i energia życiowa osiągnęła swoje maksimum. Dalsze rozgrzewanie Słońca będzie rozgrzewać także Ziemię. Ziemskie Tp zacznie rosnąć i za miliard lat, znacznie wcześniej niż Słońce opuści ciąg główny, życie na Ziemi w ogóle przestanie być możliwe.

Ten proces stopniowego rozgrzewania gwiazdy, szybszy dla gwiazd bardziej masywnych, nakłada dodatkowe ograniczenia na powstanie cywilizacji, zmniejszając liczbę zdatnych do tego gwiazd od strony większych mas. Teoretycznie cywilizacje mogłyby powstawać licznie koło gwiazd podobnych do Słońca w końcowym okresie ich życia, ale uniemożliwia to opisane zjawisko. Realny czas życia gwiazdy na ciągu głównym trzeba w związku z tym skrócić mniej więcej dwukrotnie, co jest równoznaczne z przesunięciem granicy nuklearnej w lewą stronę wykresu. Zjawisko to miałoby natomiast zaskakujące konsekwencje w przypadku gwiazd małomasywnych – czerwonych karłów. Żyją one tak długo i rozgrzewają się tak powoli, że w ciągu swojego życia mogłyby utworzyć nie jedną, a kilka cywilizacji na kolejnych wchodzących stopniowo w powoli rozszerzającą się ekostrefę planetach. Każdą kolejną, wskutek wzrostu w tym czasie swojej temperatury, szybciej niż poprzednie.

Zakres możliwych dla zaistnienia cywilizacji mas i jasności gwiazd w obecnym Wszechświecie jest zatem bardzo wąski. Podobnie wąski jest zakres czasowy w jakim cywilizacja może powstać, nawet wokół właściwej gwiazdy. Pół miliarda lat temu nie było to jeszcze na Ziemi możliwe, za pół miliarda lat będzie już na to za późno. W dodatku, nawet przy maksymalnym obecnym poziomie Eż, przejście na poziom V i VI też nie musi być wcale automatyczne i nieuchronne. Per analogiam, o ile osiągniecie poziomu III i IV odbyło się na Ziemi w sposób polifiletyczny, czyli wiele razy niezależnie w różnych taksonach ewolucyjnych, o tyle z kolei poziom II został osiągnięty wyłącznie raz – monofiletycznie, co świadczy o tym, że sam odpowiedni poziom energii życiowej, nie wystarczy do tego celu i potrzebne były jakieś dodatkowe czynniki, których wystąpienie było mało prawdopodobne. Tak samo może być i z poziomem V, czy VI.

O ile samo życie jest więc zapewne we współczesnym Wszechświecie czymś powszechnym i często spotykanym, o tyle cywilizacje muszą być ekstremalnie mało prawdopodobną odchyłką od średniej, a ich powstanie wymaga wstrzelenia się w bardzo rzadko występujące warunki. Nie należy się zatem dziwić paradoksowi Fermiego i fiasku programu SETI. To nieunikniona konsekwencja praw termodynamiki.

Wszechświat, w myśl opisanej hipotezy, generuje życie i cywilizacje na podobnej zasadzie jak generuje pierwiastki, galaktyki, gwiazdy i planety. I podobnie jak w tamtych przypadkach muszą być spełnione ku temu odpowiednie warunki, które we Wszechświecie dzisiejszym spełnione jeszcze nie są. Era Gwiazdowa we Wszechświecie trwa od dawna, ale Era Cywilizacji jeszcze nie nadeszła, a Ziemia jest ekstremalnie mało prawdopodobną fluktuacją statystyczną. Jesteśmy sami we Wszechświecie i długo jeszcze sami pozostaniemy. Jak długo? Na ostatnim wykresie przedstawmy Wszechświat za 5 miliardów lat. W stosunku do wykresów poprzednich powiększono najbardziej interesujący fragment.

Cywgw 04

Ponieważ istniejemy, można by stwierdzić, że Era Cywilizacji już się we Wszechświecie zaczęła. Jednak, jak już wspomniano, ziemska cywilizacja narodziła się przedwcześnie i pomógł jej w tym szczęśliwy traf. Wskutek niestabilności gwiazd na ciągu głównym, jeszcze przez kolejne 3,1 miliarda lat, cywilizacje we Wszechświecie będą bardzo elitarne. Będą powstawać koło gwiazd z zakresu [0,7 – 1] mas Słońca, ale rzadko i nieregularnie. Upłyną pewnie dziesiątki milionów lat, zanim w naszej Galaktyce powstanie kolejna CNT. Sytuacja zmieni się dopiero wtedy, kiedy proces powstawania CNT ogarnie gwiazdy o mniejszej, od tego przedziału, masie. Wtedy cywilizacje będą mogły powstawać na naprawdę masową skalę, liczoną w setkach milionów na galaktykę. Chyba że nie dopuszczą do tego starsze cywilizacje elitarne. Mając na to miliardy lat czasu, bez żadnego problemu mogą rozprzestrzenić się w Galaktyce i urosnąć do poziomu III w klasyfikacji Kardaszewa i tym samym zablokować proces powstawania cywilizacji masowych – drugiej generacji, dopuszczając go, być może, w jakichś zapadłych zakątkach galaktyki na zasadzie ciekawostki, podobnie jak dzisiejsza ziemska cywilizacja planetarna zachowała gdzieniegdzie zacofane enklawy łowców – zbieraczy.

Powyższy artykuł został opublikowany w 83 numerze miesięcznika „Astronomia” w maju 2019 roku

Jeśli chcesz wiedzieć więcej, przeczytaj:

[1] Artymowicz P. „Astrofizyka układów planetarnych” Wydawnictwo naukowe PWN 1995

[2] Lane N. ”Pytanie o życie. Energia, ewolucja i pochodzenie życia” Prószyński i s-ka 2016

[3] Lane N. „Największe wynalazki ewolucji” Prószyński i s-ka 2012

[4] Weiner J. „Życie i ewolucja biosfery” Wydawnictwo naukowe PWN 2008

[5] Shu F. „Galaktyki, gwiazdy, życie” Prószyński i s-ka 2003

[6] Stocker H. „Nowoczesne kompendium fizyki” Wydawnictwo naukowe PWN 2010

[7] Kubiak M. „Gwiazdy i materia międzygwiazdowa” Wydawnictwo naukowe PWN 1994

[8] Adamczyk M. „A kosmos milczy, milczy, milczy…” Astronomia nr 28 październik 2014

Nieucy o klimacie

Na przełomie XX i XXI wieku, pewien rozgłos uzyskała, wywodząca się z fundamentalistycznych odłamów protestantyzmu, sekta kreacjonistyczna. Jej przedstawiciele, a wśród nich także osoby z tytułami naukowymi, byli wtenczas bardzo aktywni medialnie, gorliwie podkreślając, że „naukowcy już dawno odrzucili teorię ewolucji” i zapewniając, z jak wielkim rozmachem setki, czy tysiące naukowców prowadzą badania naukowe „inteligentnego projektu”.  Elokwentnie przekonywali, że przecież jest niemożliwe, aby gatunki, ekosystemy, planety, gwiazdy i galaktyki zmieniały się „same z siebie”, „na skutek przypadku” i jakiś Ktoś, „jakaś inteligencja” po prostu musi tym wszystkim kierować. Sztandarową publikacją, za pomocą której do kreacjonizmu zachęcano, była wtedy książka „Na bezdrożach teorii ewolucji” Johnsona. Praca ta pozowała na dzieło „naukowe”, używała naukowo brzmiącej terminologii, a jej autor co rusz zapewniał czytelników, że darwinowska teoria ewolucji jest „nienaukowa” i już dawno została przez naukę odrzucona i tylko wyjątkowo uparci „denialiści” nie chcą przyjąć tego jeszcze do wiadomości.

Równocześnie jednak, to pretendująca do „naukowości” książka, roiła się od, często monstrualnych, na poziomie szkoły podstawowej błędów, oraz celowych przekłamań, oczywistych dla każdego, kto odebrał jakąkolwiek edukację na poziomie przynajmniej średnim.

Kreacjonizm jednak, po kilkunastu latach medialnego brylowania, stopniowo zanikł, a dokładnie został z przestrzeni społecznej wyparty przez ideologię, jeżeli chodzi o podstawy (a właściwie ich brak) merytoryczne i naukowe, bliźniaczo wręcz podobną, ale znacznie bardziej finansowo, politycznie i prestiżowo dla swoich głosicieli atrakcyjną. Ideologię klimatyzmu.

Klimatyzm głosi, że „sam z siebie” nie może zmieniać się nie, jak twierdzili kreacjoniści, ziemski ekosystem, ale klimat. I jest on sterowany, nawet nie przez jakąś bliżej nieokreśloną „inteligencję”, ale przez inteligencję bardzo konkretną – ludzką. Ludzie bowiem i ich cywilizacja emitują ogromne ilości tzw. gazów cieplarnianych, a szczególnie dwutlenku węgla i tym samym, według klimatyzmu, zwiększają, polegający, w dużym uproszczeniu, na uwięzieniu w atmosferze części promieniowania słonecznego, ziemski efekt cieplarniany. W konsekwencji globalne temperatury mają lawinowo rosnąć, aż do upieczenia całej ziemskiej biosfery i zamiany Ziemi w drugą Wenus, włącznie.

Podobnie, jak to było w przypadku kreacjonizmu, również nasz lokalny polski klimatyzm, jest zdecydowanie wtórny i stanowi tylko prowincjonalną mutację klimatyzmu amerykańskiego. Już sami owi pierwotni klimatyści anglosascy, nie są zbytnio z nauką obznajomieni, skoro ich medialnym „frontmenem” musiała, z braku lepszych, bardziej kompetentnych kandydatów, zostać niepełnosprawna szwedzka licealistka. Poziom merytoryczny klimatyzmu polskiego, musi być więc jeszcze niższy. Jego przedstawiciele pozują na bardzo naukowych, choć po bliższym przyjrzeniu się, widać, że z tą naukowością jest bardzo „nie bardzo”. Sztandarowym dziełem i swoistym manifestem polskiego klimatyzmu jest pozycja „Nauka o klimacie”. (Nok) Jej omówieniu poświęcony będzie właśnie niniejszy esej.

Książka ta poraża czytelnika już na pierwszy rzut oka. Samą edycją. Autorzy deklarujący głęboką troskę o stan środowiska i zużycie ziemskich zasobów przyrodniczych, na wydanie swojego opus magnum oszczędzać tychże zasobów wyraźnie nie mieli zamiaru. Twarda okładka, wysokiej jakości, albumowy, papier, liczne kolorowe grafiki i zdjęcia, zużyły przecież masę nieodnawialnych zasobów naszej planety. Informacji, ile gazów cieplarnianych zostało wyemitowane w związku z drukiem tej książki, próżno jednak szukać. Poświęcona z grubsza tej samej tematyce, książka Marcina Adamczyka „Mity globalnego ocieplenia”, przy dwukrotnie niższej cenie, waży od „Nauki o klimacie” sześciokrotnie mniej. Proste przeliczenie prowadzi do konkluzji, że treść tej ostatniej książki jest od „NoK” trzykrotnie bardziej wartościowa.

A jak jest w takim razie z treścią „Nok”?

Tutaj od razu należy przyznać, że merytorycznie, pod względem naukowym, biją klimatyści kreacjonistów na głowę. Ilość i ciężar gatunkowy błędów, czy celowych zafałszowań, jest w „Nok” zauważalnie niższa, niż u wspomnianego Johnsona. Niestety jednak, jest to różnica wyłącznie ilościowa. W trakcie lektury widać bowiem, że autorzy „NoK” piszą rzeczach znanych im wyłącznie ze słyszenia, nawet, jeżeli się do tego słuchania starali pilnie przykładać. Świadczy o tym nawet używane słownictwo, np. „równowaga energetyczna”, w miejsce utartego w polskiej nomenklaturze naukowej zwrotu „równowaga termodynamiczna”, a także traktowanie ropy jako głównego „paliwa kopalnego”, co jest prawdą w USA, skąd klimatyzm pochodzi, ale do polskich węglowych realiów niezupełnie pasuje.

 Na stronie 23 „Nok”, oznajmia się z kolei czytelnikowi, że średnia temperatura powierzchni Ziemi wynosi 14 stopni Celsjusza, podczas gdy już w tabelce na stronie 56 możemy zobaczyć, że jest to 288 Kelwinów, czyli …15 stopni. Różnica jednego stopnia może nie wydawać się wielka, ale przecież o tyle właśnie, wg dogmatów klimatystów, miały wzrosnąć temperatury na Ziemi od „okresu przedprzemysłowego”. Czyżby zatem ten rzekomy wzrost był jedynie artefaktem pomiarowym, wynikającym z nieumiejętności klimatystów, przeliczenia temperatury w różnych skalach? Autorzy najwyraźniej nie wiedzą też nic o istnieniu drugiej zasady termodynamiki i cyklu Carnota. Jest to fundamentalne, wynikające z samej natury, ograniczenie wydajności, z jaką można przekształcić ciepło na pracę. Tymczasem, na stronie 231 „Nok”, czytamy, że „W wypadku paliw ciekłych, spalanych w pojazdach, […] przyjmuje się, że energia końcowa […] równa jest dostarczonej energii pierwotnej” [sic!!!]. Jak wynika z tego dosłownego cytatu, klimatyści święcie wierzą, że silnik spalinowy mógłby w zasadzie, wbrew termodynamice, przerobić całą energię cieplną zawartą w paliwie na ruch pojazdu, a jedynym ograniczeniem są w tej materii kwestie inżynierskie.

Podobnie też jak kreacjoniści, autorzy „Nok”, zamiast pojęć ścisłych, precyzyjnych i ilościowych, lubią używać metafor, przenośni, alegorii, porównań i innych poetyckich środków wyrazu. Najczęściej zupełnie nieadekwatnych. Tak jest przykładowo z rozdziałem 2.1, gdzie przedstawiono planetę Ziemię jako …domek. Domek ogrzewany piecykiem – czyli w tej analogii promieniowaniem słonecznym i pokryty izolacją – czyli powodującą efekt cieplarniany atmosferą. Nie fatyguje się jednak czytelników informacją, że taki domek na prerii traci ciepło przede wszystkim w wyniku przewodzenia przez ściany i dach. Planety zaś, wyłącznie w wyniku promieniowania. Tempo tego pierwszego procesu zależy od różnicy temperatur w środku i na zewnątrz. Tego drugiego zaś, od różnicy czwartych potęg temperatur. To bardzo znacząca różnica. Gdyby opisywany w „Nok” domek był planetą, to po podwojeniu wpływającego do niego strumienia energii, jego temperatura nie wzrosła by o 10 stopni, jak w „domkowej” alegorii, ale o ponad 60.

Mimo tej ogólnej niekompetencji naukowej, pojawiają się w książce także istne perełki. W rozdziale 2.5, ni z tego ni z owego, przedstawiony jest, jak najbardziej prawidłowo wyprowadzony, wielowarstwowy model efektu cieplarnianego. Niestety, tylko tyle. Mając już taki gotowy model, autorzy nigdzie później się do niego nie odwołują i z niego nie korzystają. Nie jest to bynajmniej przypadkowe zapomnienie.

W tabeli 2.9.1 podano bowiem niezwykle ważną informację, że gdyby w ziemskiej atmosferze, znajdował się, z gazów cieplarnianych, jedynie CO2, to pochłaniałby on wtedy 24,6% ziemskiego promieniowania podczerwonego. Czyli, dla dwutlenku węgla, liczba warstw cieplarnianych, w modelu wielowarstwowym efektu cieplarnianego, tak zwana grubość optyczna atmosfery, wynosiłaby na Ziemi n = 0,246. Wracając następnie do tabeli 2.4.1, znajdziemy tam dane, co prawda też w niewielkim stopniu odbiegające od źródeł naukowych, o temperaturach efektywnych, czyli takich, które występowałyby tam bez efektu cieplarnianego, planet układu słonecznego – Marsa i Wenus. Planety te znajdują się właśnie w takiej sytuacji jak opisana wyżej – jedynym gazem cieplarnianym w ich atmosferach jest CO2. Tyle że na Marsie jest go, licząc na masę, 26 razy a, na Wenus aż 163 tysiące razy więcej niż na Ziemi. Składając te wszystkie, zaczerpnięte przecież z samej „Nok”, informacje do kupy, możemy teraz obliczyć temperatury, jakie, według wierzeń klimatystów, powinny na tych planetach panować. Są to odpowiednio 350,6 Kelwinów (75 stopni Celsjusza) na Marsie i 3113 Kelwinów na Wenus. Już rozgrzany do temperatury, niewiele niższej niż temperatura wrzenia wody, Mars, imponuje. Ale temperatury na Wenus sięgnęłyby już wartości nie planetarnych, ale gwiezdnych. Tak naprawdę, grubo ponad połowa gwiazd w naszej Galaktyce, jest chłodniejsza. Przypomina ponownie autor, że całego tego oszacowania dokonano wyłącznie w oparciu o dane i model zaprezentowane przez samych klimatystów. Ocenę, czy oni sami nie potrafiliby dokonać takiego obliczenia, pozostawia zaś domyślności czytelników.

Klimatyści jednak, jak już wspomniano, sami, z, przez samych siebie prezentowanego modelu efektu cieplarnianego, nigdzie nie korzystają. A czego używają w zamian? Kreacjoniści lubowali się w posługiwaniu się terminami, które na pierwszy rzut oka wyglądały naukowo, jak np. „cecha projektu”, czy „nieredukowalna złożoność”, ale których, na wszelki wypadek, nigdy dokładnie, precyzyjnie, ilościowo, nie definiowali. Klimatystycznym odpowiednikiem „nieredukowalnej złożoności” jest „wymuszenie radiacyjne”. Sami autorzy „Nok” szczerze też, na str. 69 deklarują, że nie zamierzają go szczegółowo omawiać. Z kontekstu wynika, że chodzi tu o dodatkowy strumień promieniowania docierający do powierzchni Ziemi, powstały wskutek zwiększenia efektu cieplarnianego. Na stronach 83-86 usiłują autorzy nawet wywieść, jak zmieniałoby się owo wymuszenie radiacyjne, w zależności od zmian stężenia dwutlenku węgla w ziemskiej atmosferze. Nie czynią tego jednak w sposób naukowy, czyli odwołując się od jakiejś głębszej zasady fizycznej, tylko wyprowadzają tzw. wzór empiryczny, poprzez obserwację zachowania …nie, nie, wcale nie rzeczywistej atmosfery, ani nawet wyników pomiarów w laboratorium. Robią to obserwując zachowanie …symulacji komputerowej! [sic!!!] Gdyby zechcieli odwołać się własnego modelu wielowarstwowego, to odkryliby, że tak zdefiniowane wymuszenie radiacyjne, zmienia się proporcjonalnie do ilorazu (2*n+1)/(n+1), czyli właśnie, jak zdumieni odkryli, dla małych n jest z grubsza liniowe, a dla dużych n – logarytmiczne.

Oprócz błędów wynikających z ignorancji naukowej autorów, są niestety także w „Nok” manipulacje zupełnie celowe. Każde z nich z osobna można uznać za drobne, ale razem wzięte mają swoją wagę. Do takich przemyconych niby mimochodem wrzutek, można przykładowo zaliczyć stwierdzenie ze strony 151, jakoby albedo wody wynosiło 10%. Tak jest owszem, ale w tropikach. Albedo wody bowiem zależy bardzo silnie od kąta padania promieni słonecznych, o czym mógł się przekonać każdy obserwator zachodu Słońca nad morzem i w okolicach polarnych, o których właśnie w kontekście tego albedo autorzy piszą, jest ono znacznie wyższe. Nie jest też prawdą, jakoby dopiero w roku 2010 jachty żaglowe mogły pokonać, wolne już wtedy od lodów, arktyczne Przejście Północno-Zachodnie. Już bowiem w roku 1977 takiego przejścia dokonał i to samotnie, belgijski żeglarz Villy de Roos. Do emisji CO2 wliczona jest też produkcja cementu, a przecież cement produkuje się wyłącznie w tym celu, żeby przerobić go na zaprawę i beton, w którym to procesie, wchłania on z powrotem wyemitowany w trakcie jego produkcji CO2. Podobnie jest z emisjami z rolnictwa. Metan emitowany przez zwierzęta hodowlane, powstaje z węgla zawartego w paszy, a rośliny tą paszą będące, pobierają ten pierwiastek z atmosferycznego CO2.Ta część „emisji’, podobnie jak w przypadku cementu, krąży zatem w obiegu zamkniętym. No, ale jakoś przecież przeforsowanie zakazu produkcji i spożywania mięsa, trzeba „naukawo” uzasadnić.

Jak już wspomniano, „Nauka o klimacie” udając dzieło popularno-naukowe, faktycznie jest manifestem ideologicznym i ma tej ideologii dostarczać uzasadnień „naukowych”. W rozdziale 4.1 mamy to wyłożone wprost, bez ogródek. Na stronie 238 przedstawili autorzy podstawowy dogmat klimatyzmu „bogactwo=zużycie energii=emisja CO2”. A ponieważ to ostatnie prowadzi, czemu poświęcona jest cała książka, do zagłady, to ostatecznie chodzi o to, aby wbić czytelnikom do głowy skojarzenie „bogactwo = zagłada” Stronę wcześniej mamy też wyłożony cel polityczny klimatystów, który pozwolimy sobie zacytować w całości;

Według różnych szacunków, bez paliw kopalnych, nawet przy dobrej organizacji społecznej, pojemność środowiska spadłaby do poziomu 2-3 mld osób. Dla 2/3 ludzkości nie byłoby miejsca na Ziemi..

Zważywszy na fakt, że cały wysiłek autorów „Nok” jest skoncentrowany właśnie na zwalczaniu paliw kopalnych i na postulowaniu ich całkowitego wyeliminowania, wniosek jest jednoznaczny. Klimatyści nie tylko nie przewidują dla nas miejsca na Ziemi, ale deklarują to szczerze wprost, bez żadnych zahamowań. Na szczęście dla masowej eksterminacji jest jednak pewna alternatywa, wąska furtka. Zamiast wysyłać zbędne miliardy ludzi na rozkurz, można, w zamian, wyzbyć się ”bogactwa”, co ma być tym łatwiejsze, że jest ono rzekomo skoncentrowane wśród „najbogatszego 1%” (str. 241).Jak wszyscy rewolucjoniści w dziejach, również klimatyści zapewniają, że „redukcja bogactwa” ma dotknąć jedynie tych obrzydliwie bogatych z górnego 1 %, a w żadnym razie tych, którzy, za przewodem klimatystów „grabić zagrabione” pójdą. Aby utwierdzić wyznawców w bezalternatywności takiego rozwiązania, omawiają autorzy „Nok”, trzeba im to przyznać, w rozdziale 5.7, różne, nie wymagające tak drastycznych „przekształceń społeczno-własnościowych”, metody przeciwdziałające wzrostowi temperatur i/lub stężeń CO2 w ziemskiej atmosferze. Przy czym ilość miejsca poświęconego danej metodzie, jest odwrotnie proporcjonalna do jej faktycznej użyteczności. Najbardziej sensowne projekty, jak np. nawożenie oceanów żelazem, doczekują się króciutkich wzmianek, a nawadnianie pustyń lądowych jest przemilczane całkowicie, natomiast pomysły bezsensowne, omawia się szeroko i szczegółowo. Efekt końcowy jest taki, jak być powinien – czytelnik ma być przekonany, że jedyną alternatywą „redukcji bogactwa”, jest jedynie …”redukcja populacji”.

Osoby z zewnątrz sekty, bywają często przekonane, że jednym z jej celów jest promocja, alternatywnych wobec energetyki opartej na paliwach kopalnych, tzw. odnawialnych źródeł energii, (OZE). Tak, owszem, było, dopóki klimatyści uważali, że OZE nigdy nie będą w stanie odgrywać znaczącej roli ekonomicznej. Mylili się jednak. Jeszcze w „Nok” znajdziemy ślady lekceważącego traktowania OZE, ze stwierdzeniem, że w roku 2017 pokryły one „zaledwie” 2,2% globalnego zapotrzebowania na energię, na czele. Już ta liczba jest znacznie zaniżona, albowiem wg raportów firmy BP było to 3,5%. A w kolejnym, 2018 roku już 4%. Łącznie bezemisyjne źródła energii, również atom i elektrownie wodne, stanowiły w 2018 roku 15,6% ogółu i tylko w ciągu jednego roku ten odsetek wzrósł o prawie 1 pkt procentowy. Niezwykle dynamiczny rozwój OZE, staje się zatem, coraz większym zagrożeniem dla ideologii klimatystycznej i chociaż w „Nok” bezpośredniej ich krytyki jeszcze nie znajdziemy, to w bieżącej publicystyce, klimatyści tacy powściągliwi już nie są.

„Nauka o klimacie” pozuje na dzieło naukowe w sumie znacznie bardziej umiejętnie niż niegdysiejsza propaganda kreacjonistyczna. Jednak nadal jest to tylko poza. Klimatyści, traktują naukę jedynie jako narzędzie, do głoszenia swojej wizji świata, a w dodatku, nie potrafiąc nawet prawidłowo przeliczyć temperatury ze skali Kelwina na Celsjusza, posługują się tym narzędziem dość nieudolnie. „Nauka o klimacie” może robić wrażenie swoją „cegłowatością”, jakością edycji, masą kolorowych zdjęć i schematów. Ale powoływanie się na to dzieło w poważnej dyskusji, świadczyłoby o pewnej ułomności intelektualnej.

Dlaczego jednak ideologia klimatyzmu odniosła tak duży sukces medialny i finansowy, natomiast bliźniacza ideologia kreacjonizmu, zginęła w otchłani historii? Ian Morris, autor niezwykle ciekawej pracy o historii cywilizacji „Dlaczego Zachód rządzi – na razie”, dokonał pewnego ważnego spostrzeżenia.

 „Każda epoka dostaje taką myśl, jakiej potrzebuje”.

Kiedy w jakimś społeczeństwie, niezależnie od kręgu kulturowego, dowodzi Morris, pojawiają się jakieś bariery natury ekonomicznej, społecznej, czy ekologicznej, które hamują dalszy rozwój tego społeczeństwa, z reguły pojawia się też w takiej populacji jakaś myśl, idea, która uzasadnia, czasami bardzo nieortodoksyjne działania, które jednak w rezultacie umożliwiają pokonanie owych barier i dalszy rozwój. O tym zatem, które z licznie w każdym czasie powstających ideologii, okażą się atrakcyjne i zyskają popularność, decydować ma ich użyteczność w uzasadnianiu zmian koniecznych do pokonania przeszkód w rozwoju cywilizacyjnym i ekonomicznym. Użyteczność mierzona też oczywiście sukcesem ekonomicznym, jaki w rezultacie odniosą owej idei twórcy i propagatorzy.

Ideologia klimatyzmu, odniosła od kreacjonizmu dużo większy, mierzony liczbą wyznawców i skalą politycznych wpływów, sukces. Nieomylnie oznacza to, że, inaczej niż jej poprzedniczka, odpowiada ona na jakieś istotne wyzwania w rozwoju obecnej cywilizacji globalnej. Tym wyzwaniem okazuje się być, trwająca od początku lat 70 XX wieku, ewolucja energetyczna ziemskiej cywilizacji i jej, powolne i nieregularne, ale niemniej od 1970 roku wyraźne, odchodzenie od paliw kopalnych Początkowo dzięki energetyce jądrowej, później, od 2007 roku, na rzecz OZE. Klimatyzm jest po prostu jakąś próbą ideowego uzasadnienia tego przejścia.

Jest to jednak próba zdecydowanie nieudolna. Przyczyny, trwającej już prawie pół wieku transformacji energetycznej, są bowiem czysto ekonomiczne i nie mają związku z żadnymi, zachodzącymi podobno równolegle, zmianami klimatycznymi. Niekopalne źródła energii są już zwyczajnie tańsze i bardziej wydajne niż węgiel czy ropa, a narastająca histeria i widoczna radykalizacja klimatystów, nieomylnie oznacza, że problemy związane z tymi paliwami są coraz bliższe rozwiązania. A ekstremiści stają się coraz bardziej ekstremalni, bo te rozwiązania nie są po ich myśli. Nie wymagają ani „redukcji strumienia populacji”, ani nawet „likwidacji bogactwa” i odgórnego „ograniczenia konsumpcji”.

Popkiewicz M. i in, „Nauka o klimacie” wyd. Sonia Draga 2019

Patrioci i idioci

Ostatnie wybory parlamentarne wyróżniły się tym, że, po raz pierwszy od momentu jego ustanowienia, próg wyborczy przekroczony został przez inicjatywę polityczną autorstwa Janusza Korwina Mikke, jednego z najstarszych weteranów polskiej sceny politycznej. Były to też pierwsze wybory, w których nie wystąpił efekt „zmarnowanego głosu”. Wszystkie komitety, które zarejestrowały listy w całym kraju, do parlamentu się dostały.

Pod innymi jednak względami, były to wybory, aż nadto zwyczajne. Znów nie popisały się, badające opinię wyborców, firmy sondażowe. Wypracowana, w innym niż polskie, otoczeniu społecznym i politycznym, metodologia badań preferencji politycznych, w najbardziej oczywisty sposób, nie do końca sprawdza się w polskich warunkach, a nadal nikt nie potrafi jej miarodajnie skorygować. Wyniki wyborów w porównaniu z sondażami przedstawia wykres:

Wyb 19 01

Widzimy na nim, po kolei, średnią z przedwyborczych sondaży z października, wraz z odchyleniem standardowym pokazanym za pomocą czarnej kreski, wyniki sondażu exit poll przeprowadzanego w momencie wyborów, sondażu late poll, oraz wyników rzeczywistych. Gołym okiem widać, że chociaż wynik SLD i PIS udało się firmom sondażowym przewidzieć dość trafnie, o tyle poparcie dla pozostałych partii zostało ewidentnie zaniżone, w przypadku Konfederacji i PSL aż o ponad dwa odchylenia standardowe. Oczywiście sondaże z października 2019 są uśrednione. Były firmy, które okazały się profesjonalne, była też kompletna amatorszczyzna. Listę firm sondażowych wraz ze średnim, podanym w pkt procentowych mierzonego poparcia, błędem kwadratowym przypadającym na partię, przedstawia poniższa tabelka. Za granicę przyzwoitości można uznać średni błąd na poziomie 1 pkt proc

Firma sondażowa Średni błąd kwadratowy
Pollster 0,6%
Indicator 0,7%
Kantar 0,8%
IBRiS 1,0%
Estymator 1,3%
Social Changes 1,3%
CBOS 1,9%

Sondaże, oprócz samego poziomu poparcia dla poszczególnych partii, próbują też czasami mierzyć, jaki konkretnie elektorat dane siły polityczne popiera. Wypytuje się ankietowanych, nie tylko o to, na kogo by zagłosowali, ale także o ich wiek, zarobki, wykształcenie, miejsce zamieszkania, stan zdrowia i wiele innych tzw. wrażliwych danych. Nie trzeba chyba detalicznie wyjaśniać, jak bardzo ta metoda zbierania danych jest zawodna. Przepytywani zwykle nie mają ochoty na podawanie takich informacji, a im dłuższa i bardziej skomplikowana jest ankieta, tym mniejsza jest chęć na wypełnianie jej w ogóle. W rezultacie, zebrane dane pochodzić będą głównie od pewnej specyficznej grupy wyborców, bardzo od reprezentatywności dalekiej.

Aby uniknąć takiej metodologicznej wpadki, naszą analizę elektoratów oprzemy, nie na subiektywnych i niereprezentatywnych deklaracjach, ale na twardych danych, w postaci rzeczywistych wyników wyborów, podanych przez PKW. Oprócz samej liczby głosów oddanych na poszczególne komitety wyborcze w poszczególnych gminach, można w nich znaleźć wiele innych interesujących informacji, z których wykorzystamy pięć. Podkreślić w tym miejscu należy, że cała poniższa analiza, dotyczy nie samych partii startujących w wyborach i ich programów, ale cech ich wyborców – tych, którzy na nie, 13 października naprawdę zagłosowali, a nie tylko wyrazili taką chęć w sondażu.

Pierwszą z rozpatrywanych cech, w miarę oczywistą, jest wielkość danej gminy. Nie ulega bowiem wątpliwości, że ma ona zasadniczy wpływ na rozkład preferencji politycznych mieszkańców, co przejawia się istnieniem jaskrawych różnic w wynikach wyborów, pomiędzy miastem a wsią. Kolejną istotną informacją, jest liczba głosujących przez pełnomocnika. Jest ona najlepszym osiągalnym przybliżeniem stanu zdrowia, a tym samym i wieku wyborców. Im ktoś jest starszy i bardziej schorowany, tym większe jest prawdopodobieństwo, że właśnie w ten sposób zagłosuje. Następnie mamy głosowanie na podstawie zaświadczeń. W ostatnich wyborach parlamentarnych, tak samo zresztą jak w, poprzedzających je, majowych wyborach do europarlamentu, najwyższy odsetek takich głosów, nawet do 50% wszystkich, oddano w popularnych miejscowościach turystycznych, górskich i nadmorskich. Ponieważ, ani wybory obecne, ani eurowybory, nie odbywały się w tradycyjnym okresie urlopowym, można uznać, że takie głosowanie koreluje z zamożnością wyborców, dla których weekendowy wypad do hotelu w górach, lub nad morzem, nie stanowi zauważalnego wysiłku finansowego. Czwarty parametr to frekwencja. Im jest wyższa, tym z większym poziomem upolitycznienia, obywatelskiej troski o państwo, czyli po prostu patriotyzmu, mamy do czynienia. Ostatnią i najbardziej wstydliwą kwestią są głosy nieważne. Niezależnie od tego, jak bardzo autorowi i czytelnikom niniejszego eseju, może się to wydawać niewiarygodne, zbiór osób, dla których prawidłowe wypełnienie dwóch prostych kart do glosowania, stanowi zbyt wielkie wyzwanie intelektualne, nie jest zbiorem pustym. Odsetek głosów nieważnych koreluje z przeciętnym poziomem inteligencji wyborców. Im jest on wyższy, tym ta inteligencja jest niższa.

Mając te pięć parametrów, podanych uprzejmie przez PKW w postaci liczbowej, zbadamy teraz ich korelacje z poziomem poparcia dla poszczególnych partii. Wynik przedstawiono na poniższym wykresie. Uwzględniono jedynie korelacje istotne statystycznie, czyli takie, dla których prawdopodobieństwo tego, że pojawiły się przypadkowo, jest mniejsze niż 1%.

Wyb 19 02

Wynik naszej analizy, nie do końca odpowiada powszechnemu wyobrażeniu, jaki w obiegu medialnym na ten temat kursuje. Faktycznie wyborcy PIS, zwycięzcy tych wyborów, tak jak to głoszą mądrości ludowe, wywodzą się ze wsi (największa ujemna korelacja z wielkością), są najstarsi (najwyższa dodatnia korelacja z pełnomocnikami) i biedni (największa ujemna korelacja z zaświadczeniami). Nie są już jednak najgłupsi. Zniknęła bowiem, a ściśle rzecz biorąc, stała się statystycznie nieistotna, obecna jeszcze w poprzednich eurowyborach, ich ujemna korelacja z głosami nieważnymi. Co do elektoratu pozostałych partii, zwłaszcza Konfederacji, to odbiega on od powszechnego wyobrażenia na swój temat, w znacznie większym, niż elektorat PIS, stopniu.

Ogólnie, głosujących w wyborach, można podzielić na dwie, bardzo wyraźnie odrębne grupy, w matematyce zwane klastrami.

Do pierwszego z nich, należą wyborcy miejscy, dobrego stanu zdrowia, czyli młodzi i w średnim wieku, ponadprzeciętnie inteligentni, czyli zapewne też wykształceni, zamożni i patriotycznie nastawieni. Drugi klaster to elektorat wiejski, starszy, biedny, niezbyt inteligentny i odnoszący się do spraw publicznych z głębokim dystansem. Starożytni Helleni nazwaliby ich „idiotes”.

Powstanie tych klastrów jest główną i najważniejszą zmianą, jaka zaszła pomiędzy eurowyborami, w których obowiązywała prosta dychotomia, podział na jednoelementowy klaster PIS i anty-PIS, czyli wszystkich pozostałych, a wyborami parlamentarnymi. Rozpad Koalicji Europejskiej i przyłączenie się resztek ruchu KUKIZ do PSL miał więc dużo większe politycznie znaczenie, niż to by się mogło wydawać. W poniższej tabelce umieszczono współrzędne środków opisanych klastrów, wraz z partiami, na które dany klaster zagłosował.

KO, SLD, KONFEDERACJA PIS, PSL
Wielkość 26,0% -22,5%
Pełnomocnicy -19,4% 8,7%
Zaświadczenia 13,4% -11,2%
Frekwencja 21,6% -24,2%
Nieważne -8,2% 22,8%

Wbrew zatem temu, co powszechnie, także wśród polityków Konfederacji, się na ten temat sądzi, jej wyborcy należą do tej samej grupy, co wyborcy KO i SLD, a z głosującymi na PIS, nie łączy ich praktycznie nic. Naturalnie istnienie opisanych klastrów nie oznacza, że nie ma w ich obrębie żadnych różnic, a jedynie, że te różnice są znacznie mniejsze, niż różnice pomiędzy klastrami. PSL, na ten przykład, ma wyborców młodszych i zdrowszych, ale też i głupszych, niż PIS. W obrębie klastra patriotycznego natomiast, wyborcy SLD odstają inteligencją w dół od pozostałych, natomiast elektorat Konfederacji jest mniej od tamtejszej średniej zamożny, czyli, można zaryzykować twierdzenie, że jest on po prostu młodszy. I jako taki, jeszcze się pozycji majątkowej i zawodowej w życiu nie dorobił. Z różnicy między sondażem exit poll, a wynikiem rzeczywistym, można też wywnioskować, że idioci preferują głosowanie poranne, podczas gdy klaster miejski (SLD i Konfederacja) głosuje raczej wieczorem.

Konsekwencją istnienia klastrów, są korelacje pomiędzy poparciem dla poszczególnych komitetów wyborczych. Partie patriotyczne, mają ze sobą korelacje dodatnią. Najsilniejszą w parze KO-SLD, gdzie przekracza ona 70%, słabszą, ale nadal statystycznie znaczącą, w parach z udziałem Konfederacji. Wyborcy tych ugrupowań, bez większych rozterek i ceregieli, przenoszą swoje poparcie na partie sąsiednie. Najchętniej na styku KO-SLD, ale i elektorat Konfederacji, w znaczącej liczbie uczestniczy w tym procesie. Wszystkie należące do tego obywatelskiego klastra partie, mają za to bardzo silną, sięgającą niemal -90%, ujemną korelację z partiami klastra idiotów. Przepływ elektoratu praktycznie tu nie zachodzi.

To nowe polityczne rozdanie, tworzy też swoisty „horyzont zdarzeń”, który bardzo utrudnia prześledzenie przepływów poparcia wyborczego, pomiędzy wyborami poprzednimi z 2015 roku, a wyborami dzisiejszymi. Oto liczba głosów oddanych na poszczególne ugrupowania w roku 2015 i obecnie.

Wyb 19 03

Założywszy rozsądnie, że ówcześni wyborcy Nowoczesnej poparli dzisiaj KO, a elektorat RAZEM przeszedł do SLD, najbardziej prawdopodobne jest, że poparcie dla KUKIZa zostało rozparcelowane między Konfederację a PSL, natomiast PIS najlepiej udała się mobilizacja elektoratu uprzednio niegłosującego, obecnie skorumpowanego „500+” Jaki to jest konkretnie elektorat, będzie jeszcze mowa w dalszej części eseju. Alternatywną, choć mniej prawdopodobną, możliwością jest rozbiór KUKIZa pomiędzy PSL a SLD, oraz ponadprzeciętny napływ do Konfederacji korwinowskich „kuców”, młodych, głosujących po raz pierwszy, wyborców.

Naszym następnym krokiem, będzie teraz zbadanie poparcia dla poszczególnych komitetów wyborczych, w rozbiciu na gminy. Rozkład taki jest widoczny na kolejnym wykresie. Na osi poziomej zaznaczono odsetek głosów oddanych na daną partię a na osi pionowej, odsetek gmin, w których taki właśnie wynik wyborczy miał miejsce.

Wyb 19 04

Tym razem wyraźnie wyróżnia się elektorat Konfederacji. Jest on, ze wszystkich innych, najbardziej równomiernie rozmieszczony w skali kraju. Poparcie dla tej partii, nie zmienia się z gminy na gminę, praktycznie wcale. Często prezentowane w mediach różnice geograficzne w preferencjach politycznych obywateli, różnice odziedziczone po II wojnie światowej, a nawet jeszcze po rozbiorach, stopniowo, z wyborów na wybory, się w Polsce zacierają, ale to właśnie Konfederacja jest tu niekwestionowanym liderem, pierwszą partią naprawdę ogólnopolską, mając program, którego atrakcyjność, w ogóle nie zależy od miejsca zamieszkania adresatów. Pozostałe partie nadal do tego nie doszły.

Drugim, słabiej na wykresie widocznym, niemniej ewidentnym, fenomenem, jest rozkład poparcia dla PIS. Dla wszystkich innych partii, ma on jeden wyraźny „pik”, gdzie odsetek gmin z danym poparciem osiąga swoje maksimum, najwyższy w przypadku Konfederacji. W przypadku PIS jednak, rozkład poparcia jest bimodalny i ma dwa wyraźne maksima, odpowiednio przy 45% i 66% poparcia w danej gminie. Podobny bimodalny rozkład miało w majowych eurowyborach poparcie dla Koalicji Europejskiej. Była ona właśnie koalicją i składała się z kilku różnych niedopasowanych politycznie elementów. Konsekwentnie jej wyborcy stanowili oddzielne grupy z własnymi, odrębnymi rozkładami poparcia, które, zsumowane, dały właśnie ów efekt podwójnego szczytu. Owa niespójność była zresztą powodem, dla którego KE rozpadła się zaraz po eurowyborach.

Nieomylnie oznacza to, że również elektorat PIS dzieli się na dwie, zupełnie odrębne grupy, co potencjalnie jest ogromną słabością tej, pozornie monolitycznej, jednolitej i skrajnie scentralizowanej partii i umiejętnie wykorzystane przez jej przeciwników, może łatwo doprowadzić ją do rozpadu i upadku. Aby dopomóc w tym zbożnym dziele, spróbujmy teraz zidentyfikować i rozróżnić te dwie populacje sierot po PRL. Na ostatnim wykresie przypisał autor gminy, należące do tych dwóch odrębnych pików poparcia, do poszczególnych województw.

Wyb 19 05

Pik 66% to tradycyjny geograficzny bastion PIS. W prostej linii potomkowie Goralenvolku. Polska wschodnia i południowo-wschodnia, a dokładniej prowincja tego obszaru, bo tamtejsze miasta są już znacznie bardziej patriotyczne. To wyborcy PIS o „wysokiej jakości”. Fanatyczni wyznawcy pisowskiego socjalizmu, zdeterminowani, aby pójść i zagłosować właśnie na PIS, a nie na kogokolwiek bądź innego. Nawet najbardziej drastyczne kompromitacje, afery gospodarcze, obyczajowe i kryminalne autorstwa swoich wybrańców, czy nawet całkowity kataklizm gospodarczy, nie zniechęcą ich do udzielania poparcia swoim idolom.

Inaczej jednak sprawy się mają z pikiem 45%. Mieszczą się tu duże i średnie miasta położone w tej, zdefiniowanej wyżej, pisowskiej strefie, w których PIS ma poparcie jednak sporo niższe, niż na otaczającej je prowincji. Głównie jednak występuje ów pik, na pozostałej części Polski i jak wykazuje bardziej subtelna, na poziomie powiatów, analiza, pokrywa się z terenami „pegieereowskimi”, miejscowościami najbardziej oddalonymi od nowoczesnej gospodarki, zapuszczonymi i zdewastowanymi. To elektorat nie socjalistyczny, ale socjalny, roszczeniowy, kupiony za osławione „500+”. Są to, całkowicie obojętni na wszystko, co wykracza poza czubek ich własnego nosa, koniunkturaliści. Zagłosowali ze strachu przed utratą „500+”, ale chętnie przerzucą poparcie na każdego, kto w sposób dla nich wiarygodny, coś im obieca. Lepper, Palikot, czy Kaczyński – wszystko im jedno. Musi być to jednak obietnica konkretna, materialna, bo gadanie o praworządności, jakości instytucji państwowych, roli Polski w gospodarce światowej, podatkach, czy globalnych trendach cywilizacyjnych, co czynią partie z klastra obywatelskiego, nie obchodzi ich wcale.

Na szczęście na tym terenie PISowi wyrósł właśnie konkurent, którego pojawienia się, jako żywo, niżej podpisany się w tym miejscu nie spodziewał i który zyskał właśnie olbrzymią szansę na odebranie PIS znaczącej części jego obecnego wśród idiotów poparcia.

Wbrew temu, co „wszyscy wiedzą” jednak, tym konkurentem nie jest Konfederacja. I próby rywalizowania z PISem o elektorat, co liderzy tej formacji do tej pory zwykli czynić, będą zawsze nieskuteczne. Elektorat PIS jest na wskroś albo socjalistyczny, albo socjalny i jak wynika z negatywnej korelacji z frekwencją, losy Polski jako zbiorowości, nic go nie obchodzą. Jako partia spozycjonowana jako część klastra miejskiego, patriotycznego, Konfederacja jest skazana na rywalizację o wyborców z KO i SLD, a to oznacza konieczność totalnej krytyki PIS i negowania jego programu i tez propagandowych w całości.

Autor artykułu zawsze się spodziewał, że polska scena polityczna w końcu upodobni się do swoich odpowiedników w rozwiniętych krajów Zachodu, tak samo, jak polskie społeczeństwo upodabnia się do tamtejszych społeczeństw. Kilka razy miał on już wrażenie, że ta konwergencja właśnie zachodzi i jak do tej pory, okazywało się to przedwczesne. Ale tym razem analogia jest już naprawdę silna. Jest już i progresywna lewica (SLD) i konserwatywna prawica (KO) i „siła antysystemowa” w postaci Konfederacji. PIS zaś, niezależnie od swoich pozorów siły i potęgi, jest jednak polityczną efemerydą, tak samo jak PZPR na której się wzoruje, a która rządząc od PIS znacznie dłużej, nie pozostawiła jednak w Polsce żadnych trwałych śladów swojej obecności. Nie może w XXI wieku trwale istnieć i dominować siła polityczna z programem wyciągniętym z pierwszej połowy wieku XX. Niestety, ta ulotność nie oznacza, że PIS nie jest w stanie dokonać w Polsce żadnych szkód. Szkodzić może i to z zapałem robi. Naprawdę lepiej by było, aby idiotów, sieroty po PRL, póki jeszcze w Polsce żyją, dało radę zagospodarować PSL.

Skrócona wersja niniejszego eseju była opublikowana w 1539-1540 numerze tygodnika „Najwyższy Czas”

Gwiezdne Wojny i Królestwo Niebieskie v. 2.0

Słyszeliście, że powiedziano: Oko za oko i ząb za ząb!
A Ja wam powiadam: Nie stawiajcie oporu złemu.
Lecz jeśli cię kto uderzy w prawy policzek, nadstaw mu i drugi!
Temu, kto chce prawować się z tobą i wziąć twoją szatę, odstąp i płaszcz!
Zmusza cię kto, żeby iść z nim tysiąc kroków, idź dwa tysiące!
 
Mt 5, 38-40
Jezus o strategiach mścicielskich

 

Pogódź się ze swoim przeciwnikiem szybko, dopóki jesteś z nim w drodze,
by cię przeciwnik nie podał sędziemu, a sędzia dozorcy,
i aby nie wtrącono cię do więzienia.
Zaprawdę, powiadam ci: nie wyjdziesz stamtąd, aż zwrócisz ostatni grosz.
 
Mt 5, 25-26
Jezus o strategiach legalistycznych

Rozpatrując, w poprzednich artykułach (nr 1, nr 2, nr 3), za pomocą modelu gry w jastrzębia i gołębia, stopniowo rozbudowywanego i modyfikowanego do postaci dwuwymiarowej, tzw. macierzy Hammersteina, teorię wojen i konfliktów, czyli ogólnie, grę o sumie mniejszej od zera, osiągnęliśmy, zwłaszcza wziąwszy pod uwagę prostotę tego modelu, bardzo wiele. Opisaliśmy, w jaki sposób konflikty o stałe, niemożliwe do wyprodukowania i powiększenia, zasoby, są rozwiązywane, zarówno w społecznościach prymitywnych – poprzez strategie mścicielskie, jak i w rozwiniętych i cywilizowanych – poprzez strategie legalistyczne. Odkryliśmy też, oddzielający ten Czas Honoru od Rządów Prawa, agresywny i niebezpieczny Grzbiet Pragmatyzmu i tym samym wyjaśniliśmy genezę tzw. Wojny Asurów, czyli mrocznego i agresywnego czasu pogardy, jakiego nasza cywilizacja zaznała w latach 1914-1945. Rozważania nasze, zakończyliśmy na tzw. III strefie macierzy Hammersteina, gdzie nasza cywilizacja się obecnie znajduje, a gdzie strategiami ewolucyjnie stabilnymi, są strategie legalistyczne, polegające na agresywnym zabieganiu o własne, obiektywne, spisane w kodeksach, prawa i wzajemne uznawanie podobnych, uzasadnionych obiektywnie, roszczeń, ze strony innych graczy. Spotykają się tu zawsze jastrzębie z gołębiami, a przyjęcie którejś z tych strategii zależy od obiektywnych praw własności do danego, będącego przedmiotem rywalizacji, zasobu.

W tej legalistycznej, praworządnej strefie, znajduje się, mając odpowiednio wysoki współczynnik S, iloraz strat i kosztów wojny do zysków, jakie z niej można uzyskać, większość współczesnych najbogatszych i najbardziej rozwiniętych społeczeństw i dlatego są one też bardzo praworządne, a współczynnik przestępczości jest w nich bardzo niski. To samo dotyczy stosunków międzynarodowych, które, nigdy w historii, nie były tak pokojowe jak obecnie. III wojna światowa nie tylko, wbrew obawom, jakie żywiły pokolenia zimnej wojny, nie wybuchła, ale, w miarę posuwania się w głąb obszaru legalistycznego, nazwanego przez autora Morzem Legalizmu, ryzyko wybuchu jakiegoś poważnego konfliktu systematycznie maleje.

Zakres stosowalności tak prostego przecież modelu, jak macierz Hammersteina, okazuje się zatem zadziwiająco szeroki, praktycznie wystarczający, aby wymodelować konflikty w całej dotychczasowej historii ludzkości i całkowicie wyjaśnić, zaobserwowany przez Stevena Pinkera, fenomen, nazwany przez niego „zmierzchem przemocy”. Fenomen, który Pinker odkrył, ale którego nie potrafił przekonująco wyjaśnić. Jednak cechą prawdziwie użytecznego modelu jest nie tylko wyjaśnienie zjawisk już istniejących, ale i przewidywanie przyszłych. Macierz Hammersteina znajduje się tu w szczególnie nieszczęśliwym położeniu, bo wynika z niej, że będziemy po prostu płynąć po Morzu Legalizmu na wschód coraz dalej i dalej i tak w miarę rozwoju cywilizacyjnego i wzrostu S praktycznie w nieskończoność, o ile ten ruch nie zostanie w końcu zahamowany przez pułapkę logistyczną. Tak czy inaczej nie wydarzy się już, jeżeli chodzi o historię konfliktów i wojen, kompletnie nic.

Ale moment, zaraz, zaraz… Skąd wiemy, że Morze Legalizmu nigdy się nie kończy? Z, pokazanego w rozdziale XI, rozwiązania analitycznego? Z przekonania, że taka właśnie, legalistyczna strategia, jest prawie, że optymalna w sensie Pareto i będzie coraz bardziej optymalna w miarę wzrostu S? Przecież analiza numeryczna wykazała, że dla S<10 strategia ewolucyjnie stabilna, odbiega od paretooptymalności niekiedy bardzo znacznie, a równowaga Nasha znajduje się czasami w najdziwniejszych miejscach. Więc jak to jest dla S>10? Jak wygląda kształt przyszłych wojen? Może nawet gwiezdnych wojen? Czy rozwinięta cywilizacja naukowo techniczna, cywilizacja o wysokim S, może jednak zniszczyć się sama w paroksyzmie samobójczej przemocy? Czy międzygwiezdne pancerniki, ostrzeliwujące się torpedami fotonowymi i plazmowymi fazerami, mogą się pojawić w realnej rzeczywistości?

Nasz dotychczasowy przewodnik po historii przemocy, macierz Hammersteina, ma dwa wymiary. Wspomniany już parametr S, oraz różnicę sił spierających się stron oznaczoną jako X. Posuwając się w głąb przyszłości, możemy jednak uprościć sobie życie i z jednego z tych wymiarów zrezygnować. Dla tak wysokich S bowiem, wielkość różnicy sił, przestaje mieć stopniowo jakiekolwiek znaczenie. Przyjmując więc z powrotem X=0,5, możemy ponowienie zapuścić naszą komputerową symulację.

I znów musiało upłynąć wiele czasu (komputerowego), zanim ten kształt, od wartości S=10, w górę, zaczął nam się z symulacji wyłaniać. W zakresie S od 10 do 500 żadnych niespodzianek nie stwierdzono. Stabilnie dominuje strategia mieszana (AL;L). Jednak nasze założenie, o spokojnym i bezproblemowym rejsie po Morzu Legalizmu, rzeczywiście okazało się nieco na wyrost. Oto niespodziewanie, ni stąd ni zowąd, kiedy S zbliża się do tysiąca, era legalizmu się …kończy.  Zaczyna się nowa strategia ewolucyjnie stabilna. Strategia, której, jako żywo, nigdy się niżej podpisany w tym miejscu nie spodziewał. A przecież, myśląc logicznie, powinien.

Oto wynik. Ze względu na dużą rozpiętość wartości parametru S, oś poziomą przedstawiono w postaci logarytmicznej.

Jasgoł 07a

Dla tak wysokiego S bowiem, każda jawna konfrontacja, jest istną katastrofą. A przecież, nawet w takim społeczeństwie, niemiłe, agresywne, jastrzębie, mutacje nadal się pojawiają. Oczywiście od razu z kretesem przegrywają, ale ich zwalczanie również staje się coraz bardziej kosztowne. W tej sytuacji, najbardziej opłacalne staje się demonstrowanie postawy agresywnej …wyłącznie w sposób symulowany i ucieczka, kiedy tylko zaistnieje jakiekolwiek ryzyko realnej konfrontacji. Dla S>1000, niezależnie od poziomu X, prawie absolutną, 98% frekwencję, zdobywają zatem …chojracy (AU). Zmuszeni ponosić rosnące koszty czyszczenia populacji z niemiłych mutacji legaliści (L, AL) znikają definitywnie z populacji. Zdolni normalnie chojraków poskromić, mściciele (UA, UP, UL), z tych samych względów, nie mogą się w niej pojawić. A agresywne mutacje A i P, nawet występując w bardzo mikrym odsetku, wykańczają się same. I tak cywilizacja kosmiczna, bo chyba o takiej możemy mówić przy S rzędu tysięcy, staje się Kosmicznymi Chojrakami. Tym samym, staje się ona niezdolna do dalszego rozwoju i utyka na tym etapie, gdzieś w okolicach I stopnia klasyfikacji Kardaszewa. Cywilizacja międzyplanetarna, na swojej drodze do przekształcenia w cywilizację międzygwiezdną, napotyka na niespodziewaną przeszkodę.

Aby ją pokonać, społeczeństwo musi się przed chojrakami obronić, w inny, niż liczenie na interwencję mścicieli, sposób. Aby odkryć ów sposób, pokażemy jeszcze raz macierz wypłat dla gry, tym razem z uwzględnieniem wszystkich strategii. Przyjęto dodatkowo parametr Q = 0,5*(1-S).

  A U L AU AL UA UL LA LU
A Q 1 0,5+0,5*Q 1 0,5+0,5*Q Q 0,5+0,5*Q Q 1
U 0 0,5 0,5*0,5 0 0 0,5 0,5 0,5*0,5 0,5*0,5
L 0,5*Q 0,5+0,5*0,5 0,5 0,5 0,5 0,5*Q+0,5*0,5 0,5+0,5*0,5 0,5*Q 0,5
AU 0 1 0,5 0,5 0,5*0,5 0 0,5 0 0,5+0,5*0,5
AL 0,5*Q 1 0,5 0,5+0,5*0,5 0,5 0,5*Q 0,5 0,5*Q 0,5+0,5*0,5
UA Q 0,5 0,5*0,5+0,5*Q 1 0,5+0,5*Q 0,5 0,5 0,5*0,5+0,5*Q 0,5*0,5+0,5
UL 0,5*Q 0,5 0,5*0,5 0,5 0,5 0,5 0,5 0,5*0,5 0,5*0,5
LA Q 0,5+0,5*0,5 0,5+0,5*Q 1 0,5+0,5*Q 0,5*Q+0,5*0,5 0,5+0,5*0,5 Q 1
LU 0 0,5+0,5*0,5 0,5 0,5*0,5 0,5*0,5 0,5*0,5 0,5*0,5+0,5 0 0,5

W środowisku zdominowanym przez legalistów, z czysto matematycznego punktu widzenia, chojrak, w spotkaniu z legalistą, zawsze będzie zachowywał się jak legalista. Jednak spotkanie dwóch chojraków, chociaż wycenione zostało w pierwszym przybliżeniu tak samo, jak spotkanie dwóch legalistów, w pewien subtelny sposób jednak się od niego różni. Tak samo, jak legaliści muszą ustalić, który z nich jest „w prawie”, co wszakże nie zawsze jest bezproblemowe i może nawet skończyć się w sądzie, tak samo chojracy muszą ustalić, który z nich jest akurat tym większym chojrakiem. Spotkanie dwóch legalistów, to zawsze spotkanie jastrzębia z gołębiem. Jednak spotkanie dwóch chojraków to, chociaż tylko deklaratywne, ale jednak zderzenie dwóch agresji. Owszem, najczęściej będzie tak, że któryś chojrak spęka pierwszy i ucieknie, ale nie można zaniedbać możliwości, że do konfliktu, na tym poziomie S, z użyciem laserów tachionowych i miotaczy antymaterii, może w takich okolicznościach dojść czystym przypadkiem, a wtedy koszty W będą gigantyczne. Nawet, jeżeli prawdopodobieństwo takiego obrotu rzeczy, nie jest duże, to pomnożone przez gigantyczne W daje całkiem pokaźną wartość oczekiwaną, dodatkowym kosztem obciążającą strategie chojrackie. Po uwzględnieniu w naszej macierzy gry tego efektu, do czego wystarcza osłabienie chojraków zaledwie o 1%, chojracy znów znikają w niebycie. A co zostaje? Do pewnego stopnia teren odzyskują legaliści, ale, po zdecydowanym przekroczeniu przez S poziomu 1000, pojawia się nowy, zadziwiający stan równowagi.

Wszystkie opisywane powyżej kombinacje dominujących strategii, niezależnie od tego, gdzie by na mapie naszego modelu się znajdowały, mają jedną wspólną cechę. Wszystkie one, jeżeli uwzględnimy także efekty drugorzędowe, czyli koszty pozyskiwania niezbędnej informacji i zużytego na to czasu, nie są, jak to już nieraz autor przypominał, paretooptymalne, czyli nie dają graczom maksymalnych możliwych wypłat. Dotyczy to także, najbardziej do takiej optymalności zbliżonej strategii L, bo nawet ona, jakieś koszty spisania, przestrzegania i skutecznego egzekwowania swoich praw, ponosić musi. Strategia naprawdę optymalna, takich kosztów mieć nie może.

Strategiami umożliwiającymi utrzymanie pokoju i tym samym rozwój cywilizacji są, w społeczności prymitywnej, strategie mścicielskie, a w społecznościach rozwiniętych, strategie legalistyczne. Jednak, największy w ludzkiej historii, zacytowany w motcie, Nauczyciel, zdecydowanie ich stosowania, zarówno jednych jak i drugich, nie zalecał. Zamiast nich, zaproponował strategię ewangeliczną właśnie, nadstawiania drugiego policzka, strategię gołębia (U). Jak już wiemy z pierwszego z tej serii artykułu, jest to właśnie strategia optymalna w sensie Pareto. Niemniej, pamiętajmy, że jest to także strategia niestabilna, podatna na inwazję jastrzębi. Z tego też względu, nauki Nauczyciela, bywały przez wieki wyśmiewane, a On sam często uchodził za pięknoducha i naiwniaka.

A jednak wystarczy spojrzeć na wykres:

Jasgoł 08a

 Przy odpowiednio wysokich S, nawet, kiedy mutant – jastrząb się pojawi, to, chociaż przepędzi raz dwa okoliczne gołębie, wcześniej czy później, trafi na drugiego jastrzębia. I nawzajem się oni wtedy doszczętnie zniszczą. Błogosławieni będą Cisi, albowiem oni na własność posiądą ziemię. A nawet Galaktykę. Legalizm jeszcze jakiś czas będzie się utrzymywał w przejściowej strategii LU, ale w końcu, przy S rzędu milionów, zapanuje powszechnie strategia U. Królestwo niebieskie naprawdę będzie Niebieskie. Nauczyciel, już w Czasie Honoru, kiedy to głosił swoje przesłanie, o tym wiedział, nie tylko na długo przed nadejściem Cichych, ale nawet na długo przed Rządami Prawa.

Gwiezdnych wojen zatem, nie ma i nigdy nie będzie. Jeżeli kiedykolwiek nawiążemy kontakt z jakąś pozaziemską cywilizacją, będzie to cywilizacja wysoce etyczna i pokojowa. Cywilizacja Cichych właśnie. LU, albo i czyste U. Postęp etyczny, podąża bowiem za postępem technologicznym. Zawsze. Od paleolitu, aż do galaktycznych Cichych, cywilizacji II stopnia według klasyfikacji Kardaszewa.

Przyszłość byłaby więc bardzo ewangeliczna i optymistyczna. Wnikliwy czytelnik mógłby jednak postawić w tym miejscu następujące pytanie. Skoro Rządy Prawa oddziela od Czasów Honoru bariera Grzbietu Pragmatyzmu i związanej z nią Wojny Asurów, to czy przejście od Rządów Prawa do Królestwa Niebieskiego nie wiąże się z podobnym progiem? Czy na drodze do galaktycznego Królestwa Niebieskiego czeka nas jednak jakaś Wojna Światów, Marsa z Ziemią i górnikami z planetoid jako języczkiem u wagi? Być może nasze założenie o nieistotności X jest jednak przedwczesne?

Aby odpowiedzieć na to pytanie, autor zbadał legalistyczno – ewangeliczne pogranicze bardziej wnikliwie. Od razu tez śpieszy uspokoić, że żaden odpowiednik Grzbietu Pragmatyzmu się tam nie pojawia. Owszem, ukłąd jest chaotyczny i niestabilny, co pokażemy na przykładzie punktu S = 1000 i X = 0,8. W odróżnieniu od wszystkich poprzednich, ten wykres okazuje ewolucję strategii w tym punkcie w funkcji czasu:

Jasgoł 09

Układ jest chaotyczny i niestabilny, ale oscyluje pomiędzy strategiami miłymi. Słudzy Prawa wymieniają się tu w miarę regularnie rolami z Cichymi (LU). Pojawiają się dodatkowo takie strategie jak PL (ostrożniejszy AL.), oraz w pewnej ilości chojracy AU, ale naprawdę groźny LP nie potrafi się jednak, pomimo podejmowanych regularnie prób, przebić. Nie jest ten obszar zatem bynajmniej drugim Grzbietem Pragmatyzmu.

Przynajmniej w naszym modelu. Rzeczywisty układ bowiem może zawierać więcej, niż tylko dwa rozpatrywane przez nas parametry (X, S), a które do tej pory nie dawały zauważalnego wkładu w jego zachowanie. Może się jednak to zmienić przy odpowiednio wysokich S, a wtedy wszystko, łącznie z również zapowiadaną w Piśmie, rozpierduchą tak totalną, że aż gwiazdy mają spadać, może się okazać możliwe. Czas pokaże.

Gry wojenne 1939 v.2.0

Oba Rządy oświadczają, że jest ich zamiarem porozumiewać się
bezpośrednio we wszelkiego rodzaju zagadnieniach, […]
W żadnym jednak wypadku nie będą się one uciekały
do stosowania przemocy w celu załatwienia
tego rodzaju spraw spornych.
 
Polsko-niemiecka deklaracja o niestosowaniu przemocy z 1934 roku
A ile dywizji ma papież?
 
Józef Stalin

 

W poprzednich dwóch artykułach, (nr 1, nr 2) na podstawie modelu teorii gier, zwanego macierzą Hammersteina, pokazaliśmy mechanizmy konfliktów i wojen, i to, jak się one zmieniły, w momencie przejścia od cywilizacji maltuzjanskiej, rolniczej, do industrialnej i postindustrialnej. W szczególności wyjaśniliśmy, jak doszło do tzw. „Wojny Asurów”, czyli I i II wojny światowej, a nawet jeszcze i zimnej wojny, traktowanych łącznie, jako konfliktu wygenerowanego na tzw. „Grzbiecie Pragmatyzmu”. Ten ostatni jest, jak autor przypomina, agresywnym obszarem na mapie macierzy Hammersteina, z dominującymi na nim strategiami pragmatycznymi, determinującymi politykę liczącą się jedynie z siłą. Cywilizacja, przechodząca fazę rewolucji przemysłowej, musi też przejść od mechanizmów rozwiązywania konfliktów, opartych na honorze i strategiach mścicielskich (jak ty mnie, tak ja tobie), do strefy praworządnej, ze strategiami legalistycznymi, opartej na prawie i kodeksach. Droga ta jednak, przecina konfliktowy i niespokojny Grzbiet Pragmatyzmu, gdzie wybuch wojny i eksplozja przemocy, są bardzo prawdopodobne.

Prawdopodobieństwo jednak, nie oznacza pewności. Pokazał autor też mechanizmy i sposoby, które teoretycznie, pozwoliłyby przebyć danej cywilizacji Grzbiet Pragmatyzmu, nawet zupełnie „suchą nogą”, a na pewno lepiej niż poradziła z nim sobie nasza, ziemska cywilizacja. Oczywiście były też możliwe znacznie gorsze alternatywy, w tym powrót do maltuzjanizmu, czy świat orwellowski.

Na Ziemi, Wojna Asurów jednak wybuchła i przybrała postać dwufazową, rozdzieloną dwudziestoletnim, chwiejnym i niestabilnym, ale jednak pokojem, zwanym pokojem wersalskim. W niniejszym rozdziale, posługując się naszym modelem, zajmiemy się zagadnieniem, czy ów pokój mógł bezpośrednio, bez II wojny światowej, przejść w, nazwany tak przez Stevena Pinkera, współczesny Długi Pokój. Wbrew temu, co się kiedyś piszącemu te słowa wydawało, było to jednak możliwe.

W poprzednim rozdziale, korzystając z naszego modelu, opisaliśmy wybuch I wojny światowej i rolę, jaką w tym odegrała polityka prowadzona przez poszczególne kraje i ich wybór zastosowanych strategii. Zapalnikiem, który bezpośrednio odpalił tę wojnę, była agresywna, pragmatyczna strategia AP, przyjęta przez Serbię i błędna, pochodząca jeszcze z, zakończonych właśnie, czasów honorowych, austro-węgierska odpowiedź UP na nią. Strategie pragmatyczne, ze względu na konieczność dokładnej znajomości sił, zarówno własnych jak i rywali, są bardzo podatne na błędy, ponadto w 1914 roku niewielu decydentów naprawdę rozumiało, jak bardzo, w porównaniu z czasami znanymi im z lekcji historii, a nawet jeszcze z własnego doświadczenia, zmieniły się parametry tej gry. W szczególności, jak bardzo wzrost parametru S – stosunku strat i kosztów wojny, do możliwych łupów ze zwycięstwa, zmienił paletę dominujących strategii.

Jednak lata 1914-1918 szybko nauczyły ich w praktyce tego, czego nie pojęli w teorii. Poziom strat był otrzeźwiającym szokiem dla wszystkich, tym bardziej, kiedy porównano je, z bardzo wątpliwymi, gorzkimi „owocami zwycięstwa”. We wschodniej Europie rozpadły się wręcz wszystkie, bardziej złożone struktury społeczne, w tym państwowe. Rosja, a potem Austro-Węgry po prostu zniknęły, pozostawiając próżnię polityczną, którą starały się wypełnić różne „rządy” „narodowe”, „rewolucyjne”, „ludowe” i tym podobne efemerydy. Również Polska powstała wtedy „ni z tego, ni z owego na pierwszego”.  Chaos ogarnął także Niemcy. To, że nie przeniknął jeszcze bardziej na zachód kontynentu i nie okazał się trwały, zawdzięczamy wyłącznie amerykańskiej interwencji, dostawom żywności, towarów pierwszej potrzeby, a później kapitału, na odbudowę zniszczonych gospodarek. USA podparło swoim bogactwem zachodnią Europę, a od 1919 roku, także wschodnią, co pozwoliło europejskim rządom utrzymać (na zachodzie) i odzyskać (na wschodzie) efektywną kontrolę nad własnym terytorium. Tylko dzięki temu, już I wojna światowa, nie zakończyła się przewidywanym przez Blocha powrotem do barbarzyństwa, chociaż i tak sytuacja przez wiele lat była jeszcze chwiejna i niestabilna, a zamachy, przewroty i lokalne konflikty – powszechne.

Wiedza o tym, jak wygląda nowoczesna wojna industrialna wysokiego S i jak się ona kończy, stała się więc powszechnie dostępna. Paradoksalnie jednak, dotyczyło to w pierwszej kolejności krajów teoretycznie zwycięskich, w tym Polski, natomiast w mniejszym państw przegranych, nie tylko faktycznie, ale i formalnie. W Niemczech i Rosji, katastrofa mogła zostać wytłumaczona, nie samą wojną, jako taką, a jedynie klęską w niej poniesioną.

Konsekwentnie, odrobiwszy tą lekcję, broniące porządku wersalskiego, kraje dawnej Ententy, porzuciły nieadekwatne strategie mścicielskie i pragmatyczne, a kurczowo uczepiły się legalizmu. I to też okazało się jednak w końcu nieskuteczne, ponieważ podróż cywilizacji przez Grzbiet Pragmatyzmu, wcale się jeszcze nie zakończyła, a wrogom Wersalu nadal, poleganie na strategiach pragmatycznych, mogło wydawać się sensowne.

Serbią II wojny światowej stała się Polska. Austro-Węgrami zaś – III Rzesza, jedno z państw sezonowych, powstałych na Grzbiecie Pragmatyzmu. Formalne podobieństwo tych sytuacji jest jednak złudne. Gra roku 1939 była inna, miała inne parametry i używano w niej innych strategii, niż ćwierć wieku wcześniej.

Narodowa i socjalistyczna partia NSDAP, ze swoim prezesem Hitlerem na czele, doszła do władzy pod hasłami uczynienia Niemiec znowu wielkimi, zerwania z polityką białej flagi, czyli realnie zaprzestania używania w polityce strategii ustępujących, podniesienia kraju z kolan i prowadzenia polityki godnościowej. W ówczesnych czasach rozumiano pod tymi pojęciami również, a nawet przede wszystkim, rozbudowę armii. Dzisiaj toczą się przewlekłe dyskusje, czy na wojsko wydawać 1,5, 2, czy może nawet 2,5% PKB i jak takie wydatki wpłyną na gospodarkę. Naziści jednaki takimi liczykrupami nie byli. Wydatki zbrojeniowe sięgnęły w III Rzeszy aż 25% jej PKB. Rządzący w ZSRR, kolejnym pokracznym bękarcie Grzbietu Pragmatyzmu, Stalin, wydawał w tym celu podobne kwoty. Była to logiczna i konsekwentna realizacja strategii pragmatycznej, wymagającej jak największej siły. Taki wysiłek zbrojeniowy, jest jednak oczywiście na dłuższą metę zabójczy dla każdej gospodarki, tym bardziej dla niewydajnej gospodarki socjalistycznej, cechującej zarówno ZSRR, jak i w mniejszym stopniu III Rzeszę. Oba te kraje, czekał więc, w dłuższej perspektywie czasowej, nieuchronny koniec. Ale właśnie na dłuższą metę i w dłuższej perspektywie. Na metę krótszą, taka polityka pragmatycznego zastraszania i wymuszania przyniosła nazistom oszałamiające pasmo sukcesów. Francja i Wlk. Brytania, trzymały się, jak już wspomniano, legalizmu, i były skłonne ustępować tam, gdzie uznawały naturalne prawa Niemiec, związane np. z zasadą suwerenności państwowej czy samostanowienia narodów. Zniesiono zatem wszystkie ograniczenia polityczne narzucone Niemcom przez traktat wersalski, przyłączono pokojowo, przy szalonej aprobacie tamtejszej ludności, Saarę, Austrię, Sudety i Kłajpedę. Gdyby w nowy rok 1939 Hitler zmarł na zawał, przeszedłby do historii, jako jeden z najwybitniejszych przywódców Niemiec, bo gospodarcze konsekwencje jego polityki obarczyłyby jego następców, a zjednoczone, powiększone i pozbawione narzuconych w Wersalu ograniczeń, Niemcy by zostały. Ale Hitler, na nieszczęście Niemiec i na szczęście ich przeciwników, nie umarł. Kolejnym adresatem niemieckich roszczeń stała się teraz Polska.

Inaczej niż Serbia w 1914, a tak samo jak Francja i Wlk Brytania, Polska trzymała się strategii legalistycznej, stojąc na gruncie utrzymania Wersalu. O ile jednak mocarstwa Zachodu używały „czystej” L, to Polska, będąc od III Rzeszy zdecydowanie słabsza i w wysokim stopniu zależna od niej gospodarczo, musiała się ograniczyć do LU. Przynajmniej początkowo. Kierujący polską polityką zagraniczną, Józef Beck, wiedząc, że Polska nie ma szans na stawienie oporu niemieckiej ekspansji samotnie, do czasu umiejętnie zwodził Hitlera, udając przyjaźń i zawierając nawet z Niemcami traktat w 1934 roku. Od wszelkich dalej idących deklaracji, nie mówiąc już o realnych działaniach na rzecz zawarcia ścisłego sojuszu, który w tamtejszych warunkach przypominałby do złudzenia nieco późniejszy „sojusz” polsko-radziecki, starannie się jednak Beck wykręcał. W międzyczasie Polska starała się, w miarę swoich sił, a wbrew werbalnym deklaracjom, zmniejszyć swoją ekonomiczną zależność od Niemiec, a wzmocnić za to więzi z Zachodem i skłonić go do zainteresowania się kwestiami Europy środkowej. Nieprzypadkowo w latach 1929-1938 udział Niemiec w polskim eksporcie spadł z 31,2% do 14,5%, a w imporcie z 27,3% do 14,5%. Proporcjonalnie wzrosła za to, choć, poprzez konieczność stosowania cen dumpingowych, było to dla Polski bardzo kosztowne, pozycja Wlk Brytanii, która stała się czołowym zagranicznym odbiorcą polskich towarów. Tak zachęcony ekonomicznie Albion, zaniepokojony został dodatkowo zajęciem przez Niemcy reszty Czech w marcu 1939 roku. Było to jawne złamanie, dopiero co podpisanych, układów w Monachium i stanowiło tym samym dla mocarstw wersalskich klęskę ich polityki legalistycznej. Brytyjscy i francuscy decydenci wreszcie odkryli, że Rzesza gra w zupełnie inną grę, z innymi strategiami, niż oni sami. Hitler nie stosował L, czy nawet PL, jak do tej pory sądzili. Hitler grał LP, czego, nielegalne, w myśl traktatów monachijskich, zajęcie Pragi, dało niepodważalny dowód. W rozpaczliwej próbie uniknięcia wojny Brytyjczycy, zatańczyli na melodię Hitlera i spróbowali zastraszyć Niemców pragmatycznie, tak jak Grzbiet Pragmatyzmu tego wymagał.

Wielka Brytania, z jednej strony, znów zaczęła się zbroić, choć wysiłek finansowy z tym związany, okazał się w końcu dla niej i jej oceanicznego imperium zabójczy, oraz udzieliła Polsce sławetnych gwarancji. Gwarancje te, w dzisiejszej publicystyce są bez litości wyszydzane, a nawet uważane za przyczynę klęski Polski w wojnie 1939 roku. Dzieje się tak, dlatego że, w przeciwieństwie do krajów anglosaskich, polska historiografia pozostaje domeną humanistów, wśród których jakiekolwiek liczby i wzory, także te związane z teorią gier, wywołują uczucie strachu i obrzydzenia. Na szczęście dla Polski, Beck jednak rozumował w sposób ścisły, a nie emocjonalny, sięgając kalkulacją dalej niż jego dzisiejsi domorośli krytycy. Wiedział, że Polska jest gospodarczo i demograficznie, a co za tym idzie, także militarnie, znacznie słabsza od Niemiec. Jednocześnie Polska miała z Niemcami na Pomorzu i Śląsku całkowicie sprzeczne i w zasadzie niemożliwe do pogodzenia interesy. Interes Polski wymagał dostępu do morza, a interes Niemiec – lądowej komunikacji z Prusami Wschodnimi. Przedzielony na pół granicą Śląsk zaś, nie mógł efektywnie funkcjonować, jako jeden okręg przemysłowy, zatem kwestią czasu i zdrowego rozsądku, było połączenie obu jego części w jednym państwie. Polskim, bądź niemieckim.

Konflikt ten, ze względu na różnice potencjału, musiałby zakończyć się, w ten czy inny sposób, sukcesem Niemiec. Jednak po tym, jak udało się w tą grę wciągnąć mocarstwa Zachodu, warunki zmieniły się zasadniczo. Był to gigantyczny triumf polityki Becka. Polska mogła z ulgą odrzucić krętacką i nieperspektywiczną strategię LU i przejść do czystego L. Wyrazem tej zmiany polityki, była słynna mowa Becka w sejmie, która, wbrew werbalnym, retorycznym, frazesom o honorze, była na wskroś legalistyczna.

Po przyjęciu brytyjskich gwarancji i odrzuceniu niemieckich pretensji i roszczeń, sytuacja wyglądała następująco. Niemcy nadal mogły rozpocząć wojnę z Polską i być może nawet Polskę zająć i podbić, niczym Austro-Węgry Serbię w 1915 roku. Ale wojna taka, inaczej niż przed 1939 rokiem, nie mogła już być zlokalizowana. Stawała się automatycznie wojną z Francją, Wlk. Brytanią i perspektywicznie również z USA. W latach 1917-1918, Niemcy zostały już raz przez tą koalicję powalone, zatem zważając również na fakt, ze Niemcy w 1939 były słabsze, a koalicja owa silniejsza, niż wtedy, można było oczekiwać, że historia się powtórzy. Dodatkowo dochodziła kwestia Stalina. Jeżeli polska obrona, rozumował Beck, wytrzyma niemiecki atak do czasu ofensywy alianckiej na Zachodzie, Stalin pozostanie neutralny. Jeżeli obrona ta się wcześniej załamie, jak to się w rzeczywistości stało, Stalin bez wątpienia zajmie wschodnie tereny Polski i wojska radzieckie staną oko w oko z hitlerowskimi. Nawet, jeżeli te potęgi nie rzucą się od razu na siebie, i zostanie zawarte pomiędzy nimi jakieś porozumienie, to zawsze będzie ono nieszczere i tymczasowe i sama groźba stalinowskiego ataku, będzie wiązać na wschodzie znaczące siły niemieckie. Z tego punktu widzenia widać, że znaczenie paktu Ribbentropp – Mołotow jest stanowczo przeceniane. Działania Stalina byłyby mniej więcej takie same, niezależnie od podpisania jakichkolwiek porozumień z Niemcami, gdyby tylko Niemcy na Polskę napadły. Jak się jeszcze przekonany, nawet bez podobnej zachęty ze strony Stalina, Hitler by się pewnie w końcu na atak na Polskę zdecydował.

Nawet po rozbiciu polskich wojsk i okupacji polskiego terytorium, Niemcy, wojny toczonej równocześnie z Francją i Wlk Brytanią, a potem także z USA i ZSRR, wygrać nie mogą. Prawdopodobieństwo niemieckiego zwycięstwa w takiej wojnie, nie jest większe, niż, powiedzmy, 5%

Niemcy mają do wyboru dwie strategie. Albo zaatakować Polskę (strategia A) i wywołać tym samym wojnę światową i ją przegrać z prawdopodobieństwem 95%, albo wycofać swe roszczenia wobec Polski (strategia U) i doświadczyć potężnego kryzysu ekonomicznego wywołanego przez dotychczasowe koszty zbrojeń i inne socjalistyczne ekstrawagancje nazistowskich rządów.

Jeżeli zaś Polska ugnie się przed Niemcami (strategia U), to po oddaniu najbardziej rozwiniętych gospodarczo swoich terenów na Śląsku i Pomorzu, oraz utracie dostępu do morza, stanie się niemieckim wasalem. Ponieważ jednak Niemcy, po zwasalizowaniu Polski, mając gospodarkę i tak już zdeformowaną i wykoślawioną, nadal będą kontynuować agresywną politykę ekspansji, to do tej wojny światowej i tak dojdzie, Niemcy wciągną w nią Polskę, wojnę tę przegrają, a Polska przegra ją wraz z nimi i zostanie małym kraikiem wielkości nieco powiększonego Księstwa Warszawskiego, który będzie miał szczęście, jeżeli nie zostanie włączony bezpośrednio do ZSRR.

A co będzie, jeżeli Polska przyjmie strategię A? Przed brytyjskimi gwarancjami zostałaby bez wątpienia najechana, podbita i podzielona pomiędzy III Hitlera i Stalina, a po przegranej przez Niemcy wojnie światowej, zapewne w całości wcielona do ZSRR. Ale prowokując i przyjmując brytyjskie gwarancję, Polska zmieniła macierz gry.

Aby w pełni to docenić, przypiszmy teraz poszczególnym wypłatom konkretne wartości liczbowe. Najpierw Niemcy. Dla ich zwycięstwa w II wojnie światowej przyjmijmy +100 jednostek (z prawdopodobieństwem 5%), dla klęski z prawdopodobieństwem 95% -100. W wypadku, gdyby Polska przyjęła niemieckie żądania, Niemcy zaś osiągają korzyść +10. Gdyby Niemcy ustąpiły, to doświadczyłyby kryzysu o wartości -10, ale zachowałyby większość dotychczasowych hitlerowskich rewindykacji, być może poza Protektoratem Czech i Moraw. Gdyby zaś ustąpiła wtedy także Polska, godząc się na jakieś wzajemne ustępstwa (np. ułatwienia w tranzycie przez Pomorze, czy plebiscyt w Gdańsku), Niemcy dodatkowo zyskują +5:

Polska Polska
Jastrząb A Gołąb U
Niemcy A 5%*100-95%*100 = -90 +10
Niemcy U -10 -10+5 = -5

Polska zaś, jeżeli stawi opór Niemcom, to, w przypadku wojny, przynajmniej broni swoją pozycję, tracąc na wschodzie na rzecz Stalina, a zyskując na zachodzie kosztem Niemiec, czyli, z uwzględnieniem strat wojennych, otrzymuje -5. Oczywiście, zawsze jest ryzyko, że Niemcy wojnę wygrają i wtedy Polski nie będzie już w ogóle (-100). Jeżeli zaś Niemcy nie zaatakują, i doznają kryzysu, Polska nie tylko bezpiecznie może przyłączyć Gdańsk, ale i wyrasta na głównego gracza w Europie środkowej otrzymując korzyść +10. Natomiast ustępstwa prowadzą, albo do przegrania wojny u boku Niemiec (-50), lub, w mało prawdopodobnym przypadku ich zwycięstwa, pozostanie niewiele znaczącym składnikiem nazistowskiej Mitteleuropy (-10). W żadne większe polskie nabytki kosztem ZSRR w wypadku niemieckiego sukcesu, Beck, mając w pamięci analogiczną politykę Niemiec na Wschodzie w czasie I wojny, słusznie nie wierzył. W sytuacji wzajemnych ustępstw, Polska zaś wychodzi na zero:

Niemcy Niemcy
Jastrząb A Gołąb U
Polska A = -5*95%-100*5% = -9,75 +10
Polska U -10*5%-50*95% = -48 0

Jak widać z powyższych tabel, Niemcom opłaca się strategia agresywna, tylko w tym przypadku, kiedy będą pewni, że Polska ustąpi. Czyli, po brytyjskiej interwencji, jedyną opcją dla Niemiec, pozostał chojrak AU. Gdyby Polska się niemieckiego chojractwa jednak nie zlękła, to Niemcy powinni ustąpić i wybrać kryzys. Polska zaś, niezależnie od stanowiska Niemiec, powinna być agresywna, nieustępliwie broniąc swoich słusznych legalnych praw w strategii L. Wciągając Wlk Brytanię w sprawy Europy środkowej, Polska zdeterminowała zatem tę grę. Ponieważ wiadomo było, że Polska zawsze przyjmie strategię A, Rzesza, nie mając innego racjonalnego wyboru, powinna w końcu przestać chojrakować i przyjąć U. Tym samym gra została, jak to się określa, zdominowana przez jedną strategię (Polska A, Niemcy U). Jedynym zmartwieniem polskiego rządu, było nie danie chojrakującym Niemcom najmniejszych nadziei, że Polska może jednak ustąpić. Stąd twarda mowa Becka o honorze, stąd, z dzisiejszego punktu widzenia, histeryczne i tromtadrackie tony ówczesnej propagandy „Nie oddamy nawet guzika”, etc.. Jednocześnie Polska, nadymając się, jeżąc, strasząc i robiąc groźne miny, nie zwiększała wcale swojego tempa zbrojeń i jej wydatki militarne pozostawały na skromnym, w porównaniu z niemieckim, czy radzieckim, poziomie 5% PKB, najwyższym możliwym, nie wywołującym jeszcze negatywnych perturbacji w gospodarce. Dla polskiego rządu, jasne bowiem było, że nawet zazbrojenie, znacznie biedniejszego od Niemiec kraju, na śmierć, nie pozwoli wygrać z nimi wojny jeden na jednego, natomiast, skoro zrujnowane przez koszty zbrojeń Niemcy powinny, tak czy owak, ustąpić, to absolutnie nie należało przy tej okazji rujnować również polskiej gospodarki. Cała polska przedwrześniowa polityka była zatem spójna, logiczna, na zimno skalkulowana, ze stalową konsekwencją wdrażana i na wskroś racjonalna. Tak bardzo, że przypuszczenia, że musieli ówcześni Polacy dokładnie przekalkulować sobie, to wszystko, co do tej pory napisaliśmy, narzuca się naprawdę z wielką mocą. Oficjalnie ten dział teorii gier powstał w drugiej połowie XX wieku, ale czy nie jest wykluczone, że naprawdę ktoś go stworzył, rozwiązał i doszedł do identycznych wniosków już wcześniej, tyle, że, ze względu na implikacje polityczne, zostało to utajnione? W pewnym kraju w środkowej Europie słynącym wtedy z geniuszu swoich matematyków? Kolejną przesłanką pozwalającą tak sądzić, jest fakt, że przed wojną Polska wydawała na armię, w liczbach bezwzględnych, piętnaście razy mniej pieniędzy niż III Rzesza. Ostatecznie jednak Wehrmacht okazał się w 1939 od Wojska Polskiego silniejszy ledwo trzykrotnie. Wydatki zbrojeniowe Polski były zatem, kilkukrotnie bardziej efektywne niż niemieckie. Polska organizacja, porządek i matematyczna precyzja, kontra niemiecka niechlujność, złodziejstwo i bałagan.

Żarty żartami, ale lata 1933-1939, to chyba jedyny okres w naszych wzajemnych stosunkach, w którym państwo polskie było lepiej (zdecydowanie lepiej) zorganizowane i rządzone niż państwo niemieckie. Dotyczy to też kwestii militarnych. Ilość, czasami wręcz monstrualnych, błędów, jakie nazistowscy generałowie popełnili w kampanii 1939 roku, jest tak gigantyczna, że tylko trzykrotnej przewadze liczebnej i pomocy Stalina, zawdzięcza Rzesza, że wojny nie przegrała już wtedy.

Jak wiadomo bowiem z historii, Rzesza, chociaż racjonalnie powinna skapitulować, dokonała jednak w końcu wyboru nieracjonalnego. Dlaczego? Inaczej, niż to było w roku 1914, nie można tym razem odwołać się do niepełnej informacji o parametrach gry. Niemieccy decydenci puszczający w ruch armie, tym razem doskonale zdawali sobie sprawę ze swojej słabości. Ułomnościami strategii pragmatycznych, można owszem, wyjaśnić I wojnę, ale metoda ta zawodzi w przypadku wojny nr II. Tutaj musimy wprowadzić dodatkowy element.

Beck bowiem, czy też ci, którzy mu w tej kwestii merytorycznie doradzali, popełnili jednak błąd, a nawet dwa błędy. Pierwszym z nich, było, oczywiste dla nas dzisiaj, niedoszacowanie strat wojennych Polski. Niemiecką okupację Polski wyobrażano sobie bowiem wtedy, jako swoiste powtórzenie tejże okupacji z I wojny światowej. Jako rzecz może i uciążliwą i kosztowną, naznaczoną rabunkami i rekwizycjami, ale do zniesienia. Dosłowne zrównanie kraju z ziemią i wymordowanie kilkunastu procent jego mieszkańców, przechodziło pojęcie ówczesnych rządzących. Na ich usprawiedliwienie można jednak zauważyć, że ogromu przyszłych niemieckich zbrodni, nie przewidywali wtedy nie tylko oni, ale i sami naziści. Jednak nawet powiększenie strat Polski z -5 do poziomu -15, nie zmienia w niczym przebiegu gry.

Istotny był drugi błąd Becka. Przyjmując strategię legalisty, założył, że skoro on sam, Józef Beck, reprezentuje Polskę, to symetrycznie Hitler reprezentuje Niemcy. Tak jednak nie było.

W przypadku gry indywidualnej, decyzję o przyjęciu odpowiedniej strategii podejmuje ten sam osobnik, który ją później realizuje, i ponosi jej wszelkie konsekwencje, inkasując zyski i doznając strat. Kiedy jednak mamy do czynienia z koalicją osobników, niezależnie od jej rangi, dochodzi dodatkowy stopień swobody. Przywództwo, czyli w przypadku państw – rządy. A rząd ma swoje własne interesy, które niekończenie muszą być do końca zbieżne z interesem rządzonej społeczności. Dopóki rząd jest prawowity, legalny, a takie były wszystkie rządy krajów rozpoczynających I wojnę światową, dopóty to rozróżnienie jest właściwie akademickie. Nie było jednak tak w przypadku II wojny światowej. Tę wojnę wywołały dwa reżimy Grzbietu Pragmatyzmu, których nikt prawowitymi rządami by nazwać nie mógł. Władza nielegalna zaś, główny swój wysiłek kieruje, nie w stronę zapewnienia realizacji interesów rządzonego przez siebie kraju i narodu, tylko uniknięcia odpowiedzialności za łamanie prawa. Dlatego też wszelkiego typu dyktatury, przynajmniej od końca ery maltuzjańskiej, mniej, lub bardziej, ale dławią rozwój rządzonych przez siebie krajów. Interes dyktatury jest, inaczej niż to jest z rządem legalnym, zasadniczo sprzeczny z interesem społeczeństwa, nad którym dyktatura panuje. Jest to zjawisko nieuchronne i zupełnie niezależne od woli samej dyktatury, która może mieć początkowo nawet jak najlepsze intencje, ale kończy zawsze w ten sam sposób. Jedynym mechanizmem, który przed tym w pewnej mierze zabezpiecza, jest jakiegoś rodzaju zalegalizowanie władzy, która stała się nią, w wyniku przewrotu, czy zamachu. Taką procedurę przeszła w dużym stopniu polska przedwrześniowa sanacja, a także tacy dyktatorzy, jak Pinochet w Chile i Franco w Hiszpanii i dlatego efekty tych rządów, nie były dla ich krajów negatywne. Inaczej jednak było z reżimami, które w 1939 roku rządziły Rosją i Niemcami.

W przeciwieństwie do rosyjskich bolszewików, którzy już z góry zakładali, że dobro narodu nie jest ich celem, doszli do władzy drogą przemocy i konsekwentnie nią podążali, niemieccy naziści faktycznie byli przekonani, że są czymś najlepszym, co się mogło Niemcom przytrafić, a ich delegalizacja następowała stopniowo, w miarę łamania kolejnych praw swojego kraju. Ostateczny rezultat władzy nazistów dla Niemiec, był zatem praktycznie taki sam, jak władzy bolszewików dla Rosji. Nie był to przypadek, tylko nieuchronny rezultat.

Ten zasadniczy konflikt interesów pomiędzy narodem, a jego bezprawną władzą, dotyczy też oczywiście kwestii wojny. Wojna była sprzeczna z interesem narodowym Rosji, czy Niemiec, ale była zgodna z interesem rządzących tymi krajami reżimów i dlatego właśnie ją one wywołały.

Sanacja doszła w Polsce do władzy drogą zamachu stanu, to jednak później swoje rządy, jako tako, poprzez zmanipulowane, ale jednak nie sfałszowane, wybory, zalegalizowała. Naziści zaś na odwrót. Władzę zdobyli legalnie, a dyktaturą stali się później. I jak zwykle w takich sytuacjach, główną, choć być może jeszcze w pełni nie uświadomioną, troską nazistów, stało się nie dobro kraju, ale utrzymanie się przy władzy. Jasne było, że jeżeli Rzesza ustąpi, do wojny, ku powszechnej uldze, także w Niemczech, nie dojdzie, ale zrujnowana zbrojeniami i przeróżnymi socjalistycznymi projektami gospodarka, już zapewne w przyszłym, 1940 roku, się zawali. Rządy Hitlera zostaną obalone, a on sam i jego kameraden pociągnięci do odpowiedzialności karnej. Wznowione zostanie dochodzenie w sprawie podpalenia Reichstagu, zbadana przez niezależnych medyków przyczyna śmierci prezydenta Hindenburga, przed niezawisłym sądem staną sprawcy nocy długich noży.

Grę toczył zatem Beck w imieniu Polski, ale nie z Niemcami, tylko z Hitlerem. A interesy Niemiec i Hitlera były w tym przypadku rozbieżne. W przypadku przyjęcia strategii ustępującej, Niemcy traciły, jak już wspomniano, w wyniku kryzysu, -10, ale Hitler tracił znacznie więcej, całe swoje życie i dotychczasową karierę, oraz to, na czym mu najbardziej zależało, czyli miejsce w niemieckiej historii. Miejsce największego w niej bohatera. Heroicznego, a jeżeli się nie da, to przynajmniej tragicznego. Dla Hitlera macierz gry wyglądała zatem tak:

Polska Polska
Jastrząb A Gołąb U
Hitler A 5%*100-95%*100 = -90 +10
Hitler U -100 -100+5 = -95

Inaczej niż same Niemcy, które w grze powinny ustąpić, Hitler w żadnym wypadku ustępować nie powinien. Z jego strony gra również była zdominowana, ale przez strategię (Hitler A, Polska A) W interesie Hitlera było jak najbrutalniej naciskać na Polskę, licząc na to, że Polska jednak ustąpi. A jeżeli nie ustąpi, wywołać wojnę, którą prawie na pewno nie można wygrać (5%), żeby uniknąć pokoju, którego wygrać nie można na pewno (0%). Warto w tym miejscu zauważyć, że powyższa macierz wyglądałaby nieco inaczej, gdyby Hitler był człowiekiem normalnej orientacji, miał rodzinę, dzieci i wnuki. Wówczas klęska i katastrofa Niemiec, wraz ze skazaniem swojego potomstwa na życie w pozostałych po klęsce ruinach, byłyby dla niego bardziej dotkliwe niż klęska i katastrofa osobista. I do wojny zapewne by w końcu nie doszło.

Trzeba w tym miejscu przypomnieć, że przed przyjęciem brytyjskich gwarancji Hitler mógł liczyć na sukces, bo wtedy gra była zdominowana przez strategię (Niemcy/Hitler A, Polska U), ale, po tych gwarancjach, interesy Niemiec i Hitlera drastycznie się rozjechały. Trudno mieć jednak pretensje do Becka, że sobie tego nie uświadomił, skoro nikt inny, w tym zapewne i najbardziej zainteresowany Hitler, nie uświadomił sobie tego również, chociaż wnosząc ze zmiany tonu jego polityki wobec Polski, z protekcjonalno – życzliwego przed kwietniem 1939, na histeryczny i brutalny po nim, coś musiał jednak przeczuwać.

Modne jest dzisiaj jojczenie, jak to II wojna światowa straszliwie obeszła się z naszym krajem, jak to wielką klęskę Polska w niej poniosła i tym podobne biadolenia. Głosy te dochodzą ze środowisk, które chciałyby, z mocą wsteczną, odrzucić brytyjskie gwarancje, a przyjąć propozycje Hitlera. To, że gdyby ich postulaty były spełnione, dzisiejsza Polska byłaby mniej więcej o połowę mniejsza, jej znaczenie byłoby porównywalne ze znaczeniem Węgier, od zachodu sąsiadowałaby ze znacznie większymi Niemcami, a obwód kaliningradzki zaczynałby się już za Mławą, wcale im nie przeszkadza. Straszliwie ograniczone i ciasne horyzonty czasoprzestrzenne, nie pozwalają im też na dostrzeżenie, że sytuacji Polski nie można rozpatrywać wyłącznie w kontekście II wojny światowej, ale trzeba spojrzeć na cały Grzbiet Pragmatyzmu, lata 1914-1945, a nawet 1914-1989. W 1914 Polski nie było wcale. Jeżeli to pojęcie się w ogóle w polityce pojawiało, to tylko, jako wewnętrzna sprawa Rosji. Po 1989 roku Polska zaś jest stabilnym krajem zakotwiczonym w zachodnich strukturach gospodarczych i wojskowych. Nigdy by do tego nie doszło, gdyby nie Wojna Asurów i przebycie cywilizacji przez Grzbiet Pragmatyzmu. Polska jest chyba największym beneficjentem tego fazowego przejścia.

Wojna Asurów 1984 v. 2.0

80 milionom trzeba dać to, co im się należy.
Ich egzystencja musi zostać zabezpieczona. Silniejszy ma rację.
 
Adolf Hitler
Tam, gdzie stanie żołnierz radziecki, tam już jest Związek Radziecki.
 
Józef Stalin
Wojna to pokój
 
George Orwell

W poprzednim artykule rozważaliśmy kwestię wojen i konfliktów trapiących cywilizowane społeczeństwa. Na podstawie, zaczerpniętego z teorii gier i stopniowo modyfikowanego, modelu gry w jastrzębia i gołębia, doszliśmy do wniosku, że przemoc i agresja cechuje wyłącznie społeczności biedne, prymitywne i zacofane. W miarę zaś rozwoju cywilizacji, zwłaszcza po wejściu w fazę rewolucji przemysłowej, zarówno każdy człowiek z osobna, jak i całe społeczności, mają, w razie konfliktu, coraz więcej do stracenia i proporcjonalnie mniej do zyskania. W konsekwencji iloraz tych dwóch wielkości, współczynnik oznaczony jako S, rośnie coraz bardziej, a liczba zachowań agresywnych spada praktycznie do zera. Początkowo w populacji dominują strategie mścicielskie zwane UA, odpowiadające ustępstwami na ustępstwa i agresją na agresję, czyli realizujące w praktyce powiedzenie: „Jak Bob Wielkiemu Wozowi, tak Wielki Wóz Bobowi”, spersonifikowane w postaci ludzi honoru. Kiedy jednak współczynnik S przekracza poziom 4 – 5, dominację zdobywają strategie legalistyczne, polegające na agresywnej obronie swoich słusznych praw, w połączeniu z wzajemnym uznawaniem praw, innych członków społeczności. Strategie legalistyczne uosobione przez sługi prawa. Model ten, znakomicie zatem wyjaśnia zjawisko opisane przez Stevena Pinkera w jego bestsellerze „Zmierzch przemocy”. Malejącej, wraz z rozwojem cywilizacyjnym poziomie agresji i przemocy.

Model ten, okazuje się jednak, aż za dobry, czy, ściśle rzecz biorąc, zbyt pokojowy. Konflikty i wojny przewiduje on tylko dla S bardzo bliskiego zera, podczas gdy, w rzeczywistej historii, przemoc i wojny należały do wydarzeń zwyczajnych i powszechnych. Częstszych w okresie preindustrialnym, rzadszych, ale nadal spotykanych, w trakcie trwania rewolucji przemysłowej, ze szczególnym uwzględnieniem I i II wojny światowej. Ten krwawy okres 1914-1945, był tym większym szokiem, że nastąpił po długim, stuletnim, bezprecedensowym, okresie pokoju

Około roku 1800 rozpoczęło się bowiem na Zachodzie swoiste przejście fazowe. Ludzkie społeczeństwa, przed tą datą, bez wyjątku tkwiące w pułapce maltuzjańskiej niskiego poziomu dobrobytu, a tym samym niskiego poziomu S, stopniowo zaczęły wchodzić w etap, zwany niezbyt ściśle „rewolucją przemysłową”. W erze maltuzjańskiej, poziom przeciętnego dobrobytu nie zmieniał się praktycznie wcale, a każdy wzrost wydajności gospodarki prowadził długofalowo wyłącznie do proporcjonalnego wzrostu liczby ludności. W czasach industrialnych zaś, wykładniczo rosły zarówno gospodarka (PKB), jak i średni dobrobyt (PKB per capita). Rósł też zatem poziom komplikacji społeczeństw, gospodarki i technologii, także, a nawet przede wszystkim, zbrojeniowej. Rewolucja przemysłowa, z jednej strony, zwiększała więc koszty wojny (współczynnik W), z drugiej zaś, zmniejszała potencjalne zyski (współczynnik V). Materialny łup, które armie mogły zagarnąć w wojnach maltuzjańskich, stanowił znacząca część ówczesnego PKB. Wojny industrialne odwróciły te proporcje. Coraz większy stopień złożoności gospodarki sprawił, że bogactwo wroga nadal można było, co prawda zniszczyć, ale coraz trudniej było je przejąć. Rosnący poziom globalizacji i skala handlu światowego powodowały, że straty wojenne w jednym kraju, przenosiły się na wszystkie pozostałe. Same wydatki zbrojeniowe, w erze maltuzjańskiej praktycznie obojętne dla społeczeństwa, zaczęły poważnie obciążać gospodarkę, niezależnie od tego, czy do jakiejkolwiek wojny w ogóle doszło. W końcu okazało się, że zamiast podbijać i rabować jakieś zasoby, taniej jest po prostu je kupować. W rezultacie, po zakończeniu wojen napoleońskich, częstotliwość konfliktów zbrojnych, pomiędzy najbardziej rozwiniętymi państwami XIX wiecznego świata, znacznie zmalała. W stosunkach międzynarodowych, tak samo jak i na poziomie indywidualnym, zaczęła wygrywać, opisana wyżej, strategia legalizmu. Nieprzypadkowo, właśnie w tym okresie, pojawiły się takie instytucje jak Czerwony Krzyż, czy trybunał haski, podpisano też pierwsze konwencje międzynarodowe. Rosnące koszty potencjalnego konfliktu i coraz większa iluzoryczność zysków z niego, nie umknęła uwagi ówczesnych myślicieli. W latach 1893-1898 ukazała się, przełomowa pod tym względem, praca „Przyszła wojna”, autorstwa naszego rodaka, Jana Blocha. Autor, skrupulatnie i precyzyjnie, wykorzystując dostępne ówcześnie dane ekonomiczne i naukowe, dowodził, że koszty ludzkie i materialne ewentualnej wojny miedzy największymi ówczesnymi mocarstwami, zgrupowanymi już wtedy w bloki Trójprzymierza – przyszłych państw centralnych i Trójporozumienia – przyszłej Ententy, będą tak olbrzymie, że odniesienie zwycięstwa przez którąkolwiek ze stron, będzie zwyczajnie niemożliwe. Wojna, pochłonąwszy wszystkie zasoby walczących krajów, skończy się w końcu rebelią wycieńczonych wojsk i głodującej ludności cywilnej, czego nie omieszkają wykorzystać socjalistyczni agitatorzy skutecznie nawołując do rewolucji. Wobec takich niewesołych perspektyw, uważał Bloch, wojna, zwłaszcza wojna między najbardziej ówcześnie rozwiniętymi krajami, stała się zwyczajnie niemożliwa, a wszelkie spory powinny rozstrzygać one na drodze legalistycznej.

Jak na książkę składającą się w znacznej mierze ze wzorów, tabel i wykresów, oraz głoszącą poglądy ówcześnie, co najmniej kontrowersyjne, praca Blocha miała bardzo duży oddźwięk, została przetłumaczona na wiele języków, a jej autor zgłoszony do, świeżo wówczas ustanowionej, nagrody Nobla, którą bez wątpienia by otrzymał, gdyby nie jego przedwczesna śmierć w 1902 roku.

A potem nadszedł rok 1914 i owa, wykluczona przez Blocha i teorię gier, wielka, niszczycielska wojna bez zwycięstwa, jednak wybuchła. A po krótkiej przerwie, kolejna, jeszcze bardziej krwawa, pod koniec której, skonstruowano i zastosowano bojowo, broń o mocy znacznie potężniejszej, niż Bloch byłby w stanie sobie w ogóle wyobrazić. Do połowy XX wieku tezy Blocha zostały najpierw wyśmiane, a potem zapomniane, w zamian zapanowało przekonanie, że lada moment wybuchnie kolejna wielka wojna, po której, już naprawdę nie będzie na Ziemi czego zbierać. Opinię tę podzielali nie tylko ludzie kultury, jak Nevil Shute, autor pamiętnego „Ostatniego brzegu”, ale także poważni naukowcy, Albert Einstein, czy Richard Feynmann. Powszechna wiara w nieuchronność III wojny światowej i zniszczenie ludzkiej cywilizacji, a nawet samego gatunku Homo sapiens, utrzymywała się bardzo długo. Jeszcze w roku 1983, pokazujący ją film „Nazajutrz”, był traktowany, jako właściwie paradokument. Do zagłady jednak nie doszło. Więcej, jak udowadnia Steven Pinker, lata, które nastąpiły po II wojnie światowej były najbardziej pokojowe w historii, wojny międzypaństwowe praktycznie zanikły, wojny domowe zaś zmalały do najniższego w historii poziomu. Światowy pokój faktycznie nastąpił.

W świetle teorii gier, ten „Długi Pokój”, jak go nazywa Pinker, nie wymaga żadnego szczególnego wyjaśnienia. Gigantyczny wzrost parametru S=W/V doprowadził do sytuacji, w której z wojny nie ma żadnych korzyści, a poziom potencjalnych strat zagraża wręcz biologicznemu przetrwaniu gatunku. To właśnie anomalia z lat 1914-1945 (lub 1989 kiedy znikły ostatnie relikty tego okresu) wymaga osobnego wytłumaczenia. Dlaczego, wbrew prognozom Blocha i wbrew rozwiązaniom naszego modelu, do tak drastycznie krwawej odchyłki od normy, w latach 1914-1945 (1989), doszło.

Kim Stanley Robinson, amerykański pisarz, literacko średni, ale obdarzony niezwykle potężną siłą wyobraźni, najbardziej znany jest, jako autor tzw. trylogii marsjańskiej i w ogóle dzieł opisujących hipotetyczną przyszłość ludzkiej cywilizacji. Zdarzyło mu się jednak także popełnić, wydaną w Polsce w roku 2007, powieść „Lata ryżu i soli”, będącą tzw. historią alternatywną. Jak przystało na Robinsona, wizja ta została przedstawiona z niezwykłym rozmachem, a zarazem w sposób niesłychanie drobiazgowy i głęboko przemyślany, co też sprawia, że dla czytelnika historia ta wygląda wyjątkowo wiarygodnie.

Punktem wyjścia dla fabuły, jest epidemia „Czarnej śmierci” z XIV wieku, która u Robinsona była jeszcze straszniejsza niż w historycznej rzeczywistości i która doprowadziła do zagłady, praktycznie całej populacji Europy. W rezultacie zachodnia Christianitas przestała istnieć, a powstałą próżnię zapełniły cywilizacje chińska, indyjska i muzułmańska. Alternatywna historia tego dziwnego świata, jest niesłychanie intrygująca i wielokrotnie zaskakująca, jednak jej autor, ze względu na żywione przez siebie prokomunistyczne sympatie, nie potrafił zerwać do końca z marksistowskim determinizmem. Otóż pomimo braku kręgu kulturowego, który w historii rzeczywistej przez kolejne kilkaset lat przodował cywilizacyjnie na planecie, tempo rozwoju naukowego, technologicznego i cywilizacyjnego, jest u Robinsona dokładnie takie samo jak w historii rzeczywistej, tylko główni tegoż rozwoju liderzy są inni. Nie zadaje sobie Robinson podstawowego pytania, dlaczego nauka, technika, gospodarka i w końcu rewolucja przemysłowa rozwijały się w obrębie Christianitas, a w innych zakątkach świata jakoś nie i w takim razie, dlaczego miałyby się nadal, w niezmienionym tempie, rozwijać, gdyby Christianitas zabrakło.

W konsekwencji tego marksistowskiego determinizmu, także u Robinsona dochodzi do swoistego powtórzenia wojen światowych z pierwszej połowy XX wielu, z tą tylko różnicą, że przyjmują one postać jednej potężnej „Wojny Asurów”, również, tak samo jak w historii rzeczywistej, rozstrzygniętej przez interwencję państwa leżącego w Ameryce Północnej. Tak daleko posunięta zbieżność, przekroczyła już zdolność niżej podpisanego do zawieszenia niewiary i została przez niego potraktowana, jako bardzo poważny zgrzyt, w znakomitej, poza tym, powieści.

Jednak niesłusznie. W konfrontacji blochowskiego szkiełka i oka, oraz robinsonowskiego czucia i wiary, nietypowo wygrywa to drugie. Dzieje się tak dlatego, że, szkiełko i oko, takie, jakie były dostępne dla Blocha pod koniec XIX wieku, nie były wystarczająco precyzyjne. Wobec braku komputerów, model jastrzębia i gołębia mógł być rozwiązany jedynie analitycznie, dla najprostszych możliwych przypadków. Jak widzieliśmy, nawet tylko wprowadzenie chojraka i mściciela, komplikuje go niesłychanie, nie mówiąc już o strategiach legalistycznych, które zostały odkryte naukowo dopiero w 1982 roku. Kolejnym ograniczeniem modelu, jest zaś to, że zawiera on tylko jeden parametr – stosunek strat to zysków S=W/V. Czyni go to prostym, ale, jak się okazuje, zbyt prostym.

Konstruując grę, założyliśmy, że na wojnie, w starciu dwóch jastrzębi, szanse na wygraną każdego z nich są jednakowe. Jest to jednak założenie skrajnie naiwne. Nawet na poziomie indywidualnym, dwóch spierających się osobników, nigdy nie jest jednakowo silnych. Co dopiero na poziomie zbiorowym, plemion, państw i narodów.

Realnie, siły obu stron konfliktu nigdy nie są równe. Zakładając, że prawdopodobieństwo wygrania konfliktu wynosi X, i, podobnie jak wcześniej przyjmując, że W/V = S możemy odpowiednio zmodyfikować naszą grę. Gra jastrząb-gołąb, z uwzględnieniem różnicy w sile i tym samym różnych szans na wygraną starcia, nosi nazwę macierzy Hammersteina:

Strategia Jastrząb A Gołąb U
Jastrząb A X-(1-X)*S 1
Gołąb U 0 0,5

Rozwiązanie gry, jest tym razem dwuwymiarowe i przyjmuje postać trzech odrębnych obszarów. Pierwszy z nich to pole, w którym agresja opłaca się obu stronom konfliktu, zarówno silniejszemu, jak i słabszemu z rywali. Dzieje się tak wtedy, kiedy  X<1/(1+S). Kiedy zaś, oczekiwane przez słabszego, zyski z walki spadają poniżej zera, będzie on starał się owej walki z silniejszym przeciwnikiem unikać. Takie właśnie zachowania w przyrodzie można obserwować. Pojedynki zwierząt o łup, terytorium, czy dostęp do samic, są zwykle wysoce zrytualizowane, tym bardziej, im z większym, silniejszym i bardziej „uzbrojonym” w kły i pazury, czyli mającym wyższe W, gatunkiem mamy do czynienia. Poszczególne osobniki usiłują się nadymać, jeżyć sierść, wykonywać groźne gesty i ogólnie starać się sprawiać wrażenie jak najsilniejszego, aby skłonić przeciwnika do postawy ustępującej. Ten, kto przegra ten pojedynek na miny i gesty uznaje się za pokonanego i odchodzi. Do prawdziwej, fizycznej walki, zazwyczaj wcale nie dochodzi.

Krzywa X=1/(1+S) oddziela zatem od siebie dwa obszary – „strefę wojny”, w której zyski z konfliktu przeważają nad ewentualnymi stratami i „strefę wymuszania”, gdzie silniejsi rywale wymuszają na słabszych ustąpienie bez walki. Istnieje jednak i trzecia strefa. Tam, gdzie agresja nie opłaca się także silniejszemu. Średnie zyski z walki, nie tylko dla słabszego, ale także dla silniejszego przeciwnika, spadają poniżej zera wtedy, kiedy:

X< S/(1+S)

Wszystkie te trzy strefy przedstawiono na poniższym wykresie. X pokazano tylko do wielkości 0,5 w górę, jako ilustrację nierównowagi sił między stronami:

Jasgoł 04

Dla X = 0,5, macierz Hammersteina redukuje się, do znanej już nam, klasycznej gry jednoparametrowej. Gra ta miała trzy „podstawowe” strategie: A, U, L. W momencie jednak, kiedy X>0,5, pojawia się nowa klasa strategii, nazwanych pragmatycznymi P, które powinny być preferowane w strefie II. Bądź agresywny, kiedy jesteś silniejszy, ustępuj, kiedy jesteś słabszy.

Wszystkich strategii, łącznie z ich kombinacjami, jest już zatem szesnaście:

Cztery omówione już strategie podstawowe (A, U, P, L),

Trzy strategie chojrackie (AU, AP, AL), zaczynające od postawy agresywnej, a w przypadku adekwatnej odpowiedzi w różnym stopniu podwijające ogon pod siebie.

Trzy strategie mścicielskie (UA, UP, UL) zaczynające od ustępstw, a przy agresywnej odpowiedzi, same stające się agresywne.

Trzy strategie pragmatyczne (PA, PU, PL)

Trzy strategie legalistyczne (LA, LP, LU).

Strategie te, można podzielić na miłe, czyli takie, które umożliwiają populacji stabilne bytowanie, bez niszczących je wewnętrznych konfliktów i bez poniewierania słabszymi, oraz strategie niemiłe. Podział ten wynika z przekonania, że, tylko w przypadku dominacji strategii miłych, możliwe jest długofalowo istnienie i rozwój cywilizacji.

Strategie miłe zatem, to U, L, AL, UA, UP, UL, PL, LU, a niemiłe A, P, AU, AP, PU, PA, LA i LP. Szesnaście strategii oznacza też, że macierz wypłat liczy teraz 256 pozycji, która to liczba pokazuje skalę trudności całego przedsięwzięcia i wyzwanie, jakie stoi przed komputerem. Na szczęście podołał mu on i po długich obliczeniach, wypluł wynik. Pokazany jest on w postaci mapy, na której strategie niemiłe są wypukłymi „lądami”, a miłe wklęsłymi „morzami”.

Jasgoł 05

Drugi wykres pokazuje natomiast szczegółowo, jakie strategie, na określonych obszarach Krajobrazu Hammersteina, są reprezentowane:

Jasgoł 06

Jak widać, wynik jest zupełnie inny, niż wynikałoby to tylko z prostego rozwiązania analitycznego. Strategie niemiłe grupują się w trzech wyróżnionych obszarach, mało mających wspólnego z dawną strefą I i II. Na północnym zachodzie mamy Ziemię Agresorów, ze zdecydowanie królującą tu strategią (A;PA). Udział jastrzębi A rośnie tutaj, w miarę przesuwania się na północ. Od punktu (S=3; X=0) w kierunku północno-wschodnim, ciągnie się półwysep, oraz otaczające go wyspy, ochrzczone wspólnie Grzbietem Pragmatyzmu. Dominują tu, jak sama nazwa wskazuje, strategie pragmatyczne, P i AP. Na dalekim południu, przy X=0,5 dla S>5 znajdziemy Ścianę Nieszczęścia, o składzie praktycznie identycznym jak Grzbiet Pragmatyzmu. Strategie miłe natomiast, dominują na oblewających Grzbiet Pragmatyzmu od północnego zachodu – Mściwej Zatoce, oraz od południowego wschodu Morzu Legalizmu z jego miłymi strategiami L i AL, wraz z niewielkim udziałem PL. Morze to, pokrywa się w większości ze strefą III, bez jej zajętego przez Grzbiet Pragmatyzmu północno-zachodniego pogranicza ze strefą II. Mściwa Zatoka zaś, to, jak sama nazwa pokazuje, domena strategii honorowych: UA, UP, UL.

Południowa Ściana Nieszczęścia, jest właściwie tylko pewnym artefaktem obliczeniowym, błędem komputera. Dla X = 0,5, zanika bowiem różnica, pomiędzy strategiami pragmatycznymi i legalistycznymi. Zanika w naszym modelu, ale nie w rzeczywistości, o czym będzie jeszcze mowa. Ściana Nieszczęścia nie istnieje zatem naprawdę, podczas gdy pozostałe obszary, już tak. W dalszych rozważaniach, będziemy zatem, ową Ścianę ignorować.

Warto zwrócić uwagę, że granice między strategiami miłymi i niemiłymi, są ostre i wyraźne. Prawie wszystkie wybrzeża na naszej mapie mają charakter klifowy, a obszary, gdzie te grupy strategii współwystępują, są bardzo nieliczne. Jeśli zatem już wlazłeś już między wrony, musisz krakać tak jak one. Nie da się być miłym w niemiłym towarzystwie i na odwrót.

Oczywiste jest, że, jeżeli społeczność, także międzynarodowa, ma w miarę stabilnie bytować i prosperować, musi znajdować się w obrębie strategii miłych. Istnieją na mapie dwa takie miejsca. W pierwszym z nich, Mściwej Zatoce, spory rozstrzyga się według zasad honorowych, a pokój utrzymuje się za pomocą odstraszania, demonstrowania chęci i możliwości rewanżu i groźby odwetu. Obszar ten, odpowiada z grubsza społeczeństwu, w którym nie doszło jeszcze do rewolucji przemysłowej, społeczności maltuzjańskiej, w którym S<X/(1-X) i zyski z agresji, przewyższają straty, jakie można w niej odnieść. W samym południowo – zachodnim narożniku naszej mapy, mamy łowców zbieraczy, plemiona o tak niskim S, że, nawet niewielkie zaburzenie równowagi sił X, przenosi je na Ziemie Agresorów, powodując wybuch przemocy. Nieprzypadkowo, są to najbardziej wojownicze i agresywne społeczności w ludzkiej historii. Ludy rolnicze są przesunięte nieco w prawo, zatem i bardziej pokojowo nastawione, ale maltuzjanizm nie pozwala im na trwały wzrost dobrobytu i tym samym utrzymuje ich S, co najwyżej w strefie I i II. Społeczeństwa maltuzjańskie mogą jednak żyć w pokoju, kołysząc się na falach Mściwej Zatoki, dopóki panuje wśród nich względna równowaga. Jeżeli jednak X za bardzo wzrośnie, albo potencjalny łup V jest wyjątkowo atrakcyjny, układ przemieszcza się na Ziemię Agresorów i dochodzi do wojny. Z okresów historycznych, do których istnieje dużo źródeł pisanych, wiadomo, że główną troską maltuzjańskich dyplomatów przy zawieraniu traktatów pokojowych, było właśnie zapewnienie równowagi sił, bo tylko niski poziom X gwarantował wzajemne mścicielskie odstraszanie i tym samym pokój.

Przez setki tysięcy lat ludzkość pozostawała w Mściwej Zatoce, od czasu do czasu prowadząc wojny na Ziemi Agresorów. Ale w końcu, na przełomie XVIII i XIX wieku, maltuzjanizm się skończył, nastąpiła rewolucja przemysłowa, i w wyniku rozwoju technologicznego i organizacyjnego, zaczął rosnąć nie tylko PKB, ale i PKB per capita. Konsekwencje tego cywilizacyjnego przejścia fazowego, były na naszej mapie znaczące. Bogacące się społeczeństwo miało coraz więcej do stracenia, zatem współczynnik S przebił wreszcie poziom 1 i cały układ rozpoczął dryf na wschód.

Pierwszym rezultatem tego procesu, było oddalenie się od przeklętych klifów Ziemi Agresorów. Okres 1815-1914 był najspokojniejszy i najbardziej pokojowy w dotychczasowych dziejach Europy. Z wolna narastało więc przekonanie, że tak już będzie zawsze. Sukces czytelniczy, jaki odniósł Jan Bloch, szczegółowo, ilościowo pokazując, że na przełomie XIX i XX wieku S jest już znacznie większe od jedności i wojna stała się kompletnie nieopłacalna, pokazuje, że, przynajmniej częściowo, trafił on w oczekiwania opinii publicznej. Tego, że układ dryfuje prosto na, ukryty we mgle przyszłości, Grzbiet Pragmatyzmu, nikt nie zauważał. Aż w końcu, na początku wieku XX, ludzkość, znane sobie doskonale, wody Mściwej Zatoki, opuściła.

Strategie mścicielskie, którym Mściwa Zatoka zawdzięcza swoją nazwę, praktycznie nigdy nie występują samotnie. Korzystając z ich ochrony, w tej samej strefie mogą egzystować w pewnej liczbie także strategie U. Ich udział rośnie od zera na wybrzeżu Ziemi Agresorów, do nawet kilkunastu procent na plażach Grzbietu Pragmatyzmu. Tak duży odsetek U zaczyna stanowić podłoże, na którym żerować mogą strategie pragmatyczne. Mściciele są w tym miejscu już, a legaliści jeszcze, za słabi, żeby ich powstrzymywać. Stąd też obecność niemiłej strefy przejściowej, do której ludzka cywilizacja dotarła na początku XX wieku.

Teoretycznie mogłoby się wydawać, że, nawet na Grzbiecie Pragmatyzmu, Wojna Asurów niekoniecznie musiałaby wybuchnąć. W końcu to odpowiednik strefy II z rozwiązania analitycznego i dominujące tam strategie pragmatyczne, są właśnie pragmatyczne. Słabsi ustępują silniejszym i do otwartej wojny dochodzić nie powinno. Jednak nie zawsze ten mechanizm się sprawdza. Aby skutecznie strategię pragmatyczną stosować, należy mieć dokładną wiedzę o sile, zarówno własnej jak i rywala. W praktyce, zwłaszcza przy w miarę wyrównanych potencjałach, ocenić to jest czasami bardzo trudno. Druga strona wcale przecież tego nie ułatwia, starając się zaprezentować, jako silniejsza niż w rzeczywistości, aby skłonić rywali do przyjęcia postawy ustępującej. Przy niskich, zbliżonych do 0,5, wartościach X, obie strony mogą być przekonane o własnej przewadze i tym samym eskalować konflikt, aż do wybuchu, co też stało się w 1914 roku. Wreszcie jest jeszcze pewna bezwładność układu, czyli przyzwyczajenie. Przez niezliczone millenia ludzkość zapewniała sobie pokój strategiami mścicielskimi. To, że nagle, w ciągu właściwie jednego pokolenia, przestały one działać, wcale nie dla wszystkich musiało być oczywiste.

Od czasu zamachu stanu i zamordowania króla Aleksandra w 1903 roku, władze Serbii prowadziły wobec Austro-Węgier zdecydowanie wrogą politykę, a udział w spisku, mającym na celu zamordowanie następcy cesarsko – królewskiego tronu, przebrał miarę. Austro-Węgry zareagowały na prowokację, stawiając Serbii bardzo ostre ultimatum, czyli tradycyjnie, acz nieadekwatnie, strategią UP. Stosując strategię pragmatyczną, Serbia powinna teraz skapitulować. Ale Serbia miała sojuszników i zastosowała AP. Rosja, serbski sojusznik, była przekonana, że jest od Austro-Węgier silniejsza, a w sojuszu z Francją, silniejsza również od Niemiec – sojusznika Austro-Węgier. Pragmatycznie zatem, nacisnęła na Austro-Węgry, co spowodowało, równie, we własnym mniemaniu, pragmatyczną, reakcję Niemiec. Wojna Asurów wybuchła.

Warto zauważyć, że pragmatyczne strategie Niemiec, Austro-Węgier i Rosji, właśnie wskutek niewłaściwego oszacowania sił, okazały się zdecydowanie błędne. Natomiast serbska strategia AP, przyniosła, mimo dużych strat i zniszczeń wojennych, olbrzymi sukces i dzięki niej właśnie, Serbia stworzyła swoje jugosłowiańskie imperium. Imperium to jednak, będąc efemerycznym tworem Grzbietu Pragmatyzmu, rozsypało się, wraz z innymi podobnymi bytami, jak Czechosłowacja, czy ZSRR, zaraz po tym, jak ludzkość Wojnę Asurów w końcu zakończyła i przekroczywszy Grzbiet Pragmatyzmu, wpłynęła na Morze Legalizmu.

Stoczona na Grzbiecie Pragmatyzmu Wojna Asurów, pod wieloma względami była podobna do toczonych wcześniej maltuzjańskich wojen na Ziemi Agresorów. Masowe, posunięte do ludobójstwa, zbrodnie wojenne, masakrowanie ludności cywilnej, mordy, gwałty i rabunki, nie były, wbrew często spotykanym poglądom, żadnym ewenementem, czy precedensem. Tak zawsze wojny na Ziemi Agresorów toczono. Tyle, że przez długi okres przemieszczania się od jednego wybrzeża Mściwej Zatoki do drugiego, zdążono o tym zapomnieć. Era industrialna zmieniła też narzędzia eksterminacji. Zamiast mieczy, włóczni i noży żołdaków, używano cekaemów, komór gazowych i bomb lotniczych. Śmierć i zniszczenie pozostały jednak te same.

Była jednak też pewna istotna różnica. W przeciwieństwie do wojen dawniejszych, ta odbyła się w warunkach wysokiego S. Nie było w niej faktycznych zwycięzców. Wszyscy jej uczestnicy, nawet znajdujące się w relatywnie najlepszej sytuacji USA, ponieśli per saldo wyłącznie straty. Całe, wspomniane wyżej, wojenne barbarzyństwo, było odczuwalne dużo bardziej, niż w czasach maltuzjańskich, dotkliwie i wzbudziło też dużo większą zgrozę i oburzenie. Niemniej była faktycznie Wojna Asurów wojną, która położyła kres, choć wyłącznie w sensie statystycznym, wszystkim innym wojnom. Od jej zakończenia poziom natężenia agresji w stosunkach międzyludzkich i międzynarodowych, jak przekonywująco wykazał Steven Pinker w „Zmierzchu przemocy” systematycznie, jak na Morzu Legalizmu należałoby się tego spodziewać, spada.

Intuicja Robinsona jest zatem uzasadniona. Do Wojny Asurów, jeżeli dana cywilizacja faktycznie w fazie rewolucji przemysłowej już się znajdzie, dojść, w takiej, czy innej postaci, może bardzo łatwo. Co gorsza, wcale nie musi się ona skończyć przekroczeniem Grzbietu Pragmatyzmu. Wojny maltuzjańskie mogły zachwiać ekonomią i demografią toczących je państw, jedynie chwilowo, bo, nawet po największych zniszczeniach i masakrach, układ zawsze musiał do pułapki maltuzjańskiej powrócić. Wojna Asurów przeciwnie. Bezpośrednio wpływa ona na poziom produktywności gospodarki i tym samym, przynajmniej hamuje, o ile nie zatrzymuje w ogóle, dalszy wzrost S. W Niemczech, kraju, który najbardziej się w tą wojnę zaangażował, PKB per capita w roku 1946 był taki sam jak sześćdziesiąt lat wcześniej i wynosił zaledwie 60% poziomu wypracowanego w roku 1913. To, że nie powróciły Niemcy do stanu z roku 1885 także cywilizacyjnie, zawdzięczały wyłącznie temu, że inne kraje, zwłaszcza USA, poniosły jednak mniejsze straty i miały chęć i środki, aby Niemcom gospodarkę pomóc odbudować. Równie dobrze można jednak sobie wyobrazić przebieg wydarzeń, w którym tak by nie było. Na Ziemi prawdopodobnie wystarczyłby (kolejny ukłon w stronę przenikliwości Robinsona) brak Ameryki, a ściśle rzecz biorąc, brak leżącego tam kraju dorównującego potęgą głównym mocarstwom Starego Świata, a którego interwencja w kluczowym momencie, przeważyłaby szalę na którąś ze stron i wojnę zakończyła. Gdyby nie to, to przy odziedziczonej po Mściwej Zatoce, równowadze sił, wojna mogłaby trwać dziesiątki lat, aż w końcu, gospodarczy holocaust wszystkich walczących krajów, zepchnąłby je z powrotem do stanu maltuzjańskiego, tym bardziej, gdyby, przy odrobinie pecha, broń nuklearna weszła do wojujących arsenałów, jeszcze w zachodniej części Grzbietu Pragmatyzmu.

Przekroczenie Grzbietu Pragmatyzmu dla cywilizacji bytującej na planecie mniej zróżnicowanej geograficznie i środowiskowo, niż dzisiejsza Ziemia, byłoby więc zaskakująco trudne. Jedna, czy dwie takie nieudane próby, pamięć o milionowych ofiarach i zniszczonych atomowym ogniem miastach, mogłyby dodatkowo wytworzyć, w takiej pechowej cywilizacji, potężną traumę i bardzo silne tabu, stopujące jakikolwiek rozwój naukowo-techniczny ponad poziom z końca XVIII wieku. Byłby zatem, Grzbiet Pragmatyzmu jednym z filtrów, blokujących powstanie cywilizacji naukowo technicznej i tym samym, przynajmniej częściowo, wyjaśniałby on paradoks Fermiego – brak, poza naszą, jakichkolwiek cywilizacji naukowo technicznych we Wszechświecie, a przynajmniej w naszej Galaktyce.

Teoretycznie, obok przejścia Grzbietu na stronę wschodnią, lub odbicia się od niego na zachodnią, istnieje jeszcze trzecia możliwość. Jest to, opisane w książce „1984” George Orwella, utknięcie na Grzbiecie Pragmatyzmu na dobre i przejście Wojny Asurów w stan permanentny, utrzymujący się przez wiele pokoleń. Sytuacja ta jest mało prawdopodobna, wymagałaby bowiem utrzymywania stałego poziomu S i X. Wojna i terror wewnętrzny musiałyby pochłaniać zasoby dokładnie w takim samym tempie, w jakim zniewolone społeczeństwo by je wytwarzało. U Orwella dzieje się tak wskutek regulowania intensywności konfliktu ręcznie przez władze, i regularnych zmian sojuszy, ale w praktyce byłby to system bardzo niestabilny i wcześniej czy później układ stoczyłby się na którąś, wschodnią, czy zachodnią, stronę Grzbietu, tak samo jak wojny maltuzjańskie zawsze w końcu zrzucały swoich uczestników z Ziemi Agresorów z powrotem do Mściwej Zatoki. U Orwella zresztą, pierwsze oznaki takiego przesilenia są widoczne. Technika powoli, bo powoli, ale się jednak cofa, a bohaterowie narzekają na zmniejszające się przydziały kartkowe, co oznacza, że system orwellowski rozpoczął już powrót do maltuzjanizmu.

Nieprzypadkowo również, u Orwella wszystkie wojujące na Grzbiecie Pragmatyzmu mocarstwa, są skrajnie totalitarne, a u Robinsona tego typu, powstałe w trakcie Wojny Asurów, reżimy noszą barwną nazwę „Kongresów Talentu Militarnego”. Wszak prezentowany model, odnosi się równie dobrze, do konfliktów wewnętrznych, jak i międzynarodowych. Na Grzbiecie Pragmatyzmu chwieją się zatem również stosunki wewnętrzne, a nie tylko zagraniczne. Do utrzymania stabilności wewnętrznej, konieczne okazuje się stworzenie i rozbudowa dyktatury, państwa policyjnego, jakimi w końcu większość państw, w trakcie Wojny Asurów, się stała. Gorzej, jeżeli policja nie okaże się wystarczająco silna i strategie pragmatyczne przed nią nie ustąpią. Państwo policyjne wtedy nie wystarczy i powstaje państwo totalitarne, które wrogów nie zastrasza, ale fizycznie eksterminuje.

Na szczęście nie jest to jedyne możliwe rozwiązanie. W końcu, w latach 1914-1945, nie wszystkie kraje stały się policyjnymi dyktaturami, a tym bardziej, nie wszystkie pobudowały polarne łagry i krematoryjne piece. W stosunkach wewnętrznych występuje bowiem jeszcze jeden dodatkowy stopień swobody, którego nie ma, a przynajmniej w okresie Wojny Asurów nie było, w stosunkach międzypaństwowych.

Jak już autor wyżej wspominał, strategie pragmatyczne są, w porównaniu z innymi, stosunkowo kosztowne w użyciu, wymagając, zwłaszcza przy niskim poziomie X, zdobycia dokładnej i precyzyjnej informacji o faktycznie istniejącej różnicy sił. Nie tylko jest to skomplikowane samo w sobie, ale i potencjalni przeciwnicy aktywnie w tym przeszkadzają starając się okazać silniejszymi, niż są w rzeczywistości i tym samym skłonić rywala do ustąpienia. Obciąża to strategie pragmatyczne dodatkowymi, nie uwzględnionymi w naszym modelu, kosztami drugorzędowymi. W szczególności ważny jest poziom tych kosztów, w porównaniu z kosztami sąsiadujących z Grzbietem od wschodu, strategiami legalistycznymi. Jeżeli koszty pragmatyzmu, są, chociaż minimalnie wyższe, od kosztów legalizmu, czyli, jeżeli jakość stanowienia i egzekwowania prawa, przekracza pewne minimum, nasz układ zmieni swój atraktor. Wystarczy bardzo mała różnica, aby legaliści dokonali znacznych zdobyczy terytorialnych i utworzyli bardzo szerokiej strefy styku ze strategiami mścicielskimi. Między Mściwą Zatoką i Morzem Legalizmu powstaje szerokie przejście, które umożliwiło wielu krajom przejście od strategii honorowych, do prawnych, bez turbulencji i komplikacji. Nieprzypadkowo, były to właśnie kraje, o największym ówcześnie poziomie praworządności, z intrygującym wyjątkiem Niemiec, w których przecież samo pojęcie „Rechtsstaat” wymyślono. Ów wyjątek może wynikać z jeszcze jednego zjawiska.

Przedstawione wyżej strategie ewolucyjnie stabilne, są stabilne globalnie, dla warunków początkowych, które przypisują wszystkim strategiom, tą samą szansę na pojawienie się. W rzeczywistości jednak, społeczność, która wkracza na dany obszar naszego krajobrazu, wkracza na niego z zestawem strategii typowym dla obszaru sąsiedniego. A wtedy wynik może okazać się inny. Mogą pojawić się stabilności lokalne. Na warunki początkowe, jak się okazuje, nie jest wrażliwa Ziemia Agresorów, Mściwa Zatoka i Morze Legalizmu. Wrażliwe są jednak obszary pragmatyczne. Można do nich dotrzeć albo od strony strategii mścicielskich, albo legalistycznych, czyli, tak czy owak, od strategii miłych. Krajobraz wtedy, nawet bez osłabiania strategii pragmatycznych, zmienia się znacząco. Rozszerza się w kierunku północno-zachodnim Morze Legalizmu, a Grzbiet Pragmatyzmu chowa się pod wodę i redukuje się do kilkunastoprocentowych wkładów do miłych, poza tym, strategii mieszanych. W tych warunkach przejście od maltuzjańskich strategii mścicielskich, do industrialnego i postindustrialnego legalizmu, wydaje się łatwe i bezproblemowe. I będzie takie, o ile zostanie zachowana owa lokalna równowaga. Strategie miłe, na Grzbiecie Pragmatyzmu są skuteczne tylko wtedy, kiedy są w większości. Wystarczy jednak jakiekolwiek losowe zaburzenie układu, aby na wierzch wypłynęły, stabilne globalnie, strategie pragmatyczne. Proces ten może zaś przebiegać bardzo gwałtownie, przyjmując postać krwawych przewrotów i rewolucji. Dodatkowo, ponownie należy przypomnieć, że zmiany parametru S = W/V, które kształtują krajobraz Hammersteina, same nie są bynajmniej od tego krajobrazu niezależne. S nie może trwale rosnąć w obrębie strategii niemiłych, zatem taka nagła eksplozja pragmatyzmu, nie tylko może zatrzymać cywilizację w rozwoju, ale wręcz cofnąć ją do stanu maltuzjańskiego, preindustrialnego.

Należy więc podziwiać zarówno Robinsona, jak i Orwella, że, nie dysponując opisanym modelem, nie dokonując żadnych związanych z nim obliczeń i symulacji, wysnuli swoje, absolutnie wiarygodne, wizje z czystej intuicji. To, co autor niniejszego artykułu, musiał żmudnie analizować, pisać równania, tworzyć macierze i w końcu obliczać, oni odgadli samą siłą wyobraźni.

Ludzie honoru i słudzy prawa v. 2.0

Na niniejszym blogu cykl artykułów o grze jastrząb – gołąb i jej modyfikacjach był już zamieszczony. Ale z różnych względów wywód był w nim chaotyczny i niespójny, a w dodatku wkradły sie błędy merytoryczne. Po poprawieniu błędów i uporządkowaniu logicznym, autor demonstruje to zagadnienie ponownie:

Mówiłem panu zawsze: procesów zaniechać;
Mówiłem panu zawsze: najechać, zajechać!
Tak było po dawnemu: kto raz grunt posiądzie,
Ten dziedzic; wygraj w polu, a wygrasz i w sądzie.
 
Adam Mickiewicz
 
  1. A Fast-Fish belongs to the party fast to it.
  2. A Loose-Fish is fair game for anybody who can soonest catch it.
Herman Melville

Przemoc towarzyszyła ludzkości od zarania jej dziejów. W paleolicie i wczesnym neolicie była czymś pospolitym i zwyczajnym, najczęstszą przyczyną śmierci. Nieprzypadkowo, odnajdywane obecnie zwłoki ludzi z tamtych czasów, jak  człowiek z Kennwick, czy Otzi – człowiek z  lodu, zwykle noszą ślady przemocy ze strony innych osobników swego gatunku. Zgodnie z danymi, które zebrał i umieścił w swojej książce „Zmierzch Przemocy” Steven Pinker, przemoc międzyludzka, inaczej, niż głoszą szeroko rozpowszechnione mądrości ludowe, faktycznie zaczęła maleć dopiero po powstaniu pierwszych organizacji państwowych i od tamtych czasów, choć nierównomiernie i z przerwami, ale maleje po dziś dzień.

Wbrew niektórym popularnym mniemaniom, przemoc i agresja, zarówno na poziomie jednostkowym, osobniczym, jak grupowym, w tym państwowym, międzynarodowym, nie wynika z jakichś mistycznych fluidów, mrocznych popędów i zapędów, czy psychicznych wyparć i zaparć. Przesądom tym, częściowo uległ niestety także Pinker, prawidłowo zauważając i opisując zjawisko, nazwane przez niego zmierzchem przemocy, ale już mając spore problemy w jego racjonalnym wyjaśnieniu. Jednak, jak każde inne zjawisko przyrodnicze, przemoc można badać racjonalnie i ilościowo. A narzędziem do tego służącym, jest dział matematyki, zwany teorią gier.

Kiedy zatem w przyrodzie dochodzi do agresji i przemocy? Wtedy, kiedy pojawia się rywalizacja, o jakieś dobro o wartości V i kiedy wartość tego dobra nie może być zwiększona poprzez współpracę. Im większą część tego zasobu zgarnie jeden z graczy, tym mniej zostaje dla innych. Taka sytuacja nazywana jest grą o sumie zerowej, chociaż realnie, jak się jeszcze przekonamy, jest to gra o sumie od zera mniejszej. Dużo mniejszej.

Gracze mają do wyboru dwie strategie postępowania. Agresywną (A), kiedy gracz dąży do zagarnięcia spornego dobra, bez oglądania się na roszczenia pozostałych uczestników gry, oraz ustępującą (U). Strategie agresywne nazywa się zwykle jastrzębiami, a ustępujące gołębiami. Dzięki agresji jastrzębie mogą zdobyć łup o wartości V. Jednak agresja oznacza też ryzyko, że przeciwnik będzie się bronić i zada wtedy napastnikowi straty wielkości W. Zakładając, że, przy spotkaniu dwóch jastrzębi dochodzi do walki między nimi i szanse na wygraną są jednakowe, średnia wygrana w boju będzie wynosiła:

(V-W)/2

Kiedy jastrząb spotka się z gołębiem, wtedy oczywiście zgarnia on cała pulę wysokości V. Przy spotkaniu dwóch gołębi, raz ustąpi jeden, innym razem drugi, średnio dzielą się więc spornym dobrem po połowie.

Wszystkie możliwe kombinacje wyników pokazuje tzw. macierz gry, gdzie każdy z uczestników może być jastrzębiem A lub gołębiem U. Dodatkowo wprowadzimy parametr S = W/V, pokazujący proporcję kosztów konfliktu, do łupów, jakie można zdobyć.

Strategia Jastrząb A Gołąb U
Jastrząb A (1-S)/2 1
Gołąb U 0 0,5

Pomimo że gra ta jest, w swojej, prezentowanej właśnie, wersji podstawowej, bardzo prosta, to i tak dla wielu, zwłaszcza twórców doktryn politycznych, okazała się zbyt trudna. Spośród czterech pól tej macierzy, ich poziom intelektualny wystarcza tylko z reguły, do ogarnięcia, co najwyżej, dwóch z nich. Pola (A;U) i (U;A) tworzą tzw. oś faszystowską. Bądźmy agresywni, twierdzą faszyści, twardzi i nieustępliwi. Nie odpuszczajmy i walczmy do końca, waląc głową w przysłowiowy mur. Dzięki temu odniesiemy sukces i zdobędziemy V, obojętnie czy tym V będzie Lebensraum, czy tylko powstanie z kolan, prestiż i szacunek międzynarodowy. Bo jeżeli będziemy mili i sympatyczni, to skończymy z okrągłym zerem, które pozostawią nam faszyści konkurencyjni. Zwolennicy tego jastrzębiego poglądu, jakoś jednak nie zauważyli, że prawdziwy faszyzm się w populacji międzynarodowej nie przyjął i bardzo szybko wylądował na śmietniku historii. Nie stało się tak przypadkowo. Zemściło się na nim ignorowanie dwóch pozostałych komórek macierzy wypłat. Strategia agresywna może się przecież spotkać nie tylko z gołębiami, ale i innymi jastrzębiami, w walce z którymi, może zarówno wygrać jak i przegrać, co w końcu oryginalny faszyzm spotkało.

Do osi faszystowskiej prostopadła jest oś ewangeliczna (A:A), (U;U). Jeżeli będziemy wszyscy dla siebie mili, twierdzą jej zwolennicy, i będziemy sobie wzajemnie ustępować, unikniemy kosztów konfliktów W i zyskamy wszyscy, jako społeczeństwo, zwiększając sumę wypłat do zera. W odróżnieniu od faszystów, ewangeliści nie są tutaj bez racji, ponieważ faktycznie, wynik (U;U) jest wynikiem optymalnym w sensie Pareto, czyli dającym wszystkim uczestnikom maksymalne możliwie teoretycznie wypłaty. Cóż jednak z tego, skoro wynik ten, chociaż paretooptymalny, nie jest jednak równowagą Nasha, czyli atraktorem, do którego wynik gry, niezależnie od warunków początkowych, zawsze dąży. Populacja samych gołębi, będzie pokojowa i ekonomicznie wydajna, ale będzie niestabilna. Pojawienie się w niej mutanta – jastrzębia spowoduje, że wszyscy będą mu zawsze ustępować i odniesie on olbrzymi sukces, który sprawi, że agresja znów się w społeczeństwie rozprzestrzeni.

Skoro jednak, zarówno jastrzębi faszyzm, jak i gołębi ewangelizm, są podatne na inwazję strategii konkurencyjnych, czyli ewolucyjnie niestabilne, to jaka będzie strategia stabilna? Zgodnie z twierdzeniem Nasha, taki punkt równowagi musi istnieć, jeżeli tylko dopuścimy stosowanie strategii mieszanej. Przyjmijmy, że jastrzębi, strategii agresywnych, w populacji jest P %.

Szansa na spotkanie z jastrzębiem wynosi więc P, z gołębiem zaś 1-P .

Łączny przeciętny zysk jastrzębia wynosi zatem (1-S)*0,5*P+(1-P)

Ale i gołąb nie jest całkowicie stratny. Unikając walki, unika też związanego z nią ryzyka przegranej i ostatecznie zyskuje średnio 0,5*(1-P).

Proporcja jastrzębi, a dokładnie rzecz biorąc, strategii A, do strategii U, będzie, jak to się w ekologii określa, ewolucyjnie stabilna, wtedy, kiedy zyski z nich, będą takie same. Po rozwiązaniu odpowiedniego równania otrzymujemy wynik

P=V/W = 1/S.

Oczywiste jest, że kiedy zyski z agresji są większe niż straty z przegranej, czyli kiedy S<1, strategia agresji opłaca się wszystkim stronom i P = 1. Jednak, kiedy straty zaczynają przeważać, i S>1, strategia ustępująca zaczyna być atrakcyjna i udział agresorów w populacji, jak widać na wykresie, maleje.

Jasgoł 01

Oprócz samej proporcji jastrzębi, na wykresie pokazano też częstość, z jaką pojawiają się w populacji określone wyniki gry. Widać, że częstość konfliktów i wojen, czyli zderzenia dwóch strategii agresywnych (A;A) maleje, wraz ze wzrostem S bardzo szybko. W pewnym zakresie parametrów frekwencję zdobywa wymuszanie (A;U), ale przy dalszym wzroście S dochodzimy do sytuacji ewangelicznej, z przewagą (U:U)

Na podstawie tego najprostszego modelu, możemy więc oczekiwać, że agresja między członkami gatunku Homo sapiens powinna maleć wraz z rozwojem cywilizacji, komplikacją struktur społecznych, wzrostu złożoności gospodarki, zamożności i PKB. Im więcej ktoś posiada, tym większe jest bowiem ryzyko, że to coś, w razie konfliktu, straci (wyższe W). W dodatku, w miarę rozwoju cywilizacji, coraz mniejsza część majątku ma, możliwą do siłowego zawłaszczenia, fizyczną postać ziemi, kosztowności, monet, czy choćby banknotów, co obniża współczynnik V. Kombinacja tych dwóch tendencji, czyli wzrostu W, oraz spadku V, prowadzi do sytuacji opisanej przez Pinkera – zmierzchu przemocy. W społeczeństwach łowiecko-zbierackich zabójstwo, jak już autor wspominał, było najczęstszą przyczyną śmierci, obecnie w najbogatszych krajach jest ono sensacją, nad którą długo roztrząsają się wszystkie media.

Należy jednak pamiętać, że wzrost S, któremu zawdzięczamy to zjawisko, jest stosunkowo świeżej daty. Przez tysiące lat ludzkie społeczeństwa tkwiły przecież w pułapce maltuzjańskiej, stanie niskiego, stabilnego poziomu dobrobytu. Konsekwentnie S również było stosunkowo niskie, bo wielkość V, łupy z wojny czy rozboju, przedstawiały się niezwykle atrakcyjnie. Ówczesne władze, poprzez wprowadzanie niezwykle drastycznych, z dzisiejszego punktu widzenia, kar, z łamaniem kołem i wbijaniem na pal włącznie, usiłowały podnosić wartość W, ale nie dawało to trwałego podniesienia parametru S powyżej jedności. W momencie występujących cyklicznie, co kilkaset lat, w takich społecznościach kryzysów zaś, przemoc, także międzynarodowa, wybuchała w sposób niekontrolowany. Wojny, które przetoczyły się przez Europę w XVII wieku, przyniosły proporcjonalnie większe straty i ofiary niż I i II wojna światowa z wieku XX. Kolonizacja Ameryki i handel z Chinami dały później Europie chwilę oddechu i wzrost S, ale, pod koniec XVIII wieku kryzys powrócił, a wraz z nim kolejna fala wielkich wojen, zwanych napoleońskimi. Parametr S powyżej granicznej wartości 1 podniosła na stałe dopiero rewolucja przemysłowa.

Można się jednak w tym momencie zapytać, dlaczego, skoro, przed rokiem 1800, wartość S pozostawała, praktycznie permanentnie, na poziomie mniejszym od jedności, to jednak permanentnej, stałej wojny, wszystkich ze wszystkimi, jednak nie było. Społeczeństwa maltuzjańskie, musiały mieć jakieś, choćby niedoskonałe, to jednak do pewnego stopnia skuteczne, narzędzia, do utrzymania, pokoju w warunkach niskiego S. Przynajmniej względnego pokoju. Co to było?

Łatwo zauważyć, że zaletą jastrzębia jest to, że gołębie mu ustępują. Zaletą gołębia zaś, że nie ponosi kosztów konfliktu W. Można więc stworzyć strategię, która połączyłaby zalety tych dwóch, unikając równocześnie ich wad. Każdy, kto, choćby z grubsza, orientuje się w stosunkach panujące wśród dzieci szkolnych, doskonale taką strategię zna. To, pierwsza z rozważanych dalej strategii złożonych, strategia AU, zwana też „chojrakiem”. Chojrak zaczyna od agresji. Jeżeli trafi na gołębia, zgarnia całą pulę V. Jeżeli jednak rywal okaże się jastrzębiem i odpowie zachowaniem agresywnym, chojrak zamienia się w gołębia i podaje tyły. W spotkaniu z jastrzębiem, chojrak jest więc gołębiem, a w spotkaniu z gołębiem – jastrzębiem. W konfrontacji dwóch chojraków, któryś w końcu „pęknie” pierwszy, zatem, nagroda również będzie przeciętnie podzielona po połowie. Macierz gry wygląda teraz następująco.

Strategia Jastrząb A Gołąb U Chojrak AU
Jastrząb A (1-S)/2 1 1
Gołąb U 0 0,5 0
Chojrak AU 0 1 0,5

Zakładając, tak jak poprzednio, że jastrzębi w populacji będzie P, chojraków zaś Q procent (gołębi oczywiście 1-P-Q), wtedy średnia wypłata gołębia wynosi:

0,5-0,5*P-0,5*Q

Natomiast chojrak zarabia:

1-P-0,5*Q

Porównując te wypłaty ze sobą, odkryjemy, że chojrak wyprzedzi gołębia, jeżeli tylko udział jastrzębi w populacji spadnie poniżej jedności (P<1). Czyli, kiedy tylko parametr S wzrośnie powyżej 1, społeczeństwo zostanie zdominowane nie przez ewangeliczne gołębie, ale przez niesympatycznych chojraków. A może jednak nie? Na szczęście i chojrak ma swego pogromcę. W celu jego znalezienia powtórnie musimy sięgnąć do doświadczeń ze szkoły podstawowej. Chojracy nie cieszą się tam, tak samo jak np. w więzieniach, poważaniem. Mówi się tam o nich: „Nie strasz, nie strasz, bo się zes…”. Dzieciom zaś radzi się raczej: „Sam nikogo nie zaczepiaj, ale jak cię ktoś inny zaczepi to natychmiast mu oddaj”.  Receptą na chojraka, jest zatem swoista chojraka odwrotność – mściciel (UA). W spotkaniu z jastrzębiem jest agresywny, w spotkaniu z gołębiem ustępuje. Znowu należy rozbudować macierz gry.

Strategia Jastrząb A Gołąb U Chojrak AU Mściciel UA
Jastrząb A (1-S)/2 1 1 (1-S)/2
Gołąb U 0 0,5 0 0,5
Chojrak AU 0 1 0,5 0
Mściciel UA (1-S)/2 0,5 1 0,5

Tym razem zrezygnujemy już z prób analitycznego rozwiązania tej macierzy i przejdziemy od razu do rozwiązania numerycznego. Puścimy wszystkie te strategie na komputerze, pozwalając im rywalizować ze sobą i zbadamy, które z nich ostatecznie okażą się zwycięskie i zdominują populację. Wynik, w zależności od parametru S, przedstawia kolejny wykres.:

Jasgoł 02

Strategia UA skutecznie, jak widać, wymiata z populacji chojraków. Społeczeństwo samych mścicieli nie jest jednak stabilne i stopniowo nasyca się także gołębiami, którzy ponoszą mniejsze od mścicieli straty w wyniku inwazji strategii agresywnych, ale gorzej od nich radzą sobie z chojrakami. Ostatecznie stabilna ewolucyjnie okazuje się strategia mieszana złożona z AU i U. Udział gołębi wzrasta w miarę wzrostu S i ostatecznie, dla bardzo dużych S, osiąga docelowo 50%.

Mściciel jest zresztą tak skuteczny, że ostatecznie wygrywa także przy S<1, co wydaje się być sprzeczne z intuicją. W końcu mściciel musi walczyć z jastrzębiami A narażając się na straty, a w spotkaniu z gołębiami U zadowala się tylko połową możliwego zysku. A jednak dopiero przy S bliskich zera, jastrzębie są w stanie nawiązać z mścicielami wyrównaną rywalizację.

Społeczeństwo (AU;U), czyli, z grubsza rzecz biorąc, społeczeństwo oparte na honorze, jest zatem w stanie wyeliminować większość konfliktów, nawet w stanie niskiego S i osiągnąć wynik dużo bliższy paretooptymalnemu, niż prostsza populacja (A;U). Nie jest to jednak społeczeństwo bez wad. Aby strategia mścicielska była skuteczna, ludzie honoru muszą nieustannie deklarować, że są gotowi do odwetu i muszą być w tym wiarygodni. W szczególności, muszą oni natychmiast odpowiadać na każdą chojracką prowokację i walczyć z każdą, od czasu do czasu pojawiająca się, „mutacją” agresywną. Bijatyki i „solówki”, są więc nadal w szkole i w więzieniu stosunkowo częste, tak samo jak wojny urażonych monarchów w erze preindustrialnej.

W dodatku model ten, faktycznie dobrze opisuje tylko społeczności ery przedprzemysłowej, czy ogólnie prymitywne i zacofane, o niskim parametrze S. Nieprzypadkowo, aby zademonstrować strategie chojrackie i mścicielskie, musieliśmy się odwołać do przykładu szkoły podstawowej i więzienia. Dzisiaj bowiem, inaczej niż jeszcze 200-300 lat temu, społeczeństwa honorowe, występują tylko, albo wśród dzieci, albo wśród najbiedniejszych, najbardziej prymitywnych warstw społecznych, jak więźniowie właśnie, czyli tylko przy niskim wskaźniku S. Historycznie zaś, rozwój cywilizacji, wiązał się z rugowaniem wszelkich typowych dla mścicieli zachowań honorowych, jak np. pojedynków. Ta rozbieżność z modelem świadczy o tym, że czegoś istotnego w tym ostatnim nie uwzględniliśmy. Czego konkretnie?

Aby odpowiedzieć na to pytanie, na kolejnym wykresie pokażemy symulację, co się stanie w miarę rozwoju cywilizacji, czyli dalszego wzrostu parametru S. Uwzględnimy w nim też kolejną klasę strategii, oznaczoną, jako L.

Jasgoł 03a

Jak się okazuje, ludzie honoru rzeczywiście dominują w populacji tylko do wartości parametru S równej ok 3-4. Powyżej tej wartości, stabilną ewolucyjnie okazuje się inna para strategii, L i AL.

Jastrząb i gołąb, wraz z ich kombinacjami – chojrakiem i mścicielem, nie są bowiem jedynymi możliwymi strategiami. Dostępna jest też trzecia alternatywa.

Polega ona na wyborze strategii jastrzębia bądź gołębia, w oparciu o jakieś obiektywne kryterium. W świecie przyrody jest to np. wielkość poroża, albo posiadanie jakiegoś terytorium. Właściciele terytorium są agresywni, a przybysze, ustępują. Spotykają się tu zawsze strategia A ze strategią U, a ich wybór zależy od obiektywnych reguł, u ludzi przyjmujących postać kodeksów prawnych. Prawa stanowionego, bądź choćby tylko, jak to zacytowane w motcie, zwyczajowego. Nieprzypadkowo, w teorii gier, przyjęto nazywać tę strategię „strategią legalisty”. L, wraz z jej kombinacjami AL – legalistycznym chojrakiem, UL – legalistycznym mścicielem, który, jak widać na wykresie, pojawia się przy niskich S, LU, oraz wyjątkowo paskudnym LA, uosobieniem stwierdzenia: co moje, to moje, a o twoim możemy podyskutować.

Dzisiejsze społeczeństwa o bardzo wysokim, wyższym niż 5, S, są zatem zdominowane przez legalistów, sługi prawa i konsekwentnie postępują w sposób wysoce praworządny. Rządy ludzi honoru ostały się tylko w populacjach najbardziej prymitywnych, biednych i zacofanych.

Parametr S, czyli stosunek kosztów porażki do zysków ze zwycięstwa, określa zatem, które strategie w której strefie są dominujące. Ale ów parametr, co do tej pory ignorowaliśmy, sam również od tych strategii w swoistym sprzężeniu zwrotnym zależy. Wysokie S odpowiada społecznościom zamożnym, w wysokim stopniu złożonym i rozwiniętym cywilizacyjnie. Ale tak wysoki poziom ekonomiczny i cywilizacyjny jest z kolei w stanie zbudować wyłącznie społeczeństwo praworządne, z ugruntowanym prawem własności, społeczeństwo legalistów, podczas gdy społeczeństwo mścicieli, wyższego, niż plemienny, poziomu rozwoju nigdy samodzielnie nie osiągnie. Musi ono w tym celu wypracować jakieś reguły prawne, jeżeli nawet nie spisane, to przynajmniej zwyczajowe.

Jakość instytucji, prawa i sposób sprawowania władzy, ma więc, tym większe znaczenie, im bardziej rozwiniętego, tzn. posiadającego wyższy S, społeczeństwa dotyczy. Szeregowi członkowie społeczeństw predindustrialnych, bytujący, w warunkach niskiego S, z lepszej jakości władzy i sądów, nie odnoszą żadnych wymiernych korzyści ekonomicznych. Dlatego też rządy w takich społeczeństwach są domeną warstw nie szeregowych. Arystokracji bądź oligarchii, które mają dostatecznie wiele (W) do stracenia, aby procesem politycznym się interesować i weń ingerować, oraz aby budować sprawiedliwy system prawny …dla siebie.

Jednak populacja, która przeszła już rewolucję industrialną, zachowuje się zupełnie inaczej i wszelkie analogie historyczne z czasów maltuzjańskich, nijak do niej nie pasują. Im wyższe S społeczeństwo osiągnie, tym bardziej będzie czułe, na jakość stanowionego prawa i jego egzekucji. Różnice pomiędzy krajami rządzonymi dobrze, a tymi rządzonymi źle, stają się coraz większe i narastają coraz szybciej. W końcu, nawet bardzo drobne różnice w jakości rządzenia, mogą skutkować bardzo dużymi różnicami cywilizacyjnymi. Dlatego socjalizm radziecki w XX wieku przetrwał pół stulecia, a socjalizm boliwariański, mimo że nieporównywalnie od radzieckiego lepszy i wydajniejszy, w wieku XXI nie utrzymał się nawet dekady. Narodowy socjalizm pisowski w Polsce, również nie ma przed sobą na szczęście żadnej przyszłości. Upaść musi. Pytanie tylko, czy sam, czy razem z okupowaną przez siebie Polską.

Powyższy model gry w jastrzębia i gołębia, złożony z trzech klas strategii (A, U, L) oraz ich kombinacji, opisuje równie dobrze zarówno społeczeństwa proste, łowców zbieraczy, czy maltuzjańskich rolników, ale też społeczeństwa, bardzo złożone, współczesne, postindustrialne, Pojawia się tu jednak kolejny kłopot. Model ten, jest wręcz …za dobry. W szczególności przewiduje on, że wojny i konflikty mogą się pojawić tylko przy minimalnych, bliskich zeru wartościach S. A chociaż, opisany przez Pinkera, zmierzch przemocy, faktycznie historycznie zaszedł, to przecież nie od razu. Wojny zdarzały się w historii w miarę regularnie, nie tylko w społeczeństwach maltuzjańskich, ale także przemysłowych, ze szczególnym uwzględnieniem XX wiecznego kataklizmu, czyli I i II wojny światowej. Jak to wyjaśnić?

Na śliskim lodzie

Sekta klimatystów, bardzo wpływowe obecnie lobby polityczne i ekonomiczne, od wielu lat za pomocą niezwykle agresywnej i z rozmachem prowadzonej propagandy, usiłuje narzucić przekonanie, że ziemska cywilizacja, gatunek ludzki, a nawet same życie na Ziemi są śmiertelnie zagrożone. Bezpośrednią przyczyną tego zagrożenia ma być emisja dwutlenku węgla przez ludzką gospodarkę, głównie poprzez spalanie tzw. paliw kopalnych, węgla, ropy i gazu. Gaz ten prowadzić ma do gwałtownego narastania ziemskiego efektu cieplarnianego i, co za tym idzie, do lawinowego, nie do powstrzymania wzrostu ziemskiej temperatury, aż do upieczenia całej biosfery włącznie. Klimatyści rozdzierają szaty nad dzisiejszym, sięgającym obecnie 420 ppm, czyli cząsteczek na milion, stężeniem CO2 w ziemskiej atmosferze, twierdząc że, jeszcze za życia obecnego pokolenia, spowoduje ona zamianę Ziemi w replikę Wenus. Rozpaloną do czerwoności pustynię, bez śladu wody i wegetacji.

Takiego, jak obecny, poziomu dwutlenku węgla, wg twierdzeń klimatystów, nie było na Ziemi od milionów lat, a jeszcze dwa stulecia temu, poziom ten nie przekraczał nawet 300 ppm i do takiego poziomu należy wszelkimi dostępnymi środkami z powrotem zawartość CO2 w atmosferze zredukować. Żadna zapłacona cena i żadna poniesiona ofiara nie będzie zbyt wysoka. Pokonanie węglowego potwora jest kwestią eschatologiczną i po prostu nie ma żadnej wymiernej ceny.

Trzeba w tym miejscu klimatystom przyznać, że tych przeszłych, sprzed połowy XX wieku stężeń dwutlenku węgla, nie wyssali sobie po prostu z palca. Pochodzą one z badań pęcherzyków powietrza uwięzionych w antarktycznych i grenlandzkich lądolodach, z których pobiera się odpowiednie próbki, tzw. rdzenie lodowe. Badając takie pęcherzyki można teoretycznie odtworzyć przeszły skład atmosfery, w tym także zawartość w niej dwutlenku węgla

Na poniższym wykresie przedstawiono dane o stężeniu CO2 z jednego z takich rdzeni. Przedstawiają one okres od 1000 do 2004 roku. Wybrano losowo akurat tą serię danych:

 https://www1.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/frank2010/smoothedco2.txt

ale dowolna inna wyglądałaby praktycznie tak samo.

Lód 01

Wykres ten ma jednak co najmniej dwie, bardzo, w świetle doktryn klimatystów, dziwne, anomalie. Po pierwsze w stuleciach XI-XVIII mierzony w ten sposób poziom stężenia CO2 nie zmieniał się praktycznie wcale, pozostając niezmiennie na poziomie 280 ppm. Tymczasem z bardzo dobrze poświadczonych danych historycznych wiadomo, że ówczesny klimat bynajmniej podobnej stałości nie wykazywał. W Średniowieczu mieliśmy do czynienia z okresem cieplejszym, tzw. średniowiecznym optimum klimatycznym. W wielu miejscach północnej Europy, w tym w Polsce, uprawiano wtedy winorośl, co powtórnie stało się możliwe dopiero w XX wieku. Normanowie zasiedlili Grenlandię, gdzie hodowali kozy, owce, krowy i konie, a nawet okresowo świnie. Hodowlę owiec odtworzono na Grenlandii dopiero w XXI wieku, ale jest ona możliwa tylko przy wysokich rządowych dotacjach, których średniowiecznym Grenlandczykom przecież nikt nie wypłacał. Krów, koni i świń nie hoduje się na Grenlandii do dzisiaj.

Podobnie jak średniowiecznego optimum, nie widać też na wykresie małej epoki lodowej w stuleciach XVI-XVIII, kiedy to klimat był dla odmiany znacznie mroźniejszy, a rzeki takie jak Ren, czy Tamiza zamarzały zimą regularnie.

Problem ten staje się jeszcze bardziej wyraźny, kiedy spojrzymy na dane z okresu epok lodowcowych. W czasach, kiedy większość Europy i Ameryki północnej pokrywał gruby na kilometry lądolód, w rdzeniach, owszem, obserwujemy niższe stężenia CO2, ale …niewiele niższe. W najbardziej ekstremalnych przypadkach, stężenie CO2 spadało ledwo nieco poniżej 200 ppm. To zresztą kolejna zagadka, bo tak niskiego stężenia nie tolerują rośliny stosujące fotosyntezę typu C3, stanowiące zdecydowaną większość współczesnej flory i spadek poniżej tej wartości powinien pociągnąć za sobą ich masowe wymieranie, a przynajmniej jakieś zauważalne perturbacje w ich rozkładzie gatunkowym i biomasie na całym świecie. Nic podobnego nie miało jednak miejsca.

Zgodnie z dogmatem religii klimatycznej za wszelkie zmiany temperatury na Ziemi odpowiadają praktycznie wyłącznie zmiany stężenia CO2, a wszystkie inne czynniki mają niewielkie znaczenie. Aby zatem rozwiązać te paradoksy, klimatyści muszą przyjąć, że czułość klimatu na zmiany w stężeniu CO2 jest tak gigantyczna, że różnicę pomiędzy glacjałem i interglacjałem robi zaledwie 50 ppm różnicy w stężeniu CO2. Niestety dla nich, różnica między stężeniem obecnym, a stężeniem XVIII wiecznym jest dużo większa i wynosi ponad 150 ppm. Mimo to klimat, choć oczywiście dzisiaj nieco cieplejszy, aż tak drastycznie się nie zmienił. Tutaj jedynym wyjściem dla klimatystów jest po prostu …zanegowanie samego istnienia zarówno optimum średniowiecznego, jak i małej epoki lodowej, co zresztą oficjalnie uczynili. Jakiekolwiek zjawisko stojące w sprzeczności z deifikowanymi rdzeniami, w sekcie oficjalnie nie istnieje, a wszelkie dowody na jego istnienie zostały spreparowane i podrzucone przez „denialistów”, jak zwie się tam współczesnych heretyków.

Wygląda więc na to, że globalne temperatury były niezwykle czułe na niewielkie nawet zmiany stężenia CO2 do końca Plejstocenu, natomiast obecnie, w Holocenie, czułość ta drastycznie się obniżyła. Wzajemna sprzeczność tych dwóch narracji jakoś do tej pory klimatystom nie przeszkadza, ale można oczekiwać, że tak samo jak unieważnili oni zmiany klimatu w skali historycznej, tak samo zechcą to zrobić w skali geologicznej i oficjalnie zanegują istnienie zlodowaceń plejstoceńskich. Dowody na istnienie plejstoceńskich zlodowaceń również zapewne okażą się sfałszowane.

Żarty żartami, ale przecież nie da się inaczej, pozostając na gruncie klimatyzmu, wytłumaczyć, dlaczego wg danych z rdzeni lodowych, w Eemianie, przedostatnim, przed naszym obecnym Holocenem, interglacjale, stężenie CO2 było znacznie, o 1/3 od dzisiejszego niższe, a temperatury przeciwnie, o półtora stopnia wyższe. Uznając zatem miarodajność danych o stężeniach CO2 z rdzeni lodowych, a jednocześnie tezę o decydującej roli CO2 w ziemskich zmianach klimatycznych nieuchronnie wikłamy się w sprzeczności. Przynajmniej jedno z tych założeń należy zatem odrzucić.

Niżej podpisany jest przekonany, że odrzucić należy oba te założenia. Jak wynika z, opisanej w artykule „Czerń niedoskonała”, analizy rozkładu temperatur w Układzie Słonecznym, zwłaszcza Wenus i Marsa, gdzie CO2, inaczej niż na Ziemi, jest jedynym gazem cieplarnianym, jego wpływ na efekt cieplarniany jest w istocie niewielki. W przypadku Ziemi, wręcz pomijalny.

Nie zmienia to faktu, że stężenie CO2, chociaż nie przekłada się w mierzalny sposób na zmiany temperatury, może oscylować w atmosferze z dość dużą amplitudą. Bezpośrednie pomiary tego stężenia prowadzone przez chemików od XIX wieku, dają bardzo duży rozrzut wyników od 250 do 550 ppm w tym okresie (ok 200 lat) Tylko od 1960 roku, to stężenie wzrosło z 320 do prawie 420 ppm obecnie.  Zawartość CO2 w atmosferze Ziemi jest więc wartością bardzo niestabilną. Nie należy się temu dziwić, skoro np. zawartość pary wodnej może się zmieniać jeszcze szybciej i w jeszcze większym zakresie wartości.  Z chwiejnym i zmiennym faktycznym stężeniem CO2 w atmosferze, kontrastuje stabilne i niezmienne w skali setek, tysięcy i dziesiątek tysięcy lat, stężenie w rdzeniach. Wyraźnie więc widać, że coś z tymi rdzeniami jest nie tak. Ten lód jest bardzo śliski.

Na naszym wykresie krzywa stężenia zaczyna się ostro piąć do góry w połowie XVIII wieku. Bardziej subtelna analiza pokazuje, że wzrost ten jest, w bardzo dobrym przybliżeniu, wykładniczy. Nadwyżka ponad poziom „preindustrialny” stężenia CO2 w rdzeniach lodowych, od tego momentu podwaja się mniej więcej co 43 lata. Dlaczego jednak w ogóle ten wzrost jest tak dokładnie wykładniczy? Gdyby jego przyczyną były ludzkie emisje CO2, taka precyzja nie miałaby żadnego wytłumaczenia. I po drugie, dlaczego wzrost zaczyna się w okolicach 1750 roku? Owszem, wtedy właśnie rozpoczęła się rewolucja przemysłowa i zaczęto na większą skalę budować napędzane węglem maszyny parowe. Jednak przez pierwsze sto lat, ta industrializacja dotyczyła w zasadzie tylko Wielkiej Brytanii i dopiero w drugiej połowie XIX wieku stała się zjawiskiem globalnym. Jakikolwiek wpływ ówczesnych emisji CO2 na skład ziemskiej atmosfery, nie powinien być widoczny w zasadzie przed rokiem 1850. Dlaczego dopasowanie to, pokazane na kolejnym wykresie, jest tak dokładne i dlaczego wzrost zaczyna się w połowie XVIII wieku?

Lód 02

Aby spróbować odpowiedzieć na te pytania, zapomnijmy na chwilę o dwutlenku węgla, klimacie i klimatystach. Spójrzmy za to na …rower.

Jednym z elementów tego popularnego jednośladu są opony. Zwykle napisano na nich, do jakiego ciśnienia należy je pompować. W przypadku roweru należącego do niżej podpisanego jest to przedział od 2 do 4,5 atmosfery, w zależności od warunków terenowych jazdy. Jednak, do jakiegokolwiek ciśnienia by opony nie napompować, i tak, w ciągu 1-2 dni ciśnienie nieodmiennie spada do stałej wartości 2,5 atmosfery i potem utrzymuje się na tym poziomie tygodniami i miesiącami. Przyczyna tego stanu rzeczy jest ulatnianie się sprężonego powietrza przez drobne nieszczelności w wentylu. Ustaje ono, gdy ciśnienie spadnie do pewnej określonej wysokości, właśnie 2,5 atmosfery. Zbudujmy teraz model matematyczny takiej opony rowerowej, zakładając, że tempo ubytku ciśnienia jest wprost, liniowo proporcjonalne do aktualnej wartości tego ciśnienia.

dP/dt = -r*(P-Ps)

gdzie P to ciśnienie, a Ps, ciśnienie, przy którym następuje stabilizacja.

Rozwiązaniem tego równania, jest, co za niespodzianka, właśnie krzywa wykładnicza:

P = Ps+(P0-Ps)*e(-r*t)

Gdzie P0 jest ciśnieniem początkowym.

Widać pewną analogię? Jeżeli krzywą widoczną na wykresie 2 odwrócimy „wstecz” w czasie, otrzymamy właśnie dokładnie takie „rowerowe” równanie jak powyższe, dla którego Ps = 280 ppm, a r wynosi 1,6%.

Interpretacja fizyczna równania jest bardzo prosta. Dane z rdzeni lodowych mogłyby być traktowane jako miarodajne, wyłącznie przy założeniu, że skład chemiczny substancji zamkniętych w lodzie nie ulega wraz z upływem czasu żadnym zmianom. O ile to założenie może być spełnione w przypadku cząstek stałych, np. pyłów, o tyle niekoniecznie w przypadku gazów, a szczególnie, jak widać, dwutlenku węgla.

Przyjęcie możliwości istnienia jakiegoś procesu, który powoduje ulatnianie się z pęcherzyków w lodzie nadmiaru CO2 ponad graniczną wielkość 280 ppm od razu usuwa nam wszystkie sprzeczności miedzy poziomem CO2 rejestrowanym w rdzeniach, a wszelkimi innymi danymi, od gęstości aparatów szparkowych w liściach dawnych roślin, które sugerują znacznie wyższe stężenia dwutlenku węgla w „epoce przedprzemysłowej” poczynając, poprzez zagadkę Eemianu, optimum klimatycznego i małej epoki lodowej, na tajemnicy braku zagłady flory C3 w plejstocenie kończąc.

Kłopot w tym, że nie wiadomo, jaki to konkretnie proces taki efekt spadku stężeń powoduje. Może mieć on charakter fizyczny, związany z jakimś mechanizmem dyfuzji cząsteczek gazu przez lód, może chemiczny, może być nawet biologiczny, co sugerowałaby docelowa graniczna wartość stężenie na poziomie 280 ppm, przy której ten proces zamiera.

Jakiś jednak proces tego rodzaju z wysokim prawdopodobieństwem zachodzi. O ile niżej podpisanemu wiadomo, nie istnieje obecnie żaden program badawczy, który by takiego zjawiska poszukiwał. Jest to jednak potencjalnie bardzo obiecujący kierunek badań, który, w przypadku zakończenia go sukcesem, przyniósłby odkrywcy wiekopomną sławę, może nawet uwieńczoną nagrodą Nobla, pozwalając automatycznie obalić wszelkie pretensje klimatystów do „naukowości” swoich wierzeń, pretensje, które nadal jeszcze bywają gdzieniegdzie traktowane poważnie.