Ważka w bursztynie

Poniższy tekst jest popularnym podsumowaniem teorii psychohistorycznej Fragmenty artykułu były opublikowane w 1436 numerze tygodnika „Najwyższy Czas”.

Jako żołnierzowi, który w jeździe całe życie służył, mówić mi tego nie wypada, ale owóż temu, że wszędy piechota a armaty grunt, dopieroż one pochody a obroty wojenne, a marsze, a kontrmarsze. Siła książek w cudzoziemskim wojsku człek musi zjeść, siła rzymskich autorów przewertować, nim oficerem znaczniejszym zostanie, u nas zaś nic to. Po staremu jazda w dym kupą chodzi i szablami goli, a jak zrazu nie wygoli, to ją wygolą…
Henryk Sienkiewicz

Szkolne podręczniki nadal dzielą historię ludzkości na podstawie stworzonych jeszcze w XVIII wieku kryteriów. Mamy więc Antyk, albo Starożytność, bywa, że uzupełniany „Prehistorią”, czyli czasami sprzed wynalezienia pisma, Średniowiecze, Nowożytność, oraz „Współczesność” – ostatnie sto lat.

Upadek imperium rzymskiego, który wyznacza koniec Antyku i początek Średniowiecza, na pierwszy rzut oka, wydaje się obiektywnie rozdzielać dwie epoki historyczne. Nie był to tylko upadek jednego tylko, choćby i bardzo wielkiego, kraju. Była to katastrofa całej śródziemnomorskiej cywilizacji. Głęboki regres ekonomiczny i w konsekwencji także kulturowy i cywilizacyjny właśnie. Powtórnie poziom produkcji z czasów Imperium osiągnęła Europa dopiero po tysiącu latach.

Upadek Rzymu wygląda jednak tak spektakularnie wyłącznie dlatego, że był to ostatni tak głęboki regres cywilizacyjny i wydarzył się najbliżej naszych czasów. Nie był to jednak bynajmniej żaden wyjątek ani precedens. W czasach starożytnych podobne kryzysy zdarzały się regularnie i cyklicznie, czego najlepszym przykładem są dzieje antycznego Egiptu. Trwająca ponad trzy millenia lat jego państwowość, dzieli się zwykle na Stare, Średnie i Nowe Państwo. Te okresy egipskiej świetności i potęgi, były jednak przedzielone kryzysami, zwanymi „okresami przejściowymi”. Kryzysy takie pojawiały się zatem w historii Egiptu i świata z grubsza co tysiąc lat, a upadek Rzymu był tylko ostatnim z tej serii.

Sięgająca millenium długość takich cykli spowodowała, że, choć wyraźnie odciskały się one w kulturze w postaci podań o minionym „złotym wieku” i popularnych w starożytności przekonaniach o cykliczności czasu, długo przez historyków pozostawały niezauważone. Dopiero stosunkowo niedawno odkryto, że owa zaskakująco regularna oscylacja ludzkiej cywilizacji pomiędzy okresami wzrostu i prosperity, a „okresami przejściowymi”  ma swoje głębokie przyczyny naturalne.

Człowiek współczesny, Homo sapiens, istnieje na naszej planecie przynajmniej od 200 tysięcy lat, a jeżeli rozciągnąć człowieczeństwo również na inne gatunki rodzaju Homo, to okres ten wydłuży się dziesięciokrotnie. Praktycznie cały ten czas, ludzie prowadzili łowiecko-zbieracki tryb życia. Z ekologicznego punktu widzenia, niczym nie różnili się od innych wielkich drapieżników, jak lwy, czy wilki. Liczebność zatem ludzkiej populacji, jej poziom życia, a nawet stopień rozwoju technologicznego, były kształtowane przez opisujące zależność pomiędzy drapieżnikiem a jego ofiarami, równanie, znane w ekologii jako model Lotki-Volterry.

Rozwiązania tego modelu mają trudne do intuicyjnego zrozumienia cechy. Liczebność populacji łowiecko – zbierackiej zależy oczywiście, jak należałoby tego oczekiwać, od poziomu zaawansowania jej technologii łowieckich, czyli współczynnika zwanego w równaniach L-V, „skutecznością polowania” – s, ale zależy silnie nieliniowo. Zgodnie z intuicją, myśliwi nieporadni, o zbyt niskiej skuteczności polowania, nie dadzą rady utrzymać swojej populacji i szybko wymrą. Jednak dalej intuicja już zawodzi. Myśliwi zbyt skuteczni, o s zbyt wysokim, tak bardzo przetrzebią populacje swoich ofiar, że …wymrą również. Zależność ta pokazana jest na poniższym wykresie. N – liczebność myśliwych, V – liczebność ich ofiar.

Ważka 01

Optymalny poziom „wydajności polowania”, przy którym populacja drapieżników osiąga maksimum, jest raptem tylko dwukrotnie wyższy od poziomu minimalnego, poniżej którego drapieżniki wymierają. Ma to ciekawe konsekwencje ewolucyjne. Wszystkie bowiem znane drapieżniki, usiłując zmieścić się w tej wąskiej strefie, są w gruncie rzeczy w polowaniu dość nieudolne. Sukces łowiecki muszą opłacać wieloma nieudanymi próbami, co też przyprawia o nieustająca frustrację autorów filmów przyrodniczych, którzy na udane ujęcie polowania muszą również czekać bardzo długo. Drapieżniki bowiem zbyt w polowaniu skuteczne, redukują tym samym swoją liczebność, zwiększając prawdopodobieństwo wymarcia, co spotkało liczne gatunki szablastozębnych kotów, czy gigantyczne rekiny – megalodony.

Dotyczy to też ludzkich łowców zbieraczy. Zbyt sprawni myśliwi, tak samo jak myśliwi zbyt słabi, redukowali swoją liczebność i znikali z kart (pre)historii. Dlatego też historia Paleolitu, epoki obejmującej ów najdłuższy etap ludzkich dziejów, jest niesłychanie wręcz nudna. Odnajdywane przez archeologów narzędzia łowców, przez dziesiątki, czy nawet setki tysięcy lat nie zmieniały się wcale, rzadko też wykazywały jakiekolwiek regionalizmy.

Drugą dziwaczną dla nas konsekwencją rozwiązań równań L-V jest wynikający z nich przeciętny poziom dobrobytu, dzisiaj mierzony wartością PKB per capita, a w Paleolicie po prostu ilością upolowanego i uzbieranego pożywienia przypadającą na jednego członka plemienia. Dobrobyt paleolitu zależy tylko od dwóch zmiennych. Wydajności z jaką myśliwskie łupy są przerabiane na potomstwo, oraz średniej długości życia łowców. Zależy dobrobyt od nich ..odwrotnie proporcjonalnie. Im krócej łowcy żyją, tym większy panuje u nich dobrobyt. Nic dziwnego zatem, że plemiona łowiecko – zbierackie należały też do najbardziej agresywnych społeczeństw w ludzkiej historii, a wzajemna przemoc była wśród nich główną przyczyną śmierci. Nie zależy natomiast wcale dobrobyt łowców od ich sprawności polowania – s.

W tej sytuacji dziwić nie powinien fakt, że Paleolit trwał tak długo, ale że się w ogóle skończył. Zdecydowała o tym tzw. „rewolucja neolityczna”, czyli powstanie rolnictwa. Zasoby, zamiast, jak do tej pory, czerpać prosto z natury, ludzie zaczęli wytwarzać sami. Konsekwencją tego faktu było nie tylko drastyczne zwiększenie podaży żywności i tym samym liczebności ludzkiej populacji, nie tylko pojawienie się w społeczeństwie zawodów nie związanych bezpośrednio z pozyskiwaniem pożywienia, ale przede wszystkim wyjście ze stanu dzikości i powstanie cywilizacji. Uprawiając rośliny i hodując zwierzęta, ludzie przestali być zwyczajnym gatunkiem dużego drapieżnika i przestali podlegać równaniom L-V.

Wynalezienie rolnictwa jest zatem wydarzeniem dużo bardziej znaczącym niż wynalezienie pisma i początek nowej ery wyznacza znacznie bardziej obiektywnie – zmianą atraktora, czyli docelowych wartości, do których parametry populacji, takie jak jej gęstość zaludnienia, czy poziom dobrobytu, dążą.

Prawo, jakiemu w tej nowej epoce podlegało społeczeństwo, nazywamy, od nazwiska ekonomisty, który pierwszy je w sposób jawny sformułował, maltuzjanizmem. W odróżnieniu od modelu L-V, maltuzjanizm nie zabrania wprowadzania innowacji i wzrostu wydajności gospodarki, co też społeczeństwa rolników mogły bezkarnie osiągać. Liczebność ludzkich populacji, nie ograniczana już kleszczami atraktorów L-V, zaczęła rosnąć. Neolit płynnie przeszedł w epokę brązu, potem żelaza. Wynaleziono pismo, koło, stworzono rozległe sieci irygacyjne. Przez kilka tysięcy lat ludzkość zmieniła się bardziej niż przez poprzednie setki tysięcy. Jednak i maltuzjanizm krył w sobie pułapkę. Pułapkę maltuzjańską. PKB, inaczej niż w paleolicie, rósł, ale proporcjonalnie rosła też liczba ludności, zatem przeciętny dobrobyt, PKB per capita, nadal pozostawał praktycznie bez zmian. Wynikało to z faktu, że ludzki przyrost naturalny, tak samo jak w paleolicie, pozostawał wprost proporcjonalny do posiadanych zasobów. Istnieje oczywiście minimalny poziom tychże zasobów per capita, poniżej którego ludzie nie rozmnażają się wcale. Jednak każda nadwyżka powyżej tej wartości powoduje proporcjonalny wzrost rozrodczości. Wszelki zatem wzrost gospodarczy, czy to w wyniku innowacji technologicznych lub organizacyjnych, czy wskutek podboju i kolonizacji nowych terenów, podnosi chwilowo, na kilka pokoleń, poziom dobrobytu, ale w dłuższej perspektywie zawsze nastąpi wyrównanie do poziomu wyjściowego. Zależności te przedstawia wykres nr 2. Oznaczenia to N – liczba ludności, P – PKB per capita, Pm – pułapka maltuzjańska

Ważka 02

To, o ile wartość Pm, czyli przeciętny dobrobyt w pułapce maltuzjańskiej, przewyższa minimalny, wymagany do rozrodu, poziom, nie zależy, tak samo jak w Paleolicie, od produktywności gospodarki, a od średniej długości życia, a także wydajności, z jaką zasoby przetwarzane są na potomstwo. Im mniejsza rozrodczość, a większa śmiertelność – tym poziom przeciętnego dochodu jest wyższy.

W konsekwencji, wdrożenie jakiejś znaczącej innowacji technologicznej lub organizacyjnej, podnoszącej produktywność gospodarki, czy choćby tylko zasiedlanie i kolonizacja nowych ziem, powoduje gwałtowny wzrost gospodarczy, który w pierwszych pokoleniach podnosi też przeciętny dobrobyt. Nadchodzi „złoty wiek” prosperity, w którym wszystkim warstwom społecznym żyje się bardzo dobrze. Niestety, już kilka pokoleń później, przyrost naturalny dogania wzrost gospodarczy. Dobrobyt, zwłaszcza niższych warstw, systematycznie się zmniejsza, pojawiają się coraz częściej klęski głodu, osłabioną i zabiedzoną populację atakują przeróżne choroby. Władza usiłuje zaradzić problemom w jedyny dostępny sobie sposób, czyli poprzez podbój i ekspansję. Jeżeli się uda, to na kilka pokoleń kryzys zostaje oddalony. Ale potem znów wraca. W końcu jakiś błahy incydent, w „złotym wieku” absolutnie niegroźny, jakiś najazd, rebelia, albo drobne zmiany klimatyczne, powoduje nieproporcjonalnie gwałtowną reakcję społeczną, erupcję przemocy, upadek systemu gospodarczego i rozpad struktur państwowych. W konsekwencji następuje też spadek produktywności gospodarki i skraca się średnia długość życia. Zgodnie z wykresem nr 2, pociąga to za sobą redukcję liczby ludności. Owa redukcja zaś, znów powoduje …wzrost przeciętnego dochodu. Po jakimś czasie gospodarka się więc odradza, produkcja znów rośnie, a wraz z nią dobrobyt. Struktury społeczne się odbudowywują, nastaje kolejny okres wzrostu i prosperity.

Wynika z tego, że cykliczne kryzysy, okresy przejściowe, są wręcz integralnie w maltuzjanizm wpisane. Imperium rzymskie przeszło dokładnie tą samą drogę. Dopóki mogło wchłaniać i zagospodarowywać kolejne tereny, dopóty rozkwitało. Ale w końcu wszystkie nadające się do skolonizowania przez rzymską gospodarkę kraje zostały zdobyte. Po zajęciu Dacji, ostatniego trwałego rzymskiego podboju, „złoty wiek” musiał się nieodwołalnie skończyć, a los imperium był przesądzony. Na terenie jedynej pozostałej jeszcze potencjalnie zdobyczy, Mezopotamii i Armenii, Rzym starł się rozpaczliwie z inną, stojącą przed dokładnie takimi samymi maltuzjańskimi wyzwaniami, cywilizacją – Persją. Toczone z rosnącą desperacją wojny między tymi mocarstwami trwały sześć stuleci, aż skończyły się ich wzajemną anihilacją, a na gruzach cywilizowanych imperiów zatriumfowali pustynni barbarzyńcy.

W nieuchronny sposób też, po upadku nadeszło odrodzenie. Dodatkowym impulsem stała się epidemia „Czarnej Śmierci” z XIV wieku, znacznie ograniczająca średnią długość życia, a tym samym, paradoksalnie, zwiększająca dobrobyt tych którzy ją przeżyli. Następujący po przejściu epidemii, XV wiek, stał się, zarówno na chrześcijańskim Zachodzie, jak i na chińskim Wschodzie, kolejnym „złotym wiekiem”. Szczytowym pod względem średniego dobrobytu, choć jeszcze nie pod względem globalnej produkcji. Ta wciąż rosła, choć już znowu wolniej niż wzrost populacji. Już w XVI wieku zaczęły się związane z tym kłopoty. Udało się je przejściowo zażegnać przez kolonizację Ameryki, oraz globalizację. Połączenie światowej gospodarki, dwóch jej największych ówczesnych ośrodków zachodniego i chińskiego, w jeden system. W latach 1650-1750 dobrobyt, przynajmniej w północno-zachodniej części Europy, znów przejściowo wzrósł, choć nie do poziomu „złotego”, XV wieku. Ale w połowie wieku XVIII i te rezerwy się wyczerpały. Choć światowa produkcja wciąż rosła, to dobrobyt ciągle spadał. Kolejny okres przejściowy, tym razem na skalę, nie, jak w przypadku egipskim, jednego regionu, nie, jak w rzymskim, jednego kontynentu, ale całego, zglobalizowanego już świata, nadchodził nieuchronnie. Pod sam koniec XVIII wieku Thomas Malthus odkrył i opisał prawidłowości, które właśnie omówiliśmy. Kryzys narastał, wskutek globalizacji synchronicznie, w Europie, jej amerykańskich koloniach, w Chinach, a nawet w odciętej od ówczesnych globalnych rynków Japonii. Kolejny, XIX wiek, po prostu musiał być już stuleciem spektakularnego krachu i krwawego chaosu.

A potem wszystko się zmieniło.

Katastrofy nie tylko, wbrew prognozom Malthusa, nie było. Zamiast niej nastąpił spektakularny rozkwit, nigdy dotychczas w dziejach ludzkości nie spotykany. Maltuzjanizm, żelazne prawo rządzące ludzkością od końca Paleolitu, przez prawie 10 tysięcy lat, niespodziewanie wyzionął ducha praktycznie w tym samym momencie, kiedy został odkryty i nazwany. Ludzkość nieoczekiwanie się z pułapki maltuzjańskiej wydostała. Co się stało?

To, co zostało już na temat maltuzjanizmu tutaj napisane, mogło wywołać mylne wrażenie, że każdy kolejny jego cykl niczym się od poprzedniego nie różnił. Tak jednak nie było. W trakcie każdego kolejnego kryzysu część wypracowanych w „złotych wiekach” technologii bywała, co prawda, porzucana i zapominana, ale nigdy wszystkie. A w kolejnych okresach prosperity kumulowano kolejne innowacje. Upadek Rzymu odbywał się z innego poziomu niż upadek egipskiego Nowego Państwa, a wiek XVIII, to cywilizacyjnie i gospodarczo zupełnie inne czasy niż wiek VI. Jedną z najbardziej istotnych różnic stanowiła broń palna. Piesze armie XVIII wiecznych państw rolniczych, uzyskały taką siłę ognia, że, po raz pierwszy w dziejach, osiągnęły przewagę taktyczną nad konnymi łucznikami ze stepów. W konsekwencji kolejne fale konnych koczowników, zwykle skwapliwe wykorzystującymi każdy maltuzjanski kryzys do zagrożenia i często także obalenia cywilizowanych imperiów, zarówno na wschodzie, jak i na zachodzie, już nie nadciągały. Pozwoliło to na dodatkowe wydłużenie ostatniego cyklu maltuzjańskiego i osiągnięcie w nim wyższego, niż we wszystkich poprzednich, poziomu produkcji, czyli także gęstości zaludnienia.

Chociaż więc przeciętny poziom dobrobytu pozostawał przez millenia maltuzjanizmu praktycznie stały, to istniały rzeczy, które w tym czasie zmieniły się bardzo znacznie. Przede wszystkim gęstość zaludnienia, która rosła maltuzjańsko wraz ze wzrostem produkcji. Innym takim, w miarę stale rosnącym wskaźnikiem, był średni poziom wykształcenia., wbrew popularnym mniemaniom, w wieku XV znacznie wyższy niż w wieku I. Trzecim ważnym trendem, był stale malejący poziom stóp procentowych, czyli taniejący kapitał. Wreszcie, pod koniec XVIII wieku, wszystkie te wskaźniki osiągnęły poziom, który zainicjował kolejne, drugie po neolitycznym, przejście fazowe ludzkiej cywilizacji. Zjawisko niezbyt słusznie zwane „rewolucją przemysłową”.

Tani kapitał pozwolił na reinwestowanie zysków w inny, niż tylko nabywanie kolejnych nieruchomości ziemskich, sposób. Wzrost gospodarczy przestał być, jak do tej pory, jednorazowy, czy, co najwyżej, liniowy, ale stał się wykładniczy. A gęstość zaludnienia osiągnęła wystarczający poziom, aby unieważnić kolejne założenie maltuzjanizmu. Żyjący dwa pokolenia po Malthusie Pierre Verhulst zauważył, że zasoby wcale nie są, jak zakładał to Malthus, przydzielane po równo. Im większa jest gęstość zaludnienia, tym większa jest konkurencja o dostęp do nich i tym więcej zasobów jest przeznaczanych na konkurencję, a mniej na rozmnażanie. Przy takim założeniu otrzymujemy nowy model, zwany równaniem logistycznym, albo równaniem Verhulsta. Zaludnienie, co prawda, nadal rośnie wraz z wzrostem gospodarczym, ale rośnie od niego dwukrotnie wolniej. W nowej erze, rośnie więc nie tylko, jak w maltuzjanizmie, PKB, ale także PKB per capita. Pułapka maltuzjańska zostaje daleko w tyle.

Przez cały XIX wiek przyrost naturalny w najbardziej rozwiniętych krajach był, zgodnie z nowym, industrialnym modelem, w przybliżeniu równy pierwiastkowi kwadratowemu ze wzrostu ich PKB. Pod koniec tego stulecia włączył się zaś, jeszcze jeden przeoczony przez Malthusa mechanizm – naturalne ograniczenia biologiczne ludzkiego gatunku. Niezależnie bowiem od poziomu dostępnych zasobów, ani ludzki wskaźnik rozrodczości, ani długość życia, nie mogą przecież rosnąć w nieskończoność. Gdyby wyłączyć wspomnianą konkurencję o zasoby, najbogatsze kobiety bez trudu byłoby dzisiaj stać na urodzenie i wychowanie nawet kilkanaściorga dzieci. Ale już, niezależnie od poziomu owego bogactwa, nie więcej. Ta biologiczna blokada odpowiada za kolejne, pozornie tajemnicze zjawisko – „przejście demograficzne”, czyli, widoczny w najbogatszych krajach już na początku XX wieku, pomimo nadal trwającego  wzrostu PKB, spadek przyrostu naturalnego do zera.

Zadziwiające, że pomimo, już w XIX wieku gołym okiem widocznego, załamania maltuzjanizmu, nadal niektóre hałaśliwe gremia głoszą, że trwający już dwa stulecia wzrost światowego dobrobytu jest tylko kolejnym maltuzjańskim cyklem. Cyklem, który, tak samo jak wszystkie poprzednie, zakończy się, nawet nie przewidywanym przez teorię, łagodnym, wielopokoleniowym zjazdem, ale powrotem do pułapki maltuzjańskiej jako procesem jednorazowym, gwałtownym i krwawym, swoistym „zderzeniem”. Neomaltuzjaniści z lubością powtarzają przy tym, że przecież żaden wzrost, a tym bardziej wzrost wykładniczy, nie może trwać w nieskończoność.

No i w tym akurat mają rację. W nieskończoność żaden wzrost, w skończonym przecież świecie, trwać nie może. I nie trwa. W miarę, jak kolejne, obecnie już praktycznie wszystkie, poza Afryką, kraje, wkraczają w przejście demograficzne, przyrost naturalny na świecie maleje, a liczba mieszkańców Ziemi w ciągu stu najbliższy lat ustabilizuje się na poziomie kilkunastu miliardów. A co ze wzrostem gospodarczym?

I on w nieskończoność trwać nie może. Do wytworzenia jakiegokolwiek dobra, obok surowców i kapitału, potrzebni są bowiem pracownicy. Oczywiście ich niezbędna, w przeliczeniu na produkt, liczba, maleje wraz z rozwojem technologii, maleje czasami bardzo drastycznie, nigdy jednak do zera. Dopóki populacja, wraz ze wzrostem gospodarczym, rośnie, problemu nie ma, pracownicy się zawsze w końcu znajdują. Jednak po przejściu demograficznym populacja rosnąć przestaje. Wkrótce więc rosnącej gospodarce zaczyna brakować siły roboczej. Obecnie najbardziej rozwinięte kraje, albo przenoszą produkcję do krajów, które przejścia demograficznego jeszcze nie zakończyły, albo wprost sprowadzają z nich pracowników. Jednak w ciągu kilku pokoleń niedobory siły roboczej staną się problemem globalnym. Wzrost gospodarczy zwolni i w warunkach stałej liczby pracowników, będzie zachodził jedynie tak szybko, jak postęp technologiczny i wzrost poziomu wykształcenia będzie w stanie podnosić wartość produktu na jednego pracującego. I te procesy jednak, o ile gospodarka nie będzie w stanie w ogóle obyć się bez ludzi, nie mogą trwać w nieskończoność.

Po zatrzymaniu wzrostu populacji, zatrzyma się zatem też, wcześniej, czy później, wzrost gospodarczy. Dynamika rewolucji przemysłowej ostatecznie się zakończy, a ludzka cywilizacja znów znajdzie się w stanie statycznym, podobnym bardziej Paleolitowi nawet niż maltuzjanizmowi. Stałe bowiem będą zarówno poziom zaludnienia, jak i produkcji PKB. W odróżnieniu jednak od poprzednich, paleolitycznego i maltuzjańskiego, atraktorów, owa pułapka logistyczna, będzie stanem wysokiego, a nie niskiego dochodu. Całą historię ludzkości można zatem przedstawić na wykresie. N2 – liczebność populacji, P2 – jej PKB per capita

Ważka 03

Ludzkość nie zginie zatem w prorokowanym przez neomaltuzjanistów „zderzeniu”, ani nie przejdzie żadnej „osobliwości” głoszonej z kolei przez wyznawców transhumanizmu. Ludzkość zastygnie w końcu w osiągniętych do mniej więcej połowy XXII wieku formach technologicznych i społecznych niczym ważka w bursztynie. Jedynym działaniem, które w tych warunkach może jeszcze wykrzesać jakąkolwiek niezbędną do dalszego rozwoju dynamikę społeczną, pozostanie już tylko kolonizacja kosmosu i zasiedlanie nowych planet.

Psychohistoria szerzej omówiona została w artykułach:

0 – Wstęp

1 – Myśliwi i króliki

2 – Dzieci lasu i dzieci lodu

3 – Hii venantur monstra maris et opes aequoreas

4 – W znojnym trudzie skarby ziemi wydzierając

5 – Na skrzydłach kapitału

6 – Rozkosze dobrobytu

7 – Kształt rzeczy przyszłych

8 – 1050 lat historii pod flagą biało-czerwoną

9 – Kres wszystkich rzeczy?

10 – Koniec kryminału

11 – Miecze na lemiesze

12 – Gry wojenne 1939

13 – O państwie i mizerii akapu

Reklamy

Ludzie honoru i słudzy prawa

Mówiłem panu zawsze: procesów zaniechać;
Mówiłem panu zawsze: najechać, zajechać!
Tak było po dawnemu: kto raz grunt posiądzie,
Ten dziedzic; wygraj w polu, a wygrasz i w sądzie.

 

Adam Mickiewicz

 

  1. A Fast-Fish belongs to the party fast to it.
  2. A Loose-Fish is fair game for anybody who can soonest catch it.
Herman Melville

Świat i wszystkie znajdujące się w nim zasoby nie są nieskończone. O zasoby owe musi się zatem rozgrywać konkurencja. W świecie przyrody jej rezultatem jest darwinowska ewolucja gatunków. W krótszych, niż ewolucyjne, skalach czasowych, konkurencja o zasoby również odgrywa decydującą rolę i w decydującej mierze kształtuje ludzki behawior. Przebieg takiego konfliktu opisuje teoria gier, a dokładnie tzw. macierz Hammersteina.

Model ten zakłada, że strony konfliktu mogą przyjąć dwie możliwe strategie. Albo dążyć do zawłaszczenia danego dobra, bez względu na roszczenia strony przeciwnej, czyli przyjąć tzw. strategię agresora (A), albo rywalizację, z różnych powodów, odpuścić – jest to strategia ustępująca (U). O przyjęciu danej strategii decydują zaś parametry gry.

Są to stosunek potencjalnych strat (W) do potencjalnych zysków (V), który oznaczymy literą S = W/V, oraz różnica w sile obu stron oznaczona jako X. Jeżeli strategia agresywna spotka się z ustępującą, agresor zgarnia całą pulę, a ustępujący musi obyć się smakiem. Przy spotkaniu dwóch strategii ustępujących, dobro dzieli się po połowie. Natomiast zderzenie dwóch strategii agresywnych prowadzi do walki. Jej zwycięzca zgarnia nagrodę V, natomiast przegrany ponosi straty o wysokości W. Oczywiście większe szanse na zwycięstwo ma silniejszy z przeciwników. Prawdopodobieństwo jego zwycięstwa to X, a porażki (1-X)

Tabela wypłat w zależności od tego, czy dany osobnik przyjmę strategię agresywną (A), czy ustępującą, (U) wygląda zatem następująco:

Strategia Agresor A Ustępujący U
Agresor A X-S*(1-X) 1
Ustępujący U 0 0,5

Z tabeli tej możemy odczytać, że, kiedy średni zysk z agresji, zarówno silniejszej, jak i słabszej strony jest większy od zera, obie strony przyjmą postawę agresywną. Stanie się tak wtedy, kiedy (1-X)-S*X>0, czyli X<1/(1+S). Krzywa o tym równaniu oddziela strefę (I), na poniższym wykresie zaznaczoną na niebiesko, w której trwa stała wojna wszystkich ze wszystkimi, gdzie, idąc za przytoczoną w pierwszym motcie radą Gerwazego, niecha się wszelkich procesów, a preferuje najechanie i zaniechanie, od strefy (II) – zielonej, w której konflikty kończą się poprzez ustępowanie silniejszemu, jeżeli się jest słabszym, a wymuszanie takiego ustępstwa, jeżeli jest się silniejszym, czyli przez przyjęcie strategii Pragmatyka (P). Jest jednak jeszcze jedna, III, czerwona strefa, w której zastosowanie przemocy nie opłaca się nie tylko słabszemu z rywali, ale także silniejszemu, czyli wtedy, kiedy X-S*(1-X)<0, zatem X<S/(1+S). W tej strefie obie strony unikają bezpośredniej walki, a rywalizacja jest rozstrzygana przez czynniki obiektywne, które w ludzkich społeczeństwach przyjmują postać regulacji prawnych, czy to zwyczajowych, jak te przytoczone w drugim motcie niniejszego eseju, czy to spisanych. Oparta na takich kryteriach strategia nosi więc nazwę strategii legalisty (L). Podobnie jak w strefie II spotykają się zawsze strategie agresywne z ustępującymi, ale decydujący jest nie stosunek sił, ale obiektywne reguły prawne, zwłaszcza prawo własności. Legalista z legalistą dzielą się zatem, podobnie jak dwaj ustępujący, średnio dobrem po połowie. Raz bowiem „w prawie” będzie jeden, raz drugi.

 Przestrzeń rozwiązań macierzy Hammersteina w postaci graficznej przedstawiono na wykresie nr 1

Broń 01

Większość współczesnych najbogatszych i najbardziej rozwiniętych społeczeństw znajduje się już w strefie III i dlatego są one też bardzo praworządne, a współczynnik przestępczości jest w nich bardzo niski. To samo dotyczy stosunków międzynarodowych, które nigdy w historii nie były tak pokojowe jak obecnie.

W III strefie zatem, strategia legalisty, daje najwyższe wypłaty wszystkim graczom, czyli w języku teorii gier, jest optymalna w sensie Pareto. Jednak wcale nie musi to oznaczać, że gracze będą ją stosować. Często bowiem zdarza się, jak w słynnym „dylemacie więźnia”, że strategia optymalna nie jest zarazem strategią ewolucyjne stabilną, to znaczy nie jest odporna na inwazję innych, alternatywnych strategii. W dylemacie więźnia wszyscy odnieśliby korzyści ze zmiany strategii, ale pierwszy gracz, który to uczyni, przegra z tymi, którzy strategii nie zmienią.

Aby zbadać to zagadnienie, autor przeprowadził odpowiednią symulację komputerową. Założymy, że populacja ma parametry X = 0,7, S = 20, czyli znajduje się głęboko w strefie III. Początkowo składa się ona w połowie z agresorów (A), w połowie z ustępujących (U). Prawdopodobieństwo „mutacji”, czyli losowej zmiany strategii używanej poprzednio na jakąś inną, także legalistyczną (L), wynosi 0,2%.  Przyjmujemy, że populacja jest nieskończona, czyli ignorujemy losowy dryf strategii. W każdej turze strategie grają przeciwko sobie, a strategia częściej wygrywająca zwiększa swój udział w populacji kosztem strategii częściej przegrywających. Rezultat symulacji wygląda następująco:

Strat 02

Przy tak wysokim współczynniku S, czyli dużych kosztach porażki w stosunku do potencjalnej nagrody, strategia (A) nie opłaca się wcale i jej udział szybko spada do zera. Równie gwałtownie wzrasta za to udział strategii (U). Wkrótce jednak w populacji pojawia się, wcześniej tam nieobecna, strategia legalistyczna i błyskawicznie, w ciągu zaledwie 50 rund zdobywa zdecydowaną przewagę, wypierając obie pozostałe strategie na stałe. Zapewniająca pokój społeczny i międzynarodowy strategia legalisty jest w III strefie zatem, nie tylko optymalna, ale i stabilna.

Na tym można by rozważania na ten temat zakończyć, gdyby nie poczucie pewnego niedosytu. Czy opisane wyżej trzy strategie (A), (U) i (L), wraz z pominiętą, dla jasności wywodu, strategią (P), są na pewno jedyne możliwe? Przecież, skoro jedynie konsekwencje ewentualnej porażki, powstrzymują agresora, to czy można zostać agresorem bez tych konsekwencji? Zacząć od strategii agresywnej. Kiedy przeciwnik ustąpi, można wtedy zgarnąć całą pulę, bez dzielenia się nią, co średnio musi robić legalista. Natomiast, jeżeli przeciwnik w odpowiedzi będzie agresywny, wtedy ustąpić i uniknąć kosztów ewentualnej przegranej. Każdy, kto choćby z grubsza zna stosunki panujące wśród dzieci szkolnych, doskonale taką postawę zna. To strategia chojraka (C). Przy spotkaniu z agresorem chojrak zawsze ustąpi, przy spotkaniu z ustępującym zawsze będzie agresywny. W rywalizacji z legalistą będzie się zachowywał jak legalista, zaś w konfrontacji dwóch chojraków, któryś w końcu „pęknie” pierwszy, zatem, nagroda również będzie podzielona po połowie. Symulacje wykazują, że chojractwo nie popłaca ani w strefie I, ani II. Co się jednak stanie, jeżeli chojracy pojawią się w strefie III, w społeczeństwie legalistów? Odpowiedź znajdziemy na następnym wykresie. Parametry modelu są te same co przedtem.

Strat 03

Wbrew temu, czego można by intuicyjnie oczekiwać, udział chojraków powoli, ale systematycznie wzrasta. Chociaż bowiem w społeczeństwie legalistów chojracy są niewykrywalni, to jednak lepiej od legalistów są odporni na stale zachodzącą „pełzającą” inwazję pozostałych strategii. W starciu z, pojawiającymi się od czasu do czasu, ustępującymi, chojracy będą mieli średnio większy od legalistów profit, tak samo unikając konfliktu z agresorami, poniosą mniejsze od legalistów straty. Per saldo zatem poradzą sobie od legalistów trochę lepiej. W końcu legalizm znika zupełnie. Wtedy pojawiają się agresorzy. Będą oni owocnie żerować na zawsze ustępujących przed nimi chojrakach, ale ich udział będą limitować wzajemne kosztowne walki. Ewolucyjnie stabilna okazuje się strategia mieszana złożona w ok 90% z chojraków i 10% agresorów. Co gorsza, owa stabilna strategia, w przeciwieństwie do legalistycznej, już nie jest optymalna. Na szczęście jednak i chojrak ma swego pogromcę. W celu jego znalezienia powtórnie musimy sięgnąć do doświadczeń ze szkoły podstawowej. Receptą na chojraka jest tam swoista chojraka odwrotność – mściciel (M). W spotkaniu ze strategią agresywną jest agresywny, w spotkaniu ze strategią ustępującą sam jest ustępujący. Powtórzmy zatem poprzednią symulację dodając możliwość pojawienia się mścicieli. Ponownie wszystkie parametry modelu pozostają bez zmian.

Strat 04

Początkowo wszystko przebiega tak jak w poprzedniej symulacji. Chojracy stopniowo wypierają legalistów. Jednak kiedy osiągają oni dominację liczebną, z popiołów i gruzów praworządności powstaje Mroczny Mściciel… No dobrze, bez poetyckich metafor, po prostu mściciel (M). Strategia (M) błyskawicznie wymiata z populacji chojraków. Społeczeństwo samych mścicieli nie jest jednak stabilne i stopniowo nasyca się także ustępującymi, którzy ponoszą mniejsze od mścicieli straty w wyniku inwazji strategii agresywnych, ale gorzej od nich radzą sobie z chojrakami. Ostatecznie stabilna ewolucyjnie okazuje się strategia mieszana złożona w ¾ (M) i ¼ (U). Ta strategia, podobnie jak strategia 90% (C) i 10% (A) z poprzedniego wykresu, również nie jest paretooptymalna, ale różnica, w stosunku do legalistów, jest niewielka.

Strategia (M) jest zresztą tak skuteczna, że ostatecznie wygrywa nie tylko w strefie III, „legalistycznej”, ale i w obu pozostałych, co wydaje się być sprzeczne z intuicją. W końcu mściciel musi walczyć z agresorami narażając się na straty, a w spotkaniu z ustępującymi zadowala się tylko połową możliwego zysku. A jednak w dłuższej perspektywie szkolna strategia „sam nikogo nie zaczepiaj, ale jak cię ktoś zaczepi to natychmiast mu oddaj” pokonuje wszystkich rywali.

Pozostaje pytanie, dlaczego w ogóle się przejmować, że społeczeństwo (M)/(U), czyli, z grubsza rzecz biorąc, oparte na honorze, jest bardziej stabilne niż społeczeństwo (L) oparte na prawie i praworządności, skoro różnica w całkowitej sumie wypłat jest bardzo niewielka?

No cóż, nieprzypadkowo, aby zademonstrować strategie (C) i (M), musieliśmy się odwołać do przykładu szkoły podstawowej. W przeciwieństwie bowiem do naszego teoretycznego, wyidealizowanego modelu, w realnym życiu, społeczeństwa honorowe, zdominowane przez mścicieli, występują tylko, albo wśród dzieci, albo wśród najbiedniejszych, najbardziej prymitywnych warstw społecznych, jak przykładowo więźniowie. Historycznie zaś, rozwój cywilizacji, wiązał się z ugruntowaniem postaw legalistycznych i rugowaniem wszelkich typowych dla mścicieli zachowań honorowych, jak np. pojedynków. Ta rozbieżność z modelem świadczy o tym, że czegoś istotnego w tym ostatnim nie uwzględniliśmy. Czego konkretnie?

Parametr S, czyli stosunek kosztów porażki do zysków ze zwycięstwa, jak wyżej autor uzasadniał, określa które strategie w której strefie są optymalne, a które dominujące. Ale ów parametr, co do tej pory ignorowaliśmy, sam również od tych strategii w swoistym sprzężeniu zwrotnym zależy. Wysokie S odpowiada społecznościom zamożnym, w wysokim stopniu złożonym i rozwiniętym cywilizacyjnie. Ale tak wysoki poziom ekonomiczny i cywilizacyjny jest w stanie zbudować wyłącznie społeczeństwo praworządne, z ugruntowanym prawem własności, społeczeństwo legalistów, podczas gdy społeczeństwo mścicieli, wyższego, niż plemienny, poziomu rozwoju nigdy samodzielnie nie osiągnie. Jednak takie rozwinięte i skomplikowane społeczności legalistów, jak się okazuje, są wysoce podatne na inwazję chojraków i w konsekwencji na zdominowanie przez mścicieli, a zatem i upadek.

Aby uniknąć tej groźby, społeczeństwo musi się przed chojrakami bronić, w inny, niż liczenie na interwencję mścicieli, sposób. Jak już to opisano, w spotkaniu z legalistą, chojrak zawsze będzie zachowywał się jak legalista. Jednak spotkanie dwóch chojraków, chociaż wycenione zostało w pierwszym przybliżeniu tak samo, jak spotkanie dwóch legalistów, w pewien subtelny sposób jednak się od niego różni. Tak samo jak legaliści muszą ustalić który z nich jest „w prawie”, co wszakże nie zawsze jest bezproblemowe i może nawet skończyć się w sądzie, tak samo chojracy muszą ustalić który z nich jest akurat tym większym chojrakiem. W jeszcze gorszej sytuacji są, potraktowani w niniejszym eseju nieco po macoszemu, pragmatycy, bo oni z kolei muszą ustalić, który z nich jest silniejszy, co jest procesem znacznie bardziej złożonym i podatnym na błędy, niż wszelkie, nawet docierające na poziom sądowy, spory legalistów, czy teatralne miny i gesty chojraków. Dlatego też realnie strategia (P) osiąga gorsze wyniki, niżby to wynikało z teorii, a, co za tym idzie, strefa II ma mniejszy zasięg niż to widać na wykresie nr1.

 Jeżeli zatem sam proces wyłonienia zwycięzcy rywalizacji pochłonie chojrakom więcej czasu i zasobów, niż ma to miejsce w przypadku legalistów, chojracy znajdą się na przegranej pozycji i legalistom nie zagrożą. Im bardziej zatem zasady prawne są proste, zrozumiałe i stabilne, a system prawny sprawny, obiektywny i nieskorumpowany, tym większa jest przewaga legalistów nad chojrakami, mniejszy jest udział tych ostatnich w społeczeństwie i tym samym na wyższy poziom rozwoju gospodarczego i cywilizacyjnego może ono się wspiąć. Na ostatnim wykresie pokazano taki zmodyfikowany model, który zakłada, że rozstrzygnięcie sporu miedzy chojrakami jest o 4% kosztowniejsze niż sporu pomiędzy legalistami.

Strat 05

Nawet tak niewielka różnica, wystarczy do tego, żeby zahamować ekspansję chojraków i uzyskać strategię ewolucyjnie stabilną 80% (L) i 20% (C). Oczywiście im ta różnica będzie większa, tym udział strategii chojrackich w takim społeczeństwie będzie niższy, i tym samym to społeczeństwo będzie zamożniejsze i bardziej rozwinięte.

Widać zatem, dlaczego, co autor opisywał w esejach o psychohistorii, jakość instytucji, prawa i sposób sprawowania władzy ma tym większe znaczenie, im bardziej rozwiniętego, tzn. posiadającego wyższy S, społeczeństwa dotyczy. Szeregowi członkowie społeczeństw predindustrialnych, bytujących, z punktu widzenia macierzy Hammersteina, w strefie I, lub, co najwyżej, II, nie odnoszą z lepszej jakości władzy i sądów żadnych wymiernych korzyści ekonomicznych. Dlatego też rządy w takich społeczeństwach są domeną warstw nie szeregowych. Arystokracji bądź oligarchii, które mają dostatecznie wiele do stracenia, aby procesem politycznym się interesować i weń ingerować, oraz aby budować sprawiedliwy system prawny …dla siebie.

Jednak populacja, która przeszła już rewolucję industrialną i dotarła do strefy III, zachowuje się już zupełnie inaczej i wszelkie analogie historyczne z czasów maltuzjańskich nijak do niej nie pasują. Im głębiej w strefę III społeczeństwo się zanurzy, tym bardziej będzie czułe na jakość stanowionego prawa i jego egzekucji. Wbrew niektórym popularnym poglądom, państwo zatem nie znika, ale musi ewoluować w stronę coraz większej wydajności. Różnice pomiędzy krajami rządzonymi dobrze, a tymi rządzonymi źle, stają się coraz większe i narastają coraz szybciej, w końcu nawet bardzo drobne różnice w jakości rządzenia mogą skutkować bardzo dużymi różnicami cywilizacyjnymi. Dlatego socjalizm radziecki w XX wieku przetrwał pół stulecia, a socjalizm boliwariański, mimo że nieporównywalnie od radzieckiego lepszy, w wieku XXI nie utrzymał się nawet dekady. Narodowy socjalizm pisowski w Polsce również nie ma przed sobą na szczęście żadnej przyszłości. Upaść musi. Pytanie tylko, czy razem z okupowaną przez siebie Polską.

Na zakończenie autor przedstawi jeszcze pełny model Hammerteina wraz ze wszystkimi omawianymi strategiami. Przyjęto dodatkowo parametr Q = X+(1-X)*S, jako wynik bezpośredniego konfliktu.

Strat 06a

Aby urealnić powyższą tabelę, należałoby dodatkowo, jak o tym wyżej napisano, zmniejszyć wypłatę dla kombinacji dwóch chojraków (C) – (C), oraz dla wszystkich wypłat Pragmatyka (P)

Czas na broń

Co jakiś czas odżywa w naszym kraju dyskusja na temat prawa do posiadania broni palnej. Zarówno jednak zwolennicy poszerzenia w Polsce tego prawa, a kraj nasz należy do najbardziej rozbrojonych na świecie, jak i jego przeciwnicy, argumentują wyłącznie na poziomie emocjonalnym. Ci pierwsi epatują wizją bezbronnych dziewic grupowo gwałconych przez hordy rozwydrzonych i bezkarnych zwyrodnialców. Ci drudzy, wizją masowych strzelanin, wojen gangów i masowych mordów autorstwa uzbrojonych psychopatów. Jedni i drudzy na poparcie swoich też mogą też przytoczyć autentyczne przypadki ze świata, a to gwałt w Rimini, a to masakrę w Las Vegas, starannie przemilczając przy tym, że dowód z anegdoty, to żaden dowód.

Argumentów racjonalnych, merytorycznych, ilościowych, właściwie w tym sporze brak. A ustalenie optymalnego w danej społeczności poziomu dostępu do broni palnej, wbrew powierzchownym na ten temat mniemaniom, nie jest bynajmniej zadaniem prostym i trywialnym.

Musimy bowiem w tym miejscu zacząć od zagadnienia pozornie z omawianym tematem całkowicie niezwiązanego. Mianowicie od czasu i jego wartości.

Czas to pieniądz. Powiedzenie to nigdy nie było bardziej aktualne niż obecnie. Czas bowiem należy do tych nielicznych dóbr, których podaż jest, mówiąc językiem ekonomii, doskonale nieelastyczna, czyli w ogóle nie zależy od ceny. A popyt na czas z kolei, w miarę rozwoju cywilizacji i wzrostu poziomu życia nieustannie rośnie. Najbogatsi obecnie ludzie na świecie, mogą, bez żadnego zauważalnego uszczerbku finansowego, odbyć podróż dookoła świata na pokładzie luksusowego jachtu, wybudować pałac na prywatnej wyspie w tropikach, wybrać się na Mont Everest, biegun południowy, a lada moment nawet na Księżyc, czy wyprawić orgię z udziałem dwudziestu nastolatek. Jednak, aby skonsumować te wszystkie atrakcje, nawet multimiliarderzy nadal dysponują zaledwie 24 godzinami na dobę, z których znaczącą część muszą poświęcić także na pracę, czy choćby sen. Im więcej istnieje alternatywnych sposobów wykorzystania czasu, tym większy jest na niego popyt. A rosnący popyt przy stałej, doskonale nieelastycznej podaży, oznacza gwałtowny wzrost ceny.

Ten lawinowo, wraz z rozwojem cywilizacyjnym, rosnący koszt czasu, niesie za sobą wiele różnych, często zaskakujących konsekwencji społecznych. Odpowiada on m in. za tzw. „przejście demograficzne”, czyli spadek dzietności wraz ze wzrostem zamożności – zjawisko całkowicie sprzeczne z ciągle przez wielu wyznawanym maltuzjanizmem. Dzieci i ich wychowanie muszą bowiem rywalizować o czas rodziców z coraz rozleglejszą paletą alternatyw, czego maltuzjaniści w ogóle nie są w stanie pojąć. W niniejszym eseju skupimy się jednak na innym aspekcie drożejącego czasu.

Jeszcze sto lat temu nie było w Europie rzadkością popełnianie drobnych przestępstw tylko po to, aby na zimę trafić do więzienia, gdzie warunki bytowe więźniów były niesłychanie trudniejsze niż dzisiaj, ale jednak ogrzewanie i wyżywienie było za darmo. Ówczesne zakłady penitencjarne w niczym nie przypominały sanatoriów, za poważniejsze przestępstwa bez ceregieli wieszano, a i tak poziom przestępczości był znacznie wyższy niż obecnie.

Wynikało to właśnie z niższego niż obecnie kosztu czasu. Kosztu alternatywnego, czyli pożytku ze wszystkich tych aktywności, na jakie osadzeni mogliby go wykorzystać, gdyby akurat w więzieniu nie przebywali. Przed rewolucją przemysłową, kiedy życie w ogóle było brudne, krótkie i brutalne (za wyjątkiem starożytnego Rzymu, gdzie było tylko krótkie i brutalne), ów koszt alternatywny był tak niski, że nawet kara śmierci, utrata nie części, jak w więzieniu, ale całości posiadanego czasu, nie była odbierana jako dostatecznie surowa i odstraszająca, jeżeli nie była połączona z wyrafinowanymi torturami.

Jednak w miarę wzrostu poziomu przeciętnego dochodu, rósł też koszt alternatywny czasu. Obecnie dla mieszkańców najbardziej rozwiniętych krajów, utrata czasu jest znacznie bardziej dokuczliwa, niż nawet bardzo duża strata materialna. Jako przykład tego trendu można przytoczyć choćby malejącą, mówiąc językiem teorii gier, „użyteczność” mandatów wystawianych za przewinienia w ruchu drogowym, co skłoniło władze zamożniejszych państw do wprowadzenia również punktów karnych. Więzienia obecne coraz mniej różnią się od pensjonatów, kara śmierci została zlikwidowana, a poziom przestępczości jest najniższy w historii. Nie dlatego, że łagodne traktowanie skutecznie przestępców zresocjalizowało, ale dlatego, że działalność kryminalna, przynajmniej ta najbardziej brutalna, przestaje się w rozwiniętych społeczeństwach opłacać. Wartość materialnego łupu, jaki potencjalnie można zrabować, odpowiadająca przeciętnie kwocie równej tygodniowemu średniemu zarobkowi, staje się coraz bardziej iluzoryczna w porównaniu z potencjalną stratą, jakiej można przy tej okazji doznać. Stratą czasu wynikłą, albo z pobytu, choćby i w komfortowym, ale jednak więzieniu, czy czasu zużytego na leczenie obrażeń, których broniące się ofiary mogą przy tej okazji napastnikowi wyrządzić.

Przejdźmy teraz od opisu jakościowego, do ilościowego i rozważmy, w jakich warunkach agresja  przemoc wobec bliźnich może się jednak opłacać. W teorii gier modeluje się agresję międzyosobniczą za pomocą tzw. macierzy Hammersteina. Jest to model uwzględniający dwa parametry, stosunek potencjalnych strat (W) do potencjalnych zysków (V), który oznaczymy literą S = W/V, oraz prawdopodobieństwo zwycięstwa silniejszej strony konfliktu, oznaczone literą X. Nie ulega bowiem wątpliwości, że nawet przy stosunkowo wysokiej wartości S, agresja, mimo mizernej wtedy wartości łupu, może się opłacać, jeżeli przewaga agresora będzie wystarczająco duża, aby mógł on liczyć na bezkarność. Tabela wypłat w zależności od tego, czy dany osobnik przyjmę strategię agresywną (A), czy ustępującą, (U) wygląda następująco:

Strategia Agresor A Ustępujący U

Agresor A

X-S*(1-X) 1

Ustępujący U

0 0,5

 Przestrzeń rozwiązań macierzy Hammersteina w postaci graficznej przedstawiono na wykresie nr 1

 Broń 01

Na powyższym diagramie wyróżniono trzy strefy. W strefie I, niebieskiej, stosunek strat do zysków jest na tyle niski, że postawa agresywna opłaca się wszystkim uczestnikom, bez względu na stosunek sił. W tej strefie mamy do czynienia z nieustającą przemocą, i stanem permanentnej wojny wszystkich ze wszystkimi. W strefie II, zielonej, przy nieco większym współczynniku S, agresja jest strategią opłacalną dla strony silniejszej, ale strona słabsza mniej traci na ustąpieniu silniejszemu, niż na przystąpieniu do nierównej walki. To strefa wymuszania. Dotyczy to także stosunków obywateli z państwem, które w tej strefie, inaczej niż w poprzedniej, jest już w stanie wyegzekwować przestrzeganie stanowionych przez siebie reguł pod groźbą siły. I wreszcie w strefie III, czerwonej, przy odpowiednio wysokim współczynniku S, czyli, o czym już była mowa, przy dostatecznie wysokiej cenie czasu, agresja nie opłaca się już żadnej ze stron i obie przyjmują strategię, w której spór rozstrzyga się w oparciu o jakieś kryteria obiektywne. W przypadku ludzi są to najczęściej zapisy prawa, dlatego też taką strategię nazywamy strategią legalisty. Legalista przyjmuje postawę agresywną, kiedy znajduje się „w prawie”, np. jest właścicielem jakiegoś dobra, a ustępuje wtedy, kiedy prawa do danej rzeczy ma jego adwersarz. Podobnie jak w strefie II spotykają się zawsze strategie agresywne z ustępującymi, ale decydujący jest nie stosunek sił, ale obiektywne reguły prawne, np. prawo własności.

Większość współczesnych najbardziej rozwiniętych społeczeństw znajduje się właśnie już w strefie III i dlatego są one też bardzo praworządne, a współczynnik przestępczości jest w nich bardzo niski. Trend w kierunku malejącej, wraz z rosnącym poziomem życia, agresji, w stosunkach zarówno pomiędzy jednostkami, jak i pomiędzy państwami, jest zresztą widoczny w skali globalnej i został opisany choćby w znakomitej książce „Zmierzch przemocy” Stevena Pinkera.

I w tym miejscu powracamy do kwestii broni palnej i dostępu do niej. Co nasz model może na ten temat powiedzieć? Po pierwsze, broń nie bez powodu jest nazywana „wielkim wyrównywaczem szans”. Nawet osoba słaba fizycznie i nieprzesadnie odważna, może strzelać z pistoletu przynajmniej jako tako. Oczywiście bandyci, jak to nieustannie podkreślają przeciwnicy prawa do broni, w odpowiedzi na uzbrojenie społeczeństwa, uzbroją się również, ale przewaga, nawet doświadczonego i uzbrojonego bandyty, nad słabą, marnie strzelecko wyszkoloną, ale również uzbrojoną kobietą, jest znacznie mniejsza, niż w przypadku, kiedy obie strony są jednakowo bezbronne. Równowaga w społeczeństwie uzbrojonym przesuwa się zatem, względem rozbrojonego, w dół diagramu, w stronę niższych wartości X.

Ale jest jeszcze drugi efekt. Obustronne uzbrojenie zwiększa ryzyko obrażeń i śmierci u stron konfliktu. W populacjach biednych i prymitywnych, o niskim koszcie czasu, nie ma to większego znaczenia, ale w miarę jak czas staje się coraz droższy, ryzyko to znacząco zwiększa potencjalne koszty agresji, a zatem i wysokość parametru S. Punkt równowagi przesuwa się zatem nie tylko w dół, ale, w społecznościach powyżej pewnego progu zamożności, również na prawo, w stronę wyższych wartości S. Wynik w postaci graficznej przedstawiono na wykresie nr 2. Pozioma czerwona linia pokazuje społeczeństwo bez broni, pozioma niebieska, społeczeństwo uzbrojone.

 Broń 02

Jak widać, paradoksalnie, obie strony sporu o prawo obywateli do posiadania broni, mają swoje racje. Powszechny dostęp do broni w społecznościach biednych, dzikich i prymitywnych, przemieszcza populację do strefy I. Rezultatem jest eksplozja przemocy, wojen gangów i licznych mordów, co możemy zaobserwować w krajach afrykańskich, latynoamerykańskich fawelach, czy murzyńskich gettach w USA. Jednak społeczeństwa cywilizowane i zamożne reagują przeciwnie. Przesuwają się w głąb strefy III – legalistycznej. Powszechny dostęp do broni wzmacnia w nich praworządność i legalizm, co z kolei można obserwować w Szwajcarii, czy Finlandii. Ułatwianie Polakom dostępu do broni w roku, powiedzmy, 1989 faktycznie mogło być ryzykowne. Ale obecnie?

Od upadku komunizmu Polska uczyniła jednak ogromny krok w stronę wyższego poziomu S i cena czasu jest dzisiaj w Polsce zdecydowanie bliższa poziomu szwajcarskiego, niż, dajmy na to, nigeryjskiego, zatem i poluzowanie dostępu do broni, będzie w Polsce miało efekt raczej szwajcarski, czyli dalszego spadku przestępczości i wzrostu poczucia praworządności. Co oczywiście nie wyklucza oczywistego faktu, że liczba przeróżnych incydentów, sąsiedzkich i rodzinnych porachunków, wypadków, czy samobójstw, z użyciem broni palnej nieuchronnie przejściowo wzrośnie. W miarę jednak jak powstanie i ugruntuje się w Polsce kultura obchodzenia się z bronią, te perturbacje z czasem zanikną a trwały efekt wzrostu legalizmu i praworządności pozostanie. Jakieś minimalne regulacje zapobiegające uzbrajaniu się ludzi zaburzonych psychicznie powinny naturalnie pozostać, ale niewiele ponad to.

O innowacyjną gospodarkę socjalistyczną

Wśród licznych rytualnych zaklęć uchwalanych na kolejnych plenach i zjazdach Polskiej Zjednoczonej Partii Robotniczej, oprócz stale obecnych „utrzymaniu więzi z masami”, „tworzenia odpowiedzialnych planów rozwoju”, „rozbudzania patriotyzmu wśród młodzieży” czy „podnoszenia stopy życiowej”, przewijało się też często „wdrażanie innowacji w gospodarce socjalistycznej”.

Owe „wdrażanie innowacji”, „innowacyjność”, „postęp naukowo-techniczny” były przedmiotem nieustającej troski Partii, a wszelkie, nawet bardzo wątpliwe, osiągnięcia w tej dziedzinie dumnie prezentowano w propagandzie, niczym przełomowe odkrycia i wynalazki, na miarę nagrody Nobla.

W rzeczywistości jednak, mimo licznych nieustających zwycięstw na froncie postępu naukowo technicznego i wdrażania innowacji, nie tylko żadnych nagród Nobla z dziedziny nauk przyrodniczych i ścisłych nikt z PRL jakoś nie otrzymał, ale i dystans technologiczny między PRL, a krajami normalnymi systematycznie się powiększał. Licencje kupowane na kredyt w czasach Gierka, w Polsce podówczas uchodzące za nowatorskie, w krajach swojego pochodzenia były już wycofywane z produkcji. Jeszcze w roku 1982 władze PRL, najwyraźniej nie mając poczucia własnej śmieszności, z całą powagą i namaszczeniem, w ramach odwetowych sankcji, zawieszały współpracę naukową z …USA. Faktycznie nauka w USA już nigdy się po tym ciosie nie podźwignęła.

W kraju de facto autarkicznym, lawinowo narastające zacofanie cywilizacyjne PRL widoczne było właściwie tylko dla tych nielicznych szczęściarzy, którzy mieli okazję wyjechać za granicę do jakiegoś kraju normalnego, ale w momencie, kiedy w roku 1989 Polska została włączona do światowej sieci handlowej, wszyscy, niezwykle wcześniej innowacyjni krajowi producenci przestarzałych technologicznie i w dodatku skrajnie niechlujnie wykonywanych bubli, zostali z rynku dosłownie zmieceni. Polska okazała się być technologicznie „sto lat za Murzynami” jak to wtedy mówiono.

Odpowiedzialni za „wdrażanie innowacji” funkcjonariusze partyjni nie wyciągnęli jednak z tego faktu żadnych wniosków i nawet po wyzwoleniu z komunizmu, nadal, oni, a potem ich ideologiczne, a i w znacznej mierze także biologiczne, potomstwo, jęczeli w tej samej tonacji. Że polska gospodarka po 1989 jest „za mało innowacyjna”, że „nie produkuje żadnych zaawansowanych wyrobów”, że „zaorano nowoczesny [PRLowski] przemysł” i tym podobne jeremiady, z których najważniejszym wnioskiem było, że „państwo powinno czynnie wspierać innowacje”, i w tym celu przydzielić państwowe posady doświadczonym w tej działalności byłym towarzyszom i ich ideowym kontynuatorom.

Dlaczego jednak pomimo intensywnego „wpierania innowacji” w okresie PRL gospodarka pozostawała wyjątkowo nieinnowacyjna, a i później, po 1989 roku gigantyczny polski sukces gospodarczy, który objawił się jednym z najwyższych wzrostów PKB w Europie, nie wynikał bynajmniej z masowego innowacji wdrażania? Wśród wielu wskaźników gospodarczych, które w tym czasie, a szczególnie w latach 2007-2015 dynamicznie w Polsce rosły, akurat pokazujący poziom innowacyjności gospodarki Global Innovation Index (GII) faktycznie przecież odznaczał się wyjątkową ślamazarnością.

Należy w tym miejscu zaznaczyć, że w skali świata innowacje odpowiadają obecnie za znaczącą, nawet 50 procentową część wzrostu gospodarczego (pozostała połowa to mniej więcej po połowie kapitał materialny i „ludzki” – udział „ziemi”, czyli bogactw naturalnych jest pomijalny), ale akurat w Polsce tak nadal nie jest.

Charakterystyczną cechą inwestycji w innowacje jest długi okres zwrotu. Od pierwszych, początkowych badań i eksperymentów, poprzez budowę i testowanie prototypów, do komercjalizacji wynalazku na rynku, upływa zwykle wiele lat, jeżeli nie dziesięcioleci. W tym czasie innowacja stanowi wyłącznie koszt. Jasne jest, że na tak długie finansowanie, bez żadnej gwarancji zwrotu, mogą inwestorzy pozwolić sobie jedynie w warunkach stabilnych. W krajach o ugruntowanym ustroju praworządnym i wolnorynkowym. Zaś tam, gdzie władza nie znajduje do swoich kaprysów żadnych hamulców, gdzie regułą jest woluntaryzm i korupcja, a ochrona własności prywatnej, w tym intelektualnej, nie należy do priorytetów państwa, opłacać się będą jedynie inwestycje krótkoterminowe. „Wspieranie innowacji przez państwo”, o co tak troszczyli się komuniści, w żaden sposób tej luki nie zlikwiduje, a jedynie powiększy poziom korupcji. Gdyby rzuceni przez biuro polityczne na odcinek „innowacji” partyjni aparatczycy faktycznie potrafili zbudować udany pod względem technologicznym i rynkowym samochód elektryczny, to by przecież go zbudowali, a nie zajmowali się kacykowaniem w przeróżnych urzędach ds. wdrażania innowacji.

Na poniższym wykresie pokazano ilustrujący tę prawidłowość wykres. Pokazuje on zależność pomiędzy wspomnianym Global Innovation Index (GII) a wskaźnikiem wolności gospodarczej Index of Economic Freedom (IEF) w roku 2017

 Inno 1

Innowacyjność faktycznie rośnie wraz ze wzrostem wolności gospodarczej i to rośnie szybciej niż liniowo. Nawet niewielki wzrost wolności daje nieproporcjonalnie wysoki wzrost innowacyjności. Nieprzypadkowo też, ze wszystkich składników IEF, indeks innowacyjności najsilniej zależy właśnie od wskaźnika „Property Rights” – ochrony praw własności. Jednak nawet kraj praworządny i wolnorynkowy, o bardzo wysokim IEF, niekoniecznie osiągnie wysoki poziom innowacyjności, a przynajmniej nie osiągnie go od razu. Jak wynika z widocznego na wykresie tzw. współczynnika determinacji, co najwyżej 55% poziomu innowacyjności zależy od poziomu wolności gospodarczej. Od czego zależy reszta?

Przyzwyczajeni do opowieści o wielkich biznesowych sukcesach wizjonerów i wynalazców od Jamesa Watta poczynając, a na Elonie Musku kończąc, zapominamy, że na każdy taki opiewany w historii sukces przypadają dziesiątki, czy setki spektakularnych klap, o których w historii głucho. Jeżeli pomysł, czy wynalazek okaże się udany, wówczas, owszem, można zarobić na nim krocie, ale pomysł nieudany, a takich jest zdecydowana większość, przyniesie wyłącznie straty. Chociaż potencjalna nagroda jest więc bardzo wysoka, to prawdopodobieństwo jej uzyskania nikłe. Średnia stopa zwrotu z innowacji jest zatem, wbrew intuicyjnemu wrażeniu, niska, a biznes na innowacjach niesłychanie ryzykowny. Nieprzypadkowo gospodarki rozwijające się dzięki innowacjom, te z czołówki rankingu GII, rozwijają się znacznie wolniej, niż gospodarki takie jak polska, czy choćby chińska, bazujące na innych mechanizmach wzrostu.

W krajach nawet wolnorynkowych, ale jeszcze biednych, zwrot z inwestycji kapitałowych jest znacznie większy niż z inwestycji w innowacje. Tam, gdzie większość ludzi nie ma samochodu, nie ma sensu wymyślać i konstruować jakiegoś super – futurystycznego, czyli też drogiego, auta. Lepiej i bardziej zyskownie jest zbudować kolejną fabrykę samochodów tradycyjnych – tanich i sprawdzonych. Dlatego też w minionym ćwierćwieczu w Polsce lokowano wiele montowni, ale praktycznie żadnych ośrodków badawczo rozwojowych, co niesłychanie gorszyło zapatrzonych w „innowacyjność gospodarki” komunistów.

Jednak kraj biedny, ale wolnorynkowy, długo biedny nie pozostanie. W miarę wzrostu nasycenia kapitałem, średnia stopa zwrotu maleje, aż w końcu zrównuje się ze stopą „innowacyjną”. To moment krytyczny. Jeżeli mamy do czynienia z krajem o wysokim IEF, gospodarka płynnie przejdzie do „innowacyjności” bez jakiegokolwiek „wspierania” ze strony rządu. W kraju o IEF niskim – dojdzie do stagnacji i recesji, czyli do osławionej „pułapki średniego dochodu”.

Drugim, obok wolności gospodarczej, warunkiem powstania gospodarki innowacyjnej, jest zatem odpowiedni poziom zamożności i wynikające z niego, niskie stopy procentowe. Jednak w niektórych przypadkach i to może nie wystarczyć. Spójrzmy na kolejny wykres pokazujący zależność poziomu innowacyjności od PKB per capita.

 Inno 2

Zgodnie z naszym przewidywaniem, większość krajów, przedstawionych jako niebieskie romby, układa się wzdłuż, jak go nazwijmy, „ciągu głównego” wykazując prostą, liniową zależność między poziomem innowacyjności, a wysokością PKB per capita. „Większość”, nie oznacza jednak „wszystkie”.

Odchyłką „na plus”, wykazującą znacznie większą innowacyjność, niżby to wynikało z poziomu zamożności, a nawet, co widzimy na pierwszym wykresie, z poziomu IEF, są Chiny. Chiny, choć od dawna nie są już państwem stricte komunistycznym, to jednak krajem praworządnym i wolnorynkowym na pewno nazwać ich nie można. Od wymogów ekonomicznych nadal znacznie ważniejsze w Chinach są arbitralne decyzje rządzącej monopartii. Skoro jej biuro polityczne nakazało „wdrażanie innowacji”, to się je wdraża, bez żadnego rozeznania, czy to aby ma sens i czy chińska gospodarka jest w ogóle taką odgórną innowacyjność w stanie sensownie wchłonąć i zaabsorbować. Można zatem przewidzieć, że to przeinwestowanie niczego dobrego Chinom w długim okresie nie przyniesie, a same Chiny są na najlepszej drodze, aby w pułapkę średniego dochodu wpaść.

Odchyłek od ciągu głównego na minus jest więcej. Okazuje się, że znaczenie ma nie tylko sama dostępność kapitału, ale także fakt, z jakiego źródła on pochodzi. Poniżej ciągu głównego mamy bowiem zaznaczone na zielono trzy kraje, w których znacząca część PKB nie została wypracowana w naturalny sposób, a pochodzi ze źródeł zewnętrznych. W przypadku Norwegii chodzi o dochody z wydobycia ropy, w przypadku Singapuru i Luksemburga zyski z obsługiwania zagranicznych operacji finansowych. Te łatwe pieniądze nie przekładają się jednak na proporcjonalny wzrost innowacji.

No i wreszcie przypadek najciekawszy, ilustrowany przez kwadraciki w kolorze czerwonym. Tu z kolei mamy do czynienia z oczywistą barierą kulturową. Są to bowiem, z jednym tylko, w postaci karaibskiego Trynidadu, wyjątkiem, kraje wyłącznie muzułmańskie. Pomimo nawet bardzo wysokiego poziomu PKB per capita, a nawet pomimo czasami, jak w przypadku Emiratów, dość wysokiego poziomu IEF, muzułmanie jakoś nie potrafią znacząco przekroczyć poziomu 40 pkt GII. Nawet uwzględniwszy fakt, że podobnie jak Norwegia, większość najbogatszych krajów muzułmańskich, tych po prawej stronie wykresu, czerpie olbrzymie dochody z ropy, to jednak na wykresie leżą one od Norwegii znacznie niżej.

Jedynymi islamskimi wyjątkami, które mieszczą się na ciągu głównym i wyraźnie od tej czerwonej strefy odstają, są te, które znajdują się na styku islamu z innymi, bardziej innowacjom sprzyjającymi, cywilizacjami. Na wpół zachodnia Turcja i na wpół chińska Malezja. Sam Islam, nawet umieszczony w sprzyjających warunkach taniego kapitału i wysokiej wolności gospodarczej, do kreowania innowacji i budowy nowoczesnej cywilizacji, najwyraźniej jest całkowicie niezdolny.

Polska natomiast, pokazana na obu wykresach w postaci czerwonego rombu, plasując się dokładnie w ciągu głównym, jest przypadkiem idealnie przeciętnym. Marudzenie o „braku innowacji” jakim byliśmy karmieni przez minione dziesięciolecia, jest więc całkowicie nieuzasadnione, a polityka „wspierania innowacji przez państwo” zbędna, kosztowna i szkodliwa. Rolą państwa jest jedynie stworzenie warunków do nieskrępowanej działalności gospodarczej, czyli realnie utrzymania i wzrostu polskiego poziomu IEF, oraz, co najwyżej, inwestycje w dobra kapitałowe, takie jak sieć drogowa. Po spełnieniu tych warunków zarówno dobrobyt, jak i innowacje, pojawią się automatycznie. I faktycznie, do roku 2015 taka polityka, z grubsza rzecz biorąc, była w Polsce prowadzona i stąd też wziął się polski sukces ekonomiczny w tym okresie. Niestety też, właśnie w tym roku zwolennicy „gospodarki opartej na innowacjach” dorwali się do władzy i zaczęli swoje wizje wcielać w życie, co w najlepszym przypadku skończy się przeinwestowaniem i ugrzęźnięciem w pułapce średniego dochodu, jak w Chinach, a w najgorszym totalną katastrofą na wzór PRL.

Powyższy esej został opublikowany w 1428/1429 numerze tygodnika „Najwyższy Czas”

Na srebrnym globie. Reaktywacja

Artykuł dedykowany jest pamięci Wernera von Brauna

oraz pozostałych twórców i uczestników programu „Apollo”

Pokonaliście nie tylko przestrzeń, ale i czas.

W roku 1865 francuski pisarz Jules Verne opublikował powieść fantastyczno-naukową „Z Ziemi na Księżyc”. Powieść ta, tworząca jedną całość ze swoją kontynuacją „Wokół Księżyca”, zgodnie ze swoim tytułem, opisuje wyprawę na to ciało niebieskie. Fikcyjna ta ekspedycja wyruszyć miała w drugiej połowie lat 60 XIX wieku z terytorium amerykańskiej Florydy. Start odbył się w grudniu, a trzyosobowa załoga zbudowanego z aluminium pojazdu kosmicznego, po okrążeniu ziemskiego satelity wodowała na wschodnim Pacyfiku, skąd została podjęta przez okręt amerykańskiej marynarki wojennej. Koszt wyprawy wyniósł kilkanaście miliardów dolarów wg wartości dolara z 1969 roku.

Minęło stulecie i rzeczywistość dogoniła fikcję literacką. Wyprawa na Księżyc wyruszyła w drugiej połowie lat 60 XX wieku z terytorium amerykańskiej Florydy. Start odbył się w grudniu (dokładnie 21 grudnia 1968 roku), a trzyosobowa załoga zbudowanego z aluminium pojazdu kosmicznego, po okrążeniu ziemskiego satelity wodowała na wschodnim Pacyfiku, ledwo 200 km od swoich fikcyjnych poprzedników, skąd została podjęta przez okręt amerykańskiej marynarki wojennej. Koszt wyprawy wyniósł kilkanaście miliardów dolarów wg wartości dolara z 1969 roku.

Podobnych zbieżności było zresztą znacznie więcej, łącznie nawet z bardzo podobnie brzmiąco nazwiskami kosmonautów. Czyżby Jules Verne był prorokiem, kimś na kształt obdarzonego mocą przewidywania przyszłości Nostradamusa?

Oczywiście nie. Był natomiast bystrym i inteligentnym znawcą nauki i posługując się naukowymi narzędziami po prostu obliczył sobie, jak taka wyprawa z punktu widzenia praw mechaniki i ekonomii powinna wyglądać. Ponieważ Ziemia i Księżyc w wieku XX były dokładnie takie same, jak w wieku XIX, a prawa fizyki i ekonomii również się w tym czasie nie zmieniły, nic dziwnego zatem, że twórcy programu Apollo wychodząc z tych samych, co Verne, założeń i używając tych samych narzędzi naukowych, doszli prawie dokładnie do tych samych rezultatów. Powtarzalność wyników jest bowiem istotą nauki.

Verne’owi udało się zatem przewidzieć pierwszy lot ludzi na Księżyc z niesłychanie wysoką precyzją. Nie on jednak jeden w tamtych czasach takie przewidywania snuł. Oddajmy teraz głos innemu z takich wizjonerów, którego predykcje mniej może były trafne pod względem czysto mechanicznym, ale za to na pewno znacznie bardziej pod względem społecznym i socjologicznym. Oto powieść „Na srebrnym globie” autorstwa Jerzego Żuławskiego z 1903 roku:

Pięćdziesiąt lat blisko upłynęło już od owej podwójnej wyprawy, najszaleńszej zaiste, jaką kiedykolwiek człowiek przedsięwziął i wykonał — i cała rzecz poszła niemal w zapomnienie, […] I nagle zaczęli się ludzie dziwić, że mogli tak prędko zapomnieć… Wszakże w czasie owej wyprawy nie było pisma codziennego, tygodniowego lub miesięcznego, które by przez parę lat z rzędu nie poczuwało się do obowiązku poświęcenia w każdym numerze kilku szpalt temu wypadkowi, tak niesłychanemu i nieprawdopodobnemu. Przed samą wyprawą pełno było wszędzie sprawozdań ze stanu robót przygotowawczych; opisywano niemal każdą śrubę w „wagonie”, który miał przebyć międzyplanetarne przestrzenie i wysadzić śmiałych szaleńców na powierzchnię Księżyca, znaną do tego czasu jedynie ze znakomitych zdjęć fotograficznych, […] — zajmowano się żywo wszystkimi szczegółami przedsięwzięcia; na naczelnym miejscu umieszczano portrety i życiorysy obszerne podróżników.

Dzisiejszy czytelnik musi czuć ciarki na grzebiecie. Faktycznie, jak napisał Żuławski, mija właśnie blisko pięćdziesiąt lat od owej wyprawy i cała rzecz poszła niemal w zapomnienie. A wszakże w czasie owej wyprawy nie było pisma codziennego, tygodniowego lub miesięcznego, które by przez parę lat z rzędu nie poczuwało się do obowiązku poświęcenia w każdym numerze kilku szpalt temu wypadkowi, tak niesłychanemu. Verne mógł sobie przebieg takiej wyprawy po prostu obliczyć. Ale jakim sposobem trafił ze swoim proroctwem Żuławski?

Program Apollo, który doprowadził do pierwszych ludzkich wypraw na Księżyc, faktycznie skończył się prawie pół wieku temu. Ludzie, którzy byli jego uczestnikami, czy choćby tylko naocznymi świadkami, powoli odchodzą, a same wyprawy Apollo, ze strefy realnej historii coraz bardziej przechodzą do legendy. Jeszcze jedno pokolenie, a bez wątpienia staną się mitem, jakim były normańskie wyprawy do Ameryki, zanim wykopaliska archeologiczne przywróciły je z powrotem historii. Kiedy dzisiaj przegląda się publikacje sprzed pół wieku, programowi Apollo poświęcone, owe pisma codzienne, tygodniowe lub miesięczne, z pożółkłych stronic bucha na czytelnika nieograniczony wręcz entuzjazm i optymizm. Sukces programu Apollo, według piszących wtedy autorów, nieuchronnie pociągnie za sobą budowę stałych baz księżycowych, regularny ruch pasażerski między Ziemią a Księżycem, a w nieco tylko dalszej perspektywie, którą tylko najwięksi pesymiści i czarnowidze przesuwali poza rok 1980, załogowe loty na Marsa. Kibice wyścigu kosmicznego, który w ciągu ledwo 15 lat przeszedł od pierwszego sztucznego satelity Ziemi do kosmonautów stąpających po księżycowym regolicie, oczekiwali dalszych sukcesów. Tym większe spotkało ich rozczarowanie, kiedy nie tylko nie sięgnięto do Marsa, ale i z Księżyca się wycofano. Odwrót był tak szybki i całkowity, że w obiegu medialnym pojawiły się nawet wątpliwości, czy do pobytu ludzi na Księżycu w ogóle doszło.

Zanim odpowiemy na pytanie dlaczego tak się stało, musimy nieco przybliżyć mechanikę lotów rakietowych. Wyobraźmy sobie rakietę, mająca gdzieś dostarczyć ładunek o masie L zużywając paliwo o masie P. Rakieta porusza się metodą odrzutu wyrzucając z dysz gazy o masie dm na sekundę z prędkością W m/s. W rezultacie prędkość rakiety zwiększy się o dV. Z zasady zachowania pędu możemy ułożyć zatem równanie:

dm*W = m*dV

Po rozdzieleniu zmiennych otrzymujemy równanie

 Wz R 01

A po jego rozwiązaniu, równanie rakietowe, zwane też równaniem Ciołkowskiego

 Wz R 02

Wynika z niego, że ładunek użyteczny L, który musi być rozpędzony do prędkości V musi wynosić następujący odsetek masy startowej rakiety L+P

 Wz R 03

Odsetek ładunku użytecznego zależy więc wykładniczo od stosunku docelowej prędkości V i prędkości gazów wylotowych W, zwanej też czasami niezbyt ściśle impulsem właściwym. Zależność ta jest tak silna, że projektanci rakiet robią wszystko, aby maksymalnie wyśrubować ich parametry. Nawet drobna zmiana W,  zastosowanie rakiet wielostopniowych, pozwalających na skokowe zmniejszenie L, czy przeniesienie kosmodromów bliżej równika, gdzie da się lepiej wykorzystać prędkość ruchu obrotowego Ziemi, daje bowiem kolosalne oszczędności. To, jak wielki ładunek L będziemy mogli gdzieś wysłać, zależy więc od prędkości, jaką temu ładunkowi należy nadać. Aby móc w ogóle oderwać się od Ziemi i osiągnąć orbitę wokółziemską, zwaną Low Earth Orbit, LEO, należy osiągnąć prędkość V = ok 8 km/s, a w rzeczywistości nieco więcej bo po drodze trzeba pokonać jeszcze tarcie powietrza. Jednak wyprawa na Księżyc, zwana Trans Lunar Injection TLI, jest znacznie większym wyzwaniem. Najoszczędniejsza energetycznie TLI, tzw. orbita Hohmanna, wymaga rozpędzenia pojazdu kosmicznego do ponad 11 km/s. Wiedząc, że impuls właściwy dla powszechnie obecnie używanych rakiet na paliwo chemiczne wynosi od 3 km/s do 4,5 km/s, możemy teraz pokazać jak zmienia się użyteczny ładunek L w stosunku do całkowitej masy startowej rakiety L+P w zależności od docelowej prędkości V. Na wykresie zaznaczono zarówno orbitę wokółziemską LEO, jak i lot na Księżyc TLI, a także prędkość niezbędną do osiągnięcia tzw. linii Karmana, czyli umownej powierzchni przebiegającej 100 km nad powierzchnią Ziemi zwaną też szumnie „granicą kosmosu”. Przyjęto bowiem czasami, zwłaszcza dla celów marketingowych, nazywać osiągnięcie tej linii „lotem w kosmos”. Kiedy jednak porównamy miejsca przecięcia naszych, czerwonej i niebieskiej, „krzywych rakietowych” odpowiednio z TLI, LEO i linią Karmana, od razu zorientujemy się, że jest to znaczna przesada. Prawdziwy lot kosmiczny zaczyna się dopiero od LEO, a różnica pomiędzy lotem na Księżyc a LEO jest i tak znacznie mniejsza niż pomiędzy LEO a osiągnięciem linii Karmana.

 Falcon 01a

Masa, jaką dana rakieta może wynieść na TLI, będzie, jak można odczytać z wykresu, stanowiła, w zależności od impulsu właściwego, ok 30-50% ładunku możliwego do dostarczenia na LEO, ale tylko 4-10% tego co zdoła ona wynieść do linii Karmana. Ile takiej masy minimalnie wymaga załogowa wyprawa na Księżyc? Pojazd Apollo, razem z lądownikiem księżycowym LM, ważył ok 45 ton, ale była to wersja „na bogato”. Przygotowywany równolegle z Apollo radziecki program księżycowy zadowalał się 25 tonami masy na TLI. Zakończył się ów program, co prawda, fiaskiem, ale nie z powodu deficytu masy. Można zatem założyć, że dziś, uwzględniając postęp technologiczny, minimalna załogowa wyprawa na Księżyc wymagałaby około 20 ton ładunku na TLI, czyli 50-80 ton na LEO. Sprawdźmy zatem, jakich realnie istniejących rakiet można by w tym celu użyć.

 Falcon 02

Wykres numer dwa od razu odpowiada nam na pytanie zadane na wstępie niniejszego eseju. Załogowych lotów na Księżyc zaniechano i do dzisiaj nie wznowiono, z bardzo trywialnego powodu. Braku odpowiedniej rakiety nośnej. Jedyną ze wszystkich kiedykolwiek istniejących rakiet, które nadawałyby się do tego celu, był tylko i wyłącznie, użyty w programie Apollo, Saturn V. Ba, Saturn V był wręcz, w stosunku do tego księżycowego zapotrzebowania, znacznie przewymiarowany. Przyczyny owego nadmiaru nie są bynajmniej banalne, ale omówimy je później. Pomijając dzieło życia Wenera von Brauna, z pozostałych kandydatów, radziecka N1, również budowana dla programu księżycowego, odbyła cztery starty, wszystkie nieudane, co też było główną przyczyną porzucenia przez ZSRR projektu załogowych lotów księżycowych. Rakieta Energia zaś, również radzieckiej konstrukcji, odbyła raptem dwa loty pod koniec lat 80.

Swoista elitarność wszystkich tych ciężkich rakiet, także Saturna V, zbudowanego w też niezbyt imponującej liczbie piętnastu egzemplarzy, z których dwa zresztą do dzisiaj znajdują się na Ziemi, nie była przypadkowa. Wszystkie bowiem te konstrukcje były dziełem agencji rządowych, zbudowane zostały do potrzeb programów w całości finansowanych przez budżet i kiedy politycy znaleźli sobie inne zabawki do marnotrawienia pieniędzy podatników, zostały ciśnięte w kąt. Zniknęły, bo ich istnienie miało uzasadnienie wyłącznie polityczne, bez żadnego komponentu ekonomicznego, czy nawet naukowego. Na 12 ludzi którzy dotarli na powierzchnię Księżyca, był bowiem tylko jeden naukowiec, a i on załapał się jedynie rzutem na taśmę na ostatni lot Apollo 17. Zdołały owe ciężkie rakiety zaistnieć na krótko, wyłącznie dlatego, że przez pewien czas wydawało się, że ZSRR jest w stanie technologicznie przewyższyć USA. A kiedy te złudzenia się rozwiały, nie były już do niczego potrzebne. Ocalały mniejsze konstrukcje, które były przydatne do wynoszenia satelitów wojskowych, a także pierwszych komercyjnych satelitów telekomunikacyjnych, czy meteorologicznych. To ostatnie zadanie producenci rakiet, mając zagwarantowane kontrakty rządowe, traktowali zresztą na tyle lekceważąco, że kiedy w latach 90 pojawiła się, wcale zresztą nie oszałamiająca swoimi parametrami, francuska rakieta Ariane, zdołała ona błyskawicznie zdominować ten rynek wypierając z niego zarówno Rosjan, jak i Amerykanów.

Po zlikwidowaniu programu Apollo, ani w USA, ani w ZSRR i Rosji, nie licząc promu kosmicznego STS, o którym jeszcze wspomnimy, prawie do dnia dzisiejszego, nie pojawił się żaden nowy kosmiczny system nośny. Wszystkie obecnie użytkowane rakiety, amerykańskie Atlas, czy Delta, czy rosyjskie Protony i Sojuzy, są konstrukcjami z lat 60, czy nawet 50, nieco tylko unowocześnionymi i rozbudowanymi. Inne, poza USA i Rosją, kraje, zaczęły się w tej dziedzinie liczyć dopiero w XXI wieku. Podziwiane obecnie za aktywność w tym zakresie Chiny, tak naprawdę powtarzają jedynie obecnie radzieckie konstrukcje i programy sprzed pół wieku i nieprędko wyjdą ponad ten poziom. Rakiety zdolnej wysłać ludzi na Księżyc Chińczycy nadal nie mają i jeszcze długo nie będą mieli. O wznowieniu wypraw księżycowych, owszem, często gadano, ale jak widać na wykresie nr 2, realnie niczego w tym kierunku nie robiono. Pomysły budowy jakichś stacji przesiadkowych na LEO, składania pojazdów na orbicie z części wysyłanych mniejszymi rakietami nigdy poważne nie były. Takie rozwiązania mogłyby się sprawdzić, kiedy ruch na Księżyc wzrośnie do odpowiednio dużego poziomu, ale w fazie pionierskiej są znacznie droższe i bardziej skomplikowane niż lot bezpośredni z Ziemi.

Nie tylko zatem wstrzymano eksplorację Księżyca, ale i cała kosmonautyka wpadła w długotrwałą, choć widoczną tylko dla wtajemniczonych, zdolnych zajrzeć za propagandową fasadę promów i orbitujących wokół naszej planety stacji kosmicznych, depresję. Na poniższym wykresie pokazano liczbę wszystkich misji kosmicznych podejmowanych średnio rocznie w poszczególnych dekadach.

 Falcon 03

Jak widać, aktywność ludzka w kosmosie, nawet na orbicie wokółziemskiej, od czasów programu Apollo, stale i systematycznie malała, aż osiągnęła dno w dekadzie 2000-2010. W najgorszym pod tym względem roku 2004 nastąpiły zaledwie 54 starty. Naturalną koleją rzeczy hurraoptymizm przełomu lat 60/70 został wyparty przez hurrapesymizm. Kosmos nie jest dla człowieka, głoszono, warunki w nim są zabójcze, promieniowanie wykończy każdego w mgnieniu oka, nieważkość zamieni kosmonautów w żywe trupy, a cały program Apollo był jedną wielką sfabrykowaną w Hollywood fałszywką mającą omamić opinię publiczną.

Sytuacja zaczęła się zmieniać właściwie dopiero w ostatnich latach. I wcale nie, jak autor już wspomniał, dzięki Chinom. Zanim odkryjemy, co się naprawdę po roku 2010 wydarzyło, przyjrzyjmy się bliżej rakietom przedstawionym na wykresie nr 2. Chociaż udźwig na LEO jest najważniejszym opisującym je parametrem, to przecież nie jedynym. Obok udźwigu, swoje znaczenie ma też wydajność, czyli nasz stosunek L/(L+P). Po zignorowaniu pewnego nie pasującego do reszty wyjątku, o którym później, waha się on od 1,59% (indyjski GSLV Mk5), do 4,61% (Saturn V). Dokładniejsza analiza tego wskaźnika pokazuje, że rakiety amerykańskie mają nieco wyższą wydajność niż rosyjskie, te z kolei wyższą niż chińskie, japońskie i europejskie (Ariane), a najgorsze pod tym względem są Indie. Modele nowsze (np. Proton M), są nieco lepsze niż modele starsze (Proton K), a najsilniejsza jest zależność od wielkości. Im rakieta większa, tym, dzięki efektowi skali, ma też wyższą wydajność.

Pokażmy teraz tą zależność na ostatnim wykresie:

 Falcon 04

Na wykresie tym przede wszystkim rzuca się w oczy zaznaczony na czerwono ów wspomniany już uprzednio wyjątek. To prom kosmiczny STS, który w deklaracjach jego twórców miał zrewolucjonizować loty w kosmos uczynić je tanimi i powszechnymi. Jak widać po jego położeniu na wykresie, był to jednak pomysł poroniony od samego początku. Błędna była już sama idea takiego pojazdu. De facto STS wynosił na LEO 100 ton ładunku, niewiele mniej niż Saturn V, ale 80% z tego, przypadało na całkowicie na LEO bezużyteczny orbiter, którego jedynym zadaniem był …powrót na Ziemię. Zgodnie bowiem z całkowicie fałszywą analogią z samolotem, odzyskiwanie pojazdu miało znacznie obniżyć koszty lotów. Nic takiego oczywiście nie nastąpiło, ponieważ kosmolot, o czym promowi lobbyści już nie wspominali, to nie samolot i różni się od niego wieloma bardzo ważnymi cechami. Osiąga dwudziestokrotnie większą prędkość, doznaje w trakcie lotu znacznie większych przyśpieszeń i znosi dużo wyższe, niż samolot, temperatury, zatem i jego przystosowanie do ponownego startu staje się, w porównaniu z samolotem, dużo droższe i bardziej czasochłonne. Próby zaoszczędzenia w tym aspekcie eksploatacji promów, jakie nieroztropnie podjęto, zakończyły się spektakularnymi katastrofami, którym uległo aż 40% wszystkich promów, podczas gdy np. dla samolotów Boeing 747, słynnych „jumbo jetów”, analogiczny wskaźnik wynosi 3,2%, a nawet dla naddźwiękowych, czyli pracujących w bardziej, niż B747, wymagających warunkach, „Concorde’ów” tylko 5%.

Rakieta jednorazowa, wbrew temu, co by się mogło na pierwszy rzut oka wydawać, posiada, w porównaniu z wielorazową, wiele zalet. Po pierwsze, ponieważ wszystkie jej elementy mają zadziałać tylko raz, jest znacznie lżejsza, czyli ładunek użyteczny, jaki wynosi, jest też znacznie większy – wystarczy porównać wydajność promu i Saturna V. Nie wymaga też, jak już wspomniano, żadnych, jak wykazała praktyka, niezwykle kłopotliwych, procedur przygotowujących ją do ponownego startu. Nie przypadkiem eksperyment z promami, jeżeli jednego jedynego bezzałogowego lotu radzieckiego „Burana” nie liczyć, nigdy nigdzie przez nikogo powtórzony nie został. Gdyby decyzje o rozpoczęciu programu STS zapadały z uwzględnieniem obiektywnych warunków fizycznych i ekonomicznych, STS zostałby odrzucony już na etapie koncepcji.

Jeżeli już jakaś część rakiety ma być odzyskiwana, co w ogóle jest co najmniej dyskusyjne, bo każdy system odzyskiwania zabierze jakąś część cennej masy L, to nie jest to ostatni, ale pierwszy stopień, który jest cięższy, lata niżej i z mniejszymi prędkościami. Niżej podpisany oczekiwał, że rozwiązania techniczne pójdą w stronę zastosowania jako pierwszego stopnia odpowiednio przebudowanego samolotu. Stało się jednak inaczej

Uwzględniając wszystkie wymienione uwarunkowania, żaden prywatny biznesmen nigdy by takiego kosmicznego nielota jak STS do eksploatacji nie wprowadził, a jeżeli jakiś taki wyjątkowo ograniczony intelektualnie inwestor by się jednak znalazł, zbankrutowałby najdalej po roku.

 Ale nie było tak w przypadku, nieliczącego się z kosztami, inwestora państwowego. Promy latały zatem w kosmos i tym samym blokowały powstanie czegoś sensowniejszego. W końcu jednak, o 30 lat za późno, latać przestały i kosmos mógł wreszcie odetchnąć z ulgą.

Nasza opowieść nabiera teraz optymizmu, bo z dołu wykresu nr 4 przechodzimy do jego górnej części. Upadek promów, chociaż spóźniony o trzy dekady, wytworzył wreszcie pożądaną lukę na rynku kosmicznym. W lukę tą wdarła się rakieta, która ma dzisiaj najwyższą wydajność w stosunku do swojej masy, czyli Falcon 9 w jego obecnej wersji FT. Jest to oczywiście nowa konstrukcja, jednak nie wyłącznie temu faktowi zawdzięcza ona swój prymat. Falcon 9FT jest bowiem także pierwszą tej wielkości rakietą PRYWATNĄ, zaprojektowaną, zbudowaną i wyprodukowaną w celach komercyjnych przez prywatną firmę Space X. Falcon 9 jest nie tylko wydajniejszy od swoich rywali, ale zgodnie z logiką opisaną powyżej, w sytuacji, kiedy tylko masa wynoszona na LEO nie jest zbyt duża i można poświęcić na to część ładowności, odzyskuje nie ostatni, ale pierwszy stopień, lądujący pionowo, niczym rakiety z twórczości SF z lat 50 i 60.

Jeszcze w latach 90, wyniesienie kilograma ładunku na LEO kosztowało ok 10 000 ówczesnych dolarów. Falcon 9FT czyni to za 2 700 dolarów dzisiejszych, czterokrotnie, uwzględniając inflację, taniej. Nic dziwnego że SpaceX i jej właściciel Elon Musk, szturmem wzięli rynek. W roku 2012 ze wszystkich lotów kosmicznych na całym świecie, 2,6% było autorstwa SpaceX. W ubiegłym, 2016, było to 9,4%. W chwili pisania niniejszego eseju (maj), w bieżącym 2017 roku, w kosmos poleciało z Ziemi 26 rakiet, z czego 6 wyprodukowanych przez Muska, zatem jego udział podskoczył już powyżej 20%. W skali świata. Do końca roku Musk planuje jeszcze 24 starty, czyli w sumie 30. Rocznie. Jednej firmy. Przypomnieć należy w tym miejscu rok 2004 z jego 54 startami wszystkich rakiet na całej planecie.

SpaceX zbudowało też i przetestowało pojazd załogowy Dragon, a pierwsze loty załogowe z jego użyciem planowane są na przyszły, 2018 rok. Jeden z nich, na zlecenie NASA, ma odbyć się do krążącej na LEO stacji kosmicznej ISS. Drugi nie.

Falcon 9 FT, mimo że nowatorski i przewyższający technologicznie i ekonomicznie całą światową państwową konkurencję, należy jednak do tej samej co ona kategorii, wynoszącej na LEO 20 – 25 ton ładunku. Nie jest to jednak ostatnie słowo Muska. Do pierwszego startu szykuje się bowiem w tym roku Falcon Heavy. Rakieta, która na LEO będzie wynosiła aż 64 tony w cenie jeszcze o połowę niższej, niż w wersji FT. I znów będzie to najbardziej wydajna rakieta w swojej kategorii wagowej, bezwzględnie ustępując nieznacznie jedynie ponad dwukrotnie cięższemu Saturnowi V. Falcon Heavy będzie też pierwszą od czasów Saturna V realnie latającą rakietą, która z naddatkiem wystarczy do załogowego lotu na Księżyc, który też odbyć się ma, tym razem na zasadach komercyjnych, już w przyszłym, 2018 roku. Kosmonauci, podobnie jak załoga Apollo 8 równo pół wieku wcześniej, oblecą tylko Księżyc, bez lądowania na nim, ale sukces tej wyprawy, inaczej niż w przypadku Apollo, także finansowy, bez wątpienia pociągnie za sobą kolejne loty, a w miarę zdobywania doświadczenia i rozbudowy infrastruktury, cena będzie systematycznie maleć. Po blisko pół wieku zastoju ludzie wracają na Księżyc i dzięki przejęciu inicjatywy przez sektor prywatny zapewne na stałe. Ponownie, jak z niepokojącą doprawdy precyzją wyprorokował Żuławski, fantastyczny pomysł Juliusza Vernego miał być nareszcie urzeczywistnionym — w sto kilkanaście lat po śmierci (Verne zmarł w 1905 roku, już po publikacji „Na srebrnym globie”) swego autora.

Powrócimy zatem na Księżyc, ale przecież na Księżycu Wszechświat się nie kończy, a można nawet zaryzykować twierdzenie, że się nawet jeszcze nie zaczyna. Następnym, po Księżycu, logicznym celem dla wypraw załogowych jest Mars. Podobnie jak na Księżyc, również na Marsa najtaniej energetycznie jest polecieć elipsą Hohmanna. Podróż ta odbywa się jednak tym razem w polu grawitacyjnym nie Ziemi, a Słońca. Ma to zupełnie nieoczekiwane intuicyjnie konsekwencje. Otóż prędkość V, potrzebna do znalezienia się na marsjańskiej orbicie Hohmanna, Trans Mars Injection, TMI, jest praktycznie …taka sama jak w przypadku orbity księżycowej. Odrobinę niższa jeżeli policzymy tylko samą drogę między orbitami obu planet, odrobinę wyższa, jeżeli dodamy także konieczność wydostania się z ziemskiej studni grawitacyjnej. Większe różnice pojawiają się dopiero, kiedy planujemy lądowanie. Pojazd docierający po elipsie Hohmanna do Księżyca, porusza się względem niego z prędkością ok 0,8 km/s, a ta sama prędkość względem Marsa wynosi już 2,7 km/s, ale z kolei wyhamowanie na Marsie, który ma atmosferę i silniejsze od księżycowego pole grawitacyjne jest też łatwiejsze. Oczywiście są i inne różnice. Lot hohmannowski na Marsa nie wymaga wprawdzie więcej energii niż podróż na Księżyc, ale wymaga znacznie więcej czasu. Wyprawa na najbliższego ziemskiego sąsiada trwa 5 dni (statki Apollo podróżowały krócej, bo korzystając ze wspomnianej już „nadmiarowości” Saturna V, leciały po mniej wydajnym energetycznie, ale za to szybszym wariancie orbity), na Marsa – 259 (ziemskich) dni. Wybierając wariant nieco gorszy energetycznie, ale zapewniający za to samoczynny powrót na Ziemię w przypadku wystąpienia jakiejś awarii, czyli tzw. trajektorię swobodnego powrotu, możemy kosztem nieznacznego zmniejszenia efektywności i zwiększenia prędkości zbliżania do Marsa, skrócić ten lot do 250 dni. W jedną stronę. Dodając do tego pobyt na Marsie, otrzymamy wyprawę trwającą nie, jak w przypadku misji Apollo, tygodnie, ale lata. Jasne jest, że oszacowana uprzednio dla lotów księżycowych minimalna masa L = 20 ton, jest w przypadku Marsa zdecydowanie za niska, nie pozwalająca na zabranie odpowiednich na tak długi okres zapasów. Jaka powinna być zatem ta minimalna masa załogowej wyprawy marsjańskiej? Autor najoszczędniejszego projektu takiej wyprawy, tzw. „Mars Direct”, Robert Zubrin, oszacował ją na 40 ton, a dokładniej na dwa podróżujące po TMI równolegle ładunki po 40 ton każdy dla czteroosobowej załogi. Ta liczba jest podejrzanie zbliżona do znanej nam już masy zestawu Apollo – 45 ton i sprowadza nas z powrotem do przewymiarowania Saturna V. Skoro rakieta ta mogła wysłać na Księżyc po nieoptymalnej energetycznie trajektorii 45 ton ładunku, to na Marsa, po trajektorii swobodnego powrotu, mogłaby wysłać nawet ponad 50 ton, znacznie więcej niż wymaga projekt Zubrina, który dla maksymalnej oszczędności zakłada nawet, że paliwo do lotu powrotnego zostanie wyprodukowane na miejscu, na Marsie.

Nie sposób oprzeć się wrażeniu, że, chociaż, ani twórca Saturna V Werner von Braun, ani żaden z jego ówczesnych współpracowników, nigdy wprost tego nie przyznał, wykorzystując szok wywołany u amerykańskich decydentów przez krótkotrwałe prowadzenie ZSRR w wyścigu kosmicznym i związany z tym przejściowy zanik ich skąpstwa, zamiast zbudować po prostu rakietę do lotów na Księżyc, zbudowali oni za jednym zamachem, dwukrotnie większą niż wymagał tego Księżyc, rakietę do lotów na Marsa. Pasowałoby do tej hipotezy również niezwykle niska awaryjność Saturna V, która w przypadku pojedynczych tygodniowych lotów na Księżyc jest trudna do racjonalnego uzasadnienia, ale w przypadku wieloletnich „podwójnych” wypraw na Marsa staje się potrzebna w sposób oczywisty.

 Z jednej zatem strony von Braun chciał zapewne postawić NASA przed faktem dokonanym argumentując, że „skoro mamy już rakietę, to lećmy na Marsa”, z drugiej było to zabezpieczenie na wypadek, gdyby Sowieci wylądowali jednak na Księżycu pierwsi, czego do samego końca nie można było wykluczyć. Amerykanie mieliby wskazać wtedy kolejny cel i tym razem wygrać ten wyścig już w cuglach.

Nie byłby to pierwszy taki manewr w wykonaniu von Brauna. W czasie II wojny światowej udało się mu namówić władze III Rzeszy do sfinansowania niezwykle drogiego (wydano więcej pieniędzy niż Amerykanie w tym czasie na projekt „Manhattan”), ale kompletnie bezsensownego z militarnego punktu widzenia (jedna rakieta kosztowała tyle co ciężki bombowiec, a przenosiła o wiele mniejszy ładunek, była mniej celna i bardziej zawodna, a także, w przeciwieństwie do bombowca, mogła polecieć tylko raz) programu budowy V2.

Jeżeli takie właśnie myśli przyświecały von Braunowi, to jednak, chociaż spełnił on swoje marzenie wysłania ludzi na Księżyc, to Mars definitywnie wymknął mu się z rąk, pozostając miejscem, gdzie „do tej pory nie dotarł żaden człowiek”. Von Braun bowiem, człowiek, który praktycznie w pojedynkę przyśpieszył wyjście ludzkości w kosmos o jakieś pół stulecia, był genialnym wizjonerem, inżynierem i menedżerem, ale …nie biznesmenem. Swoje wizje jedynie realizował, ale na nich …nie zarabiał. Dwukrotnie na realizację tych wizji, wykorzystując najpierw wojnę, a potem zagrożenie nią, udało się mu pozyskać od rządów niezbędne, a niemałe przecież fundusze, ale, jak się okazało, do trzech razy sztuka.

Dzisiaj Mars pozostał zatem finalną nagrodą, złotym jabłkiem, dla Elona Muska. Faktycznie deklaruje on, nie tylko wysłanie ludzi na Marsa, chociaż już tylko w tym celu Falcon Heavy nie wystarczy, ale wręcz rozpoczęcie masowej kolonizacji tej planety. Można uznać te plany za mrzonki, sam autor niniejszego eseju pozostaje w tej kwestii niezwykle sceptyczny, ale akurat Musk wiele razy udowadniał, że w jego przypadku takie wątpliwości bywają przedwczesne. SpaceX już teraz buduje, znacznie potężniejszy od dotychczas przez firmę eksploatowanych modelu Merlin, silnik Raptor, który ma działać na metan – paliwo pozyskiwane na Marsie zgodnie z założeniami projektu Mars Direct. Zbudowanie na bazie Raptorów „Falcona Superheavy”, o osiągach porównywalnych z Saturnem V, a wyższej od niego wydajności, jest zatem w jej zasięgu. Nawet jeżeli kolonizacja Marsa jest zbyt dla Space X ambitnym projektem, to sam tylko załogowy lot na Czerwoną Planetę jak najbardziej może się ziścić i to szybciej niż można by się tego spodziewać. Tym bardziej że Musk nie działa w próżni. Po piętach depcze bowiem mu już Jeff Bezos ze swoją firmą BlueOrigin. Na razie BlueOrigin przegrywa rywalizację ze SpaceX, ale, jako że wybrała nieco odmienny model technologiczny i biznesowy, w każdej chwili może się to zmienić. Również opartą na silnikach napędzanych metanem, i zdolną do załogowych lotów na Księżyc rakietę New Glenn, Bezos planuje wprowadzić do użytku w nie tak znów odległej przyszłości, w roku 2020. W kolejce są i inni przedsiębiorcy. Wyścig kosmiczny, w którym tym razem startują nie rządy, a prywatne firmy, rozpoczął się na nowo, i może nas doprowadzić w miejsca, o których nam się przez pół wieku kosmonautycznej posuchy nawet nie śniło.

Jeżeli chcesz wiedzieć więcej:

[1] http://www.astronautix.com/j/julesvernemoongun.html – o trafionych proroctwach Verne’a

[2] Zubrin R. „Czas Marsa” Prószyński i s-ka 1997

[3] Zubrin R. „Narodziny cywilizacji kosmicznej” Prószyński i s-ka 2003

[4] Żuławski J. „Na srebrnym globie” Wydawnictwo Literackie 1987

Fragmenty powyższego artykułu zostały opublikowane pod tytułem „Sokół nowego Millenium” w 1409 numerze tygodnika „Najwyższy Czas”

Tylko o psychohistorii (13) O państwie i mizerii akapu.

W poprzednich trzech rozdziałach za pomocą działu matematyki zwanego teorią gier, omówiliśmy strategię konfliktów zarówno na poziomie międzyosobniczym, indywidualnym, jak i zbiorowym, narodowym i państwowym. Jednak, chociaż rola konfliktów w dziejach ludzkiej cywilizacji jest nie do przecenienia, to jednak cywilizacja nie na konflikcie się wspiera, tylko przeciwnie, na współpracy. Podobnie jak w przypadku konfliktu, również współpraca jest opisywane przez teorię gier. I podobnie jak do konfliktu, do współpracy dochodzi wtedy, kiedy współpracującym osobnikom się to opłaca. To znaczy, kiedy dokładnie? Powiedzmy, że dwa współpracujące ze sobą podmioty mogą wspólnie uzyskać jakąś wartość o wartości b dla każdego z nich. Aby jednak ją uzyskać, muszą ponieść koszty o wysokości c każdy. Łączna ich wypłata wynosi zatem b-c. Dopóki b>c powinni więc współpracować dla obopólnej korzyści.

Jednak …nie zawsze. Pojawia się tu bowiem pokusa powiększenia swojej wypłaty kosztem wspólnika. Każdy z czytelników może zapewne z własnego doświadczenia przytoczyć wiele przykładów, jak to w jakiejś grupie, która zebrała się do osiągnięcia wspólnego celu, np. wspólnego odśnieżenia drogi dojazdowej do posesji, znajdzie się jeden lub kilku cwaniaków, którzy jedynie symulują współpracę, licząc na to, że pozostali uczestnicy przedsięwzięcia wykonają całą robotę za nich. Minimalizując swój wysiłek usiłują tym samym zmaksymalizować swoje zyski. W konsekwencji wynik współpracy nie jest tak dobry, jak mógłby być. Dla najprostszej, obejmującej tylko dwie osoby sytuacji współpracy, odpowiednia macierz gry wygląda następująco. W oznacza lojalnego współpracującego. Z natomiast cwaniaka – zdrajcę.

Współpraca W Zdrada Z
W b-c b/2-c
Z b/2 0

Proste obliczenia wykazują, że do współpracy dojdzie, kiedy b/c>2. Rozszerzając grę na większą liczbę n uczestników otrzymamy warunek b/c>n. Ten typ współpracy, w którym ewentualne oszustwo jednego ze wspólników zmniejsza wypłatę pozostałych, jest możliwy w warunkach, kiedy współpracująca grupa nie jest zbyt liczna, a korzyści ze współpracy w stosunku do kosztów wysokie. Jednak nie jest to jedyny możliwy podział kosztów i zysków. Często spotykaną sytuacją, jest bowiem tak zwany „dylemat więźnia”, w którym zdrada wspólnika pozwala mu zgarnąć cały zysk, partnerom pozostawiając wyłącznie koszty.

Współpraca W Zdrada Z
W b-c -c
Z b 0

Jedyną racjonalną strategią, czyli tzw. równowagą Nasha, w dylemacie więźnia, jest zdrada, ponieważ zdrajca, zawsze, niezależnie od decyzji pozostałych graczy, otrzymuje wyższą nagrodę niż współpracujący. Wszyscy uczestnicy gry zatem zdradzają, otrzymując w finale zero, mimo, że gdyby współpracowali do końca, wszyscy zarobiliby o wiele więcej.

Wynikałoby z tego, że współpracy na tych warunkach nie powinno się spotykać ani w przyrodzie, ani w społeczeństwie. Jednak realnie pojawia się ona wcale często. Na rafach koralowych spotyka się np. ryby czyściciele, oczyszczające inne, znacznie większe ryby, z pasożytów. Zarówno czyszczący, jak i oczyszczany działają w warunkach dylematu więźnia. Czyszczący mógłby na zakończenie zabiegów pielęgnacyjnych wyrwać czyszczonemu kawał żywego mięsa, a ten zrewanżować się mu zwyczajnie go zjadając. W obu przypadkach zwiększyliby oni swoją wypłatę kosztem wspólnika. Z jakiegoś jednak powodu do tego nie dochodzi.

Ten powód to tzw. iteracja. Ryby czyściciele znajdują się cały czas w tym samym miejscu rafy, zatem gdyby traktowały swoich „klientów” w sposób wyżej wspomniany, „klienci” owi przestaliby w to miejsce napływać. Z kolei gdyby „klienci” zjadali czyścicieli, nie miałby kto ich wyczyścić następnym razem. Gra w dylemat więźnia nie jest więc praktycznie nigdy grą pojedynczą, ale jest iterowana, czyli jest częścią dłuższej serii. Uczestnicy gry, wiedząc, że dotrzymanie umowy teraz, pozwoli na zwiększenie wypłaty w przyszłości, a zdrada spowoduje, że wspólnik w następnej grze zrewanżuje się tym samym, powstrzymują się od zdrady. Strategia w grze iterowanej zakładająca współpracę ze współpracującym i zerwanie tejże współpracy ze zdrajcą, nazywa się strategią „Wet Za Wet” (WZW)

Zakładając, że prawdopodobieństwo ponownego zagrania w tą samą grę, np. ponownego czyszczenia ryby z pasożytów wynosi q, to wypłata za strategię WZW rośnie z wartość b-c, do sumy szeregu

(b-c)+(b-c)*q+(b-c)*q^2+…(b-c)*q^n

Jest to szereg geometryczny, którego suma, przy n dążącym do nieskończoności, wynosi (b-c)/(1-q). Gra w iterowany dylemat więźnia wygląda zatem następująco:

WZW Zdrada Z
WZW (b-c)/(1-q) -c
Z b 0

Strategia WZW będzie ewolucyjnie stabilna, wtedy, kiedy (b-c)/(1-q)>b, czyli q>1/s, gdzie s = b/c, stosunek dochodów do kosztów współpracy, czyli jej rentowność.

Przechodząc od ryb rafowych do społeczeństw ludzkich, należy zauważyć, że w przeciwieństwie do jakichkolwiek innych zamieszkujących Ziemię organizmów, ludzie używają języka i komunikują się ze sobą dzięki temu w sposób znacznie bardziej od innych gatunków efektywny. W ich przypadku, prawdopodobieństwo q, które w przypadku ludzi nazwiemy współczynnikiem zaufania, nie sprowadza się tylko do ponownego bezpośredniego spotkania z danym osobnikiem, ale także do spotkania się ze swoją stworzoną przez opowieści dotychczasowych wspólników, reputacją. Dlatego, inaczej niż to było w pierwszej, mniej ryzykownej, formie współpracy, q będzie, co prawda, również maleć wraz ze wzrostem populacji, ale będzie maleć nieproporcjonalnie wolno. W małych, rzędu kilkuset osób, społeczeństwach, gdzie wszyscy się znają osobiście, współczynnik zaufania będzie zbliżony do jedności. Dlatego też członkowie takiej społeczności współpracują zwykle ze sobą bardzo chętnie i efektywnie, natomiast w stosunku do obcych przejawiają daleko posuniętą nieufność. Takie małe społeczności – plemiona, są zatem bardzo stabilne i efektywne w budowaniu gospodarki na swoją skalę. Przez 98% swojej historii, tak właśnie ludzkość funkcjonowała.

 Jednak poziom cywilizacyjny, jaki mogą osiągnąć takie plemiona, jest ściśle ograniczony i odpowiada mniej więcej wczesnemu neolitowi. Aby zbudować coś bardziej złożonego, należałoby rozszerzyć liczbę współpracujących osobników ponad poziom plemienny. Jednak w momencie, kiedy liczebność współpracującej populacji przekracza tę plemienną granicę, współczynnik zaufania dramatycznie spada i tym samym spada też wydajność współpracy. Stworzenie bardziej złożonych organizacyjnie, technologicznie i gospodarczo społeczeństw w warunkach dylematu więźnia, nawet iterowanego, nie jest możliwe. Rozwiązaniem tego problemu może być tylko zmiana parametrów gry i tym samym, jej równowagi Nasha.

Teoretycy anarchokapitalizmu, zwanego też akapem, na przykład Hans Hermann Hoppe w swojej książce „Krótka historia człowieka”, dowodzą, że państwo, definiowane, jako zorganizowany terytorialnie monopol sądowniczy i przymus podatkowy, jest największym wrogiem cywilizacji i dobrobytu. Że władza prowadzi jedynie do zmniejszenia zamożności, wzrostu przestępczości i spętania sił wytwórczych ludzkiej cywilizacji. Że najbardziej wydajnym i sprawiedliwym ustrojem jest federacja wolnych właścicieli, zwana przez nich „wolnymi terytoriami”. Ich argumentacja ma jednak wiele luk. W przypadku Hoppego, trzeba przyznać, że docenia on, a nawet przecenia, rolę geografii, w szczególności warunków klimatyczno-glebowych w kształtowaniu ludzkich społeczeństw. Jednak już nad przyczynami zarówno rewolucji neolitycznej, jak i przemysłowej, nie zastanawia się zbytnio, zakładając, bez żadnych merytorycznych przesłanek, że po prostu ludzka inteligencja musiała osiągnąć odpowiedni poziom. Gorzej, że już nawet nie gołosłownie, ale zupełnie wbrew faktom, twierdzi Hoppe, że po powstaniu rządów demokratycznych, najgorszej według niego formy rządu, poziom wyzysku, a zwłaszcza przemocy, zarówno w stosunkach międzyludzkich, jak i międzypaństwowych osiągnął najwyższy, niespotykany wcześniej w dziejach, poziom, podczas gdy czytelnicy Pinkera, jak i niżej podpisanego wiedzą już, że w rzeczywistości było dokładnie na odwrót. Wszystkie te Hoppego błędy i przekłamania, chociaż same w sobie już unieważniające jego wywody, są jednak i tak w sumie mało istotne w porównaniu z jedną zasadniczą kwestią.

Nie potrafi bowiem, zarówno Hoppe, jak i żaden inny zwolennik akapu, wyjaśnić, dlaczego, skoro postulowane przez nich „wolne terytoria” mają być znacznie lepsze i skuteczniejsze niż państwa, na Ziemi istnieje wiele państw, a akapowych wolnych terytoriów nie ma wcale. Nawet tam, gdzie opresyjne państwo z jakichś powodów zniknęło, jak w Afganistanie, Somalii, czy Libii, żadne takie kwitnące federacje wolnych właścicieli nie powstały. Przeciwnie, kraje te stoczyły się społecznie, cywilizacyjnie i gospodarczo do poziomu prymitywnego neolitu, i permanentnych wojen międzyplemiennych, odtwarzając w każdym szczególe stan przedpaństwowy.

Widać więc, że przejście do wyższych, niż dolny neolit, form cywilizacyjnych jest ściśle skorelowane z powstaniem państw i wraz z zanikiem państwa zanikają też bardziej złożone formy społeczne. Państwa z ich pasożytniczym aparatem władzy mogą, co oczywiste, istnieć dopiero po przekroczeniu pewnego progu rozwoju cywilizacyjnego, ale i cywilizacja z jakiegoś powodu, co już bynajmniej oczywiste nie jest, nie może obyć się bez państwa.

Pierwszymi protopaństwami były zapewne zwykłe bandy rabunkowe, w polskiej tradycji zwane „drużynami”, czyli grupami „druhów”, grabiące rolników i ówczesnych działających na niewielką skalę kupców. Najbardziej wydajnej grabieży dokonywano przy tym na wczesnych „protojarmarkach”, miejscach gdzie kupcy i rolnicy spotykali się w celu dokonywania wymiany dóbr. Jednak raz, czy drugi ograbieni, w takich miejscach spotykać się przestali. Co sprytniejsi druhowie wykombinowali zatem, żeby zastąpić zwykłą jednorazową grabież, pobieranym regularnie rekietem, dającym mniejsze zyski, ale za to wpływające w sposób bardziej przewidywalny. Oczywiście dokonawszy takiej racjonalizacji grabieży, drużyna musiała teraz bronić swojego zlokalizowanego w ten sposób źródła dochodu, przed drużynami konkurencyjnymi. W końcu któryś z cwańszych hersztów drużyny, może z nudów gapiąc się na dokonujących na „jego” terenie transakcji kupców, zauważył, że niektórzy z nich oszukują swoich partnerów i że przez ten fakt on sam i jego druhowie są stratni i nie zarabiają tyle, ile by mogli. Zaczął zatem, ów pionier oszustów ścigać i karać. W ten sposób powstały podstawowe, także w sensie akapowym, funkcje państwa. Monopolizacja przemocy, pobieranie podatków i terytorialny monopol sądowniczy. Władza faktycznie wyszła, może nie wprost z lufy karabinu, ale już z ostrzy mieczy i grotów włóczni na pewno. A jak już wyszła, to zmieniła znacząco parametry gry.

Załóżmy, że państwo, działając, jako przymus podatkowy, od każdej transakcji pobiera podatek w wysokości p% zysku (b-c), natomiast oszustom, występując w roli monopolisty sądowego, wymierza karę w wysokości k% wartości oszustwa (b).

Należy w tym miejscu zaznaczyć, że zarówno wysokość podatków p, jak i kar k, jest tutaj wysokością efektywną, czyli realnie średnio egzekwowaną, a także subiektywną dla każdego uczestnika gry indywidualnie. Jeżeli np. grzywna za oszustwo wynosi w kodeksie 100 talarów, ale udaje się ją wyegzekwować tylko od 10% oszustów, to efektywna wysokość grzywny wyniesie 10 talarów, ale i te 10 talarów mają inną wartość dla bogacza, a inną dla biedaka, co musi uwzględniać tabela wypłat.

Uwzględniając ponadto rentowność transakcji w wysokości s = b/c mamy teraz:

Wet Za Wet WZW Zdrada Z
WZW (1-p)*(s-1)/(1-q) -1
Z s*(1-k) 0

Równowaga zachodzi przy współczynniku zaufania q = (1-p-s*(k-p))/((1-k)*s), czyli współpraca jest pod państwowym parasolem efektywniejsza, kiedy tylko k>p. Zwróćmy uwagę na fakt, że dla uzyskania tego efektu, nie jest potrzebna nawet jakakolwiek rekompensata dla oszukanego egzekwowana od oszusta. Wystarczy sam fakt, że poniesie on jakąkolwiek karę, o ile tylko jej wysokość będzie wyższa od wysokości średniego opodatkowania transakcji.

Wydawałoby się na pozór, że im wyższa wysokość takiej kary, najlepiej przekraczająca 100% zysku oszusta, tym lepiej. Jednak żaden wymiar sprawiedliwości nie działa idealnie, a w przypadku nieproporcjonalnie, w stosunku do przewinienia, wysokiej wartości k, fałszywe oskarżenie może wyrządzić stronom transakcji większe szkody niż oszustwo i równowaga przemieszcza się do prawej kolumny, do transakcji nie dochodzi, a gospodarka zamiera. Kraj, w którym kara za oszustwa podatkowe jest wyższa niż za morderstwo z premedytacją, nie ma przed sobą zbyt świetlanych perspektyw. Ustroje totalitarne, o zbyt wysokich karach i podatkach, jak komunizm, czy nazizm upadają i znikają w pomroce dziejów. Ignorując zatem te niestabilne totalitarne efemerydy, możemy wyodrębnić cztery bardziej długowieczne typy państw:

– feudalne, mające niskie p i niskie k (p i k efektywne. Kary kodeksowe mogą być nawet w naszym rozumieniu srogie, z wbijaniem na pal i łamaniem kołem włącznie, ale w społeczeństwie nisko ceniącym życie nie są, jako specjalnie surowe odbierane, a sprawność w ich sprawiedliwym egzekwowaniu jest bardzo niska). Innych, niż feudalne, państw nie było aż do rewolucji przemysłowej. Potem jednak pojawiły się państwa:

– konserwatywno – liberalne z niskim p i wysokim k

socjalistyczne z wysokim p i niskim k

– opiekuńcze z wysokim p i wysokim k

Jak wygląda współczynnik zaufania dla poszczególnych ustrojów przedstawimy na wykresie:

 Akap 01

Za miarę efektywności danego ustroju można uznać pole, nazwijmy je polem zaufania, zawarte pomiędzy ilustrującą go krzywą a linią poziomą 100%. W polu zaufania zachodzi współpraca pomiędzy podmiotami gospodarczymi i tym samym następuje produkcja dobrobytu i zwiększenie poziomu cywilizacyjnego. Gołym okiem widać, że akap jest jednak od państwa mniej wydajny. Oczywiście nie od jakiegokolwiek państwa. Najgorzej pod tym względem wypada państwo socjalistyczne, drogie i niesprawne, o p>k. W dłuższej perspektywie czasowej kraje takie, o ile nie będą finansowane z zewnątrz, skazane są na rozpad i regres do stanu anarchicznego, co widzieliśmy w Libii a teraz obserwujemy w Wenezueli. Jednak już na drugim miejscu jest anarchokapitalizm, który przegrywa nawet z feudalizmem generującym już wyższy od akapowego poziom zamożności. Od feudalizmu z kolei lepszy jest sprawniej egzekwujący prawo, ale opłacający to wysokimi podatkami, system państwa opiekuńczego. Najlepszy zaś, najbardziej efektywny ustrój, to ten, który łączy niskie podatki z wysoką sprawnością – konserwatywny liberalizm. Warto zauważyć, że, znów wbrew akapowcom, sprawność państwa (k) jest nawet ważniejsza niż poziom opodatkowania (p) i warto, jeżeli pojawia się taka alternatywa, poświęcić p na rzecz k. W rzeczywistości bowiem, inaczej niż w naszym wyidealizowanym modelu, sprawność państwa (k) w jakiejś mierze zależy jednak od wysokości zbieranych podatków, ale jest to zależność bardzo silnie nieliniowa, zatem równowaga rzeczywista leży znacznie bliżej modelu liberalnego, niż opiekuńczego i do tego pierwszego właśnie należy dążyć.

Na poniższym wykresie autor spróbował odwzorować współczesne (w roku 2017) państwa według powyższego kryterium, czyli w zależności od wysokości opodatkowania, pod czym rozumie się tu wszelkie przymusowe obciążenie na rzecz państwa, oraz efektywnej wysokości kar nakładanych na oszustów. Wysokości opodatkowania jest średnią z „Tax burden”, „Goverment spending” i „Fiscal health” – składowych wskaźnika Index of Economic Freedom fundacji Heritage na 2017 rok, natomiast sprawność w egzekwowaniu kar to średnia z „Property Rights”, „Goverment Integrity”, oraz „Judical Efectiveness” tegoż wskaźnika.

 Akap 02

Chociaż skala, którą tu przyjęto jest bardzo zgrubna i relatywna, zatem nie da się na wykresie narysować wyraźnych linii oddzielających poszczególne rodzaje państw, a jedynie oszacować, który z nich jest „bardziej” socjalistyczny, czy liberalny to jednak wynik dość dobrze odzwierciedla teorię. W prawym dolnym rogu mamy samotną Koreę płn – jako modelowy kraj socjalistyczny. Lewy góry róg, skrajny liberalizm, okupują Hong Kong i Singapur. Państwami najbardziej opiekuńczymi są Japonia, Francja i Finlandia, a skrajnie feudalnymi, czyli szczerze pisząc, dziadowskimi krajami okazują się Turkmenistan i Afganistan. Czerwona połamana linia przypominająca graficzny obraz ruchów Browna, to zmiana położenia na tym diagramie Polski w XXI wieku. Już samo obecne położenie naszego kraju, w gronie państw raczej liberalnych może niektórych szokować, ale dojście do obecnej pozycji też nie było zwyczajne, co obrazują drastyczne zwroty w latach 2002, 2005, 2007 i 2016. Wbrew temu co mogłoby się wydawać, polityka poszczególnych polskich rządów w tym czasie, nie tylko różniła się drastycznie między sobą, ale i zwykle różniła się od tego, co te rządy deklarowały. SLD (2001-2005) obiecywało państwo opiekuńcze a szło w kierunku socjalizmu, PIS z kolei (2005-2007, oraz od 2015) obiecywał socjalizm, a prowadził i prowadzi Polskę w stronę dziadostwa. Jedynie PO obiecując liberalizm, z grubsza tą obietnicę spełniło. W roku 2012 Polska znalazła się praktycznie w tym samym miejscu co w roku 2002, co wskazuje, że cała ta dekada, jeżeli chodzi o kwestie ustrojowe, została praktycznie zmarnowana. Pięć lat SLD i PIS nasz kraj rujnowało, a kolejne pięć zajęła PO odbudowa do stanu poprzedniego. Ponieważ, jak wskazuje strzałka pokazująca obecną, niebieską pozycję Polski w roku 2017, PIS kontynuuje swoją politykę z lat 2005-2007, niczego dobrego się w przyszłości spodziewać nie można.

Wykazaliśmy niniejszym, że akap nie jest w stanie budować złożoności i zamożności, nawet w porównaniu z ustrojami dziadowskimi i jedynie socjalizm pozostaje za nim. Czy zatem akap jest całkowicie nieperspektywiczny i musi wylądować na śmietniku historii? Tego jednak na pewno powiedzieć nie można. Wszak granice „wolnych terytoriów”, w których mogą one sprawnie funkcjonować, są określone przez wysokość wskaźnika zaufania q i zdolności ludzi do ogarnięcia informacji, na bazie których q jest ustalane. Wolne terytoria mogłyby osiągnąć teoretycznie znacznie większe, docelowo obejmując całą Ziemię, rozmiary, wtedy, kiedy q byłoby odpowiednio wysokie. Kiedy spotykając się z dowolnym, nawet uprzednio w ogóle sobie nie znanym, osobnikiem, będzie można bez trudu obiektywnie ustalić i łatwo zaktualizować jego reputację. Zbliżony do postulowanego system funkcjonuje już obecnie, w postaci np. gwiazdek na allegro, czy stron internetowych z opiniami o różnych firmach, ale jest on jeszcze bardzo niepełny, zawodny i podatny na fałszerstwa i manipulacje.

Może się to jednak zmienić w przyszłości i kiedy sztuczna inteligencja umożliwi nam bezzwłoczną, miarodajną i obiektywną ocenę, oraz możliwość bieżącej modyfikacji wiarygodności każdego człowieka na Ziemi, państwo, w sensie zorganizowanego aparatu przemocy, stanie się zbędne. Może się siłą inercji i przyzwyczajenia utrzymywać jeszcze jakiś czas, ale w końcu zniknie, a akap stanie się rzeczywistością.

Czytaj także:

0 – Wstęp

1 – Myśliwi i króliki

2 – Dzieci lasu i dzieci lodu

3 – Hii venantur monstra maris et opes aequoreas

4 – W znojnym trudzie skarby ziemi wydzierając

5 – Na skrzydłach kapitału

6 – Rozkosze dobrobytu

7 – Kształt rzeczy przyszłych

8 – 1050 lat historii pod flagą biało-czerwoną

9 – Kres wszystkich rzeczy?

10 – Koniec kryminału

11 – Miecze na lemiesze

12 – Gry wojenne 1939

13 – O państwie i mizerii akapu

Tylko o psychohistorii (12) Gry wojenne 1939

W poprzednich rozdziałach omówiliśmy teoretyczne podstawy rozgrywania przeróżnych konfliktów, także wojennych w ramach teorii gier. Były to rozważania jednak bardzo teoretyczne. Przejdziemy zatem teraz od teorii do praktyki i zastosujemy nasze modele do pewnej konkretnej historycznej, ale wciąż w Polsce pamiętanej, by nie rzec rozpamiętywanej sytuacji, mianowicie wojny 1939 roku.

Hitler doszedł do władzy pod hasłami uczynienia Niemiec znowu wielkimi, podniesienia kraju z kolan i prowadzenia polityki godnościowej. W ówczesnych czasach rozumiano pod tymi pojęciami również, a nawet przede wszystkim rozbudowę armii. O ile jednak dzisiaj toczą się przewlekłe dyskusje, czy na wojsko wydawać 1,5, 2, czy może nawet 2,5% PKB i jak takie wydatki wpłyną na gospodarkę, naziści nie byli takimi liczykrupami. Wydatki zbrojeniowe sięgnęły w III Rzeszy aż 25% PKB. Stalin w ZSRR wydawał w tym celu podobne kwoty. Taki wysiłek zbrojeniowy jest oczywiście na dłuższą metę zabójczy dla każdej gospodarki, tym bardziej niewydajnej gospodarki socjalistycznej, cechującej zarówno ZSRR, jak i w mniejszym stopniu III Rzeszę. Oba te kraje czekał więc w dłuższej perspektywie czasowej nieuchronny koniec. Ale właśnie na dłuższą metę i w dłuższej perspektywie. Na metę krótszą, taka polityka zastraszania i wymuszania (strefa II) przyniosła nazistom oszałamiające pasmo sukcesów. Zniesiono wszystkie ograniczenia polityczne narzucone Niemcom przez traktat wersalski, przyłączono pokojowo, przy szalonej aprobacie tamtejszej ludności Saarę, Austrię, Sudety i Kłajpedę. Gdyby w nowy rok 1939 Hitler zmarł na zawał, przeszedłby do historii jako jeden z najwybitniejszych przywódców Niemiec, bo gospodarcze konsekwencje jego polityki obarczyłyby jego następców, a zjednoczone, powiększone i pozbawione narzuconych w Wersalu ograniczeń, Niemcy by zostały. Ale Hitler, na nieszczęście Niemiec i na szczęście ich wrogów, nie umarł. Kolejnym adresatem niemieckich roszczeń stała się teraz Polska.

Kierujący polską polityką zagraniczną minister Beck, wiedząc, że Polska nie ma szans na stawienie oporu niemieckiej ekspansji samotnie, do tej pory umiejętnie zwodził Hitlera udając przyjaźń i zawierając nawet z Niemcami traktat w 1934 roku. Od wszelkich dalej idących deklaracji, nie mówiąc już o realnych działaniach na rzecz dalszego zbliżenia obu krajów, starannie się jednak Beck wykręcał. W międzyczasie Polska starała się, w miarę swoich sił, a wbrew werbalnym deklaracjom, zmniejszyć zależność od Niemiec, a wzmocnić za to więzi z Zachodem i skłonić go do zainteresowania się kwestiami Europy środkowej. Nieprzypadkowo w latach 1929-1938 udział Niemiec w polskim eksporcie spadł z 31,2% do 14,5%, a w imporcie z 27,3% do 14,5%. Proporcjonalnie wzrosła za to pozycja Wlk Brytanii, która stała się czołowym zagranicznym odbiorcą polskich towarów. Tak zachęcona ekonomicznie i zaniepokojona zajęciem przez Niemcy reszty Czech w marcu 1939 roku, co było złamaniem dopiero co podpisanych układów w Monachium, Wlk Brytania udzieliła Polsce sławetnych gwarancji. Gwarancje te w dzisiejszej publicystyce są bez litości wyszydzane, a nawet uważane za przyczynę klęski Polski w wojnie 1939 roku. Dzieje się tak dlatego, że w przeciwieństwie do krajów anglosaskich, polska historiografia pozostaje domeną humanistów, wśród których jakiekolwiek liczby i wzory, także te związane z teorią gier, wywołują uczucie strachu i obrzydzenia. Na szczęście dla Polski, Beck jednak rozumował w sposób ścisły, a nie emocjonalny, sięgając kalkulacją dalej niż jego dzisiejsi domorośli krytycy. Wiedział, że Polska jest gospodarczo i demograficznie, a co za tym idzie, także militarnie, znacznie słabsza od Niemiec. I że w związku z tym konflikt między tymi państwami, konflikt wpisany w same podstawy traktatu wersalskiego i w związku z tym niemożliwy do uniknięcia, będzie musiał zakończyć się, w ten czy inny sposób, sukcesem Niemiec. Jednak po tym, jak udało się w tą grę uwikłać mocarstwa Zachodu, warunki zmieniły się zasadniczo. Konflikt ze strefy II – wymuszania, przemieścił się w dół w stronę strefy III – legalistycznej.

Po przyjęciu brytyjskich gwarancji i odrzuceniu niemieckich pretensji sytuacja wyglądała bowiem następująco. Niemcy nadal mogły rozpocząć wojnę z Polską i być może nawet Polskę zająć i podbić, niczym Serbię w 1915 roku. Ale wojna taka, inaczej niż przed 1939 rokiem, nie mogła już być zlokalizowana. Stawała się automatycznie wojną z Francją, Wlk Brytanią i perspektywicznie również z USA. W latach 1917-1918, Niemcy zostały przez tą koalicję powalone, zatem zważając również na fakt, ze Niemcy w 1939 były słabsze, a koalicja owa silniejsza niż w roku 1918, można było oczekiwać, że historia się powtórzy. Dodatkowo dochodziła kwestia Stalina. Jeżeli polska obrona, rozumował Beck, wytrzyma niemiecki atak do czasu ofensywy alianckiej na Zachodzie, Stalin pozostanie neutralny. Jeżeli obrona ta się wcześniej załamie, jak to się w rzeczywistości stało, Stalin bez wątpienia zajmie wschodnie tereny Polski i wojska radzieckie staną oko w oko z hitlerowskimi. Nawet jeżeli te potęgi nie rzucą się od razu na siebie, i zostanie zawarte pomiędzy nimi jakieś porozumienie, to zawsze będzie ono nieszczere i tymczasowe i sama groźba stalinowskiego ataku, będzie wiązać na wschodzie znaczące siły niemieckie. Z tego punktu widzenia widać, że znaczenie paktu Ribbentropp – Mołotow jest stanowczo przeceniane. Działania Stalina byłyby mniej więcej takie same, niezależnie od podpisania jakichkolwiek porozumień z Niemcami, gdyby tylko Niemcy na Polskę napadły. Nawet po rozbiciu polskich wojsk i okupacji polskiego terytorium, Niemcy wojny toczonej równocześnie z Francją i Wlk Brytanią, a potem także z USA i ZSRR wygrać nie mogą. Prawdopodobieństwo niemieckiego zwycięstwa w takiej wojnie nie jest większe niż, powiedzmy, 5%

Niemcy mają zatem do wyboru dwie strategie. Albo zaatakować Polskę (strategia A) i wywołać tym samym wojnę światową i ją przegrać z prawdopodobieństwem 95%, albo wycofać swe roszczenia wobec Polski (strategia U) i doświadczyć potężnego kryzysu ekonomicznego wywołanego przez dotychczasowe koszty zbrojeń i inne socjalistyczne ekstrawagancje nazistowskich rządów.

Jeżeli zaś Polska ugnie się przed Niemcami (strategia U), to po oddaniu najbardziej rozwiniętych gospodarczo swoich terenów na Śląsku i Pomorzu, oraz utracie dostępu do morza, stanie się niemieckim wasalem. Ponieważ jednak Niemcy po zwasalizowaniu Polski, nadal będą kontynuować agresywną politykę ekspansji, to do tej wojny światowej i tak dojdzie, Niemcy wciągną w nią Polskę, wojnę tę przegrają, a Polska przegra ją wraz z nimi i zostanie małym kraikiem wielkości nieco powiększonego Księstwa Warszawskiego, który będzie miał szczęście, jeżeli nie zostanie włączony bezpośrednio do ZSRR.

A co będzie, jeżeli Polska przyjmie strategię A? Przed brytyjskimi gwarancjami zostałaby bez wątpienia najechana, podbita i podzielona pomiędzy III Rzeszę i ZSRR, a po przegranej przez Niemcy wojnie światowej, zapewne w całości wcielona do ZSRR. Ale przyjmując brytyjskie gwarancję Polska zmieniła macierz gry.

Aby w pełni to docenić, przypiszmy teraz poszczególnym wypłatom konkretne wartości liczbowe. Najpierw Niemcy. Dla ich zwycięstwa w II wojnie światowej przyjmijmy +100 jednostek (z prawdopodobieństwem 5%), dla klęski z prawdopodobieństwem 95% -100. W wypadku, gdyby Polska przyjęła niemieckie żądania, Niemcy zaś osiągają korzyść +10. Gdyby Niemcy ustąpiły to doświadczyłyby kryzysu o wartości -10, ale zachowałyby większość dotychczasowych hitlerowskich rewindykacji, być może poza Protektoratem Czech i Moraw. Gdyby zaś ustąpiła wtedy także Polska, godząc się na jakieś wzajemne ustępstwa (np. ułatwienia w tranzycie przez Pomorze), Niemcy dodatkowo zyskują +5

Polska Polska
Agresor A Ustępujący U
Niemcy A 5%*100-95%*100 = -90 +10
Niemcy U -10 -10+5 = -5

Polska zaś, jeżeli stawi opór Niemcom, to w przypadku wojny przynajmniej broni swoją pozycję, tracąc na wschodzie na rzecz Stalina, a zyskując na zachodzie kosztem Niemiec, czyli, z uwzględnieniem strat wojennych, otrzymuje -5. Oczywiście, zawsze jest ryzyko, że Niemcy wojnę wygrają i wtedy Polski nie będzie już w ogóle (-100). Jeżeli zaś Niemcy nie zaatakują, i doznają kryzysu, Polska nie tylko bezpiecznie może przyłączyć Gdańsk, ale i wyrasta na głównego gracza w Europie środkowej otrzymując korzyść +10. Natomiast ustępstwa prowadzą do przegrania wojny u boku Niemiec (-50), lub w mało prawdopodobnym przypadku ich zwycięstwa pozostanie niewiele znaczącym składnikiem Mitteleuropy (-10). W żadne większe polskie nabytki kosztem ZSRR w wypadku niemieckiego zwycięstwa Beck, mając w pamięci analogiczną politykę Niemiec na Wschodzie w czasie I wojny, słusznie nie wierzył. W sytuacji wzajemnych ustępstw, Polska zaś wychodzi na zero

Niemcy Niemcy
Agresor A Ustępujący U
Polska A = -5*95%-100*5% = -9,75 +10
Polska U -10*5%-50*95% = -48 0

Jak widać z powyższych tabel, Niemcom opłaca się strategia agresywna tylko w tym przypadku, kiedy będą pewni, że Polska ustąpi. W przypadku przeciwnym, to Niemcy powinni ustąpić i wybrać kryzys. Polska zaś, niezależnie od stanowiska Niemiec, powinna być agresywna. Wciągając Wlk Brytanię w sprawy Europy środkowej, Polska zdeterminowała zatem grę. Ponieważ wiadomo było, że Polska zawsze przyjmie strategię A, Niemcy nie mając innego racjonalnego wyboru, powinny przyjąć strategię U. Tym samym gra została, jak to się określa, zdominowana przez jedną strategię (Polska A, Niemcy U). Jedynym zmartwieniem polskiego rządu było nie danie Niemcom najmniejszych nadziei, że Polska może jednak ustąpić. Stąd twarda mowa Becka o honorze, stąd, z dzisiejszego punktu widzenia, histeryczne i tromtadrackie tony ówczesnej propagandy „Nie oddamy nawet guzika”, etc.. Jednocześnie Polska nadymając się, jeżąc, strasząc i robiąc groźne miny, nie zwiększała wcale swojego tempa zbrojeń i jej wydatki militarne pozostawały na skromnym, w porównaniu z niemieckim, czy radzieckim, poziomie 5% PKB, najwyższym możliwym nie wywołującym jeszcze negatywnych perturbacji w gospodarce. Dla polskiego rządu jasne bowiem było, że nawet zazbrojenie znacznie biedniejszego od Niemiec kraju na śmierć, nie pozwoli wygrać z nimi wojny jeden na jednego, natomiast, skoro zrujnowane przez koszty zbrojeń Niemcy powinny, tak czy owak, ustąpić, to absolutnie nie należało przy tej okazji rujnować również polskiej gospodarki. Cała polska przedwrześniowa polityka była zatem spójna, logiczna, na zimno skalkulowana, ze stalową konsekwencją wdrażana i na wskroś racjonalna.

Jak wiadomo jednak z historii, Niemcy dokonały w końcu wyboru nieracjonalnego. Dlaczego?

Beck bowiem, popełnił jednak błąd, a nawet dwa błędy. Pierwszym z nich było oczywiste dla nas dzisiaj niedoszacowanie strat wojennych Polski. Niemiecką okupację Polski wyobrażali sobie bowiem ówcześni rządzący jako swoiste powtórzenie tejże okupacji z I wojny światowej. Jako rzecz może i uciążliwą i kosztowną, naznaczoną rabunkami i rekwizycjami, ale do zniesienia. Dosłowne zrównanie kraju z ziemią i wymordowanie kilkunastu procent jego mieszkańców, przechodziło ich pojęcie. Na ich usprawiedliwienie można jednak zauważyć, że ogromu przyszłych niemieckich zbrodni nie przewidywali wtedy nie tylko oni, ale i sami naziści. Jednak nawet powiększenie strat Polski z -5 do poziomu -15, nie zmienia w niczym przebiegu gry.

Istotny był drugi błąd Becka. Przyjmując strategię legalisty, założył, że skoro on sam, Józef Beck, reprezentuje Polskę, to symetrycznie Hitler reprezentuje Niemcy. Jak już jednak autor wspomniał, tak nie było. O ile sanacja doszła w Polsce do władzy drogą zamachu stanu, to jednak później swoje rządy jako tako, poprzez zmanipulowane, ale jednak nie sfałszowane, wybory zalegalizowała. Naziści zaś na odwrót. Władzę zdobyli legalnie, a dyktaturą stali się później. I jak zwykle w takich sytuacjach, główną, choć być może jeszcze w pełni nie uświadomioną, troską nazistów stało się nie dobro kraju, ale utrzymanie się przy władzy. Jasne było, że jeżeli Niemcy ustąpią, do wojny nie dojdzie, a zrujnowana zbrojeniami i przeróżnymi socjalistycznymi projektami gospodarka, już zapewne w przyszłym, 1940 roku się zawali. Rządy Hitlera zostaną obalone, a on sam i jego kameraden pociągnięci do odpowiedzialności karnej. Wznowione zostanie dochodzenie w sprawie podpalenia Reichstagu, zbadana przez niezależnych medyków przyczyna śmierci prezydenta Hindenburga, przed niezawisłym sądem staną sprawcy nocy długich noży.

Grę toczył zatem Beck w imieniu Polski nie z Niemcami, ale z Hitlerem. A interesy Niemiec i Hitlera były w tym przypadku rozbieżne. W przypadku przyjęcia strategii ustępującej, Niemcy traciły, jak już wspomniano, w wyniku kryzysu, -10, ale Hitler tracił znacznie więcej, całe swoje życie i dotychczasową karierę, oraz to, na czym mu najbardziej zależało, czyli miejsce w niemieckiej historii. Miejsce największego w niej bohatera. Heroicznego, a jeżeli się nie da, to przynajmniej tragicznego. Dla Hitlera macierz gry wyglądała zatem tak

Polska Polska
Agresor A Ustępujący U
Hitler A 5%*100-95%*100 = -90 +10
Hitler U -100 -100+5 = -95

Inaczej niż same Niemcy, które w grze powinny ustąpić, Hitler w żadnym wypadku ustępować nie powinien. Z jego strony gra również była zdominowana, ale przez strategię (Hitler A, Polska A) W interesie Hitlera było jak najbrutalniej naciskać na Polskę, licząc na to, że Polska ustąpi, a jeżeli nie ustąpi, wywołać wojnę, którą prawie na pewno nie można wygrać (5%), żeby uniknąć pokoju, którego wygrać nie można na pewno (0%). Warto w tym miejscu zauważyć, że powyższa macierz wyglądałaby nieco inaczej, gdyby Hitler był człowiekiem normalnej orientacji, miał rodzinę, dzieci i wnuki. Wówczas klęska i katastrofa Niemiec, wraz ze skazaniem swojego potomstwa na życie w pozostałych po klęsce ruinach, byłyby dla niego bardziej dotkliwe niż klęska i katastrofa osobista. I do wojny zapewne by w końcu nie doszło.

Trzeba w tym miejscu przypomnieć, że przed przyjęciem brytyjskich gwarancji Hitler mógł liczyć na sukces, bo wtedy gra była zdominowana przez strategię (Niemcy/Hitler A, Polska U), ale po tych gwarancjach interesy Niemiec i Hitlera drastycznie się rozjechały. Trudno mieć jednak pretensje do Becka że sobie tego nie uświadomił, skoro nikt inny, w tym zapewne i najbardziej zainteresowany Hitler, nie uświadomił sobie tego również, chociaż wnosząc ze zmiany tonu jego polityki wobec Polski z protekcjonalno – życzliwego przed kwietniem 1939, na histeryczny i brutalny po nim, coś musiał jednak przeczuwać.

Modne jest dzisiaj jojczenie, jak to II wojna światowa straszliwie obeszła się z naszym krajem, jak to wielką klęskę Polska w niej poniosła i tym podobne biadolenia. Głosy te dochodzą ze środowisk, które chciałyby, z mocą wsteczną, odrzucić brytyjskie gwarancje, a przyjąć propozycje Hitlera. To, że gdyby ich postulaty były spełnione, dzisiejsza Polska byłaby mniej więcej o połowę mniejsza, jej znaczenie byłoby porównywalne ze znaczeniem Węgier, od zachodu sąsiadowałaby ze znacznie większymi Niemcami, a obwód kaliningradzki zaczynałby się już za Mławą, wcale im nie przeszkadza. Straszliwie ograniczone i ciasne horyzonty czasoprzestrzenne nie pozwalają im też na dostrzeżenie, że sytuacji Polski nie można rozpatrywać wyłącznie w kontekście II wojny światowej, ale trzeba spojrzeć na cały ten będący odchyleniem od legalistycznej normy okres 1914-1945, a nawet 1914-1989. W 1914 Polski nie było wcale. Jeżeli to pojęcie się w ogóle w polityce pojawiało, to tylko, jako wewnętrzna sprawa Rosji. Po 1989 roku Polska zaś jest stabilnym krajem zakotwiczonym w zachodnich strukturach gospodarczych i wojskowych. Nigdy by do tego nie doszło, gdyby nie owo drastyczna i nieprzewidywalna fluktuacja w ogólnym trendzie społeczno-cywilizacyjnym i opóźnienie nadejścia zdeterminowanego przez teorię gier Długiego Pokoju o 30 (lub 75 jeżeli liczyć do roku 1989) lat.

Czytaj także:

Pomnik Becka cz I

Pomnik Becka cz II

Czytaj także:

0 – Wstęp

1 – Myśliwi i króliki

2 – Dzieci lasu i dzieci lodu

3 – Hii venantur monstra maris et opes aequoreas

4 – W znojnym trudzie skarby ziemi wydzierając

5 – Na skrzydłach kapitału

6 – Rozkosze dobrobytu

7 – Kształt rzeczy przyszłych

8 – 1050 lat historii pod flagą biało-czerwoną

9 – Kres wszystkich rzeczy?

10 – Koniec kryminału

11 – Miecze na lemiesze

12 – Gry wojenne 1939

13 – O państwie i mizerii akapu

Tylko o psychohistorii (11) Miecze na lemiesze przekuwając

W poprzednim rozdziale omówiliśmy przemoc indywidualną – przestępczość. Posługując się teorią gier odkryliśmy, że w konfliktach międzyludzkich istnieją trzy możliwe strategie postępowania. Strategia agresora (A), strategia ustępującego (U) i strategia legalisty (L). O tym, która z nich okaże się ewolucyjnie stabilna i zdominuje populację, decydują dwa parametry. Stosunek sił skonfliktowanych osobników x, oraz stosunek potencjalnych strat w wyniku przegrania konfliktu W do potencjalnych zysków V, K=W/V. Prawdopodobieństwo, że do przemocy dojdzie, maleje wraz ze wzrostem dysproporcji sił adwersarzy, oraz wraz ze spadkiem opłacalności K. Im bogatsi są uczestnicy konfliktu tym mniejsze szanse na to, że zostanie on rozstrzygnięty przemocą, a większe na załatwienie sporu na drodze prawnej. I faktycznie, zgodnie z danymi zebranymi i przedstawionymi przez Stevena Pinkera w jego fundamentalnej pracy „Zmierzch przemocy”, a wbrew niezwykle popularnym mądrościom ludowym, poziom przestępczości w miarę wzrostu komplikacji społeczeństw, maleje systematycznie aż do dnia dzisiejszego.

Wszystko co do tej pory na temat konfliktów między jednostkami napisano, odnosi się również do konfliktów wyższego rzędu – między grupami i koalicjami, w tym także państwami i zamieszkującymi je narodami. I tu, w zależności od stosunku sił i potencjalnych korzyści i kosztów istnieje strefa wojny, strefa wymuszania i strefa legalizmu. Dopóki państwa pozostawały na niskim poziomie technologicznym i cywilizacyjnym, dopóty zyski z wojen przewyższały średnio ich koszty, układ znajdował się blisko lewego skraju naszego wykresu i wojny toczono praktycznie bez przerwy. Jedynie pojawienie się jakiegoś wyjątkowo potężnego imperium, przytłaczającego swoją siłą wszystkich potencjalnych rywali, przesuwało punkt równowagi w górę w strefę wymuszania i wojny chwilowo ustawały, aby wybuchnąć jednak znowu, kiedy siły adwersarzy stawały się bardziej zrównoważone. Imperium romanum zdołało zapewnić Pax Romana na kilkaset lat, ale po jego upadku stan permanentnej wojny powrócił.

Tak było aż do końca XVIII wieku. Jednak około roku 1800 rozpoczęło się swoiste przejście fazowe. Ludzkie społeczeństwa, przed tą datą bez wyjątku tkwiące w tzw. „pułapce maltuzjańskiej,, stopniowo zaczęły wchodzić w etap zwany niezbyt ściśle „rewolucją przemysłową”. W przeciwieństwie do ery maltuzjańskiej, w której poziom przeciętnego dobrobytu nie zmieniał się praktycznie wcale, a każdy wzrost wydajności gospodarki prowadził długofalowo wyłącznie do proporcjonalnego wzrostu liczby ludności, w czasach industrialnych, wykładniczo rosły zarówno gospodarka (PKB), jak i średni dobrobyt (PKB per capita). Rósł też zatem poziom komplikacji społeczeństw, gospodarki i technologii, także oczywiście zbrojeniowej. Rewolucja przemysłowa z jednej zatem strony zwiększała koszty przegranej wojny (współczynnik W), z drugiej zaś zmniejszała potencjalne zyski z wojny wygranej (współczynnik V). Materialny łup, które armie mogły zagarnąć w wojnach maltuzjańskich, stanowił znacząca część ówczesnego PKB. Wojny industrialne odwróciły te proporcje. Coraz większy stopień złożoności gospodarki sprawił, że bogactwo wroga nadal można było co prawda zniszczyć, ale coraz trudniej było je przejąć. Rosnący poziom globalizacji i skala handlu światowego powodowały, że straty wojenne w jednym kraju przenosiły się na wszystkie pozostałe. Same wydatki zbrojeniowe, w erze maltuzjańskiej, praktycznie obojętne dla społeczeństwa, zaczęły poważnie obciążać gospodarkę, niezależnie od tego, czy do jakiejkolwiek wojny w ogóle doszło. W końcu okazało się, że zamiast podbijać i rabować jakieś zasoby, taniej jest po prostu je kupować. W rezultacie, po zakończeniu wojen napoleońskich, częstotliwość konfliktów zbrojnych pomiędzy najbardziej rozwiniętymi państwami XIX wiecznego świata znacznie zmalała. W stosunkach międzynarodowych, tak samo jak i na poziomie indywidualnym, zaczęła wygrywać strategia legalizmu. Nieprzypadkowo właśnie w tym okresie pojawiły się takie instytucje jak Czerwony Krzyż, czy trybunał haski, podpisano też pierwsze konwencje międzynarodowe. Rosnące koszty potencjalnego konfliktu i coraz większa iluzoryczność zysków z niego, nie umknęła uwagi ówczesnych myślicieli. W latach 1893-1898 ukazała się przełomowa pod tym względem praca „Przyszła wojna” autorstwa naszego rodaka Jana Blocha. Autor, skrupulatnie i precyzyjnie, wykorzystując dostępne ówcześnie dane ekonomiczne i naukowe, dowodził, że koszty ludzkie i materialne ewentualnej wojny miedzy największymi ówczesnymi mocarstwami, zgrupowanymi już wtedy w bloki Trójprzymierza – przyszłych państw centralnych i Trójporozumienia – przyszłej Ententy, będą tak olbrzymie, że odniesienie zwycięstwa przez którąkolwiek ze stron będzie zwyczajnie niemożliwe i wojna, pochłonąwszy wszystkie zasoby walczących krajów, skończy się w końcu rebelią wycieńczonych wojsk i głodującej ludności cywilnej, czego nie omieszkają wykorzystać socjalistyczni agitatorzy skutecznie nawołując do rewolucji. Wobec takich niewesołych perspektyw, uważał Bloch, wojna, zwłaszcza wojna między najbardziej ówcześnie rozwiniętymi krajami, stała się zwyczajnie niemożliwa, a wszelkie spory powinny rozstrzygać one na drodze legalistycznej.

Jak na książkę składającą się w znacznej mierze ze wzorów, tabel i wykresów, oraz głoszącą poglądy sprzeczne z ówcześnie powszechnie wyznawanymi, praca Blocha miała bardzo duży oddźwięk, została przetłumaczona na wiele języków, a jej autor zgłoszony do świeżo wówczas ustanowionej nagrody Nobla, którą bez wątpienia by otrzymał, gdyby nie jego przedwczesna śmierć w 1902 roku.

A potem nadszedł rok 1914 i owa, wykluczona przez Blocha i teorię gier, wielka, niszczycielska wojna bez zwycięstwa jednak wybuchła. A po krótkiej przerwie, kolejna, jeszcze bardziej krwawa, pod koniec której skonstruowano i zastosowano bojowo broń o mocy znacznie potężniejszej, niż Bloch byłby w stanie sobie w ogóle wyobrazić. Do  połowy XX wieku tezy Blocha zostały najpierw wyśmiane, a potem zapomniane, w zamian zapanowało przekonanie, że lada moment wybuchnie kolejna wielka wojna, po której już naprawdę nie będzie na Ziemi czego zbierać.

Opinię tę podzielali nie tylko ludzie kultury, jak Nevil Shute, autor pamiętnego „Ostatniego brzegu”, ale także poważni naukowcy, Albert Einstein, czy Richard Feynmann. Powszechna wiara w nieuchronność III wojny światowej i zniszczenie ludzkiej cywilizacji, a nawet samego gatunku Homo sapiens, utrzymywała się dość długo, jeszcze w roku 1983 pokazujący ją film „Nazajutrz” był traktowany jako właściwie paradokument.

Do zagłady jednak nie doszło. Więcej, jak udowadnia Steven Pinker, lata które nastąpiły po II wojnie światowej były najbardziej pokojowe w historii, wojny międzypaństwowe praktycznie zanikły, wojny domowe zaś zmalały do najniższego w historii poziomu. Światowy pokój faktycznie nastąpił.

W świetle teorii gier, ten „Długi Pokój”, jak go nazywa Pinker, nie wymaga żadnego szczególnego wyjaśnienia. Gigantyczny wzrost parametru K=W/V doprowadził do sytuacji, w której z wojny nie ma żadnych korzyści, a poziom potencjalnych strat zagraża wręcz biologicznemu przetrwaniu gatunku. To właśnie anomalia z lat 1914-1945 (lub 1989 kiedy znikły ostatnie relikty tego okresu) wymaga osobnego wytłumaczenia. Dlaczego, wbrew prognozom Blocha i wbrew racjonalnym przewidywaniom, do tak drastycznie krwawej odchyłki od normy w latach 1914-1945 (1989) doszło.

Podobnie jak to było w przypadku przemocy indywidualnej, można odwołać się do niepełnej informacji o parametrach gry. Decydenci puszczający w ruch armie, niekoniecznie musieli mieć dokładną wiedzę o siłach i możliwościach własnych, sojuszników i przeciwników. Mogli nie doszacować strat i przecenić potencjalne zyski i tym samym ulec złudzeniu, że K nie jest tak wysokie, jak rzeczywiście było. W ten sposób, owszem, można wyjaśnić rok 1914, ale metoda ta zawodzi w roku 1939. Tutaj musimy wprowadzić dodatkowy element.

W przypadku przemocy indywidualnej, decyzję o przyjęciu odpowiedniej strategii podejmuje ten sam osobnik, który ją później realizuje, i ponosi jej wszelkie konsekwencje, inkasując zyski i doznając strat. Kiedy jednak mamy do czynienia z koalicją osobników, niezależnie od jej rangi, dochodzi dodatkowy stopień swobody. Przywództwo, czyli w przypadku państw – rządy. A rząd ma swoje własne interesy, które niekończenie muszą być do końca zbieżne z interesem rządzonej społeczności. Dopóki rząd jest prawowity, legalny, a takie były wszystkie rządy krajów rozpoczynających I wojnę światową, dopóty to rozróżnienie jest właściwie akademickie. Nie było jednak tak w przypadku II wojny światowej. Tę wojnę wywołały dwa reżimy, których nikt prawowitymi rządami by nazwać nie mógł. Władza nielegalna zaś, główny swój wysiłek kieruje nie w stronę zapewnienia realizacji interesów rządzonego przez siebie kraju i narodu, tylko uniknięcia odpowiedzialności za łamanie prawa. Dlatego też wszelkiego typu dyktatury, przynajmniej od końca ery maltuzjańskiej, mniej, lub bardziej, ale dławią rozwój rządzonych przez siebie krajów. Interes dyktatury jest, inaczej niż to jest z rządem legalnym, zasadniczo sprzeczny z interesem społeczeństwa, nad którym dyktatura panuje. Jest to zjawisko nieuchronne i zupełnie niezależne od woli samej dyktatury, która może mieć początkowo nawet jak najlepsze intencje, ale kończy zawsze w ten sam sposób. Jedynym mechanizmem, który przed tym w pewnej mierze zabezpiecza, jest jakiegoś rodzaju zalegalizowanie władzy, która stała się nią w wyniku przewrotu, czy zamachu. Taką procedurę przeszła w jakimś stopniu polska sanacja, a także dyktatorzy Pinochet w Chile i Franco w Hiszpanii i dlatego efekty tych rządów nie były dla ich krajów negatywne. Inaczej jednak było z reżimami które w 1939 roku rządziły Rosją i Niemcami.

W przeciwieństwie do rosyjskich bolszewików, którzy już z góry zakładali, że dobro narodu nie jest ich celem, doszli do władzy drogą przemocy i konsekwentnie nią podążali, niemieccy naziści faktycznie byli przekonani, że są czymś najlepszym, co się mogło Niemcom przytrafić, a ich delegalizacja następowała stopniowo, w miarę łamania kolejnych praw swojego kraju. Ostateczny rezultat władzy nazistów dla Niemiec był zatem praktycznie taki sami jak władzy bolszewików dla Rosji. Nie był to przypadek, tylko nieuchronny rezultat.

Ten zasadniczy konflikt interesów pomiędzy narodem, a jego bezprawną władzą dotyczy też oczywiście kwestii wojny. Wojna, jak to w przypadku II wojny światowej było, była sprzeczna z interesem narodowym Rosji, czy Niemiec, ale była zgodna z interesem rządzących tymi krajami reżimów i dlatego właśnie ją one wywołały. Po 1945 roku jednak świat nie stał w miejscu, a współczynnik K, czyli stosunek potencjalnych strat do zysku dalej konsekwentnie rósł, czego konsekwencją był opisany przez Pinkera „Długi Pokój”

Na poniższym wykresie po raz kolejny pokażemy przestrzeń fazową konfliktu ze strefami wojny, wymuszania i legalizmu, na której orientacyjnie zaznaczono niektóre punkty z historii ludzkości. Wielu komentatorów skłonnych jest traktować pinkerowski Długi Pokój jako swoiste powtórzenie „Pax Romana”, tym razem z USA w roli przytłaczającego wszystkich swoją siłą imperium. Jak wynika jednak z wykresu, mechanizm Długiego Pokoju jest odmienny i ewentualny upadek amerykańskiej potęgi przesunie tylko punkt równowagi w dół wykresu, czyli nie tylko nie spowoduje powrotu wojen, ale wręcz nasili tendencje legalistyczne.

 Przemoc 02

Przesunięcie punktu równowagi daleko na prawo nie oznacza oczywiście, że wojna stała się w ogóle niemożliwa i że długi pokój będzie pokojem wiecznym. Oznacza to jednak, że wojna nie tylko jest mało prawdopodobna, ale i że w miarę dalszego rozwoju naukowego, gospodarczego i technologicznego, staje się prawdopodobna coraz mniej. Szanse przeróżnych kandydatów na wodzików narodu, nawet nie tylko na rozpętanie wojennej zawieruchy, ale i na samo przejęcie potrzebnej do tego władzy, stają się coraz bardziej iluzoryczne. Wojny obecne, tam gdzie one jeszcze występują, prowadzone są przez kraje biedne i prymitywne, a i tak żadnego pożytku im one nie przynoszą. W XXI wieku Rosja wywołała kilka wojen (Czeczenia, Gruzja, Ukraina), a stan tego kraju, mimo pozornie oszałamiających zwycięstw, systematycznie się pogarsza i dni Rosji, a już na pewno jej Wodza są coraz dokładniej policzone.

A jak to było z wodzami z XX wieku, kiedy niższy poziom K pozwalał im jeszcze na w miarę skuteczne zwodzenie swoich wyznawców? Omówimy to w następnym rozdziale, na przykładzie najbardziej osławionego z nich.

Czytaj także:

0 – Wstęp

1 – Myśliwi i króliki

2 – Dzieci lasu i dzieci lodu

3 – Hii venantur monstra maris et opes aequoreas

4 – W znojnym trudzie skarby ziemi wydzierając

5 – Na skrzydłach kapitału

6 – Rozkosze dobrobytu

7 – Kształt rzeczy przyszłych

8 – 1050 lat historii pod flagą biało-czerwoną

9 – Kres wszystkich rzeczy?

10 – Koniec kryminału

11 – Miecze na lemiesze

12 – Gry wojenne 1939

13 – O państwie i mizerii akapu

Tylko o psychohistorii (10) Koniec kryminału

Przemoc towarzyszyła ludzkości od zarania jej dziejów. W paleolicie i wczesnym neolicie była czymś pospolitym i zwyczajnym, najważniejszą przyczyną śmierci. Nieprzypadkowo odnajdywane obecnie zwłoki ludzi z tamtych czasów, jak np. człowiek z Kennwick, czy Otzi – człowiek z  lodu, zwykle noszą ślady przemocy ze strony innych osobników swego gatunku. Zgodnie z danymi, które zebrał i umieścił w swojej książce „Zmierzch Przemocy” Steven Pinker, przemoc międzyludzka, inaczej niż głoszą szeroko rozpowszechnione mądrości ludowe, faktycznie zaczęła maleć dopiero po powstaniu pierwszych organizacji państwowych i od tamtych czasów, choć nierównomiernie i z przerwami, ale maleje po dziś dzień.

Wbrew niektórym popularnym mniemaniom, przemoc i agresja, zarówno na poziomie jednostkowym, osobniczym, jak i państwowym, międzynarodowym, nie wynika z jakichś mistycznych prądów, czy moralnych fluidów, którym to przesądom częściowo uległ niestety także Pinker, prawidłowo zauważając i opisując zjawisko, ale już mając spore problemy w jego racjonalnym wyjaśnieniu. Jak każdy inny proces przyrodniczy, przemoc jest racjonalnym zjawiskiem, które można racjonalnie badać. A narzędziem do tego służącym jest dział matematyki zwany teorią gier. Posłużymy się zatem teraz tym narzędziem zaczynając od konfliktów zachodzących w świecie przyrody, wśród których konflikty międzyludzkie są pewnym szczególnym przypadkiem.

Kiedy w przyrodzie dochodzi do agresji i przemocy? Oczywiście wtedy, kiedy uczestnikom konfliktu się to opłaca. Dzięki agresji mogą oni zdobyć jakiś łup o wartości V. Jednak agresja oznacza też ryzyko, że napadnięty będzie się bronić i zada wtedy napastnikowi straty wielkości W. Zakładając, że, jeżeli dojdzie do walki, średnio w połowie przypadków odniesie się zwycięstwo, łączna wygrana będzie wynosiła

(V-W)/2

Jednak kiedy uda się rywala wystraszyć i podda się on bez walki, wtedy zysk wynosi już całe V

Mamy więc do wyboru dwie strategie postępowania – agresora i ustępującego (A i U) i każda z tych strategii może się spotkać z adekwatną odpowiedzią. Wszystkie możliwe kombinacje pokazuje tzw. macierz gry, gdzie każdy z uczestników może być agresorem A z prawdopodobieństwem P i ustępującym U z prawdopodobieństwem 1-P

Strategia Agresor A Ustępujący U
Prawdopodobieństwo P 1-P
Agresor A (V-W)/2 V
Ustępujący U 0 V/2

Łączny zysk agresora wynosi zatem (V-W)/2*P+(1-P)*V

Ale i ustępujący nie jest całkowicie stratny. Unikając walki, unika też związanego z nią ryzyka przegranej i ostatecznie zyskuje V/2*(1-P).

Proporcja agresorów, a dokładnie rzecz biorąc strategii agresywnych, do strategii ustępujących, będzie, jak to się w ekologii określa, „ewolucyjnie stabilna” wtedy, kiedy zyski z nich będą takie same. Po rozwiązaniu odpowiedniego równania otrzymujemy wynik

P=V/W = 1/K, gdzie K = W/V jest parametrem pokazującym proporcje strat do zysków

Oczywiste jest, że kiedy zyski z agresji są większe niż straty z przegranej, czyli kiedy K<1, strategia agresji opłaca się wszystkim stronom i P = 1 Jednak, kiedy straty zaczynają przeważać, i K>1, strategia ustępująca zaczyna być atrakcyjna i udział agresorów w populacji maleje. Odpowiednią strategię można wybierać w zależności od konkretnej sytuacji. Jakie są kryteria takiego wyboru?

Najbardziej oczywiste z nich to oczywiście szanse na zwycięstwo. W powyższym modelu przyjęliśmy je bowiem na 50%. Jednak realnie siły obu stron konfliktu nigdy nie są dokładnie równe. Zakładając że prawdopodobieństwo wygrania konfliktu wynosi x, i, podobnie jak wcześniej przyjmując, że W/V = K możemy odpowiednio zmodyfikować naszą grę za pomocą tzw. macierzy Hammersteina:

Strategia Agresor A Ustępujący U
Prawdopodobieństwo P 1-P
Agresor A x-(1-x)*K 1
Ustępujący U 0 1/2

Podobnie jak wcześniej, jeżeli średnie zyski z walki, zarówno dla silniejszego, jak i dla słabszego z rywali, są większe od zera, opłaca się walczyć, ponieważ alternatywa w postaci ustąpienia zawsze będzie miała korzyść zerową. Dzieje się tak wtedy, kiedy, dla x>0,5,  K>(1-X)/X. Kiedy zaś oczekiwane przez słabszego zyski z walki spadają poniżej zera, będzie on starał się owej walki z silniejszym przeciwnikiem unikać. Tak właśnie w przyrodzie się dzieje. Pojedynki zwierząt o łup, terytorium, czy dostęp do samic, są zwykle wysoce zrytualizowane, tym bardziej, im z większym, silniejszym i bardziej „uzbrojonym” w kły i pazury, czyli mającym wyższe W, gatunkiem mamy do czynienia. Poszczególne osobniki usiłują się nadymać, jeżyć sierść, wykonywać groźne gesty i ogólnie starać się sprawiać wrażenie jak najsilniejszego, aby skłonić przeciwnika do postawy ustępującej. Ten, kto przegra ten pojedynek na miny i gesty uznaje się za pokonanego i odchodzi. Do prawdziwej, fizycznej walki zazwyczaj wcale nie dochodzi.

Krzywa x=1/(1+K) oddziela zatem od siebie dwa obszary – „strefę wojny”, w której zyski z konfliktu przeważają nad ewentualnymi stratami i „strefę wymuszania”, gdzie silniejsi rywale wymuszają na słabszych ustąpienie bez walki. Istnieje jednak i trzecia strefa. Strategie agresora i ustępującego nie są bowiem jedynymi stabilnymi strategiami. Dla organizmów o odpowiednio wysokim poziomie złożoności układu nerwowego, jest dostępna jeszcze trzecia alternatywa.

Polega ona na wyborze strategii agresora bądź ustępującego w oparciu nie o różnicę w sile, ale o jakieś obiektywne kryterium, np. jeżeli jesteś właścicielem terytorium bądź agresywny, a jeżeli jesteś przybyszem, ustępuj. Podobnie jak w poprzednim przypadku spotykają się zawsze strategia A ze strategią U, ale tym razem ich wybór nie zależy od stosunku sił, ale od obiektywnych reguł, jeżeli można tak je nazwać, „prawnych”. Nieprzypadkowo w teorii gier przyjęto nazywać tę strategię „strategią legalisty”.

Legalizm staje się strategią ewolucyjnie stabilną, czyli wypiera wszelkie inne strategie, wtedy, kiedy średnie zyski z walki, nie tylko dla słabszego, ale także dla silniejszego przeciwnika, spadają poniżej zera, czyli

x-(1-x)*K<0

i

X< K/(1+K) lub K>x/(1-x)

Można więc zauważyć, że im wyższe K, czyli im większe są potencjalne straty W, w stosunku do potencjalnych korzyści V, tym prawdopodobieństwo, że dojdzie do przemocy i agresji jest mniejsze. Początkowo w wyniku przewagi silniejszych nad słabszymi, później zaś, w wyniku legalizmu i praworządności. Wszystkie wymienione możliwości przedstawimy teraz na wykresie

 Przemoc 01

Przykładając powyższe rozumowanie do ludzi, możemy oczekiwać, że agresja między członkami gatunku Homo sapiens powinna maleć wraz z rozwojem cywilizacji, komplikacją struktur społecznych, wzrostu złożoności gospodarki, zamożności i PKB. Im więcej ktoś posiada, tym większe jest bowiem ryzyko, że to coś w razie konfliktu, straci (wyższe W). W dodatku, w miarę rozwoju cywilizacji, coraz mniejszą część swojego majątku ludzie przechowują na sobie lub przy sobie, obniżając w ten sposób współczynnik V. Kombinacja tych dwóch tendencji, czyli wzrostu W, oraz spadku V prowadzi do sytuacji opisanej przez Pinkera – zmierzchu przemocy. W społeczeństwach łowiecko-zbierackich zabójstwo, jak już autor wspominał, było najczęstszą przyczyną śmierci, obecnie w najbogatszych krajach jest ono sensacją, nad którą długo roztrząsają się wszystkie media.

Pozostaje jednak zagadnienie, dlaczego akty przemocy w ogóle się zdarzają, skoro w II strefie słabszy zawsze powinien ustąpić silniejszemu, a w strefie III role A i U są rozdane przez czynniki obiektywne, np. prawo własności.

Dawno już zauważono, że w rozwiniętych społeczeństwach, poziom przemocy i przestępczości w ogóle, jest ujemnie skorelowany z pozycją społeczną sprawców. Im niższe warstwy społeczne, tym wyższa panuje w nich przestępczość. Wszędzie też, gdy poziom zamożności rośnie, przestępczość maleje. Korelację tę lewicowcy usiłują wyjaśnić tym, że ludzie popełniają przestępstwa z biedy, bo „nie mają na życie”. Z kolei niektórzy religijni moraliści widzą rzecz odwrotnie – bieda ma być karą za grzechy popełniania przestępstw. Tymczasem prawda jest nieco bardziej złożona.

Po pierwsze zauważyć należy, że kluczowy dla oceny strategii stosunek K – strat do korzyści w dowolnym konflikcie nie jest jednakowy dla wszystkich uczestników gry. W dzisiejszym społeczeństwie, dla przedstawiciela klasy wyższej, czy nawet średniej, nawet stosunkowo krótki pobyt w więzieniu jest równoznaczny z katastrofą życiową, po której może się on już nie pozbierać. Natomiast dla kogoś z marginesu społecznego, jest to tylko nieszkodliwe, a w skrajnych przypadkach, wręcz wymagane, ubarwienie życiorysu.  Również udany rabunek portfela z kilkusetzłotową zawartością, dla przedstawiciela dołów społecznych ma zupełnie inną wartość niż dla kogoś, kto podobną kwotę zarabia w kilka godzin.

Oczywiście każdy chciałby należeć raczej do klasy wyższej niż niższej, ale awans społeczny drogą działalności kryminalnej, jeszcze 200 lat temu stosunkowo często spotykany, jest już w dzisiejszym społeczeństwie niesłychanie trudny, o ile w ogóle możliwy. Strategia agresora, jak wynika zarówno z teorii gier, jak i z danych statystycznych, nie jest już efektywna. Dlaczego zatem męty społeczne ją nadal stosują?

Aby strategia legalisty, albo przynajmniej wymuszanie, mogły wyeliminować absolutnie wszystkie konflikty, gracze musieliby dysponować doskonałą wiedzą na temat warunków gry. Znać dokładnie różnicę sił pomiędzy sobą a potencjalnym przeciwnikiem, oraz prawidłowo ocenić stosunek potencjalnych strat do potencjalnych zysków. W praktyce nie do końca się to udaje, a zdolność do zrozumienia parametrów gry jest proporcjonalna do wiedzy i inteligencji poszczególnych graczy. Im dana jednostka jest głupsza, tym większe prawdopodobieństwo, że zastosuje strategię nieoptymalną, która w II strefie spowoduje, że dostanie łomot od silniejszego, a w strefie III, wciągnie ją w młyny systemu penitencjarnego. A ponieważ w kraju, choćby tylko z grubsza wolnorynkowym i praworządnym, dochody mieszkańców również proporcjonalnie zależą od ich wiedzy i inteligencji, zatem nie należy się dziwić, że kryminaliści wywodzą się zwykle ze środowisk niezamożnych. Nie dlatego, że bieda prowadzi do przestępczości, ale dlatego, że zarówno bieda, jak i przestępczość wynikają z niskiej lotności umysłu. Rzutuje to zresztą nie tylko na praworządność, ale i na moralność ogólnie pojętą, która wśród biedniejszych stoi na niższym niż u zamożnych, poziomie.

Dalsza redukcja przestępczości, tam gdzie ona jeszcze występuje, wymagałaby zatem stworzenia warunków, w których nawet najniższe warstwy społeczne osiągną tak wysoki poziom K, że nieopłacalność działalności przestępczej stanie się oczywista nawet dla najbardziej ograniczonych osobników. Ponieważ współczynnik K jest kombinacją dwóch innych – potencjalnych zysków V i kosztów W, można to uczynić na różne, niewykluczające się zresztą nawzajem sposoby. Po pierwsze nawet najbiedniejsi powinny osiągnąć pewien minimalny poziom zamożności, co zresztą w miarę rozwoju cywilizacji, następuje samoistnie. Zapewni to obniżenie zysków z działalności przestępczej – V.

Samo obniżenie V nie zapewni jednak bezpieczeństwa publicznego, jeżeli zaniedba się współczynnik W. Należy pamiętać, że on również jest zróżnicowany w zależności od warstwy społecznej z której wywodzą się potencjalni przestępcy. Dlatego np. powszechna dostępność do broni palnej, może znacząco zmniejszać przestępczość w społeczeństwie zamożnym i stosunkowo mało zróżnicowanym majątkowo, jak Finlandia, Szwecja, Szwajcaria czy niektóre stany w USA, mniej natomiast pomoże tam, gdzie różnice społeczne są bardzo duże, a średni poziom zamożności niezbyt wysoki jak RPA, Meksyk, czy getta w niektórych miastach USA.

 Dużo większy efekt przyniosłoby natomiast zróżnicowanie kar za przestępstwa w zależności od zamożności sprawcy. Kary więzienia powinny być tym dotkliwsze, im niższy jest status społeczny skazanego, dokładnie na odwrót, niż kary grzywny.

Co ciekawe, eksperymenty ze zróżnicowaniem wysokości grzywien i mandatów w zależności od zamożności ukaranego, faktycznie są gdzieniegdzie prowadzone, ale o zróżnicowaniu również kar pozbawienia wolności nawet się nie mówi, chociaż jest to logiczny i niepodważalny wniosek z teorii gier, bez którego przestępczość będzie spadać wolniej niż by mogła.

Czytaj także:

0 – Wstęp

1 – Myśliwi i króliki

2 – Dzieci lasu i dzieci lodu

3 – Hii venantur monstra maris et opes aequoreas

4 – W znojnym trudzie skarby ziemi wydzierając

5 – Na skrzydłach kapitału

6 – Rozkosze dobrobytu

7 – Kształt rzeczy przyszłych

8 – 1050 lat historii pod flagą biało-czerwoną

9 – Kres wszystkich rzeczy?

10 – Koniec kryminału

11 – Miecze na lemiesze

12 – Gry wojenne 1939

13 – O państwie i mizerii akapu

 

Contra VANATum

Życie społeczne w czasach dzisiejszych cierpi na przypadłość, która można określić, jako zamknięcie w bańce informacyjnej. Szukając jakiejś informacji na dowolny temat, ludzie bowiem, w swojej znakomitej większości, wcale nie szukają informacji obiektywnej, ukazującej rzeczywisty stan rzeczy. Szukają oni raczej potwierdzenia swoich własnych poglądów, już wcześniej żywionych. Dopóki dostęp do informacji był domeną wielkich, ogólnokrajowych mediów, gazet, czy kanałów telewizyjnych nie było to specjalnie widoczne, bo owe wielkie media wszystkie te oczekiwania, co do zawartości informacyjnej, poniekąd uśredniały. Sytuacja zmieniła się jednak wraz z rozwojem internetu. Pojawiły się w nim i rozrosły właśnie owe bańki informacyjne grupujące uczestników o jednakowych zuniformizowanych poglądach, wymieniających treści wyłącznie miedzy sobą. Taka memetyczna hodowla wsobna ma ten sam rezultat, co analogiczne zjawisko na gruncie genetyki. Całkowite ujednolicenie poglądów wewnątrz grupy, wraz z daleko idącą tychże poglądów radykalizacją, przy równoczesnym odcięciu się od wszelkich innych grup i odrzucaniu czegokolwiek, co mogłoby wewnątrzgrupowej uniformizacji zaszkodzić. Nieprzypadkowo są to cechy, po których rozpoznaje się sekty religijne, bo owe bańki czymś w rodzaju takich sekt się stają.

Wchodząc w taką bańkę, nawet ludzie kiedyś wykształceni i inteligentni, dopasowują się nawet do najbardziej absurdalnych poglądów grupowych i pozbawieni bodźców, które mogłyby zasiać w nich wątpliwości i tym samym skłonić do myślenia, zwyczajnie głupieją.

Wszelkie życie bowiem, także życie intelektualne, wymaga do swojego istnienia ośrodka będącego w stanie nierównowagi. W przypadku życia biologicznego nierównowagi termodynamicznej, przepływu energii, w przypadku życia intelektualnego, nierównowagi informacyjnej – przepływu informacji. Przebywanie w ujednoliconej bańce informacyjnej praktycznie uniemożliwia więc, prowadzenie normalnej aktywności umysłowej

Sytuacja nie jest na szczęście zupełnie beznadziejna. Publicyści, którzy rozdzierają szaty nad zjawiskiem wyżej opisanym, nie zauważają bowiem, że co prawda wewnątrz rzeczonych banek panuje „ciepłe bagienko” ujednoliconych poglądów, czyli stan równowagi termodynamicznej, w którym, poza jakimiś mało prawdopodobnymi fluktuacjami, nic ciekawego nie może się zdarzyć, to jednak pomiędzy różnymi bańkami panuje bardzo duża różnica potencjałów teoretycznie nadająca się do intelektualnego wykorzystania.

Wyzwolenie tego potencjału nie jest jednak sprawą prostą. Po pierwsze wymaga ta czynność opuszczenia własnej bańki i wystawienie własnego światopoglądu na konfrontację ze światopoglądami odmiennymi, co może się wiązać z dużym dyskomfortem psychicznym. Po drugie nagłe wtargnięcie do innej bańki przybysza z zewnątrz, prowokuje miejscowych wyznawców danej sekty do reakcji. Reakcja ta, praktycznie zawsze, przebiega według jednakowego schematu. W pierwszej kolejności (etap I) miejscowi wyznawcy usiłują skategoryzować intruza. Każda z „bańkowych” sekt buduje swój własny obraz społeczeństwa zewnętrznego i zamieszkujących go pogan i heretyków, którzy są w tej wizji zestandaryzowani dokładnie tak samo jak sami wyznawcy i jeżeli nawet nie są wszyscy jednakowi, to dzielą się co najwyżej na kilka kategorii. Po tym jak sekta umieści danego heretyka w jednej z owych kategorii, próbuje go nawrócić (etap II), stosując przypisane do danej kategorii argumenta. Do tego momentu nikt w sekcie jeszcze nie spodziewa się, że nawracanie może być nieskuteczne. W końcu bytując w bańce, z realnymi osobami o innych poglądach, nigdy nie mają oni do czynienia. Błędne poglądy mogą być wg nich błędne, wyłącznie wskutek niewiedzy osobników błędne poglądy wyznawających. Bo dostarczeniu im właściwej wiedzy oczekuje się od heretyków przejrzenia na oczy, pokajania się za swoje dotychczasowe bezsensowne i szkodliwe życie i dołączenia do grona wyznawców. Kiedy jednak nawracanie okazuje się nieskuteczne, uruchamia się etap III. Skoro heretyk nie reaguje na wiedzę, to znaczy, że jest nie tylko heretykiem, ale i herezjarchą, samym diabłem z piekielnych czeluści, który błędne poglądy głosi nie zwiedziony i z niewiedzy, ale najzupełniej świadomie, dla własnych nikczemnych materialnych korzyści i w obronie własnych szemranych ciemnych interesów. W zależności od rodzaju sekty, święte oburzenie Wiernych wyraża się, albo w miotaniu gromów i oskarżeń na odstępcę (IIIa), albo w próbach wyszydzania go i wyśmiania (IIIb). W bańkach genetycznych patriotów na ten przykład, na tym etapie pilaster zwykł dowiadywać się o sobie, że jest agentem, masonem, ubekiem, esbecką mordą czy „osobą o pokroju oficerów WSI”. W bańkach „wolnomyślicieli” z kolei, że jest głupi, żałosny i wszyscy się z niego śmieją. Zawsze też, że cierpi na zaburzenia psychiczne i że „obraża” (Uczucia religijne członków sekty rzecz jasna). Na etapie III intruz przestaje być postrzegany jako szansa na pozyskanie nowego wyznawcy, ale jako zagrożenie, tym większe, im bardziej jego argumenty górują merytorycznie nad argumentami sekty, a wskutek wspomnianych wyżej mechanizmów maksymalizacji „bańkowej” entropii, górują praktycznie zawsze. Najbardziej aktywni Wierni są, co prawda, na wszelkie racjonalne argumenty doskonale uodpornieni, ale nie dotyczy to wyznawców świeżych, dopiero co pozyskanych i przez to chwiejnych, oraz, co z punktu widzenia sekty najgorsze, wyznawców potencjalnych, wahających się, których zły przykład łatwo może zwieść na ideologiczne manowce, a na każdego zagorzałego Wiernego przypada takich co najmniej kilku, lub kilkunastu.

Kiedy zatem w wyniku zmasowanego oskarżenia i ośmieszania poddany im osobnik sam nie zniknie ze wstydu i sromoty, sekta przechodzi do etapu IV, czyli fizycznej eliminacji zagrożenia, w czasach internetu przybierającego formę banowania. Po dokonaniu tej czynności w etapie V wyznawcy gratulują sobie pomyślnego rozwiązania problemu, oddalenia zagrożenia dla jedynie słusznych poglądów i rozpływają się w zachwytach nad własną przemyślnością, geniuszem, miłosierdziem i tolerancją, w zależności czy dana sekta przewiduje wielbienie jednego, czy drugiego. Schemat ten jest trwały i powtarza się, z bardzo niewielkimi wariacjami, w każdej kolejnej „bańce”.

Zanim jednak przejdzie on przez wszystkie swoje etapy, następuje efekt, dla którego warto infiltrować kolejne „bańki” – wyrównanie potencjałów i przepływ energii intelektualnej. Zderzenie się z wyznawcami różnych poglądów, niezależnie od tego jak bardzo ci wyznawcy byliby żałośni w swojej głupocie, a ich poglądy jak bardzo byłyby dziwaczne i ekscentryczne, zawsze jest stymulujące intelektualnie i owocne twórczo. Pozwala zarówno na obejrzenie danego zagadnienia z różnych punktów widzenia, uporządkowanie, zweryfikowanie i usystematyzowanie poglądów własnych, oraz przelanie tego wszystkiego w formę pisemną. Większość z zamieszczonych na tym blogu esejów powstała właśnie w wyniku takiej konfrontacji z mieszkańcami kolejnych odwiedzanych przez niżej podpisanego „baniek”.

Dwa ostatnie artykuły „Ekologia ekonomii” i „Przyroda jako dobro wolnorynkowe” powstały w wyniku penetracji bańki o nazwie „Ziemia na rozdrożu” dowodzonej przez niejakiego Marcina Popkiewicza noszącego wspaniały i bardzo, co trzeba przyznać, oryginalny tytuł „Analityka megatrendów”, w skrócie Megaanalityka. Sekta ta, będąca odłamem ruchu religijnego nazywanego zwykle przez pilastra „kreacjonistami klimatycznymi”, nie ogranicza się jednak do głoszenia samego tylko tzw. „globalnego ocieplenia”, które ostatecznie mogłoby jeszcze, gdyby udało się je znaleźć, mieć jakieś naukowe podstawy, ale też uważa, że główną przyczyną tego, jak i innych, zwykle wyimaginowanych problemów trapiących ludzką cywilizację jest, jakże by inaczej, „przeludnienie”, „własność” i „nadmierna konsumpcja”. Jak wszystkie odmiany kreacjonizmu, także i ten jest głęboko przekonany o swojej „naukowości”, pełno tam osobników przedstawiających się, jako np „specjaliści od dynamiki atmosfery”, czy „od wielu lat badający lodowce”. Każdy tam ma, co najmniej doktorat, najczęściej „z fizyki”, ale też, w razie propagandowego zapotrzebowania „z geologii”, czy „chemii.” Sam szumny tytuł guru sekty, „Analityk megatrendów”, nic, co prawda, konkretnego nie znaczy, ale brzmi za to bardzo uczenie.

Ponieważ standardowo, w celu pobudzenia wyznawców tej sekty do najwyższego dostępnego im wysiłku, pilaster od razu obnażył te ich pretensje do naukowości, w wyniku czego okazało się że rzekomi „doktorzy” nie tylko nie potrafią rozwiązać zadania z fizyki na poziomie licealnym, ale nawet nie potrafią odróżnić atmosfery ziemskiej od atmosfery …marsjańskiej (sic!!!), reakcja lokalnej populacji bańki na bodziec była szczególnie spektakularna. Na zakończenie etapu II, sam wielki „Analityk megatrendów” uczcił niżej podpisanego specjalnym artykułem pt. „Bajania pilastra

Oczywiście Megaanalityk był święcie przekonany, a przekonanie to dzielili po równo wszyscy jego wyznawcy, że porażony takim gigantycznym ładunkiem wiedzy i „zaorany merytorycznie” denialista (tak nazywają tam niewiernych) pilaster albo od razu sam zniknie spalony ze wstydu, albo lekko tylko dobity ośmieszaniem w etapie IIIb, w którym wszyscy wyznawcy będą mogli się w kółko na Objawienie samego Megaanalityka powoływać.

Tym większy był ich szok i przerażenie, kiedy pilaster detalicznie wszystkie zawarte w poświęconym mu artykule tezy, a były tam też zwykłe ordynarne kłamstwa, bo Megaanalityk nawet nie dopuszczał myśli, że ktokolwiek może mu się sprzeciwić, choćby i przyszła mu fantazja zełgać w dowolny sposób, po kolei zweryfikował i unieważnił. W rezultacie Megaanalityk ogłosił, że „z kimś takim” to on w ogóle gadać nie będzie, bo co prawda mógłby wszystkie kłamstwa pilastra zdemaskować w kilka minut, ale …mu się nie chce i następnie schował się w mysiej dziurze znikając z dalszej dyskusji. Osieroceni i zdezorientowani wyznawcy nie wiedzieli, jaką przyjąć taktykę, w sposób chaotyczny i nieskoordynowany usiłując to pilastra oskarżać (IIIa), to zapewniać, że jest on głupi i wszyscy się z niego śmieją (IIIb), to znów nawołując do ignorowania pilastra i następnie sami ten postulat naruszając. Zanim Megaanalityk otrząsnął się z szoku i przeszedł do etapu IV, ponownie ujawniając się dopiero w etapie V, upłynęło niespodziewanie dużo, w porównaniu do przeciętnej w innych bańkach, czasu.

W dodatku bańka ta zareagowała nietypowo także w innej kwestii. Przeszła, rzecz niesłychanie rzadka (dopiero drugi odnotowany taki przypadek w dziejach), do etapu VI. Wydelegowała mianowicie swojego przedstawiciela, aby zaatakował on pilastra na wrogim terytorium, w innej, obcej bańce, czego pilaster się, przyznaje, nie spodziewał.

Wysłannik ten, niejaki VANAT, któremu za jego odwagę opuszczenia swojej bańki należą się najwyższe wyrazy uznania, niezwykle przejęty powierzoną sobie przez zwierzchników misją, naprodukował na blogu pilastra mnóstwo komentarzy, które można przeczytać pod dwoma poprzednimi artykułami. W komentarzach tych, czym kolejny raz zasłużył sobie na szacunek, znalazły się, obok standardowych elementów etapu IIIa i IIIb, także pewne elementy krytyki merytorycznej, co w przypadku osoby, nie odróżniającej logarytmu od algorytmu jest już, samo w sobie, niemałym osiągnięciem. Pisząc, specjalnie dla VANATa ten esej, niżej podpisany pragnie mu w ten sposób szacunek oddać.

Takie konkretne merytoryczne zarzuty ze strony VANATa można wymienić dwa:

  1. W niektórych przypadkach interwencja rządu w kwestii ochrony środowiska może być, co najmniej równie skuteczna jak efekt działania gospodarki wolnorynkowej.

I owszem, jest to prawda, o czym sam pilaster też już kilkakrotnie wspominał, a o czym VANAT by wiedział, gdyby w ogóle eseje pilastra odważył się przeczytać. Nawet z samej analizy korelacji EPI z wolnością gospodarczą, wynika, że inwestycje państwowe w wodociągi, kanalizację i oczyszczalnie ścieków poprawiają stan środowiska. Istnieją te, o czym pilaster również pisał w eseju o rybołówstwie, przykłady udanej interwencji państwa w ochronie gatunkowej różnych organizmów.

Jednak, co jest typowe dla przeróżnych odłamów marksizmu, a kreacjoniści klimatyczni są właśnie jednym z nich, kompletnie ignoruje VANAT dwie kwestie. Po pierwsze wszystkie takie udane przykłady rządowych interwencji dotyczą wyłącznie krajów wolnorynkowych i praworządnych o wysokim IEF. Samo to już sprawia, że korelacja pomiędzy wolnorynkowością a stanem środowiska …nadal jest spełniona. Dziwnym zaś trafem interwencje rządów w krajach o niskim IEF środowiska nie są w stanie poprawić. Na pytanie, dlaczego stan środowiska w PRL, gdzie wszystko było własnością państwa, był katastrofalny, i żadne „rządowe interwencje” (prlowskie ustawodawstwo w dziedzinie ochrony środowiska było bardzo rozległe) nic nie mogły temu zaradzić, a dzisiaj, mimo że rola państwa znacznie osłabła, jest pod tym względem znacznie lepiej, VANAT starannie unika jakiejkolwiek merytorycznej odpowiedzi, bo inaczej musiałby przyznać, że państwo w takich przypadkach osiąga swój cel stosując bodźce …rynkowe, a one mogą zadziałać tylko w krajach o wysokim IEF. W PRL fabryka mogła dowolnie wylewać ścieki do rzeki i nawet płacić za to dowolne kary, bo i tak nie była rozliczana z osiągnięcia zysku, tylko …wykonania planu produkcji (a w socjalizmie dzisiejszym z „zapewnienia miejsc pracy”). Koszty, także kar za niszczenie środowiska, nie odgrywały żadnej roli.

I to jest właśnie druga kwestia pomijana przez VANATa. Koszty. Rządowa interwencja może nawet osiągnąć cel „przyrodniczy”, ale dzieje się to zawsze większym kosztem niż by poniesiono na osiągnięcie takiego samego efektu na wolnym rynku. Przykładem jest ulubione przez VANATa ograniczenie emisji do atmosfery dwutlenku siarki. Wprowadzenie opłat za te emisje i obniżenie tym samym zysku emitentów, skłoniło tych ostatnich do zaniechania emisji. Jednak nie za darmo. Wdrożone antysiarkowe rozwiązania podrożyły ceny produktów emitentów i tym samym zapłacili za to wszyscy mieszkańcy. Oczywiście oprócz kosztów, obywatele mieli i przychody, bo emisje SO2 realnie zatruwały środowisko powodując tzw. kwaśne deszcze, które w ten sposób wyeliminowano. Jednak szkodliwość emisji SO2, jak i zresztą jakichkolwiek innych, nie jest i nigdy nie była zerojedynkowa. Rośnie wraz z wielkością emisji i stopniowo spada wraz z jej ograniczaniem. Istnieje zatem taki poziom emisji SO2, przy którym ich szkodliwość dla środowiska i społeczeństwa zrównuje się z potencjalnymi kosztami ich dalszego ograniczenia. Ba! Może nawet istnieć pewien niewielki poziom emisji, przy którym stan środowiska może się wręcz polepszyć. Najlepszym rozwiązaniem jest więc wprowadzenie opłat na takim poziomie, aby właśnie ten optymalny poziom emisji osiągnąć. Niestety rząd nigdy nie jest w stanie tego uczynić, bo nie ma do tego celu odpowiednich narzędzi w postaci zmian cen rynkowych. Zawsze opłaty będą albo za niskie i kwaśne deszcze nadal będą niszczyć lasy, albo zbyt wysokie i zapłacą wtedy za to wszyscy konsumenci. Gdyby zaś „usługi przyrodnicze” zostały sprywatyzowane, optymalny poziom emisji zostałby osiągnięty automatycznie, wskutek dążenia właścicieli atmosfery, lasów, i fabryk, wszystkich razem i każdego z osobna, do maksymalizacji swoich zysków.

VANAT, podobnie jak i inni kreacjoniści, nie jest w stanie pojąć tego mechanizmu, bo traktuje dobra przyrodnicze nie w sposób naukowy, ewolucyjny, ekonomiczny, tylko właśnie kreacjonistyczny, ideologiczny. Ideałem dla nich, o czym niejednokrotnie bez żadnej żenady pisali, nie jest wcale „ochrona przyrody” jako taka, tylko całkowite zlikwidowanie antropopresji, najlepiej poprzez zlikwidowanie sprawcy owej antropopresji, czyli gatunku ludzkiego. Należałoby, zdaniem VANATA, po prostu wygrodzić możliwie jak największe obszary (docelowo cała Ziemię?) „dzikiej przyrody’” i zwyczajnie zakazać tam wstępu jakiemukolwiek człowiekowi w jakichkolwiek celach. I znów VANAT nie podaje, kto miałby ponieść koszty, choćby ograniczone tylko do ustanowienia skutecznego systemu egzekwowania takiego zakazu, takiej operacji i jak zagwarantować, aby takie „superrezerwaty” trwale istniały, kiedy temu komuś w końcu dopłacanie do nich się znudzi.

Prawa ekonomii, które są tylko odzwierciedleniem praw fizyki (zwłaszcza termodynamiki), gwarantują na dłuższą metę, że zasoby przyrodnicze przetrwają tylko wtedy, kiedy zyski z ich istnienia będą przewyższać długoterminowo zyski z ich dewastacji. Taki warunek stosunkowo łatwo spełnić w systemie wolnorynkowym, kapitalistycznym, natomiast jest on praktycznie niemożliwy do uzyskania tam, gdzie własność prywatna nie funkcjonuje i tam, niezależnie od moralizowania, straszenia i gróźb przeróżnych VANATów, ludność w końcu każdy las wytnie i ostatnią rybę w morza wyłowi.

To było o pierwszym z merytorycznych zarzutów VANATa, ale jest jeszcze i drugi.

  1. Używany przez pilastra wskaźnik EPI (Enviromental Performance Index) nie pokazuje w sposób adekwatny stanu środowiska w danym kraju.

Nie pierwszy to raz, kiedy oponenci pilastra usiłują „stłuc termometr” twierdząc, ze modele prezentowane przez pilastra, lub ich warunki początkowe, są złe, nieadekwatne, zbyt proste, zbyt skomplikowane, nie uwzględniają tego, czy tamtego. Ataki takie przeprowadzano już na tym blogu na wskaźniki CPI (corruption perception index), czy IEF (index of economic freedom), zatem czemu EPI miałoby być  wyjątkiem? Wszystkim jednak usiłującym podważyć miarodajność tych wskaźników, zawsze należy przypominać słowa prof. Mirosława Żaka:

„wciąż aktualny jest konflikt znawców oceny ilościowej z wyznawcami zapewne łatwiejszego szacunku jakościowego, których cechuje pokrzykiwanie „należy uwzględnić!”, „należy wziąć pod uwagę!”, nie należy zaniedbać!” itd., zawsze bez informacji w jaki sposób tego dokonać.”

I faktycznie żaden z tych sceptyków, z VANATem włącznie, nie potrafił przedstawić innego, alternatywnego sposobu oceny ilościowej omawianych zjawisk, korupcji, wolności gospodarczej, czy stanu środowiska, który to sposób przedstawiałby dane zjawisko przynajmniej w nie gorszy sposób. Istnieją, co prawda, alternatywy przynajmniej dla IEF, np. wskaźnik Doing Business, ale pokazują one z grubsza to samo, co IEF. Gdyby VANAT faktycznie zatem chciał zanegować wartość wskaźnika EPI, jako pokazującego „stan środowiska” w danym kraju, powinien zaproponować wskaźnik alternatywny, wg niego lepszy, wykazać merytorycznie, że jest on co najmniej nie gorszy od EPI w odzwierciedleniu stanu przyrody, a następnie udowodnić, że, inaczej niż w przypadku EPI, żadna korelacja między nim a zamożnością, czy wolnością gospodarczą, albo wcale nie zachodzi, albo wręcz jest odwrotna niż wynika z analizy pilastra. Nawet gdyby jednak taki wskaźnik istniał i posiadał odpowiednie opisane wyżej cechy, to i tak przeprowadzenie potrzebnego wywodu daleko przekracza kompetencje intelektualne jakiegokolwiek kreacjonisty. Z definicji. Gdyby bowiem owe niezbędne kompetencje oni posiadali, nie byliby przecież kreacjonistami. Dlatego też żadnej takiej alternatywy kreacjoniści nie przedstawili i nigdy nie przedstawią.

W tym miejscu mógłby pilaster z czystym sumieniem zakończyć, ale kierowany miłosierdziem i miłością bliźniego, pójdzie dalej i detalicznie wyjaśni VANATowi dlaczego racji on nie ma i mieć nie może. Twierdzi bowiem VANAT, że wskaźnik EPI dlatego jest niemiarodajny, że kraje o wysokim EPI niejako „eksportują” jego obniżenie do krajów o EPI niskim, przenosząc do nich najbardziej szkodliwe dla środowiska gałęzie przemysłu. Że kraje o EPI bardzo wysokim, np. Finlandia, Szwecja, czy Wlk Brytania, same obecnie nic nie produkują, przeniosły bowiem swój przemysł do krajów o EPI bardzo niskim, do Somalii, Erytrei, Afganistanu i Nigru i tam, w tych krajach kupują gotowe wyroby przemysłowe. Absolutnie przekonany o prawdziwości owego dogmatu VANAT posunął się nawet do znalezienia dwóch krajów (USA i Chin), dla których postulowana zależność faktycznie jest spełniona. Bilans handlowy wypada na korzyść Chin, bilans środowiskowy, na korzyść USA. Zamiast jednak pójść za ciosem i przeprowadzić analizę pozostałych 16 109 potencjalnych par krajów, ogłosił nagle VANAT, że udowodnienie owego kreacjonistycznego dogmatu w sposób ścisły, ilościowy, naukowy jest …niemożliwe (sic!!!).

W sumie logicznie. Dogmaty religijne są przecież ze swojej definicji do wierzenia, a nie do udowadniania.

A jednak, wbrew samym jej autorom, owa hipoteza o „imporcie EPI” jest jak najbardziej testowalna. Gdyby faktycznie takie zaimportowanie wysokiego EPI poprzez „wyeksportowanie” najbardziej szkodliwej dla środowiska części działalności gospodarczej było możliwe, powinniśmy oczekiwać ujemnej korelacji wskaźnika EPI z bilansem handlowym danego kraju, co przecież nawet VANAT już zaczął robić, po czym nagle, czymś zastraszony, przestał.

I nie ma się czemu dziwić. Do ostrożności w głoszeniu takich tez powinno skłaniać kreacjonistów już występowanie dodatniej korelacji pomiędzy EPI a wolnością handlu (trade freedom) – jednego ze składników IEF. Można bowiem oczekiwać, że im gdzieś wolność handlu jest większa, także i sam handel przybiera większe rozmiary. No ale same obroty handlowe to nie to samo co bilans, czyli różnica pomiędzy eksportem a importem. Dokończmy zatem to co zaczął, a potem tak raptownie porzucił VANAT i zbadajmy korelację pomiędzy EPI a bilansem handlu zagranicznego danego kraju.:

 VANAT 01

Gołym okiem widać, że żadnej podawanej przez kreacjonistów do wierzenia zależności, zwyczajnie nie ma. Można by w tym miejscu sprawę zakończyć, ale znów musimy skorygować kolejne przekłamanie, jakie kreacjoniści zdołali wyprodukować. Otóż bilans handlowy, nawet jeżeli zgodnie z kreacjonistycznymi objawieniami, zależy od EPI, to zależy też od innych czynników, które mogą nam obraz skutecznie zafałszować. W szczególności ów bilans zależy od wielkości danego kraju. Milion dolarów nadwyżki (lub deficytu) na ten przykład, to co innego dla Indii, a co innego dla Islandii. A EPI natomiast to to samo. Zatem aby usunąć wpływ wielkości danego kraju na jego bilans handlowy, musimy policzyć korelację pomiędzy EPI, a bilansem handlowym per capita.

 VANAT 02

I tym razem jakaś korelacja faktycznie nam się wyłania. Nie jest ona przesadnie silna, ale jest istotna statystycznie. Prawdopodobieństwo, że pojawiła się przypadkiem, jest mniejsze niż 1%. Niestety, nie jest to taka korelacja, jakiej kreacjoniści by się spodziewali. Nie jest bowiem tak, że im gorszy bilans tym wyższe EPI (jak w przypadku Chin i USA). Jest DOKŁADNIE NA ODWRÓT. Im lepszy bilans handlowy na głowę tym również LEPSZY JEST STAN ŚRODOWISKA. Od razu widać też powód, dla którego VANAT zaniechał dalszego porównywania poszczególnych par krajów.

Ale i ten wynik, mimo, że wystarcza do całkowitego pogrążenia kreacjonistycznych bajań, nie jest bynajmniej ostateczny. W końcu obroty handlowe, chociaż handel prowadzą ludzie, nie są zależne od liczebności danej ich populacji wprost. Zależą one bowiem bezpośrednio od wielkości gospodarki. Kraje o dużej gospodarce, czyli wysokim PKB, będą też miały większe obroty, niż kraje o takiej samej liczbie obywateli, ale z PKB niższym. Dlatego w ostatniej kolejności porównamy EPI z bilansem handlowym jako odsetkiem całkowitego PKB danego kraju. Oto ostatni wykres:

 VANAT 03

Rezultat nie wymaga właściwie żadnego komentarza. Dodatnia korelacja jest widoczna już gołym okiem. Im większa nadwyżka w handlu zagranicznym mierzona jako odsetek PKB, tym lepszy jest stan środowiska. Po raz kolejny tezy kreacjonistów po skonfrontowaniu ich z faktami okazały się całkowicie fałszywe.

Dlaczego? To bardzo proste. Wolny handel polega przecież na tym, że dane towary wytwarza się tam, gdzie wiąże się ta czynność z najmniejszymi kosztami, także oczywiście środowiskowymi, a następnie przewozi do miejsc, gdzie ich wyprodukowanie byłoby bardziej kosztowne (bardziej niż koszt transportu), w tym bardziej kosztowne dla środowiska naturalnego. Ponieważ w krajach wolnorynkowych z silną własnością prywatną, również zasoby przyrodnicze są czyjąś własnością, to handlem zagranicznym minimalizuje się też koszty środowiskowe. Dlatego Japonia, pomimo, że jest pokryta w ponad 60% lasami, sprowadza drewno z pustynnej, ale za to w porównaniu z Japonią praktycznie bezludnej Australii, bo tam koszty pozyskiwania tego surowca, wliczając w to również koszty środowiskowe, są niższe niż w Japonii, a przynajmniej niższe niż koszt transportu. W konsekwencji zarówno Japonia, jak i Australia są krajami bardzo bogatymi, o wysokim PKB per capita i równocześnie mają bardzo wysoki wskaźnik EPI.

Łączenie różnych baniek informacyjnych miedzy sobą i czerpanie w ten sposób korzyści intelektualnych z wyrównywania ich potencjałów, jest jak widać zatem czynnością bardzo owocną. Nawet samobójcza i straceńcza szarża VANATa posłużyła wyższemu dobru, jakim jest ten właśnie esej. Ma jednak takie tłuczenie kolejnych baniek również inne konsekwencje. Nie bez powodu to, co zatęchłe lęka się przeciągów. Przepływ potencjałów między bańkami jest dla tychże baniek, a przynajmniej dla tych o największych barierach potencjałów, czyli też najbardziej oddalonych od obiektywnej wiedzy o świecie realnym, ewidentnie szkodliwy. Do tej pory każda inwazja pilastra na którąś z baniek, wiązała się z poważnymi zaburzeniami i turbulencjami w samej bańce. W skrajnych przypadkach, najbardziej ekstremalne, a przy tym stosunkowo niewielkie, czyli podatne na zaburzenia, bańki kończyły nawet swój żywot. Zniknęło z powierzchni internetu kilka forów paranormalnych (w tym forum wyznawców kosmitów których przedstawicielem miał być niejaki Rael), zniknęło forum tygodnika „FiM”. Inne zaś jak najbardziej niegdyś znana strona kreacjonistów biologicznych, czy portal „Racjonalista” są dziś cieniami samych siebie z okresu swojej świetności.

Nie należy jednak ich żałować, ponieważ głupota ludzka jest nieskończona i na miejsce każdej upadłej sekty, wyrasta sekta nowa, również nadająca się do intelektualnego wykorzystania.

PS. Było do przewidzenia, że zdemaskowani kreacjoniści będą starali się ze wszystkich swoich intelektualnych sił zdyskredytować pilastra. Jednak nie są to przecież siły zbyt imponujące. We własnym mniemaniu będący naukowcami, profesorami, doktorami OMC rehabilitowanymi, wykładowcami na kilkunastu co najmniej uczelniach  z listy ARWU, nadal nie są w stanie niczego się nauczyć i niczego zrozumieć. W swoim absolutnie niewzruszonym przekonaniu, że przecież taki pilaster, ani zresztą żaden rzecznik racjonalizmu, nie może w niczym im dorównywać, pozwalają np powoływać się na książki, których nigdy nie czytali i nigdy nawet w ręku nie mieli. Taki VANAT o istnieniu czegoś takiego jak książka wie, bo widział ją w telewizji, ale co to jest, nie ma już pojęcia. Oczywiście zakładają kreacjoniści że skoro oni nic nie czytali, to przecież taki denialista jak pilaster nie czytał niczego również.

Dlatego bez żadnej krępacji zmyśla sobie VANAT tytuły rozdziałów, czy strony na których się one znajdują.  konkretnie twierdzi VANAT, ze w podręczniku „Życie i ewolucja biosfery” Januarego Weinera na stronie 256 znajduje się opis rodzajów stabilności ekosystemów. A kiedy pilaster wytyka mu to oszustwo, VANAT, jak już wspomniano absolutnie przekonany, że skoro on sam nie ma żadnej książki, to nikt inny nie ma jej również, zarzuca pilastrowi, ze to on zmyśla i mataczy,  że jest zwykłym oszustem i oszczercą,

Brnąc dalej w swoje łgarstwa domaga sie VANAT zamieszczenia …skanu rzeczonej strony. Proszę zauważyć, że gdyby VANAT książkę na którą się powołuje miał w ogóle w reku sam mógłby zamieścić rzeczony skan i tym samym zadać kłam pilastrowi.

Ale w obyczaju kreacjonistów nie jest przedstawianie jakichkolwiek dowodów i argumentów, tylko domaganie się takowych od swoich przeciwników. I znów VANAT, jak każdy kreacjonista był absolutnie przekonany, że pilaster takiego skanu nie jest  w stanie  dostarczyć. Jak zwykle był w błędzie.

Oto zatem rzeczony skan z „Życie i ewolucja biosfery” Januarego Weinera, strona 256 i 257 (na samej stronie 256 nie ma numeru, dlatego pilaster zamieścił obie)

Jak widać są na tych stronach omaiwane łańcuchy troficzne, czyli rzecz związana ze stabilnością ekosystemów raczej luźno

VANAT 000

Kreacjoniści są po prostu chorobliwie uzależnieni od kłamstwa i łżą nawet w sprawach łatwo weryfikowalnych i nawet wtedy, kiedy nic im z tego nie przyjdzie.

Po raz kolejny rzuca to światło na aksjologiczny rodowód tej sekty, i na jej ideową inklinację w stronę istoty zwanej ojcem kłamstwa.