Ostatnia fala

Epidemia grypy z Wuhan przetacza się przez świat już prawie rok. Nie wygasła, jak się tego niżej podpisany spodziewał, na wiosnę. Spadek zachorowań był wtedy na półkuli północnej, co prawda znaczny, ale nie doszedł do zera.  Covid tlił się przez całe lato, a jesienią zaś nadeszła kolejna fala epidemii.

W poprzednich artykułach o koronawirusie niżej podpisany zademonstrował i omówił stosowany do opisu epidemii model SIR:

Matematyka w czasach zarazy

Ostatnia taka epidemia

Ci z Czytelników, którzy jeszcze go nie znają, proszeni są zatem w tym miejscu o zapoznanie się z nim poprzez lekturę wspomnianych artykułów, bo w dalszym ciągu eseju, będziemy się do tego modelu często odwoływać. Zmienimy jednak, w porównaniu z artykułami wiosennymi na ten temat, dane wsadowe.

Dowolny model, także model SIR, może bowiem być nawet bardzo precyzyjnie skonstruowany i teoretycznie doskonale odzwierciedlać rzeczywiste procesy, ale nic to nie da, jeżeli nakarmi się go słabymi danymi wejściowymi. Shit input, shit output, jak to mawiają w Śródziemiu.

W poprzednich wpisach pilastra na temat wirusa z Wuhan wykorzystywał on dane dotyczące liczby nowych przypadków zarażenia, czyli czynnik a*I*S z równań SIR, gdzie I jest, przypominamy, odsetkiem chorych w populacji, S odsetkiem podatnych na zachorowanie, a natomiast jest odwrotnością średniego czasu zarażenia osoby podatnej przez chorą.

Dane te mają tę zaletę, że są szeroko i powszechnie dostępne dla wszystkich krajów na świecie, tą natomiast wadę, że są mało miarodajne. To, że liczba ta z pewnością nie uwzględnia wszystkich przypadków zarażenia koronawirusem, jest jeszcze najmniejszym z kłopotów. Gdyby odsetek wykrytych testami chorych w stosunku do wszystkich zarażonych, był, choćby z grubsza, stały, można by się tym nie przejmować. Niestety tak nie jest. Skuteczność testów pozostawia wiele do życzenia, a sama strategia testowania potencjalnych zarażonych zmienia się zarówno w przestrzeni – pomiędzy różnymi krajami, jak i w czasie, w obrębie poszczególnych krajów. Zwłaszcza te ostanie zmiany, powodują, że adekwatne wyznaczenie parametrów modelu SIR, zwłaszcza najważniejszych z nich – średniego czasu zarażenia i średniego czasu wyzdrowienia, staje się bardzo trudne, a wyniki niepewne.

W niniejszym opracowaniu postanowił zatem autor sięgnąć po inne dane. Konkretnie po ilość hospitalizowanych z powodu zarażenia COVIDem. Wadą tych danych jest ich ograniczenie tylko do Polski, zaletą, że są właściwie niezależne od polityki reżimu dotyczącej testowania i związanych z nią matactw.

Na pierwszym wykresie pokazano okres od marca, do 24 września. Niebieskie słupki to tradycyjnie faktyczna ilość pacjentów w szpitalu, pomarańczowa krzywa to najlepsze dopasowanie modelu SIR.

W przeciwieństwie do obliczeń opartych na liczbie nowych przypadków, tym razem nie można jednak już udawać, że dane użyte w modelu obejmują wszystkich chorych, a nie tylko ich część. Na szczęście jest to część którą można uznać za stałą w czasie. Na nieszczęście, nie wiemy jaki konkretnie odsetek zarażonych choruje na tyle ciężko, żeby trafić do szpitala. Dla dalszych rozważań przyjmiemy, że liczba ta oscyluje gdzieś między 1% a 5%

Pierwszym pytaniem na jaki nasz model musi odpowiedzieć jest to, dlaczego epidemia nie wygasła latem samorzutnie, jak to model SIR teoretycznie przewiduje. Zamiast tego mieliśmy fazę „chroniczną”, kiedy liczba chorych w szpitalach była mniej więcej stała, a która to faza trwała prawie do końca września.

Jak już autor w poprzednich artykułach wspominał, model SIR ma pewną słabość. Traktuje on ludzi jak cząstki gazu doskonałego, które mieszają się zupełnie swobodnie i nie „widzą” się nawzajem poza momentami zderzeń (zarażeń). W rzeczywistości jednak ludzka populacja, trzymając się tej termodynamicznej analogii, cechuje się bardzo wysoką lepkością. Ludzie tworzą zgrupowania – klastry. Od kilkuosobowych rodzin mieszkających w jednym domu, do kilkudziesięciu tysięcy kibiców na stadionie. Rozkład wielkości tych klastrów ma charakter potęgowy (Pareto). Mało jest dużych klastrów, dużo małych klastrów. Ta lepkość, w połączeniu ze stosunkowo niską zaraźliwością koronawirusa – przypomnieć należy w tym miejscu, że nawet osoba podatna musi spędzić z chorą co najmniej kilka dni, aby się od niej zarazić – powoduje, że wirus rozprzestrzenia się zgodnie z modelem SIR, wyłącznie w obrębie klastrów. Ludzie zarażają się albo w domu (internacie, akademiku, czy w innych miejscach zbiorowego zamieszkania), albo w pracy. Natomiast pomiędzy klastrami wirus przeskakuje stosunkowo trudno i opornie. Dlatego też po każdym weekendzie, obserwowano chwilowy spadek liczby wykrytych przypadków – ludzie nie byli wtedy w pracy. Efektem tego zjawiska jest właśnie stabilizacja liczby zachorowań. Efekt ten jest widoczny w modelu w postaci stałego dopływu osób podanych – S do ich początkowej populacji. Z dostępnych danych można odczytać, że dopływ ten odbywał się, w omawianym okresie, na poziomie około stu osób dziennie. Oczywiście przy założeniu że nasza seria danych ze szpitali obejmuje wszystkie przypadki covida, co jednak, jak już wiemy, na pewno nie ma miejsca. Po ekstrapolacji na wszystkie przypadki otrzymamy zatem stały dopływ „paliwa” epidemii na poziomie od kilku do dziesięciu tysięcy ludzi dziennie. Gdyby trend ten nadal był utrzymany, po jakimś czasie, wirus spenetrowałby wszystkie klastry i pandemia w końcu by wygasła. Tak się jednak nie stało.

Po koniec września, coś się jednak zasadniczo zmieniło. Liczba przypadków, nie tylko tych w szpitalach, ale także pozytywnych wyników testów, zaczęła gwałtownie rosnąć i w końcu osiągnęła wartość ponad dziesięciokrotnie przekraczającą dotychczasowe plateau. Wzrost ten był tak gwałtowny i tak duży, że wszelkie próby „gładkiego” wyprowadzenia go z poprzedniego wiosenno-letniego trendu, są nieefektywne. Dlatego też przedstawimy ten wzrost na osobnym wykresie z osobnym dopasowaniem:

Pierwsze co rzuca się w oczy, to prawie idealne pokrycie się krzywej teoretycznej i rzeczywistej liczby covidowych pacjentów w szpitalach. Nigdy dotąd w naszych rozwiązaniach nie mieliśmy tak dokładnego dopasowania. Czyżby opisany wyżej mechanizm przeskakiwania wirusa między klastrami przestał działać i wirus zaatakował całą populację równocześnie? Parametry pomarańczowej krzywej, to tempo zarażania a = 0,19, tempo zdrowienia b = 0,11. Są one nieco wyższe niż wartości wyznaczone na wiosnę na podstawie wyników testów, ale nie na tyle, aby wytłumaczyć zniknięcie hamowania przez klastry. Nadal trzeba przecież spędzić z chorym kilka dni, aby się od niego zarazić. Kluczowy okazuje się inny parametr – początkowa liczba podatnych S0. Na wiosnę wynosił on kilka tysięcy, czyli po przemnożeniu przez „wskaźnik szpitalny” w rzeczywistości było to 100 – 400 tys osób podatnych, plus oczywiście ci, którzy stopniowo do tej grupy dołączali, kiedy wirus infekował kolejne klastry. Teraz jest to aż 200 tys osób „szpitalnych”, czyli realnie około połowy ludności Polski. Skąd ta zmiana?

No cóż, nieprzypadkowo przejście pomiędzy modelem „wieloklastrowym” ze stopniowym dopływem nowych podatnych, a pokazanym na drugim wykresie, typowym dla modelu SIR, wariantem „jednoklastrowym” odbyło się w okolicach jesiennego przesilenia. Nie jest też przypadkiem, że wiąże się to z początkiem tzw. sezonu grypowego. Sam koronawirus (parametry a, b) się nie zmienił, zmieniła się za to atakowana przez niego populacja. Z nadejściem jesieni nastąpiła drastyczna obniżka jej odporności na infekcje i tym samym gwałtowny, jednorazowy wzrost liczby podatnych. Zjawisko to jest w medycynie znane od bardzo dawna, natomiast nadal właściwie nie jest przekonująco wytłumaczone. Jakakolwiek byłaby jednak jego geneza (np. niedobór witaminy D), umościło ono drogę koronawirusowi, który zdążył już uprzednio spenetrować większość klastrów.

Tak dokładne dopasowanie do modelu teoretycznego świadczy też o tym, że cały przebieg jesiennej epidemii był już zdeterminowany i niejako zaprogramowany na początku października. Żadne blokady, lockdowny, obostrzenia, czy z drugiej strony, rozruchy i manifestacje, jakie PIS sprowokował zniszczeniem kompromisu aborcyjnego, nie miały na jego przebieg żadnego wpływu. I mieć nie mogły, bo szansa na zarażenie przy przypadkowym, kilkuminutowym czy nawet godzinnym kontakcie, nadal pozostaje pomijalnie mała. Ludzie nie zarażają się w windzie, sklepie, basenie, czy na ulicy. Jak już wspomniano główne drogi zakażeń to dom i praca. Trzecim kanałem są imprezy masowe, podczas których występuje częste mieszanie się uczestników. Modelowym przykładem takiej imprezy jest wesele. Chociaż prawdopodobieństwo że w ciągu 6 godzin trwania wesela się od chorego zarazimy, nadal nie jest specjalnie wysokie i wynosi mniej niż 5%, to i tak z 200 uczestników takiej zabawy wirusa od pojedynczego chorego może złapać z 9-10 osób.

Pozostaje kwestia szkół. Chociaż zamknięcie szkół wyższych, a na pewno ich akademików, faktycznie może nieco przyhamować rozwój pandemii, o tyle zamykanie szkół średnich, a tym bardziej podstawowych, miałoby sens tylko wtedy, gdyby dzieci, które jak wiadomo same raczej na covid nie chorują, nie tylko aktywnie przenosiły wirusa, ale i mogły zarażać siebie nawzajem. Jest to kwestia co najmniej dyskusyjna i zamykanie szkół naprawdę trudno uzasadnić merytorycznie, zresztą, jak widać, nie miało ono na trajektorię jesiennej krzywej absolutnie żadnego wpływu.

Zabranianie zaś obywatelom dostępu do basenów, siłowni i sklepów, a już na pewno cmentarzy w święto Wszystkich Świętych, inaczej niż czystą złośliwą represją i nienawiścią PIS do polskiej kultury, tradycji i historii, uzasadnić nie można. Zresztą reakcja pisowskiego reżimu na epidemię była boleśnie przewidywalna. Wychodząc od całkowitej niekompetencji jego przedstawicieli, co jest przecież wręcz oficjalną polityką PIS, wprost deklarowaną. Eksperci, czy osoby z jakąkolwiek wiedzą nie chcą przecież realizować programu PIS. Doszło wiec do tego, że odpowiednie analizy i modele musiał na potrzeby rządzących sporządzać nastolatek – amator, bo w całym PIS nie było nikogo, kto by miał o tym najmniejsze choćby pojęcie. Czy można się zatem dziwić, że jedyną strategią epidemiczną na jaką się PIS wysadził, było sprowokowanie rozruchów ulicznych, nawet krwawych, do czego nawoływał publicznie sam I sekretarz, aby potem zwalić na nie winę za wzrost zachorowań, choć uwierzyć w to mógł tylko najtwardszy komunistyczny beton?

 Z drugiej strony była to dla genetycznych patriotów okazja do masowej korupcji i napchania sobie kabzy, co odbywało się zresztą na oczach wszystkich, bez żadnej żenady.

Wreszcie, co dla PIS najważniejsze, mogła Partia upoić się swoją „sprawczością”, „posybilizmem”, wydając najbardziej absurdalne, złośliwe i dokuczliwe dla Polaków zarządzenia i zakazy i pokazując im tym samym, gdzie w pisowskim państwie jest ich miejsce. Buta i chamstwo PIS urosło wręcz do takich rozmiarów, że zaczęli prześladować oni również te grupy społeczne, ostatnio, odwołując ferie zimowe, nawet goralenvolk, które ich do tej pory popierały. Wszystko, a zwłaszcza lecące w dół wskaźniki sondaży, wskazuje jednak na to, że tym razem kropla jednak przelała czarę, a dzban stracił wreszcie swoje ucho. Gorzej, że przyparty do muru PIS może, nie tylko na odchodne zaszkodzić Polsce jak tylko będzie potrafił, np. składając notyfikację o wystąpieniu z UE, ale i w obronie tego co do tej pory w Polsce nakradł, sięgnie po nagą przemoc. Nie ufając oficjalnym państwowym strukturom siłowym, PIS już szkoli i zbroi rekrutowane ze środowisk kryminalnych bojówki żołnierzy wyklętych. Inaczej niż kwestie wirusa z Wuhan, które szybko zmierzają do szczęśliwego zakończenia, sytuacja społeczna i polityczna w Polsce, wobec rosnącej w oczach desperacji i paniki w PIS, wygląda źle.

Papierowy tygrys, zmęczony smok

W nocy z 9 na 10 marca 1945 roku w wyniku nalotu bombowego na Tokio powstała tzw. burza ogniowa, w której zginęło ponad 100 tysięcy ludzi, a praktycznie cała zabudowa została doszczętnie wypalona. 6 sierpnia tegoż roku nad miastem Hiroshima rozpalił się błysk „jaśniejszy niż tysiąc słońc”. Wskutek pierwszego w historii ataku nuklearnego, zginęło kilkadziesiąt tysięcy mieszkańców, a Hiroshima została zrównana z ziemią. Trzy dni później, 9 sierpnia, w atomowym ogniu spłonęło Nagasaki.

W wyemitowanym 15 sierpnia w radiu przemówieniu, japoński tenno, na zachodzie tytułowany zwyczajowo cesarzem, w końcu musiał przyznać, że prowadzenie polityki godnościowej i podnoszenie kraju z kolan, nie przyniosło jednak Japonii pomyślności. Po ośmiu latach krwawej wojny toczonej z Chinami, USA, Wlk Brytanią, Holandią i ZSRR, Japonia skapitulowała. Kraj dosłownie leżał w gruzach. Zniszczone były praktycznie wszystkie większe miasta i ośrodki przemysłowej, a ci mieszkańcy, którzy uszli z życiem, wegetowali w skrajnej nędzy. Jeszcze pięć lat po wojnie, ówczesny japoński PKB per capita był, co wydaje się dzisiaj nie do wyobrażenia, dwukrotnie niższy od ówczesnego …polskiego.

Zmiana polityki godnościowej na politykę białej flagi przyniosła jednak Japonii gigantyczne korzyści. Okupujący archipelag po wojnie Amerykanie zmienili ustrój społeczno – gospodarczy Japonii w kierunku bardziej wolnorynkowym. W rezultacie gospodarka Kwitnącej Wiśni zaczęła się rozwijać. Szybko. Bardzo szybko. W latach 60 XX wieku tempo wzrostu wyspiarskiego dobrobytu, mierzonego PKB per capita, sięgało nawet 10% rocznie. Pod koniec lat 80 japoński PKB per capita przekroczył zaś 80% poziomu amerykańskiego. Wydawało się, że już, lada moment, biel i czerwień japońskiej flagi zastąpią amerykańskie „Stars and stripes” w roli światowego lidera gospodarczego i cywilizacyjnego, a nawet militarnego. USA miał zaś czekać nieunikniony zmierzch i upadek. Nad światem zapanować miało niepodzielnie Wschodzące Słońce.

I …nic. Japonia nie tylko nie prześcignęła Ameryki, ale, w stosunku do niej, zaczęła się wręcz cofać i dzisiaj japoński PKB pc stanowi już tylko 72% poziomu USA. Podobna historia, choć na mniejszą skalę, przydarzyła się też Tajwanowi i Korei. W przeciwieństwie do Japonii, oba te kraje nadal jeszcze gonią USA, ale już bardzo powoli. Z krajów Dalekiego Wschodu jedynie Singapur i Hong-Kong faktycznie przegoniły dobrobytem Amerykanów. Jednak, przy ich specyficznym statusie miast-państw, było to o wiele łatwiejsze.

Krajem, który z Japonią najdłużej wojował i wyszedł z tej wojny zniszczony w porównywalnym z nią stopniu, były Chiny. Po wojnie zaś, mniej szczęśliwe niż Japonia, wpadły Chiny dodatkowo w łapy komunizmu, który przez kolejne dekady, siał w Chinach terror, głód, ruinę i zniszczenie. Pod koniec lat 70, kiedy w Pekinie do władzy doszła bardziej umiarkowana, pragmatyczna frakcja komunistów, kraj leżał dosłownie w gruzach. Zniszczone był przemysł i rolnictwo, a ci mieszkańcy, którzy zdołali ujść z życiem, wegetowali w skrajnej nędzy. W roku 1976 ówczesny chiński PKB per capita stanowił ledwo …10% ówczesnego polskiego, wcale przecież nie wygórowanego.

W tej sytuacji komuniści chińscy, nie mając już innego wyjścia, zmienili ustrój społeczno – gospodarczy Chin w kierunku bardziej wolnorynkowym. W rezultacie gospodarka Kraju Środka zaczęła się rozwijać. Szybko. Bardzo szybko. W pierwszej dekadzie XXI wieku, tempo wzrostu chińskiego dobrobytu sięgało nawet 10% rocznie. Bardzo szybko pojawiły się głosy o nowym supermocarstwie rzucającym wyzwanie USA, o świecie dwubiegunowym i oczywiście o zmierzchu Ameryki i jej nieuniknionym upadku. Nad światem zapanować miał niepodzielnie Smoczy Tron.

Jeżeli te historie wydadzą się czytelnikom bardzo podobne, to autor śpieszy w tym miejscu z zapewnieniem, że to podobieństwo jest jedynie powierzchowne i złudne, a analogia fałszywa. Pierwszą z różnic pokazuje poniższy wykres na którym pokazano odsetek, jaki w latach 1950-2019 chiński PKB per capita stanowił względem innych krajów regionu, oraz Polski i USA.

Tyg 01

Japonia, jak już autor wspomniał, zatrzymała się przy 80% poziomu amerykańskiego. Tymczasem dzisiaj, w roku 2020, rzekomo równorzędne z USA globalne supermocarstwo, w rzeczywistości ledwo sięga ¼ poziomu USA, 1/3 poziomu Japonii, oraz ½ poziomu …Polski. Chiński tygrys jest więc w znacznej mierze papierowy. No, ale, można w tym momencie kontrargumentować, inaczej niż w przypadku Tokio, pekiński smok jeszcze przecież pogoni za USA nie zakończył. Kiedy zatem Chiny, biorąc pod uwagę dotychczasowy trend, zrównają się cywilizacyjnie z Ameryką? Prawidłowa odpowiedź na to pytanie brzmi …nigdy. Nigdy Chiny nie dogonią USA.

Ani Japonii.

Ani Korei Południowej

Ani Tajwanu.

Ani nawet Polski też Chiny nigdy nie dogonią.

Ocenianie gospodarek poprzez poziom PKB i jego dynamiki, odbywa się przy, rzadko kiedy werbalizowanym wprost założeniu, że wzrost gospodarczy, tak samo jak wzrost populacji myszy w przyrodzie, ma charakter wykładniczy. Czyli że jest proporcjonalny do poziomu PKB, czy populacji myszy, już wcześniej osiągniętego i przyrasta o określony jego odsetek rocznie. Podobnie jak myszy rodzą kolejne myszy, tak samo pieniądz ma rodzić pieniądz. Tak jest w istocie, ale tylko wtedy, kiedy podstawowym środkiem produkcji jest właśnie pieniądz, czyli kapitał. W poprzedzającej kapitalizm gospodarce rolniczej, maltuzjańskiej, kiedy podstawowym środkiem produkcji była ziemia, w postaci ziemi rolnej, czy surowców wydobywanych w kopalniach, wzrost gospodarczy był, jak zauważył Thomas Malthus, ekonomista który pierwszy opisał ilościowo tą cywilizację, bardziej liniowy niż wykładniczy. I podawanie ówczesnego wzrostu w procentach, co często się w publicystyce historycznej spotyka, jest sporym przekłamaniem.

Ale i w cywilizacji kapitalistycznej, industrialnej, tak samo jak i w ekologii, wzrost wykładniczy nie może trwać wiecznie. Populacja myszy, ani nawet populacja much również nie rosną przecież w nieskończoność. Realnie, wskutek narastającej wraz ze wzrostem populacji, konkurencji międzyosobniczej o dostęp do zasobów, wykładniczy wzrost populacji zawsze w końcu wyhamowuje i populacja stabilizuje się na pewnym poziomie liczebności zwanym pojemnością środowiska. W ekonomii odpowiednikiem tego mechanizmu jest akumulacja kapitału. Konkurencja miedzy kapitałem również stopniowo narasta, czego widocznym rezultatem jest malejąca stopa zwrotu. W rezultacie zarówno w ekologii jak i w ekonomii wzrost wykładniczy przekształca się we wzrost logistyczny, który zwalnia coraz bardziej, aż zamiera na asymptocie pojemności środowiska, czy maksymalnego poziomu PKB i PKB per capita. Równanie logistyczne określone jest przez dwa parametry. Tempo przyrostu w czasie, tak samo jak we wzroście wykładniczym, oznaczane literą r i pojemność środowiska – maksymalna wielkość populacji i PKB oznaczane zwykle przez K

Znając dotychczasową dynamikę PKB per capita możemy interpolować krzywe logistyczne wzdłuż których się ona odbywała i tym samym wyznaczyć oba ich parametry. Pojemność środowiska K dla omawianych krajów pokazano na kolejnym wykresie. Obok poziomu docelowego, zaznaczono też poziom obecny z 2019 roku.

Tyg 02

Widzimy, że Japonia właściwie już osiągnęła swoją asymptotę, a Korea i Tajwan są jej stosunkowo bliskie.  Zaskoczeniem może być natomiast fakt, że blisko niej są również …Chiny. I że ta chińska asymptota, maksymalny możliwy poziom zamożności, leży nie tylko najniżej ze wszystkich pokazanych krajów, ale leży też niżej, niż poziom zamożności jaki te kraje, również Polska, mają obecnie! Nie tylko więc Chiny nie dogonią nigdy USA, Japonii, czy Polski, ale nie osiągną nawet ich dzisiejszego poziomu zamożności. Na zawsze zatem pozostaną krajem biednym, prymitywnym i zacofanym. Całe stulecie 1950-2050 w wykonaniu omawianych krajów przedstawiono na wykresie. Zaznaczono na nim nie tylko dynamikę dobrobytu, ale i asymptoty do których PKB per capita w poszczególnych krajach dąży.

Tyg 02a

W tym miejscu nasuwa się jednak oczywiste pytanie, dlaczego Chiny tak właśnie mają? Wszak trzy z omawianych krajów, Tajwan, Singapur i Hong-Kong, są właściwie tak samo „chińskie” jak Chiny, zamieszkałe w przeważającej mierze przez Chińczyków, a ich poziomy asymptot zamożności K są dużo od chińskiego wyższe. Korea i Japonia zaś, chociaż Chinami już nie są, to i tak są kulturowo im bliższe dużo bardziej niż Polsce, czy USA. Dodatkowo można zauważyć inne intrygujące zjawisko. Kiedy, oprócz samego poziomu docelowego parametru K, weźmiemy tez pod uwagę trajektorie po której dana gospodarka do tego punktu docelowego zmierza, czyli parametr r. Okazuje się, że oba te parametry nie są niezależne. Im szybciej gospodarka się rozwija, czyli im wyższe ma r, tym niższy docelowy poziom K osiągnie. Z omawianych krajów, jedynie Singapur zdaje się wyłamywać z tej reguły:

Tyg 03

Istnieje zatem jakiś powód dla którego Chiny znajdują się na jednym krańcu tej skali, z szybkim, ale za to krótkim wzrostem, a USA na drugim, ze wzrostem wolnym, ale bardzo długo trwającym. Aby znaleźć ten powód musimy wyjść poza PKB i sięgnąć do innych danych opisujących gospodarki poszczególnych krajów. Takim dodatkowym parametrem będzie w naszym przypadku wskaźnik Index of Economic Freedom, tzw IEF. Wskaźnik ten, określa z grubsza poziom wolnego rynku w danej gospodarce, intuicyjnie oczekujemy bowiem, że poziom zamożności danego kraju, może być z wolnym rynkiem jakoś skorelowany.

I, co za niespodzianka, faktycznie jest. Poziom korelacji wynosi 79%. Im bardziej wolnorynkowy kraj, tym wyższy pułap zamożności K osiągnie. Chiny, jako kraj nadal faktycznie komunistyczny, tyle że w fazie swoistego NEPu, przystało, kraj w którym właściwie nie ma własności prywatnej, ma IEF stosunkowo niski i tym samym i niewielki osiągalny poziom PKB per capita. Startując jednak od bardzo niskiego poziomu wyjściowego, wskutek agresywnych inwestycji kapitałowych, mogły Chiny osiągnąć wzrost gospodarczy bardzo szybki, ale też i krótkotrwały. Rosja przed I wojną światową, a potem ZSRR, też okresowo były najszybciej rozwijającymi się krajami swoich czasów. Nie zdominowały jednak świata, choć powszechnie to prorokowano, a ZSRR nawet jawnie to zapowiadał.

Drążąc temat dalej, zauważmy, że na całość IEF składa się 12 subparametrów, takich jak wolność od korupcji, poziom ochrony własności prywatnej, wolność handlu itp. Jeżeli każdą z tych 12 składowych potraktujemy jako współrzędną, to możemy zbudować tzw. przestrzeń fazową o 12 wymiarach. Każdy kraj staje się wtedy punktem w takiej przestrzeni. Kraje o podobnym ustroju określonym przez parametry modelu IEF, znajdą się w przestrzeni fazowej blisko siebie, a kraje o odmiennych ustrojach – daleko. Mierząc odległości w tej przestrzeni, możemy zobaczyć do jakich krajów Chinom blisko pod względem ustroju gospodarczego, a do jakich daleko. Do porównania wzięto tym razem więcej krajów z szeroko rozumianego basenu Pacyfiku. Przedstawienie dwunastowymiarowej przestrzeni fazowej w dwóch wymiarach kartki papieru, tak aby zachować odległości między punktami, jest zadaniem karkołomnym i dla komputera bardzo trudnym, wymagającym długich, złożonych obliczeń. Ale jednak jest ono, jak widać na poniższym wykresie, wykonalne. Ponieważ wśród krajów wziętych do analizy znajduje się zarówno kraj z najwyższym (Singapur), jak i z najniższym (Korea płn) IEF na świecie, wykorzystano te dwa skrajne punkty do wytyczenia swoistej „osi wolnego rynku”. Pod pojęciem „inne Chiny” kryją się kraje chińskie niekomunistyczne. Makau, Hong Kong, Singapur i Tajwan. „Tygrysy” to pozostałe wysokorozwinięte kraje azjatyckie: Japonia, Korea i Malezja.

Tyg 04a

Okazuje się że kraje o tradycji anglosaskiej, USA, Kanada, Australia i Nowa Zelandia, pod względem ustroju społeczno-gospodarczego różnią się bardzo niewiele i wszystkie w przestrzeni fazowej znajdują się blisko siebie. Niedaleko nich, ale jednak wyraźnie oddzielone, są też „tygrysy”: Japonia, Korea i Malezja, oraz „inne Chiny” – poza Makau. To ostatnie znajduje się w otoczeniu takich krajów, jak Meksyk, Panama, Filipiny i Peru. Kraje latynoskie zresztą, inaczej niż anglosaskie, nie stanowią jednej zwartej grupy, a ich spektrum ustrojowe rozciąga się od mało różniącego się od azjatyckich tygrysów Chile, do niepokojąco bliskiej Korei płn. Boliwii. A Chiny właściwe, kontynentalne, ludowe? Ano właśnie. W żadnym razie nie jest to kraj wolnorynkowy i praworządny. Bliżej mu ustrojowo do Rosji, niż do któregokolwiek z cywilizowanych krajów azjatyckich, w tym również chińskich Tajwanu i Singapuru.

Wpływ różnic ustrojowych i jakości rządzenia na wzrost gospodarczy nie jest ewidentny, dopóki dany kraj jest biedny i tym samym zwrot z inwestycji kapitałowych jest wysoki. Mając odpowiednio dużą stopę zwrotu, kapitał chętnie zaryzykuje, nawet przy wysokiej korupcji i dużej niepewności instytucjonalnej. Jednak w miarę akumulacji kapitału, stopa zwrotu spada i jakość rządzenia zaczyna być istotna. W końcu zwrot jest na tyle niewielki, że nie warto ryzykować, że inwestycja zostanie przez władzę „udomowiona”, a koszt obsługi korupcyjnej zje wszystkie potencjalne zyski. Inwestycje się zwijają, a rozwój zamiera na poziomie, nieco mylnie zwanym „pułapką średniego rozwoju” Poziom tej pułapki, czyli asymptota K, jest tym niższy im gorszy jest rząd i niższy współczynnik IEF. Kraje wolnorynkowe i praworządne, o odpowiednio wysokim IEF, przechodzą zaś przez tą pułapkę w ogóle bez szwanku, zamieniając jedynie główny silnik rozwoju z inwestycji kapitałowych, na innowacje. Rozwój oparty na innowacjach ma jednak innych charakter niż rozwój kapitałowy. Zwrot z innowacji jest niski, zatem rozwój przebiega dużo wolniej. Najważniejsze jednak, że, inaczej niż w przypadku kapitału, innowacje nie rodzą same kolejnych innowacji. Wzrost gospodarczy przestaje być więc wykładniczy i staje się znów, jak w maltuzjanizmie, liniowy. W tej fazie układ staje się też wrażliwy na efekty drugorzędowe, nie tylko gospodarczo-ustrojowe, ale także kulturowe. W końcu, mimo zbliżonego położenia w przestrzeni fazowej IEF, azjatyckie „tygrysy”, z wyjątkiem Singapuru, mają wyraźnie niższą asymptotę maksymalnego dobrobytu od krajów anglosaskich. Pozostające przez kilkaset lat pod władaniem Portugalii Makau leży zaś, zapewne z tego właśnie powodu, bliżej w tej przestrzeni krajów latynoskich, niż chińskich.

Te subtelne różnice nie dotyczą jednak chińskiego komunistycznego smoka, który padnie na długo przed osiągnięciem granicy, przy której zaczynają one mieć znaczenie. Chińska „pułapka średniego rozwoju” leży naprawdę bardzo nisko. Oczywiście przyszłość nie jest zdeterminowana i również Chiny mogą tej pułapki uniknąć. Ale jeżeli faktycznie mają z sukcesem gonić USA, to same muszą się stać takie jak USA. Praworządne, wolnorynkowe i indywidualistyczne. Japonia, Korea, czy Tajwan zaszły tą drogą dużo dalej niż obecne Chiny, a i tak nie było to, jak się okazuje, wystarczająco daleko. Ale, aby osiągnąć choćby poziom Tajwanu, muszą Chiny zbliżyć się do Tajwanu również w przestrzeni fazowej, czyli podnieść swój IEF o około 20 pkt, co, co prawda umieściłoby Chiny w gronie krajów naprawdę cywilizowanych, ale i oznaczałoby najpewniej utratę władzy przez obecne elity rządzące, na co nie mogą sobie one pozwolić. Nie pierwszy to przypadek w krajach dzikich, o niskim IEF, że interesy kraju są zasadniczo sprzeczne z interesami jego władzy.

 

Powyższy artykuł był opublikowany w 1579/1580 numerze tygodnika „Najwyższy Czas”

Zmiana klimatu. Na lepsze.

Wielkimi zabobonami naszych czasów są globalne ocieplenie i nierówności majątkowe. Oba te zjawiska w przestrzeni społecznej funkcjonują jako mity, w kompletnym oderwaniu od rzeczywistych zjawisk klimatycznych, czy ekonomicznych, do których się odwołują. Dzisiejsze ocieplenie klimatu, nawet jeżeli faktycznie zachodzi, ma przecież przyczyny całkowicie odmienne, niż kapitalistyczna żądza zysku i wyzysku za wszelką cenę, przeludnienie i nadmierną konsumpcję, konkretyzujące się w emisjach tzw. gazów cieplarnianych. Nierówności zaś, są rzeczą naturalną i pożądaną. W analogii do termodynamiki, nierównowaga ekonomiczna ma niską entropię i tym samym umożliwia szybki i dynamiczny rozwój. W momencie osiągnięcia zaś całkowitej równości, entropia układu, w tym przypadku ekonomicznego, osiąga swoje maksimum i wszelka dynamika ekonomiczna, pomijając przypadkowe fluktuacje statystyczne, zamiera.

Podobnie jak nierówności ekonomiczne, również ocieplenie klimatu posiadałoby swoje zalety. W rolnictwie cieplejszy klimat oznacza dłuższy okres wegetacji i mniejsze ryzyko niszczących plonów przymrozków. Przy większym ociepleniu może się okazać możliwe zbieranie plonów nawet dwa razy do roku. Taka intensyfikacja produkcji rolnej, pozwala na skoncentrowanie jej tylko na urodzajniejszych gruntach i pozostawienie pozostałych areałów przyrodzie, do swobodnej ekologicznej sukcesji. Cieplejszy klimat zmniejsza też koszty ogrzewania budynków zimą, zużycie opału i produkcję smogu. Zmniejszenie ryzyka opadów śniegu, szadzi, oblodzeń, znacząco obniża koszty budowy i utrzymania infrastruktury drogowej i energetycznej. Brak zalodzenia rzek zimą redukuje ryzyko wiosennych zatorów i powodzi praktycznie do zera. W skali globalnej otwierają się dla rolnictwa i zasiedlenia ogromne, a dzisiaj praktycznie bezludne obszary Kanady, Syberii, Grenlandii i Antarktydy.

Oczywiście oprócz korzyści ekonomicznych, ocieplenie może pociągnąć za sobą i pewne koszty. Wyznawcy globalnego ocieplenia, zwani przez niżej podpisanego „klimatystami”, zorganizowani jako, na poły polityczne i gospodarcze lobby, na poły sekta religijna, nieustająco Głoszą o tych drugich, nigdy natomiast nie wspominając o tych pierwszych. Tymczasem, zakładając, że klimat globalny, tak samo jak to było w analogicznej fazie poprzedniego, przed naszym obecnym Holocenem, interglacjału zwanego Eemianem, faktycznie się ociepla, zrobienie takiego rzetelnego bilansu zysków i strat z tego tytułu, byłoby bardzo pożądane.

Czasy mamy takie, czy, cytując słowa klasyka, taki mamy właśnie klimat, że nawet prace naukowe, ulegając medialnej modzie, aby zmaksymalizować szanse na zdobycie odpowiedniego grantu, należy jakoś przypisać do „nierówności”, lub „globalnych zmian klimatu”. Oceanolog który napisze we wniosku, że chce badać prądy morskie bo jest tego tematu ciekawy, szansę na pozytywną odpowiedź będzie miał znacznie mniejszą, niż kiedy napisze, że będzie dociekał wpływu, jakie na owe prądy wywiera straszliwe Ocieplenie.

Dlatego też nie należy się dziwić i bulwersować, że, traktująca o interesującym nas temacie, praca Noaha S. Diffenbaugha Marshalla Burke’a z Uniwersytetu Stanforda, nosi jakże piękny marketingowo tytuł Global warming has increased global economic inequality. [PNAS May 14, 2019 116 (20) 9808-9813]

Autorzy, zakładając, że ocieplenie klimatu w latach 1991-2010 faktycznie zaszło, przeanalizowali jego wpływ na gospodarki poszczególnych krajów. Wynik podany jest w postaci dwóch wskaźników. Pierwszy z nich, „impakt ekonomiczny”, podaje o ile, w procentach, dana gospodarka jest mniejsza lub większa, niż byłaby gdyby do ocieplenia nie doszło. Drugim parametrem jest „ryzyko szkód ekonomicznych” jakie owa zmiana klimatyczna wywołała.

Jak można tego oczekiwać, część krajów na domniemywanym ociepleniu straciła, ale część zyskała. Najciekawsze w tym jednak jest, jakie czynniki o miejscu konkretnego kraju w tej klasyfikacji zdecydowały. Kiedy spojrzymy na umieszczoną w publikacji mapę:

f2.large_

To nachalnie narzuca się oczywisty klucz geograficzny. Im bliżej równika znajduje się dany kraj, tym brutalniej „globalne zmiany klimatyczne” się z nim obchodzą. Kraje zaś położne w strefie umiarkowanej na ociepleniu zyskują.

W tej ostatniej grupie, znajduje się i Polska z „impaktem ekonomicznym” w wysokości 8,1%. Skoro ocieplenie jest dla naszego kraju korzystne ekonomicznie, chciałoby się wręcz napisać, to nie tylko nie powinniśmy z nim walczyć, ale wręcz przeciwnie, zwiększać je na wszystkie sposoby, np. emitując większe ilości CO2, gdyby oczywiście ocieplenie było właśnie tymi emisjami spowodowane.

Korelacja geograficzna rzuca się w oczy w sposób tak oczywisty, że wręcz oślepia. Ulegli temu zaślepieniu również Diffenbaugh i Burke i nie szukali już żadnych innych przyczyn istnienia takiego właśnie rozkładu „impaktu ekonomicznego”. Tymczasem korelacje bywają zwodnicze, tym bardziej, im są, jak w tym przypadku, silniejsze. Z istnienia korelacji pomiędzy zjawiskami A i B nie wynika bowiem wcale, że to A wywołuje B. Równie dobrze może być na odwrót, choć w naszym akurat przypadku, hipoteza, że to wyniki ekonomiczne gospodarek wpływają na położenie geograficzne kraju, byłaby już zdecydowanie zbyt ekstrawagancka.

Może jednak też istnieć trzecie zjawisko C, które wpływa zarówno na A, jak i na B, względnie A faktycznie wywołuje B, ale za pośrednictwem jeszcze innego zjawiska D.

Konsekwencją przyjęcia tak naturalnej i oczywistej korelacji geograficznej, jest istnienie „optymalnej ekonomicznie” średniej temperatury, na poziomie ok. 12 stopni Celsjusza, przy której wydajność gospodarki miałaby osiągać swoje maksimum. Czy jednak takie ekonomiczne optimum termiczne naprawdę istnieje? Cywilizacja Zachodu powstała i przez tysiące lat koncentrowała się w strefie klimatu śródziemnomorskiego. Można by więc przyjąć, że takie właśnie miała ona termiczne optimum. Można by, gdyby nie fakt, że na przełomie VI i VII wieku, w skali historycznie wręcz błyskawicznie, w ciągu właściwie jednego pokolenia, centrum tej cywilizacji, przemieściło się gwałtownie na północ, w kierunku doliny Renu, w strefę klimatu umiarkowanego, ze znacznie niższymi temperaturami. Analogiczny proces, chociaż w przeciwną stronę, zaszedł też na drugim krańcu Eurazji. Dzisiaj Chiny kojarzą nam się z ryżem, a najbogatsze prowincje tego kraju leżą na południu, w dorzeczu Jangcy, przy czym przed wprowadzeniem w XVII wieku w Chinach upraw ziemniaków i kukurydzy ta ekonomiczna dominacja południa była jeszcze większa. Jednak aż do upadku dynastii Han w III wieku, głównym chińskim zbożem było proso, a centrum gospodarcze tej cywilizacji znajdowało się na północy, w chłodniejszym klimacie dorzecza Huang-Ho.

Nawet zatem w gospodarce preindustrialnej, maltuzjańskiej, której podstawowym sektorem jest, w wysokim stopniu zależne od fluktuacji klimatycznych i meteorologicznych rolnictwo, istnienie takiego stałego termicznego optimum jest bardzo wątpliwe. Nawet gospodarka rolnicza jest w stanie owe optimum termiczne zmieniać. Co dopiero gospodarka w mniejszym stopniu od kaprysów pogodowych zależna, industrialna i postindustrialna. Skoro jednak to nie położenie geograficzne determinuje „impakt ekonomiczny” ocieplenia, to co?

Zwykle jakoś tak się dzieje, że wszelakiego typu zjawiska ekonomiczne są bardzo silnie zależne od poziomu wolnorynkowości w danym kraju. Idąc tym tropem, sprawdzimy teraz korelację pomiędzy klimatycznym impaktem ekonomicznym, a opisującym poziom wolnego rynku w gospodarce, współczynnikiem „Index of Economic Freedom”, IEF, a właściwie średnią z tego współczynnika w interesującym nas okresie. Okazuje się, że taka korelacja faktycznie występuje na poziomie 36% dla impaktu i -37% dla ryzyka. Im bardziej wolnorynkowa jest gospodarka, tym większe korzyści wyciąga z ocieplenia i tym mniejsze jest prawdopodobieństwo, że zmiany klimatyczne jej zaszkodzą. Nie są to może korelacje przesadnie silne, ale są istotne statystycznie. Prawdopodobieństwo, że występują przypadkowo jest znacznie mniejsze niż 1%.

Oprócz oczywistej korelacji geograficznej, mamy więc także korelację ustrojową. Która z nich bardziej odpowiada rzeczywistości? Aby odpowiedzieć na to pytanie rozbijemy teraz wskaźnik IEF na poszczególne jego części składowe i obliczymy korelację między impaktem klimatycznym a każdą z nich z osobna. Na poniższym wykresie przedstawiono zbiorczo uzyskane korelacje istotne statystycznie:

Ekooc

Największy wpływ na efekty ocieplenia ma wolność handlu (Trade Freedom). Ale i inne składowe wolnego rynku nie są bez znaczenia. Prawo własności, niski poziom korupcji (Goverment Integrity), wolność biznesu, inwestowania i finansów, wszystko to pozwala gospodarce przekuć zmiany klimatyczne w zyski i zmniejszyć ryzyko strat. To nieunikniony rezultat. W gospodarce wolnorynkowej każda zmiana, także zmiana klimatu, jest szansą, na której można zarobić. Kiedy zacznie padać deszcz, zaraz ktoś będzie sprzedawał parasole. Kiedy zaświeci słońce na rynku natychmiast pojawią się kremy przeciwsłoneczne i klimatyzatory. Inaczej jest w przeżartej korupcją gospodarce „narodowej”, socjalistycznej, w której dominują państwowe monopole, narodowe czempiony, od pola do stołu dławiące jakąkolwiek konkurencję. Gdzie decyzje organów państwa zapadają nie w oparciu o procedury prawne i odpowiednie przepisy, ale poprzez odwoływanie się do woli narodu spersonifikowanego w postaci I sekretarza, czy innego prezesa. Tam każda zmiana jest z kolei zagrożeniem, czymś nieujętym w planie pięcioletnim, nieprzewidzianym w uchwałach zjazdu Partii.

Tym jednak, co ostatecznie przesądza o tym, że to właśnie klucz wolnorynkowy odpowiada za „impakt ekonomiczny” zmian klimatu, jest korelacja z wydatkami publicznymi (Goverment Spending). W przeciwieństwie do wszystkich pozostałych jest to bowiem korelacja odwrotna. Im wyższy poziom wydatków państwowych, czyli im mniejszy poziom wolnorynkowości w tym sektorze, tym akurat impakt ekonomiczny jest bardziej korzystny, a ryzyko mniejsze. Takiego efektu właśnie można by się spodziewać, jeżeli potraktujemy ocieplenie jako coś w rodzaju rozciągniętej w czasie klęski żywiołowej. Zarządzanie takimi klęskami, np. budowa i konserwacja infrastruktury antypowodziowej, organizowanie i utrzymywanie straży pożarnej, jest akurat jedną z tych bardzo niewielu rzeczy, która władzy publicznej wychodzi zwykle lepiej niż sektorowi prywatnemu. Oczywiście władzy w kraju ogólnie wolnorynkowym. Władzy sprawnej, kompetentnej i nieskorumpowanej. W kraju socjalistycznym bowiem, także klęski żywiołowe powtarzają się co roku cyklicznie. Wiosna, lato, jesień i zima.

Klucza geograficznego nie należy oczywiście całkiem lekceważyć. Bardzo duże korzyści z ocieplenia wyniosła np. Rosja, a nie jest ten kraj przecież wolnorynkowym liderem. Jeżeli jednak klimat, w Holocenie tak samo jak w Eemianie, faktycznie się ociepla, to odpowiedzią na to zjawisko, nie może być realizacja postulatów klimatystów, redukcja populacji, redukcja konsumpcji i wprowadzenie światowego reżimu komunistycznego. Przed negatywnymi skutkami zmian klimatu znów, tak jak w miażdżącej większości innych przypadków, uratuje nas niewidzialna ręka wolnego rynku.

Korelacja geograficzna została przez Diffenbaugha i Burke’a tak bardzo przeszacowana, ponieważ mieliśmy do czynienia z sytuacją A =>D =>C. Kraje tropikalne faktycznie zostały bardziej dotknięte zmianami klimatycznymi, ponieważ zwykle kraje te mają, a przynajmniej w latach 1991-2010 miały, bardzo złe rządy, czyli niski wskaźnik IEF. Chociaż impakt ekonomiczny ocieplenia nie zależy bezpośrednio od aktualnego klimatu, to jednak jakość rządów i poziom wolnego rynku jednak najwyraźniej od temperatury zależą. Podobne zjawisko spotykamy w ekologii. Gatunki i ekosystemy tropikalne, gdzie nie występują właściwie pory roku, są bardzo „sztywne” i wrażliwe na jakiekolwiek zmiany. Ekosystemy strefy umiarkowanej i polarnej, doświadczające rocznej sezonowości, są o wiele bardziej elastyczne i łatwiej się do zmian adaptują. Tak samo jest ze społeczeństwami ludzkimi. W kraju tropikalnym, gdzie nigdy nie trzeba było gromadzić zapasów na zimę, gdzie posiadanie schronienia na noc nie jest jakimś wyraźnym imperatywem, a jedzenie rośnie cały rok na drzewach, oczekiwania społeczne wobec władzy nie są, w porównaniu z krajami znającymi pory roku, jakoś specjalnie wyśrubowane. Jeżeli jednak ocieplenie będzie nadal postępować, to presja na wyższą jakość rządzenia pojawi się także w tropikach. Zresztą to zjawisko widać nawet w Afryce, kiedyś od krańca do krańca rządzonej przez nieudolne, skorumpowane, socjalistyczne dyktatury. Dzisiaj jednak już osiem krajów afrykańskich ma IEF powyżej 60, a dwa nawet powyżej 70, co odpowiada już krajom „w większości wolnym” w klasyfikacji IEF (Polska do nich nie należy).  Szczególnie imponujący jest awans do tego elitarnego grona Rwandy, kraju, w którym jeszcze pokolenie temu obywatele na wezwanie lokalnych fuhrerków wyrzynali się nawzajem maczetami. Ale było to przy poziomie IEF poniżej 40.

Zmiany klimatyczne, jeżeli faktycznie postępują, nie oznaczają zatem, jak chcieliby klimatyści, nadejścia światowego gułagu, ale przeciwnie, umocnienie w skali świata praworządności i wolnego rynku, bo tylko takie zmiany umożliwiają dostosowanie cywilizacji do zmian w sposób bezbolesny i właściwie bezkosztowy.

Powyższy artykuł był również opublikowany w 1577/1578 numerze tygodnika „Najwyższy Czas”

O sztuce czytania z sondaży

Nieodzowną częścią współczesnej polityki są sondaże. W okresie, w którym akurat nie odbywają się żadne wybory, to właśnie dynamika sondaży jest tym, co szczególnie polityków i ich potencjalnych wyborców ekscytuje. Przy czym regułą jest, że partie, których notowania sondażowe akurat rosną, odnoszą się do sondaży z entuzjazmem, a partie ze spadającymi notowaniami, sondaże deprecjonują i lekceważą. Faktem jest też, że czasami wyniki sondażowe bardzo odbiegają od faktycznych wyników wyborów, choć nie zdarza się to tak często, jak można by wnosić z wyolbrzymionych medialnych doniesień. W każdym razie, mechanika sondaży, nie tylko politycznych, zasługuje na to, żeby się jej bliżej przyjrzeć.

W pierwszym przybliżeniu, sondaż polega na wylosowaniu z badanej populacji, w przypadku sondaży politycznych, jest to populacja wyborców, jakiejś próbki i zadaniu jej pytania o preferencje wyborcze. Z matematycznego punktu widzenia mamy tu do czynienia z dwumianowym rozkładem prawdopodobieństwa, w Polsce, z niejasnych powodów, zwanym też rozkładem Bernoulliego. Albo ankietowany będzie zwolennikiem konkretnej partii, albo nie będzie. Załóżmy chwilowo że mamy do czynienia z sytuacją idealną. Próba jest doskonale losowa, a wszyscy wylosowani odpowiadają szczerze i zgodnie z prawdą. Jeżeli faktyczne poparcie dla danej partii wynosi p, a liczebność próbki wynosi n, to tzw. wartość oczekiwana, czyli najbardziej prawdopodobna liczba zwolenników danej partii w wylosowanej próbce wynosi E = n*p. Jednak to, że wartość oczekiwana jest najbardziej prawdopodobna, nie oznacza, że inne wartości E są zupełnie nieprawdopodobne. Faktyczny wynik sondażu prawie zawsze będzie się od wartości oczekiwanej nieco różnił. Miarą takiego rozrzutu wokół średniej, jest parametr, zwany odchyleniem standardowym. W przypadku rozkładu dwumianowego wynosi on:

(n*p*(1-p))^0,5

W rezultacie otrzymany wynik sondażu jest obarczony pewnym błędem statystycznym:

E = n*p +/- k*(n*p*(1-p))^0,5

A po podzieleniu równania stronami przez liczebność próbki n otrzymujemy wynik poparcia danego ugrupowania w procentach

W = p +/- k*(p*(1-p)/n)^0,5

Parametr k, czyli ilość odchyleń standardowych, jakie należy w obliczeniach przyjąć, zależy od tego, jak dużej dokładności od naszego sondażu oczekujemy. Zwykle przyjmuje się tzw. poziom ufności na 95%. Oznacza to, że wynik W musi się zmieścić w danym przedziale z prawdopodobieństwem 95%. Przybliżając rozkład dwumianowy rozkładem normalnym, z tablic tego ostatniego możemy odczytać, że dla takiego poziomu ufności ilość odchyleń standardowych k = 1,96.

Powyższe równanie jest równaniem kwadratowym, po rozwiązaniu którego, otrzymujemy dwie wartości p1 i p2. Prawdopodobieństwo, że faktyczne poparcie p znajduje się gdzieś między nimi, wynosi 95%. Różnica pomiędzy p1 a p2 zależy przede wszystkim od liczebności próby, czyli wartości n. Dokładnie zależy od odwrotności pierwiastka kwadratowego z n. Firmy sondażowe, zwykle dobierają liczebność próby tak, aby ta różnica, czyli błąd sondażu, stanowiła jakąś równą liczbę, zazwyczaj 3% Wtedy n = 1 067 i takiej właśnie wielkości próby najczęściej się losuje, a potem ewentualnie jeszcze informuje się odbiorcę, że „średni błąd wynosi 3%”, co jednak nie jest do końca prawdą. Jest tu bowiem pewien haczyk, który łatwo można zauważyć na poniższym wykresie:

Sondaż 01

Średni błąd bowiem, zależy, jak to było właśnie omówione wyżej, przede wszystkim od wielkości próby n, ale nie tylko od niej. Zależy też, choć w mniejszym stopniu, od samego wyniku W, co jest szczególnie jaskrawo widoczne dla W bardzo małych. Stwierdzenie że poparcie dla partii X wynosi 2% ze średnim błędem 3%, trudno bowiem traktować inaczej niż humorystycznie. W rzeczywistości dla próby tysiącosobowej, dokładnie dla n = 1067, błąd faktycznie wynosi 3%, ale tylko dla wyniku W na poziomie 50%. Przy mniejszym poziomie poparcia, przy tej samej liczebności próby n, i błąd również będzie mniejszy. Warto też zauważyć, że dla małych wartości W, sondaże zaniżają też nieco średnie poparcie dla danego ugrupowania, tym bardziej, im mniej liczna jest próba n, co ilustrują przerywane linie na wykresie.

Opisany właśnie mechanizm to swoista statystyczna zasada nieoznaczoności. Sprawia ona, że niezależnie od wysiłku i kompetencji ankieterów, w żadnych warunkach, błąd sondażu nie może być niższy niż ten obliczony powyżej. Nie ma jednak żadnych naturalnych przeszkód, by był ów błąd wyższy, a nawet dużo wyższy.

Przede wszystkim badana próba musi być rzeczywiście losowa, to znaczy, że każdy wyborca musi mieć jednakową szansę bycia wylosowanym do badania. W praktyce spełnienie tego warunku jest niezwykle trudne, a przed erą masowej telefonii mobilnej, właściwie w ogóle nie było możliwe. Przepytywanie ludzi w sklepach, na stacjach kolejowych, czy ulicach takiej losowości oczywiście nie zapewniało. Tym bardziej, że kiepsko opłacani ankieterzy, zazwyczaj studenci, lubili ułatwiać sobie pracę koncentrując się na ankietowaniu swojej rodziny, przyjaciół i znajomych, a nawet zmyślając część odpowiedzi całkowicie. Dlatego też, jeszcze kilkanaście lat temu, partie, mające nieproporcjonalnie wysokie poparcie na wsi (PSL, Samoobrona) były w sondażach regularnie niedoszacowane. Do ich wyborców znacznie rzadziej bowiem, jeżeli w ogóle, docierali ze swoimi pytaniami ankieterzy. Właściwie tylko badanie w dniu wyborów – exit poll, dawało wystarczający poziom losowości. I dzisiaj zresztą, sondaże oparte na losowaniu numerów telefonów (metody CATI i CAWI), dają znacznie lepsze, bardziej zbliżone do rzeczywistych wyników wyborczych, rezultaty, niż metody losujące ludzi (CAPI). Jedną z niewielu firm sondażowych stosujących tą archaiczną już dzisiaj metodę losowania jest CBOS i nieprzypadkowo jego prognozy odbiegają znacznie, nie tylko od wyników sondaży przeprowadzanych przez firmy konkurencyjne, ale i od faktycznych wyników wyborczych. W ostatnich wyborach parlamentarnych średni błąd CBOS był nie tylko po prostu największy ze wszystkich firm sondażowych. Był on prawie dwukrotnie większy od średniego błędu kolejnej firmy, ale już stosującej inną, dokładniejszą, metodę losowania. Tak samo było i w wyborach prezydenckich 2020 roku. Rekordzista, firma IBSP miała średni błąd kwadratowy na poziomie zaledwie 0,3 pkt proc, co było wynikiem dokładniejszym nawet, niż badanie exit poll, podczas gdy CBOS tradycyjnie zajął ostatnie miejsce wśród sondażowni, z błędem na poziomie 2,3 pkt procentowego.

 Nadal też najdokładniejsze pozostaje badanie exit poll, które ma też inne, poza losowością próby, zalety. Jest oparte na znacznie większej próbie i to na próbie, która właśnie rzeczywiście oddała głos w wyborach, a nie tylko wyraziła taką chęć i która pamięta jeszcze na kogo ten głos poszedł. Na drugim końcu skali mamy zaś sondy internetowe, w których uczestniczy próba tzw. „ochotnicza”, właściwie dokładne przeciwieństwo próby losowej i których rezultatów w związku z tym, w ogóle nie należy traktować poważnie.

Kolejnym słabym punktem sondażu jest sam ankietowany. Nawet prawidłowo wylosowany do próby respondent, wcale nie musi mieć ochoty brać w niej udziału. Dlatego też każdy sondaż powinien mieć podany poziom realizacji próby, czyli informację, ile z wylosowanych osób faktycznie wzięło w niej udział i stosownie do tego zmniejszoną wartość n, a tym samym zwiększony poziom błędu. Co gorsza, owa niechęć do bycia indagowanym, bywa bardzo silnie skorelowana z sympatiami politycznymi. Wciąż istnieją w Polsce, a nawet odnoszą wyborcze sukcesy, ugrupowania polityczne mało różniące się od religijnych sekt, których liderzy powtarzają swoim, bardziej wyznawcom, niż zwolennikom, żeby „nie wierzyli fałszowanym sondażom”. W rezultacie ich wyborcy z reguły odmawiają udziału w takich „oszukanych” sondażach i tym samym faktycznie zaniżają sondażowe poparcie dla swoich guru.

Nawet jednak, jeżeli wylosowany respondent udzieli odpowiedzi, wcale nie musi ona odpowiadać jego rzeczywistemu wyborowi przy urnie wyborczej. Przyczyny tego stanu rzeczy mogą być rozmaite. W warunkach ostrej walki politycznej, zwolennik opozycji może mieć opory przed wyartykułowaniem swojego poglądu komuś, kogo uważa, nieważne czy słusznie, za przedstawiciela władzy. Podobnie będzie, jeżeli poglądy polityczne respondenta różnią się drastycznie, od tych dominujących w jego rodzinie i bezpośrednim otoczeniu. Wreszcie, co przecież nie jest żadną niespodzianką, zasadnicza większość elektoratu polityką interesuje się bardzo słabo i w zasadzie decyzje o poparciu tego, czy innego ugrupowania, a nawet o samym uczestnictwie w wyborach, podejmuje w ostatniej chwili, a do tego czasu może w ankiecie zaznaczyć cokolwiek, bez głębszego zastanawiania się.

Mimo tych wszystkich potencjalnych problemów zwiększających poziom błędu, sondaże przedwyborcze, zwłaszcza odkąd każdy wyborca ma co najmniej jeden telefon komórkowy, mimo incydentalnych wpadek, odzwierciedlają rzeczywistość polityczną dość trafnie, a sondaże exit poll, prawie bezbłędnie. Prawdziwe kłopoty zaczynają się dopiero wtedy, kiedy rozochocone tym sukcesem firmy sondażowe próbują wejść na wyższe piętro złożoności i zaczynają sprawdzać przekroje społeczne elektoratów poszczególnych partii, czy przepływy poparcia. Obok prostego pytania „Na kogo zagłosujesz” respondent jest zagadywany o rzeczy, z którymi daleko nie wszyscy mają ochotę się publicznie afiszować, jak poziom wykształcenia, zarobków, wiek, czy stan zdrowia. Sama ankieta zaś, wydłuża się w stopniu, który zniechęca do jej wypełnienia w ogóle. W rezultacie otrzymane odpowiedzi pochodzą od pewnej specyficznej grupy, która ma czas i ochotę, aby na takie wrażliwe pytania odpowiadać, czyli w większości od ludzi o poglądach skrajnych, z zaniżeniem udziału wyborców przeciętnych, umiarkowanych, których zawsze jest większość.

Nawet jednak jeżeli zignorujemy ten brak reprezentatywności i spadający poziom realizacji, to i tak, z siłą huraganu, uderzy w nas statystyczna zasada nieoznaczoności. Jeżeli w badaniu sondażowym, poparcie dla jakiejś partii wynosiło np. 25%, to znaczy, że takie poparcie zdeklarowało 250 osób z tysiąca ankietowanych. Jeżeli teraz zadamy im kolejne pytanie, np. o wiek, to próba, która na nie odpowie, będzie już nie 1000 osobowa, a 250 osobowa. Z każdym kolejnym pytaniem, liczebność próby będzie się wykładniczo zawężać, aż do poziomu pojedynczych osób. Tym samym proporcjonalnie będzie się powiększać zakres błędu. Dodatkowo, kiedy liczebność takiej zawężanej próby spada poniżej 100 osób, nie można już przybliżać jej rozkładem normalnym i aby zachować 95% poziom ufności, ilość odchyleń standardowych – parametr k w równaniu, zaczyna rosnąć, powiększając błąd jeszcze bardziej, aż do poziomu większego niż sama mierzona wartość. Wyniki takiego sondażu stają się wtedy całkowicie bezużyteczne.

Sondaże są zatem wartościowe, i dość dokładne, tym bardziej, im bliżej wyborów są przeprowadzane. Trzeba jednak mieć świadomość ich ograniczeń, zakresów błędów i tego, że nie da się z nich wycisnąć wiele więcej danych niż sam tylko poziom poparcia dla poszczególnych partii i/lub kandydatów. Przy ocenie wiarygodności sondażu, należy zatem zwrócić uwagę na trzy kluczowe parametry: liczebność próby, poziom jej realizacji, czyli ile osób faktycznie ankietę wypełniło, oraz metodę losowania respondentów. A poważne instytucje sondażowe powinny takie informacje, przy okazji publikacji, podawać. Jeżeli ich nie podają, to z góry można je uznać za niepoważne, a podawane przez nie wyniki, ignorować.

Ostatnie takie wybory

Wybory prezydenckie przeprowadzone w Polsce w 2020 roku niespodziewanie zostały poważnie zakłócone przez przechodzącą przez świat epidemię wirusa z Wuhan. Pierwotny termin wyborów, wyznaczony na 10 maja, wskutek machinacji przywódców partii władzy, nie został dotrzymany. Trudno doprawdy zrozumieć ich motywację. Pierwotny termin, bez żadnych bowiem wątpliwości, wyraźnie faworyzował kandydata przewodniej siły narodu. Jak wielki błąd PIS popełnił, błąd, który o mały włos nie doprowadził do utraty przez niego stanowiska prezydenta, widać po dynamice sondaży.

Prez 01

W momencie wybuchu epidemii, Polacy bowiem, ze strachu przed chińskim wirusem, do urn wyborczych zwyczajnie bali się udać. Efekt ten dodatkowo podsycony został przez, eufemistycznie rzecz ujmując, niezbyt przemyślane decyzje i wypowiedzi głównego kandydata opozycyjnego. W takiej sytuacji, wyborcy PIS, inaczej niż zwolennicy wszystkich innych sił politycznych, oddani swej partii z gorliwością iście religijną, i gotowi dla niej na wszelkie poświęcenia, bez trudu mogli zmajoryzować elektorat wszystkich innych kandydatów razem wziętych i rozstrzygnąć wybory na korzyść swojego faworyta już w pierwszej turze i to z nokautującą przewagą.

Tak się jednak nie stało. Wykorzystując ten błąd PIS, Koalicja Obywatelska zdołała zmienić kandydata na bardziej fortunnego, który w krótkim czasie zdołał odrobić z nawiązką wszystkie, związane z epidemią, straty poparcia. Średnią z sondaży z ostatniego miesiąca przed wyborami, sondaże exit poll, oraz ostateczne wyniki I tury wyborów pokazano na kolejnym wykresie:

Prez 02

Do kandydatów, którzy po I turze mogli mówić o sukcesie, zaliczyć należy oczywiście jej pisowskiego zwycięzcę,  zdobywcę miejsca w II turze, Rafała Trzaskowskiego, oraz Szymona Hołownię i Krzysztofa Bosaka, którzy osiągnęli wyniki na tyle znaczące, że ich wyborcy, jak się jeszcze przekonamy, stali się czynnikiem rozstrzygającym o ostatecznym wyniku wyborów prezydenckich. Zdecydowanie polegli za to Biedroń i Kosiniak-Kamysz, co, zwłaszcza dla tego ostatniego, musiało być bardzo dotkliwe, skoro w pewnym momencie sondaże dawały mu nawet drugie miejsce w tym wyścigu.

Korzystając z danych PKW, zrobimy teraz, podobnie jak w przypadku wyborów parlamentarnych w 2019, analizy cech elektoratu startujących kandydatów. W tym celu zbadamy korelację pomiędzy poparciem dla nich w poszczególnych gminach a kolejno: wielkością danej gminy, odsetkiem głosów oddanych za pośrednictwem pełnomocników, odsetkiem głosów oddanych na podstawie zaświadczeń o prawie do głosowania, frekwencją, oraz odsetkiem głosów nieważnych. Zakładamy w tym miejscu, że przez pełnomocników głosują zwykle osoby starsze i schorowane, zaświadczeniami, zważywszy na fakt, że najwięcej takich głosów pada zawsze w popularnych ośrodkach wypoczynkowych, posługują się obywatele zamożniejsi od średniej, dodatnia korelacja z frekwencją oznacza większe zaangażowanie w sprawy publiczne i wysoki stopień zainteresowania polityką, a głosy nieważne oddają najczęściej osoby, oględnie pisząc, niezbyt bystre, dla których prawidłowe wypełnienie karty do głosowania stanowi wielkie wyzwanie intelektualne. Wyniki, w postaci korelacji istotnych statystycznie, czyli takich, których prawdopodobieństwo przypadkowego wystąpienia jest mniejsze od 1%, przedstawiono na wykresie:

Prez 03

Z wykresu wynika, że najbardziej wielkomiejski elektorat mieli Biedroń i Trzaskowski, a najbardziej wiejski Duda i Kosiniak-Kamysz. Ci ostatni najbardziej popularni byli też wśród najstarszych wyborców, a głosami najmłodszych podzielili się Trzaskowski, Hołownia i Biedroń. Trzaskowski i Biedroń cieszyli się też poparciem zamożniejszych, a Duda i Kosiniak Kamysz – biedniejszych, a także głupszych. Najbardziej uświadomiony politycznie okazał się elektorat Bosaka, a najmniej Kosiniaka. Już z tego wykresu można odczytać, że wśród głosujących w I turze, można wyróżnić pewne grupy, łączące bardzo podobny, pod względem tych cech, elektorat. Żeby lepiej zilustrować to zjawisko, zbudujemy teraz pięciowymiarową przestrzeń fazową, której współrzędnymi będą kolejno pokazane korelacje. Wyborcy poszczególnych pretendentów staną się wtedy punktami w tej przestrzeni i będzie można zobaczyć, jak bardzo są owe punkty oddalone od siebie nawzajem.

Aby pokazać na dwuwymiarowej kartce papieru taką pięciowymiarową przestrzeń, trzeba znaleźć taki jej dwuwymiarowy przekrój, który, po zrzutowaniu na niego wszystkich jedenastu punktów, najlepiej zachowuje odległości pomiędzy nimi. Zadanie to nie jest bynajmniej trywialne i zajmuje komputerowi kilkanaście minut zażartych obliczeń. A oto rezultat. Pokazane współrzędne są umowne i nie odzwierciedlają żadnych rzeczywistych cech elektoratów, a jedynie zachowują odległości między nimi. Pola powierzchni kół są proporcjonalne do wyników wyborczych z pierwszej tury.

Prez 04

Teraz już wyraźnie widać, że wyborcy głosujący w I turze, dzielą się na trzy wyraźnie odrębne grupy. Pierwszy klaster zawiera bardzo mało różniący się miedzy sobą elektorat Trzaskowskiego, Biedronia i Hołowni. To interesujący się polityką (dodatnia korelacja z frekwencją) zamożni (korelacja z zaświadczeniami), inteligentni (ujemna korelacja z głosami nieważnymi), młodzi i w średnim wieku, mieszkańcy dużych miast. Na przeciwległym biegunie są wyborcy Dudy i Kosiniaka-Kamysza. Wiejscy, biedniejsi, starsi, mało inteligentni i zdystansowani od spraw publicznych. Pomiędzy tymi dwoma skrajnościami, chociaż bliżej klastra wielkomiejskiego (jedynie Piotrowski leży odrobinę bliżej Dudy niż Trzaskowskiego), znajdują się osoby głosujące na jednego z pozostałych kandydatów, także wyborcy Krzysztofa Bosaka.

Bardzo pouczające jest porównanie tego rozkładu cech, z, obliczonym analogicznie rozkładem z zeszłorocznych wyborów parlamentarnych:

Prez 05

Duda, Biedroń i Trzaskowski znajdują się praktycznie w tym samym miejscu, co PIS, Lewica i KO, natomiast w stosunku do wyniku PSL sprzed roku, Kosiniak zbliżył się nieco do Dudy.

Największa jednak zmiana zaszła w przypadku elektoratu Krzysztofa Bosaka. Oddalił się on znacząco od miejsca w którym znajdowali się wyborcy Konfederacji, chociaż nadal bliżej mu do KO niż do PIS. Opuszczone przez niego miejsce w przestrzeni fazowej wypełnili zwolennicy Szymona Hołowni. Chociaż więc liczony w ilości głosów i procentów wynik wyborczy Bosaka w 2020 jest praktycznie taki sam, jak wynik Konfederacji w 2019, są to jednak w znacznej części zupełnie inni wyborcy. Przede wszystkim nie pochodzą już w większości z miast (zanikła korelacja z wielkością gminy), są mniej zamożni (pojawiła się ujemna korelacja z zaświadczeniami), a także nieco starsi (ujemna korelacja z pełnomocnikami jest sporo słabsza) , niż wyborcy Konfederacji z 2019.

Strategia, bardzo często do tej pory podejmowana przez ugrupowania wolnościowe, od „starego” UPR po Konfederację, strategia polegająca na szukaniu poparcia wśród elektoratu roszczeniowego, narodowo-socjalistycznego, dzisiaj bez reszty oddanego PISowi, zawsze była ze strony niżej podpisanego obiektem krytyki. Po pierwsze była to strategia zawsze nieskuteczna, bo środowiska wolnościowe nigdy w „solidaryzmie” nie mogły być wiarygodne. Po drugie była to strategia groźna, ze względu na to, że mając socjalistycznych (narodowo-socjalistycznych) wyborców, dane ugrupowanie, nieuchronnie samo stanie się socjalistyczne. Partie zawsze bowiem w końcu upodabniają się do swoich wyborców. Trudno jednak teraz zaprzeczyć, że przynajmniej tym razem, ta orka na ugorze, odniosła pewien sukces. Krzysztof Bosak, pozyskał jednak jakąś część wiejskich i biedniejszych wyborców PIS, przynajmniej tych bardziej ogarniętych, skoro akurat średni poziom inteligencji jego elektoratu nie uległ, w stosunku do roku 2019, zmianie.

Odbyło się to jednak kosztem utraty wyborców zamożniejszych i wielkomiejskich. Dodatkowo na rzecz tej hipotezy świadczą korelacje pomiędzy samymi kandydatami. Dodatnią korelację uzyskał Krzysztof Bosak z Żółtkiem, Piotrowskim i Jakubiakiem, co nie powinno dziwić, skoro ich wyborcy znajdują się w tym samym klastrze, ale także z Dudą, mimo nadal dużej odległości jaka ich dzieli w przestrzeni fazowej. Zupełnie inaczej niż to miało miejsce w 2019, pojawiła się za to ujemna korelacja pomiędzy wyborcami Bosaka, a kandydatów z klastra wielkomiejskiego, Trzaskowskim, Hołownią i Biedroniem.

Aby jakoś zweryfikować tą hipotezę, zbadamy teraz korelację pomiędzy wynikami wyborczymi w 2019 i w 2020 roku i na tej podstawie spróbujemy zbudować, siłą rzeczy niezbyt dokładną, mapę przepływów elektoratu, jakie zaszły w ciągu ostatniego roku. Uwzględniono także wzrost frekwencji wyborczej, a z którego skorzystali głównie Duda, oraz, co jest dużą niespodzianką, Kosiniak-Kamysz:

Prez 06

Wykres ten potwierdza nasze przypuszczenia. Utracony elektorat Konfederacji zasilił, oprócz kandydatów niszowych Tanajno, Żółtka i Jakubiaka, przede wszystkim Hołownię i Trzaskowskiego, a nawet w jakiejś mierze kandydatów formalnie lewicowych, Witkowskiego i Biedronia! Jak się okazuje, ich wyborcy okazali się znacznie mniej lewicowi od nich samych, co wobec faktu, że cały elektorat stricte lewicowy, roszczeniowy i zasiłkowy głosuje obecnie na PIS, dziwić nie powinno.

Wolno zatem przypuszczać, że gdyby Konfederacja nie starała się znów łowić na łowiskach PIS i wystawiła kogoś bardziej podobnego do Hołowni, miałaby szansę na wynik nawet kilkunastoprocentowy, co otworzyłoby możliwość zastąpienia KO jako główna, bardziej liberalna reprezentacja antyPISu. Rządy w Polsce, nawet samodzielne, nie byłyby wtedy wcale wykluczone.

Nie płacząc jednak nad tym rozlanym mlekiem, przejdźmy teraz do wyników II tury wyborów. Najbardziej interesujące jest to, na kogo w niej zagłosowali wyborcy kandydatów z I tury. Odpowiedzi na to pytanie poszukamy badając korelację pomiędzy wynikami z I tury, a głosami oddanymi w II turze. Wynik, uwzględniający także wzrost frekwencji wyborczej pomiędzy I a II turą, pokazano na wykresie:

Prez 07

Jest on interesujący sam w sobie. Widać na nim że PiSowi bardziej udała się mobilizacja dodatkowych wyborców, a także że głosujący w I turze na Bosaka podzielili się w drugiej w proporcji 2:1 na korzyść PIS, czyli co się udało urwać PIS w pierwszej turze i tak wróciło do niego w drugiej. Ale do najciekawszego wniosku dojdziemy, kiedy porównamy ten wykres z wykresem nr 4, tym pokazującym odległości elektoratów w pięciowymiarowej przestrzeni cech. Przepływ wyborców zarówno do Dudy, jak i do Trzaskowskiego, okazuje się być prawie idealnie proporcjonalny do odległości, jaka dzieliła tych wyborców od pozostałych w II turze kandydatów w przestrzeni fazowej. Korelacja jest tu niezwykle wysoka i wynosi prawie 95% zarówno dla jednego, jak i dla drugiego pretendenta.

Prez 08

Co to oznacza? Bardzo często w publicystyce, niezależnie od jej sympatii politycznych, można spotkać się z konstatacją, że wyborcy są po prostu …głupi. Że nie głosują kierując się jakimikolwiek racjonalnymi motywami, ale wyłącznie emocjami, chwilowym kaprysem, czy wręcz całkowicie przypadkowo. Że wybory wygrywa nie ten, kto zaprezentuje w sposób wiarygodny dla wyborców lepszy, bardziej do oczekiwać elektoratu dopasowany program, ale ten, kto zdoła wzbudzić większą histerię i lepiej zagrać na irracjonalnych lękach. Widzimy teraz, że jest to prawda tylko w 5%. Nieco większy jest ten odsetek w przypadku wyborców Hołowni, którzy wsparli Trzaskowskiego w większym stopniu niżby to wynikało z odległości w przestrzeni fazowej, oraz Bosaka, którzy tak samo postąpili z Dudą.

W pozostałych 95% wyborcy kierują się swoim skalkulowanym interesem. Być może błędnie czasami skalkulowanym, ale zawsze jakoś skalkulowanym. Cechy uwzględnione w zaprezentowanym tutaj modelu, czyli wielkość miejsca zamieszkania, wiek i stan zdrowia, zamożność, inteligencja i poczucie odpowiedzialności za kraj, determinują wybory polityczne w ponad dziewięćdziesięciu procentach.

Pomimo doraźnego triumfu zatem i pozorów potęgi, dni PIS są policzone. Będąca jego ostoją polska prowincja będzie się nadal stopniowo wyludniać, biologia też uczyni ogromne wyłomy w tym elektoracie. Liczba ludzi dobrze wspominających PRL, kiedy byli piękni i młodzi i pragnących jego restytucji będzie się kurczyć bardzo szybko. Baza wyborcza PIS załamie się szybciej niż ktokolwiek mógłby się spodziewać. Gorzej, kiedy w obronie swojego stanu posiadania, władza zauważy, że chociaż nie może powstrzymać tych naturalnych procesów, to przynajmniej zmniejszenie poziomu zamożności Polaków znajduje się całkowicie w jej zasięgu.

 

Powyższy artykuł był opublikowany w 1575/1576 numerze „Najwyższego Czasu”

Ostatnia taka epidemia

Epidemia chińskiego koronawirusa z Wuhan, która przetoczyła się przez świat w pierwszej połowie 2020 roku, była wydarzeniem historycznym. Nie ze względu na sam wirus i chorobę, jaką wywołał, bo epidemie chorób zakaźnych są dla cywilizacji, która wynalazła rolnictwo i hodowlę zwierząt, rzeczą pospolitą i zwyczajną. Epidemia, jako taka, bezprecedensowa nie była, za to reakcja społeczeństwa na jej wybuch osiągnęła niespotykany poziom histerii, ocierając się wręcz o psychozę. Kolejno, jeden po drugim, ogarnięte jakimś niezrozumiałym amokiem, krajowe rządy, w panice wprowadzały izolację …totalną. Zamykano szkoły, hotele, restauracje, sklepy, fabryki, a nawet lasy i parki narodowe. Koszty takiej, wyłączającej z ruchu całe ogromne sektory gospodarki, kwarantanny, były monstrualne. A skuteczność? No cóż, niniejszy artykuł powstał właśnie po to, żeby tą skuteczność ocenić.

Przebieg chorób zakaźnych, czyli takich, którymi ludzie zarażają się bezpośrednio od siebie nawzajem, opisuje tzw. model SIR. Dzieli on populację na trzy grupy – podatnych na zachorowanie S (suspectible), zarażonych I (infectious) i ozdrowiałych R (recovered). Podatni S zarażają się przez kontakt z osobami chorymi I i sami przechodzą do grupy chorych. Po jakimś czasie zdrowieją, nabywają odporność i stają się odpornymi – R Dynamikę epidemii obrazuje więc schemat:

S => I => R

I zestaw równań różniczkowych

dS/dt = -a*S*I

dI/dt = a*S*I-b*I

dR/dt = b*I

W których wartości S, I, R podane są, jako odsetki całkowitej populacji.

Parametry a i b to odpowiednio tempo zarażania i tempo zdrowienia. Odwrotności tych współczynników to 1/a – średni czas, w jakim osobnik S pozostając w kontakcie z osobnikiem I zarazi się od niego, a 1/b to średni czas potrzebny na przebycie choroby, czyli przejścia z kategorii I do R.

Z drugiego równania w powyższym zestawie możemy wprost odczytać, kiedy dochodzi do epidemii. Dzieje się tak wtedy, kiedy liczba chorych wzrasta, czyli jej pochodna po czasie jest większa od zera. Po rozwiązaniu prostego równania mamy zatem warunek:

(a/b)*S>1

Wyrażenie po lewej stronie powyższej nierówności to tzw. bazowy współczynnik reprodukcji (BWR) dla danej infekcji. Pokazuje on ile osób podatnych (S) zaraża średnio, podczas swojej choroby, jeden chory (I).

Z praktycznego punktu widzenia, najważniejszą informacją, jakiej oczekujemy od modelu, jest liczba chorych. Zarówno maksymalna w szczytowym momencie epidemii, jak i całkowita. Oba te wskaźniki zależą w modelu SIR od ilorazu a/b w sposób pokazany na wykresie:

Covid 01

Jak już autor wspomniał wyżej, epidemia wygasa, kiedy BWR jest mniejszy od jedności. Dojdzie do tego zawsze wtedy, kiedy a<b, czyli średni czas zarażania będzie dłuższy niż średni czas zdrowienia. Można to osiągnąć albo odpowiednio wydłużając ten pierwszy, albo skracając ten drugi. To ostatnie odbywa się poprzez skuteczne leczenie zarażonych. Jednak odpowiednie terapie nie zawsze są dostępne, nie zawsze są tanie i nie zawsze chorzy mają ochotę się im poddać. Wydłużyć średni czas zarażenia 1/a jest już prościej. Wystarczy ograniczyć kontakt zdrowych z chorymi. Metodę tę wypracowano, drogą prób i błędów, już w XIV wieku i nosi ona miano kwarantanny.

Trzecią składową BWR jest odsetek podatnych – S. Im jest on niższy, co jest równoznaczne z wyższym odsetkiem osobników R – odpornych na chorobę, tym większa jest tzw. odporność zbiorowa, albo stadna danej populacji i tym samym epidemia trwa krócej i ma łagodniejszy przebieg. Oczywiście odporność zyskują zwykle ci, którzy przeszli chorobę, ale nie tylko oni. Zastosowanie szczepionek może obniżyć odsetek S do takiego poziomu, że epidemia w ogóle się nie pojawi, istnieje też zawsze jakaś grupa osób, które na dany patogen są odporni w sposób wrodzony. Ludzie ogólnie zdrowi i zadbani, są też mniej narażeni, niż chorzy i osłabieni.

Reakcję modelu na zmiany poszczególnych składowych BWR przedstawiono na kolejnym wykresie:

Covid 02

Chociaż zmniejszenie a w modelu SIR daje taką samą redukcję zarażeń, jak proporcjonalne zwiększenie b, to jednak nie są to sytuacje równoważne. Przy tej samej liczbie chorych, kwarantanna, w porównaniu z terapią, znacząco wydłuża czas trwania epidemii, a tym samym zwiększa jej koszty. Zamiast zamykać ludzi w domach, znacznie lepiej i taniej jest odpowiednio wcześniej wykrywać i leczyć chorych, a najtaniej, jeżeli taka opcja jest dostępna, budować odporność zbiorową, przy pomocy szczepionek.

Przechodząc od teorii do praktyki, zbadamy teraz, jakie rzeczywiste parametry a i b cechują wirusa z Wuhan. W tym celu wykorzystamy, łatwo i powszechnie dostępne, statystyki nowych zakażeń, czyli czynnika a*I*S z modelu SIR, jak te w przypadku kraju, który, jako pierwszy w Europie, padł ofiarą epidemii – Włoch.

Covid 03

albo np. Niemiec:

Covid 03a

Słupki pokazują raportowane nowe zachorowania, a linia ciągła to najlepiej dopasowana do nich krzywa teoretyczna. Obliczone tym sposobem kluczowe parametry modelu SIR dla poszczególnych krajów, jak i ich średnią ważoną liczebnością mieszkańców, pokazano na kolejnym wykresie:

Covid 04

Niżej podpisany przyznaje w tym miejscu, że widoczny na wykresie widok obliczeń, był dla niego wielkim zaskoczeniem. Po pierwsze wirus z Wuhan jest, wbrew apokaliptycznym wizjom szerzonym powszechnie w mediach, bardzo mało zaraźliwy. Współczynnik a na średnim poziomie 0,17 dziennie, oznacza przecież, że przeciętnie trzeba spędzić w towarzystwie chorego prawie sześć dni, aby się od niego zarazić. Przelotne kontakty na ulicy, w windzie, czy w sklepie, niosą ze sobą ryzyko zupełnie znikome. Prawdopodobieństwo, że przebywając godzinę z chorym, zarazimy się od niego, wynosi ledwo 0,8%. To, że do epidemii w ogóle doszło, zawdzięczamy więc nie wysokiej zaraźliwości, ale bardzo niskiemu współczynnikowi b. Średni czas trwania choroby to bowiem ponad 12 dni.

Druga niespodzianka, to brak jakichś wyraźnych różnic pomiędzy krajami, które przyjęły różny poziom przymusowej izolacji społeczeństwa. W najbardziej liberalnej w tym gronie Szwecji, parametry modelu nie różnią się wcale od parametrów Polski, gdzie władza w zamordystycznym szale ustanowiła nawet zakaz wstępu do lasu. Widać zatem że wszystkie przerastające szwedzkie minimum ograniczenia, są nie tylko bardzo kosztowne i rujnujące kraj, ale i całkowicie zbędne, bo nie zmieniają współczynnika zarażeń w najmniejszym nawet stopniu. Elementarne zasady higieny i zakaz urządzania zgromadzeń dla ponad 50 uczestników, są całkowicie wystarczające. W tak licznym bowiem gronie nosiciel wirusa w ciągu 2-3 godzin i tak zarazi, co najwyżej, jedną osobę.

Uważni czytelnicy tego eseju z pewnością zauważyli jednak pewną nieścisłość. Pomimo niskiej zaraźliwości a, dzięki długiemu czasowi trwania choroby, iloraz a/b dla wirusa z Wuhan i tak wynosi ok 2,12. Dla tej wielkości, jak możemy odczytać z pierwszego wykresu, łączna liczba chorych powinna wynieść ponad 80% populacji, podczas gdy w rzeczywistości, w żadnym z zaatakowanych przez koronawirus krajów, nie przekroczyła ona 1% ogółu obywateli. Nawet wziąwszy pod uwagę, że nie wszystkie przypadki zarażeń są ujmowane w statystykach, różnica pomiędzy przewidywaniem teoretycznym, a pomiarem rzeczywistej wartości, jest uderzająca. Nie dotyczy ona tylko koronawirusa. Nawet w trakcie słynnej epidemii grypy „hiszpanki” sprzed stulecia, przy znacznie wyższym stosunku a/b i braku jakichkolwiek znaczących działań „izolacyjnych”, zaraziło się tą chorobą ok 1/3 ówczesnej światowej populacji, a nie grubo ponad 95%, jakby to z modelu SIR wynikało. Skąd ten błąd się bierze?

Chociaż epidemia jest od miesięcy wiodącym tematem wszystkich światowych mediów, to jakoś opisujący ją model SIR nie jest nigdy wymieniany wprost z nazwy. W rzeczywistości jednak, chociaż anonimowo, to jest on podstawą, na której bazują wszystkie prezentowane prognozy rozwoju epidemii, obliczające je kalkulatory internetowe, czy żałosne smutasy bredzące codziennie pod partyjne dyktando w telewizorze o „spłaszczaniu krzywej” i epatujące publikę milionami przyszłych chorych i setkami tysięcy zgonów. Wszystkie te źródła zgodnie przemilczają jednak pewną słabość modelu SIR, przynajmniej jego, opisanej wyżej, podstawowej wersji.

Traktuje bowiem model SIR ludzi na podobieństwo cząstek gazu doskonałego. Tymczasem trzymając się tej, zaczerpniętej z mechaniki płynów, analogii, społeczności ludzkie mają bardzo wysoką lepkość i mieszają się z dużym trudem. Nawet chory przebywający na imprezie masowej z udziałem tysięcy ludzi, nie styka się z nimi wszystkimi cały czas jednocześnie. Zarażony wirusem kibic na stadionie siedząc na swoim numerowanym miejscu, realnie ma w swoim zasięgu „rażenia”, najwyżej kilkunastu sąsiadów, a nie całość z kilkudziesięciu tysięcy obecnych na meczu. Faktyczne mieszanie zachodzi w tej populacji tylko w momentach wejścia i wyjścia ze stadionu, czyli znacząco krócej niż cały czas trwania imprezy. Inaczej jest tylko w przypadku np. wesel i dyskotek.

Faktycznie ludzie nie są rozproszonymi, wszędobylskimi i nieustannie się mieszającymi cząstkami gazu, tylko są podzieleni na niewielkie subpopulacje, których wielkość opisuje rozkład potęgowy. Jest bardzo dużo małych grupek, np. rodzin, a bardzo mało dużych grup. Patogen o tak niskiej, jak wirus z Wuhan, zaraźliwości, rozprzestrzenia się zgodnie z modelem w obrębie takich klastrów, wśród domowników, czy współpracowników na biurowym open space, natomiast ma bardzo duże problemy, aby przeskoczyć przez granicę między klastrami. W znanym przypadku pewnego call center w Seulu, zaraziło się 80% pracowników (całkowicie zgodnie z modelem!) na jednym piętrze, ale już na pozostałych piętrach, a nawet na tym samym, ale oddzielonym od ogniska choroby konstrukcją trzonu wieżowca – klatkami schodowymi, windami i toaletami – zakażenia były sporadyczne. Znów widać, że obcięcie górnego „ogona” rozkładu potęgowego poprzez ograniczenie masowych zgromadzeń, całkowicie do poskromienia epidemii wystarcza i jakiekolwiek dalsze obostrzenia, są nie tylko kosztowne, ale i całkowicie zbędne.

To diametralnie różne podejście jakie zastosowano w Szwecji i w Polsce wynika w znacznej mierze z tego, że w Szwecji rządzi rząd szwedzki, a w Polsce pisowski. Programem PIS jest przecież „Polska w ruinie” i cofnięcie wszystkich zmian jakie zaszły w naszym kraju po 1989, a nawet po 1981 roku. Oczywiste było więc, że PIS zawsze wybierze rozwiązanie dla Polski i Polaków maksymalnie szkodliwe i dokuczliwe, a wariant szwedzki nie będzie w tym towarzystwie rozważany nawet teoretycznie. Równocześnie prominentni członkowie pisowskiej władzy butnie, publicznie i ostentacyjnie lekceważyli swoje własne zarządzenia „sanitarne”, pokazując, że ich żadne prawo, także stanowione przez nich samych, nie dotyczy, dokładnie tak samo jak ich poprzednicy sprzed 1989 roku. Upajając się swoją „sprawczością” w złośliwym narzucaniu, a potem ewentualnym łaskawym cofaniu najbardziej absurdalnych ograniczeń, w realnej sferze walki z epidemią, choćby w wyposażeniu służby zdrowia w odpowiednie w tym celu środki, popisali się skrajną niekompetencją, nieudolnością i korupcją.

Na szczęście wirus z Wuhan nie stawiał wysokich wymagań i nawet kraje rządzone źle, jakoś się z nim uporały. Nie była to wielka epidemia, ale na pewno była to epidemia historyczna. Bo zapewne ostatnia.

Masowa psychoza która wybuchła w związku z koronawirusem na całym świecie i której tylko nieliczne kraje, jak Szwecja, się oparły, nie wzięła się w końcu z niczego. W miarę rozwoju cywilizacji i bogacenia się społeczeństw, rośnie gwałtownie wartość jedynego zasobu, którego nie da się wyprodukować, zmagazynować, zaoszczędzić, kupić, czy ukraść. Rośnie gwałtownie wartość czasu, a zatem także życia ludzkiego, będącego spersonifikowanym strumieniem czasu. Kilkadziesiąt lat temu podobna w skali epidemia, nie byłaby nawet zapewne medialnie zauważona. Dzisiaj jednak ten, obiektywnie przecież bardzo niski, poziom ofiar i ryzyka, stał się już nieakceptowalny. Pamięć o gigantycznych, absurdalnych wręcz, środkach, jakie ludzkość na walkę z wirusem zmarnowała, sprawią, że w przyszłości każda kolejna nowa infekcja będzie wykrywana i zwalczana o wiele szybciej, zanim rozwinie się do skali światowej, a nawet tylko krajowej epidemii. Obecny poziom rozwoju technologicznego w zupełności na to pozwala, koszty wdrożenia odpowiednich rozwiązań, np. mierzenia zdalnie temperatury na lotniskach, są niewysokie, a brakowało jedynie woli aby je wdrożyć. Epidemie, które trapiły ludzkość od dziesięciu milleniów, wreszcie przechodzą do historii.

Zapiski epidemiczne cz II

Tym razem dopasował autor niniejszego bloga krzywe dla dwóch krajów, które obecnie mają najwiecej zachorowań:

USA:

USA maj 08

Parametry modelu wynoszą tutaj:

a = 0,18

b = 0,09

 

I Rosja:

Rosja maj 08

a = 0,18

b= 0,08

Jak widać różnice w parametrach w porównaniu z przedstawionymi w poprzednim wpisie krajami europejskimi są minimalne. Niemniej Rosja ma szczyt zachorowań jeszcze przed sobą i ciekawe, jak tamtejszy reżim to wytrzyma…

Zapiski epidemiczne cz I

Niżej podpisany od początku obecnej epidemii grypy z Wuhan został zmuszony do pracy zdalnej na tzw. Home Office. Ponieważ wydajność takiej pracy nie jest wyższa niż 20-30% wydajności pracy zwykłej w biurze, na jakąkolwiek inną działalność, czasu pilastrowi nie zostało praktycznie wcale. Stąd brak wpisów i brak innej aktywności pilastra na forach. Niemniej śledzi on przebieg epidemii i dopasowuje dostępne dane do modelu SIR, który opisał już w „Matematyce czasów zarazy„, do którego lektury gorąco pilaster obecnie zachęca.

Ten wpis, z opisanych wyżej powodów ma charakter brudnopisu, czy bazgrołu i powstał tylko w celu zaprezentowania aktualnego przebiegu epidemii grypy z Wuhan w różnych krajach.  Na wykresach przedstawiono dzienny przyrost chorych, czyli wartość a*I*S z modelu SIR, bo ta wielkość jest najłatwiej dostępna

We Włoszech:

Włochy maj 06

najlepiej dopasowane współczynniki modelu SIR (zmiana dzienna)

a= 0,18

b= 0,08

w Szwecji:

Szwecja maj 06

a = 0,17

b=0,09

No i oczywiście w Polsce:

Polska maj 06

a = 0,18

b = 0,09

Warto zwrócić uwagę na dwa fakty. Po pierwsze oszacowana w ten sposób wielkość parametrów a i b jest prawie taka sama w tych trzech krajach i nie zależy od ostrości wprowadzonych przez ich rządy kwarantanny. Po drugie, grypa z Wuhan jest w sumie …mało zaraźliwa. Aby się nią zarazić trzeba przebywać w towarzystwie chorego prawie …tydzień. Średni czas zarażenia, czyli wielkość 1/a to ponad 5 dni. Nic dziwnego, że zarażają się albo współdomownicy chorych, albo współpracownicy na open spacach. Wyniki badań w pewnym call center w Seulu mówią same za siebie.

Nawet ci, którzy siedzieli na tym samym piętrze, ale po drugiej stronie trzonu wieżowca, już się nie zarazili.

Ryzyko zarażenia się zaś od osoby chorej przypadkowo spodkanej na ulicy, czy nawet w sklepie jest znikome.

Średni czas trwania choroby, wielkość 1/b to zaś 11-12 dni.

Na razie tyle, może się uda publikować coś w miarę regularnie. 😦

Jakby byli, to by byli. A skoro ich nie ma, to ich nie ma.

Niniejszy wpis jest polemiką z artykułem „Galaktyczny archipelag” zamieszczonym w 342 numerze „Świata Nauki”. Opiera się na wątkach opisywanych już we wpisach „Milczenie Wszechświata„, „Wiekuista cisza nieskończonych przestrzeni„, oraz „Dzieci gwiazd„.

Problem istnienia, a właściwie nieistnienia pozaziemskich cywilizacji naukowo – technicznych najbardziej popularny był w trzeciej ćwierci XX wieku, kiedy rozwój radioastronomii pozwalał na przekonanie, że odkrycie takich cywilizacji, a nawet nawiązanie z nimi dwustronnej łączności, jest kwestią bardzo niedługiego czasu. Ta fala entuzjazmu opadła jednak już dawno, publikacje na ten temat, nie tylko stały się rzadkie, ale w dodatku utraciły w znacznej mierze walor naukowy, stając się filozoficzno-humanistycznymi, jałowymi poznawczo, rozważaniami, których jedynym celem było danie wyrazu uprzedzeniom i fobiom ideologicznym swoich autorów. Paradoks Fermiego, czyli właśnie drastyczna rozbieżność pomiędzy oszacowaniami rozprzestrzenienia cywilizacji naukowo – technicznych w Galaktyce, a obserwowaną faktyczną, po odjęciu naszej, zerową, ich liczebnością, stało się dla autorów tylko pretekstem do głoszenia wyznawanych przez nich poglądów politycznych i społecznych, często zresztą zupełnie absurdalnych. Ta poznawcza pustynia jest tym bardziej przykra, że mamy przecież do czynienia z jednym z najważniejszych zagadnień w całej historii nauki i cywilizacji.

Z tym większym uznaniem należy zatem przyjąć publikację, która się z tego fatalnego schematu wyłamuje, która znów, jak kiedyś, odwołuje się do modeli ilościowych i która traktuje temat nie filozoficznie, a naukowo. Ma w tym miejscu na myśli niżej podpisany oczywiście artykuł „Galaktyczny archipelag” opublikowany w 342 numerze „Świata nauki” z lutego 2020 roku.

Niestety, oprócz swoich niewątpliwych, wspomnianych wyżej, zalet, ma artykuł także wady. Przede wszystkim analogia którą się w nim posłużono, analogia pomiędzy Wszechświatem, czy też skromniej, Galaktyką, z jej gwiazdami i planetami, a ziemskim oceanem z jego wyspami i archipelagami, jest całkowicie nieadekwatna. Przede wszystkim zupełnie inna jest skala wielkości. Najbardziej od wszystkich innych oddalonym, a zarazem zamieszkanym, terenem na Ziemi jest polinezyjska Wyspa Wielkanocna, zwana też Rapa Nui, mająca ok 15 km średnicy i położona 2,5 tys. km od najbliższego innego lądu. Stosunek tych dwóch wielkości, odległości do średnicy, wynosi zatem w jej przypadku ok 170. Tymczasem średnica planet podobnych do Ziemi i nadających się do zamieszkania, wynosi w zaokrągleniu 10 000 km. Średnia zaś odległość pomiędzy nimi jest i to w bardzo optymistycznej wersji, z grubsza równa średniej odległości pomiędzy gwiazdami w Galaktyce i sięga ok 5 lat świetlnych. Stosunek tych dwóch wielkości to jakieś 4,5 miliarda, czyli 30 milionów razy więcej niż w przypadku wysp na Pacyfiku.

Również skala zaawansowania cywilizacji, którą dany ląd, czy to oceaniczny, czy kosmiczny, może utrzymać, jest bardzo różna. Stopień komplikacji społeczeństwa, z którego poziom rozwoju cywilizacyjnego wprost wynika, jest bowiem proporcjonalny do jego liczebności. Zakładając, że twórcy takiej cywilizacji są z grubsza, co do rzędu wielkości, podobnych rozmiarów, co ludzie, to na Wyspie Wielkanocnej może ich stabilnie bytować nie więcej niż kilka tysięcy osobników. Dlatego też wyspa taka nigdy samoistnie bardziej złożonego społeczeństwa nie jest w stanie utrzymać, czego dzieje mieszkańców Rapa Nui, na której cywilizacja w dramatyczny sposób uległa swoistej redukcji i uproszczeniu, czy jeszcze mniejszej od niej wyspy Pitcairn gdzie zanikła całkowicie, są doskonałym przykładem. Populacja planetarna zaś bez trudu może iść w miliardy osobników a tym samym być domem zaawansowanej cywilizacji naukowo – technicznej.

Trzecią istotną różnicą jest to, że ocean ziemski jest …zakrzywiony. Z jednej konkretnej wyspy widać tylko te położone naprawdę blisko. Tych oddalonych bardziej niż o kilkadziesiąt kilometrów – nie widać nigdy. Tymczasem ocean kosmiczny jest płaski. Wzrok obserwatora bez trudu sięga na odległości nawet nie kosmiczne, ale wręcz kosmologiczne. Również przejrzystość ośrodka kosmicznego jest nieporównywalnie większa niż przejrzystość przykrywającej ocean, planetarnej atmosfery.

Wszystko to razem sprawia, że posługiwanie się modelem kolonizacji wysp na oceanie w celu opisu kolonizacji planet we Wszechświecie, jest bardzo zwodnicze i w konsekwencji prowadzi na manowce.

Autorzy artykułu tłumaczą bowiem brak, jakichkolwiek innych, niż nasza, cywilizacji w Galaktyce, tym, że Ziemia chwilowo znalazła się na uboczu galaktycznych „fal ekspansji”, jakie, zgodnie z ich modelem, naszą Galaktykę co jakiś czas przemierzają. Żyjąc w takiej „osadniczej pustce”, nie powinniśmy się, według autorów, dziwić, że żadne międzygwiezdne kosmoloty do nas obecnie, w historycznej skali czasu, nie docierają. Niestety, nie sposób, wiedząc już o błędach przyjętej przez nich analogii, się z tym argumentem zgodzić.

Po pierwsze, nawet jeżeli opisywane przez autorów „Galaktyczne archipelagi” znajdują się dziś dość daleko, tysiące lat świetlnych, od nas, to nadal, wskutek płaskości i przejrzystości Wszechświata, powinniśmy je doskonale widzieć, zarówno w zakresie fal radiowych, jak i w podczerwieni. Tymczasem wszystkie dotychczasowe próby wykrycia takich emisji, prowadzone, np. w ramach programu SETI, już od prawie siedemdziesięciu lat, zakończyły się całkowitym fiaskiem. Często dokonywane przy takich okazjach dodatkowe założenie, że rozwinięta cywilizacja międzygwiezdna w pewnym momencie po prostu porzuca technologię radiową, nie może jednak być traktowane poważnie, skoro, niezależnie od stopnia rozwoju technologicznego, radio pozostanie zawsze najtańszym środkiem łączności, wymagającym najmniej energii na przesłanie bita informacji. Dodatkowo, skoro nawet my, Ziemianie, na długo przed zbudowaniem naszej własnej międzygwiezdnej „wyspy osadniczej”, wysyłamy już od czasu do czasu celowe sygnały świadczące o naszym istnieniu (tzw. METI), to tym bardziej będą to robić istoty dużo bardziej od nas cywilizacyjnie zaawansowane.

Drugi argument podważający wnioski autorów wynika wprost z opisanej wyżej skali wielkości. Każda cywilizacja, po dłuższym, czy krótszym okresie istnienia i galaktycznej ekspansji, w końcu upada. Gdyby bowiem tego ograniczenia w modelu nie wprowadzać, nieuchronnym rezultatem okaże się bowiem współczesna Galaktyka skolonizowana w całości, aż do najbardziej zapadłych swoich zakątków włącznie, co w oczywisty sposób nie ma miejsca. Cywilizacje zatem w ten czy inny sposób, muszą mieć skończony czas istnienia.

Koniec końcowi jednak nierówny. Autorzy zakładają bowiem, że kiedy dana cywilizacja znika i upada, upada w całości, wraz z całą zasiedloną przez siebie gwiezdną ekumeną. Tymczasem, odległości międzygwiezdne sprawiają, że samo banalne przesłanie informacji z jednego krańca „wyspy osadniczej” na drugi może trwać życie kilku ludzkich pokoleń. W XVI, XVII i XVIII wieku, europejskie potęgi kolonialne dawały radę zarządzać swoimi imperiami w zbliżonych niejako warunkach, ale opóźnienia w łączności wynosiły tutaj, co najwyżej miesiące, a nie dekady, a poza tym odbywało się to kosztem utrzymania kolonii w stanie stałego niedorozwoju względem metropolii. Jak tylko koloniści osiągali zbliżony do metropolitalnego poziom rozwoju ekonomicznego, natychmiast starali się zależność od macierzystego kraju zerwać, czego najbardziej znanym, aczkolwiek nie jedynym, przykładem, są amerykańskie kolonie Wlk. Brytanii w XVIII wieku.

Gwiezdne imperia, wskutek swojej, niemożliwej ogarnięcia i kontrolowania z jednego miejsca, rozciągłości, nieuchronnie więc będą się rozpadać na praktycznie niezależne od siebie systemy gwiezdne. Ich mieszkańcy stopniowo utracą jedność nie tylko polityczną, ale i kulturową, ekonomiczną, a nawet biologiczną. Zresztą ten sam proces, chociaż mniej zaawansowany, zaszedł także w diasporze polinezyjskiej na wyspach Pacyfiku. Taki archipelag gwiezdnych wysp, których już nic, poza wspólnym pochodzeniem, nie łączy, nie może jednak upaść jako całość. Upadek czy zniszczenie jednej, czy dwóch takich odseparowanych od siebie placówek, w żaden bowiem sposób nie wpłynie na pozostałe, które nadal będą się rozwijać, wysyłać kolejne wyprawy kolonizacyjne, także rekolonizować utracone uprzednio systemy gwiezdne. Jeżeli średni czas potrzebny na skolonizowanie kolejnego układu gwiezdnego, jest chociaż minimalnie krótszy niż średni czas istnienia takiej subcywilizacji, to ekspansja cywilizacji w Galaktyce, chociaż odbywająca się, inaczej, niż w opisanym w artykule modelu, w sposób chaotyczny i nieskoordynowany, raz rozpoczęta, nie zatrzyma się nigdy, aż do skolonizowania wszystkich układów z naszym własnym, Słonecznym włącznie.

Wreszcie trzeci, unieważniający wnioski artykułu, argument. Ziemia może faktycznie, zgodnie z opisanymi obliczeniami, znajdować się na uboczu galaktycznych fal ekspansji, ale przecież nie jest to stan stabilny. Może on trwać, jak sami autorzy podają, kilka milionów lat, tymczasem wiek Galaktyki jest o, co najmniej trzy rzędy wielkości, dłuższy. W odleglejszej, geologicznej przeszłości, Ziemia powinna być celem wielu takich fal osadniczych i przez znaczące okresy czasu, być siedzibą rozwiniętych cywilizacji międzygwiezdnych. Nie istnieją jednak żadne ślady takich przeszłych fenomenów. Owszem, jak wspomniano w artykule, trudno oczekiwać, że materialne ślady cywilizacji, ruiny budynków, wraki maszyn, czy urządzeń, przetrwają na Ziemi z jej silnymi procesami erozyjnymi, wiatrami, deszczami, zlodowaceniami, wulkanizmem i tektoniką płyt, dłużej niż kilkaset tysięcy lat. Dotyczy to jednak Ziemi. Ślady cywilizacji międzygwiezdnej znajdowałyby się jednak przecież nie tylko na naszej planecie, ale w całym Układzie Słonecznym, gdzie, np. na Księżycu mogłyby przetrwać bez problemu nawet miliardy lat.

No i zostają jeszcze ślady niematerialne. Jeżeli kiedyś Ziemia stała się obiektem osadnictwa istot pochodzących z innego układu gwiezdnego, to musiałyby one dokonać, pewnych, choćby nawet bardzo prostych zabiegów „terraformujących”, np. sprowadzić ze sobą jakichś przedstawicieli macierzystego ekosystemu, odpowiedniki tamtejszej flory i fauny. Potomkowie tych dodatkowych, „stowarzyszonych” kolonistów, przynajmniej w niektórych przypadkach, mogły przetrwać na Ziemi wystarczająco długo, żeby jakoś zaznaczyć się w zapisie geologicznym, a właściwie mogłyby żyć między nami i do dzisiaj, gdzie przez swoją ewidentną obcość i niekompatybilność z rodzimymi ziemskimi gatunkami, powinny być doskonale dla biologów, czy paleontologów widoczne.

Reasumując. Milczenie Wszechświata w zakresie radiowym i podczerwonym, połączone z brakiem jakichkolwiek śladów, nawet bardzo odległej w czasie, obecności pozaziemskich cywilizacji na Ziemi i w jej bezpośrednim planetarnym otoczeniu, wskazuje na fakt, że ziemska cywilizacja jest osamotniona znacznie bardziej, niż to z artykułu wynika. Że faktycznie jesteśmy jedyną, pierwszą i najstarszą cywilizacją we Wszechświecie, a przynajmniej w Galaktyce.

Wniosek to zarazem pesymistyczny, jak i optymistyczny, ale stanowiący jedyne sensowne i zgodne ze wszystkimi danymi obserwacyjnymi, rozwiązanie Paradoksu Fermiego. Żadnych inteligentnych cywilizowanych pozaziemskich Obcych nie ma. I nigdy nie było.