Przyszłość własności.

Powszechnie spotykane w życiu społecznym, a jednocześnie niesłychanie irytujące, jest traktowanie złożonych i skomplikowanych zagadnień naukowych w skrajnie uproszczonych kategoriach ideologicznych. Zjawisko to najczęściej występuje w naukach historycznych, ale także w zagadnieniach biologicznych (np. geneza homoseksualizmu), czy klimatologicznych (przyczyny tzw. „globalnego ocieplenia”). Zdarza się to też nagminnie w ekonomii. W ostatnich dekadach, w związku z upowszechnieniem smartfonów, wzrosła popularność najmu jako popularnej formy użytkowania różnych dóbr. Pojawiły się przykładowo rowery, czy hulajnogi elektryczne wynajmowane na minuty. Testuje się też podobne rozwiązania w przypadku samochodów. Widząc ten trend, niektórzy nie omieszkali gromko zadeklarować, że oto właśnie nadchodzi kres znienawidzonej przez nich własności prywatnej, a już w nieodległej przyszłości nie będziesz miał, na własność, nic i będziesz szczęśliwy. Wszystko czego ci potrzeba będziesz wynajmował. Zamiast te infantylne proroctwa wyśmiać i wyszydzić, przypominając, że równowagę na rynku własności i najmu najlepiej zapewnia wolny rynek, polityczni adwersarze tej pierwszej grupy z ochotą podjęli tę idiotyczną licytację. Wprost stwierdzili, że „chcemy żeby każdy Polak miał dom i dwa samochody”. Obie te grupy pragną zatem narzucić Polakom na siłę jakiś motywowany ideologicznie, bo przecież nie ekonomicznie, model konsumpcyjny.  A może nie wszyscy Polacy by chcieli mieć dom i dwa samochody? Może bardziej od posiadania domu opłacałoby im się jednak wynajmować mieszkanie? Może zamiast dwóch samochodów woleliby jeden na własność, a drugi w najmie? Albo zgoła jeździć do pracy autobusem?

Zamiast ideologii w analizie problemu zastosujemy zatem naukę. W celu miarodajnego porównania najmu z własnością zbudujemy odpowiedni model biznesowy. Model ten nazywany jest analizą NPV (ang Net Present Value). Analiza ta, opiera się na obserwacji, że wartość pieniądza maleje z czasem, którego to zjawiska nie należy jednak mylić z inflacją – zmianą podaży pieniądza. Nawet w warunkach zerowej inflacji, każdy wolałby otrzymać sto złotych raczej dzisiaj niż za miesiąc, a zapłacić odwrotnie. Tempo tego ubytku wartości pieniądz określa tzw. stopa dyskontowa, którą dla naszych potrzeb możemy utożsamić ze średnią stopą procentową. Analiza NPV polega więc na zdyskontowaniu, czyli na sprowadzeniu wszystkich przyszłych przewidywanych przepływów finansowych, wpływów i wydatków, do obecnej wartości pieniądza, a następnie zsumowaniu ich. Użyjemy teraz tej analizy, żeby obliczyć łączne koszty, jakie ponosi zarówno właściciel jakiegoś dobra, jak i jego najemca. Najem będzie się bardziej opłacał od posiadania, kiedy, zdyskontowane w ten sposób jego koszty, będą niższe niż zdyskontowane koszty własności.

Wykonać taką operację NPV dla najmu jest bardzo prosto. Jedynym kosztem, jaki musimy wziąć pod uwagę jest po prostu koszt najmu, w przypadku nieruchomości mieszkalnej – czynsz. Przyjmijmy, że ten roczny koszt najmu wynosi a jednostek. W przypadku własności sprawa jest bardziej skomplikowana. Oczywiście nadal istnieją jakieś roczne koszty stałe w wysokości b jednostek. Dla mieszkania będą to raty kredytów, ale także koszty utrzymywania go w akceptowalnym stanie technicznym, czyli tzw. deprecjacji. Dla samochodu będą to przeglądy, naprawy i ubezpieczenie. W przypadku własności dochodzi jednak dodatkowy element. Własność należy zakupić, czyli zapłacić początkowo pewną kwotę X, lub, w przypadku zakupu na kredyt, wyłożyć wkład własny. Własność też można, po zakończeniu okresu analizy, sprzedać za kwotę, zwaną w modelu NPV wartością rezydualną (ang Residual ValueRV). Obie te kwoty należy włączyć do analizy.

Koszty, które ponosi się niezależnie od tego, czy korzysta się z najmu, czy własności, jak opłaty za prąd, wodę i gaz, koszty paliwa, występują po obu stronach równania, znoszą się wzajemnie i nie ma potrzeby ich uwzględniania.

Po podstawieniu wszystkich wartości i rozwiązaniu modelu otrzymujemy ostateczny wynik. Najem będzie się bardziej opłacał od własności wtedy, kiedy stosunek kosztów własności b i kosztów najmu a będzie wyższy niż

b/a=q<1+(k*r)/(1-e^(-r*t))

Gdzie r to średnia stopa procentowa, k jest różnicą ceny końcowej (wartości rezydualnej – RV) i ceny zakupu (lub wkładu własnego) X wyrażoną w rocznych kosztach najmu k = (RV-X)/a. Szczególną rolę odgrywa w tym równaniu czas analizy t. W przypadku nieruchomości kupowanej na kredyt odpowiada on czasowi spłacenia kredytu. W przypadku dóbr o mniejszej trwałości, np. samochodu, czas t to średni czas jego użytkowania, zanim zakupi się nowy.

Model ten w postaci graficznej pokazano na poniższym wykresie. Linie pokazują graniczne q dla różnych czasów t. Powyżej danej linii bardziej opłaca się dane dobro wynajmować, poniżej – zakupić na własność. Przyjęto stopę procentową na poziomie r = 4%

Rozwiązanie to możemy podzielić na dwa przypadki. Pierwszy z nich to lewa strona wykresu. Dobra nietrwałe, które tracą na wartości wraz z upływem czasu. Współczynnik k z naszego modelu jest zatem ujemny (k<0). Jeżeli spadek wartości odbywa się odpowiednio szybko, poniżej zera może spaść nawet i samo q. Wydawałoby się więc, że powinien tu rozkwitać rynek najmu. Ale bynajmniej sytuacja nie jest taka oczywista. W tej kategorii mieszczą się np. samochody, a większość użytkowanych samochodów jest jednak własnością prywatną. Wynika to z prostego faktu, że spadek wartości danego dobra dotyka również właścicieli flot samochodowych pod wynajem i żeby to sobie zrekompensować, muszą oni w rewanżu śrubować cenę najmu a. Dlatego najem samochodu jest tak drogi, że nawet leasing opłaca się firmom wyłącznie dzięki korzystniejszym przepisom podatkowym. Dla osób prywatnych lepiej jednak kupić ten pojazd i opłacać przeglądy i ubezpieczenia.

Rozwój technologiczny, otworzył tu jednak pewną furtkę. Chociaż bowiem wielkiego rynku najmu samochodów nigdy nie było, to od dawna istnieje olbrzymi rynek najmu innych dóbr o ujemnym k. Średniej klasy sprzęt narciarski kosztuje kilka tysięcy złotych i może amatorom stoków posłużyć nawet 10-15 lat, zanim trzeba go będzie wyrzucić. Równocześnie wynajem takiego sprzętu kosztuje jakieś 1% jego ceny rynkowej dziennie. W momencie, kiedy na nartach jeździ się nie dłużej niż 1-2 tygodnie w roku, kupowanie nart na własność, tylko po to, żeby przez 98% czasu ów zamrożony kapitał tracił tylko na wartości i zagracał mieszkanie, nie ma najmniejszego sensu ekonomicznego.

Z punktu widzenia właściciela wypożyczalni, sprawa ma się jednak dokładnie na odwrót. On może wypożyczać narty przez znacznie dłuższe kresy, nawet 30-40% roku. W ten sposób inwestycja zamortyzuje mu się po 3-4 latach, potem przynosząc już czyste zyski. Podobnie działa rynek wynajmu innych stosunkowo drogich, ale rzadko używanych dóbr. Jachtów, siewników do trawy, sal bankietowych, domków letniskowych, czy autobusów. Używanie samochodu ma jednak nieco inną charakterystykę. Potrzebny jest on praktycznie codziennie, ale każdego dnia jedynie na 1-2 godziny. Gdyby zatem udało się stworzyć system, w którym można by pożyczyć samochód na minuty, mógłby on wyprzeć zwyczaj posiadania samochodu na własność. Taki system faktycznie jednak istnieje, właściwie odkąd istnieją samochody, ale jednak dotąd samochodów prywatnych nie wyparł. Taksówki jednak, bo o nich mowa, mają dwie zasadnicze wady. Po pierwsze, oprócz samochodu, należy wynająć także jego kierowcę, co znakomicie podraża koszty najmu a. Po drugie na taksówkę trzeba czekać. Przed erą aplikacji w smartfonie nawet bardzo długo. Oprócz pieniędzy trzeba wydać zatem również czas, a przecież czas to też pieniądz. Gdyby jednak obie te wady taksówek udało się wyeliminować? Gdyby wynajmowane samochody były sterowane komputerowo, albo przynajmniej zdalnie z centrali i podjeżdżały na elektroniczne wezwanie w ciągu, co najwyżej, kilku minut? Próby stworzenia takiego elastycznego systemu najmu samochodów trwają, a w razie ich powodzenia, zapewne również posiadanie prywatnych samochodów stanie się ekscentryczną rzadkością. Ale, no właśnie. W razie powodzenia.

Przejdźmy teraz na prawą strona wykresu. To dobra trwałe, które zwykle nie tracą na wartości wraz z upływem czasu i dla których k>0. Zaliczają się tu przede wszystkim nieruchomości, np. mieszkaniowe. Koszty własności b to w tym przypadku przede wszystkim raty kredytu. Po jego spłacie zaś zostaje nam nieruchomość o jakiejś konkretnej wartości rezydualnej. Nic zatem dziwnego, że równowaga jest, w porównaniu z dobrami nietrwałymi, znacząco bardziej przesunięta na korzyść własności. Jednak i na rynku nieruchomości, najmy są bardzo popularne, na pewno bardziej niż na rynku samochodowym. Wynika to z dwóch specyficznych cech tego rynku. Rynek nieruchomości jest mało elastyczny. Proces sprzedaży i kupna nieruchomości trwa zwykle bardzo długo i może się przeciągnąć nawet na lata. W nagłym losowym przypadku, nagłej przeprowadzki do innego miasta, czy nawet kraju, własne mieszkanie, zamiast atutem, może stać się obciążeniem.

 Jeszcze dłuższy jest sam proces inwestycyjny. Kredyty na zakup nieruchomości zaciąga się na kilkadziesiąt lat. Przez ten czas, ani ceny nieruchomości, ani raty kredytu, bynajmniej nie pozostają stałe. Dopóki wartość nieruchomości rośnie szybciej niż spłacana rata, kredytobiorca jest wygrany. Ale co się dzieje, kiedy nastąpi trend przeciwny? Co prawda długofalowy, spadek wartości nieruchomości, jako dobra o stałej, doskonale nieelastycznej podaży, w gospodarce postindustrialnej jest mało prawdopodobny, ale bynajmniej nie jest niemożliwy. W Polsce szczególnie takim procesem zagrożone są ceny mieszkań w małych miejscowościach, nie będących satelitami jakiejś większej metropolii. Podejmując decyzje o kupnie lub nie, nieruchomości, należy więc przewidzieć trendy rynkowe, wysokość stóp procentowych, możliwe kryzysy, etc, na dziesiątki lat do przodu, co bynajmniej nie jest proste i łatwe. Nic więc dziwnego, że mimo teoretycznie większej zachęty finansowej, również na rynku mieszkaniowym, najem jest bardzo popularny. W efekcie na wolnym rynku wytwarza się pewna równowaga, która może się, przesuwać w jedną lub w druga stronę, ale zawsze będą na nim zarówno lokale własnościowe, jak i wynajmowane. Inaczej jest jednak na rynku dóbr nietrwałych, gdzie, w miarę rozwoju technologicznego i rozpowszechniania się najmu minutowego, równowaga będzie przemieszczać się stopniowo w stronę najmu. Tak będzie w perspektywie krótko i średnioterminowej.

W perspektywie długoterminowej jednak, zmieniają się nie tylko koszty najmu i ceny nieruchomości, ale zmieniają się też stopy procentowe – r. Cały dotychczasowy rozwój cywilizacji, od czasów paleolitu poczynając, zachodził w obliczu niesłychanie powoli i nieregularnie, ale stale obniżających się stóp procentowych. W miarę światowej akumulacji kapitału, proces ten będzie nadal postępować, aż do chwili kiedy na całym świecie stopy te spadną w okolicę zera. W naszym modelu ten proces powoduje obrót widocznych na wykresie linii zgodnie z ruchem wskazówek zegara wokół punktu (0;1). Spadek stopy procentowej wyrównuje w analizie wartość pieniądza w czasie i koszty późniejsze stają się tak samo ważne jak koszty wcześniejsze. W przypadku dóbr nietrwałych najem zatem znów stopniowo staje się, w stosunku do własności, coraz droższy i równowaga ponownie zaczyna się przesuwać na korzyść własności. Pozornie odwrotny proces powinien zachodzić przy dobrach trwałych o k>0. W miarę spadku stóp, raty kredytu ciążą bowiem w analizie coraz bardziej. Tak jednak nie jest. W przypadku dóbr inwestycyjnych, a za takie można uznać mieszkania, ich wartość (rezydualna RV) zależy zarówno od zysków jakie można z nich uzyskać, czyli od wysokości czynszu a, oraz właśnie od wysokości stóp procentowych. RV = a/r. Iloczyn k*r z modelu równa się po prostu 1-w, gdzie w to wysokość wkładu własnego. W miarę spadku stóp, raty kredytu stają się coraz istotniejsze, ale wartość rezydualna rośnie nieproporcjonalnie szybciej. W rezultacie otrzymujemy wynik pokazany na drugim wykresie. Przyjęto wkład własny na poziomie 20%

Nie dość, że, wraz ze spadkiem stóp procentowych graniczne q przesuwa się ku górze, to jeszcze raty kredytu b stopniowo maleją. W miarę akumulacji kapitału, własność zyskuje zatem na opłacalności zarówno dla dóbr o niskiej, jak i o wysokiej trwałości.

Czasy, w których nie będziesz miał nic i będziesz szczęśliwy, nigdy zatem nie nadejdą. Zawsze będzie na rynku miejsce dla własności i dla najmu w różnych, zależnych od okoliczności, proporcjach, ale nigdy nie będzie to proporcja 100% : 0% Zawsze będziesz miał coś, a coś innego będziesz okazjonalnie wynajmował. I będziesz częściowo szczęśliwy. A częściowo nie.

Efekt Czarnka

Wszelkiego typu badania sondażowe dotyczące dowolnych cech społeczeństwa, np. preferencji politycznych, są obarczone wieloma nieusuwalnymi błędami. Samo dobranie próby o odpowiednim poziomie losowości jest już ekstremalnie trudne, a, nawet w najbardziej zgodny ze sztuką sposób, wylosowani respondenci, mogą wcale nie mieć ochoty na udzielanie jakichkolwiek odpowiedzi, mogą kłamać, mogą oszukiwać, nawet sami siebie, co do swoich umiejętności, kwalifikacji czy poglądów.

Istnieje jednak w Polsce jedno, wykonywane zresztą regularnie co roku, badanie, pozbawione tych wszystkich wad i z tego tytułu szczególnie cenne. Mowa o egzaminie ósmoklasisty przeprowadzanym na koniec cyklu nauczania szkoły podstawowej. W niniejszym artykule omówimy wyniki tego egzaminu z roku 2022

Jego wyniki mają, ze statystycznego punktu widzenia, tę wielką zaletę, że są odpowiednikiem spisu powszechnego. Obejmują bowiem prawie całą populację danego rocznika. Ankietowani nie mogą odmówić odpowiedzi, nie próbują zbyć ankietera, nie kłamią i nie kręcą. Starają się wypełnić arkusze egzaminacyjne najlepiej jak potrafią.

Spotykane w mediach analizy wyników takich egzaminów, ograniczają się, niestety, zwykle do podania średniego wyniku z danego przedmiotu. Jest to jednak informacja daleko niepełna, a poza tym myląca. Sama średnia, bez pozostałych parametrów, takich jak mediana, odchylenie standardowe, czy dominanta, właściwie nic nie mówi o kształcie rozkładu ocen, a poza tym wysokość średniej zależy nie tylko od wiedzy zdających, ale również od poziomu trudności samego egzaminu, który może być i często bywa, ręcznie „ustawiany” przez władze oświatowe. Dlatego dużo ważniejszy od samej średniej, jest kształt rozkładu prawdopodobieństwa otrzymania danej oceny. Co szczególnie intrygujące, takie kompletne rozkłady wyników egzaminów, jak najbardziej zamieszcza na swoich stronach internetowych komisja egzaminacyjna, ale zaskakujące kształty tych rozkładów nie wywołują żadnej refleksji czy dyskusji, ani w mediach, ani w samym systemie oświaty.

Ponieważ inteligencja i w ogóle kompetencje umysłowe przyjmują w ludzkich populacjach rozkład normalny, w Polsce zwany też rozkładem Gaussa, należałoby się, w pierwszym przybliżeniu, spodziewać, że rozkład wyników egzaminów będzie również do rozkładu normalnego zbliżony.  Będzie niewielu uczniów uzyskujących bardzo dobre wyniki, zdecydowana większość stłoczona wokół wartości średniej, oraz, po drugiej stronie rozkładu, niewielki „ogon” całkowitych tumanów. Tym większe jest jednak zaskoczenie, że wyniki od tgo teoretycznego przewidywania odbiegają czasami bardzo daleko. Na początek weźmy język polski:

W przeciwieństwie do oczekiwanego rozkładu normalnego, wynik jest niesymetryczny, wyciągnięty w lewą stronę. Pierwszym wyjaśnieniem tej odchyłki, jakie się tu może narzucić, jest efekt litości egzaminatora. Sprawdzający są dla egzaminowanych bardzo życzliwi i interpretując każdą wątpliwość na korzyść zdającego, starają się naciągnąć wyniki i w rezultacie przepychają cały rozkład w prawo. Dopóki dotyczy to przedmiotu, gdzie większość pytań ma charakter otwarty, typu „dlaczego Słowacki wielkim poetą był”, a ocena odpowiedzi jest w wysokim stopniu subiektywna, od życzliwości sprawdzającego zależy bardzo wiele.

Niemniej nie jest to jedyne możliwe wytłumaczenie. Aby to zrozumieć pokażemy wyniki z języka angielskiego. W tym przypadku możliwość subiektywnego naciągania wyników jest, w porównaniu z językiem polskim, znacznie ograniczona. Albo się zna prawidłową odpowiedź, albo się nie zna. Osobiste nastawienie sprawdzających, to czy są życzliwi, czy złośliwi, ma tu dużo mniejsze znaczenie.

Tym razem rozkład jest jeszcze bardziej zaskakujący. Nie tylko jest niesymetryczny, ale jest też bimodalny, posiada bowiem dwa wierzchołki, jeden przy wyniku 100%, drugi przy 18%. W statystyce taki kształt oznacza zwykle, że mamy do czynienia z dwoma zupełnie rozłącznymi populacjami. Pierwsza z nich, ta z maksimum na 100%, to uczniowie, którzy się do egzaminu, na miarę swoich możliwości, przygotowywali i uczyli. Maksimum przy 100% oznacza, że egzamin z angielskiego był względnie łatwy, ale oczywiście nie wszyscy, nawet dobrze przygotowani, wypełnili arkusze bezbłędnie i przez to znaleźli się w lewym ogonie rozkładu. Dużo ciekawszy jest drugi wierzchołek przy 18%. Otóż jest to wynik, który otrzymalibyśmy wypełniając arkusz egzaminacyjny …całkowicie losowo. Istnieje więc spora, licząca, po doliczeniu również tych ignorantów, którzy uzyskali lepszy wynik dzięki szczęściu, ok 18-20% populacja uczniów ósmej klasy, którzy przystąpili do egzaminu z angielskiego nie mając absolutnie żadnego pojęcia o tym języku i nie znając z niego ani jednego słowa! Pozostaje zagadką co oni mianowicie na lekcjach z tego przedmiotu robili i jakim sposobem w ogóle otrzymywali co roku z niego promocję. Jest to oczywisty i namacalny dowód, że nauka języka angielskiego w szkołach podstawowych, jak i oceny z tego przedmiotu są w sporym odsetku całkowitą, a równocześnie w pełni przez ministerstwo oświaty aprobowaną, fikcją.

Już samo to jest tragiczne, ale jeszcze bynajmniej nie dotarliśmy do jądra ciemności. Ostatnim przedmiotem egzaminacyjnym jest matematyka. Tu już nie ma żadnej dowolności interpretacji i naciągania rezultatów. Oto rozkład wyników.

Mówią one same za siebie. Podobnie jak z językiem angielskim, mamy tu do czynienia z dwoma maksimami. Przy 96% – uczniowie uczący się i przy 20% – całkowici matematyczni ignoranci, nie potrafiący nawet dodać przysłowiowych dwóch do dwóch.  Chociaż to lewe maksimum jest tym razem nieco lepsze niż czysto losowe (16%), co zapewne wynika z tego, że egzamin w zgodnej opinii zdających był bardzo łatwy, to jednak odsetek matematycznych ignorantów jest wyższy niż ignorantów angielskich i wynosi ponad 30%. Prawie jedna trzecia populacji nie ma żadnego pojęcia o matematyce na poziomie szkoły podstawowej.

Jak już wyżej wspomniano, rozkład bimodalny wskazuje na ostrą, zerojedynkową granicę miedzy tymi dwiema populacjami. Albo dzieci się jakoś, na miarę swoich zdolności i możliwości, uczą, albo (20-30%) nie uczą się wcale i znajomość, czy to matematyki, czy języka angielskiego, mają dokładnie na poziomie zerowym. Nie małym, nie nikłym, nie znikomym, ale równo zerowym. Z identycznym rezultatem autor niniejszego eseju mógłby zdawać egzamin z japońskiego, albo z historii tajskiego dramatu scenicznego. Lepiej dla wszystkich zainteresowanych, również dla uczniów starających się pozyskać jakąś wiedzę, byłoby, żeby ta populacja nie chodziła do szkoły wcale.

Nie ulega wątpliwości, że, inaczej, niż będący tylko czymś w rodzaju wyrafinowanego hobby, przedmiot nazywany „językiem polskim”, zarówno język angielski jak i matematyka są podstawą do nabycia wszelkiej innej wiedzy, a tym samym najważniejszymi przedmiotami w szkole. Są to języki dające, niczym łacina w średniowieczu, dostęp do światowego obiegu informacji (angielski), oraz do wszelkich innych dyscyplin naukowych, od ekologii, po dynamikę płynów, których bez matematyki w ogóle nie da się zgłębiać. Brak ich znajomości oznacza automatycznie brak jakiejkolwiek innej wiedzy z dowolnej innej dziedziny.

Nie jest też zapewne przypadkiem, że opisany wyżej rezultat egzaminów, w ogóle nie jest przedmiotem troski obecnego kierownictwa polskiej oświaty, które zresztą nie posiada przecież odpowiednich kwalifikacji intelektualnych, ani moralnych, żeby ten problem w ogóle dostrzec, nie mówiąc już o zaproponowaniu i wdrożeniu jakiegoś rozwiązania, chociażby zwolnieniu tych 20-30% z realizacji „obowiązku szkolnego”. Zapewne znacznie łatwiej jest zajmować się, nie tak wymagającymi umysłowo, kwestiami, jak ustalanie właściwej z ideologicznego punktu widzenia, kolorystyki kredek w uczniowskich piórnikach, albo hucznym wdrażaniem nowego, oczywiście humanistycznego, przedmiotu, który wbrew swojej mylącej nazwie, nie ma nic wspólnego z historią jako dyscypliną naukową, a jest tylko repliką znanej z PRL indoktrynacji, mającej wpoić uczniom przekonanie, że naród pod światłym przewodem swojej Partii kroczy ku świetlanej przyszłości solidaryzmu.

Pozostaje intrygujące pytanie, gdzie konkretnie ta, hodowana w jakimś sobie znanym celu przez władze, gigantyczna populacja analfabetów się znajduje. W celu znalezienia odpowiedzi wykorzystamy teraz podział wyników egzaminu na gminy i porównamy go z wynikami ostatnich wyborów parlamentarnych. Oczywiście dzieci szkolne w wyborach nie głosują. Niemniej nie żyją one też w społecznej próżni. Dla naszych celów założymy, że osobowość ósmoklasistów jest kształtowana przez ich dorosłych krewnych, głównie oczywiście rodziców, ale także dziadków, wujostwo, etc i że dzieci dziedziczą po nich, jeżeli nawet nie poglądy polityczne, to na pewno kompetencje matematyczne i językowe, a na pewno czynią to dzieci przygotowujące się (lub nie) do egzaminów końcowych. W tym ostatnim procesie przepływu tych kompetencji miał okazje uczestniczyć zapewne każdy rodzic takiego dziecka. Założenie o wysokim stopniu odziedziczalności tych cech, przy czym nie ma w tej chwili znaczenia, czy proces tego dziedziczenia ma charakter genetyczny, czy kulturowy, okazuje się, jak się za chwilę przekonamy, jak najbardziej uzasadnione. Dzieci, jeżeli chodzi o umiejętności i wiedzę szkolną, faktycznie można traktować jako przedłużenie swoich rodziców.

Na poniższym wykresie pokazano korelacje pomiędzy wynikami egzaminu ósmoklasisty a kolejno wielkością danej gminy, odsetkiem głosów w wyborach oddanych przez pełnomocnika, odsetkiem głosów oddanych na podstawie zaświadczeń, frekwencją wyborczą i głosami nieważnymi. Zaznaczono tylko korelacje istotne statystycznie, czyli takie, dla których szansa, że wynikają z czystego przypadku, jest mniejsza niż1%.

Nie jest niespodzianką, bo ta zależność jest znana od bardzo dawna, że im większa jest dana gmina, tym lepsze są w niej wyniki egzaminu. Trudniejsza do wyjaśnienia jest ujemna korelacja z głosowaniem przez pełnomocników. W ten sposób głosują przecież ludzie starzy i schorowani i dlatego odsetek takich głosów bardzo dobrze odzwierciedla średni wiek mieszkańców danej gminy. Dlaczego jednak miałoby to mieć jakieś przełożenie na wyniki egzaminów 14-15 latków? A najwyraźniej ma. Być może znajduje tu odzwierciedlenie nie wiek, ale dostęp do opieki medycznej i ogólna dbałość o własne zdrowie. Kto nie dba o stan zdrowia, nie dba też i o stan wykształcenia.

Zupełnie zaskakująca jest za to niewielka, ale istotna statystycznie korelacja między wynikami egzaminu z angielskiego, a głosami oddanymi na podstawie zaświadczeń. Wszak głosujący w ten sposób wyborcy głosują właśnie poza własną gminą i z mieszkającymi tam dziećmi nie mają żadnego związku i tym samym żadnego na nie wpływu. Najwięcej jednak takich głosów oddaje się w popularnych miejscowościach wypoczynkowych, żyjących z turystyki, gdzie znajomość angielskiego ma konkretne, bezpośrednie, przełożenie na pracę i uzyskiwane zarobki, stąd tamtejsi rodzice pilnują, aby ich dzieci ten język w jakimś zakresie poznały.

Wreszcie mamy dwie najsilniejsze korelacje, co do których nie może być już żadnych wątpliwości. Im wyższy poziom wykształcenia, tym wyższy poziom patriotyzmu, który uwidacznia się tutaj wyższą frekwencją w wyborach. Im zaś dane społeczeństwo głupsze, tym więcej oddaje głosów nieważnych, bo ludzie, którzy nie wiedzą nawet ile jest dwa plus dwa nie są też w stanie poprawnie wypełnić arkusza do głosowania.

Na koniec pozostawił niżej podpisany korelacje najbardziej kontrowersyjne. Wyników egzaminu z wynikami wyborów, odsetkiem głosów oddanych na poszczególne komitety. Przypomnieć w tym miejscu należy, że analiza ta dotyczy wyłącznie wyborców danych partii, a niekoniecznie samych partii i ich kierownictwa politycznego.  I tu wnioski są czasami zaskakujące.

Elektorat KO, Lewicy i Konfederacji jest nastawiony zdecydowanie globalistycznie i bardzo (najbardziej KO) dba o to, żeby jego dzieci język globalny poznały. Wyborcy PIS i PSL przeciwnie, od wszelkich zgniłozachodnich wrażych, w pisowskiej nowomowie, „lewicowo-liberalnych”, wpływów ideologicznych, starają się swoje potomstwo, za pomocą błogosławionej ignorancji, jak najstaranniej odgrodzić. Jeszcze ciekawsze są korelacje z wynikami z matematyki. Ponieważ jest to dziedzina, której nie można, inaczej niż języka angielskiego, opanować tylko za pomocą żmudnego „kucia”, a wymaga ona dogłębnego zrozumienia i przeanalizowania, czyli po prostu inteligencji, po raz kolejny możemy się przekonać, że Konfederacja w wyborach w 2019 roku miała najbardziej inteligentnych wyborców. Takich, których najwyraźniej matematyka nie gryzie i którzy przekazują tę cechę swoim dzieciom. Ludzie najlepiej z matematyką obeznani, najchętniej głosują też na Konfederację a w mniejszym stopniu na KO. Na pewno za to nie zagłosują na PSL.

Osobną kategorią są korelacje z wynikami egzaminacyjnymi z języka polskiego. Przedmiot ten, jak już autor wspomniał, nie jest merytoryczny, a stanowi raczej wyraz pewnego szlachetnego hobby – zamiłowania i przywiązania do polskiej kultury i tradycji, w tym przypadku literackiej. Wyborcy Konfederacji, najbardziej, ze wszystkich innych, ceniący tę tradycję, w tym punkcie, odróżniają się, od obojętnego na te klimaty, choć tak samo poważającego kompetencje merytoryczne, elektoratu KO. Na przeciwnym biegunie znajdują się natomiast sympatycy lewicy, którzy polską literaturą najwyraźniej pogardzają, co zresztą nie jest żadną niespodzianką, jeżeli przypomnieć głośną niegdyś, płynącą z tamtej strony, deprecjację twórczości Henryka Sienkiewicza.

Głównym rezerwuarem, opisanej w pierwszej części otchłani polskiego analfabetyzmu jest zatem, mający ujemną korelację ze wszystkimi przedmiotami egzaminacyjnymi, elektorat PSL, a także, czego niestety nie widać na naszych wykresach, ale czego można się domyślić, ogromna w Polsce rzesza „niegłosujących” . Natomiast wyborcy PIS i Lewicy demonstrują swój wstręt do angielskiego (PIS) i polskiego (Lewica) z powodów wyznawanych przez siebie ideologii, bo jak wykazują ich, przynajmniej poprawne, wyniki z matematyki, aż tak ograniczeni intelektualnie nie są.

Czy jednak dopuszczanie do rządów formacji, dla których fiksacje ideologiczne, nieważne jakiej proweniencji, są ważniejsze od kompetencji merytorycznych jest na pewno dobrym pomysłem?

Oczywiście rozkład elektoratu poszczególnych ugrupowań politycznych zmienia się w czasie. W powyższej analizie posłużyliśmy się wynikami wyborów parlamentarnych z 2019 roku, jako najbliższych czasowo tegorocznym egzaminom ósmoklasisty. Jednak jeszcze bliższe w czasie były wybory prezydenckie z 2020 roku. Oto korelacje ich wyników:

Największe jakościowe zmiany jakie zaszły w ciągu roku, to przede wszystkim pojawienie się w dużej liczbie elektoratu Szymona Hołowni, pod względem edukacyjnym bardzo zbliżonego profilem do lewicy, reprezentowanej przez Roberta Biedronia. Tak samo cenią oni język angielski i tak samo pogardzają polskim. Również wyborcy Bosaka, okazali się zauważalnie mniej światowi, niż wyborcy Konfederacji w 2019, chociaż dodatnią korelację z językiem angielskim zachowali. Najbardziej znaczące zmiany zaszły jednak w obrębie obozu postkomunistycznego. W porównaniu do głosujących na genetycznych patriotów w roku 2019, w roku 2020 reprezentant PIS, stracił dodatnią korelację z wynikami z polskiego, a zyskał ujemną z matematyką, co oznacza, że na partię władzy głosują stopniowo coraz głupsze centyle społeczeństwa.

Najpiękniejsza katastrofa

W poprzednim artykule, pt „Pożytki z psychohistorii”, opisano przyczynę klęski rosyjskiej inwazji na Ukrainę. Przyczyną ową, była próba złamania przez rosyjskiego prezydenta Putina obiektywnych praw rozwoju cywilizacyjnego, zwanych łącznie, przez autora niniejszego eseju, na część amerykańskiego pisarza Isaaca Asimova, „psychohistorią” i opisanych w jego pracy pt. „O niewielości cywilizacji”. Próba zignorowania praw przyrody musi się bowiem zawsze skończyć tak samo żałośnie, niezależnie czy chodzi tu o prawa fizyki, chemii, ekonomii, czy właśnie historii.

Bezpośrednio klęskę Putina spowodowała błędna strategia rozwiązywania konfliktów o stałe, niemożliwe do powiększenia zasoby, zwane w teorii gier, grami o sumie zerowej, czy nawet ujemnej. Psychohistoria bowiem przewiduje, przy obecnym poziomie rozwoju cywilizacyjnego, stabilną dominację w takich konfliktach strategii legalistycznych. Polegają one, z grubsza rzecz ujmując, na przyjmowaniu postawy agresywnej wtedy, kiedy się ma obiektywnie ustalone prawa do jakiegoś zasobu, np. terytorium, a postawy ustępującej, kiedy się takiego prawa nie posiada. Gracze stosujący te strategie, wszelkie konflikty i spory, również terytorialne, konsekwentnie rozwiązują na drodze legalistycznej, badając, także w przeróżnych instytucjach sądowniczych i arbitrażowych, kto z nich ma większe do danego zasobu prawo. Ten kto taki spór prawny przegra, od roszczeń do danego zasobu odstępuje.

Kremlowski dyktator tymczasem, stosował zupełnie inny pakiet strategii, zbiorczo w psychohistorii zwanych pragmatycznymi. Polegają one na tym, że silniejszy gracz po prostu wymusza na słabszym ustępowanie, niezależnie od jakichkolwiek obiektywnych praw do zasobu. A jeżeli słabszy gracz się opiera, to silniejszy go niszczy. Ten typ strategii w polityce międzynarodowej, od biedy sprawdzał się w pierwszej połowie XX wieku, ale w wieku XXI są one kompletnie nieskuteczne, co właśnie na Ukrainie widzimy. Udała się Putinowi pragmatyczna polityka raz, w 2008 roku, kiedy wymusił ustępstwa terytorialne na słabej Gruzji, udała się i drugi raz w 2014, kiedy oderwał od Ukrainy Krym i Donbas. Nie mogła jednak udawać się w nieskończoność.

Takie postawienie sprawy może jednak spowodować u Czytelników pewien niedosyt, można bowiem odnieść wrażenie że Rosja została pokonana przez równania matematyczne. Tymczasem modele matematyczne są właśnie tylko modelami i modelują rzeczywiste, występujące w przyrodzie i społeczeństwie procesy i zjawiska. Zacznijmy tutaj od wyjaśnienia, dlaczego strategie legalistyczne są „lepsze” od strategii pragmatycznych. Nie jest bynajmniej ta „lepszość” bezwzględna i nie zawsze zachodzi. O tym, jakie strategie są w grze o sumie zerowej (i mniejszej od zera) ewolucyjnie stabilne, decydują dwa parametry. Pierwszym jest stosunek sił i tym samym szans na zwycięstwo, spierających się stron, drugim zaś stosunek strat jakich można doznać w przypadku siłowej próby rozwiązania sporu, do możliwych do osiągnięcia zysków, jeżeli taka próba się powiedzie – S. Te dwa parametry tworzą razem dwuwymiarową przestrzeń fazową, zwaną w teorii gier macierzą Hammersteina. Nie wdając się w szczegóły, dla niskich S w społeczeństwie dominują tzw. strategie mścicielskie, reagujące agresją na agresję i ustępstwami na ustępstwa, a dla S wysokich, konkretnie wyższych od 3-4, opisane już strategie legalistyczne. Pomiędzy nimi jednak, znajduje się swoista strefa przejściowa, zwana przez autora psychohistorii „Grzbietem Pragmatyzmu”, gdzie stabilne globalnie są właśnie strategie pragmatyczne. Historycznie w cywilizacji zachodniej odpowiada ona pierwszej połowie XX wieku. Jak wiemy jednak z podręczników historii, nawet wtedy stosowanie strategii pragmatycznych było związane z dużym ryzykiem. Strategie te bowiem wymagają bardzo dokładnej wiedzy, zarówno o sile własnej, jak i pozostałych graczy. W praktyce zaś, zwłaszcza jeżeli różnice między nimi są niewielkie, ustalić to jest bardzo trudno, zwłaszcza, że potencjalny przeciwnik wcale tego procesu nie ułatwia, tylko stara się zrobić wrażenie jak najsilniejszego, żeby skłonić innych do przyjmowania postawy ustępującej. W ten właśnie sposób wybuchła I wojna światowa, bo każda ze stron uważała się za silniejszą i w związku z tym eskalowała konflikt, z założeniem, że „tamci”, jako słabsi, muszą w końcu ustąpić. Ten sam błąd, jak wiemy, popełnił teraz również i to na gigantyczną skalę, moskiewski satrapa, znacznie przeceniając siły rosyjskie i dramatycznie nie doceniając ukraińskich.

Jednak te strukturalne, wewnętrzne wady strategii pragmatycznych, są i tak drobiazgiem, w porównaniu z ich wadą zewnętrzną. W porównaniu z sytuacją sprzed stu lat, dzisiaj bowiem, nawet średnio rozwinięte społeczeństwa, znajdują się w przestrzeni fazowej macierzy Hammersteina w zupełnie innym miejscu, przy dużo wyższych niż w czasach Grzbietu Pragmatyzmu, wartościach S. Ich potencjalne straty w wyniku konfliktu zbrojnego są niebotycznie wyższe niż wtedy. I nie chodzi tylko o bezpośrednią cenę prowadzenia wojny, koszty uzbrojenia i amunicji, zniszczeń wojennych, strat ludzkich i materialnych, bombardowań, czy nawet zbrodni. To, co przede wszystkim podwyższa współczynnik S w porównaniu z Grzbietem Pragmatyzmu, czy tym bardziej z czasami preindustrialnymi, to koszt utraconych korzyści.

Zapoczątkowany pod koniec XVIII wieku, proces społeczno-gospodarczy, zwany, nieco myląca, rewolucją przemysłową doprowadził bowiem do zmiany głównego środka produkcji w gospodarce. W miejsce „ziemi”, czyli, najszerzej rzecz ujmując, zasobów naturalnych, czynnikiem tym stał się kapitał. Kapitał zaś, w odróżnieniu od zasobów naturalnych, potrafi wytwarzać sam siebie, co nazywa się akumulacją i co znalazło wyraz w powiedzeniu „pieniądz rodzi pieniądz”. W miarę akumulacji, podaż kapitału nieustannie rośnie, a tym samym spada jego, wyrażona w średniej stopie zwrotu, cena. W konsekwencji, kapitał aktywnie poszukuje możliwości inwestycji, które mogą dać wyższą od średniej stopę zwrotu. Mogą się one znaleźć w nowych, wcześniej nieistniejących segmentach gospodarki, mogą też w krajach biedniejszych, słabiej nasyconych kapitałem, w których stopa zwrotu jest wyższa niż w krajach zamożniejszych. W konsekwencji nadmiar kapitału zaczyna przepływać z krajów zamożnych do krajów biednych, dopóki stopy procentowe się nie wyrównają. Jednak nie każdy biedniejszy kraj może z tego mechanizmu skorzystać. Oprócz samej różnicy stóp procentowych, równie ważną rolę odgrywa inny czynnik – stabilność prowadzenia biznesu. Cóż bowiem z tego, że potencjalny zysk jest bardzo obiecujący, skoro w danym kraju rządzi niestabilny i nieprzewidywalny reżim, który lada moment może przeprowadzić akcje „unarodowienia” prywatnych inwestycji, albo w kraju grasują bezkarnie uzbrojone bandy i panuje bezprawie. Wbrew temu co twierdził Marks, kapitał nie znosi wojen, dyktatur i przemocy, bo to wszystko destabilizuje warunki do prowadzenia biznesu. W takiej Somalii stopa zwrotu może być olbrzymia, ale jakoś nikogo do inwestowania to nie skłania.

W często używanej w praktyce biznesowej tzw. analizie NPV (ang. Net Present Value), parametrem opisującym ową stabilność biznesową jest przewidywany czas istnienia inwestycji – t. W krajach praworządnych, stabilnych i wolnorynkowych, można przyjąć, że t dąży do nieskończoności. Wtedy o kierunku przepływu kapitału decyduje wyłącznie różnica w wysokości stóp procentowych. Aby jednak kapitał mógł dokonywać akumulacji w kraju niestabilnym, o horyzoncie czasowym t wyraźnie krótszym od nieskończoności, stopy procentowe R w takim kraju muszą być odpowiednio wysokie, dokładnie

R>r/(1-exp(-r*t))

Gdzie r to stopy procentowe w kraju pochodzenia kapitału, a t to wspomniany wyżej oczekiwany okres zwrotu z inwestycji. Rosja nigdy nie była krajem praworządnym i wolnorynkowym i parametr t zawsze był tam wyraźnie krótszy od nieskończoności. Niemniej Rosja była też zawsze krajem bardzo biednym i stopy zwrotu były tam na tyle wysokie, że kapitał tam jakoś napływał. Władimir Putin był traktowany jako złowrogi, ale jakoś tam obliczalny gangster, w interesach z którym, wskazana była daleko posunięta ostrożność, ale były one ostatecznie możliwe do przeprowadzenia. Kolejne rosyjskie agresje stopniowo czas t skracały i sytuacja gospodarcza Rosji systematycznie się pogarszała. W końcu, napadając otwarcie Ukrainę, Putin skokowo przeobraził się w oczach kapitału, z szemranego mafioza w nieobliczalnego psychopatę, z którym robienie jakichkolwiek interesów to czyste szaleństwo. Średni oczekiwany okres zwrotu z inwestycji zmniejszył się w Rosji drastycznie, tak jak pokazano na wykresie. Efekt był tym silniejszy, im niższe stopy procentowe r obowiązywały w kraju pochodzenia kapitału.

W konsekwencji oczekiwana stopa zwrotu wzrosła kilkukrotnie, do kompletnie nieosiągalnych realnie poziomów i kapitał z Rosji zaczął uciekać gigantycznym strumieniem. Międzynarodowe korporacje zwinęły się z tamtejszego rynku jeszcze zanim rządy zdążyły nałożyć na Rosję jakiekolwiek sankcje. Ratingi biznesowe Rosji, spadły zaś do najniższych, porównywalnych z Zimbabwe poziomów, jakich Rosja w swojej historii nigdy, nawet w najgłębszym kryzysie za Jelcyna, nie miała.

Utrata zaufania kapitału i tym samym również utrata samego kapitału, przynoszą Rosji straty, przy których wszystkie możliwe teoretycznie do uzyskania łupy z Ukrainy, z całą Ukrainą włącznie, są niewarte najmniejszej nawet wzmianki.

W rzeczywistości jednak rosyjskie koszty są jeszcze większe, niżby to wynikało tylko z ucieczki kapitału. Rewolucja przemysłowa minęła już bowiem dawno półmetek i kapitał też już, jak przed nim „ziemia” przestaje stopniowo być głównym środkiem produkcji. Najbardziej rozwinięte kraje na świecie zawdzięczają obecnie swój wzrost nie inwestycjom kapitałowym, ale innowacjom. Podstawowym czynnikiem produkcji powoli staje się ”praca”, czyli wysoko wykwalifikowani, i wysoko wykształceni pracownicy. Nie jest przypadkiem, że tacy ludzie wyjeżdżali z Rosji „od zawsze”, ale po 24 lutego ten trend osiągnął kulminację. Z Rosji Putina uciekł nie tylko kapitał, ale i ludzie, którzy potrafili optymalnie go wykorzystać. Rosja, w ciągu kilku tygodni, została ekonomicznie sprowadzona do ery preindustrialnej, do poziomu Kuby, Wenezueli, czy Korei płn.

I tu właśnie dochodzimy do najważniejszego, podstawowego błędu Putina, który jest zresztą typowy dla rządów w Rosji, jakiekolwiek by one nie były i z którego wynikają wszystkie pozostałe. Reżim moskiewski, wcale się bowiem, opisaną wyżej, ucieczką kapitału i fachowców, nie przejmuje i nie uważa tego za jakąś znaczącą stratę. Postrzega on bowiem gospodarkę nie w sposób kapitalistyczny, czy tym bardziej postindustrialny, ale właśnie maltuzjański, jeszcze XVIII wieczny. Głównym bogactwem kraju są dla rosyjskiej władzy surowce naturalne, czyli właśnie „ziemia”. Wydobycie i sprzedaż ropy naftowej, czy gazu, nie wymaga, w stosunku do osiąganych zysków, ani specjalnie wysokich nakładów kapitałowych, ani dużego wkładu pracy – niezbędne ku temu zasoby zawsze też można też sprowadzić z zagranicy akonto przyszłych zysków. Nawet planując podbój Ukrainy, tak naprawdę Putin chciał podbić jej zasoby naturalne, w ostateczności godząc się na zachowanie jakiegoś resztkowego państwa ukraińskiego na zachodzie, w mniemaniu Kremla, niezdolnego, po pozbawieniu go dostępu do surowców, do jakiegokolwiek rozwoju. Tego, że nawet gdyby doszło do realizacji takiego scenariusza, różnice pomiędzy zachodnim „banderlandem”, a wschodnią rosyjską „Małorosją” szybko, w ciągu pokolenia, narosłyby do poziomu różnic pomiędzy państwami koreańskimi, nikomu na Kremlu nawet się nie przyśniło.

Ignorowanie praw psychohistorii długo uchodziło rosyjskiej władzy na sucho, bo Rosja, największy obszarowo kraj na świecie i stosunkowo rzadko zaludniony, faktycznie długo mógł opierać się na gospodarce surowcowej i będąc faktycznie stacją benzynową, udawać państwo, a nawet wielkie mocarstwo. Świat jednak nie stał w miejscu. Rola surowców w światowym wzroście gospodarczym systematycznie malała, a tym samym i malało znaczenie ich dostawców. W końcu Putin prowadząc politykę z pierwszej połowy XX wieku, i mając gospodarkę wyjętą żywcem z wieku XVIII, zderzył się z wiekiem XXI i został przez niego starty na miazgę. Mimo tego, że był Putin istną skamieliną, reliktem dnia nawet nie wczorajszego, ale przedwczorajszego, miał na świecie licznych fanów i naśladowców, którzy, nawet czasem będąc z nim werbalnie skłóceni, faktycznie, uwiedzeni jego rzekomą „sprawczością”, i „posybilizmem” usiłowali rosyjski model ekonomiczny i polityczny naśladować. Klęska Putin stała się i ich klęską i należy oczekiwać, że Łukaszenko, Orban, czy PIS długo już u władzy w swoich krajach nie pociągną. Atraktor psychohistoryczny zwalczył tą, niezbyt udolną, próbę przeciwstawienia się mu i historia stopniowo powraca w swoje naturalne koleiny.

Biednego stać na kupowanie tanio

Wielkie piramidy w egipskiej Gizie są najstarszymi budynkami na Ziemi, które przetrwały do dzisiaj w swojej pierwotnej formie i funkcji. Istnieją na świecie budowle starsze, ale tylko w postaci ruin. Gdyby w średniowieczu muzułmanie nie zniszczyli celowo ich zewnętrznej okładziny, gizańskie piramidy nadal zresztą wyglądałyby dzisiaj dokładnie tak samo, jak w momencie swojego powstania, cztery i pół tysiąclecia temu. Wszystko to, bez jakiejkolwiek konserwacji, napraw i remontów. Piramidy, jeżeli znów się ich celowo nie zdewastuje, będą zresztą nadal stały, kiedy już nasza obecna cywilizacja i wszystkie obiekty budowlane przez nią stworzone, dawno rozsypie się w gruzy. Dopiero po stu tysiącach lat, erozja, deszcze i wiatry, zetrze dzieło faraonów tak, że nie będzie się już ono odróżniać się od wzgórz powstałych w sposób naturalny. Ze wszystkich tworów rąk ludzkich, jedynie wykute w granicie podobizny amerykańskich prezydentów na Mount Rushmore lękają się czasu w jeszcze mniejszym stopniu, czyli mają jeszcze dłuższy, liczony, już w skali nie historycznej, a geologicznej, czas trwałości t.

Mogłoby się wydawać, że współcześni inżynierowie powinni pod tym względem naśladować budowniczych piramid i tak samo jak oni, wznosić budowle o jak najdłuższym t. Jednak tak nie jest. Wynika to z faktu, że, budynek o długim czasie t to budynek o zwartej, masywnej konstrukcji, potężnych fundamentach, grubych ścianach i bardzo przewymiarowanych stropach. Im budynki mają wyższą trwałość t, tym droższe w budowie są. Koszt budowy piramid w Gizie stanowił może nawet i połowę ówczesnego egipskiego PKB.

Zależność ta wynika wprost z praw termodynamiki. Każdy układ fizyczny, również obiekt budowlany, cechuje wartość zwana entropią. W największym uproszczeniu jest ona proporcjonalna do logarytmu mikrostanów realizujących dany makrostan. Piramida Cheopsa składa się z 2,5 miliona w miażdżącej większości, praktycznie identycznych bloków, które można swobodnie zamieniać miejscami, bez zmiany wyglądu samej piramidy. Entropia piramidy jest zatem bardzo wysoka. Inaczej jest z budynkiem o bardziej wyrafinowanej konstrukcji. Nie da się w nim zamienić, w sposób niezauważony, okien na stropy, a słupów na posadzki. Budynek taki, ma zatem znacznie niższą od piramidy entropię a zatem i krótszą trwałość t.

Im bardziej skomplikowany obiekt rozpatrujemy, tym niższa jest więc jego entropia i tym krótszy jest jego czas trwałości. Przykładowo samochody mają zdecydowanie niższą entropię od budynków, a komputery, czy telefony komórkowe, jeszcze niższą. Dlatego też telefon zdecydowanie łatwiej zepsuć niż budynek. I tu również obowiązuje zasada, że im dłużej coś ma funkcjonować, tym droższe to coś musi być.

Jedną z licznych przewin, o które światowa lewizna, obecnie występująca najczęściej pod szyldem „antyglobalizmu”, nieustannie oskarża wolny rynek i prywatnych przedsiębiorców jest produkowanie …bubli. Z niczym nieograniczonej żądzy zysku i wyzysku za wszelką cenę, jak głoszą współcześni marksiści, globalne koncerny, celowo wytwarzają produkty o niskiej trwałości, po to, żeby uzależnieni od nich użytkownicy musieli ciągle kupować nowe, dostarczając nieustających zysków ich producentowi. Gdyby nie ta obrzydliwa, kapitalistyczna, chciwość, telefony, samochody, czy lodówki, funkcjonowałyby w nieskończoność i nie psułyby się nigdy. Na dowód tej tezy przytaczane są często anegdoty o tym, jak to rzekomo różne wytwory przemysłu z czasów PRL, kiedy to faktycznie producenci o żadnym tam brudnym zysku nie myśleli, funkcjonować mają aż po dziś dzień. Faktycznie, na zlotach miłośników historii motoryzacji można obejrzeć nadal będące „na chodzie” „maluchy”, syrenki, a nawet warszawy. Dzieje się tak jednak, o czym już raczej się nie wspomina, wyłącznie dzięki nieustannej wytężonej pracy, której hobbystycznie oddają się ich właściciele. Bardzo szybki wzrost stopnia zużycia technicznego tych pojazdów, musi być bowiem nieustannie kompensowany intensywnymi zabiegami konserwatorskimi i naprawami.

 Faktycznie samochód marki „syrena” nie był przecież w stanie przejechać nawet 100 kilometrów bez jakiejś awarii, a jego użytkownik nie tylko musiał wozić ze sobą cały podręczny warsztat naprawczy, ale i posiadać odpowiednie kompetencje mechaniczne. Znaczny odsetek wyprodukowanych w PRL telewizorów psuł się jeszcze w sklepie, a buty rozpadały się zaraz po wyjęciu ich z pudełka.

Oskarżając działających na wolnym rynku producentów o chciwość, wrogowie globalizmu, jakoś nie wspominają za to o drugiej stronie tej transakcji, czyli o użytkownikach tych rzekomo celowo niedbale wytwarzanych produktów. Czyżby oni nie byli chciwi i nie chcieliby zapłacić jak najmniej, za towar o jak najwyższej jakości? Przecież, gdyby faktycznie do takiego procederu sztucznego postarzania dochodziło, to producent, który wyłamawszy się z tego trendu, zaoferowałby, przy niezmienionej cenie, produkty o wyższej od średniej trwałości, natychmiast zgarnąłby cały rynek dla siebie. To, że się tak nie dzieje, świadczy właśnie o tym, że na rynku panuje pewna równowaga pomiędzy trwałością produktu a jego ceną. W celu jej znalezienia posłużymy się modelem matematycznym zwanym analizą NPV, od angielskiego skrótu Net Present Value.

Opiera się ona na obserwacji, że wartość kapitału zmienia się w czasie, którego to zjawiska nie należy jednak mylić z inflacją, czyli wzrostem podaży pieniądza. Nawet w warunkach zerowej inflacji każdy wolałby dostać sto złotych raczej dzisiaj, niż jutro, a zapłacić – przeciwnie. Dzieci w wieku przedszkolnym, dla których ta utrata wartości, zwana też preferencją czasową, jest wyjątkowo duża, wolą dostać cukierka dzisiaj, niż nawet dwadzieścia takich samych cukierków za tydzień. Tempo tej utraty wartości kapitału określa tzw. stopa dyskonta r. Analiza NPV polega właśnie na zdyskontowaniu, czyli na sprowadzeniu do ich dzisiejszej wartości, wszystkich przewidywanych w przyszłości przepływów finansowych, zarówno wpływów, jak i wydatków i zsumowaniu ich. Otrzymany w ten sposób wynik określa obecną wartość analizowanego przedsięwzięcia. Stosowalność tego modelu, używanego zwykle do wyceny firm i nieruchomości komercyjnych, rozszerzymy teraz na dowolne dobra, również konsumpcyjne.

Załóżmy, że użytkownik danego dobra, np. telefonu, czerpie z posiadania go pożytki w wysokości a jednostek rocznie. Pożytki te mogą być wyrażone bezpośrednio w pieniądzach, lub w tak zwanych „utylach”, czyli w jednostkach zadowolenia konsumenta. Jednocześnie, wydłużenie o każdy kolejny rok średniego czasu użytkowania telefonu t, kosztuje m jednostek, czyli cena kupna telefonu wynosi m*t. Wtedy łączne NPV telefonu, przy stopie dyskonta równego r wynosi:

NPV = (a/r)*(1-exp(-r*t))-m*t

Różniczkując to równanie po t i przyrównując wynik do zera możemy obliczyć trwałość t, przy którym wartość NPV telefonu, wyrażona przez jego NPV, osiąga swoje maksimum. Ów optymalny czas t wynosi:

t = -ln(k)/r

Gdzie k to m/a, koszt czasu wyrażony w jednostkach użyteczności telefonu.

Na poniższym wykresie pokazano optymalny czas trwałości dóbr konsumpcyjnych w zależności od kosztu czasu k, oraz preferencji czasowej użytkowników r:

Oczywiste jest, że kiedy k>100% czyli koszt dodatkowego roku stawiania przez nasz telefon czoła entropii, przekracza roczny pożytek z jego użytkowania, t dąży do zera i żaden racjonalny klient czegoś takiego nie kupi. Im tańszy jest zaś, w stosunku do pożytków z użytkowania, ten dodatkowy czas, tym więcej opłaca się go nabyć. Jednak wpływ tej ceny czasu na trwałość produktu jest drugorzędny w porównaniu do wysokości stopy procentowej, czyli do preferencji czasowej użytkownika. Przy wysokiej preferencji czasowej r, optymalny czas użytkowania t będzie bardzo krótki, nawet jeżeli koszt czasu będzie niski. Na rynku będzie wtedy królować tandeta. Wysoka preferencja czasowa cechuje społeczeństwa, które są, albo biedne, albo niestabilne, żyjące w szybko zmieniających się i słabo przewidywalnych warunkach zewnętrznych – politycznych i gospodarczych. Wbrew zatem znanej mądrości ludowej, biednego stać na kupowanie wyłącznie tanio.

Społeczeństwo epoki PRL spełniało oba te warunki. Było biedne i niestabilne. Nic zatem dziwnego, że produkowano wówczas koszmarne buble. Klienci i tak stali w kolejkach po wszystko, aby tylko wymienić zupełnie bezwartościowe „bilety NBP”, zwane też, przez żart, „złotówkami”, na jakikolwiek towar, choćby mający niesłychanie niską żywotność t. To eldorado producentów skończyło się gwałtownie w 1989 roku kiedy złotówki, po inflacyjnym urealnieniu, stały się, może nie najmocniejszym, ale jednak prawdziwym pieniądzem i nagle preferencja czasowa gwałtownie się obniżyła, choć nadal, wobec ówczesnej biedy, była znacznie wyższa niż w krajach zachodnich. Mimo to i tak większość PRLowskich producentów bubli tego szoku popytowego nie przeżyła.

Ta różnica w preferencji czasowej między społeczeństwami o różnym poziomie zamożności, może też motywować producentów do wytwarzania dwóch lub więcej odrębnych kategorii swoich produktów. Tańszych, ale mniej trwałych na rynki biedne, oraz trwalszych, ale i w związku z tym i droższych, na rynki zamożne. Ta różnica w stopach dyskonta musiałaby być jednak na tyle duża, żeby opłacało się utrzymywać oddzielne, odseparowane nawzajem od siebie, linie produkcyjne i zaopatrzeniowe dla tych różnych rodzajów produkcji.

Czy czas trwałości t, przy odpowiednio niskiej preferencji czasowej i akceptowalnej cenie „dodatkowego” czasu, może być dowolnie długi? W przypadku takich wyrobów jak sztućce, w zasadzie nie ma wątpliwości. Na rynku są dostępne zarówno jednorazowe plastikowe, czy drewniane widelczyki i łyżeczki, jak i właściwie wieczne komplety z metali szlachetnych, srebra, a nawet złota. Podobnie jest z budynkami. Buduje się zarówno „tymczasowe”, hale o tzw. konstrukcji lekkiej, jak i zbliżone trwałością do piramid, bazylikę w Licheniu, czy kościół w Wilanowie.

Jednak nie dla wszystkich dóbr mechanizm ten działa w opisany wyżej sposób. Poszczególne rodzaje produktów starzeją się nie tylko, jak założyliśmy w powyższym rozumowaniu, technicznie, ale i funkcjonalnie. Wątpliwe jest, żeby komputery, telefony, czy nawet samochody, wyprodukowane 20-30 lat temu znalazły dziś wielu chętnych użytkowników, nawet gdyby znajdowały się w idealnym stanie technicznym. W tym przypadku wysokość pożytków a z użytkowania danego urządzenia, po przekroczeniu pewnego granicznego czasu gwałtownie maleje i nie ma ekonomicznego sensu przedłużać trwałości produktu poza ten graniczny okres. W przypadku zatem wyrobów produkowanych w warunkach szybko rozwijającej się technologii, czas trwałości t jest dany z góry i nie ma sensu go wydłużać. Można jednak dodawać do urządzenia dodatkowe funkcje i tym samym zwiększać pożytki z jego użytkowania, czyli wysokość a. Rozwiązując odpowiednie równania NPV przekonamy się jednak, że jeżeli koszt zakupu danego dobra będzie liniowo proporcjonalny do wysokości pożytków a, maksimum funkcji NPV takiego urządzenia wypadnie w …nieskończoności. Zależność użyteczności urządzenia od jego ceny nie może więc być liniowa. Producenci, przykładowo, smartfonów stają na głowie, żeby upchnąć do swoich wyrobów jak najwięcej dodatkowych funkcji, ale, nawet gdyby smartfon kosztował więcej niż statek kosmiczny Dragon, statkiem kosmicznym się nie stanie. Istnieje jakiś maksymalny poziom użyteczności a0 i, niezależnie od kosztów produkcji urządzenia, nie da się go przekroczyć, a jedynie asymptotycznie do niego zbliżać.

W oparciu o te założenia można zbudować i rozwiązać odpowiedni model matematyczny. Czas użyteczności t jest w nim tym razem daną wejściową, natomiast otrzymanym rozwiązaniem, jest użyteczność, stosunek ceny urządzenia K do maksymalnego możliwego poziomu pożytków a0. Rozwiązanie przedstawiono poniżej w postaci graficznej.

Rozwiązanie jest znów sprzeczne z przytoczoną wyżej mądrością ludową. Dla uboższych klientów, mających wysoką preferencję czasową bardziej liczy się jak najniższa cena zakupu K, a mniej wysoki poziom pożytków a0. W miarę jednak obniżania stopy procentowej, w bilansie NPV zaczynają dominować przyszłe pożytki, a akceptowalna przez klienta cena zakupu, w proporcji do nich, rośnie. Różnica ta jest tym większa, im dłuższy jest spodziewany czas trwałości t. Zanika natomiast w przypadku czasu krótkiego, czyli wyrobów wyprodukowanych w nowych, eksperymentalnych technologiach. Wtedy dopłacanie do kolejnych funkcji nie ma sensu, skoro będą one przynosić, mierzoną w utylach, satysfakcję jedynie na krótko.

Średni czas czerpania pożytków z wyrobu jest jednak ograniczony rozwojem technologicznym i wzrostem stopnia zużycia funkcjonalnego danego dobra, jedynie dla dóbr ruchomych i relatywnie niewielkich. W przypadku nieruchomości, a także dóbr wielkich, ciężkich i nieruchawych, np. maszyn w fabryce, wchodzi w grę jeszcze jeden czynnik, polityczny. Właściciel nieruchomości, której nie da się po prostu zdemontować i wywieźć, musi się liczyć z tym, że w jakiejś perspektywie czasowej do władzy w kraju, w którym nieruchomość się znajduje, może dojść jakiś populistyczny, socjalistyczny reżim, który w imię suwerenności, patriotyzmu i sprawiedliwości ludowo – dziejowej, nieruchomość ową „zwróci narodowi”, albo przynajmniej narzuci regulowane czynsze, odgórnie wyznaczy dostawy obowiązkowe – w przypadku nieruchomości rolniczych, lub ustanowi absurdalnie wysokie podatki. Im większe jest prawdopodobieństwo takiego obrotu spraw, tym krótszy jest horyzont czasowy w jakim kalkulowany jest dany biznes, co sprowadza się do efektywnego skrócenia czasu t i tym samym wpływa na jakość danych dóbr. Właściciele budynków przestają je konserwować i remontować, a nowe, jeżeli je w ogóle wznoszą, to w żaden sposób nie przypominają one swoją trwałością egipskich piramid. Stąd też się bierze obserwacja, że regulowane czynsze skuteczniej dewastują miasta, niż naloty dywanowe. Właściciele lasów zaś, wycinają je w pień, aby szybko zdążyć zarobić, dopóki jeszcze tymi właścicielami są. Dlatego też kraje o krótkim t, skorumpowane, socjalistyczne i niestabilne cechuje też brak troski o zabytki architektury i stan środowiska naturalnego. Pod koniec PRL, dokładnie wszystkie polskie rzeki, tak samo jak mazurskie jeziora, po prostu cuchnęły, a połowa bałtyckich plaż był zamknięte z powodu skażeń i to przy znacznie łagodniejszych, niż dzisiaj, normach sanitarnych.

Trwałość dóbr, zarówno konsumpcyjnych, jak i inwestycyjnych, jest więc regulowana przez trzy parametry. Stosunek ceny czasu funkcjonowania do pożytków użytkownika z danego dobra, czy zysków z inwestycji, średni czas w jakim użytkownik może te pożytki czerpać, oraz najważniejszy z nich wszystkich – wysokość stopy procentowej. Jak zwykle spotkanie chciwości konsumentów i producentów na wolnym rynku prowadzi nie do, jak chcieliby marksiści do destrukcji, ale wręcz przeciwnie, do najbardziej optymalnego wykorzystania istniejących zasobów w celu osiągnięcia obopólnej satysfakcji.

COVID – Oblany egzamin

Jednym z niewielu pozytywnych aspektów istnienia władzy państwowej jest dostarczanie przez nią obywatelom tzw. usług publicznych, czyli takich dóbr, których wytworzenie indywidualnie na wolnym rynku byłoby droższe i trudniejsze niż odgórnie w skali całego kraju. Do takich dóbr zaliczają się przykładowo utrzymywanie porządku prawnego i ochrona przed przestępczością, obrona przed zbrojnym najazdem zewnętrznym, czy zapobieganie klęskom żywiołowym, usuwanie i łagodzenie ich skutków. Jakość i sprawność aparatu państwowego ocenia się właśnie po jakości i cenie dostarczanych przez nie dóbr publicznych. Nie ulega żadnych wątpliwości że oceniany pod tym kątem rząd, dajmy na to, szwajcarski, zdecydowanie przewyższy swoją kompetencją rząd nigeryjski. Przy mniejszych jednak różnicach w jakości rządzenia taka ocena jest zdecydowanie trudniejsza. Chyba że nadejdzie chwila prawdy pod postacią jakiejś wielkiej, ogarniającej więcej niż jedno państwo, klęski żywiołowej, z którą wszystkie rządy muszą się jakoś zmierzyć i której przebieg jaskrawo uwypukli, wszelkie, nawet na co dzień nie dostrzegane, różnice w jakości rządzenia. Trwająca już prawie dwa lata epidemia chińskiej grypy z Wuhan, zwanej covidem, dostarcza nam zatem doskonałej okazji do praktycznego przetestowania jakości rządów i ich porównania.

Do modelowania przebiegu chorób zakaźnych używa się zazwyczaj tzw. modelu SIR. Dzieli on populację na trzy grupy. Podatnych na chorobę – S, zarażonych i roznoszących infekcję – I, oraz ozdrowiałych i odpornych – R. Podatni mogą się zarazić i stać chorymi, którzy następnie zdrowieją i są już odporni na chorobę. S=>I=>R

Dynamika epidemii jest w tym modelu zależna od trzech parametrów. Pierwszym z nich jest tempo zarażania – a, czyli prawdopodobieństwo że osoba z grupy S – podatna, przebywając w towarzystwie chorego zarazi się od niego w jakiejś jednostce czasu, np. w ciągu doby. Odwrotnością tego współczynnika jest średni czas zarażania. Drugim istotnym parametrem modelu jest tempo zdrowienia – b, odwrotność średniego czasu trwania choroby. Im wyższy jest stosunek a/b tym szybciej choroba się rozprzestrzenia. Istnieje jednak jeszcze trzeci istotny parametr modelu, czyli aktualny odsetek osobników podatnych –S w danej populacji. Tzw. bazowy współczynnik reprodukcji (BWR) infekcji wynosi bowiem:

BWR = a/b*S

I kiedy jest większy od jedności, liczba chorych wzrasta wykładniczo. Z biegiem czasu jednak, kiedy osoby podatne zarażają się i przechodzą do grupy I, a następnie, po przebyciu infekcji, do R, odsetek podatnych – S w danym społeczeństwie maleje. Wcześniej czy później zatem, BWR spada poniżej jedności a epidemia wygasa. Wygasa nie z powodu, jakby się mogło wydawać, braku osób podatnych, ale z powodu braku chorych.

Tyle teoria. W praktyce odtworzenie rzeczywistego przebiegu choroby zwłaszcza w dużych, wielomilionowych populacjach, nastręcza jednak wiele problemów. W przypadku COVID przedstawiane w mediach symulacje bazują zwykle na liczbie nowych przypadków, czyli na dziennej zmianie odsetka I – chorych. (w modelu różniczka dI/dt). Jest to jednak metoda bardzo niedokładna. Testy wykrywające chińskiego wirusa są stosunkowo zawodne, wielu chorych w ogóle się do testowania nie zgłasza, a jeszcze więcej przechodzi infekcję na tyle lekko, ze nawet nie zdają sobie oni sprawy że są zarażeni. Na pewno bardziej miarodajnym zbiorem danych byłaby dzienna liczba zgonów, którą można by potraktować, niezależnie jak makabrycznie by to nie zabrzmiało, jako pewien odsetek ozdrowieńców – dR/dt. I to podejście ma jednak swoje wady. Nie do końca bowiem wiadomo, czy przyczyną danego zgonu był właśnie covid, czy jedna z tzw. chorób towarzyszących. Nie wiadomo też, czy średni czas trwania choroby zakończonej zgonem jest zbliżony do średniego czasu trwania choroby w ogóle. Ostatecznie, niżej podpisany zdecydował się więc do modelowania użyć wskaźnika I – liczebności aktualnie chorych i przybliżyć ją poprzez liczbę osób hospitalizowanych z powodu covid. Założyć bowiem można, że prawie każdy zarażony chińskim wirusem, u którego choroba ma odpowiednio ciężki przebieg, wyląduje w końcu w szpitalu, z drugiej strony, fałszywie, wskutek błędów w testowaniu, zdiagnozowani, tam nie trafią. Liczba hospitalizowanych będzie zatem stanowiła w miarę stały odsetek rzeczywistej liczby chorych w ogóle. Na poniższym wykresie zaprezentowano, opartą na powyższych założeniach, dynamikę przebiegu epidemii w czterech krajach. Polsce, Szwecji, Francji i Wlk Brytanii. Aby uwzględnić różnice w liczebnościach ich obywateli pokazano ilość hospitalizowanych na milion mieszkańców. Dodatkowo na wykresie widoczny jest odsetek całkowicie zaszczepionych osób w danym kraju.

I już na pierwszy rzut oka widać rozbieżności z opisanym wyżej modelem SIR. Epidemia bowiem przyjęła postać nie pojedynczej, ale kilku, co najmniej czterech, postępujących po sobie fal. Model SIR w swojej wersji podstawowej, bardzo dobrze bowiem opisuje epidemie w małych, zamkniętych społecznościach, jak internaty, więzienia, koszary, klasztory, czy statki na morzu, ale w przypadku dużej wielomilionowej populacji w dłuższym czasie, okazuje się zbyt uproszczony. Przede wszystkim współczynniki zarażania a i zdrowienia b nie muszą być w takiej skali stałe. Nieprzypadkowo choroby atakujące układ oddechowy, takie, jak grypa, wykazują bardzo silną sezonowość i narastają jesienią i wiosną, kiedy ludzki układ odpornościowy jest osłabiony i w związku z tym rośnie współczynnik a – wirusy łatwiej i szybciej zarażają, oraz maleje współczynnik b – infekcja trwa średnio dłużej. Dokładnie tak samo zachowuje się też covid. Trzy pierwsze fale widoczne na wykresie są właśnie, niezależnie od kraju, idealnie zsynchronizowane z porami roku. W Szwecji i w Polsce, krajach z ostrzejszą zimą, fala II, jesienna jest wyraźnie oddzielona od III – wiosennej, podczas gdy we Francji i Wlk Brytanii, krajach o klimacie bardziej oceanicznym, z łagodniejszym przebiegiem zimy, zlewają się one w jedną. Jeszcze inny kształt przybiera ta dynamika w krajach śródziemnomorskich, jak Włochy i Hiszpania. Wszędzie jednak powiązana jest z lokalnymi porami roku. Inaczej jest tylko w przypadku IV fali, która w krajach zachodnioeuropejskich zaczęła się wcześniej niż w Polsce. Tym razem zmutował, w szybciej zarażający, osławiony wariant delta, sam wirus.

Najlepiej dopasowany do rzeczywistych danych iloraz a/b dla poszczególnych krajów z podziałem na kolejne fale przedstawiono w tabeli. We Francji i Wlk. Brytanii, jak już wspomniano, nie da się matematycznie oddzielić II i III fali, a Wlk. Brytanii i w Polsce IV fala jeszcze trwa i oszacowanie jej parametrów nadal jest obarczone zbyt dużym błędem.

KrajI falaII falaIII falaIV fala (delta)
Polska2,006,751,11
Szwecja6,311,71,186,18
Francja8,933,56
Wlk Brytania9,76

W formie graficznej dla Polski przebieg epodemii wyglądał następująco:

Otrzymane wyniki nie tylko różnią się znacznie od tych otrzymanych na podstawie ilości dodatnich testów, ale też są bardzo zróżnicowane, zarówno pomiędzy falami, jak i krajami. I fala zaatakowała najpierw najbardziej podatne na infekcję wirusem osoby starsze i schorowane i dlatego też iloraz a/b był wtedy bardzo wysoki nawet do 10 w Wlk. Brytanii. Kolejne fale były już mniej zaraźliwe. Odwrotnie było jednak w przypadku Polski, gdzie I fala była mniejsza i słabsza od fali kolejnej – jesiennej. W porównaniu z pozostałymi krajami z tabeli, jest bowiem Polska położona stosunkowo na uboczu, zatem i nowe wersje wirusa docierają do nas kilka tygodni później niż do Wlk. Brytanii, Francji i Szwecji. Tak jest z obecną wersją delta, tak też i było na wiosnę 2020 roku. Zanim covid w Polsce na dobre się rozkręcił, sezon grypowy dobiegł już końca. Co się odwlecze, to jednak nie uciecze. Rodacy, którzy uchronili się przed wirusem na wiosnę 2020, ulegli mu kolejnej jesieni i wiosny. II i III fala były w Polsce z kolei znacznie potężniejsze niż w zachodniej Europie.

Warto zwrócić uwagę, że na powyższych wykresach w ogóle nie widać szeroko stosowanych w trakcie trwania epidemii tzw. lockdownów. W Szwecji, gdzie praktycznie żadnych większych obostrzeń, zamykania szkół, hoteli i restauracji, a tym bardziej, jak w Polsce, lasów, nigdy nie było, liczba chorych, a przynajmniej chorych poważnie, wymagających hospitalizacji, w przeliczeniu na liczbę mieszkańców była, w porównaniu z Francją, Wlk. Brytanią, i Polską, znacznie MNIEJSZA. W Polsce z kolei, była ona z tych czterech krajów, największa. Wszystkie straty poniesione wskutek „wyłączeń”, nie tylko gigantyczne straty materialne, ale też i dosłownie tysiące ofiar, które zmarły z powodu „lockdownowego” braku dostępu do leczenia innych niż covid, chorób, obciążają konto władzy bez jakichkolwiek realnych, mierzalnych korzyści w walce z epidemią. Już większe od „lockdownów” znaczenie miały regionalne różnice narodowe, np. wysoki ogólny poziom higieny w Szwecji, zwyczaj wspólnego biesiadowania w pubach w Anglii, czy częstego witania się pocałunkiem we Francji i Włoszech. Nawet licząc tylko samych hospitalizowanych widać, że w Polsce władze popisały się najwyższym w obrębie naszej próbki stopniem nieudolności, ze szwedzkim kompletnie nieporównywalnym. Do tego doliczyć jeszcze należy wspomniane koszty lockdownów, w Polsce gigantyczne, w Szwecji pomijalne.  Ale cóż, w Szwecji rządzi rząd szwedzki, a w Polsce – pisowski.

W walce z chińską epidemią decydującą rolę miały odegrać szczepionki. Szczepienie, najprościej rzecz ujmując, jest kontrolowaną formą infekcji, która ma pobudzać organizm do wytworzenia przeciwciał zwalczających dany patogen – w tym wypadku wirusa covid. Efekt końcowy powinien być podobny do przebycia prawdziwej infekcji, czyli doprowadzić do nabycia przez zaszczepionego odporności na daną chorobę. Szczepionki na covid opracowano w iście stachanowskim, dotychczas w medycynie niespotykanym tempie. Od pojawienia się chińskiej epidemii w krajach Zachodu, do rozpoczęcia masowej akcji szczepień upłynęło mniej niż rok. Czy nie odbiło się to aby na jakości? Czy szczepionki na covid spełniły oczekiwania?

Efektem szczepienia w skali populacji jest przeniesienie zaszczepionych z kategorii podatnych – S bezpośrednio do ozdrowiałych – R. Redukuje się tym samym odsetek S i w konsekwencji BWR. Teoretycznie można w ten sposób w ogóle wygasić i zlikwidować epidemię, jeżeli tylko poziom szczepień będzie wystarczająco wysoki. Udało się to w przypadku wielu różnych chorób, ale, jak dotąd, nie w przypadku COVID. Zakładając bowiem, że iloraz a/b dla tego wirusa wynosi, jak wynika z naszej tabeli, między 6 a 10, to, aby sprowadzić współczynnik reprodukcji poniżej 1, odsetek podatnych S powinien być mniejszy niż odwrotność tych liczb, czyli nie może być wyższy niż 10%-17%. Przy założeniu, że szczepionki są skuteczne w 95%, oznaczałoby, że w celu całkowitego wygaszenia infekcji, zaszczepione powinno być między 88% a 95% populacji. Oczywiście z puli podatnych ubywają nie tylko zaszczepieni, ale też ci, którzy covida przechorowali. Takich osób w krajach europejskich obecnie jest zapewne około 20-30%. Łącząc te dane do kupy, można oczekiwać, że graniczny odsetek szczepień powinien obecnie wynosić ponad 80%. Więcej nawet, jeżeli skuteczność szczepionek jest mniejsza niż założone wyżej 95%. Żaden z naszych analizowanych krajów nie osiągnął jeszcze tej granicy. Patrząc jednak na przebieg IV fali można zauważyć, że w krajach o wyższym poziomie zaszczepienia (70%) jest ona jednak znacznie łagodniejsza i słabsza (najbardziej tradycyjnie w Szwecji) niż w Polsce, gdzie poziom szczepień jest zauważalnie niższy (50%). Nie jest to jednak dowód rozstrzygający, bo przyczyną tego stanu rzeczy może być również wspomniane już „polskie opóźnienie”, które spowodowało ze wariant delta dotarł do nas równocześnie z początkiem kolejnego sezonu grypowego, a nie w środku lata, jak do pozostałych trzech krajów. Na szczęście istnieje jednak alternatywna metoda wyodrębnienia działania szczepionek z wielu pozostałych czynników kształtujących dynamikę epidemii.

Szczepienie bowiem, jak już opisano, zmniejsza odsetek osobników podatnych S. Jeżeli odbywa się w trakcie trwania epidemii, skutkuje w modelu szybszym, niżby to wynikało jedynie z dynamiki zachorowań, ubytkiem w tej populacji. Oczywiście takiego dodatkowego strumienia S=>R, jak należałoby się tego spodziewać, nie widać ani w I, ani w II fali epidemii. Występuje on jednak podczas fali nr 3, kiedy szczepienia już trwały. W Polsce podczas trzeciej fali, ten dodatkowy ubytek wynosił średnio 5,5 tysiąca osób dziennie. Równocześnie, w tym samym czasie, przybywało średnio dziennie w Polsce 100 670 osób w pełni zaszczepionych. Skuteczność szczepień na poziomie 5,5% może się wydawać absurdalnie niska, dopóki sobie nie przypomnimy, że nasze obliczenia opieramy nie na liczbie wszystkich chorych, tylko na liczbie hospitalizowanych. Owe 5,5% zatem, to ci, którzy bez szczepienia nie tylko zachorowaliby na covid, ale i znaleźliby się z tego powodu w szpitalu.

Dla porównania jednak, w Szwecji, obliczony analogicznie wskaźnik efektywności szczepienia trzeciej fali wynosił aż 27%. Czwartej nawet jeszcze więcej. Równocześnie hospitalizowanych było w Szwecji przecież znacznie mniej niż w Polsce. Widać, że, tak samo jak w lockdownach, także w organizacji szczepień, władze szwedzkie wykazały się znacznie wyższym poziomem kompetencji niż władze pisowskie. W Polsce szczepienia były przeprowadzane losowo, bez ładu i składu, czy wręcz traktowane początkowo jako nomenklaturowy przywilej partii władzy, o czym świadczy dzika awantura jaką rządowe media rozpętały, kiedy się okazało, że zaszczepić się, „poza kolejką” ośmielił ktoś spoza PIS. Tymczasem w Szwecji, jak widać w danych, skoncentrowano za to szczepienia na grupach, w których występowało największe ryzyko ciężkiego, wymagającego hospitalizacji, przebiegu choroby. W rezultacie trzecia fala przebiegła w Szwecji znacznie łagodniej niż w Polsce, a czwarta była ledwo zauważalna, czego o Polsce na pewno nie można powiedzieć. Piątej, wiosennej fali w Szwecji nie będzie już zatem wcale, a w Polsce nie jest ona bynajmniej wykluczona. Egzamin, w postaci kryzysu epidemicznego, władze szwedzkie zaliczyły więc celująco, a władze pisowskie całkowicie oblały, zakładając oczywiście, że w ogóle realna walka z epidemią w Polsce kiedykolwiek była ich celem. Francja i Wlk. Brytania stanowią przypadek pośredni. Poszło im gorzej niż Szwecji, ale i tak znacznie lepiej niż Polsce.

Chociaż zatem walka z epidemią za pomocą lockdownów okazała się nie tylko niesłychanie kosztowna, to jeszcze była całkowicie bezskuteczna. Natomiast szczepionki, nie tylko od lockdownów są znacznie tańsze, ale i wbrew często spotykanym opiniom, naprawdę działają. Nie tylko w znacznej mierze, choć oczywiście nie w stu procentach, chronią przed covid indywidualnie zaszczepionych, to także, jak model przewiduje, łagodzą i skracają przebieg epidemii w całej populacji. Jednak szczepionek, tak samo jak lockdownów też trzeba umieć używać. Obecny rząd w Polsce nie potrafi niestety ani jednego ani drugiego, za co Polacy płacą swoim majątkiem, a nawet zdrowiem i życiem.

Powyższy artykuł ukazał się w 1645/1646 numerze tygodnika „Najwyższy Czas”

Granice nienaturalne

Program szkolny w czasach PRL bez reszty podporządkowany był wychowaniu patriotycznemu i wdrażaniu patriotycznej polityki historycznej. Wpajaniu młodzieży postaw patriotycznych poświęcony był zresztą osobny przedmiot – Wiedza o Patrio…, tj oczywiście Wiedza o Społeczeństwie, ale swój udział w tym zbożnym dziele musiały mieć i wszystkie inne nauczane w narodowej, socjalistycznej, patriotycznej szkole, przedmioty, bo przecież patriotyzm jest najważniejszy, a na pewno ważniejszy, niż jakaś tam matematyka, czy chemia. Swój wkład w krzewienie patriotyzmu dawała też geografia. Młodzież szkolna uczyła się więc, że dzięki mądrej polityce godnościowej władz partyjnych i państwowych, Polska nie tylko osiągnęła swoje dziejowe przeznaczenie w sensie ustrojowym, ale również geograficznym. Granice PRL – ostatecznego uwieńczenia polskich dziejów, nie tylko pokrywać się miały z granicami „państwa Mieszka”, ale miały też być dodatkowo „granicami naturalnymi”. Oparte na naturalnych przeszkodach terenowych, pasmach górskich i rzekach, granice te, miały być łatwe do kontrolowania i obrony, w przeciwieństwie do „otwartych” i „rozciągniętych” granic II RP, które w myśl tej filozofii miały walnie przyczynić się do jej zguby.

Propaganda ta zawierała jednak, co najmniej dwa oczywiste przekłamania. Po pierwsze, „piastowskie” granice PRL tylko częściowo były w tym sensie „naturalne”. Na południu granica z bratnią CSRS przebiegała wzdłuż górskich grzbietów Sudetów i Karpat. Na zachodzie od bratniej NRD odgradzały PRL rzeki Odra i Nysa. Jednak na wschodzie i północy, granice z najbardziej bratnim z bratnich sąsiadów – ZSRR, nie licząc krótkiego odcinka wzdłuż rzeki Bug, były równie „otwarte” jak granice sprzed II wojny światowej. O tym jednak nie wolno już było wspominać. Drugie propagandowe nadużycie było zresztą jeszcze poważniejsze i wiązało się z samym pojęciem „naturalności”.

Aż do XIX wieku i powstania linii kolejowych, rzeki były bowiem najlepszymi, najtańszymi, traktami komunikacyjnymi. Nie dzieliły, a łączyły. Kraje i państwa, od Egiptu i miast – państw Mezopotamii poczynając, rozwijały się w dorzeczach rzek. Również, tak hołubione w prlowskiej propagandzie, „Państwo Mieszka”, z tego właśnie powodu, praktycznie w całości pokrywało się ze zlewiskami Wisły i Odry. Granice, które można by nazwać „naturalnymi” nie przebiegały zatem wzdłuż rzek, a przeciwnie, wzdłuż wododziałów, tak jak granica przedrozbiorowej Rzeczpospolitej z niemieckim Cesarstwem, która nie zmieniła się w ogóle przez ponad 400 lat. Pewnym wyjątkiem są granice antycznego imperium rzymskiego, w Europie oparte o potężne rzeki Ren i Dunaj. Jednak Imperium Romanum nie miało na tym kontynencie żadnego, nawet z grubsza porównywalnego ze sobą rywala politycznego i realnie kontrolowało oba brzegi tych rzek, wraz ze sporym pasem terenu po drugiej ich stronie, przez co w pełni mogło wykorzystywać ich transportowy potencjał. Nawet jednak znaczenie wododziałów jako granic „naturalnych”, również zanikło wraz z narodzinami i rozwojem rewolucji przemysłowej.

Podobne do prlowskich rozważania o „naturalnych” granicach prowadzono również we Francji. Dzieje tego kraju są długie i burzliwe, obfitujące we wzloty i upadki, ale owe swoje rzekomo „naturalne” granice, wzdłuż Renu, Alp i Pirenejów, osiągnęła Francja tylko raz i to na krótko w czasach Napoleona. Czy zatem można uznać za „naturalne” granice, jeżeli realnie one w historii nie występują w ogóle, albo, co najwyżej, incydentalnie? Czy jakikolwiek kraj ma w ogóle naturalne, czyli właśnie długoterminowo stabilne i trudne do zmiany granice?

Aby odpowiedzieć na to pytanie użyjemy odpowiednich narzędzi ilościowych, matematycznych. Zacznijmy od graficznego przedstawienia danych. Na początek pokażemy sześć największych, pod względem powierzchni, krajów na świecie

Odczytując powyższy wykres można odnieść wrażenie, że istnieje pewna górna granica powierzchni terytorium, wynosząca ok. 10 mln kilometrów kwadratowych, której prawie żadne państwo, z wyjątkiem Rosji, przekroczyć nie zdołało. Ograniczenie to jest zapewne związane z przeciętną wielkością ziemskich kontynentów, na których miejsca na większe organizmy państwowe po prostu nie ma. Rosyjski wyjątek można zaś wytłumaczyć dwojako. Albo znajdując się blisko środka Eurazji, największej ziemskiej masy lądowej, Rosja ma ten górny limit ustawiony wyżej niż wszyscy inni, albo jej rozmiary są pewnego rodzaju aberracją, mało prawdopodobnym odchyleniem od normy, które wkrótce zostanie skorygowane, poprzez rozpad tego kraju na mniejsze części.

Najmniejszy z przedstawionych wyżej największych krajów – Australia, ma powierzchnię nieco mniejszą niż 8 mln kilometrów kwadratowych. Kolejne w tym rankingu państwo – Indie, z powierzchnią 3,3 mln kilometrów kwadratowych, jest już wyraźnie mniejsze. Dalej w dół, aż do powierzchni rzędu 10 tysięcy kilometrów kwadratowych znajduje się bardzo interesująca strefa. Jeżeli na osi pionowej wykresu, pokazującej powierzchnie analizowanych krajów, przyjmie się skalę logarytmiczną, to powierzchnie te, układają się wzdłuż linii prostej. Dopasowanie jest niezwykle dokładne. Współczynnik korelacji wynosi tutaj aż 99,7%. Zanim podejmiemy próbę wytłumaczenia, co takie dokładne dopasowanie oznacza, rzućmy jeszcze okiem na najmniejsze kraje, mające mniejszą niż 10 tysięcy kilometrów kwadratowych powierzchnię terytorium. I tutaj możemy, choć nieco mniej dokładnie, bo ze współczynnikiem korelacji równym 98,2%, dopasować prostą, choć o innych parametrach niż dla krajów średniej wielkości

Skoro na skali logarytmicznej dopasowanie, które odkryliśmy, jest liniowe, to znaczy, że na prostej skali liniowej, dopasowanie to jest wykładnicze. Innymi słowy, rozkład powierzchni państw na świecie, przynajmniej państw mniejszych od Związku Australijskiego, ma charakter wykładniczy.

Jest to wynik po prostu zdumiewający. Intuicyjnie oczekiwalibyśmy bowiem, czegoś w rodzaju rozkładu potęgowego. Bardzo dużo małych krajów i bardzo mało dużych krajów z cienkim „ogonem” tego rozkładu. Jest to naturalny rozkład, jaki przyjmują wszelkie ludzkie grupy, od klubów hobbystycznych, poprzez gangi narkotykowe, aż do sieci osiedleńczej – miast, miasteczek i wsi. Rozkład potęgowy, zwany też w Polsce rozkładem Pareto, powstaje bowiem w wyniku tzw. efektu św. Mateusza. Nazwa ta pochodzi od Mt 25, 29: Każdemu bowiem, kto ma, będzie dodane, tak że nadmiar mieć będzie. Temu zaś, kto nie ma, zabiorą nawet to, co ma. Większe grupy, np. portale internetowe z większą liczba użytkowników, silniej przyciągają nowych członków, niż grupy mniejsze, przez to większe grupy szybciej od mniejszych się rozrastają, co ostatecznie prowadzi do powstania właśnie rozkładu potęgowego – Pareto. Tymczasem w przypadku terytoriów państwowych ta reguła, jak się okazuje, nie obowiązuje. Państw małych jest „za mało”, a państw dużych jest „za dużo” w stosunku do tego, czego oczekiwalibyśmy po rozkładzie Pareto. W zamian dostajemy właśnie rozkład wykładniczy.

 Rozkład wykładniczy powstaje zaś wtedy, kiedy mamy do czynienia z procesami całkowicie losowymi.  Przekładając to na język geografii politycznej, otrzymujemy wniosek, że powierzchnie, a zatem konsekwentnie i granice państw świata, mają charakter całkowicie, prawie w stu procentach …przypadkowy. To czy dane państwo zyska, lub utraci jakieś terytorium, nie zależy w ogóle od jakiegokolwiek obiektywnego czynnika, ale jest wynikiem …przypadku. Prawdopodobieństwo takiego wydarzenia jest stałe i w ogóle od charakteru danego państwa, jego zasobów naturalnych, poziomu rozwoju, gospodarki, rodzaju rządu, w długiej, historycznej perspektywie czasowej, …nie zależy. Sprawnie zorganizowane i rządzone państwo może się, co prawda, dzięki tym zaletom rozrastać terytorialnie, ale, najdalej po kilku pokoleniach przestaje być sprawne i zorganizowane i zaczyna się kurczyć. Ostatecznie zwycięża los, przypadek. Co więcej, szansa na przyłączenie jakiegoś terytorium jest taka sama jak szansa jego utraty. Gdyby bowiem te prawdopodobieństwa nie były równe, na świecie istniałyby tylko kraje bardzo duże, albo bardzo małe, w zależności od tego, które prawdopodobieństwo byłoby większe.

Reguła ta, ma jednak swoje granice stosowalności. Kiedy powierzchnia danego kraju, przekroczy mniej więcej 5 mln kilometrów kwadratowych, włącza się, jak już wspomniano, mechanizm hamowania i prawdopodobieństwo utraty jakiegoś terytorium staje się większe niż prawdopodobieństwo przyłączania kolejnego. Druga granica występuje przy powierzchni 10 tys. kilometrów kwadratowych, gdzie zachodzi swoisty rodzaj przejścia fazowego i wykładnik rozkładu zmienia się skokowo. Powyżej tej granicy wartość bezwzględna tego wykładnika jest mniej więcej dwu i półkrotnie niższa (0,032) niż poniżej (0,083). Parametr ten, w rozkładzie wykładniczym, jest sumą prawdopodobieństwa zyskania i utraty danego terytorium, czyli dla równych szans na oba te wydarzenia, jest on dwukrotnością tego prawdopodobieństwa. Małe kraje, poniżej tej granicznej wielkości terytorium, są zatem mniej stabilne niż kraje większe i bardziej dynamicznie wymieniają się terenami z sąsiadami. Wskutek tej zwiększonej dynamiki ich rozkład jest bardziej oddalony od punktu równowagi, niż to się dzieje w przypadku krajów większych i bardziej stabilnych, a tym samym dopasowanie do krzywej teoretycznej jest mniej dokładne.

Wnioski zatem są jednoznaczne. Żadne „granice naturalne”, wbrew popularnym poglądom, nie istnieją. Wszystkie granice między państwami, z wyjątkiem krajów naprawdę wielkich, zajmujących dużą część, lub nawet całość (Australia), kontynentów, mają charakter czysto przypadkowy. Ciekawe, że właściwie unieważnia to nie tylko geografię polityczną, ale i sporą część nauk historycznych. Tą część, która opisuje jakie to tereny dany król do królestwa przyłączył, a jakie utracił na rzecz króla państwa sąsiedniego. Te doniosłe wydarzenia historyczne, szczegółowo opisywane i analizowane w podręcznikach szkolnych, akademickich i solennych opracowaniach naukowych, okazują się nie mieć, per saldo, absolutnie żadnego znaczenia.

Ostatnia fala

Epidemia grypy z Wuhan przetacza się przez świat już prawie rok. Nie wygasła, jak się tego niżej podpisany spodziewał, na wiosnę. Spadek zachorowań był wtedy na półkuli północnej, co prawda znaczny, ale nie doszedł do zera.  Covid tlił się przez całe lato, a jesienią zaś nadeszła kolejna fala epidemii.

W poprzednich artykułach o koronawirusie niżej podpisany zademonstrował i omówił stosowany do opisu epidemii model SIR:

Matematyka w czasach zarazy

Ostatnia taka epidemia

Ci z Czytelników, którzy jeszcze go nie znają, proszeni są zatem w tym miejscu o zapoznanie się z nim poprzez lekturę wspomnianych artykułów, bo w dalszym ciągu eseju, będziemy się do tego modelu często odwoływać. Zmienimy jednak, w porównaniu z artykułami wiosennymi na ten temat, dane wsadowe.

Dowolny model, także model SIR, może bowiem być nawet bardzo precyzyjnie skonstruowany i teoretycznie doskonale odzwierciedlać rzeczywiste procesy, ale nic to nie da, jeżeli nakarmi się go słabymi danymi wejściowymi. Shit input, shit output, jak to mawiają w Śródziemiu.

W poprzednich wpisach pilastra na temat wirusa z Wuhan wykorzystywał on dane dotyczące liczby nowych przypadków zarażenia, czyli czynnik a*I*S z równań SIR, gdzie I jest, przypominamy, odsetkiem chorych w populacji, S odsetkiem podatnych na zachorowanie, a natomiast jest odwrotnością średniego czasu zarażenia osoby podatnej przez chorą.

Dane te mają tę zaletę, że są szeroko i powszechnie dostępne dla wszystkich krajów na świecie, tą natomiast wadę, że są mało miarodajne. To, że liczba ta z pewnością nie uwzględnia wszystkich przypadków zarażenia koronawirusem, jest jeszcze najmniejszym z kłopotów. Gdyby odsetek wykrytych testami chorych w stosunku do wszystkich zarażonych, był, choćby z grubsza, stały, można by się tym nie przejmować. Niestety tak nie jest. Skuteczność testów pozostawia wiele do życzenia, a sama strategia testowania potencjalnych zarażonych zmienia się zarówno w przestrzeni – pomiędzy różnymi krajami, jak i w czasie, w obrębie poszczególnych krajów. Zwłaszcza te ostanie zmiany, powodują, że adekwatne wyznaczenie parametrów modelu SIR, zwłaszcza najważniejszych z nich – średniego czasu zarażenia i średniego czasu wyzdrowienia, staje się bardzo trudne, a wyniki niepewne.

W niniejszym opracowaniu postanowił zatem autor sięgnąć po inne dane. Konkretnie po ilość hospitalizowanych z powodu zarażenia COVIDem. Wadą tych danych jest ich ograniczenie tylko do Polski, zaletą, że są właściwie niezależne od polityki reżimu dotyczącej testowania i związanych z nią matactw.

Na pierwszym wykresie pokazano okres od marca, do 24 września. Niebieskie słupki to tradycyjnie faktyczna ilość pacjentów w szpitalu, pomarańczowa krzywa to najlepsze dopasowanie modelu SIR.

W przeciwieństwie do obliczeń opartych na liczbie nowych przypadków, tym razem nie można jednak już udawać, że dane użyte w modelu obejmują wszystkich chorych, a nie tylko ich część. Na szczęście jest to część którą można uznać za stałą w czasie. Na nieszczęście, nie wiemy jaki konkretnie odsetek zarażonych choruje na tyle ciężko, żeby trafić do szpitala. Dla dalszych rozważań przyjmiemy, że liczba ta oscyluje gdzieś między 1% a 5%

Pierwszym pytaniem na jaki nasz model musi odpowiedzieć jest to, dlaczego epidemia nie wygasła latem samorzutnie, jak to model SIR teoretycznie przewiduje. Zamiast tego mieliśmy fazę „chroniczną”, kiedy liczba chorych w szpitalach była mniej więcej stała, a która to faza trwała prawie do końca września.

Jak już autor w poprzednich artykułach wspominał, model SIR ma pewną słabość. Traktuje on ludzi jak cząstki gazu doskonałego, które mieszają się zupełnie swobodnie i nie „widzą” się nawzajem poza momentami zderzeń (zarażeń). W rzeczywistości jednak ludzka populacja, trzymając się tej termodynamicznej analogii, cechuje się bardzo wysoką lepkością. Ludzie tworzą zgrupowania – klastry. Od kilkuosobowych rodzin mieszkających w jednym domu, do kilkudziesięciu tysięcy kibiców na stadionie. Rozkład wielkości tych klastrów ma charakter potęgowy (Pareto). Mało jest dużych klastrów, dużo małych klastrów. Ta lepkość, w połączeniu ze stosunkowo niską zaraźliwością koronawirusa – przypomnieć należy w tym miejscu, że nawet osoba podatna musi spędzić z chorą co najmniej kilka dni, aby się od niej zarazić – powoduje, że wirus rozprzestrzenia się zgodnie z modelem SIR, wyłącznie w obrębie klastrów. Ludzie zarażają się albo w domu (internacie, akademiku, czy w innych miejscach zbiorowego zamieszkania), albo w pracy. Natomiast pomiędzy klastrami wirus przeskakuje stosunkowo trudno i opornie. Dlatego też po każdym weekendzie, obserwowano chwilowy spadek liczby wykrytych przypadków – ludzie nie byli wtedy w pracy. Efektem tego zjawiska jest właśnie stabilizacja liczby zachorowań. Efekt ten jest widoczny w modelu w postaci stałego dopływu osób podanych – S do ich początkowej populacji. Z dostępnych danych można odczytać, że dopływ ten odbywał się, w omawianym okresie, na poziomie około stu osób dziennie. Oczywiście przy założeniu że nasza seria danych ze szpitali obejmuje wszystkie przypadki covida, co jednak, jak już wiemy, na pewno nie ma miejsca. Po ekstrapolacji na wszystkie przypadki otrzymamy zatem stały dopływ „paliwa” epidemii na poziomie od kilku do dziesięciu tysięcy ludzi dziennie. Gdyby trend ten nadal był utrzymany, po jakimś czasie, wirus spenetrowałby wszystkie klastry i pandemia w końcu by wygasła. Tak się jednak nie stało.

Po koniec września, coś się jednak zasadniczo zmieniło. Liczba przypadków, nie tylko tych w szpitalach, ale także pozytywnych wyników testów, zaczęła gwałtownie rosnąć i w końcu osiągnęła wartość ponad dziesięciokrotnie przekraczającą dotychczasowe plateau. Wzrost ten był tak gwałtowny i tak duży, że wszelkie próby „gładkiego” wyprowadzenia go z poprzedniego wiosenno-letniego trendu, są nieefektywne. Dlatego też przedstawimy ten wzrost na osobnym wykresie z osobnym dopasowaniem:

Pierwsze co rzuca się w oczy, to prawie idealne pokrycie się krzywej teoretycznej i rzeczywistej liczby covidowych pacjentów w szpitalach. Nigdy dotąd w naszych rozwiązaniach nie mieliśmy tak dokładnego dopasowania. Czyżby opisany wyżej mechanizm przeskakiwania wirusa między klastrami przestał działać i wirus zaatakował całą populację równocześnie? Parametry pomarańczowej krzywej, to tempo zarażania a = 0,19, tempo zdrowienia b = 0,11. Są one nieco wyższe niż wartości wyznaczone na wiosnę na podstawie wyników testów, ale nie na tyle, aby wytłumaczyć zniknięcie hamowania przez klastry. Nadal trzeba przecież spędzić z chorym kilka dni, aby się od niego zarazić. Kluczowy okazuje się inny parametr – początkowa liczba podatnych S0. Na wiosnę wynosił on kilka tysięcy, czyli po przemnożeniu przez „wskaźnik szpitalny” w rzeczywistości było to 100 – 400 tys osób podatnych, plus oczywiście ci, którzy stopniowo do tej grupy dołączali, kiedy wirus infekował kolejne klastry. Teraz jest to aż 200 tys osób „szpitalnych”, czyli realnie około połowy ludności Polski. Skąd ta zmiana?

No cóż, nieprzypadkowo przejście pomiędzy modelem „wieloklastrowym” ze stopniowym dopływem nowych podatnych, a pokazanym na drugim wykresie, typowym dla modelu SIR, wariantem „jednoklastrowym” odbyło się w okolicach jesiennego przesilenia. Nie jest też przypadkiem, że wiąże się to z początkiem tzw. sezonu grypowego. Sam koronawirus (parametry a, b) się nie zmienił, zmieniła się za to atakowana przez niego populacja. Z nadejściem jesieni nastąpiła drastyczna obniżka jej odporności na infekcje i tym samym gwałtowny, jednorazowy wzrost liczby podatnych. Zjawisko to jest w medycynie znane od bardzo dawna, natomiast nadal właściwie nie jest przekonująco wytłumaczone. Jakakolwiek byłaby jednak jego geneza (np. niedobór witaminy D), umościło ono drogę koronawirusowi, który zdążył już uprzednio spenetrować większość klastrów.

Tak dokładne dopasowanie do modelu teoretycznego świadczy też o tym, że cały przebieg jesiennej epidemii był już zdeterminowany i niejako zaprogramowany na początku października. Żadne blokady, lockdowny, obostrzenia, czy z drugiej strony, rozruchy i manifestacje, jakie PIS sprowokował zniszczeniem kompromisu aborcyjnego, nie miały na jego przebieg żadnego wpływu. I mieć nie mogły, bo szansa na zarażenie przy przypadkowym, kilkuminutowym czy nawet godzinnym kontakcie, nadal pozostaje pomijalnie mała. Ludzie nie zarażają się w windzie, sklepie, basenie, czy na ulicy. Jak już wspomniano główne drogi zakażeń to dom i praca. Trzecim kanałem są imprezy masowe, podczas których występuje częste mieszanie się uczestników. Modelowym przykładem takiej imprezy jest wesele. Chociaż prawdopodobieństwo że w ciągu 6 godzin trwania wesela się od chorego zarazimy, nadal nie jest specjalnie wysokie i wynosi mniej niż 5%, to i tak z 200 uczestników takiej zabawy wirusa od pojedynczego chorego może złapać z 9-10 osób.

Pozostaje kwestia szkół. Chociaż zamknięcie szkół wyższych, a na pewno ich akademików, faktycznie może nieco przyhamować rozwój pandemii, o tyle zamykanie szkół średnich, a tym bardziej podstawowych, miałoby sens tylko wtedy, gdyby dzieci, które jak wiadomo same raczej na covid nie chorują, nie tylko aktywnie przenosiły wirusa, ale i mogły zarażać siebie nawzajem. Jest to kwestia co najmniej dyskusyjna i zamykanie szkół naprawdę trudno uzasadnić merytorycznie, zresztą, jak widać, nie miało ono na trajektorię jesiennej krzywej absolutnie żadnego wpływu.

Zabranianie zaś obywatelom dostępu do basenów, siłowni i sklepów, a już na pewno cmentarzy w święto Wszystkich Świętych, inaczej niż czystą złośliwą represją i nienawiścią PIS do polskiej kultury, tradycji i historii, uzasadnić nie można. Zresztą reakcja pisowskiego reżimu na epidemię była boleśnie przewidywalna. Wychodząc od całkowitej niekompetencji jego przedstawicieli, co jest przecież wręcz oficjalną polityką PIS, wprost deklarowaną. Eksperci, czy osoby z jakąkolwiek wiedzą nie chcą przecież realizować programu PIS. Doszło wiec do tego, że odpowiednie analizy i modele musiał na potrzeby rządzących sporządzać nastolatek – amator, bo w całym PIS nie było nikogo, kto by miał o tym najmniejsze choćby pojęcie. Czy można się zatem dziwić, że jedyną strategią epidemiczną na jaką się PIS wysadził, było sprowokowanie rozruchów ulicznych, nawet krwawych, do czego nawoływał publicznie sam I sekretarz, aby potem zwalić na nie winę za wzrost zachorowań, choć uwierzyć w to mógł tylko najtwardszy komunistyczny beton?

 Z drugiej strony była to dla genetycznych patriotów okazja do masowej korupcji i napchania sobie kabzy, co odbywało się zresztą na oczach wszystkich, bez żadnej żenady.

Wreszcie, co dla PIS najważniejsze, mogła Partia upoić się swoją „sprawczością”, „posybilizmem”, wydając najbardziej absurdalne, złośliwe i dokuczliwe dla Polaków zarządzenia i zakazy i pokazując im tym samym, gdzie w pisowskim państwie jest ich miejsce. Buta i chamstwo PIS urosło wręcz do takich rozmiarów, że zaczęli prześladować oni również te grupy społeczne, ostatnio, odwołując ferie zimowe, nawet goralenvolk, które ich do tej pory popierały. Wszystko, a zwłaszcza lecące w dół wskaźniki sondaży, wskazuje jednak na to, że tym razem kropla jednak przelała czarę, a dzban stracił wreszcie swoje ucho. Gorzej, że przyparty do muru PIS może, nie tylko na odchodne zaszkodzić Polsce jak tylko będzie potrafił, np. składając notyfikację o wystąpieniu z UE, ale i w obronie tego co do tej pory w Polsce nakradł, sięgnie po nagą przemoc. Nie ufając oficjalnym państwowym strukturom siłowym, PIS już szkoli i zbroi rekrutowane ze środowisk kryminalnych bojówki żołnierzy wyklętych. Inaczej niż kwestie wirusa z Wuhan, które szybko zmierzają do szczęśliwego zakończenia, sytuacja społeczna i polityczna w Polsce, wobec rosnącej w oczach desperacji i paniki w PIS, wygląda źle.

Papierowy tygrys, zmęczony smok

W nocy z 9 na 10 marca 1945 roku w wyniku nalotu bombowego na Tokio powstała tzw. burza ogniowa, w której zginęło ponad 100 tysięcy ludzi, a praktycznie cała zabudowa została doszczętnie wypalona. 6 sierpnia tegoż roku nad miastem Hiroshima rozpalił się błysk „jaśniejszy niż tysiąc słońc”. Wskutek pierwszego w historii ataku nuklearnego, zginęło kilkadziesiąt tysięcy mieszkańców, a Hiroshima została zrównana z ziemią. Trzy dni później, 9 sierpnia, w atomowym ogniu spłonęło Nagasaki.

W wyemitowanym 15 sierpnia w radiu przemówieniu, japoński tenno, na zachodzie tytułowany zwyczajowo cesarzem, w końcu musiał przyznać, że prowadzenie polityki godnościowej i podnoszenie kraju z kolan, nie przyniosło jednak Japonii pomyślności. Po ośmiu latach krwawej wojny toczonej z Chinami, USA, Wlk Brytanią, Holandią i ZSRR, Japonia skapitulowała. Kraj dosłownie leżał w gruzach. Zniszczone były praktycznie wszystkie większe miasta i ośrodki przemysłowej, a ci mieszkańcy, którzy uszli z życiem, wegetowali w skrajnej nędzy. Jeszcze pięć lat po wojnie, ówczesny japoński PKB per capita był, co wydaje się dzisiaj nie do wyobrażenia, dwukrotnie niższy od ówczesnego …polskiego.

Zmiana polityki godnościowej na politykę białej flagi przyniosła jednak Japonii gigantyczne korzyści. Okupujący archipelag po wojnie Amerykanie zmienili ustrój społeczno – gospodarczy Japonii w kierunku bardziej wolnorynkowym. W rezultacie gospodarka Kwitnącej Wiśni zaczęła się rozwijać. Szybko. Bardzo szybko. W latach 60 XX wieku tempo wzrostu wyspiarskiego dobrobytu, mierzonego PKB per capita, sięgało nawet 10% rocznie. Pod koniec lat 80 japoński PKB per capita przekroczył zaś 80% poziomu amerykańskiego. Wydawało się, że już, lada moment, biel i czerwień japońskiej flagi zastąpią amerykańskie „Stars and stripes” w roli światowego lidera gospodarczego i cywilizacyjnego, a nawet militarnego. USA miał zaś czekać nieunikniony zmierzch i upadek. Nad światem zapanować miało niepodzielnie Wschodzące Słońce.

I …nic. Japonia nie tylko nie prześcignęła Ameryki, ale, w stosunku do niej, zaczęła się wręcz cofać i dzisiaj japoński PKB pc stanowi już tylko 72% poziomu USA. Podobna historia, choć na mniejszą skalę, przydarzyła się też Tajwanowi i Korei. W przeciwieństwie do Japonii, oba te kraje nadal jeszcze gonią USA, ale już bardzo powoli. Z krajów Dalekiego Wschodu jedynie Singapur i Hong-Kong faktycznie przegoniły dobrobytem Amerykanów. Jednak, przy ich specyficznym statusie miast-państw, było to o wiele łatwiejsze.

Krajem, który z Japonią najdłużej wojował i wyszedł z tej wojny zniszczony w porównywalnym z nią stopniu, były Chiny. Po wojnie zaś, mniej szczęśliwe niż Japonia, wpadły Chiny dodatkowo w łapy komunizmu, który przez kolejne dekady, siał w Chinach terror, głód, ruinę i zniszczenie. Pod koniec lat 70, kiedy w Pekinie do władzy doszła bardziej umiarkowana, pragmatyczna frakcja komunistów, kraj leżał dosłownie w gruzach. Zniszczone był przemysł i rolnictwo, a ci mieszkańcy, którzy zdołali ujść z życiem, wegetowali w skrajnej nędzy. W roku 1976 ówczesny chiński PKB per capita stanowił ledwo …10% ówczesnego polskiego, wcale przecież nie wygórowanego.

W tej sytuacji komuniści chińscy, nie mając już innego wyjścia, zmienili ustrój społeczno – gospodarczy Chin w kierunku bardziej wolnorynkowym. W rezultacie gospodarka Kraju Środka zaczęła się rozwijać. Szybko. Bardzo szybko. W pierwszej dekadzie XXI wieku, tempo wzrostu chińskiego dobrobytu sięgało nawet 10% rocznie. Bardzo szybko pojawiły się głosy o nowym supermocarstwie rzucającym wyzwanie USA, o świecie dwubiegunowym i oczywiście o zmierzchu Ameryki i jej nieuniknionym upadku. Nad światem zapanować miał niepodzielnie Smoczy Tron.

Jeżeli te historie wydadzą się czytelnikom bardzo podobne, to autor śpieszy w tym miejscu z zapewnieniem, że to podobieństwo jest jedynie powierzchowne i złudne, a analogia fałszywa. Pierwszą z różnic pokazuje poniższy wykres na którym pokazano odsetek, jaki w latach 1950-2019 chiński PKB per capita stanowił względem innych krajów regionu, oraz Polski i USA.

Tyg 01

Japonia, jak już autor wspomniał, zatrzymała się przy 80% poziomu amerykańskiego. Tymczasem dzisiaj, w roku 2020, rzekomo równorzędne z USA globalne supermocarstwo, w rzeczywistości ledwo sięga ¼ poziomu USA, 1/3 poziomu Japonii, oraz ½ poziomu …Polski. Chiński tygrys jest więc w znacznej mierze papierowy. No, ale, można w tym momencie kontrargumentować, inaczej niż w przypadku Tokio, pekiński smok jeszcze przecież pogoni za USA nie zakończył. Kiedy zatem Chiny, biorąc pod uwagę dotychczasowy trend, zrównają się cywilizacyjnie z Ameryką? Prawidłowa odpowiedź na to pytanie brzmi …nigdy. Nigdy Chiny nie dogonią USA.

Ani Japonii.

Ani Korei Południowej

Ani Tajwanu.

Ani nawet Polski też Chiny nigdy nie dogonią.

Ocenianie gospodarek poprzez poziom PKB i jego dynamiki, odbywa się przy, rzadko kiedy werbalizowanym wprost założeniu, że wzrost gospodarczy, tak samo jak wzrost populacji myszy w przyrodzie, ma charakter wykładniczy. Czyli że jest proporcjonalny do poziomu PKB, czy populacji myszy, już wcześniej osiągniętego i przyrasta o określony jego odsetek rocznie. Podobnie jak myszy rodzą kolejne myszy, tak samo pieniądz ma rodzić pieniądz. Tak jest w istocie, ale tylko wtedy, kiedy podstawowym środkiem produkcji jest właśnie pieniądz, czyli kapitał. W poprzedzającej kapitalizm gospodarce rolniczej, maltuzjańskiej, kiedy podstawowym środkiem produkcji była ziemia, w postaci ziemi rolnej, czy surowców wydobywanych w kopalniach, wzrost gospodarczy był, jak zauważył Thomas Malthus, ekonomista który pierwszy opisał ilościowo tą cywilizację, bardziej liniowy niż wykładniczy. I podawanie ówczesnego wzrostu w procentach, co często się w publicystyce historycznej spotyka, jest sporym przekłamaniem.

Ale i w cywilizacji kapitalistycznej, industrialnej, tak samo jak i w ekologii, wzrost wykładniczy nie może trwać wiecznie. Populacja myszy, ani nawet populacja much również nie rosną przecież w nieskończoność. Realnie, wskutek narastającej wraz ze wzrostem populacji, konkurencji międzyosobniczej o dostęp do zasobów, wykładniczy wzrost populacji zawsze w końcu wyhamowuje i populacja stabilizuje się na pewnym poziomie liczebności zwanym pojemnością środowiska. W ekonomii odpowiednikiem tego mechanizmu jest akumulacja kapitału. Konkurencja miedzy kapitałem również stopniowo narasta, czego widocznym rezultatem jest malejąca stopa zwrotu. W rezultacie zarówno w ekologii jak i w ekonomii wzrost wykładniczy przekształca się we wzrost logistyczny, który zwalnia coraz bardziej, aż zamiera na asymptocie pojemności środowiska, czy maksymalnego poziomu PKB i PKB per capita. Równanie logistyczne określone jest przez dwa parametry. Tempo przyrostu w czasie, tak samo jak we wzroście wykładniczym, oznaczane literą r i pojemność środowiska – maksymalna wielkość populacji i PKB oznaczane zwykle przez K

Znając dotychczasową dynamikę PKB per capita możemy interpolować krzywe logistyczne wzdłuż których się ona odbywała i tym samym wyznaczyć oba ich parametry. Pojemność środowiska K dla omawianych krajów pokazano na kolejnym wykresie. Obok poziomu docelowego, zaznaczono też poziom obecny z 2019 roku.

Tyg 02

Widzimy, że Japonia właściwie już osiągnęła swoją asymptotę, a Korea i Tajwan są jej stosunkowo bliskie.  Zaskoczeniem może być natomiast fakt, że blisko niej są również …Chiny. I że ta chińska asymptota, maksymalny możliwy poziom zamożności, leży nie tylko najniżej ze wszystkich pokazanych krajów, ale leży też niżej, niż poziom zamożności jaki te kraje, również Polska, mają obecnie! Nie tylko więc Chiny nie dogonią nigdy USA, Japonii, czy Polski, ale nie osiągną nawet ich dzisiejszego poziomu zamożności. Na zawsze zatem pozostaną krajem biednym, prymitywnym i zacofanym. Całe stulecie 1950-2050 w wykonaniu omawianych krajów przedstawiono na wykresie. Zaznaczono na nim nie tylko dynamikę dobrobytu, ale i asymptoty do których PKB per capita w poszczególnych krajach dąży.

Tyg 02a

W tym miejscu nasuwa się jednak oczywiste pytanie, dlaczego Chiny tak właśnie mają? Wszak trzy z omawianych krajów, Tajwan, Singapur i Hong-Kong, są właściwie tak samo „chińskie” jak Chiny, zamieszkałe w przeważającej mierze przez Chińczyków, a ich poziomy asymptot zamożności K są dużo od chińskiego wyższe. Korea i Japonia zaś, chociaż Chinami już nie są, to i tak są kulturowo im bliższe dużo bardziej niż Polsce, czy USA. Dodatkowo można zauważyć inne intrygujące zjawisko. Kiedy, oprócz samego poziomu docelowego parametru K, weźmiemy tez pod uwagę trajektorie po której dana gospodarka do tego punktu docelowego zmierza, czyli parametr r. Okazuje się, że oba te parametry nie są niezależne. Im szybciej gospodarka się rozwija, czyli im wyższe ma r, tym niższy docelowy poziom K osiągnie. Z omawianych krajów, jedynie Singapur zdaje się wyłamywać z tej reguły:

Tyg 03

Istnieje zatem jakiś powód dla którego Chiny znajdują się na jednym krańcu tej skali, z szybkim, ale za to krótkim wzrostem, a USA na drugim, ze wzrostem wolnym, ale bardzo długo trwającym. Aby znaleźć ten powód musimy wyjść poza PKB i sięgnąć do innych danych opisujących gospodarki poszczególnych krajów. Takim dodatkowym parametrem będzie w naszym przypadku wskaźnik Index of Economic Freedom, tzw IEF. Wskaźnik ten, określa z grubsza poziom wolnego rynku w danej gospodarce, intuicyjnie oczekujemy bowiem, że poziom zamożności danego kraju, może być z wolnym rynkiem jakoś skorelowany.

I, co za niespodzianka, faktycznie jest. Poziom korelacji wynosi 79%. Im bardziej wolnorynkowy kraj, tym wyższy pułap zamożności K osiągnie. Chiny, jako kraj nadal faktycznie komunistyczny, tyle że w fazie swoistego NEPu, przystało, kraj w którym właściwie nie ma własności prywatnej, ma IEF stosunkowo niski i tym samym i niewielki osiągalny poziom PKB per capita. Startując jednak od bardzo niskiego poziomu wyjściowego, wskutek agresywnych inwestycji kapitałowych, mogły Chiny osiągnąć wzrost gospodarczy bardzo szybki, ale też i krótkotrwały. Rosja przed I wojną światową, a potem ZSRR, też okresowo były najszybciej rozwijającymi się krajami swoich czasów. Nie zdominowały jednak świata, choć powszechnie to prorokowano, a ZSRR nawet jawnie to zapowiadał.

Drążąc temat dalej, zauważmy, że na całość IEF składa się 12 subparametrów, takich jak wolność od korupcji, poziom ochrony własności prywatnej, wolność handlu itp. Jeżeli każdą z tych 12 składowych potraktujemy jako współrzędną, to możemy zbudować tzw. przestrzeń fazową o 12 wymiarach. Każdy kraj staje się wtedy punktem w takiej przestrzeni. Kraje o podobnym ustroju określonym przez parametry modelu IEF, znajdą się w przestrzeni fazowej blisko siebie, a kraje o odmiennych ustrojach – daleko. Mierząc odległości w tej przestrzeni, możemy zobaczyć do jakich krajów Chinom blisko pod względem ustroju gospodarczego, a do jakich daleko. Do porównania wzięto tym razem więcej krajów z szeroko rozumianego basenu Pacyfiku. Przedstawienie dwunastowymiarowej przestrzeni fazowej w dwóch wymiarach kartki papieru, tak aby zachować odległości między punktami, jest zadaniem karkołomnym i dla komputera bardzo trudnym, wymagającym długich, złożonych obliczeń. Ale jednak jest ono, jak widać na poniższym wykresie, wykonalne. Ponieważ wśród krajów wziętych do analizy znajduje się zarówno kraj z najwyższym (Singapur), jak i z najniższym (Korea płn) IEF na świecie, wykorzystano te dwa skrajne punkty do wytyczenia swoistej „osi wolnego rynku”. Pod pojęciem „inne Chiny” kryją się kraje chińskie niekomunistyczne. Makau, Hong Kong, Singapur i Tajwan. „Tygrysy” to pozostałe wysokorozwinięte kraje azjatyckie: Japonia, Korea i Malezja.

Tyg 04a

Okazuje się że kraje o tradycji anglosaskiej, USA, Kanada, Australia i Nowa Zelandia, pod względem ustroju społeczno-gospodarczego różnią się bardzo niewiele i wszystkie w przestrzeni fazowej znajdują się blisko siebie. Niedaleko nich, ale jednak wyraźnie oddzielone, są też „tygrysy”: Japonia, Korea i Malezja, oraz „inne Chiny” – poza Makau. To ostatnie znajduje się w otoczeniu takich krajów, jak Meksyk, Panama, Filipiny i Peru. Kraje latynoskie zresztą, inaczej niż anglosaskie, nie stanowią jednej zwartej grupy, a ich spektrum ustrojowe rozciąga się od mało różniącego się od azjatyckich tygrysów Chile, do niepokojąco bliskiej Korei płn. Boliwii. A Chiny właściwe, kontynentalne, ludowe? Ano właśnie. W żadnym razie nie jest to kraj wolnorynkowy i praworządny. Bliżej mu ustrojowo do Rosji, niż do któregokolwiek z cywilizowanych krajów azjatyckich, w tym również chińskich Tajwanu i Singapuru.

Wpływ różnic ustrojowych i jakości rządzenia na wzrost gospodarczy nie jest ewidentny, dopóki dany kraj jest biedny i tym samym zwrot z inwestycji kapitałowych jest wysoki. Mając odpowiednio dużą stopę zwrotu, kapitał chętnie zaryzykuje, nawet przy wysokiej korupcji i dużej niepewności instytucjonalnej. Jednak w miarę akumulacji kapitału, stopa zwrotu spada i jakość rządzenia zaczyna być istotna. W końcu zwrot jest na tyle niewielki, że nie warto ryzykować, że inwestycja zostanie przez władzę „udomowiona”, a koszt obsługi korupcyjnej zje wszystkie potencjalne zyski. Inwestycje się zwijają, a rozwój zamiera na poziomie, nieco mylnie zwanym „pułapką średniego rozwoju” Poziom tej pułapki, czyli asymptota K, jest tym niższy im gorszy jest rząd i niższy współczynnik IEF. Kraje wolnorynkowe i praworządne, o odpowiednio wysokim IEF, przechodzą zaś przez tą pułapkę w ogóle bez szwanku, zamieniając jedynie główny silnik rozwoju z inwestycji kapitałowych, na innowacje. Rozwój oparty na innowacjach ma jednak innych charakter niż rozwój kapitałowy. Zwrot z innowacji jest niski, zatem rozwój przebiega dużo wolniej. Najważniejsze jednak, że, inaczej niż w przypadku kapitału, innowacje nie rodzą same kolejnych innowacji. Wzrost gospodarczy przestaje być więc wykładniczy i staje się znów, jak w maltuzjanizmie, liniowy. W tej fazie układ staje się też wrażliwy na efekty drugorzędowe, nie tylko gospodarczo-ustrojowe, ale także kulturowe. W końcu, mimo zbliżonego położenia w przestrzeni fazowej IEF, azjatyckie „tygrysy”, z wyjątkiem Singapuru, mają wyraźnie niższą asymptotę maksymalnego dobrobytu od krajów anglosaskich. Pozostające przez kilkaset lat pod władaniem Portugalii Makau leży zaś, zapewne z tego właśnie powodu, bliżej w tej przestrzeni krajów latynoskich, niż chińskich.

Te subtelne różnice nie dotyczą jednak chińskiego komunistycznego smoka, który padnie na długo przed osiągnięciem granicy, przy której zaczynają one mieć znaczenie. Chińska „pułapka średniego rozwoju” leży naprawdę bardzo nisko. Oczywiście przyszłość nie jest zdeterminowana i również Chiny mogą tej pułapki uniknąć. Ale jeżeli faktycznie mają z sukcesem gonić USA, to same muszą się stać takie jak USA. Praworządne, wolnorynkowe i indywidualistyczne. Japonia, Korea, czy Tajwan zaszły tą drogą dużo dalej niż obecne Chiny, a i tak nie było to, jak się okazuje, wystarczająco daleko. Ale, aby osiągnąć choćby poziom Tajwanu, muszą Chiny zbliżyć się do Tajwanu również w przestrzeni fazowej, czyli podnieść swój IEF o około 20 pkt, co, co prawda umieściłoby Chiny w gronie krajów naprawdę cywilizowanych, ale i oznaczałoby najpewniej utratę władzy przez obecne elity rządzące, na co nie mogą sobie one pozwolić. Nie pierwszy to przypadek w krajach dzikich, o niskim IEF, że interesy kraju są zasadniczo sprzeczne z interesami jego władzy.

 

Powyższy artykuł był opublikowany w 1579/1580 numerze tygodnika „Najwyższy Czas”

Zmiana klimatu. Na lepsze.

Wielkimi zabobonami naszych czasów są globalne ocieplenie i nierówności majątkowe. Oba te zjawiska w przestrzeni społecznej funkcjonują jako mity, w kompletnym oderwaniu od rzeczywistych zjawisk klimatycznych, czy ekonomicznych, do których się odwołują. Dzisiejsze ocieplenie klimatu, nawet jeżeli faktycznie zachodzi, ma przecież przyczyny całkowicie odmienne, niż kapitalistyczna żądza zysku i wyzysku za wszelką cenę, przeludnienie i nadmierną konsumpcję, konkretyzujące się w emisjach tzw. gazów cieplarnianych. Nierówności zaś, są rzeczą naturalną i pożądaną. W analogii do termodynamiki, nierównowaga ekonomiczna ma niską entropię i tym samym umożliwia szybki i dynamiczny rozwój. W momencie osiągnięcia zaś całkowitej równości, entropia układu, w tym przypadku ekonomicznego, osiąga swoje maksimum i wszelka dynamika ekonomiczna, pomijając przypadkowe fluktuacje statystyczne, zamiera.

Podobnie jak nierówności ekonomiczne, również ocieplenie klimatu posiadałoby swoje zalety. W rolnictwie cieplejszy klimat oznacza dłuższy okres wegetacji i mniejsze ryzyko niszczących plonów przymrozków. Przy większym ociepleniu może się okazać możliwe zbieranie plonów nawet dwa razy do roku. Taka intensyfikacja produkcji rolnej, pozwala na skoncentrowanie jej tylko na urodzajniejszych gruntach i pozostawienie pozostałych areałów przyrodzie, do swobodnej ekologicznej sukcesji. Cieplejszy klimat zmniejsza też koszty ogrzewania budynków zimą, zużycie opału i produkcję smogu. Zmniejszenie ryzyka opadów śniegu, szadzi, oblodzeń, znacząco obniża koszty budowy i utrzymania infrastruktury drogowej i energetycznej. Brak zalodzenia rzek zimą redukuje ryzyko wiosennych zatorów i powodzi praktycznie do zera. W skali globalnej otwierają się dla rolnictwa i zasiedlenia ogromne, a dzisiaj praktycznie bezludne obszary Kanady, Syberii, Grenlandii i Antarktydy.

Oczywiście oprócz korzyści ekonomicznych, ocieplenie może pociągnąć za sobą i pewne koszty. Wyznawcy globalnego ocieplenia, zwani przez niżej podpisanego „klimatystami”, zorganizowani jako, na poły polityczne i gospodarcze lobby, na poły sekta religijna, nieustająco Głoszą o tych drugich, nigdy natomiast nie wspominając o tych pierwszych. Tymczasem, zakładając, że klimat globalny, tak samo jak to było w analogicznej fazie poprzedniego, przed naszym obecnym Holocenem, interglacjału zwanego Eemianem, faktycznie się ociepla, zrobienie takiego rzetelnego bilansu zysków i strat z tego tytułu, byłoby bardzo pożądane.

Czasy mamy takie, czy, cytując słowa klasyka, taki mamy właśnie klimat, że nawet prace naukowe, ulegając medialnej modzie, aby zmaksymalizować szanse na zdobycie odpowiedniego grantu, należy jakoś przypisać do „nierówności”, lub „globalnych zmian klimatu”. Oceanolog który napisze we wniosku, że chce badać prądy morskie bo jest tego tematu ciekawy, szansę na pozytywną odpowiedź będzie miał znacznie mniejszą, niż kiedy napisze, że będzie dociekał wpływu, jakie na owe prądy wywiera straszliwe Ocieplenie.

Dlatego też nie należy się dziwić i bulwersować, że, traktująca o interesującym nas temacie, praca Noaha S. Diffenbaugha Marshalla Burke’a z Uniwersytetu Stanforda, nosi jakże piękny marketingowo tytuł Global warming has increased global economic inequality. [PNAS May 14, 2019 116 (20) 9808-9813]

Autorzy, zakładając, że ocieplenie klimatu w latach 1991-2010 faktycznie zaszło, przeanalizowali jego wpływ na gospodarki poszczególnych krajów. Wynik podany jest w postaci dwóch wskaźników. Pierwszy z nich, „impakt ekonomiczny”, podaje o ile, w procentach, dana gospodarka jest mniejsza lub większa, niż byłaby gdyby do ocieplenia nie doszło. Drugim parametrem jest „ryzyko szkód ekonomicznych” jakie owa zmiana klimatyczna wywołała.

Jak można tego oczekiwać, część krajów na domniemywanym ociepleniu straciła, ale część zyskała. Najciekawsze w tym jednak jest, jakie czynniki o miejscu konkretnego kraju w tej klasyfikacji zdecydowały. Kiedy spojrzymy na umieszczoną w publikacji mapę:

f2.large_

To nachalnie narzuca się oczywisty klucz geograficzny. Im bliżej równika znajduje się dany kraj, tym brutalniej „globalne zmiany klimatyczne” się z nim obchodzą. Kraje zaś położne w strefie umiarkowanej na ociepleniu zyskują.

W tej ostatniej grupie, znajduje się i Polska z „impaktem ekonomicznym” w wysokości 8,1%. Skoro ocieplenie jest dla naszego kraju korzystne ekonomicznie, chciałoby się wręcz napisać, to nie tylko nie powinniśmy z nim walczyć, ale wręcz przeciwnie, zwiększać je na wszystkie sposoby, np. emitując większe ilości CO2, gdyby oczywiście ocieplenie było właśnie tymi emisjami spowodowane.

Korelacja geograficzna rzuca się w oczy w sposób tak oczywisty, że wręcz oślepia. Ulegli temu zaślepieniu również Diffenbaugh i Burke i nie szukali już żadnych innych przyczyn istnienia takiego właśnie rozkładu „impaktu ekonomicznego”. Tymczasem korelacje bywają zwodnicze, tym bardziej, im są, jak w tym przypadku, silniejsze. Z istnienia korelacji pomiędzy zjawiskami A i B nie wynika bowiem wcale, że to A wywołuje B. Równie dobrze może być na odwrót, choć w naszym akurat przypadku, hipoteza, że to wyniki ekonomiczne gospodarek wpływają na położenie geograficzne kraju, byłaby już zdecydowanie zbyt ekstrawagancka.

Może jednak też istnieć trzecie zjawisko C, które wpływa zarówno na A, jak i na B, względnie A faktycznie wywołuje B, ale za pośrednictwem jeszcze innego zjawiska D.

Konsekwencją przyjęcia tak naturalnej i oczywistej korelacji geograficznej, jest istnienie „optymalnej ekonomicznie” średniej temperatury, na poziomie ok. 12 stopni Celsjusza, przy której wydajność gospodarki miałaby osiągać swoje maksimum. Czy jednak takie ekonomiczne optimum termiczne naprawdę istnieje? Cywilizacja Zachodu powstała i przez tysiące lat koncentrowała się w strefie klimatu śródziemnomorskiego. Można by więc przyjąć, że takie właśnie miała ona termiczne optimum. Można by, gdyby nie fakt, że na przełomie VI i VII wieku, w skali historycznie wręcz błyskawicznie, w ciągu właściwie jednego pokolenia, centrum tej cywilizacji, przemieściło się gwałtownie na północ, w kierunku doliny Renu, w strefę klimatu umiarkowanego, ze znacznie niższymi temperaturami. Analogiczny proces, chociaż w przeciwną stronę, zaszedł też na drugim krańcu Eurazji. Dzisiaj Chiny kojarzą nam się z ryżem, a najbogatsze prowincje tego kraju leżą na południu, w dorzeczu Jangcy, przy czym przed wprowadzeniem w XVII wieku w Chinach upraw ziemniaków i kukurydzy ta ekonomiczna dominacja południa była jeszcze większa. Jednak aż do upadku dynastii Han w III wieku, głównym chińskim zbożem było proso, a centrum gospodarcze tej cywilizacji znajdowało się na północy, w chłodniejszym klimacie dorzecza Huang-Ho.

Nawet zatem w gospodarce preindustrialnej, maltuzjańskiej, której podstawowym sektorem jest, w wysokim stopniu zależne od fluktuacji klimatycznych i meteorologicznych rolnictwo, istnienie takiego stałego termicznego optimum jest bardzo wątpliwe. Nawet gospodarka rolnicza jest w stanie owe optimum termiczne zmieniać. Co dopiero gospodarka w mniejszym stopniu od kaprysów pogodowych zależna, industrialna i postindustrialna. Skoro jednak to nie położenie geograficzne determinuje „impakt ekonomiczny” ocieplenia, to co?

Zwykle jakoś tak się dzieje, że wszelakiego typu zjawiska ekonomiczne są bardzo silnie zależne od poziomu wolnorynkowości w danym kraju. Idąc tym tropem, sprawdzimy teraz korelację pomiędzy klimatycznym impaktem ekonomicznym, a opisującym poziom wolnego rynku w gospodarce, współczynnikiem „Index of Economic Freedom”, IEF, a właściwie średnią z tego współczynnika w interesującym nas okresie. Okazuje się, że taka korelacja faktycznie występuje na poziomie 36% dla impaktu i -37% dla ryzyka. Im bardziej wolnorynkowa jest gospodarka, tym większe korzyści wyciąga z ocieplenia i tym mniejsze jest prawdopodobieństwo, że zmiany klimatyczne jej zaszkodzą. Nie są to może korelacje przesadnie silne, ale są istotne statystycznie. Prawdopodobieństwo, że występują przypadkowo jest znacznie mniejsze niż 1%.

Oprócz oczywistej korelacji geograficznej, mamy więc także korelację ustrojową. Która z nich bardziej odpowiada rzeczywistości? Aby odpowiedzieć na to pytanie rozbijemy teraz wskaźnik IEF na poszczególne jego części składowe i obliczymy korelację między impaktem klimatycznym a każdą z nich z osobna. Na poniższym wykresie przedstawiono zbiorczo uzyskane korelacje istotne statystycznie:

Ekooc

Największy wpływ na efekty ocieplenia ma wolność handlu (Trade Freedom). Ale i inne składowe wolnego rynku nie są bez znaczenia. Prawo własności, niski poziom korupcji (Goverment Integrity), wolność biznesu, inwestowania i finansów, wszystko to pozwala gospodarce przekuć zmiany klimatyczne w zyski i zmniejszyć ryzyko strat. To nieunikniony rezultat. W gospodarce wolnorynkowej każda zmiana, także zmiana klimatu, jest szansą, na której można zarobić. Kiedy zacznie padać deszcz, zaraz ktoś będzie sprzedawał parasole. Kiedy zaświeci słońce na rynku natychmiast pojawią się kremy przeciwsłoneczne i klimatyzatory. Inaczej jest w przeżartej korupcją gospodarce „narodowej”, socjalistycznej, w której dominują państwowe monopole, narodowe czempiony, od pola do stołu dławiące jakąkolwiek konkurencję. Gdzie decyzje organów państwa zapadają nie w oparciu o procedury prawne i odpowiednie przepisy, ale poprzez odwoływanie się do woli narodu spersonifikowanego w postaci I sekretarza, czy innego prezesa. Tam każda zmiana jest z kolei zagrożeniem, czymś nieujętym w planie pięcioletnim, nieprzewidzianym w uchwałach zjazdu Partii.

Tym jednak, co ostatecznie przesądza o tym, że to właśnie klucz wolnorynkowy odpowiada za „impakt ekonomiczny” zmian klimatu, jest korelacja z wydatkami publicznymi (Goverment Spending). W przeciwieństwie do wszystkich pozostałych jest to bowiem korelacja odwrotna. Im wyższy poziom wydatków państwowych, czyli im mniejszy poziom wolnorynkowości w tym sektorze, tym akurat impakt ekonomiczny jest bardziej korzystny, a ryzyko mniejsze. Takiego efektu właśnie można by się spodziewać, jeżeli potraktujemy ocieplenie jako coś w rodzaju rozciągniętej w czasie klęski żywiołowej. Zarządzanie takimi klęskami, np. budowa i konserwacja infrastruktury antypowodziowej, organizowanie i utrzymywanie straży pożarnej, jest akurat jedną z tych bardzo niewielu rzeczy, która władzy publicznej wychodzi zwykle lepiej niż sektorowi prywatnemu. Oczywiście władzy w kraju ogólnie wolnorynkowym. Władzy sprawnej, kompetentnej i nieskorumpowanej. W kraju socjalistycznym bowiem, także klęski żywiołowe powtarzają się co roku cyklicznie. Wiosna, lato, jesień i zima.

Klucza geograficznego nie należy oczywiście całkiem lekceważyć. Bardzo duże korzyści z ocieplenia wyniosła np. Rosja, a nie jest ten kraj przecież wolnorynkowym liderem. Jeżeli jednak klimat, w Holocenie tak samo jak w Eemianie, faktycznie się ociepla, to odpowiedzią na to zjawisko, nie może być realizacja postulatów klimatystów, redukcja populacji, redukcja konsumpcji i wprowadzenie światowego reżimu komunistycznego. Przed negatywnymi skutkami zmian klimatu znów, tak jak w miażdżącej większości innych przypadków, uratuje nas niewidzialna ręka wolnego rynku.

Korelacja geograficzna została przez Diffenbaugha i Burke’a tak bardzo przeszacowana, ponieważ mieliśmy do czynienia z sytuacją A =>D =>C. Kraje tropikalne faktycznie zostały bardziej dotknięte zmianami klimatycznymi, ponieważ zwykle kraje te mają, a przynajmniej w latach 1991-2010 miały, bardzo złe rządy, czyli niski wskaźnik IEF. Chociaż impakt ekonomiczny ocieplenia nie zależy bezpośrednio od aktualnego klimatu, to jednak jakość rządów i poziom wolnego rynku jednak najwyraźniej od temperatury zależą. Podobne zjawisko spotykamy w ekologii. Gatunki i ekosystemy tropikalne, gdzie nie występują właściwie pory roku, są bardzo „sztywne” i wrażliwe na jakiekolwiek zmiany. Ekosystemy strefy umiarkowanej i polarnej, doświadczające rocznej sezonowości, są o wiele bardziej elastyczne i łatwiej się do zmian adaptują. Tak samo jest ze społeczeństwami ludzkimi. W kraju tropikalnym, gdzie nigdy nie trzeba było gromadzić zapasów na zimę, gdzie posiadanie schronienia na noc nie jest jakimś wyraźnym imperatywem, a jedzenie rośnie cały rok na drzewach, oczekiwania społeczne wobec władzy nie są, w porównaniu z krajami znającymi pory roku, jakoś specjalnie wyśrubowane. Jeżeli jednak ocieplenie będzie nadal postępować, to presja na wyższą jakość rządzenia pojawi się także w tropikach. Zresztą to zjawisko widać nawet w Afryce, kiedyś od krańca do krańca rządzonej przez nieudolne, skorumpowane, socjalistyczne dyktatury. Dzisiaj jednak już osiem krajów afrykańskich ma IEF powyżej 60, a dwa nawet powyżej 70, co odpowiada już krajom „w większości wolnym” w klasyfikacji IEF (Polska do nich nie należy).  Szczególnie imponujący jest awans do tego elitarnego grona Rwandy, kraju, w którym jeszcze pokolenie temu obywatele na wezwanie lokalnych fuhrerków wyrzynali się nawzajem maczetami. Ale było to przy poziomie IEF poniżej 40.

Zmiany klimatyczne, jeżeli faktycznie postępują, nie oznaczają zatem, jak chcieliby klimatyści, nadejścia światowego gułagu, ale przeciwnie, umocnienie w skali świata praworządności i wolnego rynku, bo tylko takie zmiany umożliwiają dostosowanie cywilizacji do zmian w sposób bezbolesny i właściwie bezkosztowy.

Powyższy artykuł był również opublikowany w 1577/1578 numerze tygodnika „Najwyższy Czas”

O sztuce czytania z sondaży

Nieodzowną częścią współczesnej polityki są sondaże. W okresie, w którym akurat nie odbywają się żadne wybory, to właśnie dynamika sondaży jest tym, co szczególnie polityków i ich potencjalnych wyborców ekscytuje. Przy czym regułą jest, że partie, których notowania sondażowe akurat rosną, odnoszą się do sondaży z entuzjazmem, a partie ze spadającymi notowaniami, sondaże deprecjonują i lekceważą. Faktem jest też, że czasami wyniki sondażowe bardzo odbiegają od faktycznych wyników wyborów, choć nie zdarza się to tak często, jak można by wnosić z wyolbrzymionych medialnych doniesień. W każdym razie, mechanika sondaży, nie tylko politycznych, zasługuje na to, żeby się jej bliżej przyjrzeć.

W pierwszym przybliżeniu, sondaż polega na wylosowaniu z badanej populacji, w przypadku sondaży politycznych, jest to populacja wyborców, jakiejś próbki i zadaniu jej pytania o preferencje wyborcze. Z matematycznego punktu widzenia mamy tu do czynienia z dwumianowym rozkładem prawdopodobieństwa, w Polsce, z niejasnych powodów, zwanym też rozkładem Bernoulliego. Albo ankietowany będzie zwolennikiem konkretnej partii, albo nie będzie. Załóżmy chwilowo że mamy do czynienia z sytuacją idealną. Próba jest doskonale losowa, a wszyscy wylosowani odpowiadają szczerze i zgodnie z prawdą. Jeżeli faktyczne poparcie dla danej partii wynosi p, a liczebność próbki wynosi n, to tzw. wartość oczekiwana, czyli najbardziej prawdopodobna liczba zwolenników danej partii w wylosowanej próbce wynosi E = n*p. Jednak to, że wartość oczekiwana jest najbardziej prawdopodobna, nie oznacza, że inne wartości E są zupełnie nieprawdopodobne. Faktyczny wynik sondażu prawie zawsze będzie się od wartości oczekiwanej nieco różnił. Miarą takiego rozrzutu wokół średniej, jest parametr, zwany odchyleniem standardowym. W przypadku rozkładu dwumianowego wynosi on:

(n*p*(1-p))^0,5

W rezultacie otrzymany wynik sondażu jest obarczony pewnym błędem statystycznym:

E = n*p +/- k*(n*p*(1-p))^0,5

A po podzieleniu równania stronami przez liczebność próbki n otrzymujemy wynik poparcia danego ugrupowania w procentach

W = p +/- k*(p*(1-p)/n)^0,5

Parametr k, czyli ilość odchyleń standardowych, jakie należy w obliczeniach przyjąć, zależy od tego, jak dużej dokładności od naszego sondażu oczekujemy. Zwykle przyjmuje się tzw. poziom ufności na 95%. Oznacza to, że wynik W musi się zmieścić w danym przedziale z prawdopodobieństwem 95%. Przybliżając rozkład dwumianowy rozkładem normalnym, z tablic tego ostatniego możemy odczytać, że dla takiego poziomu ufności ilość odchyleń standardowych k = 1,96.

Powyższe równanie jest równaniem kwadratowym, po rozwiązaniu którego, otrzymujemy dwie wartości p1 i p2. Prawdopodobieństwo, że faktyczne poparcie p znajduje się gdzieś między nimi, wynosi 95%. Różnica pomiędzy p1 a p2 zależy przede wszystkim od liczebności próby, czyli wartości n. Dokładnie zależy od odwrotności pierwiastka kwadratowego z n. Firmy sondażowe, zwykle dobierają liczebność próby tak, aby ta różnica, czyli błąd sondażu, stanowiła jakąś równą liczbę, zazwyczaj 3% Wtedy n = 1 067 i takiej właśnie wielkości próby najczęściej się losuje, a potem ewentualnie jeszcze informuje się odbiorcę, że „średni błąd wynosi 3%”, co jednak nie jest do końca prawdą. Jest tu bowiem pewien haczyk, który łatwo można zauważyć na poniższym wykresie:

Sondaż 01

Średni błąd bowiem, zależy, jak to było właśnie omówione wyżej, przede wszystkim od wielkości próby n, ale nie tylko od niej. Zależy też, choć w mniejszym stopniu, od samego wyniku W, co jest szczególnie jaskrawo widoczne dla W bardzo małych. Stwierdzenie że poparcie dla partii X wynosi 2% ze średnim błędem 3%, trudno bowiem traktować inaczej niż humorystycznie. W rzeczywistości dla próby tysiącosobowej, dokładnie dla n = 1067, błąd faktycznie wynosi 3%, ale tylko dla wyniku W na poziomie 50%. Przy mniejszym poziomie poparcia, przy tej samej liczebności próby n, i błąd również będzie mniejszy. Warto też zauważyć, że dla małych wartości W, sondaże zaniżają też nieco średnie poparcie dla danego ugrupowania, tym bardziej, im mniej liczna jest próba n, co ilustrują przerywane linie na wykresie.

Opisany właśnie mechanizm to swoista statystyczna zasada nieoznaczoności. Sprawia ona, że niezależnie od wysiłku i kompetencji ankieterów, w żadnych warunkach, błąd sondażu nie może być niższy niż ten obliczony powyżej. Nie ma jednak żadnych naturalnych przeszkód, by był ów błąd wyższy, a nawet dużo wyższy.

Przede wszystkim badana próba musi być rzeczywiście losowa, to znaczy, że każdy wyborca musi mieć jednakową szansę bycia wylosowanym do badania. W praktyce spełnienie tego warunku jest niezwykle trudne, a przed erą masowej telefonii mobilnej, właściwie w ogóle nie było możliwe. Przepytywanie ludzi w sklepach, na stacjach kolejowych, czy ulicach takiej losowości oczywiście nie zapewniało. Tym bardziej, że kiepsko opłacani ankieterzy, zazwyczaj studenci, lubili ułatwiać sobie pracę koncentrując się na ankietowaniu swojej rodziny, przyjaciół i znajomych, a nawet zmyślając część odpowiedzi całkowicie. Dlatego też, jeszcze kilkanaście lat temu, partie, mające nieproporcjonalnie wysokie poparcie na wsi (PSL, Samoobrona) były w sondażach regularnie niedoszacowane. Do ich wyborców znacznie rzadziej bowiem, jeżeli w ogóle, docierali ze swoimi pytaniami ankieterzy. Właściwie tylko badanie w dniu wyborów – exit poll, dawało wystarczający poziom losowości. I dzisiaj zresztą, sondaże oparte na losowaniu numerów telefonów (metody CATI i CAWI), dają znacznie lepsze, bardziej zbliżone do rzeczywistych wyników wyborczych, rezultaty, niż metody losujące ludzi (CAPI). Jedną z niewielu firm sondażowych stosujących tą archaiczną już dzisiaj metodę losowania jest CBOS i nieprzypadkowo jego prognozy odbiegają znacznie, nie tylko od wyników sondaży przeprowadzanych przez firmy konkurencyjne, ale i od faktycznych wyników wyborczych. W ostatnich wyborach parlamentarnych średni błąd CBOS był nie tylko po prostu największy ze wszystkich firm sondażowych. Był on prawie dwukrotnie większy od średniego błędu kolejnej firmy, ale już stosującej inną, dokładniejszą, metodę losowania. Tak samo było i w wyborach prezydenckich 2020 roku. Rekordzista, firma IBSP miała średni błąd kwadratowy na poziomie zaledwie 0,3 pkt proc, co było wynikiem dokładniejszym nawet, niż badanie exit poll, podczas gdy CBOS tradycyjnie zajął ostatnie miejsce wśród sondażowni, z błędem na poziomie 2,3 pkt procentowego.

 Nadal też najdokładniejsze pozostaje badanie exit poll, które ma też inne, poza losowością próby, zalety. Jest oparte na znacznie większej próbie i to na próbie, która właśnie rzeczywiście oddała głos w wyborach, a nie tylko wyraziła taką chęć i która pamięta jeszcze na kogo ten głos poszedł. Na drugim końcu skali mamy zaś sondy internetowe, w których uczestniczy próba tzw. „ochotnicza”, właściwie dokładne przeciwieństwo próby losowej i których rezultatów w związku z tym, w ogóle nie należy traktować poważnie.

Kolejnym słabym punktem sondażu jest sam ankietowany. Nawet prawidłowo wylosowany do próby respondent, wcale nie musi mieć ochoty brać w niej udziału. Dlatego też każdy sondaż powinien mieć podany poziom realizacji próby, czyli informację, ile z wylosowanych osób faktycznie wzięło w niej udział i stosownie do tego zmniejszoną wartość n, a tym samym zwiększony poziom błędu. Co gorsza, owa niechęć do bycia indagowanym, bywa bardzo silnie skorelowana z sympatiami politycznymi. Wciąż istnieją w Polsce, a nawet odnoszą wyborcze sukcesy, ugrupowania polityczne mało różniące się od religijnych sekt, których liderzy powtarzają swoim, bardziej wyznawcom, niż zwolennikom, żeby „nie wierzyli fałszowanym sondażom”. W rezultacie ich wyborcy z reguły odmawiają udziału w takich „oszukanych” sondażach i tym samym faktycznie zaniżają sondażowe poparcie dla swoich guru.

Nawet jednak, jeżeli wylosowany respondent udzieli odpowiedzi, wcale nie musi ona odpowiadać jego rzeczywistemu wyborowi przy urnie wyborczej. Przyczyny tego stanu rzeczy mogą być rozmaite. W warunkach ostrej walki politycznej, zwolennik opozycji może mieć opory przed wyartykułowaniem swojego poglądu komuś, kogo uważa, nieważne czy słusznie, za przedstawiciela władzy. Podobnie będzie, jeżeli poglądy polityczne respondenta różnią się drastycznie, od tych dominujących w jego rodzinie i bezpośrednim otoczeniu. Wreszcie, co przecież nie jest żadną niespodzianką, zasadnicza większość elektoratu polityką interesuje się bardzo słabo i w zasadzie decyzje o poparciu tego, czy innego ugrupowania, a nawet o samym uczestnictwie w wyborach, podejmuje w ostatniej chwili, a do tego czasu może w ankiecie zaznaczyć cokolwiek, bez głębszego zastanawiania się.

Mimo tych wszystkich potencjalnych problemów zwiększających poziom błędu, sondaże przedwyborcze, zwłaszcza odkąd każdy wyborca ma co najmniej jeden telefon komórkowy, mimo incydentalnych wpadek, odzwierciedlają rzeczywistość polityczną dość trafnie, a sondaże exit poll, prawie bezbłędnie. Prawdziwe kłopoty zaczynają się dopiero wtedy, kiedy rozochocone tym sukcesem firmy sondażowe próbują wejść na wyższe piętro złożoności i zaczynają sprawdzać przekroje społeczne elektoratów poszczególnych partii, czy przepływy poparcia. Obok prostego pytania „Na kogo zagłosujesz” respondent jest zagadywany o rzeczy, z którymi daleko nie wszyscy mają ochotę się publicznie afiszować, jak poziom wykształcenia, zarobków, wiek, czy stan zdrowia. Sama ankieta zaś, wydłuża się w stopniu, który zniechęca do jej wypełnienia w ogóle. W rezultacie otrzymane odpowiedzi pochodzą od pewnej specyficznej grupy, która ma czas i ochotę, aby na takie wrażliwe pytania odpowiadać, czyli w większości od ludzi o poglądach skrajnych, z zaniżeniem udziału wyborców przeciętnych, umiarkowanych, których zawsze jest większość.

Nawet jednak jeżeli zignorujemy ten brak reprezentatywności i spadający poziom realizacji, to i tak, z siłą huraganu, uderzy w nas statystyczna zasada nieoznaczoności. Jeżeli w badaniu sondażowym, poparcie dla jakiejś partii wynosiło np. 25%, to znaczy, że takie poparcie zdeklarowało 250 osób z tysiąca ankietowanych. Jeżeli teraz zadamy im kolejne pytanie, np. o wiek, to próba, która na nie odpowie, będzie już nie 1000 osobowa, a 250 osobowa. Z każdym kolejnym pytaniem, liczebność próby będzie się wykładniczo zawężać, aż do poziomu pojedynczych osób. Tym samym proporcjonalnie będzie się powiększać zakres błędu. Dodatkowo, kiedy liczebność takiej zawężanej próby spada poniżej 100 osób, nie można już przybliżać jej rozkładem normalnym i aby zachować 95% poziom ufności, ilość odchyleń standardowych – parametr k w równaniu, zaczyna rosnąć, powiększając błąd jeszcze bardziej, aż do poziomu większego niż sama mierzona wartość. Wyniki takiego sondażu stają się wtedy całkowicie bezużyteczne.

Sondaże są zatem wartościowe, i dość dokładne, tym bardziej, im bliżej wyborów są przeprowadzane. Trzeba jednak mieć świadomość ich ograniczeń, zakresów błędów i tego, że nie da się z nich wycisnąć wiele więcej danych niż sam tylko poziom poparcia dla poszczególnych partii i/lub kandydatów. Przy ocenie wiarygodności sondażu, należy zatem zwrócić uwagę na trzy kluczowe parametry: liczebność próby, poziom jej realizacji, czyli ile osób faktycznie ankietę wypełniło, oraz metodę losowania respondentów. A poważne instytucje sondażowe powinny takie informacje, przy okazji publikacji, podawać. Jeżeli ich nie podają, to z góry można je uznać za niepoważne, a podawane przez nie wyniki, ignorować.