Odyseusz zatkał sobie na chwilkę uszy, my permanentnie zasłaniamy sobie oczy

Odyseusz zatkał sobie na chwilkę uszy, my permanentnie zasłaniamy sobie oczy

W dużym uproszczeniu, w prognozowaniu na potrzeby polityki pieniężnej, trzeba wybrać, czy ma się czystą rękę lewą, czy też prawą -- bo w ofercie są dwie klasy modeli.

Pierwszy typ modeli bierze wszystko co się da z danych i na ich podstawie, w dość niekontrolowany sposób, zgaduje przyszłość. Te modele mają co prawda jakąś strukturę, czyli jakiś sposób myślenia o gospodarce. Ale w swojej istocie są podobne do modeli prognozowania cen aktywów czy czegoś podobnego. Ponieważ są wiedzione danymi, powinny być w miarę zobiektywizowane, ale trudno na ich podstawie ocenić, dlaczego coś się w gospodarce wydarzy (ani nawet: dlaczego się wydarzyło). Dużo co do przyszłości trzeba w nich założyć, a czasem drugie tyle „skorygować ekspercko”, bo z samych danych model może proponować prognozy, które nie wyglądają na zbyt przekonujące.

Drugi typ modeli jest bardziej podobny do fizyki albo innych nauk, w których próbujemy definiować prawa, nie ograniczać się do patrzenia w liczby. W tych modelach dane służą do zdyscyplinowania zależności pomiędzy istotnymi procesami w gospodarce. Dają także punkt startowy i pewne istotne ścieżki, ale reszta prognozy bierze się z naszego rozumienia procesów gospodarczych. Te modele bardzo dużo umieją powiedzieć o mechanizmach, łatwo z nich wyciągać analizy kontrfaktyczne, można więc doskonale zrozumieć, czym nowa prognoza różni się od starej. Wady? Przede wszystkim, jeśli my się zmieniamy – konsumenci lub firmy – modelarze muszą to zauważyć i zmodyfikować mechanizmy w modelu. W przeciwnym przypadku model będzie próbował bez powodzenia dopasować się do nowych danych.

Które modele są lepsze? Czyste dane, czy postulowanie mechanizmów? Poza trywialnym stwierdzeniem, że wszystkie można popsuć – a to pychą, a to wywieraniem presji na analityków – nie ma prostej odpowiedzi na to pytanie. Marco Del Negro, jeden z wybitniejszych ekonomistów swojego pokolenia, prześledził jak radzi sobie model wykorzystywany przez nowojorski „oddział” Rezerwy Federalnej. Ten model bazuje na prawach, zależnościach i mechanizmach. Dostarczył bardzo istotnej wiedzy na temat przyczyn występowania wielu istotnych zjawisk w amerykańskiej gospodarce – spraw, w których pozostali mogli co najwyżej zgadywać. Prognozy z modelu NY Fed są publikowane z wyprzedzeniem, więc wiemy, że wykorzystywano „ówczesny” stan wiedzy, nie ma żadnej możliwości oszukiwania, przez uwzględnienie w modelowaniu tego, co wiemy dziś, a czego nie było wiadomo w momencie tworzenia prognozy. Żeby ocenić, czy ten model radzi sobie dobrze z prognozami, porównano go do średniej z prognoz profesjonalnych analityków, również publikowanych „ówcześnie”. O ile łatwo jest pobić zawsze zdolności prognostyczne jednego modelu, o tyle ściganie się ze średnią z całego wilczego stada profesjonalnych analityków jest zadaniem ambitnym.

Co wyszło? Do momentu pandemii, pojedynczy model oparty o mechanizmach radził sobie z grubsza tak samo dobrze z prognozowaniem tempa wzrostu PKB jak średnia prognoza analityków rynkowych – średnio mylą się o ok 0.5-0.6 punktu procentowego wzrostu. NY Fed jest nieco bardziej pesymistyczny niż rynek, jeśli chodzi o inflację bazową, ale są różnice w błędach ich prognozach są zaniedbywalne: w horyzoncie dwóch kwartałów mowa o 0.2 pkt procentowego vs 0.3 punktu procentowego. Wydaje się, że wszyscy radzą sobie słabo z prognozowaniem gospodarki po pandemii, i dotyczy to w tym samym stopniu PKB co wskaźników cen.

Prognozy są oczywiście bardzo przydatne w normalnych czasach, ale są szczególnie potrzebne w momentach większej niepewności. W ostatnich latach takimi momentami dla banków centralnych były efekty pandemii covid, wczesna diagnoza nadchodzącej presji inflacyjnej oraz zagrożenie recesją po zacieśnieniu polityki pieniężnej. Czy model NY Fed poradził sobie z tymi trudnymi momentami lepiej niż średnia z analityków rynkowych? Aż smutno to przyznać, ale miał równie zmienne szczęście co pozostali. Nieźle przewidział zachowanie PKB w pandemii, ale inflacja całkiem mu umknęła. Podobnie z recesją latem 2022 roku: przewidział całkiem niepotrzebnie spadek PKB, za to zdecydowanie szybszą obniżkę inflacji niż się przytrafiła w USA.

Jest kilka konstruktywnych morałów z tej historii. Po pierwsze, nowojorski Fed pracuje nad poprawkami w modelu: mając w modelu mechanizmy, łatwiej pokazać, które zawiodły w porównaniu do prawdziwej gospodarki, co pomaga je poprawiać. Po drugie, każde z nas może mieć „pełen” model korzystając ze średniej prognoz analityków i publikacji NY Fed. Po trzecie, o ile wszystkie modele trzeba przyjmować ze zrozumieniem ich ograniczeń metodologicznych, skoro model oparty o mechanizmy radzi sobie tak samo jak inne, a daje nam więcej wiedzy – to chyba wybór staje się tak naprawdę wyjątkowo oczywisty.

Inna sprawa, że w Polsce szczęśliwie nie musimy się martwić o wybór pomiędzy modelami. Zarząd naszego banku centralnego porzucił całkowicie prognozowanie z modeli opartych o mechanizmy. Nie mamy nawet szansy spróbować zrozumieć czegokolwiek z gospodarki, bo nawet nie odpalamy tego narzędzia. A nasz model oparty o dane? Pełni w istotnym stopniu funkcję zbliżoną do roli latarni ulicznej, gdy ktoś po długich z krajanami rozkminkach halsuje pod wiatr do domu: jej zadaniem nie jest nam cokolwiek rozjaśnić, a jedynie dać chwilowe oparcie.

Tags: 
Tłoczone z danych