Minha motivação para escrever esse texto foi a experiência que tive ao cursar o mestrado em Economia na Universidade Pompeu Fabra (Barcelona, Espanha). Foram muitos os problemas metodológicos aos quais eu e meus colegas fomos expostos, mas as maiores inquietações eram despertadas nas aulas de Macroeconomia. Me parece que, atualmente, os pesquisadores do campo estão muito mais preocupados em resolver quebra-cabeças matemáticos que eles mesmos criaram do que em analisar questões econômicas do mundo real.
Presenciei um curto diálogo entre um aluno e o professor Jordi Galí que ilustra perfeitamente o que quero dizer:
Aluno: As implicações desse modelo não me convencem. Existe evidência de que essas coisas realmente ocorrem?
Galí: Não. Mas não estamos falando da realidade aqui. Somente da lógica interna do modelo.
O modelo a que os dois se referiam era um refinamento do arcabouço Novo-Keynesiano (NK), matéria-prima dos modelos Dinâmicos Estocásticos de Equilíbrio Geral (DSGEs) utilizados por bancos centrais do mundo inteiro no processo de tomada de decisão. Galí não é qualquer um falando desses modelos: ele é um dos criadores do arcabouço NK tal como é hoje, além de ser um dos principais expoentes da literatura relacionada, a ponto de a comunidade científica suspeitar diversas vezes que ele fosse ganhar um Nobel (e talvez ainda ganhe).
Tampouco a sanha de ensinar a derivar e interpretar resultados inverossímeis, um exercício puramente matemático, era exclusividade das aulas do Professor Galí. Todos os outros professores de macroeconomia adotavam a mesma linha, com a honrosa exceção de Isaac Baley (talvez porque ele tenha estudado bastante filosofia e história do pensamento econômico, mas esse é só um chute educado). Então, ouvíamos economistas de peso como Jaume Ventura dizer reiteradamente que “Nenhuma hipótese é inocente…” ou Edouard Schaal declarar que “Os parâmetros do modelo de Edward Prescott [ganhador do do prêmio Nobel em 2004] eram constantemente rejeitados por testes econométricos padrão, então Prescott resolveu parametrizar e testar seus modelos de outra forma”.
Mas não escutamos absolutamente nenhuma reflexão sobre se essa maneira de produzir modelos poderia nos impedir de chamar as ciências econômicas de ciência, de fato. Além disso, não existe razão para supor que a atitude dos professores seria diferente nos departamentos de Economia mais influentes do mundo: a Barcelona Graduate School of Economics, da Pompeu Fabra, é um deles, embora não tão conhecido pelo público em geral quanto os departamentos das maiores universidades americanas ou inglesas.
Esse pequeno relato sobre como é aprender macroeconomia com professores de grande prestígio, que pesquisam temas que estão na fronteira do conhecimento, serve para mostrar o quão combalido está o campo. Eu poderia ter escolhido uma miríade de assuntos problemáticos que assolam a literatura, mas nesse texto resolvi focar nas falhas dos DSGEs. Assim decidi porque esses modelos são uma verdadeira obsessão entre os macroeconomistas mainstream. Há anos algumas das mentes mais brilhantes da profissão vêm tentando remendá-los à exaustão, fixadas na beleza da sua lógica interna, desejando intensamente que um dia os DSGEs voltem a ter a credibilidade que tinham antes da crise financeira de 2007 – 2008.
O que é DSGE?
Antes de entrar nas tecnicidades dos DSGEs, vale explicar brevemente como eles funcionam. Eles nada mais são do que um sistema de equações simultâneas derivadas da hipótese de comportamento otimizador de consumidores e empresas. São ditos de equilíbrio geral porque a análise gira em torno de uma situação em que a alocação de recursos econômicos em todos os mercados é eficiente e nenhum agente deseja modificar suas ações. Partindo deste equilíbrio, os economistas se perguntam o quê mudaria caso um choque externo ao sistema fosse introduzido. Por exemplo, segundo o modelo, se o banco central decidir aumentar a taxa de juros de maneira inesperada, o que acontece com o PIB?
Essa abordagem é de algum modo interessante, já que por trás dela está a noção de escassez. Em modelos de equilíbrio geral, ao contrário de modelos de equilíbrio parcial, não existe almoço grátis. Se os recursos são escassos e os mercados são interdependentes, qualquer política econômica que estimule algum setor necessariamente vai gerar perdas em algum outro setor, e é possível avaliar se essa realocação leva a uma melhora do ponto de vista da eficiência econômica.
Entretanto, ao meu ver, existe um problema bastante grave com as teorias de equilíbrio geral, que embasam os DSGEs. Nelas, supõe-se (pela porta dos fundos) que os agentes têm conhecimento das condições de equilíbrio antes que os mercados estejam de fato em equilíbrio! Ignorar o processo de aprendizado que poderia levar a um equilíbrio é incorrer na falácia da petição de princípio: supõe-se aquilo que se deseja demonstrar. Em outras palavras, o que se quer obter é tido como dado desde o princípio. A pergunta que faço no título deste texto já poderia ser respondida aqui, caso o leitor concorde com o meu raciocínio. Porém, há muito mais a dizer sobre os DSGEs, seus problemas, e o estado da macroeconomia moderna. Vamos começar contando como os pesquisadores perceberam que algo estava muito errado.
A crise financeira e a crise da teoria macroeconômica
Antes da crise financeira de 2007 – 2008, os principais macroeconomistas, incluindo Galí, concordavam que havia convergência metodológica na disciplina: o arcabouço DSGE era o padrão. Olivier Blanchard (Ex-Economista-Chefe do FMI) chegou a publicar um famoso paper alegando que o estado da macroeconomia era bom, embora reconhecendo que nem tudo estava bem. Dois anos antes, porém, George Akerlof (ganhador do Prêmio Nobel em 2001) já estava explorando maneiras criativas de escapar do padrão, argumentando que a macroeconomia ainda tinha muito para avançar. Outros economistas importantes, como Peter Howitt (Brown), Alan Kirman (EHESS), Axel Leijonhufvud (UCLA), Perry Mehrling (Barnard College) e David Colander (Middlebury College) vinham defendendo uma macroeconomia mais empiricista e menos baseada em modelos há anos.
Então veio a crise. Foi uma ruptura no setor financeiro comparável à de 1929 e nenhum macroeconomista conseguiu prevê-la. Seus modelos eram, evidentemente, deficientes. Embora a crise não tenha sido antecipada, o fato de que os DSGEs poderiam falhar em prever eventos de grande impacto deveria ter sido mais enfatizado, porque já era bem conhecido. A maioria dos macroeconomistas estava ciente que seus modelos estavam baseados em suposições totalmente desconectadas da realidade que levavam a conclusões desconcertantes, e muitos vinham tentando consertá-los (como, aliás, tentam até hoje).
Modelos antecedentes e problemas herdados
Premissas e conclusões bizarras já tinham uma longa tradição na macroeconomia. A família de modelos DSGE deriva dos modelos Real Business Cycle (RBC), propostos por Finn Kydland e Edward Prescott em 1982 e John Long e Charles Plosser em 1983. As principais hipóteses dos RBCs são: (i) expectativas racionais (agentes não cometem erros sistemáticos); (ii) não há informação assimétrica (os indivíduos têm conhecimento perfeito sobre tudo que os cerca); (iii) os consumidores são idênticos e a soma de suas ações resulta no comportamento de um único agente representativo, o mesmo valendo para empresas; (iv) agentes vivem infinitamente; e (v) os mercados são perfeitamente competitivos e os preços se ajustam instantaneamente. Desnecessário dizer, nada disso encontra respaldo no mundo real.
Sob estas hipóteses irreais, emergem em modelos derivados dos RBCs cinco ditas neutralidades que são assombrosas, para dizer o mínimo: (i) o consumo é independente da renda atual (Hipótese do Ciclo de Vida/Renda Permanente); (ii) lucros correntes são irrelevantes para gastos de investimento (Teorema de Modigliani-Miller); (iii) a inflação é independente do desemprego no longo prazo (Teoria da Taxa Natural); (iv) a política monetária é incapaz de estabilizar a produção no longo prazo (Teoria da Neutralidade da Moeda); e (v) impostos e deficits orçamentários não afetam o consumo (Equivalência Ricardiana). Todas essas conclusões são fortemente contra-intuitivas. Na verdade, nenhuma foi corroborada empiricamente e há fortes evidências contrárias a algumas delas!
Em um esforço para reparar esses resultados intrigantes, os macroeconomistas começaram a adicionar hipóteses ao núcleo RBC, as chamadas imperfeições de mercado e fricções, tais como concorrência monopolística entre empresas (no lugar de competição perfeita em todos os mercados) e rigidez nominal (salários e preços se ajustam com menos frequência). Alguns desses novos modelos foram batizados de Novo-Keynesianos e evoluíram para modelos DSGE de última geração, sendo o de Frank Smets e Rafael Wouters (de 2007) o mais conhecido entre eles. Embora estes modelos tenham implicações mais plausíveis, há considerável espaço para críticas.
Por um lado, em modelos NK a política monetária importa. Existem inúmeros estudos de qualidade variada que dizem encontrar evidência de que a Teoria da Neutralidade da Moeda (que implica que a política monetária não importa no longo prazo) é falsa, e ao menos um estudo é certamente digno de crédito. Em um influente capítulo de livro, de 1999, Lawrence Christiano (Northwestern/Chicago), Martin Eichenbaum (Northwestern/Chicago) e Charles Evans (FED de Chicago) documentam extensamente as evidências de que a política monetária tem influência sobre a economia real, inclusive no longo prazo.
Por outro lado, as demais neutralidades permanecem nos modelos NK. Contra a Hipótese do Ciclo de Vida/Renda Permanente, existem diversos estudos baseados em microdados de consumo (ver aqui, aqui, e aqui, para citar apenas três), publicados em journals de renome. O Teorema de Modigliani-Miller, por sua vez, não é válido caso qualquer um destes estiver presente: impostos, custos relacionados a falências e a conflitos de interesse, e informação assimétrica. Acredito que não é preciso explicar porque esta neutralidade não corresponde nem um pouco à realidade. Quanto à Teoria da Taxa Natural, em 2013, Roger Farmer (Warwick) publicou um ensaio onde revê diversos estudos que não encontram evidência da existência da tal taxa natural (de desemprego). Blanchard, em 2018, diz que a evidência não é conclusiva, mas que os economistas deveriam manter a cabeça aberta para teorias alternativas.
Em segundo lugar, a maneira como os modelos NK foram concebidos vai contra a filosofia dos modelos RBC. Nos RBCs, as equações macroeconômicas se originam do comportamento microeconômico, isto é, os modelos são microfundamentados. Uma vez que os pesquisadores implantam mecanismos sem justificativa microeconômica, os modelos deixam de ser microfundamentados! Estes mecanismos (imperfeições de mercado e outras fricções) são suposições ad hoc. Não há teoria por trás delas. Elas foram adicionadas simplesmente para que os macroeconomistas se sentissem mais confortáveis com os seus modelos.
Para entender o problema de hipóteses ad hoc, considere o Criacionismo, “teoria” (na verdade, crença) segundo a qual Deus criou todos os seres vivos. Criacionistas negam que tenha havido evolução das espécies. Portanto, qualquer evidência empírica de que tenham existido animais mais antigos que o homem e com os quais espécies atuais têm parentesco serviria para invalidar a “teoria”. Então, o que fazem os criacionistas se confrontados com a existência de ossadas de dinossauros, por exemplo? Enunciam uma hipótese ad hoc: Deus enterrou estes ossos para testar a nossa fé. Pronto. A evidência das ossadas já não pode falsificar a “teoria”. No contexto dos DSGEs, os criacionistas são os teóricos por trás dos modelos, os ossos dos dinossauros são as evidências contra as neutralidades, e a história sem pé nem cabeça sobre Deus enterrando os ossos são as fricções enxertadas nos modelos.
A bem da verdade, existe uma variedade de estudos que afirmam ter encontrado evidências de rigidez nominal em microdados. De qualquer forma, como vou argumentar em seguida, a maneira como esse tipo de “comportamento” foi inserido nos modelos é inadequada. Nenhum agente toma a decisão de manter ou mudar o preço por qualquer razão econômica: uma roleta gira e diz quando isso deve acontecer!
Onde estão os tais microfundamentos?
Como outros autores, tenho a opinião de que o problema com os microfundamentos tem raízes mais profundas, atingindo os próprios RBCs. Antes que os RBCs se tornassem a regra, os pesquisadores estavam tentando criar uma ciência baseada em agentes heterogêneos, uma busca que estava mais próxima das economias reais do que a teoria microeconômica. Tentava-se explicar como as recessões poderiam acontecer sabendo que o mundo não se comporta como as economias perfeitamente competitivas das teorias de equilíbrio geral de León Walras, Kenneth Arrow e Gerard Debreu. Em vez disso, os economistas entendiam que os mercados podem falhar como resultado da falta de coordenação entre os indivíduos, que eram propensos a erros e podiam adaptar-se ao ambiente.
Esta busca basicamente chegou ao fim com o aparecimento dos modelos RBC. Neles, quaisquer flutuações econômicas são devidas a choques exógenos e o número e tipos de choques aumentaram bastante em modelos NK (e, por extensão, nos DSGEs). Isto significa que nos DSGEs, contrariamente até mesmo à observação casual, falhas de mercado que culminam em recessão e desemprego são causadas por forças imaginárias que nenhum agente econômico decidiu infligir! Mais precisamente, em geral, existe apenas um agente de cada tipo (tipicamente um consumidor e uma empresa) sendo cada um afetado por tipos específicos de choques.
Essa hipótese de agentes representativos, aliás, não é inócua. Em um sistema complexo como uma economia, a soma das ações dos indivíduos pode não ser equivalente ao resultado dessas ações quando exercidas simultaneamente. Isto é, da coordenação de comportamentos individuais pode emergir fenômenos que não poderiam ser produzidos por nenhum indivíduo isoladamente. É a falácia da composição. Para Howitt e Kirman, a existência dessa falácia no design dos DSGEs mais comuns os torna passíveis da famosa Crítica de Lucas: se os agentes estão modelados de forma incorreta, então os parâmetros que regulam seus comportamentos não são estruturais e podem, portanto, mudar com a política econômica, sem que o modelo seja capaz de acomodar esse fato. As previsões feitas com eles, então, de nada serviriam.
Robert Solow (MIT) também apontou para consequências importantes da hipótese de agentes representativos: contrariamente a ambientes onde a coordenação entre indivíduos tem um papel central (como qualquer economia real), não há conflitos de interesse, expectativas incompatíveis e nenhum engano. Então, por exemplo, a única maneira que os modelos DSGE podem gerar desemprego é torná-lo voluntário: de repente, e sem nenhuma razão, os trabalhadores passam a preferir mais lazer e deixam seus empregos. Confrontados com essas questões, alguns pesquisadores começaram a tentar incluir agentes heterogêneos em seus modelos (ver, por exemplo, o HANK). No entanto, a estimação desses modelos é extremamente difícil e torna o problema da identificação, que trato a seguir, muito mais complicado.
Problemas de identificação
Como advertido por Fabio Canova (Bocconi) e Luca Sala (Pompeu Fabra) em 2009 e reiterado anos depois por Samuel Hurtado (Banco de España) e Blanchard, entre outros, DSGEs sofrem de problemas de identificação. Isso significa, apenas, que existem mais variáveis a serem estimadas do que equações. Portanto, para resolver o sistema de equações, muitos parâmetros têm que ser calibrados, isto é, os modeladores precisam imputar valores a esses parâmetros desconhecidos.
Segundo Paul Romer (ganhador do Prêmio Nobel em 2018), o procedimento para esconder esse problema assume muitas formas. O pesquisador pode escolher o caminho mais fácil, que é assumir que um subconjunto de parâmetros é zero, ou três outras abordagens mais sofisticadas. Primeiro, ele poderia esconder o zero em alguma equação de nível micro (uma das que levam ao sistema de equações final). Segundo, ele pode pegar a média ou a mediana de uma série temporal associada ao parâmetro desconhecido. Por exemplo, se o parâmetro indeterminado é a porcentagem de capital no PIB, o pesquisador pode defini-lo como a média histórica da série de porcentagem de capital no PIB de uma dada economia. Terceiro, ele poderia recorrer à estimação bayesiana e alimentar uma gama de priors (valores que se acredita que estejam próximos aos verdadeiros) até observar o resultado desejado.
O último caso (procurar pelos melhores priors) é flagrantemente ad hoc e acientífico, e os outros dois (zerar parâmetros e usar séries históricas) também são obviamente propensos a cherry-picking (escolher os valores de forma que se observe aquilo que se quer).
Conclusão
Os DSGEs têm uma lista infindável de problemas que parecem longe de serem resolvidos. Como tentei argumentar, suas bases são fracas e os pesquisadores assumem posturas nada científicas diante delas. Espero que eventualmente consigam resolver ao menos parte das questões levantadas aqui, afinal, já gastaram tempo demais no desenvolvimento desses modelos. Mas, na verdade, tenho poucas esperanças e acredito que investir no relativamente novo campo de modelos computacionais seja muito mais proveitoso. Esse assunto fica para um próximo artigo.
Gostaria de pedir uma explanação sobre esses novos modelos computacionais
Obrigado