Material On-line


Recentemente me pediram algumas recomendações de material das disciplinas core de economia, materiais que estivessem disponíveis on-line e gratuitamente.

Achei que seria legal disponibilizar a lista aqui.

Segue uma primeira leva, que lembrei de cabeça, com o passar do tempo vou atualizando (quem quiser, por favor, deixe sua dica):

***

Atualização.

Para notas de aula em inglês, o Gustavo deixou a dica do http://econphd.econwiki.com/notes.htm

Acredito que isso supra quase tudo.

Quem souber de mais material em português, deixe sua dica!

***

Macroeconomia:

Notas do Fernando de Holanda Barbosa (pós-graduação);

Microeconomia:

– Lecture Notes do Nolan Miller (pós-graduação);

Notas de aula do José Guilherme Lara Resende (graduação);

Curso Básico de Microeconomia do José Carrera-Fernandez (graduação);

Econometria e Estatística:

Econometrics do Hansen (pós-graduação);

Análise Matemática:

Curso de Análise Real do Neri e Cabral (pós-graduação);

Introdução à Análise Real do Alexandre Madureira (pós-graduação);

Aumentar a taxa de juros pode depreciar o Real?


Segundo Carlos Eduardo Gonçalves e Bernardo Guimarães, sim e isso pode (poderia) estar ocorrendo no Brasil.

Os autores trazem à tona a literatura que mostra como a paridade descoberta da taxa de juros (UIP) pode ficar invertida. A razão para tanto seria basicamente que, em algumas situações, o maior risco de default associado ao aumento dos juros superaria o maior retorno nominal.

Gonçalves e Guimarães também tentam buscar evidências dessa relação invertida no Brasil. Estimam que um aumento de 1 ponto percentual (100 pontos bases – note que não é a variação de 1%) na taxa de juros implicaria em uma depreciação de aproximadamente zero a 2% na taxa de câmbio.

Como sabemos, um dos canais da política monetária é seu efeito na taxa de câmbio por meio do pass-through. Em geral, supõe-se que este canal atue no sentido correto, isto é, aumento de juros implicaria em apreciação cambial e arrefecimento da inflação. O resultado dos autores é contra-intuitivo. Uma lição interessante deste exercício é que, em alguns casos, um aparente “sinal errado” que você obtém em uma estimativa pode não estar errado – então pense bem antes de fazer lambanças mudanças na especificação de um modelo até conseguir o sinal “correto”! É melhor estar aproximadamente certo, mesmo que com um resultado estranho, do que exatamente errado mas com os resultados que você queria.

Mas qual a importância deste resultado a não ser por uma curiosidade teórica? Note que, se o canal do câmbio tiver efeito contrário, isso poderia ter sérias implicações na política monetária. Afinal, o efeito do aumento da taxa de juros por este canal estaria atuando em direção contrária à desejada. Mas por que coloquei poderia? Porque a magnitude aqui faz toda a diferença.

Exponho, então, algo de que senti falta (além de uma discussão mais detalhada sobre a validade dos pressupostos da estratégia econométrica) no artigo (obviamente que isso não quer dizer que o artigo esteja ruim): um julgamento quantitativo da estimativa. Quão relevante seria um impacto de aproximadamente zero a 2%? No artigo, por exemplo, não temos as estatísticas descritivas do período (2000 a 2006), é difícil julgar se essa variação é grande ou pequena na amostra, frente à variação de 1 ponto percentual na taxa de juros. Nessa época o câmbio chegou a oscilar entre 1 e tantos a 3 reais. Uma mudança de R$0,02 ou R$0,06 na taxa de câmbio seria economicamente relevante para fins de política monetária?

Apenas a título de ilustração, segundo uma estimativa de Nogueira Junior, em um ambiente de inflação baixa e estável uma depreciação cambial de 10% poderia resultar em aumento de inflação de apenas 0,8%. Neste caso, se as magnitudes forem comparáveis*, o efeito estimado de Gonçalves e Guimarães me pareceria, na prática, zero, negligenciável. Mas será que é? Não sei. Mas note que, se é possível demonstrar, de maneira plausível, que a UIP invertida é uma possibilidade, então, como possibilidade, a teoria bastaria. Já como realidade, a existência por si só não basta. Entender o tamanho de seu efeito parece muito mais importante.

Em resumo, o leitor, apenas com os dados apresentados, não consegue identificar a relevância (ou irrelevância) econômica da inversão da UIP… o que se consegue é conjecturar sobre a possibilidade teórica de sua existência, sem uma noção mais robusta de seu impacto.

* por exemplo, as medidas de câmbio são diferentes. Há outras questões, a idéia é apenas ilustrar o ponto.

PS: o Carlos Eduardo tem um Blog bacana com Fábio Kanczuk e Celso Toledo.

O melhor artigo nunca escrito


Mankiw dá a dica de mais um artigo para a lista de Gag Papers. Impossível não deixar de ler.

O guia da etiqueta profissional para o jovem economista


Já havíamos divulgado aqui as dicas de Daniel Hamermesh sobre como publicar nas melhores revistas. Hoje, por acaso, encontrei entre velhos arquivos o guia da etiqueta profissional para o jovem economista.

Qual a probabilidade de o Brasil (ou os EUA) estar em uma recessão?


Segundo Marcelle Chauvet, em maio essa probabilidade era de apenas 5,2% no Brasil. Já para os EUA, em abril, a probabilidade era de 4,3%. Para quem, como eu, ainda não conhecia este trabalho de “previsão em tempo real” de uma recessão,  vale à pena consultar os textos do Center for Research on Economic and Financial Cycles. O modelo da Chauvet e Hamilton (em azul, abaixo) consegue capturar todas as recessões dos EUA segundo o NBER (em cinza):

100 anos de Milton Friedman


Hoje Milton Friedman faria 100 anos. Vale à pena tirar um momento para alguns dos diversos vídeos elencados no canal Free to Choose e ver um dos mais argutos economistas em ação. Deixo abaixo dois do Tyranny of Status Quo:

Dez coisas que você gostaria de saber antes de começar a dissertação


Texto divertido no The Guardian.

Dica do Rafael Dantas.

Espionando os dados


Acredito que o livro do Wooldridge seja um dos mais utilizados no ensino da econometria na graduação (e, não duvido nada, infelizmente em alguns cursos de pós). É um bom livro, tem vários exemplos com dados disponíveis em softwares econométricos de fácil acesso, como o Gretl.

Mas, existe uma pegadinha fundamental – somente no último capítulo, Wooldridge informa explicitamente ao aluno que tudo aquilo que ele aprendeu não funciona se ele “espionar” os dados . Em suas palavras:

Virtualmente todos os pesquisadores examinam vários modelos antes de encontrar o “melhor” deles. Infelizmente, a prática da exploração da base de dados viola as hipóteses que fizemos em nossa análise econométrica. Os resultados sobre a inexistência de viés do MQO e de outros estimadores, como também sobre as distribuições t e F que derivamos para os testes de hipóteses, pressupõem que observamos uma amostra que segue o modelo populacional e que o tenhamos estimado uma vez.

Se, antes de realizar um teste, você rodou vários modelos diferentes até encontrar o “melhor” deles – seja qual for sua concepção de melhor, como um sinal correto, ou uma significância estatística na variável de interesse –  as distribuições das estatísticas de teste não são as distribuições que você aprendeu. Isto é, os p-valores e demais estatísticas não são o que você acha que está calculando e as probabilidades de erro são diferentes dos valores nominais.

Por quê?

Provavelmente a forma mais fácil de se explicar isso seja a seguinte imagem:

sharpshooter

 

Qualquer um que seja péssimo em tiro ao alvo pode “melhorar” seu resultado. Basta permitir que se atire antes e em seguida o alvo seja desenhado da maneira que lhe parecer mais favorável.  Perceba que a “evidência” resultante concordará com a hipótese que você quer provar. Entretanto, ela não é nem um pouco severa, pois, mesmo se você não fosse um bom atirador, você poderia ter obtido o mesmo resultado. Sendo incapaz de discriminar entre um caso e outro, na verdade este “teste” – em sua forma bruta – não poderia se considerado evidência genuína de sua habilidade.

Na analogia, os tiros são os “dados” e o desenho o “modelo” ou “hipótese”. Se você fizer seu modelo, ou formular sua hipótese, utilizando as peculiaridades dos dados – e não levar em conta este fato na sua inferência – você pode estar simplesmente desenhando um alvo ao redor dos tiros. Veja, o problema não é a busca por especificação, é realizá-la e fazer de conta que não fez. Leamer chama quem faz tal uso, e acredita ou finge acreditar nos resultados, de “believers”:

 Believers report the summary statistics from the nth equation as if the other n-1 were not tried, as if the nth equation defined a controlled experiment.

Infelizmente, esta prática é disseminada na literatura, muito por conta de uma cultura que busca resultados “estatisticamente significantes”. Um working paper recente (dica do Leo) sugere que pesquisadores buscam especificações que “inflem” suas estatísticas de teste.

Já que a exploração de dados é parte inevitável da prática econômica, parece ser interessante começar a exigir a formalização disto nos trabalhos aplicados. Vou tentar trazer referências que tratem do assunto aqui.  Por agora, para não me alongar muito, cito uma das mais “clássicas” – de que estou gostando –   mas com uma abordagem bayesiana, linguagem ainda não muito comum entre economistas: o livro de Leamer de 1978, que encontra-se integralmente disponível em pdf em seu site: Specification Searches: Ad-Hoc Inference with Nonexperimental Data.

Poor Economics


Poor Economics: A Radical Rethinking of the Way to Fight Global Poverty é mais um livro que está na minha wish list da Amazon. Segundo Leontief, nós economistas somos famosos por não “sujar as mãos” coletando os próprios dados. Este não é o caso de Esther Duflo e Abhijit Banerjee, que buscam utilizar randomized controlled trials na análise da pobreza. Como de praxe para os lançamentos recentes, o livro também tem um site homônimo bastante completo (mas o inglês da Duflo é difícil de se escutar por mais de 1 minuto).

O erro padrão da Revista Brasileira de Economia


Havia prometido em post anterior comentar sobre o uso de erro-padrão robusto (à heterocedasticidade [White] ou à autocorrelação e heterocedasticidade [Newey-West]).  Entretanto, procrastinei. Mas isso foi excelente, pois ontem mesmo o David Giles tocou no assunto de forma sintética.

Hoje, praticamente todo mundo usa o erro-padrão robusto à heterocedasticidade – a tal ponto que há casos em que nem se demonstra mais a preocupação em verificar sua presença e tamanho. Por exemplo, em 2010, 77% dos artigos aplicados da RBE que usaram econometria não testaram para a presença de heterocedasticidade. Mais ainda, 40% não testaram e sequer mencionaram se o erro-padrão utilizado era robusto ou não. Talvez isso não fosse um problema tão grande se os próprios artigos não levassem seus testes tão a sério – mas não é este o caso. Quero deixar claro que isso não quer dizer que a RBE seja diferente das outras revistas – provavelmente uma amostra de qualquer outra, inclusive internacional, revelaria situação análoga. O fato é que, infelizmente, esta prática se tornou padrão na literatura aplicada, como o próprio Giles comenta:

Regrettably, this is not something that we see applied researchers taking into account very often. They just charge ahead with tests based on the HC or HAC estimators.

Isto é algo que Edward Leamer também lamenta. Em seu texto Tantalus on the Road to Asymptopia , Leamer batiza a prática de White Washing, e afirma que atualmente ela tem sido usada apenas para trocar uma fonte de incerteza  (a forma da heterocedasticidade) por outra (a confiança em resultados assintóticos em amostras finitas) como se isto fosse uma solução de fato – e em grande parte dos casos não é. Assim, ao invés de tentar quantificar a incerteza envolvida, o usuário finge que ela não existe e, como diz Leamer, “trudge relentlessly toward Asymptopia, where data are unlimited and estimates are consistent, where the laws of large numbers apply perfectly and where the full intricacies of the economy are completely revealed“.

Esta passagem também é provocadora e vale citação integral:

A legacy of White’s (1980) paper on robust standard errors, one of the most highly cited from the period, is the near-death of generalized least squares in cross-sectional applied work. An earlier generation of econometricians corrected the heteroskedasticity problems with weighted least squares using weights suggested by an explicit heteroskedasticity model. These earlier econometricians understood that reweighting the observations can have dramatic effects on the actual estimates, but they treated the effect on the standard errors as a secondary matter. A “robust standard” error completely turns this around, leaving the estimates the same but changing the size of the confidence interval. Why should one worry about the length of the confidence interval, but not the location? This mistaken advice relies on asymptotic properties of estimators. I call it “White-washing.” Best to remember that no matter how far we travel, we remain always in the Land of the Finite Sample, infinitely far from Asymptopia. Rather than mathematical musings about life in Asymptopia, we should be doing the hard work of modeling the heteroskedasticity and the time dependence to determine if sensible reweighting of the observations materially changes the locations of the estimates of interest as well as the widths of the confidence intervals.

O interessante é que há diversos artigos que sugerem formas de se lidar com alguns problemas, ou pelo menos entender de maneira geral como as probabilidades de erro são afetadas. Como lição (que certamente também vale para mim) deixo o final do texto do Giles:

Don’t simply use a “canned” package without being aware of the relevant econometric theory. After all, there’s no guarantee that the programmer had an appropriate level of awareness, is there?