Aplicativos para economistas


Vi no blog do Renato Colistete uma lista de aplicativos de fontes de dados para iPhone e iPad que não sabia estarem disponíveis e merecem ser compartilhados.

Além desses, ressalto que, para mim, o dropbox juntamente com um bom leitor/editor de pdf, como o Pdf Expert (que eu uso) ou Good Reader (que muita gente usa), se mostraram as ferramentas mais práticas que experimentei para ler artigos –  não tenho ideia de quantas árvores já poupei com isso.

Outro lance legal, mas que ainda não tive tempo de experimentar, é o Prezi, que se propõe sair da mesmisse das apresentações de Power-Point e também tem versão disponível para apresentar pelo iPad.

Espionando os dados


Acredito que o livro do Wooldridge seja um dos mais utilizados no ensino da econometria na graduação (e, não duvido nada, infelizmente em alguns cursos de pós). É um bom livro, tem vários exemplos com dados disponíveis em softwares econométricos de fácil acesso, como o Gretl.

Mas, existe uma pegadinha fundamental – somente no último capítulo, Wooldridge informa explicitamente ao aluno que tudo aquilo que ele aprendeu não funciona se ele “espionar” os dados . Em suas palavras:

Virtualmente todos os pesquisadores examinam vários modelos antes de encontrar o “melhor” deles. Infelizmente, a prática da exploração da base de dados viola as hipóteses que fizemos em nossa análise econométrica. Os resultados sobre a inexistência de viés do MQO e de outros estimadores, como também sobre as distribuições t e F que derivamos para os testes de hipóteses, pressupõem que observamos uma amostra que segue o modelo populacional e que o tenhamos estimado uma vez.

Se, antes de realizar um teste, você rodou vários modelos diferentes até encontrar o “melhor” deles – seja qual for sua concepção de melhor, como um sinal correto, ou uma significância estatística na variável de interesse –  as distribuições das estatísticas de teste não são as distribuições que você aprendeu. Isto é, os p-valores e demais estatísticas não são o que você acha que está calculando e as probabilidades de erro são diferentes dos valores nominais.

Por quê?

Provavelmente a forma mais fácil de se explicar isso seja a seguinte imagem:

sharpshooter

 

Qualquer um que seja péssimo em tiro ao alvo pode “melhorar” seu resultado. Basta permitir que se atire antes e em seguida o alvo seja desenhado da maneira que lhe parecer mais favorável.  Perceba que a “evidência” resultante concordará com a hipótese que você quer provar. Entretanto, ela não é nem um pouco severa, pois, mesmo se você não fosse um bom atirador, você poderia ter obtido o mesmo resultado. Sendo incapaz de discriminar entre um caso e outro, na verdade este “teste” – em sua forma bruta – não poderia se considerado evidência genuína de sua habilidade.

Na analogia, os tiros são os “dados” e o desenho o “modelo” ou “hipótese”. Se você fizer seu modelo, ou formular sua hipótese, utilizando as peculiaridades dos dados – e não levar em conta este fato na sua inferência – você pode estar simplesmente desenhando um alvo ao redor dos tiros. Veja, o problema não é a busca por especificação, é realizá-la e fazer de conta que não fez. Leamer chama quem faz tal uso, e acredita ou finge acreditar nos resultados, de “believers”:

 Believers report the summary statistics from the nth equation as if the other n-1 were not tried, as if the nth equation defined a controlled experiment.

Infelizmente, esta prática é disseminada na literatura, muito por conta de uma cultura que busca resultados “estatisticamente significantes”. Um working paper recente (dica do Leo) sugere que pesquisadores buscam especificações que “inflem” suas estatísticas de teste.

Já que a exploração de dados é parte inevitável da prática econômica, parece ser interessante começar a exigir a formalização disto nos trabalhos aplicados. Vou tentar trazer referências que tratem do assunto aqui.  Por agora, para não me alongar muito, cito uma das mais “clássicas” – de que estou gostando –   mas com uma abordagem bayesiana, linguagem ainda não muito comum entre economistas: o livro de Leamer de 1978, que encontra-se integralmente disponível em pdf em seu site: Specification Searches: Ad-Hoc Inference with Nonexperimental Data.

PUC-RJ x Reinaldo Azevedo: sobre causalidade e VI.


Quase todo mundo que acompanha a blogosfera econômica deve ter ouvido falar da controvérsia PUC-RJ x Reinaldo Azevedo. Drunkeynesian resumiu a querela em um único post para quem ainda não tinha visto e quiser conferir, ou para aqueles que não acompanharam toda a repercussão. Não vou comentar sobre o debate, mas quero aproveitá-lo para chamar a atenção sobre duas questões interessantes.

A primeira é a discussão sobre causalidade. Em muitos momentos, alguns comentários deram a entender que confundir correlação e causalidade é um erro trivial: não é. Todo mundo faz isso o tempo inteiro, inclusive os melhores economistas. Infelizmente, parece que a discussão sobre causalidade só foi formalizada recentemente, muito recentemente – Donald Pianto me alertou sobre o livro de Judea Pearl.  Até agora, o que eu tenho a dizer é que, para mim, o contato com essa literatura tem sido groundbreaking. É basicamente uma linguagem nova que torna clara e inteligível a discussão de causalidade. No próprio site do Judea Pearl é possível encontrar diversos reviews sobre o livro, inclusive de econometristas. Deixo também, aqui, um post sucinto de Larry Wasserman sobre o assunto.

O outro ponto é sobre o uso de variáveis instrumentais. Vi que chegaram a mencionar o artigo de Angrist e Pischke sobre a revolução de credibilidade nos trabalhos empíricos, que já havíamos mencionado neste blog. Cito novamente, portanto, a resposta de Leamer,  Tantalus on the Road to Asymptopia. Em suma, o ponto de Leamer é que Randomization is not Enough (por randomization leia-se variáveis instrumentais). Destaco este parágrafo (mas o interessante é  ler o texto inteiro):

When the randomization is accidental, we may pretend that the instrumental variables estimator is consistent, but we all know that the assumptions that justify that conclusion cannot possibly hold exactly. Those who use instrumental variables would do well to anticipate the inevitable barrage of questions about the appropriateness of their instruments. Ever-present asymptotic bias casts a large dark shadow on instrumental variables estimates and is what limits the applicability of the estimate even to the setting that is observed, not to mention extrapolation to new settings. In addition, small sample bias of instrumental variables estimators, even in the consistent case, is a huge neglected problem with practice, made worse by the existence of multiple weak instruments.

Poor Economics


Poor Economics: A Radical Rethinking of the Way to Fight Global Poverty é mais um livro que está na minha wish list da Amazon. Segundo Leontief, nós economistas somos famosos por não “sujar as mãos” coletando os próprios dados. Este não é o caso de Esther Duflo e Abhijit Banerjee, que buscam utilizar randomized controlled trials na análise da pobreza. Como de praxe para os lançamentos recentes, o livro também tem um site homônimo bastante completo (mas o inglês da Duflo é difícil de se escutar por mais de 1 minuto).

O sistema penal americano


Tinha de compartilhar este post provocativo de A&R sobre o sistema penal americano.

O gráfico abaixo é estarrecedor. Cerca de 5% dos homens afro-americanos estão na cadeia.

O livro dos autores, Why Nations Fail: The Origins of Power, Prosperity, and Poverty, ainda está na minha wish list da Amazon. Mas, uma coisa é certa, o blog deles está funcionando muito bem para divulgá-lo.

Os dez mandamentos da econometria aplicada (The Ten Commandments of Applied Econometrics)


Como havia prometido em post anterior, segue o artigo do Peter Kennedy (ideas link).

Peter Kennedy também é o autor de A Guide to Econometrics, que é basicamente um compêndio de referência que supre várias lacunas sérias encontradas nos livros-textos de econometria padrão (como Hayashi ou Greene).

Os dez mandamentos são:

1. Thou shalt use common sense and economic theory.

     Corollary: Thou shalt not do thy econometrics as thou sayest thy prayers.

2. Thou shalt ask the right questions.

     Corollary: Thou shalt place relevance before mathematical elegance.

3. Thou shalt know the context.

     Corollary: Thou shalt not perform ignorant statistical analyses.

4. Thou shalt inspect the data.

     Corollary: Thou shalt place data cleanliness ahead of econometric godliness.

5. Thou shalt not worship complexity.

     Corollary: Thou shalt not apply asymptotic approximations in vain.

     Corollary: Thou shalt not talk Greek without knowing the English translation.

6. Thou shalt look long and hard at thy results.

     Corollary: Thou shalt apply the laugh test.

7. Thou shalt beware the costs of data mining.

     Corollary: Thou shalt not worship R2.

     Corollary: Thou shalt not hunt statistical significance with a shotgun.

     Corollary: Thou shalt not worship the 0.05 percent significance level.

8. Thou shalt be willing to compromise.

     Corollary: Thou shalt not worship textbook prescriptions.

9. Thou shalt not confuse significance with substance.

     Corollary: Thou shalt not ignore power.

     Corollary: Thou shalt not test sharp hypotheses.

     Corollary: Thou shalt seek additional evidence.

10. Thou shalt confess in the presence of sensitivity.

     Corollary: Thou shalt anticipate criticism.

Como estou procrastinando pouco (isso é bom), os comentários ficam para algum dia. Mas deixo aqui as respostas de Magnus  (ideas link) e  Hendry (ideas link).