Um efeito da pobreza


Tinha deixado escapar um post bastante interessante do Alex Tabarrok no Marginal Revolution sobre um artigo que discute um possível efeito imediato da pobreza: com recursos escassos, há uma tendência de focarmos naquilo que é mais urgente e não naquilo que é mais importante.

O paper buscou mostrar, com experimentos, que jogadores com menos “recursos” durante a partida acabaram por, na média, focar nas rodadas mais próximas, prestando menos atenção nas rodadas futuras. Este resultado é intuitivo, pois, dado que nossa razão é limitada, quanto mais problemas urgentes tivermos para lidar, mais difícil será dedicar-se a problemas não-urgentes mas extremamente importantes. Não só esses resultados podem sinalizar um possível (e muitas vezes negligenciado) efeito imediato da pobreza, como também dão (mais) uma explicação geral sobre muitas decisões que tomamos contra nosso próprio bem-estar no longo-prazo.

A Hipótese dos Mercados Eficientes. Ou culto da significância estatística III


Demos um exemplo de confusão entre significância estatística e significância prática em um teste de normalidade: a rejeição (ou não-rejeição) da hipótese nula, arbitrariamente, sem levar em conta as magnitudes dos desvios, sua importância, o tamanho amostral, entre outros fatores, é análoga à situação ilustrada por este cartoon do XKCD:

Frequentists vs. Bayesians

Mas voltemos ao Nate Silver, que traz um exemplo simples e bastante ilustrativo da diferença entre significância estatística e significância econômica: um “teste” para a hipótese dos mercados eficientes.

Suponha que, nos dez anos após a publicação do Eugene Fama, você tenha coletado os dados diários do Down Jones Industrial Average. Suponha, também, que você tenha percebido que uma alta tenha sido, na maior parte das vezes, precedida por outra alta e uma perda, por outra perda. Deste modo, você suspeita que dados históricos poderiam ser usados para prever rentabilidade futura. Você resolve testar sua hipótese e um teste estatístico padrão te diz que haveria apenas 1 chance em 7.000.000.000.000.000 de um resultado tão ou mais extremo como o observado ter sido fruto da sorte.

A hipótese nula é (estatisticamente) rejeitada. A hipótese de mercados eficientes, inclusive em sua forma fraca, foi refutada!

Não tão rápido… se você incluir os custos de transação para tentar lucrar em cima do padrão encontrado, você descobre que um investidor que aplicasse $10.000 e seguisse a estratégia sugerida terminaria, ao final dos dez anos, com apenas $1.100!

Perceba como o exemplo acima é mais uma das formas de se confundir significância estatística com significância econômica. Como todo modelo ou teoria, a hipótese dos mercados eficientes não é uma reprodução fiel da realidade. Assim, se você queria saber se a hipótese vale exatamente e literalmente, nem era preciso se dar ao trabalho de testá-la: a resposta é, não, não vale. Mas isso não responde nem se e nem quando e nem como e nem por que a hipótese é (ou não) uma boa aproximação da realidade, isto é, sua “significância econômica”. No caso acima, mesmo aceitando que houvesse alguma previsibilidade real* no mercado, esta se mostrou economicamente insignificante. Neste exemplo, hipotético, a teoria não foi, economicamente, refutada.

* na maioria das vezes pode ser apenas uma correlação espúria. Nos anos 2000, por exemplo, o padrão citado se inverteu.

É racional votar?


Vimos que as pessoas podem não ser tão racionais na hora da escolha de seu candidato, deixando fatores externos, como uma partida de futebol, alterarem suas preferências.  Mas e o próprio ato de se dar ao trabalho de comparecer às urnas, seria racional?

As chances de uma eleição ser decidida por apenas um voto são muito pequenas, quase nulas. Nos Estados Unidos, por exemplo, Gelman estima que essa probabilidade seja de 1 em 1 milhão. Deste modo, um agente racional muito provavelmente decidiria não votar, certo? Afinal, existe um custo para votar e o retorno esperado seria, virtualmente, zero.

Bom, depende.

Se você avalia o resultado das eleições apenas pelo seu benefício direto, sim, seria irracional ir às urnas. Você somente iria se achasse o ato de votar prazeroso em si, por exemplo. A partir deste pressuposto, a alta taxa de comparecimento verificada nas eleições seria um paradoxo.

Mas, se você considera que a vitória de um candidato traz benefícios não somente para você, mas para toda a população, e você se importa com a satisfação dos outros, então o valor esperado do resultado das eleições pode ser positivo – aliás, pode ser muito alto. Suponha que você julgue que a vitória de seu candidato traga um benefício líquido de R$10,00 para cada indivíduo no Brasil. Neste caso, o resultado das eleições equivaleria a ganhar um prêmio de R$2 bilhões. Gelman modela esta situação e mostra como o ato de comparecer às eleições pode ser mais racional do que se imagina.

O culto da significância estatística II: Nate Silver


Após atuar com métodos estatísticos para previsão no Basebol, Nate Silver foi destaque nas previsões para a eleição presidencial dos Estados Unidos. Com a popularidade alcançada, seu livro “The Signal and the Noise: Why So Many Predictions Fail-but Some Don’t” virou best-seller na Amazon.

O livro é voltado para o público geral, e trata dos percalços enfrentados no mundo da previsão, tentando distinguir quando e como a estatística pode ser utilizada e boas previsões podem ser feitas. Nate discute o trabalho de Kahneman sobre vieses cognitivos muito comuns, presentes principalmente quando lidamos com incerteza e probabilidade; discute o trabalho de Tetlock, que mostrou como, na média, “experts” políticos não são muito melhores do que um simples “cara-e-coroa” –  a não ser que eles tenham certas características, como uma visão plural e interdisciplinar, conhecimento sobre a própria ignorância entre outros fatores. Essas são armadilhas que todos que lidam com dados devem estar cientes, para buscar evitá-las.

Nate defende a necessidade de se ter uma teoria sólida para se tratar os dados –  e que essa necessidade aumenta no mundo com dados cada vez mais abundantes. Alega que, em geral, áreas em que previsões geralmente falham são aquelas em que a teoria ainda é nebulosa e que recorrem demasiadamente a modelos data-driven.  Ele aborda também a dificuldade inerente a sistemas não-lineares, sistemas dinâmicos,  leis de potência entre outras fatores que, se negligenciados, podem resultar em péssimas previsões.

Nate traz diversos exemplos (às vezes chega a ser exaustivo) para ilustrar seu ponto, passando por Basebol, Clima, Terremotos, Economia, Pôquer etc.

Mas, o capítulo 8 do livro foi o que me mais chamou a atenção. Em um livro para o público geral, e que virou best-seller, Nate resgata a literatura sobre as críticas aos testes de significância estatística (uma discussão mais extensa aqui, wikipedia aquialguns temas no blog aqui). Ele cita:

– o texto do Nickerson “Null Hypothesis Significance Testing: A Review of an Old and Continuing Controversy”;

– o texto do Cohen “The Earth Is Round (p < .05)”;

– o texto do Gill “The insignificance of null hypothesis significance testing”;

Entre outros. O tom que ele usa não é leve, atribuindo grande parte da culpa pelos métodos atualmente utilizados a Fisher. Seguem alguns trechos:

“Fisher é provavelmente mais responsável do que qualquer outro indivíduo pelos métodos estatísticos que ainda permanecem em amplo uso hoje. Ele desenvolveu a terminologia do teste de significância estatística e muito de sua metodologia” (p. 353).

“Estes métodos [testes de significância] desencorajam o pesquisador de considerar o contexto ou a plausibilidade de suas hipóteses […] assim, você verá artigos aparentemente sérios sobre como sapos podem prever terremotos, ou como lojas como a Target geram grupos de ódio racial, que aplicam testes frequentistas para produzir resultados “estatisticamente significantes” (mas manifestamente ridículos)” (p.253).

“Os métodos fisherianos não nos encorajam a pensar sobre quais correlações implicam em causalidade e quais não. Talvez não seja surpresa que depois de passar uma vida interia pensando assim, Fisher perdeu a habilidade de dizer a diferença [entre causalidade e correlação] (p.255). Nate faz referência ao fato de Fisher defender que fumar não causa câncer.

Como o livro se tornou um best-seller, é bem provável que isso desperte a curiosidade do aluno, que geralmente aprende passivamente um algoritmo qualquer na sala de aula; e também que chame mais a atenção dos pesquisadores (e professores) sobre a forma como estão fazendo inferência. Por este motivo, acho que o impacto do livro será bastante positivo. O Nate propõe o uso de métodos Bayesianos; mas, como o livro não é técnico – e o universo bayesiano bastante amplo – difícil saber quais ele realmente defende. De qualquer forma, não caberiar aqui discutir isso agora (o Larry Wasserman chegou ao ponto de dizer que vai mostrar ao próprio Nate que ele não é baeysiano, mas sim que é um raving frequentista, desfilando como bayesiano. Vamos ver o que vai sair disso…).

Em resumo, vale lembrar que este não é um livro técnico e que, tampouco, Nate irá te ensinar a fazer previsões. Mas conseguirá fazer você refletir sobre as possibilidades e limitações, tanto dos pesquisadores quanto dos métodos estatísticos, em uma leitura agradável e recheada de exemplos práticos.

Culto da significância estatística I: um exemplo do teste de normalidade


A maioria dos trabalhos econométricos aplicados parece confundir significância estatística com significância prática ou econômica.  Apesar de ser um problema simples, por ser uma prática bastante difundida, percebe-se que ainda há certa dificuldade de entender como e quando isso ocorre.

Aproveitando o post do Dave Giles, vamos dar um exemplo corriqueiro: um teste de normalidade.

Ao tomar um artigo aplicado que utilize o teste de normalidade, é provável que você se depare com o seguinte procedimento.

1) O autor escolherá algum teste frequentista disponível, como o bastante utilizado teste de Jarque-Bera.

2) O teste de Jarque-Bera tem como hipótese nula a normalidade. Assim, se o p-valor for menor do que 5% (ou 10%), p<0,05 (p<0,10), então o autor rejeita a normalidade. Já se p>0,05, aceita-se a normalidade.

O que acabamos de descrever acima é algo bastante comum e é um dos exemplos da confusão entre significância estatística e significância prática ou econômica.

Por quê?

Porque você, muito provavelmente, não quer saber se a distribuição é exatamente normal, mas sim se ela é aproximadamente normal.  E o teste, da forma como está formulado, não responde a última pergunta.

Apenas o p-valor não irá te dizer o quão grande é o desvio em relação à normalidade.

O teste Jarque-Bera utiliza como parâmetros os coeficientes de curtose e assimetria (que na normal são de 3 e 0, respectivamente).  Queremos saber se nossa distribuição é aproximadamente normal porque, desvios muitos grandes, como, por exemplo, uma curtose acima de 4 e assimetria acima de 1 invalidaria nossos erros-padrão e intervalos de confiança.

Agora imagine que sua distribuição tenha os coeficientes iguais a 3,000000000001 e 0,00000000000001. Podemos dizer que a distribuição seria, para fins práticos, igual a uma normal, pois assumir normalidade não prejudicaria sua inferência. Mas, com uma amostra enorme, você consegue ter um p-valor arbitrariamente baixo, como p<0,00001 – um resultado “significante” – e você rejeitaria a normalidade quando ela é cabível.

Vide o caso do post do Dave Giles, em que com uma amostra de 10.000 observações você poderia rejeitar a normalidade “a 10% de significância”, sendo que, para fins práticos, muito provavelmente os desvios sugeridos poderiam ser negligenciáveis.

Por outro lado, você poderia ter uma distribuição cujos coeficientes fossem iguais a 5 e 2, mas, devido ao reduzido tamanho amostral, o p-valor poderia ser moderado, como p=0,30. O resultado não é “significante”. Mas, neste caso, você aceitaria a normalidade em uma situação em que qualquer inferência posterior seria completamente prejudicada.

O poder da estatística, ou como você é tão previsível 2


No mundo de dados abundantes, como disse Hal Varian, saber tratá-los e interpretá-los (bem) torna-se cada vez mais fundamental, e a (boa) estatística já se torna a profissão sexy da vez.

As aplicações são as mais diversas: desde prever, pelos hábitos de compra, quando sua cliente está grávida e quando o bebê irá nascer; passando, também, por utilizar buscas do Google para fazer “previsões em tempo real”; até prever o resultado de duas eleições presidenciais.

Sobre este último ponto, o livro do Nate Silver ainda estava na minha wish list, esquecido… mas, depois do animado post do Drunkeynesian, venci a procrastinação. Livro comprado – comentários em breve eventualmente!

Uma partida de futebol pode mudar o resultado das eleições?


Tomando como analogia este estudo, sim.

A hipótese é a de que, quando você está de bom (mau) humor, você tende a gastar mais tempo avaliando o lado positivo (negativo) das coisas, inclusive do atual governante.

Os autores buscaram testar esta hipótese analisando os jogos esportivos locais. Sabe-se que os resultados desses jogos afetam o bem-estar das pessoas e não são frutos de decisões políticas. 

Em tese, portanto, você não deveria mudar a avaliação sobre um governante simplesmente porque seu time ganhou um jogo na última semana.

Contudo, os resultados encontrados indicam que, na média, as pessoas mudam o voto – e os valores encontrados foram relativamente altos! Uma vitória do time local, 10 dias antes das eleições, poderia aumentar os votos para o candidato da situação em até 1.13 pontos percentuais.

A primeira reação a esse valor pode ser – como foi a minha – a de pensar que estamos diante de uma correlação espúria. Ora, não é possível que um mero resultado de um jogo mude tanto os resultados de uma eleição… Mas os autores são cuidadosos e têm uma retórica persuasiva. Primeiro, eles controlam para outros fatores e isso não muda muito a magnitude do coeficiente. Segundo, eles realizam um teste placebo, buscando verificar se jogos futuros afetam as eleições no passado (o que seria absurdo) e encontram coeficientes quase iguais a zero e estatisticamente insignificantes.

Mas, além dos dados acima – não experimentais – os autores aplicam questionários durante um campeonato de basquete universitário. Neste caso, é possível controlar com mais cuidado fatores diversos que permitiriam encontrar uma correlação espúria. Os resultados foram similares – cada vitória elevava a aprovação de Obama, na média, em 2.3 pontos percentuais. E, fato interessante, quando os participantes foram informados dos resultados dos jogos antes de se perguntar sobre Obama, o efeito desapareceu! Isto é, uma vez que o sujeito se torna consciente do que está afetando seu bom humor, ele não deixa isso afetar outras áreas de sua vida, como o julgamento sobre o desempenho de um político.

Com dados eleitorais e esportivos abundantes no Brasil, acredito que seja possível replicar este estudo por aqui.

Via Andrew Gelman e Marginal Revolution.

100 blogs de economia para conferir


Vi no Econometrics Beat referência para esta lista de 100 blogs de economia, compilada pelo site Economics Degree. Vale a pena conferir.

O “lucro” Brasil II


Em post anterior havíamos falado sobre o “lucro” Brasil e que essa “explicação” para os altos preços dos automóveis brasileiros tem ganhado popularidade, inclusive entre economistas.  Agora vamos esclarecer por que essa explicação não está correta e por que a causa do preço alto é o que todos conhecemos como custo Brasil, incluindo o protecionismo, direto e indireto, bem como a alta carga tributária local.

***

Esclarecimento 1: Margem de lucro alta não implica em preço alto – nem vice-versa.

Como dito no post anterior, preços são como um termômetro e refletem fatores reais da economia,  resultantes do cotejamento entre oferta e demanda. Corolário disso é que uma margem de lucro alta e  um preço total (ou “nominal”) alto não precisam ter relação. Vejamos alguns contraexemplos.

A soja tem seu preço definido internacionalmente, ou seja, tem virtualmente o mesmo preço nominal em dólar em todos os países. Entretanto, cada país produtor terá uma margem de lucro diferente, em virtude de sua produtividade. A margem de lucro alta, neste caso, refletiria a eficiência relativa do produtor em relação aos seus concorrentes. E, diferentemente do caso dos automóveis brasileiros, não seria algo ruim – preço baixo com lucros altos.

Agora  ilustremos com o caso dos carros. Existiria a possibilidade de a margem média de lucro das montadoras brasileiras aumentar e ainda assim os preços caírem? Sim. Imagine que montadoras mais agressivas – ou mais eficientes – instalem suas fábricas no Brasil. A entrada destas montadoras poderia forçar os preços para baixo e, ainda assim, por elas serem mais eficientes e mais lucrativas, a margem média de lucro do setor poderia aumentar.

Ou ainda, é possível que a margem de lucro do setor de automóveis abaixe e ainda assim os preços aumentem? Sim. Imagine que o governo introduza uma margem de lucro máxima, digamos, de 10%. Como sabemos, a margem de lucro é calculada em cima do preço do veículo.  Este tipo de regulamentação premiaria as montadoras mais ineficientes, pois, quanto maior seu custo total, maior o lucro que é permitido à empresa auferir (pense, você prefere lucrar 10% sobre R$100,00 ou 10% sobre R$1.000,00?). Então, a depender das condições de oferta e demanda, isso poderia resultar em uma margem de lucro menor e um custo maior para os carros brasileiros.

Pela exposição acima, deve ter ficado claro que uma margem de lucro alta não é nem condição necessária, tampouco condição suficiente para preço alto. E, portanto, não explica, por si só, um preço alto.

***

Esclarecimento 2:  Carro é bem comercializável e a arbitragem faria valer a lei do preço único. Se aqui o carro é mais caro é porque há restrições que impedem a arbitragem.

Automóveis são o que chamamos de bens comercializáveis. Isto é, são bens sujeitos à importação e à exportação, de modo que seu preço, na ausência de barreiras, não é determinado no mercado interno, mas sim no mercado internacional.

Deste modo, a arbitragem garante que um mesmo automóvel custe o mesmo preço (acrescidos os custos de transação, inclusive os impostos) em qualquer lugar do mundo. Por exemplo, o Kia Soul custa R$ 18 mil no Paraguai, mas no Brasil custa mais do que o dobro. Suponha que não existam altos impostos nem barreiras à importação. Neste caso, o que aconteceria? Bastaria trazer o Kia paraguaio e revendê-lo no Brasil para se lucrar muito dinheiro.  As pessoas fariam isso até que a oportunidade de lucro diminuísse a ponto de a diferença de preços se tornar irrisória.

Se isso não acontece é porque o governo impõe restrições à arbitragem. Existem medidas protecionistas tanto por meio de regulamentação (como, por exemplo, a proibição de se importar carro usado) quanto por meio de tributação (como, por exemplo, o IPI). Além disso, existem os impostos locais sobre o comércio (como ICMS) além de impostos sobre o lucro e a mão-de-obra. São esses fatores que impedem a arbitragem dos preços dos carros.

A exposição acima evidencia um fato simples: o protecionismo e a carga tributária são a causa do preço alto, no sentido de que, caso fossem reduzidos a ponto de permitir a arbitragem, os preços brasileiros convergiriam aos preços internacionais. Isto é, a redução de ambos é condição suficiente para preços baixos – independentemente do que ocorresse com a margem de lucro.

***

Neste ponto do argumento, muitos dos que defendem a tese do “lucro” Brasil acabam por simpatizar com as montadoras “brasileiras” e a defender as medidas do governo. Afinal, caso não existisse proteção, o que ocorreria com a indústria nacional?

Acontece que, pelos próprios dados apresentados para “provar” a tese do “lucro” Brasil, é possível demonstrar que as montadoras brasileiras teriam condição de competir internacionalmente: o Gol I-Motion fabricado internamente é vendido no Chile por R$ 29 mil, enquanto que, aqui, custa R$ 46 mil. E é o Custo Brasil que te impede  de arbitrar em cima da própria Volkswagen.

***

Resumindo, o problema dos carros brasileiros não é o consumidor otário que aceita pagar caro. Tampouco a solução é parar de comprar carro zero. O problema é a carga tributária em cima da produção doméstica, a carga tributária em cima das importações, a intervenção cambial e outras formas de protecionismo. E é contra isso que você tem que se indignar.

Ig Nobel 2012


Confira os vencedores do Ig Nobel 2012. Destaque para:

– “Leaning to the Left Makes the Eiffel Tower Seem Smaller”
– “Walking With Coffee: Why Does It Spill?”

Entre outros!