O que a tomada de decisão no jogo do Ultimato revela sobre a explicação do comportamento?

No chamado jogo do Ultimato (Ultimatum Game), dois jogadores têm a oportunidade de dividir uma quantia de dinheiro. Um deles recebe a quantia e decide qual será sua oferta sobre como o dinheiro será dividido entre os dois. Por exemplo, se for atribuído a ele uma quantia de R$100,00, ele pode fazer uma oferta de distribuição igual (R$50,00 para cada um), ou de distribuição desigual (por exemplo, R$90,00 para si mesmo, e apenas R$10,00 para o outro). Então, o segundo jogador terá duas opções: aceitar ou rejeitar a oferta. Se aceita, o dinheiro é dividido conforme a oferta. Se rejeita, ambos os jogadores nada receberão.

A teoria econômica padrão prevê que agentes auto-interessados, e cujas escolhas são racionais (ou seja, consistentes entre si, de modo que se você prefere A à B e B à C, você também prefere A à C), aceitarão qualquer oferta, desde que recebam uma quantia maior que zero. Isso porque, por exemplo, mesmo R$1,00 é melhor do que não ganhar nada.

Ocorre que é sabido que, ao menos em sociedades industrializadas, geralmente as ofertas giram em torno de 50% para cada, enquanto as ofertas de baixo valor (em torno de 20-30% do total para o 2º jogador) tem uma chance de 50% de serem rejeitadas. A tendência, portanto, é que os jogadores rejeitem ofertas cuja consequência seja a de que eles ganharão apenas 30% ou menos da quantia estipulada. Trata-se de um achado experimental bastante robusto.

Como se explica este desvio em relação à previsão da teoria econômica padrão?

Nos experimentos já realizados em relação a este jogo, notou-se que a rejeição das ofertas de baixo valor era acompanhada por declarações de que referida oferta era injusta ou não equitativa.

Esta “aversão à desigualdade” é encontrada em primatas não-humanos, como os macacos-capuchinhos, e o pronunciado desenvolvimento deste senso de equidade em seres humanos foi uma vantagem evolucionária, uma vez que, durante a evolução da cooperação, se tornou crítico para os indivíduos comparar seus próprios esforços e recompensas com aqueles dos outros, e ser capaz de reações negativas quando as expectativas são violadas.

Deve-se destacar que nossos ancestrais eram caçadores-coletores que praticavam caça conjunta e, portanto, o desenvolvimento de regras que governassem a distribuição do alimento obtido era crucial à cooperação para sua realização, que, por sua vez, era indispensável para fornecer uma dieta com quantidade substancial de carne que pudesse “custear” as necessidades energéticas aumentadas de um cérebro mais pesado (WILSON, 2013, p. 63).

De fato, como Gerald Gaus nos comenta, há uma tendência no ser humano em tratar o produto de modernas economias complexas de mercado como se fosse o produto de uma caçada conjunta que devesse ser distribuído conforme normas distributivas que evoluíram para esse cenário ancestral – ainda que isso possa piorar a condição dos mais pobres, por conta do conflito entre equidade e bem-estar humano gerado por esta aplicação indevida.

Mas qual seria o mecanismo causal próximo desse comportamento de rejeitar ofertas injustas, não equitativas, no jogo do Ultimato?

No clássico estudo de neuroeconomia “The neural basis of economic decision-making in the Ultimatum Game“, os pesquisadores (Sanfey AG, Rilling JK, Aronson JA, Nystrom LE, Cohen JD) usaram técnicas de Ressonância Magnética Funcional  (RMf) para monitorar a atividade cerebral dos jogadores. A RMf  é uma “técnica de imagem que usa campos magnéticos para construir uma representação detalhada, em três dimensões, dos níveis de atividade nas várias partes do cérebro em determinado momento (…) se baseia no aumento do consumo de oxigênio para produzir imagens da atividade cerebral” (STENBERG, Psicologia Cognitiva, p. 229). Duas áreas do cérebro destacaram-se neste experimento: córtex pré-frontal dorsolateral (sistema cognitivo) e ínsula anterior (sistema emocional).

O resultado foi bastante interessante: durante as ofertas de baixo valor, o 2º jogador apresentava ativação em ambas as áreas do cérebro, como se o cérebro estivesse em conflito entre a racionalidade de otimização econômica (ao qual tenderia o córtex pré-frontal dorsolateral) e a aversão emocional à distribuição não equitativa (ao qual tenderia a ínsula anterior).

Dessa forma,eles encontraram que a rejeição de ofertas injustas implica em maior ativação da ínsula anterior do que do córtex pré-frontal dorsolateral, enquanto ofertas aceitas apresentavam maior ativação do córtex pré-frontal dorsolateral que da ínsula anterior.

Importante destacar ainda, ao comparar-se ofertas não equitativas feitas por jogadores humanos com ofertas não equitativas similares feitas por computadores, percebeu-se que a ativação foi maior quando a oferta provinha de outro ser humano, o que sugere que a magnitude da ativação não é somente uma função da quantidade de dinheiro oferecida ao participante, mas que é sensível ao contexto de um tratamento (percebido como) injusto recebido de outra pessoa.

Portanto, o comportamento de aceitar ou rejeitar uma oferta não equitativa é explicado por meio da interação entre duas áreas do cérebro, sendo que o resultado específico será determinado por qual área tiver maior ativação.

Isso lança luz sobre um equívoco comum no entendimento da ciência comportamental humana: pensar que, como postulamos mecanismos psicológicos específicos para exercer funções específicas (sendo o conjunto desses mecanismos a mente), isso significa que o comportamento será determinado exclusivamente por um único mecanismo.

Por exemplo: Um conhecido resultado da psicologia evolucionária afirma que o mecanismo psicológico masculino ligado ao sexo tem uma predisposição para interação sexual de curto prazo com múltiplas parceiras. Isso apresenta evidentes vantagens evolucionárias como estratégia reprodutiva, conforme a teoria da seleção natural.

Mas isso não significa que todos os homens trairão ou terão uma vida sexual mais “promíscua”. Presumivelmente, o comportamento masculino nessa seara dependerá não somente do mecanismo psicológico ligado ao sexo, mas também, hipoteticamente, do mecanismo psicológico ligado à observância de regras culturais, ou a um mecanismo de empatia (nesse caso, para com uma parceira à qual se prometeu fidelidade), os quais tenderiam a um comportamento menos “promíscuo”.

Portanto, neste exemplo, o comportamento sexual masculino resultaria da interação entre mecanismos psicológicos que atuam como “vetores” em direções distintas. E, se esta hipótese for correta, poderíamos observar este conflito com técnicas de neuroimagem, caso soubéssemos as áreas cerebrais pertinentes.

Conclusão: A tomada de decisão no Jogo do Ultimato mostra uma importante faceta da explicação do comportamento humano, qual seja, a necessidade de levar-se em conta a interação entre processos neurobiológicos/psicológicos distintos (e até mesmo em direções contrapostas quanto ao resultado comportamental almejado) na determinação da resposta comportamental.

Anúncios

Semelhanças entre David Friedman e Kevin Carson no anarquismo de mercado

O libertarianismo é uma visão muito variada. Existem muitas correntes libertárias diferentes, geralmente criticando-se bastante mutuamente, pelos erros que encontram umas nas outras. Esse tipo de diversidade intelectual é uma vantagem, a meu ver.

Mas as semelhanças entre os pensadores de distintas correntes também podem ser destacadas. No final das contas, existe algum tipo de núcleo que liga os libertários, principalmente se o foco destes é, como deveria sê-lo, a possibilidade da cooperação voluntária e mutuamente benéfica como base para todas as interações sociais humanas.

Aqui eu gostaria de mostrar a semelhança entre dois nomes importantes do libertarianismo contemporâneo: David Friedman e Kevin Carson.

David Friedman é muito conhecido por ter escrito o livro “Engrenagens da Liberdade: guia para um capitalismo radical” (você pode ver um vídeo sobre aqui e outro aqui), onde ele defendeu, com argumentos utilitaristas e consequencialistas, a possibilidade do “anarcocapitalismo”, de uma sociedade, sob um regime de anarquia de mercado, onde a provisão do Direito e da segurança é realizada por agentes privados em concorrência. Seu argumento é notadamente econômico, mostrando como uma sociedade deste tipo funcionaria.

eeeeeeeeeeeeeJá o Kevin Carson é mais conhecido por ter reavivado a tradição mutualista (ligada ao anarquista Proudhon no século XIX) dentro da corrente “left-libertarian“. Chama a atenção sua posição auto-descrita como “anticapitalista de mercado”, uma vez que critica a moderna organização das grandes corporações como produto de intervenção sistemática do Estado, concebendo, portanto, “mercados libertos” como bastante diferentes do tipo de mercado que temos hoje. Carson critica o anarco-capitalismo, porque seus expoentes pressuporiam uma predominância de firmas de tipo capitalista com trabalho assalariado em um verdadeiro livre mercado, sendo que, ao contrário, o modelo predominante seria cooperativista.

carsonVocê poderia imaginar, portanto, que estes dois pensadores são frontalmente opostos, dissimilares em tudo, até porque um junta “anarquia” com “capitalismo de livre mercado” e outro junta “anarquia” com “anticapitalismo de mercado”. Talvez você esteja enganado. Eles têm posições diferentes em vários aspectos, mas semelhanças notáveis também os unem.

1) Processo para chegar na sociedade sem Estado:

Kevin Carson escreveu:

“Nós temos vivido, por séculos, o processo que Pyotr Kropotkin descreveu em ‘Ajuda Mútua’ e ‘O Estado’, pelo qual Estados territoriais centralizados suprimiram alternativas auto-organizadas, ‘de baixo para cima’ (bottom-up), e levou à atrofia da sociedade civil. (…) O que muitos de nós queremos fazer é reverter esse processo secular que Kropotkin descreveu, por construir instituições sociais alternativas, organizadas sob uma base de cooperação voluntária, para suprimir o Estado.” (tradução livre)

David Friedman afirmou em uma entrevista:

“Meu caminho ideal para o anarco-capitalismo seria um no qual instituições privadas gradualmente realocam as instituições do governo, de tal modo que, quando o Estado finalmente desapareça, ninguém nem sequer notará.” (tradução livre)

2) O futuro de pequenas empresas e associações colaborativas sem fins lucrativos:

Kevin Carson escreveu:

“E isso de nenhuma maneira implica (…) uma sociedade onde todas as funções são realizadas por firmas empresariais de fins lucrativos. Poderia facilmente significar uma sociedade de cooperativas de trabalhadores e consumidores, propriedade comum, clínicas livres, agricultura baseada em comunidade, comunidades intencionais, comunas e ocupações (squats) urbanas e os tipos de arranjos de ajuda mútua descritos por Kropotkin em ‘Ajuda Mútua’ e E. P. Thompson em ‘A formação da classe operária inglesa’.” (tradução livre)

David Friedman escreveu em seu livro “Future Imperfect”:

“Finalmente e talvez mais radicalmente, um mundo de comunicação rápida e barata grandemente facilita abordagens descentralizadas para produção. Um resultado possível é a mudança de quantidades substanciais de esforço humano para fora do contexto de corporações hierarquicamente organizados em direção a um mix de coordenação de mercado entre indivíduos ou pequenas empresas associada com um tipo de cooperação voluntária sem mercados explícitos, da qual desenvolvimento de software de código aberto é um exemplo recente e marcante.” (tradução livre)

3) O desenvolvimento de uma cripto-economia (economia virtual baseada em transações criptografadas) na internet como catalisadora de uma cripto-anarquia:

Kevin Carson escreveu:

“O cenário do livro ‘The Diamong Age’ de Neal Stephenson é traçado alguns anos depois de moedas criptografadas e comércio online removerem muitas transações econômicas para dentro de ‘darknets’ além da capacidade do governo monitorá-las e regulá-las, e então levou a que as bases arrecadatórias ao redor do mundo implodissem. Isso foi seguido, dentro de pouco tempo, pelo colapso de muitos Estados-nações. No interregno que se seguiu, os defuntos Estados-nações foram realocados por cidades-Estados e por sociedades civis globais organizadas em rede denominadas de ‘phyles‘. (…) Adesão aos ‘phyles‘ era voluntária, e a provisão daqueles tipos de serviço público e rede de segurança social formalmente associadas com Estados foram geralmente ligadas à subscrição voluntária como membro (…).

Isso [economia criptografada] é vitalmente importante para um tema central em meu trabalho: a emergência de espaços não-estatais dentro dos quais uma economia familiar e informal de baixa sobrecarga pudesse funcionar, fora da capacidade do Estado em criar barreiras de entrada, em impor capitalização artificial e sobrecarregar de custos os produtos de baixa sobrecarga, e coletar aluguel sobre rendas advindas de escassez artificial.” (tradução livre)

David Friedman escreveu:

“A criptografia de chave pública faz possível o que eu descrevi, em outra ocasião, como um mundo de privacidade robusta, um mundo em que é possível comunicar-se com desconhecidos de tal forma que nenhuma terceira parte observadora possa ler, estabelecendo a identidade online de alguém em uma maneira que nenhum impostor possa imitar, conectar ou separar a pessoa online da pessoa no mundo real como desejado, fazer pagamentos online com dinheiro digital anônimo não rastreável.

(…) as tecnologias que fazem possível a privacidade robusta também fazem possíveis formas de imposição reputacional de contrato que poderia substituir a existente imposição estatal. Então, parece possível, mesmo provável, que dentro de uma década ou duas grandes partes da vida humana em sociedades desenvolvidas se tornará ‘sem Estado’, um sistema de transações voluntárias aplicada inteiramente por entidades privadas competitivas usando meios reputacionais, não coercitivos, de imposição de regras. Ao chegar nesse ponto, o que nós teremos será uma anarquia incorporada disponível para muitos, talvez quase todos, da população dos Estados desenvolvidos existentes.” (tradução livre)

 

 

Automação no setor financeiro

Uma nova economia, impactada pelo uso disseminado da máquina inteligente (Inteligência Artificial avançada), está às portas. É o que Tyler Cowen e outros pensam. Com isso, novamente ressoam os temores de que as máquinas dessa vez irão substituir os empregos humanos.

(Lembrar que, apesar da população ter aumentado e das mulheres terem entrado em peso na força de trabalho desde o início do século XX, a proporção de desempregados em um país desenvolvido – e automatizado – como os Estados Unidos não aumentou na dimensão que seria de se esperar se o modelo – muitas vezes ensinado a nós na escola – de que “máquina substitui empregos” fosse verdadeiro.)

Essa substituição de empregos humanos por softwares inteligentes robóticos é mais plausível, porque os robôs poderiam, de fato, realizar mais confiavelmente e eficientemente tarefas que, antes, apenas a mente humana poderia executar. Perceba: seriam máquinas não para substituir a musculatura humana, mas sim o cérebro humano, no exercício de várias funções.

web(imagem extraída do twitter do blog RobotEnomics, de que falarei mais adiante)

Não pretendo discutir a fundo aqui as questões envolvidas aqui quanto ao emprego, mas posso afirmar desde logo que entendo que esse progresso tecnológico repercutirá em grande melhoria da condição humana, incluindo os mais pobres dentre nós, especialmente se determinadas instituições legais forem ajustadas, como o Direito Internacional de Propriedade Intelectual, de tal forma que possamos colher os maiores benefícios resultantes da troca voluntária.

Agora, deve-se dizer que, para tomar uma posição quanto ao que esse processo tecnológico significará para o emprego e a empregabilidade, é preciso analisar as tendências que já estão em curso atualmente.

Em seu blog dedicado à Economia Robô, o RobotEnomics, Colin Lewis chama atenção para os efeitos da automatização em um setor que não é geralmente citado como tendo seus empregos ameaçados por essas tendências tecnológicas: o setor financeiro. Pouco se discute sobre o impacto de robótica e automação neste setor.

Colin Lewis de fato traz dados bem interessantes. O setor financeiro está produzindo lucros anuais recordes, apesar das reduções de pessoal desde 2008. AIG, uma empresa de seguros, reduziu seu pessoal de 116.000 ao fim de 2007 para 63.000 ao fim de 2012 (redução de 53.000 pessoas), mas os lucros subiram de $6,2 bilhões para $6,6 bilhões no mesmo período,  e chegando mesmo a $9 bilhões em 2013. Situação semelhante ocorreu entre outras gigantes do seguro, como AXA e Allianz. Isso não seria surpresa se você pensar que, cada vez mais, compra-se seguro online. No Reino Unido, 70% da compra de seguro de carro é efetuada virtualmente.

Para Lewis, o setor de seguros está usando tecnologia para melhorar a produtividade, reduzir o “headcount” (= número de pessoas que trabalham em determinada equipe ou empresa) e aumentar os lucros.

Quanto ao setor bancário, o City Bank, que tinha 357.000 empregados até a crise de 2008, reduziu sua folha de pagamento para 259.000 ao fim de 2012 (ou seja, reduzindo em 98.000 pessoas). De forma parecida, ocorreu com o Bank of America, com cerca de 50.000 demissões. O J. P. Morgan anunciou cortes de emprego em torno de 12.000 à 15.000, justificando esta decisão em um melhor aproveitamento da tecnologia em edifícios pequenos requerendo menos pessoal.

Lewis conclui que é possível afirmar que milhões de empregos, em uma escala global, estão sendo perdidos no setor financeiro, na medida em que a automação conduz à eficiência e, tanto empresas como clientes, ambos escolhem serviços melhorados que as tecnologias online oferecem para transacionar operações financeiras. Isso significa empresas mais “magras”, fazendo mais com menos pessoas, enquanto mantém, e mesmo aumentam, a sua lucratividade.

Coração mole e bom x cérebro frio e calculista: substitutos ou complementos?

Algumas pessoas parecem não conseguir pensar além de dicotomias e maniqueísmos simplistas. Uma dessas dicotomias é poderia ser aquela entre, de um lado, fazer análise econômica rigorosa de uma situação ou de uma política desejada, e, de outro lado, a preocupação com as pessoas mais pobres e vulneráveis em nossas sociedades.

Daí que essas pessoas interpretam que, por exemplo, se alguém acredita que não devemos ter um salário mínimo legalmente imposto e para isso usa de argumentos econômicos, este “economista” deve ser um sujeito sem coração, sem preocupação com os pobres, que talvez mesmo odeie os pobres, já que se preocupa apenas com dinheiro. O jargão favorito é acusar aquele que utiliza de argumentos econômicos de ser um “economicista” ou um “fundamentalista de mercado”.

Mas isso apenas mostra a falta de compreensão que a pessoa tem sobre o que é realmente ajudar as pessoas, em especial as mais pobres e vulneráveis. Aparentemente, as pessoas acham que ajudar as pessoas se trata de consultar gurus, mas é preciso dar à César o que é de César e a Deus o que é de Deus:

441

(Sábio da montanha: “Criar empregos? Consertar a economia? Eu pensei que você fosse perguntar algo mais fácil, como o sentido da vida!” / Site do cartoon aqui)

David Schmidtz (um liberal neoclássico) pontua que, se a sua preocupação é estar com o coração no lugar certo, seu coração não está no lugar certo. Ele falou isso querendo dizer que, se você defende uma política com base apenas em que ela mostra o quão bom seu coração é em querer ajudar a todos com problemas, você não quer realmente ajudar as pessoas.

Não adianta “achar” que uma política é boa, nós precisamos saber como uma política funciona, como as pessoas reagem no curto e longo prazo à sua implementação, seus efeitos colaterais etc. E, muitas vezes, o que parece obviamente ajudar os pobres e dar certo, não ajuda de verdade. Políticas não devem ser simbólicas, mas sim funcionais.

O já citado David Schmidtz menciona (em um paper e em um livro) que existem duas formas diversas de encarar a riqueza social e a justiça na sua produção e distribuição, com profundas diferenças em como você pensa que poderá ajudar os pobres:

a) A visão estática, onde você analisa um momento isolado no tempo, e é inquietante que  que haja pessoas com muito e pessoas com tão pouco. A questão primordial aqui seria: como conseguir os recursos necessários para ajudar as pessoas necessitadas? O que terá de passar pela redistribuição dos recursos existentes.

b) A visão dinâmica, onde você analisa a sociedade como um processo onde um momento evolui para outro. A questão primordial aqui seria: que instituições, ao longo do tempo, fazem com que se torne menos provável que as pessoas precisem de ajuda? O que terá que passar pela produção de mais recursos/oportunidades/renda no longo prazo, para a criação de melhores “momentos” no futuro. E isso significa que a redistribuição deve ser pensada em termos de suas consequências para esse processo de produção.

A visão dinâmica é aquela que a economia favoreceria, uma vez que é um retrato mais fiel do mundo, onde os recursos não são fixos e em que um aumento nos recursos pode melhorar em larga escala a vida dos mais pobres. Mas também porque às pessoas deve ser dada a chance de ganharem sua renda a partir de sua própria agência econômica e de contribuir para a produção da riqueza, não podendo ser tratadas eternamente como crianças, como agentes meramente passivos e que não precisariam de inclusão.

Para entender melhor o porquê do paradigma dinâmico ser melhor que o estático, pode-se usar um exemplo hipotético, de Jason Brennan. Suponha dois países, “Terra do Superior de Pareto” e “Terra da Equidade”. Ambos são democracias liberais, e são divididos em três classes: pobre, média e rica. Contudo, em 1900, o governo da Terra da Equidade resolve, sem aumentar o estoque de riqueza disponível, diminuir a desigualdade e aumentar a renda dos mais pobres, de tal modo que esta se tornasse 50% mais rica que a classe pobre do outro país. Isso significa que é melhor os pobres viverem na Terra da Equidade?

Depende. Digamos que o crescimento econômico anual na Terra do Superior de Pareto seja de 4%, para uma distribuição inicial (em 1900) de 10 – 20 – 40 (pobre, média e rica, respectivamente), enquanto o crescimento econômico anual na Terra da Equidade seja de 2%, para uma distribuição inicial de 15 – 19 – 24. O que aconteceria ao longo do tempo está descrito na tabela abaixo:

Terra do Superior de Pareto 4% Terra da Equidade 2%
Pobres  Classe média Ricos Pobres Classe média Ricos
1900 10 20 40 15 19 24
1901 10.4 20.8 41.6 15.3 19.4 24.5
1902 10.8 21.6 43.2 15.6 19.8 25.0
1925 26.7 53.3 106.6 24.6 31.2 39.4
1950 71.1 142.1 284.3 40.4 51.2 64.6
2000 505.1 1010.1 2020.2 108.7 137.7 173.9

Em 1925, a renda dos pobres da Terra do Superior de Pareto fica maior que a dos pobres do outro país. Em 2000, a renda da classe pobre da Terra do Superior de Pareto é aproximadamente 5 vezes maior que a da classe pobre da Terra da Equidade, e 50 vezes maior que a renda de 1990. Onde o padrão de vida dos pobres é realmente melhorado?

E se você pensa que esse exemplo foi irrealista e exagerado, você precisa conhecer o gráfico feito por Branko Milanovic, um dos maiores pesquisadores de desigualdade global na atualidade, em seu livro de 2010, que compara a renda média dos 5% mais pobres dos Estados Unidos com as faixas de renda das populações do Brasil, China e Índia.

Milanovic divide a população desses países em vinte“ventiles” (grupos de 5% da população), ordenados de forma crescente em relação à renda (Ex: O primeiro ventile representa a parcela mais pobre da população, enquanto o vigésimo representa a mais rica). Esses “ventiles” estão representados no eixo horizontal do gráfico. No eixo vertical, a população do mundo inteiro é dividida em grupos de 1% (“percentis”), também ordenados de forma crescente em relação à renda. Com isso, ele calcula a renda média de determinado “ventile” e verifica em qual “percentil” do mundo esse “ventile” fica.

O resultado é incrível.

screen-shot-2012-10-03-at-2-37-38-pm-300x260

(A discussão sobre esse gráfico, com dados de 2005, pode ser encontrada aqui e aqui)

Os 5% mais pobres dos Estados Unidos estão situados no 68º percentil da distribuição de renda do mundo; ou seja, os mais pobres dos pobres americanos têm uma renda maior do que 68% da população mundial. Sua renda média supera a da maioria da população de três economias emergentes. Aproximadamente metade dos “ventiles” do Brasil, agregando no conjunto praticamente 50% da população brasileira, tem renda média inferior àquela dos 5% mais pobres dos EUA.

David Schmidtz comenta, inclusive, que, se a taxa de crescimento anual do PIB dos Estados Unidos, entre 1870 e 1990, tivesse sido apenas 1% menor, o PIB per capita dos Estados Unidos em 1990 seria apenas de um terço do que ele era à época, o que equivaleria ao México! Imagine como estariam os 5% mais pobres dos Estados Unidos se a renda per capita deste fosse igual à do México. Muito pior.

Matt Zwolinski, em seu twitter, escreveu que “Concern for the poor and vulnerable is a good complement to hard headed economic analysis, but a terrible substitute for it.” Em uma tradução livre: “Preocupação com os pobres e vulneráveis é um bom complemento para análise econômica rigorosa, mas um terrível substituto para esta.”

Absolutamente. Ter um coração mole e bom, e por isso preocupar-se com os mais pobres e vulneráveis (como estaria pressuposto no termo “libertaranismo bleeding heart“) deve ser a atitude de todos nós, contudo, é particularmente danoso e desastroso usar essa atitude para descartar um cérebro “frio e calculista” necessário para fazer análise econômica rigorosa.

Ao contrário, um coração mole e bom, com sua preocupação pelos pobres e vulneráveis, de um lado, e um cérebro frio e calculista, apto para fazer análise econômica rigorosa, são complementos, são os parceiros ideias na tarefa árdua, e muitas vezes não bem vista socialmente, de não apenas parecer estar ajudando os mais pobres e vulneráveis, mas sim de realmente ajudá-los.

Verdades e mitos sobre desigualdade de renda nos Estados Unidos

Em uma postagem daqui do blog “A saúde privada seria uma mentira por causa do desempenho dos EUA em relação aos demais países desenvolvidos?“, eu mencionei o tema da desigualdade de renda nos Estados Unidos, apenas bem resumidamente, deixando claro que é um assunto muito mais complexo do que simplesmente atacar esse incremento na desigualdade como algo completamente ruim.

Apesar do fenômeno ser complexo, quero tratar do mesmo brevemente aqui, introduzindo o leitor para que, ao menos, já saiba afastar pseudo-explicações do tipo “isso é a prova de que o capitalismo neoliberal deixa os ricos mais ricos e os pobres mais pobres” ou “o livre mercado irrestrito cria desigualdades extremas”. Ao contrário, tentarei mostrar que há um lado bom e um lado ruim por trás disso.

A chave para entender o incremento da desigualdade de renda nos Estados Unidos, desde a década de 70 para cá, é perceber sua íntima relação com o aumento da desigualdade salarial. Basicamente: maior demanda por trabalhadores qualificados.

Como os trabalhadores altamente qualificados não são a média da população, isso significa que a desigualdade de renda aumentou, uma vez que estes assalariados são muito melhor pagos do que o trabalhador mediano ou o trabalhador de baixa remuneração.

Por que os ganhos salariais dos trabalhadores altamente qualificados dos Estados Unidos (muitos dentre os quais tem um diploma universitário ou uma carreira de negócios) aumentaram?

Para responder isso, você deve pensar o seguinte: que mudança ocorreu da década de 70 para cá?

Se você pensou em “computador”, você está certo. Para colocar em termos amplos: de 1970 para cá, houve um processo de inovação tecnológica ligada à informática e afins que trouxe muito lucro àqueles que investiram com sucesso no setor, e, por isso mesmo, a procura por profissionais altamente qualificados aumentou, o que levou para cima a remuneração destes profissionais. Os Estados Unidos foram um pivô neste tipo de inovação.

A transição para uma economia fundamentada em trabalho qualificado, em grande medida voltado à inovação, gerou um aumento da renda desses assalariados qualificados que impulsionou o processo de inovação.

Assim, você pode até se queixar de que a desigualdade de renda nos Estados Unidos aumentou, mas entenda que o mesmo fenômeno – a transição para uma economia de inovação tecnológica de ponta -, que, em grande medida é responsável por essa desigualdade, também é responsável por grandes avanços tecnológicos, que beneficiam muitas pessoas (inclusive as mais pobres). Os Estados Unidos também são importantes inovadores em tecnologia médica, para dar um exemplo.

Aliás, a desigualdade de consumo não é tão alta quanto a de renda, e vários estudos mostram que a inclusão dos americanos mais pobres em melhorias propiciadas pelas dinâmicas de mercado é um fato bem estabelecido. Veja o vídeo abaixo:

Por isso não gosto de discursos que meramente constatam um aumento na desigualdade, para automaticamente concluir que isso é ruim e que não deveria ser assim. Sendo que parte desta desigualdade decorre de um processo que, por si mesmo, é fundamentalmente benéfico para a humanidade, seria no mínimo irresponsável defender que, para livrar-se da desigualdade, você teria que livrar-se da dinâmica de mercado que sustentou esses avanços tecnológicos. Aliás, se interrompermos essa dinâmica, nós prejudicaremos ainda mais as pessoas mais pobres.

Aliás, um estudo interessante mostrou que, entre os países desenvolvidos, aqueles países com maior densidade sindical, maior proteção ao trabalho e setores públicos que contribuem com uma grande parte do PIB, sistematicamente, recompensam de forma menor o investimento individual nas próprias habilidades (medidas em três categorias: “ser letrado”, habilidade matemática e resolução de problemas em ambientes ricos em tecnologia).

Como você poderia esperar do que eu falei acima, os Estados Unidos são os que melhor remuneram o investimento individual nas próprias habilidades. Veja o gráfico:

recompensa para as habilidades(vide o estudo aqui)

Perceba que países bastante igualitários como Noruega e Suécia estão entre os que menos remuneram o investimento pessoal em habilidades importantes para a dinâmica de inovação e melhora dos padrões de vida. Os países nórdicos não são campeões de inovação que ajuda e melhora a vida de milhões de pessoas, mas são campeões em ajudar apenas seus próprios povos com serviços públicos invejáveis – populações tão pequenas quanto, por exemplo, 9,5 milhões de habitantes da Suécia (isso é menor que a cidade de São Paulo – 11,5 milhões – e metade da região metropolitana de São Paulo – 19 milhões). Pare e pense: qual desses processos faz mais diferença positiva na vida das pessoas ao redor do mundo? na sua vida? em um mundo de 7 bilhões de pessoas?

Agora você pode estar se perguntando: mas não há outras causas que contribuem para esse incremento na desigualdade? Poderíamos citar alguns processos mais específicos: um mercado de universidades que atrai professores e pesquisadores elevando seus salários, um mercado de hospitais que remunera muito bem os médicos, um mercado financeiro com altos lucros e alto risco moral, uma regulação mais complexa das empresas que aumentou a demanda por serviços advocatícios especializados, etc.

Preste atenção nos dois últimos exemplos, acerca do setor financeiro e do setor jurídico: aqui já começamos a ver o que há de desigualdade ruim nos Estados Unidos.

Parte da amplitude desse crescimento da desigualdade de renda – da concentração de renda no topo – nos Estados Unidos relaciona-se com remunerações extremamente elevadas para pessoas que trabalham no setor financeiro, muitas dentre as quais fazem parte do famoso “1% mais rico”. Setor este cuja elevação nos lucros teve muita relação com estratégias de alto risco em relação às quais se tinha a confiança de que o governo norte-americano não deixaria que as perdas fossem completas, em caso de falhas. (tanto que, na crise de 2008, o governo de fato interveio para ajudar grandes bancos)

Esse cartoon da The Economist , traduzido para o português, fala tudo:

 

1069044_790664174283779_1439094385_n

(créditos da imagem, Kevin Kallaugher, que trabalha para o The Economist; você pode encontrar o cartoon original, em inglês, clicando em cima do nome dele)

Os advogados entram aí também, em grande medida, como atuantes neste setor. Muitos advogados de alto poder aquisitivo fazem negócios financeiros, e outros estão defendendo corporações contra ações judiciais, acionando ou ajudando as corporações a lidarem com regulamentos complexos.

Perceba, portanto, que a elevação extraordinária dos retornos para essas atividades são resultado do apoio governamental à expansão do crédito e às estratégias de alto risco (por conta da garantia implícita de que o governo impediria qualquer eventual chance do sistema financeiro colapsar), bem como à crescente complexidade da lei e crescimento do governo. O conto aqui não é um apenas sobre mercados, mas como relações entre certos setores e o governo – algo que todo libertário condena (e por isso que a maioria é bastante desconfiada em relação ao setor financeiro das economias) – prejudica o público, inclusive possibilitando, no caso de grandes bancos, “a privatização dos lucros, a socialização dos prejuízos”,

Além de separar o governo do setor financeiro e de simplificar a lei, para evitar essa captura artificial da renda pelo setor financeiro e jurídico, o que mais os Estados Unidos poderiam fazer para melhorar?

Se você lá leu meu texto sobre a justiça social ao estilo de livre mercado (um aqui e outro no Mercado Popular), talvez você tenha uma resposta na ponta da língua: maior crescimento da renda para a maioria das classes de renda, por intermédio de crescimento econômico acelerado.

Aqui cabe mencionar que, apesar dos Estados Unidos ainda ser um pivô na inovação, essa primeira década do século XXI foi marcada pelo baixo crescimento econômico, a “recuperação sem emprego” da crise e menor inovação. (os Estados Unidos também vem passando por um processo de diminuição na liberdade econômica, e agora no Ranking de Liberdade Econômica da Heritage Foundation já está fora dos 10 primeiros).

Outras reformas importantes seriam em seu sistema educacional, em sua política urbana e em seu sistema de patentes/propriedade intelectual. Também o fim da guerra às drogas e a interrupção do crescimento do déficit governamental com as guerras trariam benefícios incomensuráveis ao povo americano, em especial aos mais pobres. A reforma no sistema de bem-estar também seria valiosa.

Os Estados Unidos precisam de mais justiça social, não em moldes igualitários, mas no estilo de livre mercado: maximizar o feixe de riqueza pessoalmente controlada pelos trabalhadores de menor remuneração, por intermédio de instituições que apoiem o livre mercado para todos e impeçam o controle do governo pelas elites econômicas. Se isso for aplicado, veremos a emergência do dinâmico e inclusivo sistema de livre empresa de que o mundo tanto precisa.

O Universo é um almoço grátis?

Existe uma frase famosa, segundo a qual “não existe almoço grátis”. O economista Milton Friedman foi um dos mais importantes popularizadores dessa frase, tendo mesmo escrito um livro com esse título, “There’s No Such Thing as a Free Lunch“. Na verdade, além de ter contribuído à popularização da expressão, Friedman fez um importante trabalho de esclarecimento público, de como a veracidade dessa asserção “não existe almoço grátis” em economia impacta dramaticamente a maneira que visualizamos a política pública.

Friedman falava mesmo no “mito do almoço grátis”, segundo o qual o governo pode tributar, gastar, prover bens e serviços, como se não houvesse um custo envolvido nisso para as pessoas. Sobre o assunto, recomendo ver o vídeo abaixo:

Para dar um exemplo rápido de como isso afeta nossa percepção da política pública, o custo da tributação não é meramente o dinheiro cobrado dos contribuintes. Caso fosse, você poderia imaginar que tributar o capital de uma pessoa rica não teria nenhum efeito sobre as pessoas pobres, uma vez que o dinheiro cobrado vem apenas das pessoas ricas.

Entretanto, a tributação leva às chamadas “perdas por peso morto”, que é um custo medido em termos do número de transações mutuamente benéficas que foram evitadas por causa da imposição do imposto. No exemplo acima, isso significa que a imposição do tributo pode afetar as pessoas mais pobres, mesmo que, formalmente, sejam apenas os ricos que arquem com seus custos, uma vez que transações que poderiam beneficiar as pessoas mais pobres podem deixar de acontecer. (exemplo: menor criação de emprego)

Em termos formais, diz-se que “a perda por peso morto decorrente de um imposto seletivo ocorre porque ele evita a ocorrência de algumas transações mutuamente benéficas. Mais especificamente, o excedente do produtor e do consumidor que se deixa de ganhar porque essas transações foram perdidas é igual ao tamanho da própria perda por peso morto.” (KRUGMAN; WELL, p. 161). Visualize isso no gráfico abaixo:

preview_html_m3bd62d4c

(gráfico extraído desse resumo sobre microeconomia, por Edmo Menini)

Dessa forma, vê-se que a noção de que não existe almoço grátis é plenamente válida para a economia e para a filosofia social em geral. Contudo, será esta noção válida para a física mais fundamental, para a cosmologia, envolvida com o mistério da criação do Universo?

Importantes cientistas estudam a questão, dentre eles Stephen Hawking.

stephen-hawking-biography_1

(imagem extraída deste link)

Em seu mais recente livro, em co-autoria com Leonard Mlodinow, “O Grande Projeto”, Stephen Hawking defende a criação espontânea do universo. Ao invés do universo ter sido criado por um Criador divino, ou por seres de outro universo, ou por autocausação em uma curva temporal fechada, a criação teria ocorrido “a partir de nada”, “sem causa”, pela mera probabilidade de sua ocorrência especificável por meio de leis físicas.

Uma das formas em que ele trabalha esta ideia reside na noção de “soma sobre as histórias de Feynman”, oriunda da física quântica.

“No experimento da dupla fenda, por exemplo, a história da partícula é simplesmente sua trajetória. Do mesmo modo que, para esse experimento, a chance de se observar a partícula cair em um dado ponto depende de todas as trajetórias que poderiam levá-la até lá, Feynman demonstrou que, para um sistema geral, a probabilidade de qualquer observação é construída a partir de todas as histórias que poderiam ter levado àquela observação. Devido a isso, esse método é denominado de ‘soma sobre as histórias’ ou de ‘histórias alternativas’ da física quântica.” (HAWKING, 2010, p. 60)

É importante enxergar aqui a natureza profundamente probabilística das leis de causação em um mundo concebido pelas lentes da teoria quântica:

“A física quântica poderia abalar a ideia de que a natureza é governada por leis, mas não é esse o caso. Antes, ela nos leva a aceitar uma nova forma de determinismo: dado o estado de um sistema em um certo instante, as leis naturais determinam as probabilidades de vários futuros e passados possíveis em vez de determinar o futuro e o passado com certeza. (…) As probabilidades nas teorias quânticas (…) refletem uma aleatoriedade fundamental na natureza. O modelo quântico da natureza incorpora princípios que contradizem não só nossa experiência diária, mas também nossa concepção intuitiva de realidade.” (HAWKING, 2010, p. 54)

Você pode lembrar, neste ponto, que mesmo Albert Einstein considerou as ideias desse campo bizarras demais. “Deus não joga dados com o mundo”, disse Einstein, ao que Bohr retrucou: “Não diga a Deus o que ele deve fazer”, conforme conta-se.

A teoria quântica (por razões que não será possível explicar aqui) trabalha principalmente com a estrutura em pequena escala da matéria, domínio em que a teoria da relatividade não é bem-sucedida.  Você pode imaginar: “o que o universo pode ter a ver com a teoria quântica, se o universo é tão grande?”. Eu responderia que você precisa lembrar que o Universo já foi muito, muito pequeno:

“se voltarmos o suficiente no tempo, o universo era tão pequeno quanto o comprimento de Planck, um bilionésimo de um trilionésimo de um trilionésimo de centímetro, uma escala na qual a teoria quântica tem que ser levada em conta. Assim, embora não tenhamos uma teoria quântica completa da gravidade, sabemos com certeza que a origem do universo foi um evento quântico.” (HAWKING, 2010, p. 97)

Assim, Hawking argumenta que a origem do universo, como evento quântico, seria descrita por meio do aparato teórico criado por Feynman:

“Se a origem do universo foi um evento quântico, ela deveria ser descrita acuradamente pela soma sobre as histórias de Feynman. (…) Aplicado ao movimento de um ponto final específico, deve-se considerar todas as possíveis histórias que a partícula poderia seguir desde seu ponto de partida até o ponto final. Pode-se também usar o método de Feynman para calcular as probabilidades quânticas de observações do universo. Se for aplicado ao universo como um todo, não existem em ponto A, e assim somamos todas as histórias que satisfazem à condição sem-contorno e terminam no universo como observado atualmente. Dentro desse quadro, o universo apareceu espontaneamente, começando de todo modo possível. A maior parte desses modos correspondente a outros universos.  (…) Alguns fazem um grande mistério com essa ideia, às vezes denominada conceito do multiverso, mas são apenas expressões distintas da soma sobre as histórias de Feynman” (HAWKING, 2010, p. 100)

Cabe observar aqui a menção que ele faz à “condição sem-contorno”. Esta é uma das principais contribuições  de Stephen Hawking à física teórica, que consiste na aplicação do conceito de “tempo imaginário” para explicar a emergência do tempo:

“O tempo imaginário parece algo saído da ficção científica, mas é um conceito matemático bem definido: o tempo medido nos denominados números imaginários. (…) A teoria da relatividade geral clássica (isto é, não quântica) de Einstein combinava tempo real e as três dimensões do espaço em um espaço-tempo quadridimensional. (…) Por outro lado, o tempo imaginário, por ser perpendicular ao tempo real, comporta-se como uma quarta dimensão espacial.” (HAWKING, 2009, p. 59-60)

A possibilidade do tempo imaginário na origem do universo é real:

“A percepção de que o tempo pode se comportar como outra dimensão do espaço implica que podemos nos livrar do problema do início do tempo, de um modo semelhante a como nos livramos do problema da borda do mundo. Suponha o início do universo como o polo sul da Terra, com os graus de latitude desempenhando o papel do tempo. Movendo-se rumo ao norte, os círculos de latitude representando o tamanho do universo, expandem-se. O universo começaria como um ponto no polo sul, mas o polo sul é um ponto como qualquer outro. Perguntar o que acontecia antes do início do universo se tornaria uma questão sem sentido, porque não há nada ao sul do polo sul. Nesse cenário, o espaço-tempo não tem contorno – as mesmas leis aplicam-se ao polo sul assim como a outros lugares. De um modo análogo, quando se combina a teoria da relatividade geral com a teoria quântica, a questão do que acontecia antes do início do universo perde o sentido. A ideia de que histórias poderiam ser superfícies fechadas sem contorno é a chamada condição sem-contorno” (HAWKING, 2010, p. 99-100)

Contudo, mais para o final do livro, você pode ver outro raciocínio interessante  sendo utilizado para defender a ideia de criação do universo a partir de nada. O universo pode exigir nenhuma energia para ser criado, desde que a energia positiva de toda a matéria do universo seja anulada pela energia negativa da gravidade:

“Se a energia total do universo deve permanecer nula, e se é necessário energia para criar um corpo, como todo um universo pode ter sido criado no nada? É por esse motivo que deve haver uma lei como a da gravidade. Como a gravidade é atrativa, a energia gravitacional é negativa: é preciso um grande trabalho para separar um sistema gravitacionalmente ligado, tal como a Terra e a Lua. Essa energia negativa pode balancear a energia positiva necessária para criar matéria, mas não é tão simples. A energia gravitacional da Terra, por exemplo, é menos do que um bilionésimo da energia positiva das partículas que a compõem. Um corpo como uma estrela terá mais energia gravitacional negativa, e, quanto menor ele for (e mais próximas suas partes estiverem uma das outras), maior será sua energia gravitacional negativa. Mas, antes que ela possa se tornar maior que a energia positiva da matéria, a estrela colapsará num buraco negro, e buracos negros têm energia positiva. É por isso que o espaço vazio é estável. Corpos como estrelas e buracos negros não podem simplesmente aparecer do nada. Mas todo um universo pode.” (HAWKING, 2010, p. 132)

Isso porque:

“Visto que a gravidade molda o espaço e o tempo, ela permite que o espaço-tempo seja localmente estável, mas globalmente instável. Na escala do universo como um todo, a energia positiva da matéria pode ser balanceada pela energia gravitacional negativa, e assim não há restrição à criação de universos inteiros. Devido ao fato de existir uma lei como a da gravidade, o universo pode e criará a si mesmo do nada do modo descrito no Capítulo 6. Criação espontânea é a razão por que há algo em vez de nada, por que existe o universo, por que existimos.” (HAWKING, 2010, p. 132)

Você pode encontrar o mesmo raciocínio sendo explicado pelo Michio Kaku, de forma bem direta, no vídeo abaixo, dos 3:51 em diante:

É importante perceber que, apesar de ser muito contra-intuitivo, essa relação deve ser enxergada em termos de uma fórmula matemática. Isso é que faz ter sentido atribuir à energia gravitacional a característica de ser “negativa”, e que faz ter sentido dizer que a soma dessa energia negativa com a energia positiva da matéria é zero (basta pensar que a soma de dois números iguais, com sinais diferentes, resulta em zero). Esse tipo de compreensão pode escapar ao nosso modo de pensar ordinário, mas não à nossa matemática.

Por isso mesmo que, na excelente palestra do vídeo abaixo sobre a relação entre física e matemática, Feynman comenta que os divulgadores científicos sempre encontrarão barreiras na hora de traduzir a matemática da teoria física em um vocabulário não-matemático, uma vez que matemática não é apenas uma linguagem, mas sim “linguagem + raciocínio”, “linguagem + lógica”:

Nesse sentido, o universo pode ser, de fato, um almoço grátis. A existência do universo seria gratuita, o universo teria sido criado “de graça”, sem o dispêndio de nenhuma energia, e, portanto, a partir de nada. Mesmo que nada dentro dela seja um almoço grátis, a realidade considerada globalmente o é.

Realmente, não é à toa que a ciência é a “poesia da realidade”, ao possibilitar conjecturas tão extraordinárias, mas ancoradas em um método robusto e sistemático de explicação da natureza, com amplo sucesso preditivo. Talvez você até mesmo sinta vontade de cantar à “poesia da realidade”, como no vídeo abaixo?

Eleitores motivados pelo bem comum, mas cognitivamente enviesados: de boas intenções, o inferno está cheio (mas apostas nos tirariam de lá?)

Hoje li dois textos interessantes: um é uma resenha crítica do Bryan Caplan sobre o livro “The Ethics of Voting” do Jason Brennan (um libertário bleeding heart) e o outro é um paper do próprio Caplan denominado “Sociotropes, Systematic Bias, and Political Failure: Reflections on the Survey of Americans and Economists on the Economy“.

Tanto o livro do Brennan (que tive acesso pela revisão do Caplan) quanto o paper do Caplan mostram que a distinção entre o aspecto volitivo e o aspecto cognitivo do comportamento do eleitor é crucial para os resultados da política democrática.

Poderíamos resumir na seguinte pergunta o que eles estão procurando responder com ciência social empírica robusta: se os eleitores estão motivados à promoção do bem comum, eles conseguirão fazê-lo?

A resposta deles é: não, porque não adianta estar motivado a promover o bem comum, se os eleitores sofrem, sistematicamente, de vieses que afetam a discussão pública de vários temas e, assim, promovem políticas prejudiciais. Ou seja, mesmo que os eleitores estejam em geral volitivamente adequados, eles são bastante insatisfatórios no campo cognitivo.

Brennan revisa a literatura empírica sobre motivação e cognição dos eleitores. Encontra que os eleitores se saem bem na dimensão da motivação, usualmente tentando promover o bem comum e o que percebem como sendo o interesse nacional comum. Por exemplo, os mais idosos não são significativamente mais prováveis de apoiar programas de previdência social que os trabalhadores mais jovens, portanto, o contrário do que se esperaria se a principal motivação fosse o auto-interesse. (BRENNAN, p. 162 apud CAPLAN, p. 14)

Contudo, essa mesma literatura demonstra que os eleitores falham na outra dimensão relevante, a da cognição. O “bem comum percebido” e o “bem comum real” divergem, na teoria e na prática, estando as crenças dos eleitores distantes do que seria a melhor maneira de promover o bem comum, e não ocorre nenhum “milagre da agregação” (BRENNAN apud CAPLAN, p. 14), porque os eleitores são sistematicamente enviesados, não randomicamente enviesados. Vale destacar que, por bem comum, Brennan entende uma combinação de instituições – tais como ordem social, normas sociais/éticas compartilhadas, a regra de Direito, e mercados – que geralmente funcionam para vantagem de todos (WENZEL, p. 35).

Já Caplan, em seu paper, mostra que, ao contrário de pressupostos usados em modelos econômicos da política de que os eleitores seriam egocêntricos e deteriam crenças racionais não sujeitas a erros sistemáticos, ambas as premissas falham no âmbito de crenças econômicas (CAPLAN, p. 416), que são mais ligadas com ideias do que com auto-interesses, e cujos maiores preditores são a educação e a ideologia, não a renda (CAPLAN, p. 433) E isso é uma razão para temer os resultados da política democrática: eleitores “sociótropos” (não egoístas, motivados pelo bem comum) com crenças econômicas sistematicamente enviesadas são mais prováveis de produzir severas falhas políticas do que eleitores egoístas com expectativas racionais. (CAPLAN, p. 416)

Para Caplan, o melhor caso encontra-se em eleitores sociotrópicos racionais, uma vez que eleitores egocêntricos se oporão às políticas que pessoalmente os afetem, mas que sejam socialmente benéficas (CAPLAN, p. 430). Contudo, uma falha na cognição é mais grave que uma falha na motivação, uma vez que, por uma questão de teoria básica da otimização, se você estiver errado sobre o verdadeiro estado do mundo, seus esforços serão mal direcionados, e, assim, quanto mais severo o viés que afeta o raciocínio, mais pobre provavelmente será o ajuste entre a política popular e a política eficiente (CAPLAN, p. 431). Outro motivo é que existem duas maneiras de reconciliar a política majoritária com o bem-estar social: auto-sacrifício (disponível aos “sociótropos”) e barganha política (disponível aos egocêntricos), o que significa que mesmo eleitores egocêntricos, mas racionais, podem favorecer políticas socialmente benéficas (CAPLAN, p. 430 e 432).

De fato, eleitores voltados para o bem-comum, mas sob influência de ideias sistematicamente erradas sobre o funcionamento real da economia, apoiarão políticas danosas que agentes egocêntricos racionais nunca apoiariam. (CAPLAN, p. 432)

Com isso teríamos o seguinte ranking de eficiência:

eleitor

Pela análise do Caplan, estaríamos no pior dos mundos possíveis em termos de comportamento eleitoral que esteja causalmente relacionado com política eficiente. E isso inclusive me faz pensar na possibilidade de que Robin Hanson poderia estar certo quanto à superioridade comparativa da “futarchy” (futurarquia ou futarquia) em relação à democracia.

Com o provocativo título “Shall We Vote on Values, But Bet on Beliefs?” (ver o resumo da ideia aqui), Hanson nos instiga a pensar se realmente poderíamos votar em valores, mas apostar nas crenças. A ideia dele é que poderíamos utilizar o conhecido sucesso em agregação de informação dos “mercados de previsão” para sustentar melhores decisões políticas, limitando assim os danos colaterais advindos do funcionamento padrão da democracia.

De forma bastante simplificada, esse sistema funcionaria assim: representantes eleitos definem formalmente o que constituiria o bem-estar nacional como função de uma variável objetiva (como o PIB per capita, o IDH ou o coeficiente de gini) e fazem uma medição após a tomada de uma política particular, enquanto os especuladores de mercado apostam nas políticas que eles esperam que elevasse o bem-estar nacional (seu incentivo é ganhar retorno do investimento “apostado” se de fato a política em que se apostou elevou o bem-estar), sendo que a regra que une isso é a de que “quando um mercado de apostas estima claramente que uma política proposta aumentaria o bem-estar nacional, a proposta se torna lei” (dentro de restrições constitucionais que impedissem violações aos direitos individuais por meio da política, é claro).

Portanto, veja que nesse cenário de futarquia proposta por Hanson a democracia continua a nos dizer aonde queremos chegar, mas o mercado de previsões é que nos diz como chegar lá. Claro que esses mercados de previsão poderiam falhar, mas eles falhariam menos do que a democracia.

Eu não sei se a proposta da futarquia realmente funcionaria. Gostaria de ver mais discussão em torno disso, em especial, por exemplo, que, mesmo que os mercados de previsão falhem menos do que a democracia, em termos de eficiência alocativa, os tipos de falha dos mercados de previsão aplicados à política poderiam ser distributivamente mais danosos do que a própria democracia (exemplo: dadas as distribuições más, D1 e D2, e a distribuição boa D3,  os mercados de aposta levariam mais frequentemente para D3 do que a democracia, contudo, nos casos de falha, levariam à D1, que é percebido como muito mais danoso do que D2, que seria mais frequentemente causado pela democracia normal). Outro ponto residiria na discussão entre bem-estar nacional e bem-estar do resto do mundo, na hora de definir essa medida objetiva de bem-estar.

Mas é certamente muito interessante a possibilidade de que um mercado de previsão aplicado à política poderia ser muito mais eficiente que a democracia em alcançar o bem comum. E esse resultado  faz sentido, pelo menos em nível teórico, porque a democracia atual, dada a condição cognitiva do eleitorado em associação com sua postura motivacional, seria a forma menos eficiente no ranking do Caplan, enquanto o mercado de previsões teria o condão de dar um peso considerável à racionalidade, no mínimo, àquela dos egocêntricos racionais, aumentando a eficiência da política.

De qualquer forma, você pode estar seguro que o bem-estar de um país depende mais de suas instituições e da estabilidade destas do que das oscilações da política partidária padrão (alguns casos brasileiros de oscilação abordados neste blog aqui e aqui). Instituições importam. A política padrão está sujeita a sérios problemas, como o comportamento eleitoral sociotrópico, mas cognitivamente enviesado, como discutido acima, a ignorância racional do eleitor (ou talvez sua irracionalidade racional) e a exploração política promovida por grupos de interesses especiais organizados em face da massa desorganizada.

Mas as instituições estáveis de uma sociedade, tanto econômicas como políticas, realizam um papel crucial em assegurar a infra-estrutura básica em que a cooperação social e troca econômicas voluntárias podem ocorrer, isto sim sendo a verdadeira fonte da prosperidade e de ganhos explosivos em liberdade positiva, consistindo também no núcleo libertador do liberalismo clássico. Onde os mercados prosperam e somos mais livres para transacionar, as pessoas prosperam.

Dessa forma, o Homo Economicus não é o melhor modelo para abordar o comportamento do eleitor, mas ter um sentimento forte em relação ao bem comum está muito longe de realmente promover o bem comum. O comportamento de sinalização predomina. Sem nenhum tipo de restrição, a política frequentemente assumirá caminhos duvidosos, danosos. E isso independente de estarmos em países desenvolvidos ou subdesenvolvidos, ainda que os efeitos mais graves sejam sentidos naqueles que tem menos riqueza (potencial ou real) para desperdiçar/destruir/perder, disponível para suas populações.

Portanto, desconfiar da política majoritária e projetar limites constitucionais (incluindo direitos de secessão às comunidades locais) que restrinjam o potencial danoso da democracia inclusive na medida em que este seja derivado da ignorância política, não é uma opção, é uma necessidade – em especial para quem pretende ser motivado pelo bem comum, mas também racional, quando discute política responsavelmente.