Por que os fatos não mudam nossa opinião

Novas descobertas sobre a mente humana mostram as limitações da razão

Por que os fatos não mudam nossa opinião
A alardeada capacidade humana de raciocinar pode ter mais a ver com ganhar argumentos do que com pensar com clareza. Ilustração de Gérard DuBois

Em 1975, pesquisadores de Stanford convidaram um grupo de alunos de graduação para participar de um estudo sobre suicídio. Eles foram presenteados com pares de notas de suicídio. Em cada par, uma nota havia sido composta por um indivíduo aleatório, a outra por uma pessoa que posteriormente havia se suicidado. Os alunos foram então solicitados a distinguir entre as notas genuínas e as falsas.

Alguns alunos descobriram que tinham um gênio para a tarefa. Dos vinte e cinco pares de notas, eles identificaram corretamente o verdadeiro vinte e quatro vezes. Outros descobriram que não tinham esperança. Eles identificaram a nota real em apenas dez instâncias.

Como costuma ser o caso com estudos psicológicos, toda a configuração foi uma simulação. Embora metade das notas fossem de fato genuínas - elas foram obtidas no escritório do legista do condado de Los Angeles - as pontuações eram fictícias. Os alunos que foram informados de que quase sempre estavam certos não eram, em média, mais perspicazes do que aqueles que haviam sido informados de que eles estavam quase sempre errados.

Na segunda fase do estudo, o engano foi revelado. Os alunos foram informados de que o objetivo real do experimento era avaliar suas reações ao pensar que estavam certos ou errados. (Isso, no fim das contas, também foi um engano.) Finalmente, os alunos foram solicitados a estimar quantas notas de suicídio eles realmente categorizaram corretamente e quantas achavam que um aluno médio acertaria. Nesse ponto, algo curioso aconteceu. Os alunos do grupo de pontuação mais alta disseram que achavam que tinham, de fato, se saído muito bem - significativamente melhor do que o aluno médio - embora, como acabaram de ser informados, eles não tivessem motivos para acreditar nisso. Por outro lado, aqueles que foram atribuídos ao grupo de baixa pontuação disseram que pensaram que tinham se saído significativamente pior do que o aluno médio - uma conclusão que era igualmente infundada.

“Uma vez formadas”, os pesquisadores observaram secamente, “as impressões são notavelmente perseverantes”.

Alguns anos depois, um novo grupo de alunos de Stanford foi recrutado para um estudo relacionado. Os alunos receberam pacotes de informações sobre um par de bombeiros, Frank K. e George H. A biografia de Frank observou que, entre outras coisas, ele tinha uma filha bebê e gostava de mergulho. George tinha um filho pequeno e jogava golfe. Os pacotes também incluíam as respostas dos homens no que os pesquisadores chamaram de Teste de Escolha Conservadora de Risco. De acordo com uma versão do pacote, Frank foi um bombeiro de sucesso que, no teste, quase sempre optou pela opção mais segura. Na outra versão, Frank também escolheu a opção mais segura, mas ele era um péssimo bombeiro que havia sido "denunciado" por seus supervisores várias vezes. Mais uma vez, no meio do estudo, os alunos foram informados de que foram enganados e que as informações que receberam eram totalmente fictícias. Os alunos foram então convidados a descrever suas próprias crenças. Que tipo de atitude em relação ao risco eles achavam que um bombeiro bem-sucedido teria? Os alunos que receberam o primeiro pacote pensaram que ele iria evitá-lo. Os alunos do segundo grupo pensaram que ele aceitaria.

Mesmo depois que a evidência “de suas crenças foi totalmente refutada, as pessoas não conseguem fazer as revisões apropriadas nessas crenças”, observaram os pesquisadores. Nesse caso, a falha foi “particularmente impressionante”, já que dois pontos de dados nunca seriam informações suficientes para generalizar.

Os estudos de Stanford ficaram famosos. Vindo de um grupo de acadêmicos na década de 1970, a alegação de que as pessoas não conseguem pensar direito era chocante. Não é mais. Milhares de experimentos subsequentes confirmaram (e desenvolveram) essa descoberta. Como todos que acompanharam a pesquisa - ou mesmo ocasionalmente pegaram uma cópia do Psychology Today - sabem, qualquer estudante de graduação com uma prancheta pode demonstrar que pessoas aparentemente razoáveis ​​são frequentemente totalmente irracionais. Raramente esse insight pareceu mais relevante do que agora. Ainda assim, um enigma essencial permanece: como chegamos a ser assim?

Em um novo livro, “The Enigma of Reason” (Harvard), os cientistas cognitivos Hugo Mercier e Dan Sperber tentam responder a essa pergunta. Mercier, que trabalha em um instituto de pesquisa francês em Lyon, e Sperber, agora sediado na Central European University, em Budapeste, apontam que a razão é uma característica evoluída, como o bipedalismo ou visão tricolor. Ela surgiu nas savanas da África e deve ser entendida nesse contexto.

Despojado de muito do que pode ser chamado de ciência cognitiva, o argumento de Mercier e Sperber é executado, mais ou menos, da seguinte forma: A maior vantagem dos humanos sobre outras espécies é a nossa capacidade de cooperar. A cooperação é difícil de estabelecer e quase tão difícil de manter. Para qualquer pessoa, o freeload é sempre o melhor curso de ação. A razão desenvolvida não nos permite resolver problemas abstratos e lógicos ou mesmo nos ajudar a tirar conclusões de dados desconhecidos; em vez disso, desenvolveu-se para resolver os problemas apresentados por viver em grupos colaborativos.

“A razão é uma adaptação ao nicho hipersocial que os humanos desenvolveram por si mesmos”, escrevem Mercier e Sperber. Hábitos mentais que parecem estranhos ou patetas ou simplesmente burros de um ponto de vista “intelectualista” se mostram astutos quando vistos de uma perspectiva social “interacionista”.

Considere o que ficou conhecido como "viés de confirmação", a tendência que as pessoas têm de abraçar informações que apóiam suas crenças e rejeitar informações que as contradizem. Das muitas formas de pensamento defeituoso que foram identificadas, o viés de confirmação está entre os mais bem catalogados; é o assunto de experimentos de livros didáticos inteiros. Um dos mais famosos deles foi conduzido, novamente, em Stanford. Para este experimento, os pesquisadores reuniram um grupo de estudantes que tinham opiniões opostas sobre a pena de morte. Metade dos alunos era a favor e achava que isso impedia o crime; a outra metade era contra e achava que não tinha efeito sobre o crime.

Os alunos foram convidados a responder a dois estudos. Um forneceu dados para apoiar o argumento da dissuasão e o outro forneceu dados que o colocaram em questão. Ambos os estudos - você adivinhou - foram feitos e projetados para apresentar o que eram, falando objetivamente, estatísticas igualmente convincentes. Os alunos que originalmente apoiaram a pena de morte avaliaram os dados pró-dissuasão como altamente confiáveis ​​e os dados anti-dissuasão não convincentes; os alunos que originalmente se opuseram à pena de morte fizeram o contrário. Ao final do experimento, os alunos foram questionados mais uma vez sobre seus pontos de vista. Aqueles que começaram pró-pena capital agora eram ainda mais a favor dela; aqueles que se opuseram a isso foram ainda mais hostis.

Se a razão é projetada para gerar julgamentos sólidos, então é difícil conceber uma falha de projeto mais séria do que o viés de confirmação. Imagine, sugerem Mercier e Sperber, um rato que pensa como nós. Tal rato, “empenhado em confirmar sua crença de que não há gatos por perto”, logo seria o jantar. Na medida em que o viés de confirmação leva as pessoas a rejeitar evidências de ameaças novas ou subestimadas - o equivalente humano do gato da esquina - é uma característica que deveria ter sido selecionada. O fato de que nós e ele sobrevivemos, argumentam Mercier e Sperber, prova que ele deve ter alguma função adaptativa, e que essa função, eles afirmam, está relacionada à nossa “hipersociabilidade”.

Mercier e Sperber preferem o termo "viés de mistério". Os humanos, eles apontam, não são aleatoriamente crédulos. Diante do argumento de outra pessoa, somos adeptos de identificar os pontos fracos. Quase invariavelmente, as posições sobre as quais somos cegos são nossas.

Um experimento recente realizado por Mercier e alguns colegas europeus demonstra claramente essa assimetria. Os participantes foram convidados a responder a uma série de problemas de raciocínio simples. Em seguida, eles foram solicitados a explicar suas respostas e tiveram a chance de modificá-las caso identificassem erros. A maioria ficou satisfeita com suas escolhas originais; menos de quinze por cento mudaram de ideia na etapa dois.

Na etapa três, os participantes viram um dos mesmos problemas, junto com sua resposta e a resposta de outro participante, que chegou a uma conclusão diferente. Mais uma vez, eles tiveram a chance de mudar suas respostas. Mas um truque foi pregado: as respostas apresentadas a eles como de outra pessoa eram na verdade suas próprias e vice-versa. Cerca de metade dos participantes percebeu o que estava acontecendo. Entre a outra metade, de repente as pessoas se tornaram muito mais críticas. Quase sessenta por cento agora rejeitaram as respostas com as quais eles estavam satisfeitos anteriormente.

Esse desequilíbrio, segundo Mercier e Sperber, reflete a tarefa que a razão evoluiu para realizar, que é evitar que sejamos ferrados pelos demais membros de nosso grupo. Vivendo em pequenos bandos de caçadores-coletores, nossos ancestrais estavam principalmente preocupados com sua posição social e em se certificar de que não eram eles que arriscavam suas vidas na caça enquanto outros vagavam pela caverna. Havia pouca vantagem em raciocinar com clareza, ao passo que muito se ganhava em ganhar argumentos.

Entre as muitas, muitas questões com as quais nossos antepassados ​​não se preocuparam foram os efeitos dissuasivos da pena capital e os atributos ideais de um bombeiro. Nem tiveram que lidar com estudos forjados, notícias falsas ou Twitter. Não é de se admirar, então, que a razão hoje muitas vezes parece falhar conosco. Como escrevem Mercier e Sperber: “Este é um dos muitos casos em que o ambiente mudou muito rapidamente para que a seleção natural o acompanhasse”.

Steven Sloman, professor da Brown, e Philip Fernbach, professor da Universidade do Colorado, também são cientistas cognitivos. Eles também acreditam que a sociabilidade é a chave para o funcionamento da mente humana ou, talvez mais pertinente, o mau funcionamento. Eles começam seu livro, “A ilusão de conhecimento: por que nunca pensamos sozinhos” (Riverhead), com uma olhada nos banheiros.

Praticamente todos nos Estados Unidos, e de fato em todo o mundo desenvolvido, estão familiarizados com banheiros. Um autoclismo típico tem uma tigela de cerâmica cheia de água. Quando a alça é pressionada ou o botão pressionado, a água - e tudo o que foi depositado nela - é sugada para um cano e de lá para o sistema de esgoto. Mas como isso realmente acontece?

Em um estudo realizado em Yale, os alunos de pós-graduação foram solicitados a avaliar sua compreensão dos dispositivos do dia a dia, incluindo banheiros, zíperes e fechaduras de cilindro. Em seguida, eles foram solicitados a escrever explicações detalhadas, passo a passo, de como os dispositivos funcionam e a avaliar seu entendimento novamente. Aparentemente, o esforço revelou aos alunos sua própria ignorância, pois suas autoavaliações caíram. (Os banheiros, ao que parece, são mais complicados do que parecem.)

Sloman e Fernbach veem esse efeito, que eles chamam de “ilusão de profundidade explicativa”, em quase todos os lugares. As pessoas acreditam que sabem muito mais do que realmente sabem. O que nos permite persistir nessa crença são outras pessoas. No caso do meu banheiro, outra pessoa o projetou para que eu possa operá-lo facilmente. Isso é algo em que os humanos são muito bons. Contamos com a experiência uns dos outros desde que descobrimos como caçar juntos, o que provavelmente foi um desenvolvimento importante em nossa história evolutiva. Colaboramos tão bem, afirmam Sloman e Fernbach, que dificilmente podemos dizer onde termina nosso próprio entendimento e onde começa o dos outros.

“Uma implicação da naturalidade com que dividimos o trabalho cognitivo”, eles escrevem, é que “não existe uma fronteira nítida entre as ideias e conhecimentos de uma pessoa” e “os de outros membros” do grupo.

Essa ausência de fronteiras, ou, se preferir, confusão, também é crucial para o que consideramos progresso. À medida que as pessoas inventavam novas ferramentas para novas maneiras de viver, elas criavam simultaneamente novos domínios de ignorância; se todos tivessem insistido em, digamos, dominar os princípios da usinagem antes de pegar uma faca, a Idade do Bronze não teria significado muito. Quando se trata de novas tecnologias, a compreensão incompleta é fortalecedora.

Onde isso nos causa problemas, de acordo com Sloman e Fernbach, é no domínio político. Uma coisa é dar descarga sem saber como funciona, e outra é favorecer (ou me opor) a uma proibição de imigração sem saber do que estou falando. Sloman e Fernbach citam uma pesquisa realizada em 2014, pouco depois que a Rússia anexou o território ucraniano da Crimeia. Os entrevistados foram questionados sobre como eles achavam que os EUA deveriam reagir e também se eles poderiam identificar a Ucrânia em um mapa. Quanto mais longe da base eles estivessem em relação à geografia, maior a probabilidade de serem a favor da intervenção militar. (Os entrevistados estavam tão inseguros sobre a localização da Ucrânia que a estimativa média estava errada em mil e oitocentas milhas, aproximadamente a distância de Kiev a Madrid.)

Pesquisas sobre muitas outras questões produziram resultados igualmente desanimadores. “Como regra, sentimentos fortes sobre as questões não surgem de um entendimento profundo”, escrevem Sloman e Fernbach. E aqui nossa dependência de outras mentes reforça o problema. Se sua posição sobre, digamos, a Lei de Cuidados Acessíveis não tiver fundamento e eu confiar nela, então minha opinião também não tem base. Quando converso com Tom e ele decide que concorda comigo, sua opinião também é infundada, mas agora que nós três concordamos, nos sentimos muito mais orgulhosos de nossos pontos de vista. Se todos nós agora rejeitarmos como não convincente qualquer informação que contradiga nossa opinião, você obtém, bem, a Administração Trump.

“É assim que uma comunidade de conhecimento pode se tornar perigosa”, observam Sloman e Fernbach. Os dois realizaram sua própria versão do experimento do banheiro, substituindo a política pública por aparelhos domésticos. Em um estudo realizado em 2012, eles perguntaram às pessoas sua posição sobre questões como: Deve haver um sistema de saúde com pagador único? Ou pagamento baseado no mérito para professores? Os participantes foram solicitados a avaliar suas posições dependendo de quão fortemente eles concordaram ou discordaram das propostas. Em seguida, eles foram instruídos a explicar, com o máximo de detalhes possível, os impactos da implementação de cada um. A maioria das pessoas neste ponto teve problemas. Solicitados mais uma vez a avaliar suas opiniões, eles reduziram a intensidade, de modo que concordaram ou discordaram de forma menos veemente.

Sloman e Fernbach veem neste resultado uma pequena vela para um mundo escuro. Se nós - ou nossos amigos ou os especialistas da CNN - gastássemos menos tempo pontificando e mais tentando trabalhar com as implicações das propostas de políticas, perceberíamos o quão sem noção somos e moderaríamos nossas opiniões. Isso, eles escrevem, "pode ​​ser a única forma de pensamento que vai quebrar a ilusão de profundidade explicativa e mudar as atitudes das pessoas."

Uma maneira de ver a ciência é como um sistema que corrige as inclinações naturais das pessoas. Em um laboratório bem administrado, não há espaço para viés misterioso; os resultados têm que ser reproduzíveis em outros laboratórios, por pesquisadores que não têm motivo para confirmá-los. E é por isso, pode-se argumentar, que o sistema se mostrou tão bem-sucedido. A qualquer momento, um campo pode ser dominado por disputas, mas, no final, a metodologia prevalece. A ciência avança, mesmo enquanto permanecemos presos no lugar.

Em "Negando ao túmulo: Por que ignoramos os fatos que nos salvarão" (Oxford), Jack Gorman, um psiquiatra, e sua filha, Sara Gorman, especialista em saúde pública, investigam a lacuna entre o que a ciência nos diz e o que dizemos a nós mesmos. Sua preocupação é com aquelas crenças persistentes que não são apenas comprovadamente falsas, mas também potencialmente mortais, como a convicção de que as vacinas são perigosas. Claro, o que é perigoso é não ser vacinado; é por isso que as vacinas foram criadas em primeiro lugar. “A imunização é um dos triunfos da medicina moderna”, nota Gormans. Mas não importa quantos estudos científicos concluam que as vacinas são seguras e que não há ligação entre imunizações e autismo, antivaxxers permanecem impassíveis. (Eles agora podem contar do seu lado - mais ou menos - Donald Trump, que disse que, embora ele e sua esposa tivessem seu filho, Barron, vacinado, eles se recusaram a fazê-lo no calendário recomendado pelos pediatras.)

Os Gormans também argumentam que formas de pensar que agora parecem autodestrutivas devem, em algum momento, ter sido adaptativas. E eles também dedicam muitas páginas ao viés de confirmação, que, afirmam, tem um componente fisiológico. Eles citam pesquisas que sugerem que as pessoas experimentam um prazer genuíno - uma onda de dopamina - ao processar informações que apóiam suas crenças. “É bom‘ seguir em frente ’, mesmo se estivermos errados”, observam eles.

Os Gormans não querem apenas catalogar as maneiras pelas quais erramos; eles querem corrigir para eles. Deve haver alguma maneira, eles sustentam, de convencer as pessoas de que as vacinas são boas para as crianças e as armas de fogo são perigosas. (Outra crença difundida, mas estatisticamente insuportável, que eles gostariam de desacreditar é que possuir uma arma o torna mais seguro.) Mas aqui eles encontram os próprios problemas que enumeraram. Fornecer às pessoas informações precisas não parece ajudar; eles simplesmente o descontam. Apelar para suas emoções pode funcionar melhor, mas fazer isso é obviamente contrário ao objetivo de promover uma ciência sólida. “O desafio que resta”, escrevem eles no final do livro, “é descobrir como lidar com as tendências que levam à falsa crença científica”.

“O enigma da razão”, “A ilusão do conhecimento” e “Negando ao túmulo” foram todos escritos antes das eleições de novembro. E ainda assim eles antecipam Kellyanne Conway e o surgimento de “fatos alternativos”. Hoje em dia, pode parecer que todo o país foi entregue a um vasto experimento psicológico conduzido por ninguém ou por Steve Bannon. Os agentes racionais seriam capazes de pensar em uma solução. Mas, sobre este assunto, a literatura não é animadora.

Escrito por