Temas
Compartilhe
No dia 2 de outubro, o Brasil foi votar no primeiro turno com a matemática na cabeça. As pesquisas eleitorais mostravam o ex-presidente Luiz Inácio Lula da Silva no limite de ganhar a eleição. O Datafolha marcava exatos 50% de votos válidos para o petista , contra 36% do presidente Jair Bolsonaro. Já o Ipec, descendente do tradicional Ibope, apostava em 51 a 37% . A palavra de ordem da esquerda brasileira era caçar o voto útil e decidir a eleição antes do segundo turno.
O que se viu nas urnas, no entanto, foi um resultado bem diferente. Ainda que Lula tenha se segurado na margem de erro, com 48,4% dos votos válidos, Bolsonaro mostrou um crescimento completamente imprevisto e chegou a 43,2%. O mesmo ocorreria com seus apoiadores nos estados: em São Paulo, Tarcísio de Freitas iria de 31% no Datafolha do dia anterior para 42% nas urnas, enquanto no Rio de Janeiro Cláudio Castro saltaria de 44 para 57%. Já a eleição para o Senado veria bolsonaristas como Marcos Pontes, Hamilton Mourão e Sergio Moro ultrapassando com folga candidatos mais bem cotados nas pesquisas.
A reação imediata nas redes sociais – e fora delas – foi de que algo evidentemente estava errado. Ainda assim, no dia seguinte os institutos de pesquisa viriam a público dizer que não havia erro algum. A diretora do Datafolha, Luciana Chong , atribuiria o resultado a mudanças de intenção de última hora, mesma explicação dada por uma nota do Ipec à imprensa . Já Felipe Nunes, da Quaest Consultoria , destacaria que os levantamentos não eram um prognóstico das urnas, e sim “um diagnóstico da sociedade nos dias anteriores”.
Antes de ir adiante, devo dizer que não sou cientista político e, apesar de dominar conceitos básicos de estatística, não entendo lhufas de como fazer uma pesquisa eleitoral. Ainda assim, a história me parece uma parábola boa demais sobre filosofia e comunicação pública da ciência pra não tocar no assunto.
A matemática das pesquisas eleitorais baseia-se em alguns pressupostos simples. A lei dos grandes números diz que amostras aleatórias de uma população se aproximarão cada vez mais da mesma à medida que seu tamanho aumenta. Com isso, cerca de 2.400 eleitores são suficientes para estimar uma porcentagem com um intervalo de confiança de 95% – a famosa “margem de erro” – de cerca de 2%. Isto significa que, se a amostragem da pesquisa for representativa da população votante, em 95% das vezes o resultado das urnas ficará até 2% acima ou abaixo do previsto por pesquisas com esse número de indivíduos.
Entre teoria e prática, porém, existe um oceano. A matemática acima, afinal, vale para uma amostra perfeitamente representativa da população – o equivalente a sortear aleatoriamente 2.400 dos 156 milhões de eleitores do Brasil, entrevistar essas pessoas e ter 100% de certeza de que elas irão votar em quem prometeram. Na prática, é claro que uma infinidade de coisas pode dar errado, o que faz com que a margem de erro real de uma pesquisa acabe sendo muito maior – e impossível de calcular com base na matemática.
Negar erros nas pesquisas eleitorais não é apenas arrogante, mas contraproducente: é justamente estudá-los que permite que teorias e métodos sejam aprimorados
Como fazer uma amostragem realmente aleatória é inviável, institutos de pesquisa fazem o melhor que podem para escolher uma amostra representativa que se aproxime do perfil da população votante: em termos de idade, renda e região, por exemplo. Ainda assim, o esforço pode ignorar variáveis importantes, ou ser desviado por falta de um censo atualizado . Eleitores potenciais de um ou outro candidato podem ter taxas de abstenção diferentes , o que faz com que a amostra entrevistada não reflita a população que vai às urnas. Os entrevistados podem mentir ou se recusar a responder . E é claro, sempre pode haver mudanças de última hora nas intenções de votos.
Numa tentativa de esclarecer seus leitores, a Folha de S. Paulo faria na semana seguinte um guia de “ como ler uma pesquisa eleitoral ”. Ausentes do guia, porém, estavam todas as possibilidades de erro acima – exceto a última, que é claramente aventada pela afirmação de que “levantamentos são um retrato do momento, e não uma tentativa de acertar os resultados das eleições”. Por conta disso, o guia vai um passo além e chega a afirmar que pesquisas não “erram” ou “acertam”.
A afirmação é reconfortante para os institutos de pesquisa – que afinal não podem ser acusados de erro, já que não pretendem acertar o resultado das eleições. Na prática, porém, ela é completamente descolada da realidade. É óbvio que quem encomenda uma pesquisa um dia antes das eleições o faz para tentar antecipar o que acontecerá nas urnas. E mesmo que o objetivo fosse estimar as intenções de voto do dia anterior, uma pesquisa mal feita ainda assim pode errar essa conta. A única diferença é que, na ausência das urnas, ninguém tem como prová-lo.
Há praticamente um século, o filósofo Karl Popper colocava a falseabilidade – a capacidade de gerar previsões que possam ser refutadas – como um pressuposto básico da atividade científica. Nessa visão, dizer que uma pesquisa de opinião “não acerta ou erra” equivale a enquadrar a prática como não-científica.
Já Thomas Kuhn, outro filósofo célebre, dizia que a ciência evolui a partir da acumulação de anomalias – erros consistentes de previsão de um paradigma que levam a sua substituição por um novo. Da mesma forma, tanto algoritmos como o cérebro humano devem boa parte de sua capacidade de aprendizado à possibilidade de comparar seus modelos com uma referência a fim de refiná-los para minimizar o erro de predição.
Com isso, negar erros nas previsões não é apenas arrogante, mas contraproducente: é justamente estudá-los que permite que teorias e métodos sejam aprimorados. Esconder-se atrás do bordão de que “pesquisas não acertam nem erram”, por outro lado, é optar pela irrelevância. Ainda fazendo alusão à filosofia da ciência, cientistas que são sempre capazes de encontrar uma explicação para previsões erradas sem ter de rever suas teorias dão origem ao o que Imre Lakatos chama de um “ programa de pesquisa degenerado ”, em que o conhecimento deixa de evoluir.
Cabe mencionar, aliás, que no caso das pesquisas eleitorais as anomalias já se acumulam há algum tempo – não só no Brasil como fora dele, e mais notoriamente errando à esquerda, ainda que esse viés seja objeto de discussão , com erros também no sentido contrário . O fenômeno vem sendo particularmente discutido nos Estados Unidos após a subestimação da votação de Donald Trump em duas eleições consecutivas. Um documento da American Polling Association coloca como explicação mais provável o fato de uma franja dos eleitores republicanos ter deixado de responder pesquisas por desconfiarem das mesmas – o que leva a uma inevitável distorção da amostra em relação à população votante.
O mesmo está se passando no Brasil? Não tenho expertise suficiente para comentar – e pessoas mais tarimbadas do que eu têm aventado diversas causas para o fenômeno . Dito isso, não consigo deixar de pensar que o erro é a parte mais interessante das pesquisas, e que investigá-lo a fundo pode levar a metodologias para corrigi-lo indo além da amostragem tradicional – ou mesmo mudando radicalmente os métodos.
Para que isso ocorra, porém, é preciso assumir o erro. Atribui-lo todo a movimentações de última hora, ainda que não seja absurdo, parece pouco plausível em um cenário de notável estabilidade ao longo da campanha eleitoral. O princípio da parcimônia – epitomizado pela navalha de Ockham – diz que entre as várias teorias que podem explicar um fenômeno, a mais simples costuma ser a mais provável. E entre problemas de amostragem nas pesquisas e um fenômeno misterioso de conversão bolsonarista que só atua 24 horas antes das eleições, eu claramente fico com a primeira hipótese.
É claro que não acredito que diretores de institutos de pesquisa realmente não achem que suas pesquisas acertam ou erram – ou que não passaram o último mês inteiro perdendo o sono por isso. Mas se esse é obviamente o caso, por que não ser transparente sobre as dificuldades? Não parece tão difícil vir a público dizer “erramos, e estamos tentando entender por quê”. E minha impressão é que falar abertamente do quanto pesquisas eleitorais são difíceis de fazer – e o quanto a margem de erro estatística não é esperada na vida real – seria muito mais eficiente em preservar a confiança do público do que insistir – como jornalistas também têm feito em alguns momentos – que as pesquisas acertaram.
Mais do que isso, explicar as dificuldades ajudaria a dirimir imbecilidades como a proibição de pesquisas eleitorais ou a criminalização do erro em relação às urnas , que têm sido propostas pela base bolsonarista. O Projeto de Lei 2567/22 , do deputado Ricardo Barros, prevê a punição dos responsáveis por pesquisas eleitorais cujos resultados se afastem dos das urnas além da margem de erro. A proposta é obviamente absurda – mas se os próprios institutos são incapazes de explicar ao público que a margem de erro é uma utopia estatística, parece difícil culpar quem a apoie. Se as pesquisas não erram, afinal, a divergência só pode ser explicada pela conspiração.
Mas por mais que a discussão honesta do erro pareça a alternativa óbvia, sua ausência é um sintoma de algo que vai além das pesquisas eleitorais. Para um empreendimento que progride a partir do erro, a ciência como um todo é notoriamente ruim em admiti-lo. Pesquisas mostram que pesquisadores frequentemente perdem a confiança em seus achados , mas que isso raramente é tornado público. Por conta disso, o número de retratações – artigos científicos que são retirados da literatura – também é ínfimo em relação ao que é publicado , o que torna a ideia de que a ciência se autocorrige uma espécie de ficção – pelo menos no curto prazo.
Ainda assim, é inegável que numa escala de décadas ou séculos, o conhecimento acaba evoluindo – se não porque cientistas reconhecem seus erros, pelo menos porque eles são substituídos por aqueles que os enxergam. Como dizia Max Planck, a ciência avança de funeral em funeral . O que no caso das pesquisas eleitorais, talvez equivalha à falência de um instituto por vez, para dar lugar àqueles que sejam mais capazes de se corrigir.
Um mês, porém, é pouco pra isso. E no segundo turno, os institutos tradicionais novamente subestimaram o bolsonarismo . É verdade que os erros foram menores; dito isso, pesquisas tendem a errar menos no segundo turno , já que os resultados do primeiro ajudam a nortear a amostragem. Não vi declarações de institutos de pesquisa dessa vez, até porque o país está mais preocupado com outras coisas. Mas ao invés da ladainha de “não acertamos ou erramos”, cairia melhor um resumo mais simples e sincero. Algo do tipo “foi mal, erramos, mas nosso trabalho é difícil pra burro”.
Olavo Amaralé médico, escritor e professor da UFRJ. Foi neurocientista por duas décadas e hoje se dedica à promoção de uma ciência mais aberta e reprodutível. Coordena a Iniciativa Brasileira de Reprodutibilidade, uma replicação multicêntrica de experimentos da ciência biomédica brasileira, e o No-Budget Science, um coletivo para catalisar projetos dedicados a construir uma ciência melhor. Como escritor, é autor de Dicionário de Línguas Imaginárias e Correnteza e Escombros
Os artigos publicados pelos colunistas são de responsabilidade exclusiva de seus autores e não representam as ideias ou opiniões do Nexo.
Navegue por temas