Estudo revela que IA se passa por gente e muda pesquisas de opinião pública
Inteligência artificial já alcançou nível de sofisticação capaz de simular pessoas e manipular resultados, passando ilesa pelos sistemas anti-robô
Um estudo da Universidade de Dartmouthacendeu um alerta sobre a integridade de pesquisas de opinião e sondagens eleitorais. Publicada nos Anais da Academia Nacional de Ciências dos Estados Unidos, a Proceedings of the National Academy of Sciences (PNAS), a pesquisa afirma que a inteligência artificial já alcançou um nível de sofisticação capaz de simular pessoas reais e manipular resultados, passando ilesa pelos sistemas de verificação.
O cientista político Sean Westwood, professor associado em Dartmouth, desenvolveu um novo tipo de “respondente sintético” construído com modelos avançados de linguagem. O desempenho do sistema surpreendeu até os pesquisadores: em mais de 43 mil rodadas de testes, praticamente todos os mecanismos usados para identificar robôs classificaram o agente como um participante humano, a taxa de acerto da fraude chegou a 99,8%.
“Estes não são bots rudimentares”, disse Westwood ao jornal EuroNews. “Eles pensam em cada pergunta e agem como pessoas reais e cuidadosas, fazendo com que os dados pareçam completamente legítimos”.
Para parecer humano, o modelo imita sinais mínimos do dia a dia digital, entre eles:
- Ritmo de leitura e resposta calibrado conforme o suposto nível educacional do personagem criado;
- Movimentos de cursor que lembram os de uma pessoa usando o mouse;
- Digitação simulada, tecla por tecla, incluindo deslizes intencionais corrigidos logo depois;
- Desempenho impecável em desafios, como testes lógicos e ferramentas de verificação automática, incluindo o reCAPTCHA.
O sistema criado por Westwood não se limita a montar respostas coerentes. A partir de um conjunto de instruções de cerca de 500 palavras, a IA formula uma identidade completa, definindo elementos como faixa etária, gênero, formação, nível de renda e até local de residência. Essa persona orienta todo o comportamento posterior do bot.
O estudo alerta que a capacidade de manipulação é ampla, e barata. Westwood calculou que algumas dezenas de respostas falsas seriam suficientes para alterar o resultado das principais pesquisas eleitorais dos Estados Unidos antes da disputa de 2024. Cada resposta gerada por IA custa poucos centavos, uma fração do valor pago a participantes humanos. O trabalho também mostrou que o bot produz textos de alta qualidade em inglês mesmo quando configurado para operar em outros idiomas, como mandarim ou russo. Isso, segundo o autor, abre espaço para interferências de atores estrangeiros na opinião pública de outros países.
A ameaça não se restringe ao campo político. Pesquisas acadêmicas que dependem de questionários digitais também correm risco, já que é cada vez mais difícil distinguir entre humanos e agentes artificiais. Westwood resume a preocupação: “Se não conseguimos garantir a origem humana das respostas, todo o corpo de evidências pode ser comprometido”. Apesar do cenário preocupante, o pesquisador afirma que mecanismos de verificação mais robustos já estão disponíveis, o que falta, diz ele, é compromisso institucional e governamental para adotá-los.
“Se agirmos agora, podemos preservar tanto a integridade da votação quanto a responsabilidade democrática que ela proporciona”, afirmou o pesquisador. “Com dados de pesquisa contaminados por bots, a IA pode envenenar todo o ecossistema de conhecimento”




