Estudo revela que IA se passa por gente e muda pesquisas de opinião pública

Inteligência artificial já alcançou nível de sofisticação capaz de simular pessoas e manipular resultados, passando ilesa pelos sistemas anti-robô

Um estudo da Universidade de Dartmouthacendeu um alerta sobre a integridade de pesquisas de opinião e sondagens eleitorais. Publicada nos Anais da Academia Nacional de Ciências dos Estados Unidos, a Proceedings of the National Academy of Sciences (PNAS), a pesquisa afirma que a inteligência artificial já alcançou um nível de sofisticação capaz de simular pessoas reais e manipular resultados, passando ilesa pelos sistemas de verificação.

O cientista político Sean Westwood, professor associado em Dartmouth, desenvolveu um novo tipo de “respondente sintético” construído com modelos avançados de linguagem. O desempenho do sistema surpreendeu até os pesquisadores: em mais de 43 mil rodadas de testes, praticamente todos os mecanismos usados para identificar robôs classificaram o agente como um participante humano, a taxa de acerto da fraude chegou a 99,8%.

“Estes não são bots rudimentares”, disse Westwood ao jornal EuroNews. “Eles pensam em cada pergunta e agem como pessoas reais e cuidadosas, fazendo com que os dados pareçam completamente legítimos”.

Para parecer humano, o modelo imita sinais mínimos do dia a dia digital, entre eles:

  • Ritmo de leitura e resposta calibrado conforme o suposto nível educacional do personagem criado;
  • Movimentos de cursor que lembram os de uma pessoa usando o mouse;
  • Digitação simulada, tecla por tecla, incluindo deslizes intencionais corrigidos logo depois;
  • Desempenho impecável em desafios, como testes lógicos e ferramentas de verificação automática, incluindo o reCAPTCHA.

O sistema criado por Westwood não se limita a montar respostas coerentes. A partir de um conjunto de instruções de cerca de 500 palavras, a IA formula uma identidade completa, definindo elementos como faixa etária, gênero, formação, nível de renda e até local de residência. Essa persona orienta todo o comportamento posterior do bot.

O estudo alerta que a capacidade de manipulação é ampla, e barata. Westwood calculou que algumas dezenas de respostas falsas seriam suficientes para alterar o resultado das principais pesquisas eleitorais dos Estados Unidos antes da disputa de 2024. Cada resposta gerada por IA custa poucos centavos, uma fração do valor pago a participantes humanos. O trabalho também mostrou que o bot produz textos de alta qualidade em inglês mesmo quando configurado para operar em outros idiomas, como mandarim ou russo. Isso, segundo o autor, abre espaço para interferências de atores estrangeiros na opinião pública de outros países.

A ameaça não se restringe ao campo político. Pesquisas acadêmicas que dependem de questionários digitais também correm risco, já que é cada vez mais difícil distinguir entre humanos e agentes artificiais. Westwood resume a preocupação: “Se não conseguimos garantir a origem humana das respostas, todo o corpo de evidências pode ser comprometido”. Apesar do cenário preocupante, o pesquisador afirma que mecanismos de verificação mais robustos já estão disponíveis, o que falta, diz ele, é compromisso institucional e governamental para adotá-los.

“Se agirmos agora, podemos preservar tanto a integridade da votação quanto a responsabilidade democrática que ela proporciona”, afirmou o pesquisador. “Com dados de pesquisa contaminados por bots, a IA pode envenenar todo o ecossistema de conhecimento”

Fonte
Revista Fórum

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo
666filmizle.xyz