Uma nova investigação revela que a inteligência artificial pode agora corromper as sondagens de opinião pública em grande escala, passando em todas as verificações de qualidade e imitando as respostas humanas sem ser detetada. Isto representa uma grave ameaça às previsões eleitorais, à investigação científica e à integridade do discurso público.
A vulnerabilidade das pesquisas
Um estudo de Dartmouth, publicado no Proceedings of the National Academy of Sciences, demonstra como a IA pode facilmente manipular os resultados de pesquisas. Os pesquisadores criaram uma ferramenta simples de IA – um “respondente sintético autônomo” – que opera a partir de um prompt de 500 palavras e evitou a detecção com sucesso em 99,8% das verificações de atenção projetadas para identificar respostas automatizadas. A ferramenta não cometeu nenhum erro em quebra-cabeças lógicos e adaptou respostas a dados demográficos atribuídos aleatoriamente, fazendo com que os dados parecessem totalmente legítimos.
Como é fácil inverter os resultados
As implicações são gritantes: adicionar apenas 10 a 52 respostas falsas de IA às principais sondagens nacionais antes das eleições de 2024 poderia ter invertido o resultado previsto. Quando programados para favorecer democratas ou republicanos, os índices de aprovação presidencial oscilaram de 34% para 98% ou 0%, e o apoio eleitoral genérico passou de 38% republicanos para 97% ou 1%.
O incentivo financeiro e a falta de detecção
O incentivo financeiro para usar IA é significativo. Os entrevistados humanos normalmente ganham US$ 1,50 por responder uma pesquisa, enquanto os bots de IA podem concluir a mesma tarefa por aproximadamente cinco centavos. Um estudo recente descobriu que 34% dos entrevistados já usaram IA para responder a perguntas abertas de pesquisas. Criticamente, todos os métodos atuais de detecção de IA não conseguiram identificar a ferramenta de IA usada no estudo de Dartmouth.
Além das eleições: uma crise para a pesquisa
O problema vai muito além das pesquisas eleitorais. As pesquisas são fundamentais para a pesquisa científica em todas as disciplinas, incluindo psicologia, economia e saúde pública. Milhares de estudos revistos por pares baseiam-se em dados de inquéritos para informar a investigação e moldar políticas. Se os dados dos inquéritos forem envenenados pela IA, todo o ecossistema do conhecimento estará em risco.
A necessidade de transparência e verificação
O estudo defende a transparência das empresas que realizam pesquisas, exigindo-lhes que provem que os seus participantes são pessoas reais. São necessárias novas abordagens para medir a opinião pública – abordagens concebidas para um mundo de IA. A tecnologia existe para verificar a participação humana; a peça crítica que falta é a vontade de implementá-la. Se não forem tomadas medidas agora, a integridade das eleições e a responsabilização democrática sofrerão ainda mais erosão
































