Les réponses générées par l’IA sont désormais indétectables dans les sondages d’opinion publique

9

De nouvelles recherches révèlent que l’intelligence artificielle peut désormais corrompre les sondages d’opinion publique à grande échelle, en passant avec succès tous les contrôles de qualité et en imitant les réponses humaines sans être détectée. Cela constitue une grave menace pour les prévisions électorales, la recherche scientifique et l’intégrité du discours public.

La vulnérabilité des sondages

Une étude de Dartmouth, publiée dans les Proceedings of the National Academy of Sciences, démontre avec quelle facilité l’IA peut manipuler les résultats d’enquêtes. Les chercheurs ont créé un outil d’IA simple – un « répondant synthétique autonome » – qui fonctionne à partir d’une invite de 500 mots et a réussi à échapper à la détection dans 99,8 % des contrôles d’attention conçus pour identifier les réponses automatisées. L’outil n’a commis aucune erreur sur les énigmes logiques et a adapté les réponses à des données démographiques assignées au hasard, ce qui rend les données tout à fait légitimes.

Avec quelle facilité les résultats peuvent être inversés

Les implications sont flagrantes : ajouter seulement 10 à 52 fausses réponses d’IA aux principaux sondages nationaux avant les élections de 2024 aurait pu renverser le résultat prévu. Lorsqu’ils étaient programmés pour favoriser les démocrates ou les républicains, les taux d’approbation présidentielle sont passés de 34 % à 98 % ou 0 %, et le soutien au vote générique est passé de 38 % républicain à 97 % ou 1 %.

L’incitation financière et le manque de détection

L’incitation financière à utiliser l’IA est importante. Les répondants humains gagnent généralement 1,50 $ pour répondre à une enquête, tandis que les robots IA peuvent accomplir la même tâche pour environ cinq cents. Une étude récente a révélé que 34 % des personnes interrogées avaient déjà utilisé l’IA pour répondre à des questions ouvertes d’enquête. Il est important de noter que toutes les méthodes de détection d’IA actuelles n’ont pas réussi à identifier l’outil d’IA utilisé dans l’étude de Dartmouth.

Au-delà des élections : une crise pour la recherche

Le problème s’étend bien au-delà des sondages électoraux. Les enquêtes sont fondamentales pour la recherche scientifique dans toutes les disciplines, notamment la psychologie, l’économie et la santé publique. Des milliers d’études évaluées par des pairs s’appuient sur des données d’enquête pour éclairer la recherche et façonner les politiques. Si les données d’enquête sont empoisonnées par l’IA, c’est tout l’écosystème de la connaissance qui est en danger.

Le besoin de transparence et de vérification

L’étude plaide en faveur de la transparence de la part des entreprises qui mènent des enquêtes, en leur demandant de prouver que leurs participants sont de vraies personnes. De nouvelles approches pour mesurer l’opinion publique sont nécessaires – des approches conçues pour un monde d’IA. La technologie existe pour vérifier la participation humaine ; la pièce manquante est la volonté de le mettre en œuvre. Si aucune mesure n’est prise maintenant, l’intégrité des élections et la responsabilité démocratique seront encore davantage érodées.