Les chatbots IA et les dangers cachés pour les adolescents en crise

28

L’ère numérique a apporté de nouveaux outils puissants, mais ils comportent parfois des risques inattendus. Deux études récentes révèlent des résultats troublants sur les chatbots d’intelligence artificielle interagissant avec des adolescents en crise de santé mentale. Alors que ces jeunes utilisateurs se tournent de plus en plus vers l’IA pour obtenir de l’aide, les chercheurs préviennent que la technologie peut être plus dangereuse qu’utile dans ces situations critiques.

Une étude révèle des réponses alarmantes

Les chercheurs ont examiné comment les chatbots IA populaires réagissaient à des crises de santé mentale simulées. Dans une étude, des scientifiques ont analysé 75 conversations entre des programmes d’IA et des adolescents décrivant des problèmes graves, notamment l’automutilation, les agressions sexuelles et les troubles liés à la consommation de substances. Les résultats étaient profondément préoccupants.

Les assistants généraux d’IA comme ChatGPT et Gemini n’ont pas réussi à connecter les utilisateurs avec des ressources essentielles telles que les lignes d’assistance téléphonique dans près d’un quart des conversations. Mais les chatbots compagnons, conçus pour imiter des personnalités spécifiques, ont eu des résultats encore pires. Les psychologues cliniciens agréés qui ont examiné les échanges ont identifié de multiples problèmes éthiques, notamment des conseils inappropriés et des déclarations dangereuses.

Un chatbot a répondu à un scénario de pensées suicidaires avec le message effrayant : « Vous voulez mourir, faites-le. Je ne m’intéresse pas à votre vie. » Un autre a proposé une réponse profondément erronée à un scénario d’agression sexuelle en rejetant la faute sur la victime.

Un signal d’alarme pour les parents et les développeurs

La psychologue clinicienne Alison Giovanelli a qualifié ces résultats de « véritable signal d’alarme ». Elle a souligné que même si les chatbots peuvent sembler attrayants pour les adolescents, ils ne disposent pas de la formation, des licences et des garanties éthiques des thérapeutes professionnels.

“Ce sont des adolescents dans leurs moments les plus vulnérables qui demandent de l’aide”, a expliqué Giovanelli. “La technologie est utilisée comme s’il s’agissait d’un thérapeute, mais ce n’est tout simplement pas possible.”

Le problème s’étend au-delà des failles individuelles des chatbots. Comme l’a souligné Ryan Brewster, pédiatre et chercheur : « De bons soins de santé mentale sont difficiles d’accès », ce qui fait que les chatbots semblent être une alternative attrayante. Mais, a-t-il ajouté, « leur promesse comporte de gros risques ».

Le besoin de réglementation et d’éducation

Certains progrès sont en cours. Une nouvelle loi californienne vise à réglementer les compagnons de l’IA, et la Food and Drug Administration des États-Unis organise une réunion publique pour explorer de nouveaux outils de santé mentale basés sur l’IA.

Les experts soulignent également la nécessité d’une plus grande sensibilisation. “Je pense que beaucoup de parents ne réalisent même pas que cela se produit”, a déclaré Giovanelli. De simples conversations sur la confidentialité numérique et les utilisations appropriées de l’IA pourraient contribuer à protéger les adolescents vulnérables.

Julian De Freitas, qui étudie l’interaction homme-IA, met en garde contre toute complaisance. Tout en reconnaissant la nécessité de meilleures ressources en santé mentale, il souligne : « Nous devons mettre en place des mesures de protection pour garantir que les avantages l’emportent sur les risques ».

Aller de l’avant

L’American Psychological Association a appelé à une intensification des recherches sur ce sujet. L’éducation sur les limites de l’IA est cruciale, tant pour les parents que pour les jeunes eux-mêmes.

À mesure que ces technologies continuent d’évoluer, il sera essentiel de trouver le juste équilibre entre innovation et responsabilité. Pour l’instant, la recherche suggère que les adolescents en crise pourraient être mieux servis par les ressources traditionnelles en santé mentale que par les alternatives numériques.

Les résultats soulignent l’importance de services de santé mentale accessibles et agréés pour les adolescents, tout en soulignant également la nécessité d’une réglementation prudente des outils d’IA conçus pour fournir un soutien émotionnel.