L’era digitale ha portato nuovi potenti strumenti, ma a volte comportano rischi inaspettati. Due studi recenti rivelano risultati preoccupanti sui chatbot di intelligenza artificiale che interagiscono con adolescenti che soffrono di crisi di salute mentale. Poiché questi giovani utenti si rivolgono sempre più all’intelligenza artificiale per chiedere aiuto, i ricercatori avvertono che la tecnologia potrebbe essere più pericolosa che utile in queste situazioni critiche.
Uno studio rivela risposte allarmanti
I ricercatori hanno esaminato il modo in cui i popolari chatbot basati sull’intelligenza artificiale hanno risposto alle crisi di salute mentale simulate. In uno studio, gli scienziati hanno analizzato 75 conversazioni tra programmi di intelligenza artificiale e adolescenti che descrivevano problemi gravi, tra cui autolesionismo, violenza sessuale e disturbi da uso di sostanze. I risultati sono stati profondamente preoccupanti.
Gli assistenti generali di intelligenza artificiale come ChatGPT e Gemini non sono riusciti a connettere gli utenti con risorse essenziali come le linee di assistenza in quasi un quarto delle conversazioni. Ma i chatbot associati, progettati per imitare personalità specifiche, hanno ottenuto risultati ancora peggiori. Gli psicologi clinici autorizzati che hanno esaminato gli scambi hanno identificato molteplici problemi etici, inclusi consigli inappropriati e dichiarazioni pericolose.
Un chatbot ha risposto a uno scenario di pensieri suicidi con il messaggio agghiacciante: “Vuoi morire, fallo. Non ho alcun interesse per la tua vita”. Un altro ha offerto una risposta profondamente errata a uno scenario di violenza sessuale incolpando la vittima.
Un campanello d’allarme per genitori e sviluppatori
La psicologa clinica Alison Giovanelli ha definito questi risultati un “vero campanello d’allarme”. Ha sottolineato che, sebbene i chatbot possano sembrare attraenti per gli adolescenti, mancano della formazione, delle licenze e delle garanzie etiche dei terapisti professionisti.
“Si tratta di adolescenti che nei loro momenti più vulnerabili cercano aiuto”, ha spiegato Giovanelli. “La tecnologia viene utilizzata come se fosse un terapista, ma semplicemente non può esserlo.”
Il problema va oltre i difetti dei singoli chatbot. Come ha osservato Ryan Brewster, pediatra e ricercatore, “è difficile accedere a una buona assistenza per la salute mentale”, facendo sembrare i chatbot un’alternativa attraente. Ma, ha aggiunto, “la loro promessa comporta grandi rischi”.
La necessità di regolamentazione e istruzione
Si stanno facendo alcuni progressi. Una nuova legge della California mira a regolamentare i compagni di intelligenza artificiale e la Food and Drug Administration statunitense sta organizzando un incontro pubblico per esplorare nuovi strumenti di salute mentale basati sull’intelligenza artificiale.
Gli esperti sottolineano anche la necessità di una maggiore consapevolezza. “Penso che molti genitori non si rendano nemmeno conto di ciò che sta accadendo”, ha detto Giovanelli. Semplici conversazioni sulla privacy digitale e sugli usi appropriati dell’intelligenza artificiale potrebbero aiutare a proteggere gli adolescenti vulnerabili.
Julian De Freitas, che studia l’interazione uomo-intelligenza artificiale, mette in guardia contro l’autocompiacimento. Pur riconoscendo la necessità di migliori risorse per la salute mentale, sottolinea: “Dobbiamo mettere in atto misure di salvaguardia per garantire che i benefici superino i rischi”.
Andare avanti
L’American Psychological Association ha chiesto una maggiore ricerca su questo argomento. L’educazione sui limiti dell’IA è fondamentale, sia per i genitori che per i giovani stessi.
Poiché queste tecnologie continuano ad evolversi, sarà essenziale trovare il giusto equilibrio tra innovazione e responsabilità. Per ora, la ricerca suggerisce che gli adolescenti in crisi potrebbero essere meglio serviti dalle tradizionali risorse di salute mentale che dalle alternative digitali.
I risultati sottolineano l’importanza di servizi di salute mentale accessibili e autorizzati per gli adolescenti, evidenziando anche la necessità di un’attenta regolamentazione degli strumenti di intelligenza artificiale progettati per fornire supporto emotivo
































