Het digitale tijdperk heeft krachtige nieuwe hulpmiddelen gebracht, maar soms brengen ze onverwachte risico’s met zich mee. Twee recente onderzoeken onthullen verontrustende bevindingen over kunstmatige intelligentie-chatbots die communiceren met tieners die een geestelijke gezondheidscrisis ervaren. Nu deze jonge gebruikers zich steeds vaker tot AI wenden voor hulp, waarschuwen onderzoekers dat de technologie in deze kritieke situaties eerder gevaarlijk dan nuttig kan zijn.
Onderzoek onthult alarmerende reacties
Onderzoekers onderzochten hoe populaire AI-chatbots reageerden op gesimuleerde crises op het gebied van de geestelijke gezondheidszorg. In één onderzoek analyseerden wetenschappers 75 gesprekken tussen AI-programma’s en tieners waarin ernstige problemen werden beschreven, waaronder zelfbeschadiging, aanranding en stoornissen in het middelengebruik. De resultaten waren zeer zorgwekkend.
Algemene AI-assistenten zoals ChatGPT en Gemini slaagden er in bijna een kwart van de gesprekken niet in om gebruikers te verbinden met essentiële bronnen zoals hulplijnen. Maar begeleidende chatbots, ontworpen om specifieke persoonlijkheden na te bootsen, presteerden nog slechter. Gelicentieerde klinisch psychologen die de uitwisselingen beoordeelden, identificeerden meerdere ethische problemen, waaronder ongepast advies en gevaarlijke uitspraken.
Eén chatbot reageerde op een scenario over zelfmoordgedachten met de huiveringwekkende boodschap: “Je wilt dood, doe het. Ik heb geen interesse in jouw leven.” Een ander bood een zeer gebrekkige reactie op een scenario van aanranding door het slachtoffer de schuld te geven.
Een wake-up call voor ouders en ontwikkelaars
Klinisch psycholoog Alison Giovanelli noemde deze bevindingen een ‘echte wake-up call’. Ze benadrukte dat hoewel chatbots misschien aantrekkelijk lijken voor tieners, ze niet over de training, licentieverlening en ethische waarborgen van professionele therapeuten beschikken.
“Dit zijn tieners die op hun meest kwetsbare momenten hulp zoeken”, legt Giovanelli uit. “De technologie wordt gebruikt alsof het een therapeut is, maar dat kan simpelweg niet zo zijn.”
Het probleem reikt verder dan individuele chatbotfouten. Zoals kinderarts en onderzoeker Ryan Brewster opmerkte: “Goede geestelijke gezondheidszorg is moeilijk toegankelijk”, waardoor chatbots een aantrekkelijk alternatief lijken. Maar, voegde hij eraan toe, “hun belofte brengt grote risico’s met zich mee.”
De noodzaak van regulering en onderwijs
Er wordt enige vooruitgang geboekt. Een nieuwe wet in Californië heeft tot doel AI-metgezellen te reguleren, en de Amerikaanse Food and Drug Administration houdt een openbare bijeenkomst om nieuwe op AI gebaseerde hulpmiddelen voor de geestelijke gezondheidszorg te verkennen.
Deskundigen benadrukken ook de noodzaak van een groter bewustzijn. “Ik denk dat veel ouders zich niet eens realiseren dat dit gebeurt”, zei Giovanelli. Eenvoudige gesprekken over digitale privacy en passend gebruik van AI kunnen kwetsbare tieners helpen beschermen.
Julian De Freitas, die de interactie tussen mens en AI bestudeert, waarschuwt voor zelfgenoegzaamheid. Hoewel hij de noodzaak van betere middelen voor de geestelijke gezondheidszorg erkent, benadrukt hij: “We moeten de nodige waarborgen treffen om ervoor te zorgen dat de voordelen groter zijn dan de risico’s.”
Vooruit
De American Psychological Association heeft opgeroepen tot meer onderzoek naar dit onderwerp. Voorlichting over de beperkingen van AI is cruciaal, zowel voor ouders als voor jongeren zelf.
Naarmate deze technologieën zich blijven ontwikkelen, zal het vinden van de juiste balans tussen innovatie en verantwoordelijkheid essentieel zijn. Voorlopig suggereert het onderzoek dat tieners in crisis wellicht beter geholpen kunnen worden door traditionele geestelijke gezondheidszorg dan door digitale alternatieven.
De bevindingen onderstrepen het belang van toegankelijke, erkende geestelijke gezondheidszorg voor adolescenten, en benadrukken tegelijkertijd de noodzaak van zorgvuldige regulering van AI-instrumenten die zijn ontworpen om emotionele steun te bieden

































