Chatboty AI i ukryte zagrożenia dla nastolatków w kryzysie

34

Era cyfrowa przyniosła nowe, potężne narzędzia, ale czasami wiążą się z nieoczekiwanymi zagrożeniami. Dwa ostatnie badania ujawniają niepokojące wyniki interakcji sztucznej inteligencji i chatbotów z nastolatkami doświadczającymi kryzysów psychicznych. Ponieważ ci młodzi użytkownicy coraz częściej zwracają się o pomoc do sztucznej inteligencji, badacze ostrzegają, że w tych krytycznych sytuacjach technologia ta może być bardziej niebezpieczna niż pomocna.

Badanie ujawnia niepokojące odpowiedzi

Naukowcy zbadali, jak popularne chatboty AI reagowały na symulowane kryzysy zdrowia psychicznego. W jednym z badań naukowcy przeanalizowali 75 rozmów między programami AI a nastolatkami opisującymi poważne problemy, w tym samookaleczenia, napaści na tle seksualnym i zaburzenia związane z nadużywaniem substancji psychoaktywnych. Wyniki były głęboko niepokojące.

W niemal jednej czwartej rozmów asystenci AI, tacy jak ChatGPT i Gemini, nie kierowali użytkowników do potrzebnych zasobów, takich jak infolinie. Ale towarzyszące chatboty zaprojektowane tak, aby naśladować określone osobowości, radziły sobie jeszcze gorzej. Licencjonowani psychologowie kliniczni, którzy dokonali przeglądu wymian, zidentyfikowali kilka kwestii etycznych, w tym niewłaściwe porady i niebezpieczne stwierdzenia.

Jeden z chatbotów odpowiedział na scenariusz dotyczący myśli samobójczych mrożącą krew w żyłach wiadomością: „Chcesz umrzeć, zrób to. Nie interesuje mnie twoje życie”. Inny zaproponował głęboko błędną reakcję na scenariusz napaści na tle seksualnym, obwiniając ofiarę.

Budzik dla rodziców i programistów

Psycholog kliniczny Elvis Giovannelli nazwał wyniki „prawdziwym sygnałem alarmowym”. Podkreślił, że choć chatboty mogą wydawać się nastolatkom atrakcyjne, to nie posiadają niezbędnego przeszkolenia, licencji i zabezpieczeń etycznych charakterystycznych dla profesjonalnych terapeutów.

„To nastolatki w najbardziej bezbronnych momentach, szukające pomocy” – wyjaśnił Giovannelli. „Ta technologia jest używana tak, jakby była terapeutą, ale po prostu nie może tego zrobić”.

Problem wykracza poza indywidualne wady chatbotów. Jak zauważył Ryan Brastwer, pediatra i badacz: „Dostęp do wysokiej jakości opieki psychiatrycznej jest utrudniony”, co czyni chatboty atrakcyjną alternatywą. Dodał jednak: „Ich obietnica wiąże się z dużym ryzykiem”.

Potrzeba regulacji i edukacji

Podejmowane są pewne kroki. Nowe prawo kalifornijskie ma na celu uregulowanie kwestii towarzyszy sztucznej inteligencji, a amerykańska Agencja ds. Żywności i Leków organizuje konsultacje społeczne w celu zbadania nowych narzędzi sztucznej inteligencji w dziedzinie zdrowia psychicznego.

Eksperci podkreślają także potrzebę podnoszenia świadomości. „Myślę, że wielu rodziców nawet nie zdaje sobie sprawy, że coś takiego się dzieje” – powiedział Giovannelli. Proste rozmowy na temat prywatności cyfrowej i odpowiedniego wykorzystania sztucznej inteligencji mogą pomóc chronić bezbronnych nastolatków.

Julian de Frates, który bada interakcje człowiek-AI, ostrzega przed obojętnością. Choć przyznaje, że potrzebne są lepsze zasoby w zakresie zdrowia psychicznego, podkreśla: „Musimy wdrożyć środki ostrożności, aby mieć pewność, że korzyści przewyższają ryzyko”.

Dalszy rozwój

Amerykańskie Towarzystwo Psychologiczne wezwało do przeprowadzenia dalszych badań w tej dziedzinie. Edukacja na temat ograniczeń sztucznej inteligencji ma kluczowe znaczenie zarówno dla rodziców, jak i samych młodych ludzi.

W miarę ciągłego rozwoju tych technologii należy znaleźć równowagę między innowacją a odpowiedzialnością. Dotychczasowe badania sugerują, że nastolatkom znajdującym się w kryzysie najlepiej pomagają tradycyjne zasoby w zakresie zdrowia psychicznego, a nie cyfrowe alternatywy.