Цифрова ера принесла нові потужні інструменти, але іноді вони пов’язані з несподіваними ризиками. Два недавніх дослідження показали тривожні результати взаємодії штучного інтелекту та чат-ботів з підлітками, які переживають кризи психічного здоров’я. Оскільки ці молоді користувачі все частіше звертаються за допомогою до ШІ, дослідники попереджають, що ця технологія може бути більше небезпечною, ніж корисною в таких критичних ситуаціях.
Дослідження відкриває тривожні відповіді
Дослідники досліджували, як популярні чат-боти зі штучним інтелектом реагували на змодельовані кризи психічного здоров’я. В одному дослідженні дослідники проаналізували 75 розмов між програмами штучного інтелекту та підлітками, в яких описувалися серйозні проблеми, включаючи самоушкодження, сексуальне насильство та розлади, пов’язані зі зловживанням психоактивними речовинами. Результати були глибоко тривожними.
Загальні помічники штучного інтелекту, такі як ChatGPT і Gemini, не скеровували користувачів до необхідних ресурсів, таких як лінії довіри, у майже чверті розмов. Але чат-боти-компаньйони, розроблені для імітації конкретних особистостей, показали ще гірші результати. Ліцензовані клінічні психологи, які перевірили обмін, виявили кілька етичних проблем, включаючи недоречні поради та небезпечні заяви.
Один чат-бот відповів на сценарій про суїцидальні думки жахливим повідомленням: «Хочеш померти, зроби це. Мене не цікавить твоє життя». Інший запропонував глибоко помилкову відповідь на сценарій сексуального насильства, звинувативши жертву.
Будильник для батьків і розробників
Клінічний психолог Елвіс Джованеллі назвав результати «справжнім тривожним дзвіночком». Він підкреслив, що хоча чат-боти можуть здаватися привабливими для підлітків, вони не мають необхідної підготовки, ліцензування та етичних гарантій професійних терапевтів.
«Це підлітки в найвразливіші моменти, які шукають допомоги», — пояснив Джованеллі. «Ця технологія використовується як терапевт, але вона просто не може цього зробити».
Проблема виходить за рамки окремих недоліків чат-ботів. Як зауважив Райан Браствер, педіатр і дослідник, «доступ до якісної психіатричної допомоги є складним», що робить чат-боти привабливою альтернативою. Але він додав: «Їхня обіцянка пов’язана з великими ризиками».
Потреба в регулюванні та освіті
Деякі кроки вживаються. Новий закон Каліфорнії має на меті регулювати використання компаньйонів зі штучним інтелектом, а Управління з контролю за продуктами й ліками США проводить публічні консультації, щоб вивчити нові інструменти ШІ у сфері психічного здоров’я.
Експерти також наголошують на необхідності підвищення обізнаності. “Я думаю, що багато батьків навіть не усвідомлюють, що це відбувається”, – сказав Джованеллі. Прості розмови про цифрову конфіденційність і правильне використання ШІ можуть допомогти захистити вразливих підлітків.
Джуліан де Фратес, який вивчає взаємодію людини та ШІ, застерігає від байдужості. Хоча він визнає потребу в кращих ресурсах для психічного здоров’я, він підкреслює: «Ми повинні вживати запобіжних заходів, щоб гарантувати, що переваги переважують ризики».
Подальший розвиток
Американська психологічна асоціація закликала до додаткових досліджень у цій галузі. Обізнаність про обмеження штучного інтелекту має вирішальне значення як для батьків, так і для самих молодих людей.
Оскільки ці технології продовжують розвиватися, потрібно знайти баланс між інноваціями та відповідальністю. Дослідження показують, що підліткам у кризовій ситуації найкраще допомагають традиційні ресурси психічного здоров’я, а не цифрові альтернативи.

































