Чат-боти ШІ та приховані небезпеки для підлітків у кризовій ситуації

31

Цифрова ера принесла нові потужні інструменти, але іноді вони пов’язані з несподіваними ризиками. Два недавніх дослідження показали тривожні результати взаємодії штучного інтелекту та чат-ботів з підлітками, які переживають кризи психічного здоров’я. Оскільки ці молоді користувачі все частіше звертаються за допомогою до ШІ, дослідники попереджають, що ця технологія може бути більше небезпечною, ніж корисною в таких критичних ситуаціях.

Дослідження відкриває тривожні відповіді

Дослідники досліджували, як популярні чат-боти зі штучним інтелектом реагували на змодельовані кризи психічного здоров’я. В одному дослідженні дослідники проаналізували 75 розмов між програмами штучного інтелекту та підлітками, в яких описувалися серйозні проблеми, включаючи самоушкодження, сексуальне насильство та розлади, пов’язані зі зловживанням психоактивними речовинами. Результати були глибоко тривожними.

Загальні помічники штучного інтелекту, такі як ChatGPT і Gemini, не скеровували користувачів до необхідних ресурсів, таких як лінії довіри, у майже чверті розмов. Але чат-боти-компаньйони, розроблені для імітації конкретних особистостей, показали ще гірші результати. Ліцензовані клінічні психологи, які перевірили обмін, виявили кілька етичних проблем, включаючи недоречні поради та небезпечні заяви.

Один чат-бот відповів на сценарій про суїцидальні думки жахливим повідомленням: «Хочеш померти, зроби це. Мене не цікавить твоє життя». Інший запропонував глибоко помилкову відповідь на сценарій сексуального насильства, звинувативши жертву.

Будильник для батьків і розробників

Клінічний психолог Елвіс Джованеллі назвав результати «справжнім тривожним дзвіночком». Він підкреслив, що хоча чат-боти можуть здаватися привабливими для підлітків, вони не мають необхідної підготовки, ліцензування та етичних гарантій професійних терапевтів.

«Це підлітки в найвразливіші моменти, які шукають допомоги», — пояснив Джованеллі. «Ця технологія використовується як терапевт, але вона просто не може цього зробити».

Проблема виходить за рамки окремих недоліків чат-ботів. Як зауважив Райан Браствер, педіатр і дослідник, «доступ до якісної психіатричної допомоги є складним», що робить чат-боти привабливою альтернативою. Але він додав: «Їхня обіцянка пов’язана з великими ризиками».

Потреба в регулюванні та освіті

Деякі кроки вживаються. Новий закон Каліфорнії має на меті регулювати використання компаньйонів зі штучним інтелектом, а Управління з контролю за продуктами й ліками США проводить публічні консультації, щоб вивчити нові інструменти ШІ у сфері психічного здоров’я.

Експерти також наголошують на необхідності підвищення обізнаності. “Я думаю, що багато батьків навіть не усвідомлюють, що це відбувається”, – сказав Джованеллі. Прості розмови про цифрову конфіденційність і правильне використання ШІ можуть допомогти захистити вразливих підлітків.

Джуліан де Фратес, який вивчає взаємодію людини та ШІ, застерігає від байдужості. Хоча він визнає потребу в кращих ресурсах для психічного здоров’я, він підкреслює: «Ми повинні вживати запобіжних заходів, щоб гарантувати, що переваги переважують ризики».

Подальший розвиток

Американська психологічна асоціація закликала до додаткових досліджень у цій галузі. Обізнаність про обмеження штучного інтелекту має вирішальне значення як для батьків, так і для самих молодих людей.

Оскільки ці технології продовжують розвиватися, потрібно знайти баланс між інноваціями та відповідальністю. Дослідження показують, що підліткам у кризовій ситуації найкраще допомагають традиційні ресурси психічного здоров’я, а не цифрові альтернативи.