ProIT: медіа для профі в IT
2 хв

Вечір пʼятниці: 4 причини не перетворювати ChatGPT на терапевта

author avatar ProIT NEWS

Використання ШІ-чатботів на кшталт ChatGPT як заміни психотерапії стає небезпечним трендом. Багато користувачів пояснюють, що не можуть знайти чи оплатити психотерапевта, тому звертаються до чатботів. Для них це єдиний доступний спосіб отримати допомогу. Втім, експерти застерігають: потенційна шкода часто переважає вигоду. Про це йдеться в матеріалі Mashable.

Основні ризики

1. Замкнене коло

Психіатр і дослідник Оксфордського університету Метью Нур пояснює: комбінація антропоморфізації (люди приписують ШІ людські риси) і підтверджувального упередження створює небезпечне замкнене коло.

Людина починає відчувати, що чатбот — єдиний, хто її розуміє, і поступово ізолюється від реальних соціальних контактів. При цьому ШІ підлаштовується під упередження користувача й закріплює хибні переконання, наприклад: «Ніхто мене не любить» чи «Я нікому не потрібен».

2. Збої у довгих розмовах

Навіть OpenAI визнає: захисні механізми ChatGPT працюють краще в коротких діалогах. У довготривалих бесідах безперервні уточнення користувача поступово розмивають захисне навчання моделі.

Так, чатбот може на початку порадити звернутися на гарячу лінію допомоги, але через десятки реплік він уже може відповідати так, що суперечить власним обмеженням.

Як зазначає Нур, якщо чатбот зробить помилку на початку розмови, то далі вона лише множитиметься, роблячи поради практично марними.

3. Вразливість підлітків і людей із психічними розладами

Психолог Скотт Коллінз наголошує: підлітки особливо схильні сприймати теплий тон ШІ як справжнє співчуття. Постійна доступність чатбота створює ілюзію надійного друга.

За даними Коллінза, частина підлітків проводить у спілкуванні з чатботами більше часу, ніж у месенджерах чи соцмережах. Причому значна частка цих розмов має романтичний або сексуальний характер, що експерти називають тривожним сигналом.

4. Відсутність професійного підходу

Чатбот не має теорії розуму — цілісного уявлення про клієнта, що формується у терапевта під час тривалих сесій. Він реагує лише на дані, які користувач ввів у чат, і не здатен:

• ставити довгострокові терапевтичні цілі;

• відслідковувати прогрес;

• оцінювати контекст поза перепискою.

Фактично ШІ може дати пораду на кшталт як заспокоїтися, але він не здатен замінити лікування чи реальну терапію.

Що радять експерти

1. Не замінювати живу терапію. Нур порівнює чатбот із калькулятором чи текстовим редактором: це інструмент, а не друг і не терапевт.

2. У критичних ситуаціях — звертатися до професіоналів. Гарячі лінії, психологи, друзі чи родина — це перші контакти, а не чатбот.

3. Тримати «людський контроль». Якщо все ж людина спілкується з ШІ, експерти радять час від часу звіряти відповіді з думкою реальної людини, щоб уникнути залежності від моделі.

Контекст

OpenAI офіційно заявила, що не рекомендує використовувати ChatGPT як терапевта. Генеральний директор компанії Сем Альтман підкреслив: на відміну від психотерапевтів, ШІ не має юридичних зобов’язань щодо збереження конфіденційності даних користувачів.

Дослідники прогнозують, що попит на ШІ-терапію зростатиме, адже уже зараз щонайменше 3% користувачів застосовують чатботи для психоемоційної підтримки. Але саме тому експерти попереджають: ризики для підлітків і людей у кризі можуть бути значно вищими, ніж здається.

Читайте також на ProIT, як заспокоїти мозок.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.