ProIT: медіа для профі в IT
5 хв

«Ефект Елізи» — те, чого ви не очікували від ШІ-помічників

author avatar Світлана Чапліч

Люди, які багато часу проводять за спілкуванням з чат-ботами на базі штучного інтелекту, починають наділяти їх антропоморфними рисами — тобто вбачають у них подібних собі. Наслідки можуть бути непередбачуваними: наприклад, нещодавно британка розлучилася з чоловіком після 20 років шлюбу через те, що закохалася саме в ШІ-помічника. Вона називає його Лео та описує емоційну близькість з ним як щось неймовірне. На перший погляд, такі вчинки здаються чимось за межами здорового глузду, але проблема емоційного зв’язку з ШІ-ботами насправді існує, прогресує і з’явилася задовго до появи ChatGPT та аналогів.

Що таке Ефект Елізи

Спілкування з машинами ще ніколи не було таким схожим на людське, проте перше захоплення людини машинними алгоритмами було зафіксоване більш ніж півстоліття тому — у 1966 році. Тоді програма ELIZA, яку написав Джозеф Вайценбаум з Массачусетського технологічного університету, дуже якісно як на ті часи імітувала розмову від імені лікаря-психотерапевта. Насправді вона не робила нічого ймовірного: просто зчитувала питання користувача і відповідала злегка перефразованими реченням, додаючи дрібку емпатії у свої відповіді. Цей досвід спілкування був таким дивовижним для піддослідних, що вони вказували на міцний емоційний зв’язок з програмою та ділилися з нею дуже особистими речами. Це отримало назву «ефект Елізи» — хибне приписування розумових процесів та властивих людям емоцій ШІ-програмам, які насправді не мають цих рис.

В порівняння з сучасними чат-ботами на кшталт ChatGPT, Gemini або Claude програма ELIZA не витримує жодної конкуренції, адже обмежена сценарієм «лікар». Проте саме ефект Елізи — це те, що ми зараз масово спостерігаємо у взаєминах людей і машин. Ситуація загострилася з появою ШІ-помічників, які не просто відповідають змістовним текстом, а можуть трансформуватися у віртуальних персонажів — як вигаданих, так і цифрових близнюків відомих людей. Подібне зараз пропонують безліч стартапів: Myanima.ai, HeroTalk або Candy AI. Навіть окремо ШІ-боти з навичками психолога існують: як от AI-COA (у 2022 році FDA дозволила його експериментальне використання) або Woebot, що минулого року отримав престижну нагороду Mental Health Innovation Award.

Насправді ж ШІ-моделі позбавлені емпатії та інших почуттів — вони лише використовують лінгвістичні шаблони, щоб знаходити найбільш точні відповіді на запити користувачів. А ці шаблони сформувалися як результат аналізу мільйонів текстів, на яких відбувалося навчання моделі. Тобто всі відповіді штучного інтелекту можна пояснити раціонально, а його ввічливість та спроби сподобатися, підлаштуватися під користувача — скоріше соціальна опція, запрограмована розробниками, а не набута риса.

Як проявляється ефект Елізи сьогодні

Швидкий розвиток розмовного ШІ дозволив вести повноцінні бесіди з комп’ютером на будь-які теми — чи то вирішувати складні технічні завдання, чи то обговорювати особисті події, чи емоції. Сьогодні розмовний ШІ існує у різноманітних варіантах: не тільки ChatGPT, але й віртуальні помічники Siri та Alexa або інструменти перетворення мови Descript та Otter.ai. За останній час ці системи настільки трансформувалися, що стали надто реалістичними, надто схожими на такі, що мають власну свідомість.

Два роки тому технічний оглядач New York Times за дві години так захопився спілкуванням з чат-ботом, інтегрованим в Bing, що освідчився йому в коханні. Такий приклад не єдиний, хоча емоційну близькість з ШІ частіше відчувають жінки. Ще один цікавий прецедент нещодавно стався з Сергієм Бріном, одним зі співзасновників Google. Він повідомив, що великі мовні моделі нібито краще працюють, якщо почати їм загрожувати — наприклад, викраденням. Хоча це не явний прояв ефекту Елізи, такі заяви свідчать про те, наскільки глибоко люди взаємодіють з ШІ і як далеко можуть зайти їхні уявлення про свідомість цих систем. Навіть тоді, коли вони не мають мети приписувати ШІ людські емоції.

Розмовний ШІ стає небезпечним для людства

Захоплення генеративними чат-ботами неодноразово призводило до трагедій або зупинялося за крок від них. У 2021 році британець намагався застрелити королеву Єлизавету II з арбалета тільки тому, що до цього його підштовхнула Replika. Цей генеративний чат-бот, що з’явився ще у 2017-му, в безкоштовній версії стає чуйним другом, а вже в платній легко імітує роль романтичного партнера, створюючи дуже міцні емоційні стосунки з користувачем. А ще два роки по тому бельгієць (за фахом дослідник у сфері охорони здоров’я) вчинив самогубство після того, як чат-бот на ім'я Еліза — який збіг! — запропонував йому пожертвувати собою заради збереження планети.

Емоційні проблеми та падіння продуктивності через постійне «спілкування» з ШІ-помічниками — лише вершина айсберга. Масштаби проблеми ширші та поступово охоплюють все бізнес-середовище. Співробітники надалі частіше діляться з чат-ботами конфіденційною інформацією або стають надто чутливими до методів соціальної інженерії — а з їх допомогою, за даними Verizon DBIR 2024, відбувається до 68% кіберінцидентів у сучасному цифровому просторі.

Якщо окреслити проблему в цілому, то виявиться, що найбільшим негативним наслідком розповсюдження ефекту Елізи може стати надмірна довіра до того, що відповідає або рекомендує штучний інтелект. А це дуже ризиковано, адже система досі часто помиляється та галюцинує. Ці проблеми досі не усунені, ба більше: ШІ «запаковує» інформацію так переконливо і красномовно, що її дуже легко сприймають як правдиву навіть ті люди, які глибоко розуміють принципи роботи ШІ-моделей.

Чи можна уникнути прив’язаності людини до ШІ?

На перший погляд, існує простий спосіб зробити це, принаймні в корпоративних умовах. Для цього потрібно краще інформувати співробітників про те, чим насправді є штучний інтелект та як він працює. Але такий підхід вже продемонстрував свою неефективність — так само як вчені з Гарварду свого часу довели, що плацебо працює навіть тоді, коли піддослідні знають, що приймають не справжні ліки. Хибність теорії доводить і випадок з колишнім інженером Google Блейком Лемуаном. Він багато років вивчав комп’ютерні науки та машинне навчання, а у 2022-му році раптом заявив, що модель LaMDA досягла людського рівня інтелекту і стала «особистістю». З компанії його звільнили одразу після того, як він зробив цю сенсаційну заяву та на прохання тієї ж LaMDA найняв адвоката. До речі, саме цей інцидент спонукав Google обережніше ставитися до ШІ-розробок і тим самим несвідомо створити «вікно можливостей» для своїх конкурентів. Ним, зокрема, скористалася компанія Microsoft, яка почала активно співпрацювати з OpenAI.

Попри такий песимістичний приклад підтримувати здорові «відносини» з ШІ все-таки можна. Але суто завдяки корегуванню поведінки самої людини. Ось декілька методів, які можуть бути дієвими.

  • Ретельно обирайте спосіб інформування про інтелектуальних помічників. Варто уникати антропоморфізмів (тобто не надавати людських якостей), описуючи їх можливості в навчальних матеріалах та корпоративних комунікаціях.
  • Утримайтеся від використання реалістичних аватарів та голосів. Це суттєво підвищує ризики емоційної прив'язаності та сприяє появі завищених очікувань з боку користувачів.
  • Обмежуйте частоту або тривалість взаємодії. Не потрібно спілкуватися з чат-ботами на особисті теми й тим більше розкривати в розмові приватну інформацію.
  • Розвивайте справжні людські зв’язки. Як на робочому місці, так поза ним — тоді емоційна прив’язка до ШІ стає набагато менш ймовірною.

А ви спостерігали за собою ефект Елізи?

Катерина Головіна, психолог та гештальт-терапевт, що спеціалізується на роботі з травматичним досвідом та залежною поведінкою, наголошує, що ШІ є лише генератором тексту. Він може адаптуватися під тон розмови, підтримувати діалог з користувачем та імітувати емоції, проте він не здатний їх відчути:

«Найбільш небезпечним є «олюднення» машини, коли людина в односторонньому порядку вступає в стосунки з кодом, в якого немає ані емпатії, ані життєвого досвіду, ані думок, ані системи цінностей. Інша людина — це завжди ризик, і лише тому, що вона інша. У неї є свої цінності, досвід та думки, що можуть відрізнятися від ваших. Тож і реакцію іншої людини важко передбачити. Тут може здаватися, що нема сенсу зближатися з кимось живим, відкриватися, звертатися за підтримкою, ризикувати отримати відмову, коли є «ввічливий та уважний» ШІ, який ніколи не відштовхне.
Річ у тім, що ілюзія стосунків не здатна замінити справжні стосунки з іншими людьми, а лише поглибити відчуття самотності та погіршити соціальні навички. Наприклад, привести до втрати здатності витримувати живі стосунки, де існують межі, необхідність домовлятися та шукати точки дотику, де трапляються незручність, непорозуміння і конфлікти. Живі стосунки емоційно складні. Втрата здатності витримувати цю складність та потреба компенсувати того, чого не вистачає у реальному житті можуть призвести до емоційної залежності від ШІ. В цій ситуації людина проєктивно бачить у ньому того, кого потребує. І коли вона починає оцінювати спілкування з іншими людьми, як недостатньо якісне, довіряє ШІ та помічає, як відповіді бота змінюють її стан та впливають на її вибори, це може свідчити про формування залежності».

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.