ProIT: медіа для профі в IT
Приблизно хвилину

Китай хоче обмежити ризики емоційного штучного інтелекту

author avatar ProIT NEWS

Китайський кіберрегулятор оприлюднив проєкт правил для громадського обговорення, які посилюють нагляд за сервісами штучного інтелекту, здатними імітувати людські риси та вступати з користувачами в емоційну взаємодію.

Цей крок підкреслює прагнення Пекіна взяти під контроль швидке поширення споживчих ШІ-продуктів шляхом запровадження жорсткіших вимог до безпеки та етики.

Запропоновані правила поширюватимуться на AI-продукти та сервіси, доступні в Китаї, які демонструють змодельовані риси людської особистості, мислення та стилі комунікації, а також емоційно взаємодіють із користувачами через текст, зображення, аудіо, відео або інші формати.

Проєкт документа описує регуляторний підхід, за якого постачальники таких сервісів повинні попереджати користувачів про ризики надмірного використання і втручатися у випадках проявів залежності.

Згідно з пропозиціями компанії нестимуть відповідальність за безпеку протягом усього життєвого циклу продукту та мають запровадити системи перевірки алгоритмів, захисту даних і персональної інформації.

Окрему увагу регулятор приділяє потенційним психологічним ризикам. Постачальники повинні ідентифікувати стан користувачів, оцінювати їхні емоції та рівень залежності від сервісу. У разі виявлення крайніх емоційних станів або ознак адиктивної поведінки компанії зобов’язані вживати необхідних заходів реагування.

Також документ встановлює чіткі межі щодо контенту й поведінки AI-систем. Зокрема сервіси не повинні генерувати матеріали, які загрожують національній безпеці, поширюють чутки або пропагують насильство чи непристойність.

Читайте також на ProIT про китайський «Манхеттенський проєкт».

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.