OpenAI формує спеціальну команду для управління ризиками суперінтелектуального штучного інтелекту з ініціативою супервирівнювання.
Суперінтелект – це гіпотетична модель ШІ, яка є розумнішою, ніж найобдарованіші та найрозумніші люди, і володіє компетенціями у різних сферах, а не в одній, як моделі попередніх поколінь. В OpenAI вважають, що така модель може з’явитися до кінця десятиліття.
«Суперінтелект буде найвпливовішою технологією, яку людство коли-небудь винайшло, і може допомогти нам вирішити багато найважливіших проблем світу, – заявили в організації. – Але величезна потужність суперінтелекту також може бути дуже небезпечною і призвести до позбавлення людства влади або навіть до його вимирання».
Наразі не існує жодних методів, які б керували чи контролювали потенційно надрозумний ШІ, тому що всі наявні методи вирівнювання ШІ покладаються на те, що люди можуть контролювати його.
Нову команду очолять головний науковий співробітник OpenAI Ілля Суцкевер та керівник дослідницької лабораторії Ян Лейке. В OpenAI також заявили, що виділять 20% своїх поточних обчислювальних потужностей для цієї ініціативи з метою розроблення автоматизованої системи вирівнювання ШІ. Така система теоретично допоможе переконатися, що суперінтелект є безпечним для використання й узгодженим із людськими цінностями.
«Хоча це надзвичайно амбіційна мета й успіх не гарантований, ми сподіваємося, що спрямовані та об’єднані зусилля можуть вирішити цю проблему, – заявили в OpenAI. – Є багато ідей, які показали свою перспективність у попередніх експериментах. У нас є все більш корисні метрики для оцінки прогресу, і ми можемо використовувати сучасні моделі для емпіричного вивчення багатьох цих проблем».
Оголошення про ініціативу супервирівнювання відбулося в той час, коли уряди у всьому світі розглядають питання регулювання галузі ШІ. У США генеральний директор OpenAI Сем Альтман в останні місяці зустрівся зі щонайменше 100 федеральними законодавцями.
Публічно Альтман заявляв, що регулювання ШІ є «необхідним» і OpenAI «прагне» співпрацювати з політиками. Але деякі критики вважають, що зосереджуючи увагу громадськості на гіпотетичних ризиках, які можуть ніколи не матеріалізуватися, організації, такі як OpenAI, переносять відповідальність за регулювання на майбутнє. Проте сьогодні вже існують проблеми, пов’язані з ШІ, які необхідно регулювати: ринок праці, дезінформація й авторське право тощо.
Раніше ProIT писав, що відтоді, як ChatGPT вийшов на сцену наприкінці минулого року, у Кремнієвій долині зростає тривога щодо екзистенційних ризиків розвитку штучного інтелекту.