Компанія OpenAI звільнила двох дослідників штучного інтелекту за ймовірний витік інформації, повідомляє The Information з посиланням на свої джерела. Але про яку саме інформацію йдеться – наразі невідомо.
Компанія звільнила дослідника команди з питань безпеки ШІ для суспільства Леопольда Ашенбреннера. Та ще одного дослідника Павла Ізмаілова (родом із росії), який також працював у групі безпеки, перш ніж перейти до дослідницької групи.
The Information пише, що Ашенбреннер був союзником головного науковця OpenAI Іллі Суцкевера, який у листопаді 2023 року повідомив гендиректору OpenAI Сему Альтману про звільнення, бо він не завжди був відвертим у спілкуванні з Радою директорів.
Через чотири дні Альтмана поновили на посаді, і він сказав, що не відчуває до Суцкевера жодної неприязні. Як зазначає видання, після його повернення науковець покинув Раду директорів і фактично не з’являвся у компанії.
Крім того, що Ашенбреннер був союзником Суцкевера. Також він працював у створеній ним команді супервирівнювання. Вона займалася розробкою методів контролю та управління просунутим штучним інтелектом, відомим як суперінтелект, який розв’язуватиме проблеми ядерного синтезу або колонізації інших планет.
Напередодні звільнення співробітники OpenAI розійшлися в думках про те, чи достатньо безпечно компанія розробляє ШІ. Ашенбреннер мав зв’язки з рухом «Ефективний альтруїзм». Цей рух надає пріоритет усуненню небезпек, пов’язаних зі штучним інтелектом, а не короткостроковим вигодам у вигляді прибутку або продуктивності.
Раніше ProIT повідомляв, що OpenAI представила ШІ-модель Voice Engine, яка клонує людський голос на основі 15-секундного прикладу.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!