Законодавчі збори й Сенат Каліфорнії ухвалили Закон про безпечні та надійні інновації для моделей штучного інтелекту (SB 1047) — одне з перших значних регулювань ШІ у Сполучених Штатах Америки, повідомляє The Verge.
Законопроєкт, який став центром дискусій у Силіконовій долині та за її межами, зобов’яже компанії, що працюють зі штучним інтелектом у Каліфорнії, впровадити низку заходів перед тренуванням складної базової моделі.
Серед цих заходів — забезпечення можливості швидкого та повного вимкнення моделі, захист моделі від небезпечних модифікацій після тренування та підтримка процедури тестування для оцінки, чи існує ризик того, що модель або її похідні можуть спричинити або дозволити виникнення критичної шкоди.
Сенатор Скотт Вінер, основний автор законопроєкту, зазначив, що SB 1047 є дуже важливим законопроєктом, який зобов’язує великі лабораторії ШІ робити те, що вони вже обіцяли, — тестувати свої великі моделі на ризики катастрофічної безпеки.
«Ми працювали весь рік, залучаючи прихильників відкритого коду, Anthropic та інших, щоб удосконалити та покращити законопроєкт. SB 1047 враховує можливі ризики ШІ, і він заслуговує на ухвалення», — йдеться у повідомленні.
Критики SB 1047, серед яких OpenAI та Anthropic, політики Зої Лофгрен і Ненсі Пелосі та Торгова палата Каліфорнії, стверджували, що він надто зосереджений на катастрофічних загрозах і може несправедливо зашкодити малим розробникам відкритого коду.
Законопроєкт було змінено у відповідь на ці зауваження, замінивши потенційні кримінальні покарання на адміністративні, звузивши повноваження генерального прокурора Каліфорнії щодо примусового виконання та скоригувавши вимоги до участі в Board of Frontier Models, створеній законопроєктом.
Законопроєкт про безпеку ШІ направлений до губернатора Гевіна Ньюсома, який матиме час до кінця вересня, щоб вирішити його долю.
В Anthropic відмовилися від коментарів, посилаючись на лист генерального директора Даріо Амодея до губернатора Ньюсома, надісланий минулого тижня.
У цьому листі Амодей зазначив, що законопроєкт був значно покращений. У компанії вважають, що після внесення правок його переваги, ймовірно, переважують його недоліки.
В OpenAI також відмовилися від коментарів і послалися на лист головного стратега компанії Джейсона Квона, надісланий сенатору Вінеру минулого тижня.
Нагадаємо, на початку цього року Apple та інші технологічні компанії, такі як Amazon, Google, Meta й OpenAI, погодилися ухвалити зведення добровільних правил безпеки штучного інтелекту, встановлених адміністрацією Джо Байдена.
Правила безпеки окреслюють зобов’язання перевіряти поведінку систем ШІ, гарантуючи, що вони не демонструють дискримінаційних тенденцій і не мають проблем із безпекою.
Нещодавно ми повідомляли, що Генеральна Асамблея Організації Об’єднаних Націй ухвалила першу глобальну резолюцію щодо штучного інтелекту, яка закликає країни захищати права людини, персональні дані та контролювати ШІ на предмет ризиків.
Резолюція, запропонована Сполученими Штатами Америки й співавторами з Китаю та понад 120 інших країн, виступає й за посилення політики конфіденційності.
Європейський парламент також ухвалив закон про штучний інтелект, який має гарантувати безпеку і дотримання основних прав громадян.
Основна мета закону — встановити чіткі вимоги й зобовʼязання для розробників і фахівців із впровадження штучного інтелекту. До того ж він має усунути ризики у роботі технології, повʼязані з упередженістю та порушенням конфіденційності.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!