Раніше на сторінці політики використання OpenAI було прямо вказано, що компанія забороняє використовувати свою технологію у військових і бойових цілях. Нині ж цей рядок було видалено, повідомляє Engadget.
Як вперше помітив The Intercept, компанія оновила сторінку 10 січня, «щоб зробити її більш зрозумілою і надати більше інформації щодо конкретних послуг». Про це зазначено у журналі змін.
OpenAI все ще забороняє використовувати свої великі мовні моделі (LLM) для будь-чого, що може завдати шкоди, і застерігає користувачів від використання послуг компанії для «розроблення або використання зброї». Однак компанія видалила формулювання, що стосуються військових справ і війни.
Цю зміну у формулювання було внесено саме тоді, коли військові агентства в усьому світі виявляють інтерес до використання штучного інтелекту.
«Враховуючи використання систем ШІ проти цивільних осіб у Газі, настав важливий момент для ухвалення рішення про видалення слів «військові» та «війна» з політики дозволеного використання OpenAI», – повідомила Сара Майерс Вест, керуючий директор AI Now Institute.
Проте згадування військових і бойових дій у списку заборонених видів використання вказує на те, що OpenAI не може працювати з державними установами, такими як Міністерства оборони, які зазвичай пропонують вигідні угоди підрядникам.
Наразі у компанії немає продукту, який міг би когось безпосередньо вбити чи завдати фізичної шкоди. Але, як зазначили в The Intercept, цю технологію можна використовувати для таких завдань, як написання коду й обробка замовлень на закупівлю зброї.
Представник OpenAI Ніко Фелікс повідомив, що компанія «прагне створити набір універсальних принципів, які легко запам’ятати та застосувати, особливо тому, що інструменти тепер використовуються по всьому світу звичайними користувачами, які тепер також може створювати GPT».
Посадовець пояснив, що «такий принцип, як «не завдай шкоди іншим», є широким, але легко зрозумілим і доречним у багатьох контекстах».
Однак повідомляється, що речник відмовився уточнити, чи охоплює заборона використання їхньої технології для заподіяння шкоди іншими всіма видами військового використання поза розробленням зброї.
У заяві для Engadget представник OpenAI сказав:
«Наша політика не дозволяє використовувати наші інструменти, щоб завдати шкоди людям, розробляти зброю, стежити за комунікаціями, нанести тілесні ушкодження чи знищити майно. Однак існують випадки використання для національної безпеки, які відповідають нашій місії. Наприклад, ми вже працюємо з DARPA, щоб стимулювати створення нових інструментів кібербезпеки для захисту програмного забезпечення з відкритим кодом, від якого залежить критична інфраструктура та галузь. Не було зрозуміло, чи дозволено було б ці вигідні варіанти використання слова «військові» у нашій попередній політиці. Тож мета нашого оновлення політики – забезпечити ясність і можливість вести ці обговорення».
Раніше ми повідомляли, що OpenAI пропонує деяким ЗМІ виплати у розмірі від $1 до $5 мільйонів на рік в обмін на використання їхніх новин у навчанні LLM, що лежать в основі чат-бота з генеративним штучним інтелектом ChatGPT.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодну публікацію!