Компанія Anthropic подала до суду на Міністерство оборони США й інші федеральні агентства після рішення адміністрації Дональда Трампа визнати розробника ШІ ризиком для ланцюга постачання.
Позов став новим етапом конфлікту між Пентагоном і однією з найвідоміших компаній у сфері штучного інтелекту на тлі спроб Білого дому прискорити впровадження ШІ в державному секторі.
Статус ризику для ланцюга постачання зазвичай присвоюють компаніям, пов’язаним із державами-супротивниками США. Таке маркування суттєво обмежує можливість Anthropic співпрацювати з підрядниками Міністерства оборони.
У судовому позові компанія заявляє, що рішення уряду та розпорядження адміністрації Трампа припинити використання її технологій федеральними структурами є безпрецедентними та незаконними.
«Звернення до суду не змінює нашу давню відданість використанню ШІ для зміцнення національної безпеки, але це необхідний крок для захисту нашого бізнесу, клієнтів і партнерів. Ми продовжимо шукати всі можливі шляхи вирішення ситуації, включно з діалогом з урядом», — заявив представник Anthropic.
У Пентагоні від коментарів відмовилися, пославшись на політику відомства щодо судових процесів. Натомість представниця Білого дому Ліз Хастон заявила, що президент ніколи не дозволить так званій woke AI-компанії диктувати, як має працювати військове відомство.
Що сталося
Пентагон присвоїв Anthropic статус ризику для ланцюга постачання після зриву переговорів щодо оновлення контракту між сторонами.
Конфлікт виник через дві принципові умови, які компанія хотіла додати до угоди. Anthropic наполягала, щоб її ШІ не використовувався для масового спостереження за громадянами США і для створення автономної зброї.
Пентагон наполягав на можливості використовувати технологію для всіх законних цілей. У відомстві заявили, що приватна компанія не може визначати, як уряд застосовує інструменти під час кризових ситуацій у сфері національної безпеки.
27 лютого адміністрація Трампа наказала федеральним агентствам і військовим підрядникам припинити співпрацю з Anthropic після того, як компанія відмовилася дозволити використання своєї технології без обмежень.
Того самого дня міністр оборони Піт Гегсет оголосив, що Anthropic буде офіційно визначена як ризик для ланцюга постачання. Він також заявив, що жоден підрядник, постачальник або партнер, який працює з американськими військовими, не може вести комерційну діяльність з Anthropic.
Заяви про порушення Першої поправки
У позові компанія стверджує, що уряд фактично карає її за висловлення позиції, захищеної Першою поправкою до Конституції США.
Anthropic заявляє, що президент не має повноважень наказувати федеральним агентствам припинити використання її технологій, а також що компанії не було надано належної юридичної процедури.
Компанія вимагає судової заборони на виконання рішення уряду. У позові зазначається, що під загрозою опинилися поточні та майбутні контракти з приватними компаніями, а потенційні збитки можуть сягнути сотень мільйонів доларів.
«Окрім безпосередніх економічних втрат, під атакою опинилися репутація Anthropic і фундаментальні свободи, гарантовані Першою поправкою», — ідеться в документі.
Генеральний директор Anthropic Даріо Амодеї заявив, що офіційний лист із позначкою про ризик для ланцюга постачання фактично означає обмеження використання Claude лише у роботі, безпосередньо пов’язаній із контрактами з Пентагоном.
Компанія повідомляла, що планує оскаржити це рішення в суді, оскільки воно створює небезпечний прецедент для будь-якої американської компанії, яка веде переговори з урядом.
Співпраця з урядом
Амодеї зустрічався з міністром оборони Пітом Гегсетом 24 лютого, але сторони не змогли досягти компромісу.
У блозі компанії CEO Anthropic пояснив, що сучасні системи штучного інтелекту ще не є достатньо надійними та безпечними для використання у сценаріях масового спостереження або автономної зброї.
Він зазначив, що компанія веде продуктивні переговори з Пентагоном щодо можливих форматів співпраці, які відповідали б принципам Anthropic, а також щодо можливого переходу на альтернативні рішення, якщо домовленості досягти не вдасться.
Дональд Трамп у дописі в Truth Social назвав позицію Anthropic катастрофічною помилкою і звинуватив компанію у спробі диктувати військовим правила використання технологій.
Показово, що вже за кілька годин після наказу адміністрації Трампа компанія OpenAI уклала власну угоду з Пентагоном.
Попри конфлікт популярність продуктів Anthropic зростає. За даними компанії, наступного дня після розірвання контракту з Пентагоном застосунок Claude вперше обігнав ChatGPT у рейтингу App Store для iPhone. 5 березня компанія повідомила, що понад 1 мільйон користувачів щодня реєструється в Claude.
Читайте також на ProIT, що Anthropic розширила функції Claude.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!