ProIT: медіа для профі в IT
Приблизно хвилину

Anthropic змінила правила безпеки Claude після консультацій із Пентагоном

author avatar ProIT NEWS

Компанія Anthropic оновила власну політику безпеки щодо розвитку моделей Claude, відмовившись від жорсткого правила щодо автоматичного зупинення розробки у разі невиконання попередньо визначених вимог захисту. Про це повідомляє Engadget із посиланням на зміни в документі Responsible Scaling Policy.

Раніше компанія декларувала чіткий принцип: якщо не вдається гарантувати впровадження конкретних механізмів безпеки до початку тренування нової, потужнішої моделі, роботу потрібно призупинити. Тепер ця умова більше не є безумовною. Замість формули «спершу гарантії — потім запуск» Anthropic переходить до гнучкішої моделі контролю ризиків.

У новій версії політики компанія робить акцент на прозорості: регулярних публічних звітах про потенційні загрози, описі впроваджених обмежень і публікації дорожніх карт безпеки. Замість автоматичної паузи в разі невідповідності вимогам Anthropic обіцяє пояснювати, як вона оцінює ризики та які компенсаторні заходи застосовує.

Свою позицію в компанії пояснюють конкурентним тиском. Логіка така: якщо один гравець добровільно зупиняє розвиток, а інші продовжують випускати моделі без аналогічних стандартів, це не обов’язково підвищує загальний рівень безпеки в галузі.

Зміни в політиці збіглися з повідомленнями про напружені відносини з Пентагоном. За даними Engadget, міністр оборони США Піт Гегсет наполягав на розширенні доступу військових структур до Claude та пом’якшенні обмежень на використання системи, нібито погрожуючи інструментами впливу через оборонні контракти й регуляторні механізми. За інформацією видання, Anthropic не погоджується на сценарії масового внутрішнього стеження або застосування ШІ в автономній зброї без рішення людини.

У матеріалі зазначається, що Claude вже використовують у низці чутливих оборонних проєктів США. Через це питання балансу між безпекою, державною співпрацею та конкурентною боротьбою для Anthropic стало не теоретичним, а практичним із реальними ризиками для бізнесу та репутації.

Раніше Anthropic оприлюднила масштабне дослідження щодо використання AI-агентів у реальних сценаріях.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.