Компанія Anthropic оновила власну політику безпеки щодо розвитку моделей Claude, відмовившись від жорсткого правила щодо автоматичного зупинення розробки у разі невиконання попередньо визначених вимог захисту. Про це повідомляє Engadget із посиланням на зміни в документі Responsible Scaling Policy.
Раніше компанія декларувала чіткий принцип: якщо не вдається гарантувати впровадження конкретних механізмів безпеки до початку тренування нової, потужнішої моделі, роботу потрібно призупинити. Тепер ця умова більше не є безумовною. Замість формули «спершу гарантії — потім запуск» Anthropic переходить до гнучкішої моделі контролю ризиків.
У новій версії політики компанія робить акцент на прозорості: регулярних публічних звітах про потенційні загрози, описі впроваджених обмежень і публікації дорожніх карт безпеки. Замість автоматичної паузи в разі невідповідності вимогам Anthropic обіцяє пояснювати, як вона оцінює ризики та які компенсаторні заходи застосовує.
Свою позицію в компанії пояснюють конкурентним тиском. Логіка така: якщо один гравець добровільно зупиняє розвиток, а інші продовжують випускати моделі без аналогічних стандартів, це не обов’язково підвищує загальний рівень безпеки в галузі.
Зміни в політиці збіглися з повідомленнями про напружені відносини з Пентагоном. За даними Engadget, міністр оборони США Піт Гегсет наполягав на розширенні доступу військових структур до Claude та пом’якшенні обмежень на використання системи, нібито погрожуючи інструментами впливу через оборонні контракти й регуляторні механізми. За інформацією видання, Anthropic не погоджується на сценарії масового внутрішнього стеження або застосування ШІ в автономній зброї без рішення людини.
У матеріалі зазначається, що Claude вже використовують у низці чутливих оборонних проєктів США. Через це питання балансу між безпекою, державною співпрацею та конкурентною боротьбою для Anthropic стало не теоретичним, а практичним із реальними ризиками для бізнесу та репутації.
Раніше Anthropic оприлюднила масштабне дослідження щодо використання AI-агентів у реальних сценаріях.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!