Компанія Anthropic відкликала доступ OpenAI до своїх моделей штучного інтелекту Claude через порушення умов використання. Як повідомляє Wired, співробітники OpenAI застосовували Claude для внутрішніх порівняльних тестів продуктивності перед запуском GPT-5.
Зокрема, йшлося про аналіз можливостей у сфері програмування, генерації текстів і безпеки. Проте відповідно до комерційної політики Anthropic подібні дії заборонені — компанія чітко зазначила, що її моделі не можна використовувати для створення або вдосконалення конкуруючих ШІ-рішень.
У коментарі TechCrunch представник Anthropic підтвердив, що технічна команда OpenAI порушила правила, використовуючи Claude у спосіб, не передбачений умовами обслуговування. Попри це, OpenAI залишила за собою право проводити оцінювання Claude в межах бенчмаркінгу та досліджень із безпеки — такий тип доступу компанія дозволяє.
У відповідь OpenAI заявила, що подібне використання є галузевим стандартом. Представник компанії також висловив розчарування рішенням Anthropic і зазначив, що API OpenAI і надалі залишається відкритим для використання Anthropic.
Раніше компанія оголосила про запровадження нових тижневих обмежень на використання свого інструмента програмування Claude Code, який працює на базі штучного інтелекту.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!