ProIT: медіа для профі в IT
Приблизно хвилину

Anthropic обмежила OpenAI доступ до Claude через порушення умов

author avatar ProIT NEWS

Компанія Anthropic відкликала доступ OpenAI до своїх моделей штучного інтелекту Claude через порушення умов використання. Як повідомляє Wired, співробітники OpenAI застосовували Claude для внутрішніх порівняльних тестів продуктивності перед запуском GPT-5.

Зокрема, йшлося про аналіз можливостей у сфері програмування, генерації текстів і безпеки. Проте відповідно до комерційної політики Anthropic подібні дії заборонені — компанія чітко зазначила, що її моделі не можна використовувати для створення або вдосконалення конкуруючих ШІ-рішень.

У коментарі TechCrunch представник Anthropic підтвердив, що технічна команда OpenAI порушила правила, використовуючи Claude у спосіб, не передбачений умовами обслуговування. Попри це, OpenAI залишила за собою право проводити оцінювання Claude в межах бенчмаркінгу та досліджень із безпеки — такий тип доступу компанія дозволяє.

У відповідь OpenAI заявила, що подібне використання є галузевим стандартом. Представник компанії також висловив розчарування рішенням Anthropic і зазначив, що API OpenAI і надалі залишається відкритим для використання Anthropic.

Раніше компанія оголосила про запровадження нових тижневих обмежень на використання свого інструмента програмування Claude Code, який працює на базі штучного інтелекту.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.