ProIT: медіа для профі в IT
2 хв

OpenAI, Anthropic і Google почали обмін даними, щоб зупинити копіювання своїх ШІ-моделей у Китаї

author avatar ProIT NEWS

OpenAI, Anthropic та Google, які зазвичай конкурують між собою, почали співпрацювати для протидії китайським компаніям, що намагаються відтворювати їхні ШІ-моделі.

Йдеться про обмін інформацією в межах Frontier Model Forum — некомерційної організації, створеної цими компаніями разом із Microsoft у 2023 році. За словами джерел, знайомих із ситуацією, учасники форуму координують зусилля, щоб виявляти спроби так званої «adversarial distillation», які порушують умови використання їхніх сервісів.

Distillation — це підхід, коли одна модель використовується як «вчитель» для навчання іншої моделі, яка відтворює її можливості. У багатьох випадках це нормальна практика, наприклад, коли компанії створюють більш компактні або ефективні версії власних систем. Проте проблема виникає тоді, коли сторонні гравці використовують цей підхід без дозволу для створення конкурентних продуктів.

Американські AI-компанії вважають, що саме це зараз відбувається з боку окремих китайських розробників. За їхніми оцінками, такі дії дозволяють створювати дешевші аналоги, які можуть витісняти оригінальні продукти з ринку та відбирати клієнтів. Окрім економічного ефекту, компанії також говорять про ризики для національної безпеки.

OpenAI офіційно підтвердила свою участь в обміні інформацією щодо таких практик і послалася на нещодавній меморандум до Конгресу США. У ньому компанія прямо звинувачує китайський стартап DeepSeek у спробах «безкоштовно використовувати можливості, створені OpenAI та іншими провідними лабораторіями».

Distillation опинилася в центрі уваги ще на початку 2025 року після релізу моделі DeepSeek R1, яка швидко привернула увагу індустрії. Після цього Microsoft та OpenAI почали перевірку, чи не було використано великі обсяги даних із їхніх моделей для створення цього продукту.

У лютому OpenAI повідомила американських законодавців, що DeepSeek продовжує застосовувати більш складні методи для отримання результатів із західних AI-моделей, попри посилення захисту. За даними компанії, distillation використовується для розробки нових версій їхнього чат-бота.

Особливе занепокоєння викликає те, що подібні моделі можуть створюватися без вбудованих обмежень безпеки. Це означає, що вони потенційно можуть використовуватися для небезпечних або шкідливих сценаріїв, які зазвичай блокуються в оригінальних системах.

Додатковий фактор — різниця в підходах до розповсюдження технологій. Багато китайських моделей мають відкриті ваги, що дозволяє їх вільно завантажувати та запускати на власній інфраструктурі. Це робить їх дешевшими у використанні та створює економічний тиск на американські компанії, які інвестували сотні мільярдів $ у дата-центри та розробку і покладаються на платний доступ до своїх моделей.

Спільний обмін інформацією між OpenAI, Google та Anthropic нагадує практику з кібербезпеки, де компанії діляться даними про атаки та вразливості, щоб швидше реагувати на загрози. У цьому випадку мова йде про спробу виявляти, хто саме здійснює витягування можливостей моделей, і блокувати такі дії.

Водночас цей процес поки що обмежений. Компанії не до кінця розуміють, який обсяг інформації вони можуть передавати одна одній без порушення антимонопольного законодавства. Джерела зазначають, що індустрії потрібні чіткіші правила від уряду США.

Distillation залишається однією з головних проблем для американських AI-компаній після того, як DeepSeek суттєво вплинула на ринок своїм релізом у 2025 році. В індустрії очікують подальшого розвитку цієї технології та нових версій моделей від китайських гравців.

Читайте на ProIT: Китайські ШІ-моделі обганяють США за реальним використанням.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.