ProIT: медіа для профі в IT
2 хв

DeepSeek анонсує V4 — новий етап розвитку моделей для програмування

author avatar ProIT NEWS

DeepSeek готується презентувати нову модель штучного інтелекту V4 із розширеними можливостями для програмування в середині лютого. Про це повідомило видання The Information із посиланням на осіб, обізнаних із планами компанії.

Майбутній реліз стане першим великим оновленням моделі DeepSeek після виходу reasoning-моделі R1 у січні 2025 року, яка привернула глобальну увагу і спричинила резонанс у Кремнієвій долині.

Згідно з матеріалом, внутрішнє тестування, яке провели співробітники DeepSeek, свідчить про те, що V4 може перевершити провідних конкурентів у завданнях програмування, зокрема моделі Anthropic Claude та серію GPT від OpenAI.

Повідомляють, що нова модель досягла прориву в роботі з надзвичайно довгими кодовими запитами — можливістю, яка є критичною для розробників складних програмних систем.

V4 також демонструє покращене розуміння закономірностей у даних протягом усього процесу навчання без деградації якості — проблеми, яка зазвичай потребує значних обчислювальних ресурсів для подолання.

За словами одного зі співрозмовників, користувачі можуть очікувати більш структуровані відповіді від V4, що свідчить про глибші можливості міркування та вищу надійність під час виконання складних завдань. Це особливо показово з огляду на обмежений доступ DeepSeek до передових AI-чипів через експортні обмеження США.

У DeepSeek не відповіли на запити щодо коментарів. Джерела також зазначають, що терміни релізу V4 можуть змінитися.

«З ринкової точки зору DeepSeek V4 розглядають як індикатор того, наскільки швидко моделі, орієнтовані на програмування, перетворюються на рушії та платформи розробки», — зазначив Мітч Ешлі, віцепрезидент і керівник практики DevOps та AppDev у The Futurum Group.

За його словами, головне питання полягає в тому, чи зможуть ці покращення зменшити кількість ручних передач, переробок і посилити контроль людини на етапах планування, реалізації, налагодження та розгортання.

Якщо DeepSeek продемонструє такий практичний ефект, це змістить конкуренцію в бік якості виконання програмного забезпечення, а не розміру чи новизни моделей і прискорить очікування щодо AI-центричної розробки у 2026 році.

DeepSeek опублікувала наукову статтю, співавтором якої став генеральний директор компанії Лян Веньфен. У ній описано нову архітектуру навчання, що потенційно дає можливість створювати більші моделі без пропорційного зростання потреби в чипах. Це свідчить про здатність компанії продовжувати інновації попри технологічні обмеження.

Стартап зі штаб-квартирою в Ханчжоу став одним з основних гравців у прагненні Китаю сформувати незалежну AI-екосистему. Реліз моделі V3 дістав міжнародне визнання, однак саме запуск R1 — відкритої reasoning-моделі — перетворив DeepSeek на глобальний феномен. R1 привернула увагу тим, що демонструвала конкурентну продуктивність порівняно з провідними американськими моделями за значно нижчих витрат на навчання.

Успіх DeepSeek посилив конкуренцію серед китайських ШІ-розробників. Технологічні гіганти, зокрема Alibaba та Baidu, а також стартапи MiniMax, Zhipu і Moonshot AI протягом 2025 року активно випускали власні open-source моделі. Сукупно ці зусилля закріпили позиції Китаю як одного з глобальних лідерів у розвитку відкритих AI-моделей.

Нагадаємо, у грудні компанія випустила V3.2, яка на окремих бенчмарках перевершила GPT-5 від OpenAI і Gemini 3.0 Pro від Google, що робить очікуваний реліз V4 особливо значущим для ринку.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.