ProIT: медіа для профі в IT
2 хв

Google очолила рейтинг embedding-моделей

author avatar ProIT NEWS

Google офіційно перевела свою нову високопродуктивну модель Gemini Embedding у статус загальнодоступної.

Модель (gemini-embedding-001) очолила авторитетний рейтинг Massive Text Embedding Benchmark (MTEB) і стала частиною Gemini API та Vertex AI. Це дає змогу розробникам створювати додатки на кшталт семантичного пошуку та retrieval-augmented generation (RAG). Про це йдеться в матеріалі Venture Beat.

Хоча перше місце — це потужний дебют, ринок embedding-моделей залишається конкурентним. Власницькі рішення Google стикаються з сильними викликами з боку відкритих моделей. Це ставить перед підприємствами стратегічний вибір: обрати топову закриту модель або майже таку ж ефективну open-source альтернативу з більшою гнучкістю.

Що лежить в основі Gemini Embedding

Embedding-представлення перетворюють текст або інші типи даних на числові вектори, які відображають ключові ознаки вхідної інформації. Дані зі схожим значенням мають близькі координати у векторному просторі. Це відкриває можливості далеко за межами простого пошуку за ключовими словами — зокрема для систем RAG, що передають релевантну інформацію LLM.

Embeddings також можуть працювати з іншими модальностями: зображеннями, відео та аудіо. Наприклад, e-commerce-компанія може застосовувати мультимодальну embedding-модель для створення єдиного числового опису товару, що об’єднує як текстові, так і візуальні характеристики.

Для підприємств embedding-моделі стають рушієм точнішого внутрішнього пошуку, кластеризації документів, класифікації, аналізу тональності й виявлення аномалій. Вони також важливі в agentic-застосунках, де ШІ-агенти мають підбирати та зіставляти документи або запити.

Gemini Embedding навчено за методом Matryoshka Representation Learning (MRL), що дозволяє отримувати вектори розміром 3072, а також скорочені — 1536 або 768 — зі збереженням релевантних характеристик. Це дає змогу підприємствам балансувати між точністю, продуктивністю та вартістю зберігання, що важливо для масштабування.

Google позиціонує модель як універсальну, яка «працює з коробки» у фінансовому, юридичному, інженерному та інших доменах без додаткового донавчання. Вона підтримує понад 100 мов, а її вартість — $0,15 за мільйон вхідних токенів.

Конкуренція: OpenAI, Cohere, Mistral і Alibaba

За даними Google Blog, Gemini лідирує у рейтингу MTEB, однак розрив невеликий. OpenAI утримує позиції завдяки популярності своїх embedding-моделей. Mistral пропонує вузькоспеціалізовані рішення для code retrieval.

Cohere, зі своєю моделлю Embed 4, фокусується на enterprise-сегменті та реальних даних: помилках, складному форматуванні, рукописному тексті. Також підтримується розгортання у приватних хмарах або на локальній інфраструктурі, що важливо для фінансових і медичних установ.

Найбільшу загрозу для власницьких рішень становлять відкриті моделі. Alibaba Qwen3-Embedding має лише незначне відставання від Gemini у рейтингу MTEB і доступна за ліцензією Apache 2.0, дозволеною для комерційного використання. Для розробників ПЗ відкритим варіантом є Qodo-Embed-1-1.5B — спеціалізована embedding-модель для коду, яка перевершує більші моделі в нішевих бенчмарках.

Для компаній, що вже використовують Google Cloud, нативна інтеграція з Gemini може спростити MLOps та забезпечити використання загальновизнаної моделі.

Однак слід пам’ятати: Gemini — це закрита модель, доступна лише через API. Якщо пріоритетом є контроль над даними, витратами або локальне розгортання, відкриті моделі на кшталт Qwen3-Embedding стають привабливою альтернативою.

Читайте також на ProIT: OpenAI використовуватиме хмарну інфраструктуру Google для ChatGPT.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.