Компанія Meta опублікувала оновлення щодо продуктивності своїх великих мовних моделей Llama. Вони, вочевидь, працюють настільки добре, що зараз наближаються до 350 мільйонів завантажень, повідомляє Engadget. Це в 10 разів більше, ніж було завантажено за аналогічний період минулого року.
Приблизно 20 мільйонів цих завантажень відбулося лише за останній місяць після випуску компанією Llama 3.1 — останньої версії LLM. За словами представників Meta, тепер вона може конкурувати з моделями від OpenAI та Anthropic.
Щомісячне використання Llama зросло із січня до липня цього року для деяких із найбільших постачальників хмарних послуг Meta. Зокрема, із травня до липня використання Llama, розміщених у партнерів Meta по хмарних сервісах, зросло за обсягом токенів більш ніж удвічі.
Крім Amazon Web Services (AWS) та Microsoft Azure, компанія об’єднала зусилля із Databricks, Dell, Google Cloud, Groq, NVIDIA, IBM watsonx, Scale AI та Snowflake, щоб зробити свої LLM більш доступними для розробників.
Керівництво Meta вважає, що зростання використання Llama відбулося завдяки силі відкритого коду, а надання доступу до LLM усім дозволило побачити жваву та різноманітну екосистему ШІ. Вона поступово оживає, а розробники мають все більше вибору та можливостей.
У своєму останньому звіті Meta навела приклади того, як компанії використовують Llama для своїх потреб. Наприклад, AT&T використовує Llama для точного налаштування пошуку клієнтів, а DoorDash покладається на LLM для полегшення завдань для своїх інженерів-програмістів.
Також Llama генерує в реальному часі реакції істот під назвою Dots у грі Niantic, схожій на Тамагочі, під назвою Peridot. Тим часом Zoom використовує Llama разом з іншими LLM для роботи свого AI Companion, який може підсумовувати зустрічі та створювати розумні записи.
«Інновації були широкими та швидкими: від стартапів, що розширюють нові кордони, до підприємств усіх розмірів, які використовують Llama для створення на місцях або через хмарних провайдерів. Індустрія будує і впроваджує інновації за допомогою Llama, і ми ще більше надихаємося тим, що чекає попереду», — зазначили в Meta.
Раніше компанія Microsoft стверджувала, що нові моделі Microsoft Phi 3.5 LLM перевершують Meta та Google.
Серед порівняльних оціночних моделей міркувань і багатомовних навичок, таких як BigBench, MMLU та ARC Challenge, модель MoE-instruct, хоча й із меншою кількістю параметрів, аніж конкуренти (6,6 мільярда), показала кращі результати, аніж Llama 3.1-8B-instruct, Gemma 2-9b і Gemini 1.5-Flash. Проте вона не змогла зрівнятися із продуктивністю OpenAI GPT-4o-mini-2024-07-18.
Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!