Дві основні тенденції останніх місяців у випуску великих мовних моделей (LLM): менші моделі та моделі для покращеного міркування (reasoning).
Французька компанія Mistral випустила нову пару моделей — Magistral Small 1.2 та Magistral Medium 1.2, які поєднують обидва тренди. Про це повідомляє Venture Beat.
Основні оновлення
Обидві моделі оснащені модулем обробки зображень (vision encoder), що дає можливість аналізувати картинки.
Покращені показники в бенчмарках і нові функції зручності.
Magistral Small 1.2 (24B параметрів) після квантизації може запускатися на одному NVIDIA RTX 4090 або навіть на MacBook із 32 ГБ RAM.
Модель Medium 1.2 інтегрована у вебзастосунок AnyCoder від Hugging Face, а обидві доступні для тестування в чатботі Le Chat і через Mistral API (magistral-small-2509
, magistral-medium-2509
).
Ціни на API
1. Magistral Small: $0,50 за 1M токенів вводу / $1,50 за 1M токенів виводу.
2. Magistral Medium: $2 за 1M вводу / $5 за 1M виводу.
Порівняно з конкурентами:
⇾ Small дешевший за моделі середнього класу (наприклад, Anthropic Sonnet), але дорожчий за базові режими DeepSeek.
⇾ Medium дешевший за топ-рівень (Opus, GPT-5), але дорожчий за «легкі» опції.
DeepSeek наразі найефективніший за вартістю у сценаріях із великим обсягом вводу.
Продуктивність у бенчмарках
Magistral Medium 1.2:
⇾ AIME24 — 91,82% (вище за DeepSeek-R1 — 91,40%).
⇾ AIME25 — 83,48% (проти 79,4% у DeepSeek і 64,95% у Medium 1.0).
⇾ LiveCodeBench v6 — 68,50% (проти 50,29% у Medium 1.0).
Magistral Small 1.2:
⇾ AIME24 — 86,14% (проти 81,40% у Qwen3-32B і 70,68% у Small 1.0).
⇾ GPQA Diamond — 70,07% (вище за Qwen3-32B із 68,40%).
⇾ LiveCodeBench v6 — 61,60% (порівняно з 47,36% у Small 1.0).
Висновок: обидві моделі суттєво перевершують попередні версії та конкурентів у задачах математики й програмування.
Мультимодальність і reasoning
1. Підтримка тексту + зображень: візуальні питання-відповіді, аналіз діаграм, макетів тощо.
2. Покращене форматування виходу (LaTeX, Markdown).
3. Краще використання зовнішніх інструментів (пошук, код-інтерпретатор, генерація зображень).
4. Нові токени [THINK]...[/THINK]
для прозорості reasoning-трасування.
Ліцензія та інтеграція
Відкрита ліцензія Apache 2.0 — повне комерційне та некомерційне використання.
Підтримка: vLLM, Transformers, llama.cpp, LM Studio, Kaggle, Axolotl, Unsloth.
Рекомендовані параметри: top_p=0.95
, temperature=0.7
, max_tokens=131072
.
Підтримка понад 20 мов (французька, німецька, арабська, японська, китайська тощо). Контекстне вікно — до 128k токенів, оптимальна робота — до 40k.
Висновки
Mistral Magistral 1.2 підтверджує двошляхову стратегію компанії: відкриті й ефективні моделі для спільноти + потужні інструменти для підприємств.
Small 1.2 — легка у використанні, запускається навіть локально.
Medium 1.2 — продуктивна reasoning-модель для складних завдань.
Benchmarks демонструють стабільний прогрес і більш чітку конкуренцію з DeepSeek і Qwen.
Читайте також на ProIT усе про компанію Mistral AI.