Компания Mistral AI выпустила Mistral Medium 3.5 — флагманскую модель с 128 миллиардами параметров, которая объединяет в себе возможности чата, рассуждений и написания кода в одном решении.
Ключевая особенность новинки — переключатель "усилия рассуждений" (reasoning effort). Пользователь может регулировать, сколько вычислительных ресурсов модель тратит на обдумывание перед ответом. Для простых задач подойдёт минимальный режим, для сложных многошаговых проблем — максимальный. Это позволяет экономить на инференсе, не жертвуя качеством в критических случаях.
По данным Mistral, на бенчмарке SWE-Bench Verified модель набрала 77,6%. Это показатель, близкий к ведущим моделям для автоматического написания и исправления кода. Для сравнения, лучшие результаты в этом тесте показывают Claude Opus и GPT-5.4, но обе модели значительно дороже в эксплуатации.
Архитектура и позиционирование
Mistral Medium 3.5 — это плотная модель (dense model), а не mixture-of-experts. Это означает, что при каждом запросе задействуются все 128 миллиардов параметров. Такой подход проще для развёртывания, предсказуемее по производительности и лучше подходит для enterprise-сценариев, где компании хотят понимать, что именно получают.
Плотные модели уступают MoE-архитектурам в эффективности при одинаковом количестве активных параметров, но выигрывают в стабильности и возможности точно оценить стоимость инференса. Для enterprise-клиентов, которые привыкли считать деньги, это может быть важнее абстрактных бенчмарков.
Выход на рынок через Le Chat и Vibe
Mistral представила Medium 3.5 вместе с обновлением платформы Vibe, которая теперь поддерживает удалённых агентов на базе модели. Агенты могут выполнять задачи автономно — писать код, взаимодействовать с API, управлять файлами. Это позиционирует Mistral как альтернативу для компаний, которые хотят запускать агентов без привязки к OpenAI или Anthropic.
Le Chat, собственный чат-интерфейс Mistral, также получил обновление под названием Work Mode. Режим предназначен для командной работы с моделью: несколько пользователей могут работать в одном пространстве, делиться промптами и результатами. Это попытка конкурировать не только по качеству модели, но и по удобству рабочего процесса.
Контекстное окно модели составляет сотни тысяч токенов, что позволяет работать с большими кодовыми базами и длинными документами без потери контекста. Точный лимит компания не раскрыла, но для enterprise-задач этого достаточно для анализа проектов размером в миллионы строк кода.
Место на рынке
Mistral занимает нишу между открытыми моделями (DeepSeek, Llama) и enterprise-гигантами (OpenAI, Anthropic, Google). Medium 3.5 — попытка подняться выше в этой иерархии, предложив качество флагманских моделей по более доступной цене. Результат 77,6% на SWE-Bench подтверждает, что по возможностям для кодинга Mistral приближается к лидерам.
При этом у Mistral остаётся преимущество в виде открытых весов для части моделей и гибкости развёртывания. Компания позволяет клиентам запускать модели на собственной инфраструктуре, что критично для регулируемых отраслей — финансов, здравоохранения, государственного сектора. В отличие от Anthropic, Mistral не отказывается от работы с оборонными структурами и готова сотрудничать с европейскими и американскими заказчиками на их условиях.