Mistral врывается в гонку, представляя семейство передовых ИИ-моделей, бросающих вызов DeepSeek
Французский стартап Mistral выпускает семейство из четырех ИИ-моделей, конкурируя с DeepSeek передовой производительностью и предлагая суверенитет данных по стандартам ЕС для компаний, опасающихся китайских аналогов.
Французский ИИ-стартап Mistral, который часто списывали со счетов как европейского аутсайдера на поле, где доминируют американские гиганты и китайские новички, только что наверстал упущенное. Во вторник компания представила свой самый амбициозный релиз на сегодняшний день, заставив конкурентов в сфере открытого ПО серьезно понервничать (или не понервничать, если речь идет о деньгах, ведь модели бесплатны.)
Новое семейство из четырех моделей варьируется от карманных ассистентов до передовой системы на 675 миллиардов параметров — и всё это под либеральной лицензией Apache 2.0 с открытым исходным кодом. Модели доступны для публичного скачивания: любой, у кого есть подходящее оборудование, может запускать их локально, модифицировать, дообучать или создавать на их основе приложения.
Флагман компании, Mistral Large 3, использует архитектуру «разреженной смеси экспертов» (sparse Mixture-of-Experts). Из общих 675 миллиардов параметров для обработки каждого токена активируется только 41 миллиард. Такое инженерное решение позволяет модели выступать в супертяжелом весе по качеству, потребляя при этом вычислительные ресурсы на уровне модели в 40 миллиардов параметров.
Mistral Large 3 была обучена с нуля на 3000 графических процессоров NVIDIA H200 и дебютировала на втором месте в таблице лидеров LMArena среди открытых моделей без встроенной функции рассуждения (non-reasoning models).
Соперничество в бенчмарках с DeepSeek — история неоднозначная. Согласно тестам самой Mistral, её лучшая модель превосходит DeepSeek V3.1 по ряду показателей, но уступает несколько очков новейшей V3.2 в рейтинге LMArena.
В задачах на общие знания и экспертное рассуждение семейство Mistral держится уверенно. Где DeepSeek вырывается вперед, так это в чистой скорости написания кода и математической логике. Но это ожидаемо: данный релиз не включает модели, специализирующиеся на рассуждениях (reasoning models), поэтому в их архитектуру не встроена «цепочка мыслей» (chain of thought).
А вот с меньшими моделями «Ministral» всё становится интереснее для разработчиков. Три размера — 3B, 8B и 14B параметров (миллиардов) — поставляются в базовом варианте и в версии для инструкций (instruct). Все они нативно поддерживают визуальный ввод. Модель 3B привлекла внимание ИИ-исследователя Саймона Уиллисона, который отметил, что она может работать полностью в браузере через WebGPU.
Если хотите попробовать, это можно сделать здесь, в пространстве Hugging Face: модель загружается локально и использует вашу веб-камеру для ввода данных.
Компетентный ИИ с возможностью зрения в файле размером примерно 3 ГБ открывает новые горизонты для разработчиков, которым важна эффективность, и даже для энтузиастов: дроны, роботы, ноутбуки без доступа к сети, встроенные системы в автомобилях и так далее.
Ранние тесты показывают некоторую неоднородность в линейке. В ходе быстрой проверки мы обнаружили, что Mistral 3 Large хороша в поддержании естественной беседы. Иногда её стиль форматирования напоминает GPT-5 (схожая манера речи и любовь к эмодзи), но с более живой интонацией.
Mistral 3 Large также довольно свободна в плане цензуры, что делает её лучшим выбором для быстрых ролевых игр по сравнению с ChatGPT, Claude или Gemini.
Для задач на естественном языке, творческого письма и ролевых игр пользователи находят вариант 14B Instruct вполне достойным, но не выдающимся. В ветках обсуждений на Reddit в сообществе r/LocalLLaMA отмечают проблемы с повторениями и периодическую чрезмерную зависимость от шаблонных фраз из обучающей выборки. Однако способность модели генерировать длинные тексты — приятный бонус, особенно учитывая её размер.
Разработчики, запускающие модели локально, сообщают, что версии 3B и 8B иногда зацикливаются или выдают шаблонные ответы, особенно в творческих задачах.
Тем не менее, модель 3B настолько мала, что может работать на слабом железе, например на смартфонах, и её можно обучать/дообучать под конкретные цели. Единственный конкурент в этой нише сейчас — самая младшая версия Google Gemma 3.
Внедрение в корпоративном секторе уже началось. В понедельник банк HSBC объявил о многолетнем партнерстве с Mistral для развертывания генеративного ИИ в своих операциях. Банк будет запускать модели на собственной инфраструктуре (self-hosted), объединяя внутренние технические возможности с экспертизой Mistral. Для финансовых учреждений, работающих с чувствительными данными клиентов в рамках GDPR, привлекательность ИИ-поставщика со штаб-квартирой в ЕС и открытыми весами очевидна.
Mistral и NVIDIA совместно разработали сжатый чекпоинт в формате NVFP4, который позволяет запускать Large 3 на одном узле из восьми топовых видеокарт. NVIDIA заявляет, что Ministral 3B выдает примерно 385 токенов в секунду на RTX 5090 и более 50 токенов в секунду на чипе Jetson Thor для робототехники. Это означает, что модель очень эффективна и быстра при генерации ответов (инференсе), не жертвуя при этом качеством.
Согласно анонсу, оптимизированная для рассуждений (reasoning-optimized) версия Large 3 выйдет в ближайшее время. До тех пор DeepSeek R1 и другие китайские модели, такие как GLM или Qwen Thinking, сохраняют некоторое преимущество в задачах, требующих явного логического вывода. Но для предприятий, которым нужны передовые возможности, открытые веса, сильная поддержка европейских языков и компания, не подпадающая под законы о национальной безопасности Китая или США, выбор только что расширился с нуля до единицы.