Mistral врывается в гонку, представляя семейство передовых ИИ-моделей, бросающих вызов DeepSeek - Такое кино
 

Mistral врывается в гонку, представляя семейство передовых ИИ-моделей, бросающих вызов DeepSeek

04.12.2025, 4:40, Бизнес
Теги: , ,

Французский стартап Mistral выпускает семейство из четырех ИИ-моделей, конкурируя с DeepSeek передовой производительностью и предлагая суверенитет данных по стандартам ЕС для компаний, опасающихся китайских аналогов.

Французский ИИ-стартап Mistral, который часто списывали со счетов как европейского аутсайдера на поле, где доминируют американские гиганты и китайские новички, только что наверстал упущенное. Во вторник компания представила свой самый амбициозный релиз на сегодняшний день, заставив конкурентов в сфере открытого ПО серьезно понервничать (или не понервничать, если речь идет о деньгах, ведь модели бесплатны.)

Новое семейство из четырех моделей варьируется от карманных ассистентов до передовой системы на 675 миллиардов параметров — и всё это под либеральной лицензией Apache 2.0 с открытым исходным кодом. Модели доступны для публичного скачивания: любой, у кого есть подходящее оборудование, может запускать их локально, модифицировать, дообучать или создавать на их основе приложения.

Флагман компании, Mistral Large 3, использует архитектуру «разреженной смеси экспертов» (sparse Mixture-of-Experts). Из общих 675 миллиардов параметров для обработки каждого токена активируется только 41 миллиард. Такое инженерное решение позволяет модели выступать в супертяжелом весе по качеству, потребляя при этом вычислительные ресурсы на уровне модели в 40 миллиардов параметров.

Mistral Large 3 была обучена с нуля на 3000 графических процессоров NVIDIA H200 и дебютировала на втором месте в таблице лидеров LMArena среди открытых моделей без встроенной функции рассуждения (non-reasoning models).

Соперничество в бенчмарках с DeepSeek — история неоднозначная. Согласно тестам самой Mistral, её лучшая модель превосходит DeepSeek V3.1 по ряду показателей, но уступает несколько очков новейшей V3.2 в рейтинге LMArena.

В задачах на общие знания и экспертное рассуждение семейство Mistral держится уверенно. Где DeepSeek вырывается вперед, так это в чистой скорости написания кода и математической логике. Но это ожидаемо: данный релиз не включает модели, специализирующиеся на рассуждениях (reasoning models), поэтому в их архитектуру не встроена «цепочка мыслей» (chain of thought).

А вот с меньшими моделями «Ministral» всё становится интереснее для разработчиков. Три размера — 3B, 8B и 14B параметров (миллиардов) — поставляются в базовом варианте и в версии для инструкций (instruct). Все они нативно поддерживают визуальный ввод. Модель 3B привлекла внимание ИИ-исследователя Саймона Уиллисона, который отметил, что она может работать полностью в браузере через WebGPU.

Если хотите попробовать, это можно сделать здесь, в пространстве Hugging Face: модель загружается локально и использует вашу веб-камеру для ввода данных.

Компетентный ИИ с возможностью зрения в файле размером примерно 3 ГБ открывает новые горизонты для разработчиков, которым важна эффективность, и даже для энтузиастов: дроны, роботы, ноутбуки без доступа к сети, встроенные системы в автомобилях и так далее.

Ранние тесты показывают некоторую неоднородность в линейке. В ходе быстрой проверки мы обнаружили, что Mistral 3 Large хороша в поддержании естественной беседы. Иногда её стиль форматирования напоминает GPT-5 (схожая манера речи и любовь к эмодзи), но с более живой интонацией.

Mistral 3 Large также довольно свободна в плане цензуры, что делает её лучшим выбором для быстрых ролевых игр по сравнению с ChatGPT, Claude или Gemini.

Для задач на естественном языке, творческого письма и ролевых игр пользователи находят вариант 14B Instruct вполне достойным, но не выдающимся. В ветках обсуждений на Reddit в сообществе r/LocalLLaMA отмечают проблемы с повторениями и периодическую чрезмерную зависимость от шаблонных фраз из обучающей выборки. Однако способность модели генерировать длинные тексты — приятный бонус, особенно учитывая её размер.

Разработчики, запускающие модели локально, сообщают, что версии 3B и 8B иногда зацикливаются или выдают шаблонные ответы, особенно в творческих задачах.

Тем не менее, модель 3B настолько мала, что может работать на слабом железе, например на смартфонах, и её можно обучать/дообучать под конкретные цели. Единственный конкурент в этой нише сейчас — самая младшая версия Google Gemma 3.

Внедрение в корпоративном секторе уже началось. В понедельник банк HSBC объявил о многолетнем партнерстве с Mistral для развертывания генеративного ИИ в своих операциях. Банк будет запускать модели на собственной инфраструктуре (self-hosted), объединяя внутренние технические возможности с экспертизой Mistral. Для финансовых учреждений, работающих с чувствительными данными клиентов в рамках GDPR, привлекательность ИИ-поставщика со штаб-квартирой в ЕС и открытыми весами очевидна.

Mistral и NVIDIA совместно разработали сжатый чекпоинт в формате NVFP4, который позволяет запускать Large 3 на одном узле из восьми топовых видеокарт. NVIDIA заявляет, что Ministral 3B выдает примерно 385 токенов в секунду на RTX 5090 и более 50 токенов в секунду на чипе Jetson Thor для робототехники. Это означает, что модель очень эффективна и быстра при генерации ответов (инференсе), не жертвуя при этом качеством.

Согласно анонсу, оптимизированная для рассуждений (reasoning-optimized) версия Large 3 выйдет в ближайшее время. До тех пор DeepSeek R1 и другие китайские модели, такие как GLM или Qwen Thinking, сохраняют некоторое преимущество в задачах, требующих явного логического вывода. Но для предприятий, которым нужны передовые возможности, открытые веса, сильная поддержка европейских языков и компания, не подпадающая под законы о национальной безопасности Китая или США, выбор только что расширился с нуля до единицы.


Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: [email protected]

Поддержать проект:

PayPal – [email protected]
WebMoney – Z399334682366, E296477880853, X100503068090

18+ © 2025 Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике