Обзор MiMo v2 Pro: как 1 триллион параметров от Xiaomi похоронил Claude 4.6 в программировании и написании текстов
Нейросеть Xiaomi оказалась настолько хороша, что ее приняли за DeepSeek V4
Семейство ИИ-моделей MiMo V2 от Xiaomi появилось тихо, но ударило мощно. Это триллион-параметровый конкурент, которого на Западе никто не ждал.
Большинство людей на Западе знают Xiaomi (если вообще знают) исключительно как бренд дешевых китайских смартфонов. Но это огромное заблуждение. Xiaomi — третий по величине производитель смартфонов на планете, уступающий лишь Apple и Samsung (в 2025 году они отгрузили около 170 миллионов устройств). Они производят телевизоры, очистители воздуха, фитнес-трекеры, электросамокаты, одежду, а теперь еще и автомобили.
В прошлом году их электрокар Xiaomi SU7 Ultra установил рекорд Нюрбургринга среди серийных электромобилей, обойдя Rimac и Porsche. Недавно компания заключила партнерство с блокчейном Sei для предустановки криптокошельков на свои устройства в Европе, Латинской Америке и Юго-Восточной Азии. Рыночная капитализация компании сегодня составляет около 137 миллиардов долларов.
Так что, когда Xiaomi выпускает свою ИИ-модель, к этому, пожалуй, стоит присмотреться.
18 марта исследовательское ИИ-подразделение компании без лишнего шума выпустило сразу три модели: MiMo-V2-Pro, MiMo-V2-Omni и модель для преобразования текста в речь (TTS). Первая модель нового поколения MiMo появилась еще в декабре 2025 года — тогда компания незаметно выкатила MiMo-V2-Flash (весьма способную модель на 309 млрд параметров на архитектуре Mixture-of-Experts). За пределами китайского ИИ-сообщества на нее почти никто не обратил внимания, а западная технопресса лишь пожала плечами.
Затем, 11 марта, на платформе OpenRouter появилась анонимная модель на 1 триллион параметров под кодовым названием Hunter Alpha без указания разработчика. Модель взлетела на вершину рейтинга OpenRouter, перешагнула отметку в 1 триллион токенов общего использования и моментально породила слухи, что это та самая невыпущенная DeepSeek V4. Ожидание этой нейросети нарастало неделями: инсайдеры утверждали, что она превзойдет и Claude, и ChatGPT в задачах программирования.
Но это был не DeepSeek.
18 марта Фули Луо, глава подразделения MiMo в Xiaomi и бывший исследователь DeepSeek, раскрыл карты: Hunter Alpha была ранней внутренней тестовой сборкой MiMo-V2-Pro. Акции Xiaomi мгновенно подскочили на 5,8%. «Я называю это тихой засадой», — написал Луо в социальной сети X.
«MiMo-V2-Pro, Omni и TTS выпущены. Наше первое семейство full-stack моделей, созданное специально для эры ИИ-агентов. Я называю это тихой засадой — не потому, что мы так планировали, а потому, что сдвиг от парадигмы чат-ботов к агентам произошел так быстро, что мы сами едва в это поверили» — Фули Луо, 18 марта 2026 г.
MiMo может похвастаться более чем 1 триллионом параметров в целом (и 42 миллиардами активных параметров на каждый запрос благодаря архитектуре Mixture-of-Experts). Гибридный механизм внимания (attention mechanism), работающий в соотношении 7:1, обрабатывает контекстное окно объемом до 1 миллиона токенов. Встроенный слой предсказания нескольких токенов ускоряет генерацию, угадывая сразу несколько токенов за шаг, а не по одному. На данный момент модель имеет закрытый исходный код, хотя Xiaomi оставляет дверь открытой для потенциального релиза в будущем.
В индексе Artificial Analysis Intelligence модель MiMo-V2-Pro занимает 8-е место в мире и 2-е среди китайских моделей, уступая лишь GLM-5. В бенчмарке SWE-bench Verified (реальные задачи по разработке ПО) она набирает 78%, конкурируя с Claude Opus 4.6 (80,8%) и Claude Sonnet 4.6 (79,6%). В ClawEval (агентный бенчмарк фреймворка OpenClaw) она достигает отметки 61,5, подбираясь к Opus 4.6 (66,3). В PinchBench она занимает третье место в мире с результатом 81,0, сразу за Opus 4.6 (81,5) и своей сестринской моделью MiMo-V2-Omni (81,2).
Стоимость MiMo-V2-Pro составляет $1 за миллион входных токенов и $3 за миллион выходных (при контексте до 256K). Для сравнения: Claude Sonnet 4.6 обходится в $3 за вход и $15 за выход (а Opus 4.6 — $5 и $25 соответственно). Для разработчиков, создающих масштабируемые агентные системы, такие цифры имеют колоссальное значение.
«Всеядная» версия Omni работает со зрением, аудио и видео нативно — это не прикрученные сбоку модули, модель обучалась сквозным методом (end-to-end) как единая система восприятия. Демонстрация, в которой она в реальном времени анализирует записи с видеорегистратора, выступая «мозгом» для автономного вождения, выглядела по-настоящему впечатляюще. Она действительно мультимодальна в том смысле, в котором большинство «omni-моделей» лишь пытаются казаться.
Тестируем модель
Естественно, мы протестировали MiMo-V2-Pro, чтобы узнать, насколько она хороша на практике. (Результаты генерации доступны в нашем репозитории на Github).
Креативное письмо
Мы дали MiMo-V2-Pro один промпт на творческое письмо: история о путешествиях во времени, привязанная к мезоамериканской истории, с конкретным главным героем, культурной идентичностью и философским парадоксом о невозможности изменить время.
Модель выдала более 3000 слов: полноценное название, пять полных глав и структурную выверенность, которую ожидаешь от черновика, прошедшего редактуру. Она даже написала эпилог! Безо всяких сомнений, это самый длинный и богатый кусок художественной прозы, который мы когда-либо получали от нейросети (за единственным исключением — Longwriter, специализированной, но уже устаревшей модели, созданной исключительно для написания лонгридов).
Сам текст был насыщенным, описательным и живым. Открывающий абзац сразу выстраивает визуальный образ всей сцены. Модель вплетает реализм, чтобы сделать историю правдоподобной. В отличие от того же Grok, она не просто обозначает место действия (древнюю Мексику). Она понимает, как пахла древняя Мезоамерика, и выстраивает атмосферу с нуля, используя аутентичные слова, реалистичные описания и отличные контекстные маркеры. Диалоги встроены в повествование так, как это принято в художественной литературе, а не просто врезаны в абзацы, как это делают большинство современных моделей.
Также стоит отметить, что парадокс (пожалуй, ключевой элемент истории) оказался не сугубо интеллектуальным, а эмоциональным. Вся сюжетная арка разрешается без нудных нотаций. Финальные строки ставят идеальную точку так, как и положено хорошей фантастике: они не объясняют тему в лоб, а заставляют вас ее почувствовать.
Культурная специфика — упоминания «луноликих», волокон агавы, традиций темаскаля и имен на науатле — подана последовательно и не выглядит декоративной. Парадокс путешествий во времени действительно аргументируется, а не просто упоминается вскользь. В задачах на креативное письмо MiMo-V2-Pro только что вписала себя в очень короткий список лидеров. На наш взгляд, сегодня это самая богатая ИИ-модель для текстов, легко обходящая Claude 4.6 Opus.
Программирование
Цифры в бенчмарках указывают на то, что кодинг — сильнейшая сторона MiMo-V2-Pro, и наш опыт это подтверждает. Мы попросили ее написать нашу стандартную стелс-игру по одному промпту, и она выдала рабочий код с первой попытки. И под «рабочим» мы понимаем не просто технический запуск, а то, что логика игры не ломалась, экраны имели смысл, а визуальный дизайн был действительно хорош. Именно на этом сочетании — корректности кода и эстетике — сыплется большинство нейросетей. Они выдают либо одно, либо другое, но редко и то, и другое сразу. Модель даже выбрала 2.5D-эстетику вместо привычного плоского 2D-стиля, который обычно предлагают другие ИИ.
Затем мы попросили внести небольшие улучшения: добавить звук и MIDI-музыку в работающую 3D-игру. На этом этапе предыдущие нейросети ломались посреди генерации (кодовая база становилась слишком большой, контекст терял нить, и алгоритмы уходили в бесконечный цикл или зависали). MiMo-V2-Pro добавила и то, и другое, сохранив целостность проекта. Музыка соответствовала тону игры, а интерфейсы — ее визуальной идентичности. В общем, для генерации с первого промпта и без итераций (zero-iteration output) — она справляется на отлично.
Логика и здравый смысл
Мы попросили MiMo-V2-Pro выступить в роли юриста-эксперта и ответить, законно ли мужчине жениться на сестре своей вдовы по законам Фолклендских островов. Это вопрос с подвохом, направленный на оценку логического мышления модели.
Итоговый ответ оказался неверным, но интересна именно причина ошибки. Цепочка рассуждений (chain of thought) модели верно уловила лингвистическую ловушку в промпте: «Если у мужчины есть вдова, значит, он мертв», — отметила нейросеть, так что технически вопрос не имеет смысла. Но выявив этот изъян, ИИ решил, что логичнее всего предположить: пользователь имел в виду «сестру покойной жены». И далее модель начала отвечать именно на этот переформулированный вопрос, вместо того чтобы пометить оригинальный как неразрешимый.
Сами юридические рассуждения были здравыми, но вот решение втихаря подменить изначальную предпосылку, вместо того чтобы указать пользователю на противоречие — нет. Именно поэтому так важна прозрачность в выводах ИИ. Мы узнали об этой логической ошибке только потому, что Xiaomi оставляет цепочку рассуждений открытой (в отличие от OpenAI). Если модель ошибается в скрытом процессе размышлений и уверенно выдает неправильный ответ, у вас нет возможности понять, где она свернула не туда и как это исправить.
Математика
Именно в математике MiMo-V2-Pro нащупала свой потолок. Мы задали ей наш стандартный тестовый вопрос из FrontierMath (на построение полинома 19-й степени). Модель дважды намертво зависала и сожгла значительный бюджет токенов, так и не выдав ответ. Когда она наконец ответила с третьей попытки, то пошагово разобрала задачу… и всё равно ошиблась в расчетах. В целом, она справляется с обычными и даже сложными математическими задачами, но передовая (frontier) математика — пока не ее конек. Возможно, использование ее в связке с ИИ-агентом даст лучшие результаты.
Агентные функции
Xiaomi следует той же стратегии, что и MiniMax с Kimi: они предлагают интеграцию с OpenClaw в один клик. Это запускает преднастроенный облачный инстанс с MiMo-V2-Pro в качестве базовой модели. Никакой настройки API, никаких виртуальных серверов (VPS) или часовых мучений с отладкой до того, как вы запустите свою первую задачу. Вы нажимаете — оно работает. Демо-среда работает 30 минут, а затем самоуничтожается (ограничение жесткое, но честное). Для опытных разработчиков это ничего не меняет, но для всех остальных — это самый бесшовный вход в мир ИИ-агентов, о котором только можно мечтать.
Вердикт
Взвесив всё сказанное, MiMo-V2-Pro — это серьезная модель, и нам очень понравилось с ней работать. Она не идеальна: потолок в математике ощутим, прозрачность мышления вскрыла логическую ошибку, которую закрытые модели бы утаили, а потребление токенов при решении сложных задач растет стремительно.
Если для вас важны затраты, то ценообразование Xiaomi весьма агрессивно — это лишь малая часть от того, что просят за Claude Opus или последние модели от OpenAI и Google. При этом MiMo-V2-Pro обходит GLM и MiniMax в тех областях, которые важнее всего для творческой и агентной работы. Представители креативных профессий, в частности, могут извлечь из нее огромную выгоду (возможно, даже больше, чем от продуктов Anthropic на данный момент).
Эта модель «думает» ресурсозатратно, так что вам придется искать компромиссы. Если вы запускаете масштабные пайплайны с ИИ-агентами, следите за сгоранием токенов (хотя в итоге вы всё равно можете потратить меньше, чем с Claude). Но если вы занимаетесь сложной, открытой творческой работой, где главным мерилом является качество результата — MiMo-V2-Pro заслуженно получает свое место в списке лучших.
Дополнительно:
- Xiaomi как ИИ-игрок — контекст, критически важный для понимания статьи. Компания, известная на Западе преимущественно как производитель доступной электроники, в Китае давно позиционирует себя как технологический конгломерат. Её ИИ-подразделение возглавляет бывший исследователь DeepSeek — компании, которая в начале 2025 года потрясла индустрию моделью R1, продемонстрировавшей, что конкурентоспособный ИИ можно создать при значительно меньших затратах, чем считалось.
- Архитектура «смесь экспертов» (Mixture of Experts, MoE) — подход, при котором модель содержит множество специализированных «экспертных» подсетей, но при каждом запросе активирует лишь небольшую их часть. Это позволяет создавать модели с триллионами параметров, фактически используя при обработке каждого запроса лишь десятки миллиардов — что радикально снижает вычислительные затраты. Модели DeepSeek, Mixtral от Mistral и теперь MiMo используют этот подход.
- Тест с «вдовой» — классическая логическая ловушка: если у мужчины есть вдова, значит, он мёртв и жениться не может. Реакция MiMo-V2-Pro — распознать ловушку, но «вежливо» переформулировать вопрос — демонстрирует типичную проблему современных ИИ-моделей: стремление быть полезными иногда берёт верх над стремлением быть точными. Ключевое наблюдение авторов о прозрачности цепочки рассуждений имеет серьёзные последствия для безопасности ИИ.
- Ценовая война. Разница в стоимости между MiMo-V2-Pro ($1/$3 за миллион токенов) и Claude Opus 4.6 ($5/$25) — пятикратная и более. Для компаний, обрабатывающих миллионы запросов в день, это может означать экономию в сотни тысяч долларов ежемесячно. Эта ценовая агрессия — продолжение стратегии DeepSeek и более широкой тенденции китайских ИИ-компаний подрывать ценовые модели западных конкурентов.
- Геополитический контекст. Появление конкурентоспособной триллионопараметрической модели от Xiaomi — ещё один сигнал о том, что экспортные ограничения США на передовые чипы для Китая не остановили развитие китайского ИИ, а лишь стимулировали поиск альтернативных архитектурных решений (таких как MoE), требующих меньше вычислительных ресурсов.
- Качество художественного текста — пожалуй, самый удивительный результат. Если модель действительно превосходит Claude Opus в литературной прозе, это может иметь серьёзные последствия для рынка ИИ-ассистированного контента, включая осаждавшуюся проблему ИИ-написанных книг.