Модель, которая сделала себя сама
Китайский стартап MiniMax выпустил языковую модель M2.7 — и это событие выходит далеко за рамки очередного бенчмарк-релиза. Впервые компания не просто улучшила архитектуру или добавила больше обучающих данных. MiniMax создала систему, в которой предыдущая версия модели стала соавтором следующей, взяв на себя от 30% до 50% всего рабочего процесса по разработке.
Что значит «self-evolving» на практике
Инженеры MiniMax обучили более раннюю версию модели управлять исследовательским агентом, способным читать логи тренировок, отлаживать код, анализировать метрики производительности и самостоятельно планировать модификации в итерационных циклах из 100+ раундов. Это не метафора и не маркетинг — модель буквально оптимизировала свои собственные веса, анализируя траектории ошибок и предлагая изменения в архитектуре обучения.
«Мы намеренно обучали модель лучше планировать и уточнять требования с пользователем», — объяснил директор по инженерии MiniMax Скайлер Мяо. — «Следующий шаг — более сложный симулятор пользователя, чтобы продвинуться ещё дальше».
Бенчмарки: цифры, которые говорят сами за себя
Результаты впечатляют:
- SWE-Pro (программирование в production-среде): 56.22% — сопоставимо с GPT-5.3-Codex
- GDPval-AA (офисные задачи): Elo 1495 — лучший результат среди моделей с открытым доступом
- Галлюцинации: 34% против 46% у Claude Sonnet 4.6 и 50% у Gemini 3.1 Pro
- MLE Bench Lite (автономные ML-исследования): медальный рейтинг 66.6% — наравне с Gemini 3.1
Для модели, которая не только конкурирует с ведущими западными системами, но и частично разработала себя сама, это выглядит как серьёзная заявка на будущее.
Конец эпохи китайского open-source?
Не менее важен стратегический сигнал: M2.7 — проприетарная модель. MiniMax долго оставался одним из самых щедрых поставщиков открытых фронтир-моделей. Теперь компания меняет курс, следуя за z.ai (GLM-5 Turbo) и — по слухам — командой Qwen от Alibaba, которая переживает уход ключевых исследователей.
Если тренд подтвердится, мы наблюдаем закат «золотой эры» бесплатных китайских ИИ-моделей. Два года назад DeepSeek, Qwen, MiniMax раздавали свои мощности даром, вынуждая OpenAI снижать цены. Теперь те же компании строят проприетарные барьеры — значит, они нашли бизнес-модели, которые работают.
Что это значит для ИИ-индустрии
Рекурсивная самоэволюция — один из «священных граалей» ИИ-исследований. Не AGI, не сильный интеллект, но важный шаг: система, способная улучшать инструменты собственного обучения. MiniMax M2.7 — первая коммерческая модель, которая не просто заявила об этом, но предъявила конкретные цифры: 30-50% автономного управления тренировочным пайплайном.
Это меняет разговор о том, где заканчивается «инструмент» и начинается «соавтор». Если следующая итерация M2.x возьмёт на себя 60%, потом 80% — мы уже говорим о качественно иной природе разработки ИИ.
Мнение редакции
На мой взгляд, MiniMax M2.7 — самый недооценённый релиз этого марта. Пока все следят за NVIDIA GTC и Vera Rubin, тихая китайская компания выпустила модель, которая переписывает правила о том, кто (или что) разрабатывает ИИ. Закрытость M2.7 огорчает — но понятна. Те, кто умеет делать ИИ, умеющий делать ИИ, вряд ли будут раздавать это бесплатно.





