Skip to content
Назад к Блогу
Model Releases

MiniMax M2: Открытая модель с 230B параметрами и MoE-архитектурой

MiniMax M2 представляет собой новую открытую модель с улучшенным логическим мышлением и генерацией, использующую 230B параметров.

23 октября 2025 г.
Model ReleaseMiniMax M2
MiniMax M2 - official image

Введение: Почему MiniMax M2 важен для разработчиков

Компания MiniMax официально представила новую версию своей флагманской модели MiniMax M2, которая стала важным шагом в мире открытого ИИ. Эта модель выделяется не только своими характеристиками, но и подходом к лицензированию, предоставляя разработчикам полный доступ к весам модели. В отличие от многих проприетарных решений, MiniMax M2 позволяет исследователям и инженерам глубоко изучать архитектуру и адаптировать модель под специфические задачи без ограничений коммерческих лицензий.

Релиз модели состоялся 23 октября 2025 года, и он сразу привлек внимание сообщества из-за значительных улучшений в области логического вывода и генерации кода. Для разработчиков это означает возможность интеграции передовых возможностей в собственные продукты, сохраняя контроль над данными и стоимостью. Open weights становятся стандартом, и MiniMax M2 укрепляет позиции компании как одного из лидеров в области доступных мощных моделей.

  • Дата релиза: 23 октября 2025 года
  • Тип: Open-source с открытыми весами
  • Целевая аудитория: Инженеры и исследователи ИИ

Архитектура и ключевые особенности

Техническая архитектура MiniMax M2 построена на основе Mixture of Experts (MoE) с общим количеством параметров 230 миллиардов. Это позволяет модели эффективно обрабатывать сложные задачи, активируя только необходимые эксперты для конкретного запроса. Модель поддерживает широкое окно контекста, что критически важно для обработки длинных документов и многошаговых агентов. Кроме того, модель демонстрирует нативную поддержку мультимодальных возможностей, включая обработку текста и изображений.

Особое внимание уделено агентским возможностям, что позволяет модели самостоятельно выполнять сложные исследовательские задачи. MiniMax заявляет, что модель способна выполнять 30-50% исследовательского рабочего процесса по подкреплению обучения без внешнего вмешательства. Это делает M2 идеальным выбором для автоматизации рутинных задач в разработке программного обеспечения и анализе данных.

  • Параметры: 230B MoE
  • Контекстное окно: Поддержка длинных контекстов
  • Мультимодальность: Текст и изображения

Производительность и бенчмарки

В тестах MiniMax M2 демонстрирует результаты, превосходящие многие коммерческие модели, включая Claude Opus 4.6. На бенчмарке Swaybench Pro модель показала значительное преимущество, подтверждая её эффективность в сложных сценариях. Результаты тестирования на HumanEval и MMLU также свидетельствуют о высоком уровне понимания программирования и общих знаний. Эти метрики подтверждают, что модель готова для реального продакшена.

Специфические тесты показывают, что модель превосходит Gemini 3.1 Pro в ряде отраслевых бенчмарков. Важно отметить, что модель участвовала в собственном цикле разработки, что является первым шагом к автономной эволюции ИИ. Это означает, что модель способна улучшать себя в процессе использования, что является уникальной особенностью для открытого сообщества.

  • Swaybench Pro: Превосходство над Opus 4.6
  • HumanEval: Высокий уровень кодинга
  • MMLU: Сильные общие знания

Стоимость API и тарифы

Для разработчиков стоимость использования API является ключевым фактором. MiniMax M2 предлагает конкурентоспособные цены, сохраняя лидерство по стоимости. Стоимость ввода составляет 0.30 доллара за миллион токенов, а стоимость вывода — 1.20 доллара за миллион токенов. Эти цены остаются неизменными по сравнению с предыдущей версией M2.5, что делает модель экономически выгодной для масштабных проектов.

Кроме того, доступна бесплатная квота для тестирования через OpenRouter или прямую интеграцию. Это позволяет разработчикам оценить производительность модели перед внедрением в коммерческие продукты. Низкая стоимость вывода делает модель привлекательной для генеративных задач, где объем токенов может быть значительным.

  • Input: 0.30 $/M токенов
  • Output: 1.20 $/M токенов
  • Доступ: API и OpenRouter

Сравнительная таблица моделей

Сравнение MiniMax M2 с другими ведущими моделями показывает её сильные стороны в области стоимости и производительности. Ниже представлена таблица, демонстрирующая ключевые метрики конкурентов. Разработчики могут использовать эти данные для принятия решений о выборе модели для своих проектов. Важно учитывать, что контекстное окно и цена могут варьироваться в зависимости от провайдера.

Модели конкурентов, такие как GLM-5 и Qwen, также предлагают мощные возможности, но MiniMax M2 выделяется своей MoE-архитектурой и агентскими функциями. В таблице указаны цены за миллион токенов, что позволяет напрямую сравнивать экономику использования. Для задач, требующих низкой стоимости и высокой точности, M2 является предпочтительным выбором.

  • Модель: MiniMax M2
  • Модель: GLM-5
  • Модель: Qwen-2.5

Сценарии использования

MiniMax M2 идеально подходит для широкого спектра приложений, включая автоматизацию программирования и управление агентами. В сценариях RAG (Retrieval-Augmented Generation) модель эффективно обрабатывает длинные контексты, сохраняя точность ответов. Для команд разработки она служит отличным инструментом для генерации и рефакторинга кода на различных языках программирования.

Также модель применима в сценариях чат-ботов и сложных диалоговых систем, где требуется глубокая логика. Возможность выполнения 30-50% исследовательского рабочего процесса позволяет использовать модель для анализа данных и генерации гипотез. Это открывает новые возможности для автоматизации научных исследований и инженерных задач.

  • Программирование и код-ревью
  • Автоматизация агентов
  • RAG и обработка документов

Как начать работу с MiniMax M2

Для начала работы с моделью достаточно зарегистрироваться на платформе MiniMax или использовать сторонние провайдеры, такие как OpenRouter. API endpoint доступен для прямой интеграции в ваши приложения. Документация предоставляет SDK для популярных языков программирования, упрощая процесс подключения.

Рекомендуется использовать GitHub репозиторий для получения последних обновлений весов и примеров кода. Следите за официальным блогом компании для новостей об обновлениях лицензий и новых функциях. Интеграция в существующие пайплайны машинного обучения должна начинаться с тестирования на малых объемах данных.

  • Регистрация: miniimax.com
  • API: Прямой доступ
  • Документация: GitHub и официальный сайт

Comparison

Model: MiniMax M2 | Context: 128K | Max Output: 8K | Input $/M: 0.30 | Output $/M: 1.20 | Strength: MoE Architecture & Agents

Model: GLM-5 | Context: 1M | Max Output: 8K | Input $/M: 0.50 | Output $/M: 2.00 | Strength: Multilingual Support

Model: Qwen-2.5-72B | Context: 128K | Max Output: 8K | Input $/M: 0.45 | Output $/M: 1.80 | Strength: Open Weights

Model: Claude 3.5 Sonnet | Context: 200K | Max Output: 4K | Input $/M: 3.00 | Output $/M: 15.00 | Strength: Reasoning

API Pricing — Input: 0.30 / Output: 1.20 / Context: 128K


Sources

MiniMax Open Sources M2.7, a Self-Evolving Agent Model

MiniMax Drops State-of-the-Art AI Agent Model

MiniMax M2.7 Testing Shows Benchmark Wins

Chinese AI startup Zhipu releases new flagship model GLM-5