Skip to content
Назад к Блогу
Model Releases

Mistral Medium 3: Новый фронт-тир открытый LLM от Mistral AI

Mistral AI представила Mistral Medium 3 — модель уровня GPT-4o с лицензией Apache 2.0. Идеально для edge и enterprise.

14 мая 2025 г.
Model ReleaseMistral Medium 3
Mistral Medium 3 - official image

Введение: Революция в открытом ИИ

14 мая 2025 года Mistral AI официально представила Mistral Medium 3, ставшую флагманом своей серии моделей. Это событие знаменует собой значительный шаг вперед в доступности передовых технологий искусственного интеллекта. Модель позиционируется как front-tier решение, которое по своим возможностям конкурирует с закрытыми моделями уровня GPT-4o от OpenAI.

Главная новинка заключается в открытой архитектуре и лицензировании. В отличие от многих конкурентов, Mistral Medium 3 доступна под лицензией Apache 2.0, что позволяет разработчикам свободно использовать, модифицировать и распространять модель без ограничений. Это открывает новые горизонты для коммерческих применений и исследований в академической среде.

Компания подчеркивает, что модель спроектирована для работы на самых разных устройствах, от мощных серверов до ноутбуков и дронов, обеспечивая децентрализацию вычислений.

  • Дата релиза: 14 мая 2025 года
  • Лицензия: Apache 2.0
  • Конкурент: GPT-4o
  • Категория: Front-tier Open Source

Ключевые особенности и архитектура

Архитектура Mistral Medium 3 построена на базе технологии Mixture of Experts (MoE), что позволяет модели обрабатывать сложные запросы с высокой эффективностью. Модель поддерживает широкий контекстный окно, достаточный для анализа длинных документов и видео-потоков.

Особое внимание уделено мультиязычным возможностям. Модель обучалась на данных из 100+ языков, обеспечивая высокую точность перевода и генерации контента на русском, английском, французском и других европейских языках. Это делает её идеальным выбором для глобальных проектов.

Интеграция с экосистемой NVIDIA и оптимизация для edge-устройств позволяют запускать модель на GPU с низкой задержкой, что критически важно для приложений в реальном времени.

  • Архитектура: MoE (Sparse Experts)
  • Языковая поддержка: 100+ языков
  • Оптимизация: NVIDIA H100 / Edge
  • Мультимодальность: Текст + Изображения

Производительность и бенчмарки

В независимых тестах Mistral Medium 3 продемонстрировала выдающиеся результаты. На бенчмарке MMLU (Massive Multitask Language Understanding) модель набрала 84.5%, что сопоставимо с закрытыми лидерами рынка. В тестах на кодирование HumanEval показатели составили 82%, демонстрируя высокий уровень понимания синтаксиса и логики.

Для разработчиков, занимающихся автоматизацией, важны результаты на SWE-bench, где модель показала эффективность в решении реальных задач программного обеспечения. Это подтверждает, что модель подходит не только для чат-ботов, но и для интеграции в CI/CD пайплайны.

Скорость генерации токенов (tokens/sec) на потребительском оборудовании значительно выше, чем у предыдущих версий, благодаря улучшенной архитектуре весов.

  • MMLU: 84.5%
  • HumanEval: 82%
  • SWE-bench: 68%
  • Скорость: 120+ tokens/sec (H100)

Ценообразование API

Mistral AI предлагает конкурентоспособные тарифы для API. Благодаря открытости модели, стоимость использования Mistral Medium 3 значительно ниже аналогов. Это делает её экономически выгодной для стартапов и крупных корпораций.

Стоимость ввода и вывода рассчитывается за миллион токенов. Для разработчиков доступен бесплатный tier с лимитом на количество запросов, что позволяет тестировать модель без финансовых вложений.

Прозрачность ценовой политики позволяет точно прогнозировать расходы на инфраструктуру ИИ, что является ключевым фактором при масштабировании проектов.

  • Бесплатный tier: Доступен для тестов
  • Плата за ввод: ~$0.40 / млн токенов
  • Плата за вывод: ~$1.20 / млн токенов
  • Минимальный лимит: 1000 запросов/день

Сравнение с конкурентами

При выборе модели для проекта важно понимать её место на рынке. Mistral Medium 3 выделяется не только качеством, но и свободой использования. Сравнение с другими лидерами показывает её сильные стороны в области мультиязычности и стоимости.

В то время как GPT-4o предлагает мощные возможности, его лицензия и стоимость API могут быть ограничивающими факторами. Mistral 3 предлагает баланс между качеством и доступностью.

Для задач, требующих полного контроля над данными, Mistral Medium 3 является предпочтительным выбором благодаря Apache 2.0 лицензии.

  • Лицензия: Open vs Closed
  • Стоимость: Ниже рынка
  • Языки: Мультиязычный фокус
  • Гибкость: Fine-tuning

Таблица сравнения

Ниже приведена таблица, сравнивающая Mistral Medium 3 с ключевыми конкурентами на рынке LLM по состоянию на май 2025 года.

Различия в контекстном окне и стоимости напрямую влияют на выбор архитектуры для вашего приложения.

Сценарии использования

Mistral Medium 3 идеально подходит для широкого спектра задач. В области разработки она используется для генерации кода, рефакторинга и написания тестов. Для бизнеса модель применяется в чат-ботах поддержки и автоматизации рутинных задач.

В системах RAG (Retrieval-Augmented Generation) модель демонстрирует высокую способность к работе с контекстом, извлекая нужную информацию из баз знаний. Это позволяет создавать умные документообороты и системы аналитики.

Также модель эффективна для создания агентов, способных выполнять сложные последовательные действия в интернете или внутренних системах компании.

  • Генерация и рефакторинг кода
  • Мультиязычные чат-боты
  • RAG системы и поиск
  • Edge AI приложения

Начало работы

Получить доступ к Mistral Medium 3 можно через официальный API Mistral AI. Для интеграции достаточно использовать стандартные HTTP-запросы или SDK для Python, JavaScript и других языков.

Модель также доступна для локального развертывания через Hugging Face и Ollama. Это позволяет полностью контролировать данные и запускать модель без отправки запросов в облако.

Для начала работы зарегистрируйтесь на платформе Mistral AI, получите API ключ и попробуйте бесплатный эндпоинт для тестирования возможностей модели.

  • API Endpoint: api.mistral.ai
  • SDK: Python, JS, Go
  • Локальный запуск: Ollama, vLLM
  • Документация: docs.mistral.ai

Comparison

Model: Mistral Medium 3 | Context: 128K | Max Output: 8K | Input $/M: $0.40 | Output $/M: $1.20 | Strength: Apache 2.0 License

Model: GPT-4o | Context: 128K | Max Output: 4K | Input $/M: $5.00 | Output $/M: $15.00 | Strength: Proprietary

Model: Llama 3.1 70B | Context: 8K | Max Output: 4K | Input $/M: $0.00 | Output $/M: $0.00 | Strength: Open Source

Model: Claude 3.5 Sonnet | Context: 200K | Max Output: 4K | Input $/M: $3.00 | Output $/M: $15.00 | Strength: High Reasoning

API Pricing — Input: $0.40 / Output: $1.20 / Context: 128K tokens


Sources

Mistral AI Official Blog

TechCrunch Analysis

NVIDIA Partnership Announcement