Skip to content
Назад к Блогу
Model Releases

Qwen 3 от Alibaba: Новый стандарт открытых моделей с 235B параметрами

Разбор новой модели Qwen 3 с гибридным мышлением. Лицензия Apache 2.0, поддержка 119 языков и сравнение с конкурентами.

29 апреля 2025 г.
Model ReleaseQwen 3
Qwen 3 - official image

Введение: Что такое Qwen 3 и почему это важно?

29 апреля 2025 года Alibaba Cloud официально представила Qwen 3 — новую флагманскую открытую модель, которая переопределяет стандарты эффективности в мире больших языковых моделей. Это не просто очередное обновление, а фундаментальный скачок в архитектуре, позволяющий разработчикам внедрять мощные AI-решения без ограничений закрытых API. В эпоху, когда стоимость вычислений растет, Qwen 3 предлагает оптимальное соотношение производительности и стоимости за счет инновационной Mixture of Experts структуры.

Для инженеров и архитекторов систем искусственного интеллекта этот релиз означает доступ к технологиям уровня энтерпрайза. Модель сочетает в себе глубокие возможности понимания контекста с высокой скоростью генерации, что критически важно для построения сложных агентов и систем автоматизации. Открытость модели под лицензией Apache 2.0 позволяет компаниям свободно модифицировать и обучать её на внутренних данных, сохраняя полный контроль над интеллектуальной собственностью и безопасностью информации.

  • Дата релиза: 29 апреля 2025 года
  • Лицензия: Apache 2.0 (полностью открытая)
  • Разработчик: Alibaba Cloud
  • Категория: Open-Source LLM

Архитектура и ключевые возможности

Qwen 3 построена на базе гибридной архитектуры MoE (Mixture of Experts), где общее количество параметров достигает 235 миллиардов, но в активном режиме работает только 22 миллиарда. Это обеспечивает высокую эффективность использования ресурсов GPU при сохранении качества ответов на уровне более крупных моделей. Поддержка мультимодальных данных и гибридного мышления позволяет модели решать задачи, требующие не только фактического извлечения информации, но и логического вывода на несколько шагов вперед.

Одной из главных особенностей является поддержка 119 языков, включая китайский, английский, французский, испанский и многие другие. Это делает Qwen 3 идеальным выбором для глобальных проектов, где требуется точное понимание локального контекста и культурных нюансов. Модель также обладает увеличенным контекстным окном, что позволяет обрабатывать длинные документы и сложные цепочки запросов без потери информации.

  • Общие параметры: 235B (MoE)
  • Активные параметры: 22B
  • Языковая поддержка: 119 языков
  • Архитектура: Гибридное мышление + MoE

Производительность и бенчмарки

В независимых тестах Qwen 3 демонстрирует результаты, превосходящие предыдущие версии и конкурирующие модели. На стандартном бенчмарке MMLU модель достигает точности 88%, что свидетельствует о глубоком понимании академических и технических дисциплин. В задачах генерации кода на HumanEval модель показывает результаты выше 90%, что подтверждает её пригодность для интеграции в IDE и автоматизации разработки.

Сравнение с конкурентами показывает, что Qwen 3 значительно опережает в задачах агентов и RAG (Retrieval-Augmented Generation). Способность модели планировать действия и использовать внешние инструменты делает её мощным инструментом для автоматизации бизнес-процессов. Тесты на SWE-bench подтверждают высокую эффективность в решении реальных задач программного обеспечения, что редкость для открытых моделей такого масштаба.

  • MMLU: 88% точности
  • HumanEval: >90% решений
  • SWE-bench: Высокая эффективность в реальных задачах
  • Мультимодальность: Поддержка текста и кода

Тарификация и доступность API

Лицензия Apache 2.0 открывает путь для бесплатного использования модели в коммерческих целях без необходимости выплаты роялти. Однако для доступа к облачному API Alibaba Cloud предлагает гибкие тарифные планы. Вводные токены стоят $0.50 за миллион, а выходные токены — $1.50 за миллион, что делает модель одной из самых доступных среди моделей с параметрами такого уровня.

Для разработчиков доступен бесплатный слой через ModelScope и HuggingFace, позволяющий тестировать модель локально или в облаке без затрат. Это критически важно для оценки производительности перед масштабированием. Стоимость контекстного окна составляет $0.0001 за 1000 токенов, что выгодно отличает Qwen 3 от более дорогих закрытых решений.

  • Лицензия: Apache 2.0 (бесплатно)
  • Ввод ($/M): $0.50
  • Выход ($/M): $1.50
  • Контекст: 256k токенов

Сравнение с конкурентами

Чтобы понять место Qwen 3 на рынке, сравним её с двумя ключевыми конкурентами. Llama 3.1 405B предлагает большую мощность, но требует значительно больше ресурсов для инференса. Mixtral 8x22B является более легким вариантом, но уступает в контексте и многозадачности. Qwen 3 находит баланс между размером и эффективностью, предлагая лучшие результаты на ватт мощности.

Таблица ниже показывает ключевые различия между моделями, которые помогут вам выбрать подходящий инструмент для вашего проекта.

  • Контекст: 256k для Qwen 3
  • Скорость: MoE архитектура ускоряет инференс
  • Языки: 119 против 100+ у конкурентов

Сценарии использования

Qwen 3 идеально подходит для разработки сложных агентов, способных планировать и выполнять многошаговые задачи. В сценариях RAG модель эффективно извлекает информацию из больших баз знаний, обеспечивая высокую релевантность ответов. Для команд разработчиков это мощный инструмент для генерации, рефакторинга и тестирования кода, снижающий время вывода продукта на рынок.

В корпоративном секторе модель используется для создания внутренних чат-ботов и систем поддержки, которые понимают специфическую терминологию компании. Благодаря поддержке 119 языков, она также применяется для локализации контента и анализа международной обратной связи.

  • Автоматизация кодинга
  • Корпоративные агенты
  • RAG системы
  • Мультиязычная поддержка

Начало работы с Qwen 3

Получить доступ к Qwen 3 можно через официальные репозитории на HuggingFace и ModelScope. Для запуска локально требуется GPU с памятью не менее 48 ГБ для полной модели, но MoE архитектура позволяет использовать меньшие кластеры. Документация предоставляет подробные примеры на Python и SDK для интеграции в существующие приложения.

Разработчики могут использовать официальный SDK Alibaba Cloud для быстрого подключения модели к своим сервисам. Для экспериментов доступна бесплатная версия на облачной платформе, что позволяет протестировать функциональность перед развертыванием в продакшене.

  • Платформы: HuggingFace, ModelScope
  • SDK: Python, JavaScript
  • Документация: Официальный блог Alibaba

Comparison

Model: Qwen 3 | Context: 256k | Max Output: 8k | Input $/M: $0.50 | Output $/M: $1.50 | Strength: MoE Efficiency

Model: Llama 3.1 405B | Context: 128k | Max Output: 4k | Input $/M: $2.00 | Output $/M: Raw Power | Strength: N/A

Model: Mixtral 8x22B | Context: 64k | Max Output: 8k | Input $/M: $0.20 | Output $/M: Speed | Strength: N/A

API Pricing — Input: $0.50 / Output: $1.50 / Context: 256k


Sources

Alibaba Cloud Qwen Official Blog

ModelScope Qwen Documentation