Skip to content
Назад к Блогу
Model Releases

Qwen3.6-27B: Как плотная модель обошла гигантов в коде

Новый open-source от Alibaba. 27B параметров, Apache 2.0, SWE-bench 77.2. Лучшая производительность на агентах.

22 апреля 2026 г.
Model ReleaseQwen3.6-27B
Qwen3.6-27B - official image

Введение: Исторический прорыв в open-source

22 апреля 2026 года команда Qwen от Alibaba Cloud представила модель Qwen3.6-27B, которая стала настоящим событием в мире искусственного интеллекта. Это плотная модель с 27 миллиардами параметров, выпущенная под лицензией Apache 2.0, что делает её полностью открытой для коммерческого использования. Главное, что отличает эту модель, — это её способность превосходить значительно более крупные конкуренты на ключевых задачах агентского программирования.

Релиз этой модели ознаменовал новый этап в развитии доступных языковых моделей. До этого момента считалось, что для достижения флагманского уровня в коде и сложных логических задачах требуются модели с сотнями миллиардов параметров. Qwen3.6-27B опровергает эту догму, демонстрируя, что плотная архитектура может быть оптимизирована до уровня MoE-моделей, но с большей эффективностью и простотой развертывания.

Для разработчиков и инженеров это означает возможность внедрения мощных когнитивных способностей в локальные среды или облачные решения без огромных затрат на инфраструктуру. Модель поддерживает как режимы многомодального мышления, так и стандартные текстовые взаимодействия, что расширяет сценарии её применения.

  • Дата релиза: 22 апреля 2026 года
  • Лицензия: Apache 2.0
  • Тип: Dense Open-Source
  • Семейство: Qwen3.6

Архитектура и ключевые возможности

Qwen3.6-27B построена на базе 64-слойной архитектуры с гибридным расположением блоков. Модель использует комбинацию Gated DeltaNet и FFN в 16 повторениях, что обеспечивает высокую плотность и эффективность обучения. Контекстное окно составляет 262 144 токена нативно, с возможностью расширения до 1 010 000 токенов, что позволяет обрабатывать огромные документы и видео.

Одной из главных особенностей является нативная поддержка как режимов многомодального мышления, так и режимов без мышления в единой контрольной точке. Это позволяет модели гибко переключаться между задачами, требующими глубокого анализа и простых ответов. Поддержка vision-language включает понимание изображений и видео, что делает её универсальным инструментом для анализа мультимедийного контента.

Доступна в двух форматах: BF16 и FP8 (квантованная версия с блоком 128). FP8-версия сохраняет почти идентичные метрики производительности, что критически важно для развертывания на потребительском железе. Совместимость с OpenClaw, Claude Code и Qwen Code позволяет легко интегрировать модель в существующие рабочие процессы разработки.

  • Параметры: 27 миллиардов (Dense)
  • Контекст: 262k - 1M токенов
  • Лицензия: Apache 2.0
  • Форматы: BF16, FP8 (Block 128)
  • Режимы: Мышление и без мышления

Производительность и бенчмарки

Наиболее впечатляющим результатом Qwen3.6-27B стало её доминирование на задачах агентского программирования. На бенчмарке SWE-bench Verified модель набрала 77.2, что на 1.0 пункта выше, чем у предыдущего флагмана Qwen3.5-397B-A17B (76.2). Это ставит её в один ряд с закрытыми моделями премиум-класса, такими как Sonnet 4.6.

На Terminal-Bench 2.0 модель показала результат 59.3 против 52.5 у конкурентов, демонстрируя превосходство в выполнении сложных командных операций в терминале. На SkillsBench она достигла 48.2 против 30.0, подтверждая глубокие навыки работы с инструментами и API. На GPQA Diamond модель набрала 87.8, что сопоставимо с моделями в несколько раз больше её по параметрам.

Эти цифры подтверждают, что плотная архитектура Qwen3.6-27B не просто копирует поведение больших моделей, а оптимизирована для эффективного решения задач. Это делает её идеальным выбором для локального деплоя, где пропускная способность и задержки критичны.

  • SWE-bench Verified: 77.2
  • Terminal-Bench 2.0: 59.3
  • SkillsBench: 48.2
  • GPQA Diamond: 87.8
  • Превосходство над 397B MoE

Стоимость API и доступность

Как и многие другие модели в экосистеме Qwen, Qwen3.6-27B доступна через Alibaba Cloud Model Studio API. Однако точные тарифы на момент публикации не были публично детализированы в открытых источниках. Для разработчиков важно учитывать, что модель доступна на Hugging Face и ModelScope бесплатно для скачивания и тестирования.

Если вы планируете использовать API, рекомендуется проверить актуальные прайс-листы на официальной странице Alibaba Cloud, так как стоимость может варьироваться в зависимости от региона и объема использования. Для локального развертывания модель полностью бесплатна, что делает её идеальной для исследований и внутренних инструментов компании.

Отсутствие скрытых платежей и открытая лицензия Apache 2.0 позволяют использовать модель в коммерческих продуктах без необходимости платить роялти. Это редкое преимущество для моделей такого уровня производительности.

  • Лицензия: Apache 2.0 (Бесплатно)
  • Платформа: Hugging Face, ModelScope
  • API: Alibaba Cloud Model Studio
  • Цена: N/A (проверить актуально)

Сценарии использования

Qwen3.6-27B идеально подходит для задач, требующих глубокого понимания кода и логики. Разработчики могут использовать её для автоматизации рефакторинга, генерации тестов и написания сложных скриптов. Благодаря поддержке агентов, модель может самостоятельно планировать шаги для решения задач, используя доступные инструменты.

В сфере RAG (Retrieval-Augmented Generation) модель демонстрирует высокую эффективность благодаря большому контекстному окну. Это позволяет загружать в неё целые базы знаний или документацию без потери смысла. Для чат-ботов и виртуальных ассистентов модель обеспечивает естественное понимание запросов и контекста.

Мультимодальные возможности открывают возможности для анализа видео и изображений в реальном времени. Интеграция с Qwen Studio предоставляет функционал для обработки документов, веб-поиска и генерации артефактов, что делает её универсальным инструментом для команд разработки.

  • Агентское программирование
  • RAG и обработка документов
  • Мультимодальный анализ
  • Локальные AI-ассистенты
  • Тестирование и рефакторинг

Как начать работу

Для начала работы с Qwen3.6-27B необходимо загрузить веса модели с Hugging Face Hub или ModelScope. Доступны версии BF16 и FP8. Для локального запуска используйте библиотеки типа llama.cpp или vLLM, обеспечив соответствующие ресурсы видеопамяти. Для FP8-версии достаточно 24 ГБ VRAM для комфортной работы.

Интеграция с API возможна через Alibaba Cloud Model Studio. Используйте SDK Python или HTTP-запросы для взаимодействия. Для разработчиков, привыкших к OpenAI API, совместимость протокола упрощает переход. Примеры кода доступны в репозитории модели на GitHub.

Не забудьте проверить совместимость с вашими текущими инструментами, такими как OpenClaw или Qwen Code. Документация на сайте qwen.ai содержит подробные гайды по развертыванию и настройке параметров.

  • Скачать: Hugging Face, ModelScope
  • Форматы: BF16, FP8
  • Инструменты: vLLM, llama.cpp
  • Документация: qwen.ai/blog
  • Интеграция: OpenAI API Compatible

Sources

GitHub Repository

Reddit r/LocalLLaMA

Qwen Blog: Qwen3.6-27B Release

Hugging Face: Qwen/Qwen3.6-27B

MarkTechPost: Qwen3.6-27B Release Analysis