Qwen3.6-27B: Как плотная модель обошла гигантов в коде
Новый open-source от Alibaba. 27B параметров, Apache 2.0, SWE-bench 77.2. Лучшая производительность на агентах.

Введение: Исторический прорыв в open-source
22 апреля 2026 года команда Qwen от Alibaba Cloud представила модель Qwen3.6-27B, которая стала настоящим событием в мире искусственного интеллекта. Это плотная модель с 27 миллиардами параметров, выпущенная под лицензией Apache 2.0, что делает её полностью открытой для коммерческого использования. Главное, что отличает эту модель, — это её способность превосходить значительно более крупные конкуренты на ключевых задачах агентского программирования.
Релиз этой модели ознаменовал новый этап в развитии доступных языковых моделей. До этого момента считалось, что для достижения флагманского уровня в коде и сложных логических задачах требуются модели с сотнями миллиардов параметров. Qwen3.6-27B опровергает эту догму, демонстрируя, что плотная архитектура может быть оптимизирована до уровня MoE-моделей, но с большей эффективностью и простотой развертывания.
Для разработчиков и инженеров это означает возможность внедрения мощных когнитивных способностей в локальные среды или облачные решения без огромных затрат на инфраструктуру. Модель поддерживает как режимы многомодального мышления, так и стандартные текстовые взаимодействия, что расширяет сценарии её применения.
- Дата релиза: 22 апреля 2026 года
- Лицензия: Apache 2.0
- Тип: Dense Open-Source
- Семейство: Qwen3.6
Архитектура и ключевые возможности
Qwen3.6-27B построена на базе 64-слойной архитектуры с гибридным расположением блоков. Модель использует комбинацию Gated DeltaNet и FFN в 16 повторениях, что обеспечивает высокую плотность и эффективность обучения. Контекстное окно составляет 262 144 токена нативно, с возможностью расширения до 1 010 000 токенов, что позволяет обрабатывать огромные документы и видео.
Одной из главных особенностей является нативная поддержка как режимов многомодального мышления, так и режимов без мышления в единой контрольной точке. Это позволяет модели гибко переключаться между задачами, требующими глубокого анализа и простых ответов. Поддержка vision-language включает понимание изображений и видео, что делает её универсальным инструментом для анализа мультимедийного контента.
Доступна в двух форматах: BF16 и FP8 (квантованная версия с блоком 128). FP8-версия сохраняет почти идентичные метрики производительности, что критически важно для развертывания на потребительском железе. Совместимость с OpenClaw, Claude Code и Qwen Code позволяет легко интегрировать модель в существующие рабочие процессы разработки.
- Параметры: 27 миллиардов (Dense)
- Контекст: 262k - 1M токенов
- Лицензия: Apache 2.0
- Форматы: BF16, FP8 (Block 128)
- Режимы: Мышление и без мышления
Производительность и бенчмарки
Наиболее впечатляющим результатом Qwen3.6-27B стало её доминирование на задачах агентского программирования. На бенчмарке SWE-bench Verified модель набрала 77.2, что на 1.0 пункта выше, чем у предыдущего флагмана Qwen3.5-397B-A17B (76.2). Это ставит её в один ряд с закрытыми моделями премиум-класса, такими как Sonnet 4.6.
На Terminal-Bench 2.0 модель показала результат 59.3 против 52.5 у конкурентов, демонстрируя превосходство в выполнении сложных командных операций в терминале. На SkillsBench она достигла 48.2 против 30.0, подтверждая глубокие навыки работы с инструментами и API. На GPQA Diamond модель набрала 87.8, что сопоставимо с моделями в несколько раз больше её по параметрам.
Эти цифры подтверждают, что плотная архитектура Qwen3.6-27B не просто копирует поведение больших моделей, а оптимизирована для эффективного решения задач. Это делает её идеальным выбором для локального деплоя, где пропускная способность и задержки критичны.
- SWE-bench Verified: 77.2
- Terminal-Bench 2.0: 59.3
- SkillsBench: 48.2
- GPQA Diamond: 87.8
- Превосходство над 397B MoE
Стоимость API и доступность
Как и многие другие модели в экосистеме Qwen, Qwen3.6-27B доступна через Alibaba Cloud Model Studio API. Однако точные тарифы на момент публикации не были публично детализированы в открытых источниках. Для разработчиков важно учитывать, что модель доступна на Hugging Face и ModelScope бесплатно для скачивания и тестирования.
Если вы планируете использовать API, рекомендуется проверить актуальные прайс-листы на официальной странице Alibaba Cloud, так как стоимость может варьироваться в зависимости от региона и объема использования. Для локального развертывания модель полностью бесплатна, что делает её идеальной для исследований и внутренних инструментов компании.
Отсутствие скрытых платежей и открытая лицензия Apache 2.0 позволяют использовать модель в коммерческих продуктах без необходимости платить роялти. Это редкое преимущество для моделей такого уровня производительности.
- Лицензия: Apache 2.0 (Бесплатно)
- Платформа: Hugging Face, ModelScope
- API: Alibaba Cloud Model Studio
- Цена: N/A (проверить актуально)
Сценарии использования
Qwen3.6-27B идеально подходит для задач, требующих глубокого понимания кода и логики. Разработчики могут использовать её для автоматизации рефакторинга, генерации тестов и написания сложных скриптов. Благодаря поддержке агентов, модель может самостоятельно планировать шаги для решения задач, используя доступные инструменты.
В сфере RAG (Retrieval-Augmented Generation) модель демонстрирует высокую эффективность благодаря большому контекстному окну. Это позволяет загружать в неё целые базы знаний или документацию без потери смысла. Для чат-ботов и виртуальных ассистентов модель обеспечивает естественное понимание запросов и контекста.
Мультимодальные возможности открывают возможности для анализа видео и изображений в реальном времени. Интеграция с Qwen Studio предоставляет функционал для обработки документов, веб-поиска и генерации артефактов, что делает её универсальным инструментом для команд разработки.
- Агентское программирование
- RAG и обработка документов
- Мультимодальный анализ
- Локальные AI-ассистенты
- Тестирование и рефакторинг
Как начать работу
Для начала работы с Qwen3.6-27B необходимо загрузить веса модели с Hugging Face Hub или ModelScope. Доступны версии BF16 и FP8. Для локального запуска используйте библиотеки типа llama.cpp или vLLM, обеспечив соответствующие ресурсы видеопамяти. Для FP8-версии достаточно 24 ГБ VRAM для комфортной работы.
Интеграция с API возможна через Alibaba Cloud Model Studio. Используйте SDK Python или HTTP-запросы для взаимодействия. Для разработчиков, привыкших к OpenAI API, совместимость протокола упрощает переход. Примеры кода доступны в репозитории модели на GitHub.
Не забудьте проверить совместимость с вашими текущими инструментами, такими как OpenClaw или Qwen Code. Документация на сайте qwen.ai содержит подробные гайды по развертыванию и настройке параметров.
- Скачать: Hugging Face, ModelScope
- Форматы: BF16, FP8
- Инструменты: vLLM, llama.cpp
- Документация: qwen.ai/blog
- Интеграция: OpenAI API Compatible