Skip to content
Назад к Блогу
Model Releases

SOLAR 102B: Новый стандарт открытой архитектуры от Upstage

Upstage выпускает SOLAR 102B — южнокорейский ответ на frontier модели с эффективной MoE архитектурой и 12B активными параметрами.

31 декабря 2025 г.
Model ReleaseSOLAR 102B
SOLAR 102B - official image

Введение: Южнокорейский ответ на Open Frontier

Компания Upstage объявила о выпуске новой модели SOLAR 102B, которая позиционируется как прорыв в области открытых языковых моделей. Этот релиз, датируемый 31 декабря 2025 года, знаменует собой важный шаг для Южной Кореи в гонке за создание конкурентоспособных open-source моделей. SOLAR 102B призван закрыть разрыв между проприетарными гигантами и доступными для сообщества решениями, предлагая производительность уровня frontier при сохранении открытости кода и весов.

Для разработчиков и инженеров ИИ это означает появление мощного инструмента, который можно развернуть локально или использовать через API без ограничений лицензии. Модель стала результатом масштабных исследований в области эффективной архитектуры, что позволяет ей конкурировать с более крупными закрытыми моделями. В условиях растущих затрат на облачные вычисления, SOLAR 102B предлагает уникальное соотношение производительности и стоимости, что делает его привлекательным выбором для корпоративных приложений.

  • Дата релиза: 2025-12-31
  • Страна разработки: Южная Корея
  • Лицензия: Open Source
  • Целевая аудитория: Enterprise и Researchers

Архитектура и ключевые характеристики

Техническая основа SOLAR 102B строится на архитектуре Mixture of Experts (MoE). Общее количество параметров составляет 102 миллиарда, однако в каждом шаге генерации активируется только 12 миллиардов параметров. Это позволяет достичь высокой эффективности inference, снижая нагрузку на вычислительные ресурсы по сравнению с плотными моделями аналогичного размера. Архитектура оптимизирована для работы с контекстными окнами, что критически важно для современных RAG-систем и долгосрочной памяти агентов.

Модель поддерживает мультимодальные возможности, включая обработку текста и изображений, что расширяет её применение за пределы чистого NLP. Разработчики могут интегрировать SOLAR 102B в существующие пайплайны обработки данных с минимальными изменениями. Высокая плотность параметров в сочетании с эффективностью MoE делает модель идеальной для задач, требующих глубокого понимания сложных инструкций и контекста.

  • Общие параметры: 102B
  • Активные параметры: 12B
  • Тип архитектуры: MoE
  • Поддержка мультимодальности: Да
  • Окно контекста: 128k токенов

Производительность и бенчмарки

На независимых тестовых площадках SOLAR 102B демонстрирует результаты, сопоставимые с лучшими проприетарными моделями. На тесте MMLU модель набирает 88.5%, что превосходит предыдущие версии SOLAR на 5%. В задачах программирования HumanEval показатель составляет 91.2%, что подтверждает её пригодность для генерации сложного кода. Эти метрики свидетельствуют о том, что модель успешно обучена на качественных данных с минимальным шумом.

Особое внимание уделяется бенчмарку SWE-bench, где SOLAR 102B показала результат 76.4%, что является одним из лучших среди открытых моделей. Это указывает на способность модели решать реальные задачи разработки программного обеспечения. Сравнение с конкурентами показывает стабильное лидерство в задачах логического вывода и математических вычислений, что делает её предпочтительным выбором для сложных аналитических систем.

  • MMLU: 88.5%
  • HumanEval: 91.2%
  • SWE-bench: 76.4%
  • MATH: 92.1%
  • ARC: 89.8%

API Pricing и доступность

Upstage предлагает гибкую модель ценообразования для SOLAR 102B, учитывающую как входные, так и выходные токены. Для разработчиков доступен бесплатный тариф с лимитом 1 миллион токенов ввода в месяц. Для коммерческих проектов стоимость начинается с 0.50 доллара за миллион входных токенов. Такая политика делает модель доступной как для стартапов, так и для крупных корпораций, планирующих масштабное внедрение.

Стоимость вывода токенов составляет 1.50 доллара за миллион, что является конкурентным показателем для моделей такого класса. В сравнении с другими провайдерами, цена на SOLAR 102B ниже на 20-30% при сопоставимой производительности. Это позволяет оптимизировать бюджет на инфраструктуру ИИ, сохраняя при этом высокое качество генерируемых ответов.

  • Бесплатный лимит: 1M токенов/мес
  • Цена Input: $0.50 / 1M токенов
  • Цена Output: $1.50 / 1M токенов
  • Поддержка API: REST и gRPC

Сравнение с конкурентами

Для оценки места SOLAR 102B на рынке необходимо сравнить её с ключевыми игроками. Мы сопоставили модель с Llama 3 70B и Qwen 2.5 72B, которые являются стандартом де-факто для open-source решений. SOLAR 102B выигрывает в скорости инференса благодаря MoE-архитектуре, но уступает в объеме контекста у некоторых специализированных моделей. Тем не менее, баланс цены и качества делает её лидером в категории производительности.

Сценарии использования

SOLAR 102B идеально подходит для задач, требующих глубокого анализа и генерации кода. Разработчики могут использовать её для создания интеллектуальных агентов, способных автономно решать задачи в репозиториях GitHub. Модель также отлично работает в системах RAG, где требуется точное извлечение информации из больших документов с учетом контекста.

В сфере чат-ботов SOLAR 102B обеспечивает естественность диалога и способность поддерживать длинные контекстные разговоры. Для компаний, занимающихся кибербезопасностью, модель полезна для анализа уязвимостей и генерации патчей. Её мультимодальность позволяет интегрировать обработку визуальных данных, что открывает возможности для создания комплексных систем поддержки принятия решений.

  • Генерация кода и рефакторинг
  • RAG системы с большим контекстом
  • Автономные AI агенты
  • Анализ документации и отчетов

Начало работы с моделью

Доступ к SOLAR 102B осуществляется через официальный API Upstage или путем локального развертывания. Для быстрого старта разработчики могут использовать Python SDK, который предоставляет удобные методы для взаимодействия с моделью. Регистрация аккаунта занимает несколько минут, после чего можно получить API ключ для доступа к платным тарифам.

Для локального запуска рекомендуется использовать Docker-контейнер с оптимизированными настройками квантования. Это позволит снизить требования к видеопамяти GPU. Документация на GitHub содержит подробные примеры использования в различных фреймворках, включая LangChain и LlamaIndex. Интеграция в существующие проекты происходит стандартными методами.

  • API Endpoint: api.upstage.ai
  • SDK: Python, Node.js
  • Локальный запуск: Docker
  • Документация: GitHub

Comparison

Model: SOLAR 102B | Context: 128k | Max Output: 8k | Input $/M: 0.50 | Output $/M: 1.50 | Strength: MoE Efficiency

Model: Llama 3 70B | Context: 8k | Max Output: 4k | Input $/M: 0.60 | Output $/M: 1.80 | Strength: Ecosystem

Model: Qwen 2.5 72B | Context: 32k | Max Output: 8k | Input $/M: 0.45 | Output $/M: 1.40 | Strength: Multilingual

Model: Gemma 3 27B | Context: 128k | Max Output: 8k | Input $/M: 0.30 | Output $/M: 0.90 | Strength: Speed

API Pricing — Input: $0.50 / Output: $1.50 / Context: 128k


Sources

Research Paper