Skip to content
Назад к Блогу
Model Releases

Sarvam-2B: Новый легкий индийский LLM для суверенного ИИ

Sarvam AI представил Sarvam-2B — открытую модель с поддержкой 10+ индийских языков. Идеально для edge-устройств и локального развертывания.

15 января 2026 г.
Model ReleaseSarvam-2B
Sarvam-2B - official image

Введение: Что такое Sarvam-2B и почему это важно

15 января 2026 года Sarvam AI официально представила новую модель Sarvam-2B, которая является ключевым элементом национальной стратегии суверенного искусственного интеллекта Индии. Эта модель разработана с учетом специфических потребностей региона, где доминирует множество языков, отличных от английского. В отличие от западных гигантов, которые фокусируются на глобальных данных, Sarvam-2B обучена на уникальных корпусах данных из Индии, что делает её значительно более эффективной для локальных задач.

Для разработчиков это означает появление нового инструмента, который можно использовать без зависимости от зарубежных API. Модель позиционируется как легковесная альтернатива, сохраняя при этом высокую точность в понимании культурного контекста и грамматики региональных языков. Это важный шаг для индийского технологического сектора, стремящегося к технологической независимости.

Запуск модели происходит на фоне расширения экосистемы Sarvam AI, которая ранее представила более тяжелые версии Sarvam 30B и 105B. Sarvam-2B закрывает нишу для устройств с ограниченными ресурсами, позволяя запускать интеллектуальные агенты на серверах с низкой пропускной способностью или даже на мощных ноутбуках без облачных подключений.

  • Дата релиза: 15 января 2026 года
  • Разработчик: Sarvam AI (Бангалор)
  • Статус: Open Source
  • Цель: Суверенный ИИ для Индии

Ключевые особенности и архитектура модели

Sarvam-2B построена на архитектуре с плотными параметрами, оптимизированной для скорости инференса. Модель поддерживает нативную работу с более чем 10 индийскими языками, включая хинди, маратхи, телугу, каннада и тамильский. Это достигается за счет использования специализированных токенизаторов, которые эффективно обрабатывают сложные письменные системы региона.

Архитектура модели включает механизмы внимания, адаптированные для многоязычных контекстов. Это позволяет модели корректно переключаться между языками в рамках одного диалога, что критически важно для поддержки многоязычных интерфейсов. Параметры модели составляют 2 миллиарда, что делает её компактной и энергоэффективной по сравнению с конкурентами.

Кроме того, модель поддерживает контекстное окно до 16 тысяч токенов, что позволяет обрабатывать длинные документы и технические спецификации без потери смысла. Разработчики могут использовать модель для задач генерации кода, суммаризации и анализа данных на местных языках.

  • Параметры: 2B
  • Языковая поддержка: 10+ индийских языков
  • Контекстное окно: 16k токенов
  • Лицензия: Open Source (Apache 2.0)

Производительность и бенчмарки

В тестах Sarvam-2B демонстрирует впечатляющую точность для своего размера. На бенчмарке MMLU модель набирает 68 баллов, что сопоставимо с более тяжелыми моделями при меньших затратах на вычисления. Это свидетельствует о высокой эффективности обучения на данных, специфичных для региона.

В задачах HumanEval, связанных с генерацией кода, модель показывает результат 42%, что выше среднего для моделей класса 2B. Это делает её пригодной для помощи разработчикам в написании скриптов и автоматизации задач на серверах в Индии. В тестах SWE-bench модель также показывает стабильные результаты, подтверждая её надежность.

Сравнение с предыдущими версиями показывает улучшение на 15% в задачах, связанных с индийским культурным контекстом. Это достигается за счет добавления новых данных в обучающую выборку и пересмотра весов модели для лучшего понимания нюансов местного языка.

  • MMLU: 68 баллов
  • HumanEval: 42%
  • SWE-bench: 35%
  • Улучшение по сравнению с версией 1B: 15%

Ценообразование и доступность API

Как и более крупные модели Sarvam 30B и 105B, Sarvam-2B доступна в открытом виде. Это означает, что разработчики могут бесплатно скачать веса модели и развернуть её на своих собственных инфраструктурах без ежемесячной платы. Для компаний, желающих использовать модель через API, Sarvam AI предлагает гибкие тарифные планы.

  • Доступ: Open Source (HuggingFace, GitHub)
  • API: Доступно по запросу
  • Бесплатный уровень: Да

Сравнение с конкурентами

Sarvam-2B конкурирует с популярными легковесными моделями, такими как Llama-3-8B и Mistral-7B. Основное преимущество Sarvam-2B заключается в глубокой интеграции с индийскими языками, чего лишены западные аналоги. В то время как Llama-3-8B требует значительных ресурсов для обучения, Sarvam-2B оптимизирована для локальных вычислений.

  • Преимущество: Нативная поддержка индийских языков
  • Размер: 2B против 7B/8B
  • Цена: Бесплатно для open source

Сценарии использования

Sarvam-2B идеально подходит для развертывания в облачных средах, где важна экономия на инфраструктуре. Разработчики могут использовать модель для создания чат-ботов поддержки, работающих на местных диалектах, что повышает вовлеченность пользователей в индийском регионе.

В области RAG (Retrieval-Augmented Generation) модель позволяет создавать базы знаний на региональных языках, что критически важно для государственных и медицинских учреждений. Также модель применяется в агентах для автоматизации бизнес-процессов, требующих понимания местного законодательства.

  • Чат-боты поддержки
  • Локальные RAG системы
  • Автоматизация бизнеса
  • Образовательные платформы

Как начать работу с моделью

Для доступа к Sarvam-2B разработчикам необходимо зайти на официальный репозиторий на HuggingFace или GitHub. Там доступны как веса модели, так и примеры кода на Python. Интеграция возможна через стандартные библиотеки HuggingFace Transformers или через специализированный SDK от Sarvam AI.

Для запуска локально требуется видеокарта с объемом памяти не менее 8 ГБ. Команда разработчиков Sarvam AI предоставляет документацию с инструкциями по квантованию модели для работы на CPU. Это позволяет запускать модель даже на старых устройствах.

  • Платформа: HuggingFace, GitHub
  • SDK: Python
  • Требования: 8 ГБ VRAM для полных весов
  • Документация: Официальный блог

Comparison

Model: Sarvam-2B | Context: 16k | Max Output: 4k | Input $/M: 0.00 | Output $/M: 0.00 | Strength: Индийские языки

Model: Llama-3-8B | Context: 8k | Max Output: 4k | Input $/M: 0.00 | Output $/M: 0.00 | Strength: Глобальный контекст

Model: Mistral-7B | Context: 32k | Max Output: 8k | Input $/M: 0.00 | Output $/M: 0.00 | Strength: Высокая точность

API Pricing — Input: 0.00 / Output: 0.00 / Context: 16k


Sources

Sarvam AI Open Source Bet Faces Early Adoption Hurdles

Sarvam Launches Open-Weight AI Models Built For Multilingual India