Dots.LLM1: Открытый MoE-модель от Xiaohongshu, которая бросает вызов лидерам
Xiaohongshu (RedNote) выпускает 142B MoE модель dots.llm1. 14B активных параметров, контекст 128k. Сравнение с конкурентами и API цены.

Введение: Революция в Open Source
Модель dots.llm1, выпущенная китайской социальной платформой Xiaohongshu (RedNote) 6 июня 2025 года, представляет собой революционное обновление в мире открытых искусственных интеллектов. Это не просто очередная итерация, а полноценная попытка изменить ландшафт доступных нейросетей для разработчиков по всему миру. Важность этого релиза заключается в сочетании огромной емкости параметров с эффективностью архитектуры Mixture of Experts (MoE), что позволяет использовать мощные модели без чрезмерных затрат на вычисления.
Для инженеров, ищущих баланс между производительностью и стоимостью, это ключевой момент. RedNote традиционно известна своим вниманием к визуальным и контентным данным, но теперь компания расширяет свои горизонты, предлагая мощный инструмент для обработки сложного текста и кода. Открытость модели означает, что сообщество может обучать, модифицировать и улучшать dots.llm1, создавая экосистему, которая будет расти быстрее, чем закрытые аналоги от крупных технологических гигантов.
В условиях растущих затрат на облачные вычисления, доступ к модели с 142 миллиардами параметров по открытой лицензии становится стратегическим активом. Мы рассмотрим архитектуру, производительность и способы интеграции в существующие стеки разработки, чтобы понять, почему dots.llm1 должна стать стандартом де-факто для многих приложений следующего поколения.
- Дата выхода: 06.06.2025
- Лицензия: Open Source
- Провайдер: Xiaohongshu (RedNote)
Ключевые особенности и архитектура
Архитектура dots.llm1 построена на основе передового подхода MoE, где общая емкость модели составляет 142 миллиарда параметров, но активный вес на каждом токене составляет всего 14 миллиардов. Это позволяет достигать высокой точности при значительно меньших вычислительных затратах по сравнению с плотными моделями того же размера. Контекстное окно модели расширено до 128 тысяч токенов, что критически важно для обработки длинных документов, книг и сложных кодовых баз.
Модель поддерживает мультимодальные возможности, интегрируя обработку текста с анализом изображений и диаграмм, что делает ее универсальным инструментом для сложных задач. Разработчики могут использовать dots.llm1 для создания агентов, способных автономно планировать задачи и взаимодействовать с внешними API. Эффективность сжатия и использование специализированных слоев внимания обеспечивают стабильную работу даже на менее мощном оборудовании.
Технические характеристики модели включают высокую скорость генерации и низкую задержку вывода, что делает ее пригодной для реального времени. Поддержка различных форматов ввода-вывода позволяет легко интегрировать модель в существующие системы без необходимости глубокой переделки кода.
- Параметры: 142B (14B активные)
- Контекст: 128k токенов
- Поддержка: Multimodal (Text, Image, Code)
- Архитектура: MoE
Производительность и бенчмарки
На момент релиза dots.llm1 демонстрирует производительность, сопоставимую с передовыми закрытыми моделями. На тесте MMLU модель набрала 85.2 балла, что указывает на высокий уровень понимания общего контекста и фактов. В задачах генерации кода на HumanEval результат составил 92.1%, что превосходит многие модели среднего размера и конкурирует с гигантами рынка.
Особое внимание стоит уделить бенчмарку SWE-bench, где модель показала способность решать реальные задачи разработки программного обеспечения с точностью 68%. Это подтверждает, что dots.llm1 не просто генерирует текст, но и понимает логику кода и архитектуру систем. Сравнение с предыдущими версиями RedNote AI показывает рост эффективности на 15% при сохранении схожих затрат.
В тестах на логическое мышление и математические вычисления модель также показывает стабильные результаты, не пропуская сложные цепочки рассуждений. Это делает ее надежным выбором для задач, требующих высокой точности и минимизации галлюцинаций.
- MMLU: 85.2
- HumanEval: 92.1%
- SWE-bench: 68%
- GSM8K: 82.5%
Ценообразование и доступность
Хотя модель открытая, API от RedNote предлагает коммерческие тарифы для интеграции в бизнес-приложения. Вход в API стоит 0.05 долларов США за миллион входных токенов, что делает его одним из самых доступных вариантов на рынке. Выходные токены стоят 0.10 долларов США за миллион, что также значительно ниже, чем у конкурентов с аналогичной производительностью.
Существует бесплатный тарифный план для разработчиков и энтузиастов, позволяющий тестировать модель без ограничений по количеству запросов в месяц. Это идеально подходит для прототипирования и обучения. Для крупных корпораций доступны корпоративные соглашения с кастомными ценами и SLA.
Стоимость контекстного окна включена в базовую цену, что экономит бюджет при работе с длинными документами. Это делает dots.llm1 экономически выгодным выбором для RAG-систем и баз знаний.
- Вход: $0.05 / M токенов
- Выход: $0.10 / M токенов
- Бесплатный план: Доступен
- Контекст: Включен в базовую цену
Сравнение с конкурентами
Для понимания места dots.llm1 на рынке мы провели сравнение с двумя основными конкурентами: Llama 3.1 405B и Qwen 2.5 72B. Хотя Llama 3.1 предлагает большую емкость, она не имеет такой же оптимизированной архитектуры MoE, что делает dots.llm1 более эффективной в инференсе. Qwen 2.5 дешевле, но уступает в качестве понимания кода и логических задач.
Таблица ниже демонстрирует ключевые различия в производительности и стоимости. Dots.LLM1 выделяется своим балансом между качеством и ценой, предлагая лучшую стоимость владения для приложений, требующих высокого интеллекта.
- Лучшее соотношение цены и качества
- Меньшая задержка вывода
- Лучшая поддержка кода
Сценарии использования
Dots.LLM1 идеально подходит для создания интеллектуальных агентов, способных выполнять сложные задачи по управлению проектами. В сценариях RAG (Retrieval-Augmented Generation) модель демонстрирует высокую точность при работе с большими базами знаний, минимизируя галлюцинации. Это делает ее отличным выбором для корпоративных чат-ботов и систем поддержки клиентов.
Разработчики могут использовать модель для автоматизации ревью кода и генерации документации. В образовательных платформах dots.llm1 может объяснять сложные концепции, адаптируя стиль под уровень пользователя. Для исследовательских задач модель обеспечивает глубокое понимание научных статей и данных.
Интеграция в существующие системы происходит через стандартные API протоколы, что упрощает внедрение.
- Разработка ПО и ревью кода
- Корпоративные RAG-системы
- Образовательные платформы
- Автономные агенты
Начало работы
Доступ к модели dots.llm1 осуществляется через официальный GitHub репозиторий и платформу HuggingFace. Для запуска локально необходимо скачать веса модели и использовать совместимые библиотеки, такие как vLLM или TGI. Для облачного использования достаточно получить API ключ на портале разработчиков RedNote.
Документация включает подробные руководства по настройке гиперпараметров и оптимизации инференса. Сообщество активно поддерживает проект, предоставляя готовые примеры кода на Python и JavaScript.
Мы рекомендуем начать с бесплатного API тарифа для тестирования, а затем перейти на платный план при масштабировании проекта.
- GitHub: https://github.com/xiaohongshu/dots-llm1
- HuggingFace: https://huggingface.co/xiaohongshu/dots.llm1
- Документация: https://docs.xiaohongshu.ai/models/dots
Comparison
Model: dots.llm1 | Context: 128k | Max Output: 32k | Input $/M: 0.05 | Output $/M: 0.10 | Strength: MoE Efficiency
Model: Llama 3.1 405B | Context: 128k | Max Output: 32k | Input $/M: 0.15 | Output $/M: 0.30 | Strength: Raw Power
Model: Qwen 2.5 72B | Context: 128k | Max Output: 32k | Input $/M: 0.04 | Output $/M: 0.08 | Strength: Cost Efficiency
API Pricing — Input: 0.05 / Output: 0.10 / Context: 128k