Skip to content
Назад к Блогу
Model Releases

InternLM 2.5: Новый эталон логики от Шанхайского AI Лаборатории

Откройте для себя InternLM 2.5 — мощный открытый модель с 20B параметрами, превосходящий конкурентов в математике и программировании.

3 июля 2024 г.
Model ReleaseInternLM 2.5
InternLM 2.5 - official image

Введение: Почему InternLM 2.5 важен для разработчиков

Шанхайский AI Лаборатория представила 3 июля 2024 года модель InternLM 2.5, которая ставит новые стандарты в мире открытых языковых моделей. Эта модель не просто является еще одним инструментом в арсенале инженера, а представляет собой значительный шаг вперед в области национального ИИ Китая. Она была разработана с акцентом на логическое мышление и решение сложных задач, что делает ее особенно привлекательной для корпоративных приложений.

Для разработчиков, ищущих альтернативу западным гигантам, InternLM 2.5 предлагает уникальное сочетание производительности и доступности. Модель демонстрирует высокую эффективность в задачах, требующих глубокого анализа и структурированного вывода. Это делает ее идеальным выбором для внедрения в системы автоматизации и интеллектуальных агентов.

  • Дата выпуска: 03.07.2024
  • Разработчик: Shanghai AI Laboratory
  • Лицензия: Apache 2.0 (Open Source)

Архитектура и ключевые особенности

InternLM 2.5 построена на архитектуре Mixture of Experts (MoE), что позволяет модели эффективно обрабатывать сложные запросы, активируя только необходимые части сети. Это обеспечивает высокую скорость инференса при сохранении качества ответов. Поддержка контекстного окна в 128K токенов открывает возможности для работы с длинными документами и многошаговыми диалогами.

Мультимодальные возможности также были улучшены, хотя модель в первую очередь позиционируется как текстовая. Она способна интегрировать визуальные данные через внешние модули, что расширяет сценарии использования. Оптимизация параметров 20B обеспечивает баланс между вычислительной мощностью и потреблением ресурсов.

  • Параметры: 20B
  • Контекстное окно: 128K токенов
  • Архитектура: MoE (Mixture of Experts)
  • Поддержка: API, SDK, Hugging Face

Производительность и бенчмарки

На тестах InternLM 2.5 показывает выдающиеся результаты в области математики и программирования, конкурируя с моделями значительно большего размера. На бенчмарке MMLU модель достигла 84.5%, что свидетельствует о глубоком понимании академических дисциплин. В задачах кодирования на HumanEval она набрала 81.2%, превосходя многие базовые версии Llama 3.

Особое внимание стоит уделить SWE-bench, где модель демонстрирует способность решать реальные задачи разработки программного обеспечения. Эти метрики подтверждают, что модель не просто генерирует текст, а понимает логику и структуру кода. Для инженеров это означает возможность использования модели в реальных рабочих процессах, а не только в чатах.

  • MMLU: 84.5%
  • HumanEval: 81.2%
  • SWE-bench: 45.1%
  • GSM8K: 89.0%

Стоимость API и экономическая эффективность

Как полностью открытая модель, InternLM 2.5 не имеет официальной платы за входные токены от разработчика. Это означает, что стоимость использования зависит от инфраструктуры, на которой вы развертываете модель. Однако, при использовании через сторонние платформы, цены остаются конкурентными по сравнению с проприетарными аналогами.

Для разработчиков, развертывающих модель самостоятельно на GPU, стоимость ограничивается только энергопотреблением и арендой оборудования. Это делает модель экономически эффективной для стартапов и крупных предприятий, которым требуется полный контроль над данными и логикой.

  • Доступ к весам: Бесплатно
  • Инференс (самостоятельно): 0.00 $/M токенов
  • Сторонние API: ~0.20 $/M (вход) / ~0.60 $/M (выход)

Сравнительная таблица моделей

Ниже приведена таблица, сравнивающая InternLM 2.5 с ближайшими конкурентами на рынке. Мы учитываем контекстное окно, стоимость и ключевые сильные стороны каждой модели, чтобы помочь вам сделать выбор.

Сценарии использования

InternLM 2.5 идеально подходит для создания интеллектуальных агентов, способных планировать и выполнять многошаговые задачи. В области разработки она может использоваться для генерации кода, отладки и написания документации.

В системах RAG (Retrieval-Augmented Generation) модель эффективно обрабатывает большие объемы контекста, извлекая нужную информацию из баз знаний. Это делает ее отличным выбором для корпоративных чат-ботов и систем поддержки клиентов.

  • Разработка программного обеспечения
  • Аналитика данных и логика
  • Корпоративные RAG-системы
  • Образовательные платформы

Начало работы с моделью

Получить доступ к InternLM 2.5 очень просто. Все веса модели доступны на Hugging Face и ModelScope. Для интеграции используйте библиотеки transformers или специальные SDK от Shanghai AI Lab.

Рекомендуется начать с локального запуска для тестирования производительности на вашем оборудовании. Затем можно перейти к облачному развертыванию для масштабирования. Документация на английском языке предоставляет подробные инструкции по настройке.

  • Платформа: Hugging Face
  • Библиотека: Transformers
  • Документация: Официальный GitHub репозиторий

Comparison

Model: InternLM 2.5 | Context: 128K | Max Output: 8K | Input $/M: 0.00 | Output $/M: 0.00 | Strength: Математика и логика

Model: Qwen 2.5 | Context: 128K | Max Output: 32K | Input $/M: 0.00 | Output $/M: 0.00 | Strength: Мультиязычность

Model: Llama 3.1 8B | Context: 8K | Max Output: 4K | Input $/M: 0.20 | Output $/M: 0.60 | Strength: Общая база

Model: Gemma 2 9B | Context: 8K | Max Output: 8K | Input $/M: 0.15 | Output $/M: 0.45 | Strength: Скорость

API Pricing — Input: 0.00 / Output: 0.00 / Context: 128K


Sources

Hugging Face InternLM 2.5

ModelScope Shanghai AI Lab