Skip to content
Retour au Blog
Model Releases

Qwen 72B d'Alibaba Cloud : Le modèle ouvert qui défie les géants de l'IA

Découvrez Qwen 72B, le modèle open-source d'Alibaba Cloud avec 72 milliards de paramètres, conçu pour rivaliser avec les meilleurs modèles du marché.

25 septembre 2023
Model ReleaseQwen

Introduction

Dans un paysage en constante évolution de l'intelligence artificielle, Alibaba Cloud a lancé Qwen 72B, un modèle open-source doté de 72 milliards de paramètres, marquant une avancée significative dans la série multilingue des modèles Qwen. Ce modèle s'inscrit dans la stratégie ambitieuse d'Alibaba visant à renforcer sa position sur le marché mondial de l'IA, en particulier dans les tâches en chinois et en anglais.

Avec son architecture innovante et ses performances exceptionnelles, Qwen 72B représente une alternative crédible aux modèles propriétaires, offrant aux développeurs et entreprises une solution puissante et accessible pour leurs projets d'IA.

La disponibilité des poids ouverts permet une personnalisation poussée et favorise l'innovation collaborative au sein de la communauté open-source.

Ce modèle s'adresse particulièrement aux équipes techniques cherchant à intégrer des capacités d'IA de pointe dans leurs applications sans dépendre exclusivement des fournisseurs propriétaires.

Caractéristiques clés et architecture

Qwen 72B est construit sur une architecture transformer avancée optimisée pour les tâches multilingues, avec un accent particulier sur le chinois et l'anglais. Le modèle intègre des techniques d'attention améliorées et un contexte étendu pour traiter efficacement des entrées complexes.

Avec ses 72 milliards de paramètres, Qwen 72B offre une capacité de compréhension et de génération de texte de haut niveau, comparable aux modèles les plus performants du marché.

Le modèle supporte des contextes longs jusqu'à 32 768 tokens, permettant des interactions conversationnelles approfondies et des traitements de documents longs.

Les capacités multimodales sont également intégrées, permettant au modèle de traiter des inputs textuels, audios et visuels dans un cadre unifié.

  • 72 milliards de paramètres
  • Architecture transformer optimisée
  • Support multilingue (chinois, anglais principalement)
  • Contexte maximal de 32 768 tokens
  • Capacités multimodales intégrées

Performances et benchmarks

Sur les benchmarks standard, Qwen 72B obtient des résultats impressionnants, notamment un score de 85.2 sur MMLU, 78.5 sur HumanEval et 45.3 sur SWE-bench, démontrant ses capacités en raisonnement et en programmation.

Comparé aux versions précédentes de la série Qwen, il affiche une amélioration de 12% sur les tâches en chinois et de 8% sur les tâches en anglais.

En comparaison avec des modèles concurrents comme Llama 2 70B ou Mixtral 8x7B, Qwen 72B se distingue par sa supériorité sur les tâches linguistiques chinoises tout en maintenant des performances compétitives en anglais.

Les tests montrent également une efficacité accrue en termes de latence et de consommation mémoire, rendant le modèle plus accessible pour les déploiements en production.

Prix de l'API

Alibaba Cloud propose des tarifs compétitifs pour accéder à Qwen 72B via l'API, avec un prix d'entrée de 0.50$ par million de tokens et un prix de sortie de 1.50$ par million de tokens.

Un plan gratuit est disponible avec 1 million de tokens par mois pour les développeurs individuels et les petites équipes.

Ces prix restent attractifs par rapport aux offres concurrentes, surtout pour les applications nécessitant des volumes importants de traitement.

Des réductions sont disponibles pour les contrats annuels et les volumes élevés, rendant le modèle économiquement viable pour les grandes entreprises.

Tableau comparatif

Voici une comparaison entre Qwen 72B et ses principaux concurrents sur le marché actuel.

Cette analyse met en évidence les avantages concurrentiels de Qwen 72B en termes de performance et de coût.

Les données présentées reflètent les spécifications publiées par les fournisseurs respectifs.

Le tableau aide à identifier les cas d'usage optimaux pour chaque modèle.

Cas d'utilisation

Qwen 72B est particulièrement adapté aux applications de chatbots intelligents, d'assistance technique et de génération de contenu multilingue.

Grâce à ses capacités de raisonnement avancées, il excelle dans les tâches de programmation, de résolution de problèmes complexes et d'analyse de code.

Le modèle convient parfaitement aux systèmes RAG (Retrieval-Augmented Generation) pour des applications de recherche et d'analyse documentaire.

Il peut également être utilisé pour entraîner des agents autonomes capables de réaliser des tâches complexes dans des environnements dynamiques.

Premiers pas

Pour accéder à Qwen 72B, rendez-vous sur la plateforme Alibaba Cloud et créez un compte API.

Des SDK sont disponibles pour Python, Java et Node.js pour faciliter l'intégration dans vos projets.

Des exemples de code et une documentation complète sont disponibles sur le site officiel.

La communauté open-source fournit également des ressources et des outils pour personnaliser le modèle selon vos besoins spécifiques.


Comparison

Model: Qwen 72B | Context: 32K | Max Output: 8K | Input $/M: 0.50 | Output $/M: 1.50 | Strength: Multilingual, Open weights

Model: Llama 2 70B | Context: 4K | Max Output: 2K | Input $/M: 0.80 | Output $/M: 1.20 | Strength: Open source, Coding

Model: Mixtral 8x7B | Context: 32K | Max Output: 2K | Input $/M: 0.60 | Output $/M: 0.90 | Strength: Efficient, Multilingual

Model: GPT-4 | Context: 128K | Max Output: 4K | Input $/M: 10.00 | Output $/M: 30.00 | Strength: Advanced reasoning

API Pricing — Input: 0.50$/M tokens / Output: 1.50$/M tokens / Context: 32K tokens


Sources

Documentation officielle Qwen

GitHub du projet Qwen