Skip to content
Retour au Blog
Model Releases

PaLM 540B: Le modèle de langage révolutionnaire de Google qui change la donne en IA

Découvrez PaLM, le modèle de langage de 540 milliards de paramètres de Google avec des capacités exceptionnelles en raisonnement, code et tâches multilingues.

4 avril 2022
Model ReleasePaLM
PaLM - official image

Introduction

Lorsque Google a dévoilé PaLM (Pathways Language Model) le 4 avril 2022, il a marqué un tournant décisif dans l'évolution des grands modèles de langage. Avec ses 540 milliards de paramètres, PaLM représentait alors l'une des avancées les plus significatives dans le domaine de l'intelligence artificielle générative. Ce modèle n'était pas seulement une mise à jour incrémentale, mais une véritable percée technologique qui a redéfini les attentes en matière de compréhension du langage et de génération textuelle.

Pour les développeurs et ingénieurs en IA, PaLM a introduit des capacités sans précédent dans les domaines du raisonnement logique, de la programmation et des tâches multilingues. Son architecture innovante a permis d'atteindre des performances qui surpassaient de manière significative les modèles concurrents de l'époque, établissant de nouvelles références pour l'industrie.

Le timing du lancement était stratégique, intervenant à un moment où la course aux modèles de langage géants s'intensifiait. PaLM est devenu un pilier fondamental sur lequel Google a construit ses futures innovations en IA, y compris les générations ultérieures de Gemini.

Caractéristiques clés et architecture

L'architecture de PaLM repose sur une approche transformer purement décodeur avec 540 milliards de paramètres, organisés en 118 couches avec 1848 unités d'attention multi-tête. Le modèle utilise une taille d'embedding de 18432 dimensions et un réseau feed-forward de 73728 unités par couche. Cette configuration massive permet au modèle de capturer des relations complexes dans les données textuelles.

Le contexte maximal de PaLM est de 2048 tokens, ce qui était considéré comme limité par rapport aux standards actuels mais suffisant pour la plupart des applications de l'époque. L'utilisation de techniques d'apprentissage par pathways permettait une efficacité computationnelle améliorée par rapport aux modèles traditionnels.

PaLM exploitait un vocabulaire de 256 000 tokens basé sur SentencePiece, optimisé pour les langues multiples et les tâches de codage. La combinaison de cette architecture avec des techniques d'entraînement distribué sur des milliers de TPU v4 a permis d'entraîner le modèle sur des ensembles de données massifs.

  • 540 milliards de paramètres
  • Architecture transformer décodeur pur
  • 118 couches avec attention multi-tête
  • Taille d'embedding : 18432 dimensions
  • Contexte maximal : 2048 tokens
  • Vocabulaire : 256 000 tokens SentencePiece

Performances et benchmarks

Les performances de PaLM ont été exceptionnelles sur de nombreux benchmarks de référence. Sur MMLU (Massive Multitask Language Understanding), le modèle a obtenu un score de 79.0%, dépassant significativement les modèles concurrents de l'époque. Pour les tâches de raisonnement logique sur BIG-Bench Hard, PaLM a atteint 64.6%, démontrant sa capacité à résoudre des problèmes complexes nécessitant une compréhension profonde.

Dans les évaluations de codage, PaLM a montré des résultats impressionnants avec un score de 78.8% sur HumanEval et 43.7% sur Codex, surpassant les modèles existants dans la génération de code fonctionnel. Pour les tâches multilingues, le modèle a obtenu des scores de 72.3% sur XNLI et 68.9% sur XCOPA, prouvant son efficacité à travers 100 langues différentes.

Sur les tests de raisonnement mathématique GSM8K, PaLM a atteint 58.7%, un score remarquable pour l'époque. Les évaluations de suivi des instructions ont également été excellentes avec 84.2% sur l'échelle d'évaluation interne de Google, indiquant une forte capacité à suivre les consignes complexes.

Tarification API

La tarification de l'API PaLM était structurée de manière à encourager l'expérimentation tout en maintenant la viabilité économique pour les applications de production. Bien que PaLM ne soit pas directement commercialisé comme une API autonome, ses capacités ont été intégrées dans divers services Google Cloud, notamment Vertex AI.

Pour les applications basées sur PaLM via Vertex AI, les coûts se situaient typiquement entre 0.0005$ et 0.001$ par 1000 tokens pour l'entrée, et entre 0.0015$ et 0.003$ par 1000 tokens pour la sortie. Ces tarifs étaient compétitifs par rapport aux offres concurrentes de l'époque.

Bien que PaLM n'offre pas de plan gratuit directement, les crédits Google Cloud Platform permettaient aux développeurs de tester les capacités du modèle dans le cadre de projets pilotes et d'expérimentations techniques.

Tableau comparatif

Le tableau suivant présente une comparaison directe de PaLM avec ses principaux concurrents de l'époque. Cette analyse met en évidence les forces relatives de chaque modèle et aide à comprendre pourquoi PaLM a été considéré comme une avancée majeure dans le paysage des grands modèles de langage.

Cas d'utilisation

PaLM excelle particulièrement dans les applications de génération de code, où ses capacités de compréhension syntaxique et sémantique permettent de produire du code de qualité professionnelle dans de nombreux langages. Les tâches de raisonnement logique complexe, comme la résolution de problèmes mathématiques ou l'analyse de scénarios hypothétiques, sont également des domaines où le modèle montre des performances exceptionnelles.

Dans les applications de dialogue et d'agents conversationnels, PaLM fournit des réponses cohérentes et contextuellement appropriées. Pour les systèmes RAG (Retrieval-Augmented Generation), le modèle combine efficacement les informations récupérées avec sa connaissance interne pour produire des réponses précises et détaillées.

Les applications multilingues bénéficient grandement des capacités de PaLM, qui peut traiter et générer du contenu dans plus de 100 langues avec une qualité comparable à celle des locuteurs natifs. Cela en fait un choix idéal pour les plateformes internationales.

Premiers pas

Pour accéder à PaLM, les développeurs devaient utiliser les services Google Cloud, en particulier Vertex AI, qui fournissait des interfaces programmatiques et des SDK pour intégrer les capacités du modèle dans leurs applications. Les bibliothèques Python et Java permettaient une intégration fluide dans les pipelines ML existants.

L'authentification se faisait via les identifiants Google Cloud, et les appels API utilisaient des endpoints spécifiques à Vertex AI. La documentation technique détaillait les formats d'entrée attendus, les paramètres de configuration et les meilleures pratiques pour optimiser les performances.

Les exemples de code disponibles dans la documentation facilitaient la prise en main rapide, permettant aux développeurs de tester les capacités du modèle dans des scénarios réalistes avant de procéder à des déploiements en production.


Comparison

Model: PaLM 540B | Context: 2048 | Max Output: 1024 | Input $/M: 0.50 | Output $/M: 1.50 | Strength: Reasoning, Code, Multilingual

Model: GPT-3.5 | Context: 4096 | Max Output: 2048 | Input $/M: 0.75 | Output $/M: 1.25 | Strength: General purpose, Chat

Model: OPT-175B | Context: 2048 | Max Output: 1024 | Input $/M: 0.80 | Output $/M: 2.00 | Strength: Open source, Research

Model: Jurassic-1 | Context: 2048 | Max Output: 1024 | Input $/M: 0.60 | Output $/M: 1.80 | Strength: Long-form content

API Pricing — Input: 0.50 / Output: 1.50 / Context: Pricing via Vertex AI integration


Sources

PaLM Research Paper - arXiv

Google AI Blog - PaLM Announcement