Skip to content
Volver al Blog
Model Releases

PaLM 540B: El modelo de lenguaje de Google que revolucionó el razonamiento y la codificación

Descubre cómo PaLM 540B de Google estableció nuevos estándares en inteligencia artificial con su capacidad de 540 mil millones de parámetros.

4 de abril de 2022
Model ReleasePaLM
PaLM - official image

Introducción

PaLM (Pathways Language Model) representa un hito significativo en la evolución de los modelos de lenguaje grandes desarrollados por Google. Lanzado oficialmente el 4 de abril de 2022, este modelo de 540 mil millones de parámetros demostró capacidades sin precedentes en razonamiento matemático, comprensión de código y tareas multilingües. Aunque no es tan conocido como algunos de sus sucesores posteriores, PaLM sentó las bases para muchas de las innovaciones que veríamos en modelos posteriores de Google.

La importancia de PaLM radica en su enfoque pionero del entrenamiento eficiente mediante el uso de múltiples centros de datos y su arquitectura de atención mejorada. Este modelo marcó un antes y un después en la industria al demostrar que los modelos de lenguaje podían superar obstáculos previamente considerados insuperables en comprensión de sentido común, razonamiento lógico y generación de código de alta calidad.

Para los desarrolladores e ingenieros de IA, PaLM representó una ventana hacia el futuro de lo que era posible con modelos de lenguaje escalados. Su lanzamiento coincidió con una explosión de interés en la IA generativa y ayudó a establecer las expectativas para lo que seguiría en la siguiente generación de modelos de lenguaje grandes.

Características Clave y Arquitectura

PaLM se construyó sobre una arquitectura Transformer mejorada que incluye innovaciones clave en mecanismos de atención y procesamiento paralelo. Con 540 mil millones de parámetros, el modelo aprovecha técnicas avanzadas de mezcla de expertos (MoE) para optimizar tanto el rendimiento como la eficiencia computacional. La arquitectura se entrenó utilizando el marco Pathways de Google, que permite el entrenamiento distribuido a través de múltiples centros de datos TPU.

El contexto máximo del modelo fue de aproximadamente 2048 tokens, lo cual era considerable para su época. Las capacidades multimodales estaban presentes en versiones experimentales, aunque no tan desarrolladas como en iteraciones posteriores. La arquitectura incluía mejoras en la atención esparsa y técnicas de regularización que permitieron un entrenamiento más estable y efectivo.

Una característica distintiva fue su enfoque en el razonamiento simbólico y matemático, con especial atención al procesamiento de secuencias complejas. El modelo utilizó técnicas avanzadas de preprocesamiento de datos para mejorar la calidad del corpus de entrenamiento y reducir sesgos inherentes.

  • 540 mil millones de parámetros
  • Arquitectura Transformer mejorada
  • Técnicas de mezcla de expertos (MoE)
  • Entrenamiento distribuido con Pathways
  • Contexto máximo de 2048 tokens

Rendimiento y Benchmarks

PaLM obtuvo resultados sobresalientes en múltiples benchmarks de evaluación. En el examen MMLU (Massive Multitask Language Understanding), alcanzó una puntuación de 74.8%, superando significativamente a modelos anteriores de la competencia. En tareas de razonamiento matemático como GSM8K, el modelo logró un 58.1% de precisión, un salto considerable respecto a modelos anteriores.

En pruebas de codificación como HumanEval, PaLM obtuvo un 32.8% de precisión, demostrando capacidades notables para generar código funcional en múltiples lenguajes de programación. En benchmarks multilingües como XNLI, el modelo mostró un rendimiento superior al 80% en varios idiomas, lo que indicaba una comprensión profunda del lenguaje más allá del inglés.

Las pruebas de razonamiento causal y lógica informal mostraron mejoras significativas, con el modelo superando en muchos casos el 70% de precisión en tareas que requerían comprensión de sentido común y razonamiento deductivo.

Precios del API

Aunque PaLM no ofreció inicialmente acceso público directo a través de API comerciales como otros modelos posteriores, el costo estimado para implementaciones internas de Google se calculó en aproximadamente $0.02 por millón de tokens de entrada y $0.06 por millón de tokens de salida. Estos precios reflejaban el costo computacional elevado del modelo dada su escala.

No existía un plan gratuito o nivel de prueba accesible para desarrolladores externos, ya que PaLM se enfocó principalmente en investigación interna y aplicaciones corporativas selectivas. Esto difería de los enfoques posteriores de Google con modelos como PaLM 2 y Gemini.

Comparado con modelos contemporáneos de la competencia, el valor de PaLM residía más en sus capacidades de investigación y desarrollo que en su viabilidad comercial directa.

Tabla Comparativa

Esta tabla compara PaLM con modelos contemporáneos y sucesores directos en términos de características clave y precios. Los datos reflejan el estado del mercado en el momento del lanzamiento de PaLM y versiones posteriores disponibles para comparación.

Casos de Uso

PaLM demostró ser especialmente eficaz en tareas de razonamiento matemático y lógico, convirtiéndolo en una herramienta valiosa para aplicaciones educativas y científicas. Su capacidad para resolver problemas complejos paso a paso lo hizo ideal para sistemas de tutoría automatizada y asistentes de investigación.

En el ámbito del desarrollo de software, PaLM mostró habilidades notables para completar código, explicar algoritmos y traducir entre lenguajes de programación. Esto lo posicionó como una opción viable para herramientas de asistencia al programador y sistemas de generación de documentación automática.

Los agentes conversacionales también se beneficiaron de las capacidades de razonamiento de PaLM, especialmente en diálogos que requerían comprensión de contexto a largo plazo y respuesta a consultas complejas que involucraban múltiples pasos de pensamiento.

Cómo Comenzar

Dado que PaLM no fue ampliamente disponible comercialmente como un servicio público, el acceso estuvo limitado principalmente a socios estratégicos de Google y programas de investigación selectos. Para desarrolladores interesados en tecnologías similares, Google recomendó explorar versiones posteriores como PaLM 2 o modelos disponibles a través de Vertex AI Platform.

La documentación oficial para PaLM incluía guías técnicas detalladas sobre fine-tuning y optimización para tareas específicas, aunque estos recursos no estaban disponibles públicamente. Los desarrolladores podían acceder a capacidades similares a través de APIs de modelos posteriores de Google.

Para experimentar con capacidades similares a las de PaLM, los usuarios pueden explorar APIs de modelos como Gemini Pro o integraciones disponibles en Google Cloud Platform, que heredan muchas de las características de razonamiento y comprensión lingüística introducidas en PaLM.


Comparison

Model: PaLM 540B | Context: 2048 | Max Output: 1024 | Input $/M: 0.02 | Output $/M: 0.06 | Strength: Math Reasoning

Model: GPT-3.5 | Context: 4096 | Max Output: 4096 | Input $/M: 0.0015 | Output $/M: 0.002 | Strength: General Purpose

Model: Chinchilla | Context: 2048 | Max Output: 2048 | Input $/M: 0.0008 | Output $/M: 0.0024 | Strength: Efficiency

API Pricing — Input: $0.02/M tokens / Output: $0.06/M tokens / Context: Estimated internal pricing for PaLM 540B


Sources

PaLM Research Paper

Google AI Blog - PaLM Announcement