Skip to content
Volver al Blog
Model Releases

PaLM 2: El modelo de lenguaje de próxima generación de Google que impulsa Bard y Gemini

Google lanza PaLM 2, un modelo de 340 mil millones de parámetros con capacidades mejoradas en razonamiento, codificación y soporte multilingüe.

10 de mayo de 2023
Model ReleasePaLM 2
PaLM 2 - official image

Introducción

El 10 de mayo de 2023, Google presentó oficialmente PaLM 2 (Pathways Language Model 2), el sucesor evolutivo de su exitoso modelo PaLM original. Este modelo representa un hito significativo en la estrategia de IA de Google, ya que se convierte en el motor detrás de sus productos más importantes como Bard y el recientemente anunciado Gemini.

PaLM 2 no es simplemente una actualización incremental; es una evolución fundamental que aborda las limitaciones del modelo anterior, particularmente en razonamiento matemático, comprensión multilingüe y generación de código. Con 340 mil millones de parámetros, este modelo demuestra el compromiso continuo de Google con el desarrollo de tecnologías de IA de vanguardia.

La importancia de PaLM 2 radica en su capacidad para manejar tareas complejas que requieren un entendimiento profundo del contexto, lo que lo convierte en una herramienta valiosa para desarrolladores, ingenieros de IA y empresas que buscan integrar inteligencia artificial avanzada en sus aplicaciones.

Características y Arquitectura Clave

PaLM 2 cuenta con una arquitectura basada en transformers mejorada, optimizada para eficiencia computacional y escalabilidad. El modelo posee 340 mil millones de parámetros, aunque utiliza técnicas de mezcla de expertos (MoE) para mantener la eficiencia durante la inferencia.

Las capacidades multimodales de PaLM 2 permiten procesar entradas de texto, imagen y audio, aunque su implementación completa depende de los productos específicos. La ventana de contexto ha sido ampliada significativamente en comparación con versiones anteriores, permitiendo entradas más largas y respuestas más coherentes.

La arquitectura incluye mejoras en la atención, técnicas de entrenamiento refinadas y una distribución de datos más equilibrada, lo que contribuye a su rendimiento superior en múltiples dominios de conocimiento.

  • 340 mil millones de parámetros
  • Arquitectura transformer mejorada
  • Técnicas MoE (Mezcla de Expertos)
  • Soporte multimodal (texto, imagen, audio)
  • Ventana de contexto extendida

Rendimiento y Benchmarks

En términos de rendimiento, PaLM 2 supera consistentemente a su predecesor en múltiples benchmarks clave. En MMLU (Massive Multitask Language Understanding), el modelo alcanza puntuaciones superiores al 75%, demostrando una comprensión robusta en múltiples disciplinas académicas.

Para evaluaciones de codificación, PaLM 2 obtiene resultados notables en HumanEval con una precisión del 74% y en SWE-bench logra un 15% de resolución exitosa, superando significativamente a PaLM 1. Estos resultados reflejan mejoras sustanciales en la comprensión y generación de código.

En razonamiento matemático, el modelo mejora su desempeño en problemas complejos en aproximadamente un 15% en comparación con la versión anterior, gracias a técnicas de pensamiento paso a paso y refinamientos en el entrenamiento.

  • MMLU: >75%
  • HumanEval: 74%
  • SWE-bench: 15% éxito
  • Mejora del 15% en razonamiento matemático

Precios del API

Google ofrece PaLM 2 a través de Vertex AI con estructura de precios competitiva. El costo por millón de tokens de entrada es de $0.50, mientras que la salida cuesta $1.50 por millón de tokens, posicionándolo como una opción rentable para aplicaciones empresariales.

La plataforma incluye un nivel gratuito limitado que permite a los desarrolladores experimentar con el modelo antes de comprometerse con planes pagos. Los precios varían según la región y el volumen de uso, con descuentos disponibles para grandes volúmenes.

Comparado con competidores del mismo tamaño, PaLM 2 ofrece una relación calidad-precio favorable, especialmente considerando su rendimiento superior en tareas especializadas.

Tabla Comparativa

PaLM 2 compite directamente con modelos líderes del mercado en términos de rendimiento y funcionalidad. La siguiente tabla resume las especificaciones clave y diferenciadores principales entre modelos comparables.

Esta comparación destaca las ventajas competitivas de PaLM 2, particularmente en soporte multilingüe y capacidad de razonamiento, áreas donde Google ha invertido significativamente en esta iteración del modelo.

Casos de Uso

PaLM 2 está especialmente bien adaptado para aplicaciones que requieren razonamiento lógico complejo, como sistemas de soporte técnico automatizado, agentes de IA conversacionales y herramientas de análisis de datos. Su capacidad multilingüe lo hace ideal para mercados globales.

En el ámbito de desarrollo de software, el modelo excela en generación de código, revisión automática y documentación técnica. Las capacidades de codificación mejoradas lo convierten en un aliado valioso para IDEs y herramientas de desarrollo colaborativo.

Los sistemas de recuperación aumentada por generación (RAG) también se benefician del modelo, aprovechando su comprensión contextual para proporcionar respuestas más precisas y relevantes basadas en documentos externos.

  • Agentes conversacionales
  • Generación y revisión de código
  • Análisis de datos complejos
  • Sistemas RAG
  • Aplicaciones multilingües

Cómo Comenzar

Para acceder a PaLM 2, los desarrolladores pueden utilizar Vertex AI de Google Cloud, que proporciona endpoints de API REST y SDKs para múltiples lenguajes incluyendo Python, Java y Node.js. La documentación oficial incluye ejemplos prácticos y guías de integración.

Los usuarios interesados deben crear una cuenta en Google Cloud Platform, habilitar el servicio Vertex AI y obtener credenciales de autenticación. La consola web también permite pruebas interactivas antes de implementar soluciones completas.

Google proporciona muestras de código y tutoriales detallados para acelerar la adopción, junto con soporte comunitario y documentación técnica exhaustiva.

  • Acceso a través de Vertex AI
  • SDKs disponibles para Python, Java, Node.js
  • Pruebas interactivas en consola web
  • Documentación y ejemplos completos

Comparison

Modelo: PaLM 2 | Contexto: 8K tokens | Max Salida: 2K tokens | Entrada $/M: $0.50 | Salida $/M: $1.50 | Fortaleza: Multilingüe + Razonamiento

Modelo: GPT-4 | Contexto: 128K tokens | Max Salida: 4K tokens | Entrada $/M: $10.00 | Salida $/M: $30.00 | Fortaleza: Longitud contexto

Modelo: Claude 2 | Contexto: 100K tokens | Max Salida: 4K tokens | Entrada $/M: $3.00 | Salida $/M: $15.00 | Fortaleza: Seguridad + Ética

Modelo: LLaMA 2 | Contexto: 4K tokens | Max Salida: 2K tokens | Entrada $/M: Gratis | Salida $/M: Gratis | Fortaleza: Código abierto

API Pricing — Input: $0.50 por millón de tokens / Output: $1.50 por millón de tokens / Context: Precios para Vertex AI en Google Cloud Platform


Sources

Vertex AI Documentation