Skip to content
Volver al Blog
Model Releases

Gemma 2 de Google DeepMind: El Nuevo Estándar de IA Abierta

Google DeepMind libera Gemma 2 el 27 de junio de 2024. Modelos de 9B y 27B con distilación de Gemini, rendimiento superior y licencia Apache 2.0.

27 de junio de 2024
Model ReleaseGemma 2
Gemma 2 - official image

Introducción

Google DeepMind ha anunciado oficialmente la liberación de Gemma 2 el 27 de junio de 2024. Este lanzamiento marca un hito significativo en el ecosistema de modelos de lenguaje de código abierto, posicionándose como una alternativa robusta a los modelos propietarios cerrados.

A diferencia de sus predecesores, Gemma 2 ofrece una mejora sustancial en la eficiencia y el rendimiento cognitivo, diseñada específicamente para ser accesible tanto en entornos de borde como en centros de datos. Los desarrolladores pueden ahora acceder a una herramienta de vanguardia que compite directamente con los modelos propietarios más grandes.

La importancia de este modelo radica en su transparencia y en la capacidad de permitir a la comunidad de investigación auditar y mejorar las capacidades de la IA de manera colaborativa.

  • Fecha de lanzamiento: 27 de junio de 2024
  • Licencia: Apache 2.0
  • Proporcionado por: Google DeepMind

Características Clave y Arquitectura

La familia de modelos incluye versiones de 9B y 27B parámetros, ofreciendo un equilibrio entre capacidad de razonamiento y recursos computacionales. Utiliza técnicas avanzadas de distilación de conocimiento desde Gemini para maximizar la eficiencia del aprendizaje.

La versión de 27B emplea una arquitectura MoE (Mixture of Experts) para reducir el costo computacional durante la inferencia. Esto permite un despliegue más eficiente en hardware limitado sin sacrificar la calidad de las respuestas generadas.

El contexto ventana se ha optimizado para manejar tareas complejas de manera fluida, integrando capacidades multimodales que facilitan el procesamiento de datos diversos en aplicaciones reales.

  • Tamaños: 9B y 27B parámetros
  • Arquitectura: Mixture of Experts (MoE)
  • Ventana de contexto: 8192 tokens
  • Base de conocimiento: Distilación de Gemini

Rendimiento y Benchmarks

Gemma 2 supera a modelos dos veces más grandes en benchmarks estándar como MMLU y HumanEval, demostrando una eficiencia de rendimiento excepcional. En pruebas de código, el modelo muestra una precisión superior en tareas de generación y depuración.

Las puntuaciones en SWE-bench confirman su capacidad para resolver problemas de software reales, mientras que las evaluaciones en GPQA validan su conocimiento experto en dominios científicos complejos. Estos resultados son críticos para la adopción empresarial.

Comparado con versiones anteriores, la mejora en la coherencia lógica y la reducción de alucinaciones es notable, lo que lo hace apto para producción en entornos críticos.

  • MMLU: +15% mejora vs Gemma 1
  • HumanEval: 85.6% precisión
  • SWE-bench: Resolución efectiva de issues

Precios y Disponibilidad

Al ser un modelo de código abierto bajo licencia Apache 2.0, Gemma 2 es gratuito para uso comercial y personal. Los desarrolladores pueden descargar los pesos directamente sin restricciones de uso.

Para servicios gestionados en Google Cloud Vertex AI, los precios varían según el volumen de tokens procesados. Se recomienda utilizar la capa gratuita para pruebas iniciales antes de escalar a producción.

La disponibilidad de versiones optimizadas para hardware diverso permite que la comunidad implemente soluciones locales sin depender de APIs externas costosas.

  • Licencia: Apache 2.0 (Gratis)
  • Vertex AI: Precios por token
  • Disponible en Hugging Face

Tabla Comparativa

La siguiente tabla resume las diferencias clave entre Gemma 2 y sus competidores directos en el mercado de modelos de lenguaje de código abierto.

Esta comparación destaca la eficiencia de Gemma 2 en relación con su tamaño, así como la ventana de contexto y los costos operativos estimados para diferentes escenarios de uso.

  • Modelos comparados: Gemma 2, Llama 3 70B, Mistral 7B
  • Métricas: Contexto, Precio, Fortalezas

Casos de Uso

Gemma 2 está idealmente diseñado para aplicaciones de desarrollo de software, donde su capacidad para entender código y generar soluciones es fundamental. Los ingenieros pueden integrarlo en pipelines de CI/CD para automatizar tareas repetitivas.

En sistemas de RAG (Retrieval-Augmented Generation), el modelo demuestra una excelente capacidad para recuperar información precisa de bases de datos privadas, reduciendo la necesidad de reentrenamiento constante.

También es adecuado para chatbots empresariales y agentes autónomos que requieren razonamiento lógico avanzado y seguridad en la generación de contenido.

  • Desarrollo de Software y Código
  • Sistemas de RAG y Búsqueda
  • Chatbots y Agentes Autónomos

Cómo Empezar

Para acceder a Gemma 2, los desarrolladores pueden descargar los pesos directamente desde Hugging Face o el repositorio oficial de GitHub de Google DeepMind. No se requiere configuración compleja de API para el uso local.

Se recomienda utilizar bibliotecas estándar como Transformers para cargar el modelo y probar su rendimiento en diferentes hardware antes de desplegarlo en producción.

Google proporciona documentación exhaustiva y ejemplos de código que facilitan la integración rápida en proyectos existentes sin necesidad de experiencia previa profunda en fine-tuning.

  • Descargar en Hugging Face
  • Repositorio oficial en GitHub
  • Documentación de Vertex AI

Comparison

Model: Gemma 2 27B | Context: 8192 | Max Output: 8192 | Input $/M: 0.00 | Output $/M: 0.00 | Strength: MoE Efficiency

Model: Llama 3 70B | Context: 8192 | Max Output: 4096 | Input $/M: 0.00 | Output $/M: 0.00 | Strength: Raw Power

Model: Mistral 7B | Context: 32768 | Max Output: 8192 | Input $/M: 0.00 | Output $/M: 0.00 | Strength: Speed

API Pricing — Input: $0.00 (Open Source) / Output: $0.00 (Open Source) / Context: 8192 tokens


Sources

GitHub Gemma Repository