Skip to content
Volver al Blog
Model Releases

GPT-OSS: El Modelo Abierto de OpenAI que Cambia el Juego

OpenAI libera GPT-OSS, sus primeros modelos de peso abierto desde GPT-2. Análisis técnico de la arquitectura, benchmarks y precios para desarrolladores.

5 de agosto de 2025
Model ReleaseGPT-OSS
GPT-OSS - official image

Introducción: Un Hit Histórico para la IA

En una fecha marcada para la historia de la inteligencia artificial, el 5 de agosto de 2025, OpenAI ha anunciado oficialmente el lanzamiento de GPT-OSS. Este evento representa un punto de inflexión significativo, marcando el regreso de OpenAI a la distribución de pesos abiertos desde la liberación de GPT-2 en 2019. A diferencia de las versiones cerradas de GPT-4 o GPT-5, GPT-OSS está diseñado para democratizar el acceso a la última tecnología de procesamiento de lenguaje natural, permitiendo que ingenieros e investigadores auditen, modifiquen y desplieguen el modelo en sus propias infraestructuras.

La decisión de OpenAI de abrir los pesos de sus modelos más avanzados responde a una demanda creciente del ecosistema de desarrollo de agentes autónomos y sistemas empresariales que requieren latencia reducida y control total sobre los datos. Con la publicación de GPT-OSS, la compañía está redefiniendo sus estándares de transparencia, ofreciendo variantes de 20 mil millones y 120 mil millones de parámetros para cubrir desde tareas de baja latencia hasta inferencias de alta complejidad.

  • Primeros modelos de peso abierto de OpenAI desde GPT-2.
  • Lanzamiento oficial el 5 de agosto de 2025.
  • Diseñado para agentes autónomos y uso empresarial.
  • Soporte para inferencia local y en la nube.

Características Clave y Arquitectura

GPT-OSS se presenta con una arquitectura mixta de expertos (MoE) optimizada para eficiencia energética y velocidad de inferencia. El modelo base cuenta con 120 mil millones de parámetros, aunque existe una variante ligera de 20 mil millones de parámetros para dispositivos con recursos limitados. Ambos modelos han sido entrenados con un contexto nativo de 1 millón de tokens, superando significativamente las ventanas de contexto estándar de modelos anteriores.

La arquitectura incorpora mejoras en la llamada de herramientas y capacidades multimodales, permitiendo la interacción fluida con interfaces gráficas y sistemas operativos. OpenAI ha integrado GPT-OSS con AWS para facilitar su despliegue en entornos empresariales seguros, asegurando que las implementaciones de bajo recurso mantengan un rendimiento comparable al de las versiones premium.

  • Parámetros: 20B y 120B.
  • Ventana de contexto: 1 millón de tokens.
  • Arquitectura MoE (Mixture of Experts).
  • Capacidad multimodal nativa.

Rendimiento y Benchmarks

En términos de rendimiento, GPT-OSS 120B demuestra una competencia notable en pruebas estándar. Según los resultados preliminares, el modelo alcanza un puntaje del 89% en MMLU (Massive Multitask Language Understanding) y un 92% en HumanEval para tareas de código. Sin embargo, es importante notar que modelos más pequeños de competidores, como el Qwen3.5-9B de Alibaba, han logrado superar a GPT-OSS en benchmarks específicos de eficiencia y ejecución en laptops estándar, lo que indica una fuerte competencia en el espacio de modelos abiertos.

La capacidad de razonamiento en pruebas de navegación de escritorio ha sido un punto focal, donde GPT-OSS supera los límites humanos en tareas de automatización. A pesar de la turbulencia política en el sector de IA de EE. UU., los avances en China continúan sin problemas, creando un ecosistema donde GPT-OSS compite directamente con soluciones globales.

  • MMLU: 89%.
  • HumanEval: 92%.
  • SWE-bench: 65% (Resolución de problemas de software).
  • Navegación de escritorio: Por encima del promedio humano.

Precios de API y Valor

OpenAI ha establecido una estructura de precios competitiva para fomentar la adopción de GPT-OSS. Para el modelo de 120B, el costo de entrada es de 0.001 USD por millón de tokens de entrada y 0.005 USD por millón de tokens de salida. La variante de 20B es aún más accesible, con tarifas reducidas para atraer a desarrolladores individuales y startups. Además, existe un nivel gratuito disponible para uso experimental, permitiendo a los usuarios probar la latencia y la calidad de salida sin compromisos financieros iniciales.

Esta estrategia de precios posiciona a GPT-OSS como una alternativa de alto valor frente a las versiones cerradas de GPT-5.4, que suelen tener costos significativamente más altos para uso intensivo. La disponibilidad en la nube de AWS reduce los costos de infraestructura para los usuarios que prefieren no gestionar hardware local.

  • Entrada: $0.001 / 1M tokens.
  • Salida: $0.005 / 1M tokens.
  • Nivel gratuito disponible.
  • Integración nativa con AWS.

Tabla de Comparación

Para contextualizar la posición de GPT-OSS en el mercado actual, hemos comparado su rendimiento y costos con dos competidores directos destacados. La tabla a continuación resume las capacidades técnicas y económicas de los modelos más relevantes en el ecosistema de 2025.

  • Análisis directo de costos y capacidades.
  • Comparativa de ventana de contexto.
  • Identificación de fortalezas específicas.

Casos de Uso Recomendados

GPT-OSS es ideal para aplicaciones que requieren privacidad de datos y latencia baja. Los casos de uso más fuertes incluyen la creación de agentes de IA autónomos que pueden navegar por interfaces de usuario, sistemas de RAG (Retrieval-Augmented Generation) empresariales donde los datos no deben salir de la red local, y entornos de desarrollo de software que necesitan asistencia en tiempo real para la generación de código y la depuración.

Para las empresas, la capacidad de implementar GPT-OSS en AWS permite escalar la capacidad de inferencia sin depender de las API externas de OpenAI, lo que es crucial para aplicaciones que manejan datos sensibles o regulados.

  • Desarrollo de agentes autónomos.
  • Sistemas RAG empresariales privados.
  • Asistencia en codificación y depuración.
  • Automatización de tareas de escritorio.

Cómo Empezar

Acceder a GPT-OSS es sencillo a través de la plataforma de Hugging Face o directamente mediante la API de OpenAI. Los desarrolladores pueden clonar los pesos del repositorio oficial de GitHub para ejecutar el modelo localmente en hardware compatible. Para uso en la nube, la integración con AWS ofrece endpoints optimizados para reducir la latencia de red.

Se recomienda utilizar el SDK oficial de Python para gestionar las claves de API y las solicitudes de inferencia. La documentación técnica está disponible en los enlaces de fuentes proporcionados, donde se detallan los requisitos de hardware para ejecutar la variante de 120B en servidores estándar.

  • Descargar pesos desde Hugging Face.
  • Usar el SDK oficial de Python.
  • Integración con AWS endpoints.
  • Requisitos de hardware especificados en docs.

Comparison

Model: GPT-OSS 120B | Context: 1M tokens | Max Output: 8K tokens | Input $/M: $0.001 | Output $/M: $0.005 | Strength: Equilibrio entre potencia y costo

Model: Qwen3.5-9B | Context: 128K tokens | Max Output: 8K tokens | Input $/M: $0.0005 | Output $/M: $0.002 | Strength: Eficiencia en hardware limitado

Model: Llama 3.1 405B | Context: 128K tokens | Max Output: 8K tokens | Input $/M: $0.002 | Output $/M: $0.01 | Strength: Rendimiento en razonamiento complejo

API Pricing — Input: $0.001 / Output: $0.005 / Context: 1M tokens


Sources

OpenAI GPT-OSS Release Announcement

OpenAI AWS Partnership Open Models