Guía API
Explora cómo integrar y extender las capacidades de Chat LLM a través de nuestra documentación API completa y herramientas de desarrollo.
Características Principales
Nuestra API proporciona capacidades de IA robustas a través de una interfaz REST simple:
Capacidades Clave
- Procesamiento y generación de lenguaje natural
- Gestión de conversación consciente del contexto
- Soporte de entrada/salida multi-modal
- Respuestas en streaming tiempo real
- Prompts del sistema personalizables
- Manejo integral de errores
Comenzando
Para comenzar a usar la API, necesitarás una clave API y comprensión básica de los principios REST:
Autenticación
Todas las solicitudes API requieren autenticación. Necesitas estar conectado a tu cuenta para usar la API.
Para recuperar tu clave API, navega a tu Página de Perfil.
Límites de Uso
Tus límites de uso de la API están ligados a tu plan actual. Para más detalles sobre los planes disponibles y sus límites respectivos, por favor visita nuestra Página de Precios.
Guía de Integración
Extensiones VS Code
Compatible con Kilo Code, Roo Code, Cline, y extensiones similares.
Configuración:
- URL Base:
https://chats-llm.com/api/v1 - Clave API: Tu clave personal desde la página de perfil
Aplicaciones Compatibles OpenAI
Funciona con cualquier aplicación que soporte el estándar API OpenAI.


Documentación API
Una API LLM compatible con Openrouter para integrar fácilmente IA en tus aplicaciones.
Inicio Rápido
Todos los suscriptores de Chats-llm tienen derecho a 10 solicitudes gratuitas por mes.
| Plan | Gratis | Desarrollador | Inicio |
|---|---|---|---|
| Créditos mensuales | $0 | $5 | $10 |
Usando la API Chats-llm directamente
Genera una respuesta de completación de chat basada en tu prompt.
Loading...Formato de Respuesta
Respuesta Exitosa
Loading...Respuesta en Streaming
Cuando stream: true está configurado, las respuestas se devuelven como Server-Sent Events:
Loading...Lista de Modelos Accesibles:
https://chats-llm.com/api/v1/models
Códigos de Error
| Código | Descripción |
|---|---|
| 400 | Solicitud Incorrecta - Parámetros faltantes o incorrectos |
| 401 | No Autorizado - Clave API inválida |
| 429 | Demasiadas Solicitudes - Límite de velocidad excedido |
| 500 | Error Interno del Servidor - Problema del lado del servidor |
| 503 | Servicio No Disponible - Servidor temporalmente no disponible |
Parámetros
Parámetros Requeridos
| Parámetro | Tipo | Descripción |
|---|---|---|
| messages | array | Lista de mensajes en la conversación |
| model | string | Identificador del modelo a usar |
Parámetros Opcionales
| Parámetro | Tipo | Por Defecto | Descripción |
|---|---|---|---|
| temperature | number | 0.7 | Controla la creatividad (0.0 a 2.0) |
| max_tokens | integer | 2048 | Número máximo de tokens a generar |
| top_p | number | 1.0 | Controla la diversidad de respuestas |
| stream | boolean | false | Streaming de respuesta en tiempo real |
Consejos de Optimización
Estructura de Mensajes
Loading...Tipos de Rol
- system: Define el comportamiento y contexto del asistente
- user: Representa los mensajes del usuario
- assistant: Representa las respuestas previas de la IA
Migración desde OpenAI
Si ya usas la API OpenAI, migrar a Chats-llm es simple:
- Cambia la URL base de https://api.openai.com/v1 a https://chats-llm.com/api/v1
- Actualiza tu clave API
- Mantén todos los demás parámetros iguales
Biblioteca Python OpenAI
Loading...