Guide API
Explorez comment intégrer et étendre les capacités de Chat LLM à travers notre documentation API complète et nos outils de développement.
Fonctionnalités Principales
Notre API fournit des capacités IA robustes via une interface REST simple :
Points de terminaison API
Fonctionnalités Clés
- Traitement et génération du langage naturel
- Gestion de conversation consciente du contexte
- Support d'entrée/sortie multi-modal
- Réponses en streaming temps réel
- Prompts système personnalisables
- Gestion complète des erreurs
Commencer
Pour commencer à utiliser l'API, vous aurez besoin d'une clé API et d'une compréhension de base des principes REST :
Authentification
Toutes les requêtes API nécessitent une authentification. Vous devez être connecté à votre compte pour utiliser l'API.
Pour récupérer votre clé API, naviguez vers votre Page de Profil.
Limites d'Utilisation
Vos limites d'utilisation de l'API sont liées à votre plan actuel. Pour plus de détails sur les plans disponibles et leurs limites respectives, veuillez visiter notre Page des Tarifs.
Guide d'Intégration
Extensions VS Code
Compatible avec Kilo Code, Roo Code, Cline, et extensions similaires.
Configuration :
- URL de Base:
https://chats-llm.com/api/v1 - Clé API: Votre clé personnelle depuis la page de profil
Applications Compatibles OpenAI
Fonctionne avec n'importe quelle application supportant le standard d'API OpenAI.


Documentation API
Une API LLM compatible Openrouter pour intégrer facilement l'IA dans vos applications.
Démarrage rapide
Tous les abonnés à Chats-llm ont le droit à 10 requêtes gratuites par mois.
| Formule | Gratuit | Developer | Startup |
|---|---|---|---|
| Crédits mensuels | $0 | $5 | $10 |
Avec l'API Chats-llm directement
Génère une réponse de complétion de chat basée sur votre prompt.
Loading...Format de réponse
Réponse réussie
Loading...Réponse en streaming
Quand stream: true est défini, les réponses sont retournées sous forme de Server-Sent Events :
Loading...Liste de Modèles accessible :
https://chats-llm.com/api/v1/models
Codes d'erreur
| Code | Description |
|---|---|
| 400 | Requête incorrecte - Paramètres manquants ou incorrects |
| 401 | Non autorisé - Clé API invalide |
| 429 | Trop de requêtes - Limite de débit dépassée |
| 500 | Erreur serveur interne - Problème côté serveur |
| 503 | Service indisponible - Serveur temporairement indisponible |
Paramètres
Paramètres requis
| Paramètre | Type | Description |
|---|---|---|
| messages | array | Liste des messages dans la conversation |
| model | string | Identificateur du modèle à utiliser |
Paramètres optionnels
| Paramètre | Type | Défaut | Description |
|---|---|---|---|
| temperature | number | 0.7 | Contrôle la créativité (0.0 à 2.0) |
| max_tokens | integer | 2048 | Nombre maximum de tokens à générer |
| top_p | number | 1.0 | Contrôle la diversité des réponses |
| stream | boolean | false | Streaming de réponse en temps réel |
Conseils d'optimisation
Structure des messages
Loading...Types de rôles
- system: Définit le comportement et le contexte de l'assistant
- user: Représente les messages de l'utilisateur
- assistant: Représente les réponses précédentes de l'IA
Migration depuis OpenAI
Si vous utilisez déjà l'API OpenAI, migrer vers Chats-llm est simple :
- Changez l'URL de base de https://api.openai.com/v1 à https://chats-llm.com/api/v1
- Mettez à jour votre clé API
- Gardez tous les autres paramètres identiques
Bibliothèque Python OpenAI
Loading...