Modèles
Configuration d'un fournisseur et d'un modèle LLM.
OpenCode utilise AI SDK et Models.dev pour prendre en charge 75+ fournisseurs LLM et prend en charge l’exécution de modèles locaux.
Fournisseurs
Les fournisseurs les plus populaires sont préchargés par défaut. Si vous avez ajouté les informations d’identification d’un fournisseur via la commande /connect, elles seront disponibles lorsque vous démarrerez OpenCode.
En savoir plus sur fournisseurs.
Sélectionnez un modèle
Une fois que vous avez configuré votre fournisseur, vous pouvez sélectionner le modèle souhaité en tapant :
/modelsModèles recommandés
Il existe de nombreux modèles et de nouveaux modèles sortent chaque semaine.
Cependant, seuls quelques-uns d’entre eux savent à la fois générer du code et appeler des outils.
Voici plusieurs modèles qui fonctionnent bien avec OpenCode, sans ordre particulier. (Cette liste n’est pas exhaustive et n’est pas nécessairement à jour) :
- GPT 5.2
- Codex GPT 5.1
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gemini 3 Pro
Définir une valeur par défaut
Pour définir l’un d’entre eux comme modèle par défaut, vous pouvez définir la clé model dans votre
OpenCode configuration.
{ "$schema": "https://opencode.ai/config.json", "model": "lmstudio/google/gemma-3n-e4b"}Ici, l’identifiant complet est provider_id/model_id. Par exemple, si vous utilisez OpenCode Zen, vous utiliserez opencode/gpt-5.1-codex pour GPT 5.1 Codex.
Si vous avez configuré un fournisseur personnalisé, le provider_id est la clé de la partie provider de votre configuration et le model_id est la clé de provider.models.
Configurer les modèles
Vous pouvez configurer globalement les options d’un modèle via le fichier config.
{ "$schema": "https://opencode.ai/config.json", "provider": { "openai": { "models": { "gpt-5": { "options": { "reasoningEffort": "high", "textVerbosity": "low", "reasoningSummary": "auto", "include": ["reasoning.encrypted_content"], }, }, }, }, "anthropic": { "models": { "claude-sonnet-4-5-20250929": { "options": { "thinking": { "type": "enabled", "budgetTokens": 16000, }, }, }, }, }, },}Ici, nous configurons les paramètres globaux pour deux modèles intégrés : gpt-5 lorsqu’il est accessible via le fournisseur openai et claude-sonnet-4-20250514 lorsqu’il est accessible via le fournisseur anthropic.
Les noms du fournisseur intégré et des modèles peuvent être trouvés sur Models.dev.
Vous pouvez également configurer ces options pour tous les agents que vous utilisez. La configuration de l’agent remplace ici toutes les options globales. En savoir plus.
Vous pouvez également définir des variantes personnalisées qui étendent celles intégrées. Les variantes vous permettent de configurer différents paramètres pour le même modèle sans créer d’entrées en double :
{ "$schema": "https://opencode.ai/config.json", "provider": { "opencode": { "models": { "gpt-5": { "variants": { "high": { "reasoningEffort": "high", "textVerbosity": "low", "reasoningSummary": "auto", }, "low": { "reasoningEffort": "low", "textVerbosity": "low", "reasoningSummary": "auto", }, }, }, }, }, },}Variantes
De nombreux modèles prennent en charge plusieurs variantes avec différentes configurations. OpenCode est livré avec des variantes par défaut intégrées pour les fournisseurs populaires.
Built-in variants
OpenCode est livré avec des variantes par défaut pour de nombreux fournisseurs :
Anthropic :
high- Budget de réflexion élevé (par défaut)max- Budget de réflexion maximum
OpenAI :
Varie selon le modèle mais en gros :
none- Aucun raisonnementminimal- Effort de raisonnement minimallow- Faible effort de raisonnementmedium- Effort de raisonnement moyenhigh– Effort de raisonnement élevéxhigh- Effort de raisonnement très élevé
Google:
low– Budget d’effort/jetons réduithigh– Budget d’effort/de jetons plus élevé
Variantes personnalisées
Vous pouvez remplacer les variantes existantes ou ajouter les vôtres :
{ "$schema": "https://opencode.ai/config.json", "provider": { "openai": { "models": { "gpt-5": { "variants": { "thinking": { "reasoningEffort": "high", "textVerbosity": "low", }, "fast": { "disabled": true, }, }, }, }, }, },}Cycle variants
Utilisez le raccourci clavier variant_cycle pour basculer rapidement entre les variantes. En savoir plus.
Chargement des modèles
Lorsque OpenCode démarre, il recherche les modèles dans l’ordre de priorité suivant :
-
L’indicateur de ligne de commande
--modelou-m. Le format est le même que dans le fichier de configuration :provider_id/model_id. -
La liste des modèles dans la configuration OpenCode.
opencode.json {"$schema": "https://opencode.ai/config.json","model": "anthropic/claude-sonnet-4-20250514"}
Le format ici est provider/model.
-
Le dernier modèle utilisé.
-
Le premier modèle utilisant une priorité interne.