Aller au contenu

Modèles

Configuration d'un fournisseur et d'un modèle LLM.

OpenCode utilise AI SDK et Models.dev pour prendre en charge 75+ fournisseurs LLM et prend en charge l’exécution de modèles locaux.


Fournisseurs

Les fournisseurs les plus populaires sont préchargés par défaut. Si vous avez ajouté les informations d’identification d’un fournisseur via la commande /connect, elles seront disponibles lorsque vous démarrerez OpenCode.

En savoir plus sur fournisseurs.


Sélectionnez un modèle

Une fois que vous avez configuré votre fournisseur, vous pouvez sélectionner le modèle souhaité en tapant :

/models

Modèles recommandés

Il existe de nombreux modèles et de nouveaux modèles sortent chaque semaine.

Cependant, seuls quelques-uns d’entre eux savent à la fois générer du code et appeler des outils.

Voici plusieurs modèles qui fonctionnent bien avec OpenCode, sans ordre particulier. (Cette liste n’est pas exhaustive et n’est pas nécessairement à jour) :

  • GPT 5.2
  • Codex GPT 5.1
  • Claude Opus 4.5
  • Claude Sonnet 4.5
  • Minimax M2.1
  • Gemini 3 Pro

Définir une valeur par défaut

Pour définir l’un d’entre eux comme modèle par défaut, vous pouvez définir la clé model dans votre OpenCode configuration.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}

Ici, l’identifiant complet est provider_id/model_id. Par exemple, si vous utilisez OpenCode Zen, vous utiliserez opencode/gpt-5.1-codex pour GPT 5.1 Codex.

Si vous avez configuré un fournisseur personnalisé, le provider_id est la clé de la partie provider de votre configuration et le model_id est la clé de provider.models.


Configurer les modèles

Vous pouvez configurer globalement les options d’un modèle via le fichier config.

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}

Ici, nous configurons les paramètres globaux pour deux modèles intégrés : gpt-5 lorsqu’il est accessible via le fournisseur openai et claude-sonnet-4-20250514 lorsqu’il est accessible via le fournisseur anthropic. Les noms du fournisseur intégré et des modèles peuvent être trouvés sur Models.dev.

Vous pouvez également configurer ces options pour tous les agents que vous utilisez. La configuration de l’agent remplace ici toutes les options globales. En savoir plus.

Vous pouvez également définir des variantes personnalisées qui étendent celles intégrées. Les variantes vous permettent de configurer différents paramètres pour le même modèle sans créer d’entrées en double :

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}

Variantes

De nombreux modèles prennent en charge plusieurs variantes avec différentes configurations. OpenCode est livré avec des variantes par défaut intégrées pour les fournisseurs populaires.

Built-in variants

OpenCode est livré avec des variantes par défaut pour de nombreux fournisseurs :

Anthropic :

  • high - Budget de réflexion élevé (par défaut)
  • max - Budget de réflexion maximum

OpenAI :

Varie selon le modèle mais en gros :

  • none - Aucun raisonnement
  • minimal - Effort de raisonnement minimal
  • low - Faible effort de raisonnement
  • medium - Effort de raisonnement moyen
  • high – Effort de raisonnement élevé
  • xhigh - Effort de raisonnement très élevé

Google:

  • low – Budget d’effort/jetons réduit
  • high – Budget d’effort/de jetons plus élevé

Variantes personnalisées

Vous pouvez remplacer les variantes existantes ou ajouter les vôtres :

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}

Cycle variants

Utilisez le raccourci clavier variant_cycle pour basculer rapidement entre les variantes. En savoir plus.


Chargement des modèles

Lorsque OpenCode démarre, il recherche les modèles dans l’ordre de priorité suivant :

  1. L’indicateur de ligne de commande --model ou -m. Le format est le même que dans le fichier de configuration : provider_id/model_id.

  2. La liste des modèles dans la configuration OpenCode.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "model": "anthropic/claude-sonnet-4-20250514"
    }

Le format ici est provider/model.

  1. Le dernier modèle utilisé.

  2. Le premier modèle utilisant une priorité interne.