Gå til innholdet

Modeller

Konfigurere en LLM leverandør og modell.

OpenCode bruker AI SDK og Models.dev for å støtte 75+ LLM leverandører og den støtter kjøring av lokale modeller.


Leverandører

De fleste populære leverandørene er forhåndslastet som standard. Hvis du har lagt til legitimasjonen for en leverandør gjennom kommandoen /connect, vil den være tilgjengelig når du starter OpenCode.

Finn ut mer om leverandører.


Velg en modell

Når du har konfigurert leverandøren din, kan du velge modellen du ønsker ved å skrive inn:

/models

Anbefalte modeller

Det er mange modeller der ute, med nye modeller som kommer ut hver uke.

Imidlertid er det bare noen få av dem som er gode til både å generere kode og verktøykalling.

Her er flere modeller som fungerer godt med OpenCode, uten spesiell rekkefølge. (Dette er ikke en uttømmende liste og er heller ikke nødvendigvis oppdatert):

  • GPT 5.2
  • GPT 5.1 Codex
  • Claude Opus 4.5
  • Claude Sonnet 4.5
  • Minimax M2.1
  • Gemini 3 Pro

Angi en standard

For å angi en av disse som standardmodell, kan du angi model-tasten i din OpenCode-konfigurasjon.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}

Her er hele ID provider_id/model_id. For eksempel, hvis du bruker OpenCode Zen, vil du bruke opencode/gpt-5.1-codex for GPT 5.1 Codex.

Hvis du har konfigurert en egendefinert leverandør, er provider_id nøkkelen fra provider-delen av konfigurasjonen din, og model_id er nøkkelen fra provider.models.


Konfigurer modeller

Du kan konfigurere en modells alternativer globalt gjennom konfigurasjonen.

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}

Her konfigurerer vi globale innstillinger for to innebygde modeller: gpt-5 når de åpnes via openai-leverandøren, og claude-sonnet-4-20250514 når de åpnes via anthropic-leverandøren. De innebygde leverandør- og modellnavnene finnes på Models.dev.

Du kan også konfigurere disse alternativene for alle agenter du bruker. Agentkonfigurasjonen overstyrer alle globale alternativer her. Finn ut mer.

Du kan også definere tilpassede varianter som utvider de innebygde. Varianter lar deg konfigurere forskjellige innstillinger for samme modell uten å opprette dupliserte oppføringer:

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}

Varianter

Mange modeller støtter flere varianter med forskjellige konfigurasjoner. opencode leveres med innebygde standardvarianter for populære leverandører.

Innebygde varianter

OpenCode leveres med standardvarianter for mange leverandører:

Anthropic:

  • high - Høyt tenkebudsjett (standard)
  • max - Maksimalt tenkebudsjett

OpenAI:

Varierer etter modell, men omtrent:

  • none - Ingen resonnement
  • minimal - Minimal resonnementinnsats
  • low - Lav resonnementinnsats
  • medium - Middels resonnementinnsats
  • high - Høy resonnementinnsats
  • xhigh - Ekstra høy resonnementinnsats

Google:

  • low - Lavere innsats/tokenbudsjett
  • high - Høyere innsats/tokenbudsjett

Egendefinerte varianter

Du kan overstyre eksisterende varianter eller legge til dine egne:

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}

Syklusvarianter

Bruk tastebindingen variant_cycle for raskt å bytte mellom varianter. Finn ut mer.


Laster modeller

Når OpenCode starter opp, ser den etter modeller i følgende prioriterte rekkefølge:

  1. Kommandolinjeflagget --model eller -m. Formatet er det samme som i konfigurasjonsfilen: provider_id/model_id.

  2. Modelllisten i OpenCode-konfigurasjonen.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "model": "anthropic/claude-sonnet-4-20250514"
    }

    Formatet her er provider/model.

  3. Den sist brukte modellen.

  4. Den første modellen bruker en intern prioritet.