コンテンツにスキップ

モデル

LLM プロバイダーとモデルを構成します。

OpenCode は AI SDK および Models.dev を使用して 75 以上の LLM プロバイダー をサポートし、ローカル モデルの実行をサポートします。


プロバイダー

最も一般的なプロバイダーはデフォルトでプリロードされています。 /connect コマンドを使用してプロバイダーの資格情報を追加した場合は、OpenCode を開始するときにそれらの資格情報を使用できるようになります。

プロバイダー.


モデルを選択してください

プロバイダーを構成したら、次のように入力して必要なモデルを選択できます。

/models

推奨機種

たくさんのモデルがあり、毎週のように新しいモデルが登場します。

しかし、コード生成とツール呼び出しの両方に優れたものはほんのわずかしかありません。

ここでは、OpenCode で適切に動作するいくつかのモデルを順不同で示します。 (これは完全なリストではなく、必ずしも最新であるとは限りません):

  • GPT5.2
  • GPT 5.1 Codex
  • Claude Opus 4.5
  • Claude Sonnet 4.5
  • MiniMax M2.1
  • Gemini 3 Pro

デフォルトを設定する

これらのいずれかをデフォルトのモデルとして設定するには、model キーを OpenCodeの設定。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}

ここでの完全な ID は provider_id/model_id です。たとえば、OpenCode Zen を使用している場合、GPT 5.1 Codex には opencode/gpt-5.1-codex を使用します。

カスタムプロバイダー を構成している場合、provider_id は構成の provider 部分のキーであり、model_idprovider.models のキーです。


モデルの構成

config を通じてモデルのオプションをグローバルに設定できます。

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}

ここでは、2 つの組み込みモデル (gpt-5 プロバイダー経由でアクセスする場合は openaiclaude-sonnet-4-20250514 プロバイダー経由でアクセスする場合は anthropic) のグローバル設定を構成しています。 組み込みプロバイダーとモデル名は、Models.dev.

使用しているエージェントに対してこれらのオプションを構成することもできます。ここでエージェント設定はグローバル オプションをオーバーライドします。 詳細はこちら

組み込みバリアントを拡張するカスタム バリアントを定義することもできます。バリアントを使用すると、重複したエントリを作成せずに、同じモデルに対して異なる設定を構成できます。

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}

バリエーション

多くのモデルは、異なる構成の複数のバリアントをサポートしています。 OpenCode には、一般的なプロバイダーのデフォルトのバリアントが組み込まれています。

組み込みバリアント

OpenCode には、多くのプロバイダーのデフォルトのバリアントが付属しています。

Anthropic:

  • high - 高度な思考予算 (デフォルト)
  • max - 最大の思考予算

OpenAI:

モデルによって異なりますが、おおよそ次のとおりです。

  • none - 理由はありません
  • minimal - 最小限の推論努力
  • low - 推論の労力が少ない
  • medium - 中程度の推論努力
  • high - 高い推論努力
  • xhigh - 非常に高い推論努力

Google:

  • low - 労力/トークン予算の削減
  • high - より高い労力/トークン予算

カスタムバリアント

既存のバリアントをオーバーライドすることも、独自のバリアントを追加することもできます。

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}

サイクルのバリエーション

キーバインド variant_cycle を使用すると、バリアントをすばやく切り替えることができます。 詳細はこちら


モデルのロード

OpenCode が起動すると、次の優先順位でモデルがチェックされます。

  1. --model または -m コマンド ライン フラグ。形式は構成ファイルと同じです: provider_id/model_id

  2. OpenCode 構成内のモデルのリスト。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "model": "anthropic/claude-sonnet-4-20250514"
    }

ここでの形式は provider/model です。

  1. 最後に使用されたモデル。

  2. 内部優先を使用した最初のモデル。