跳到內容

提供商

使用 OpenCode 中的任何 LLM 提供商。

OpenCode 使用 AI SDKModels.dev 來支持 75+ LLM 提供商,並且它支持運行本地模型。

要添加提供商,您需要:

  1. 使用 /connect 命令添加提供商的 API 密鑰。
  2. 在 OpenCode 配置中配置提供商。

憑證

當您使用 /connect 命令添加提供商的 API 密鑰時,它們會被存儲 在 ~/.local/share/opencode/auth.json


配置

您可以在 OpenCode 配置的 provider 部分自定義提供商。


基本網址

您可以通過設置 baseURL 選項來自定義任何提供商的基本 URL。這在使用代理服務或自定義端點時非常有用。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen 是 OpenCode 團隊提供的模型列表,這些模型已被 經過測試和驗證,可以與 OpenCode 良好配合。 了解更多

  1. 在 TUI 中運行 /connect 命令,選擇 opencode,然後前往 opencode.ai/auth

    /connect
  2. 登錄,添加您的帳單詳細信息,然後複製您的 API 密鑰。

  3. 粘貼您的 API 密鑰。

    ┌ API key
    └ enter
  4. 在 TUI 中運行 /models 以查看我們推薦的模型列表。

    /models

它的工作方式與 OpenCode 中的任何其他提供商一樣,並且完全可以選擇使用。


目錄

讓我們詳細了解一些提供商。如果您想將提供商添加到 列表,請隨時打開 PR。


302.AI

  1. 前往 302.AI 控制台,創建一個帳戶並生成一個 API 密鑰。

  2. 運行 /connect 命令並搜尋 302.AI

    /connect
  3. 輸入您的 302.AI API 密鑰。

    ┌ API key
    └ enter
  4. 執行 /models 命令選擇模型。

    /models

Amazon Bedrock

要將 Amazon Bedrock 與 OpenCode 結合使用:

  1. 前往 Amazon Bedrock 控制台中的 Model catalog 並請求 訪問您想要的模型。

  2. 使用以下方法之一配置身份驗證

    環境變量(快速啟動)

    運行 opencode 時設置以下環境變量之一:

    Terminal window
    # Option 1: Using AWS access keys
    AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
    # Option 2: Using named AWS profile
    AWS_PROFILE=my-profile opencode
    # Option 3: Using Bedrock bearer token
    AWS_BEARER_TOKEN_BEDROCK=XXX opencode

    或者將它們添加到您的 bash 配置文件中:

    ~/.bash_profile
    export AWS_PROFILE=my-dev-profile
    export AWS_REGION=us-east-1

    配置文件(推薦)

    對於特定於項目或持久的配置,請使用 opencode.json

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "my-aws-profile"
    }
    }
    }
    }

    可用選項:

    • region - AWS 區域(例如 us-east-1eu-west-1
    • profile - 來自 ~/.aws/credentials 的 AWS 命名配置文件
    • endpoint - 用於 VPC 端點的自定義端點 URL(通用 baseURL 選項的別名)

    高級:VPC 端點

    如果您使用 Bedrock 的 VPC 端點:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "production",
    "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
    }
    }
    }
    }

    認證方式

    • AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY:創建 IAM 用戶並在 AWS Console 中生成訪問密鑰
    • AWS_PROFILE:使用 ~/.aws/credentials 中的命名配置文件。首先配置 aws configure --profile my-profileaws sso login
    • AWS_BEARER_TOKEN_BEDROCK:從 Amazon Bedrock 控制台生成長期 API 密鑰
    • AWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN:適用於 EKS IRSA(服務帳戶的 IAM 角色)或具有 OIDC 聯合的其他 Kubernetes 環境。使用服務帳戶註釋時,這些環境變量由 Kubernetes 自動注入。

    認證優先級

    Amazon Bedrock 使用以下身份驗證優先級:

    1. Bearer Token - AWS_BEARER_TOKEN_BEDROCK 環境變量或來自 /connect 命令的令牌
    2. AWS Credential Chain - 配置文件、訪問密鑰、共享憑證、IAM 角色、Web 身份令牌 (EKS IRSA)、實例元數據
  3. 運行 /models 命令選擇所需的模型。

    /models

Anthropic

  1. 註冊後,運行 /connect 命令並選擇 Anthropic。

    /connect
  2. 在這裡您可以選擇 Claude Pro/Max 選項,它將打開您的瀏覽器 並要求您進行身份驗證。

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. 現在,當您使用 /models 命令時,所有 Anthropic 模型都應該可用。

    /models

Anthropic 不正式支持在 OpenCode 中使用您的 Claude Pro/Max 訂閱。

使用 API 密鑰

如果您沒有 Pro/Max 訂閱,您還可以選擇 Create an API Key。它還會打開您的瀏覽器並要求您登錄 Anthropic 並為您提供一個可以粘貼到終端機中的代碼。

或者,如果您已有 API 密鑰,則可以選擇 Manually enter API Key 並將其粘貼到您的終端機中。


Azure OpenAI

  1. 轉到 Azure portal 並創建 Azure OpenAI 資源。您需要:

    • Resource name:這將成為您的 API 端點 (https://RESOURCE_NAME.openai.azure.com/) 的一部分
    • API key:來自您的資源的 KEY 1KEY 2
  2. 轉到 Azure AI Foundry 並部署模型。

  3. 運行 /connect 命令並搜尋 Azure

    /connect
  4. 輸入您的 API 密鑰。

    ┌ API key
    └ enter
  5. 將您的資源名稱設置為環境變量:

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

    或者將其添加到您的 bash 配置文件中:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. 運行 /models 命令以選擇您部署的模型。

    /models

Azure Cognitive Services

  1. 轉到 Azure portal 並創建 Azure OpenAI 資源。您需要:

    • Resource name:這將成為您的 API 端點 (https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) 的一部分
    • API key:來自您的資源的 KEY 1KEY 2
  2. 轉到 Azure AI Foundry 並部署模型。

  3. 運行 /connect 命令並搜尋 Azure Cognitive Services

    /connect
  4. 輸入您的 API 密鑰。

    ┌ API key
    └ enter
  5. 將您的資源名稱設置為環境變量:

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

    或者將其添加到您的 bash 配置文件中:

    ~/.bash_profile
    export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  6. 運行 /models 命令以選擇您部署的模型。

    /models

Baseten

  1. 前往 Baseten,創建一個帳戶並生成一個 API 密鑰。

  2. 運行 /connect 命令並搜尋 Baseten

    /connect
  3. 輸入您的 Baseten API 密鑰。

    ┌ API key
    └ enter
  4. 執行 /models 命令選擇模型。

    /models

Cerebras

  1. 前往 Cerebras console,創建一個帳戶並生成一個 API 密鑰。

  2. 運行 /connect 命令並搜尋 Cerebras

    /connect
  3. 輸入您的 Cerebras API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇模型,如 Qwen 3 Coder 480B

    /models

Cloudflare AI Gateway

Cloudflare AI Gateway 讓您可以通過統一端點訪問來自 OpenAI、Anthropic、Workers AI 等的模型。使用 Unified Billing,您不需要為每個提供商提供單獨的 API 密鑰。

  1. 前往 Cloudflare dashboard,導航至 AI > AI Gateway,然後創建一個新網關。

  2. 將您的 Account ID 和 Gateway ID 設置為環境變量。

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. 運行 /connect 命令並搜尋 Cloudflare AI Gateway

    /connect
  4. 輸入您的 Cloudflare API 令牌。

    ┌ API key
    └ enter

    或者將其設置為環境變量。

    ~/.bash_profile
    export CLOUDFLARE_API_TOKEN=your-api-token
  5. 執行 /models 命令選擇模型。

    /models

    您還可以通過 OpenCode 配置添加模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "cloudflare-ai-gateway": {
    "models": {
    "openai/gpt-4o": {},
    "anthropic/claude-sonnet-4": {}
    }
    }
    }
    }

Cortecs

  1. 前往 Cortecs console,創建一個帳戶並生成一個 API 密鑰。

  2. 運行 /connect 命令並搜尋 Cortecs

    /connect
  3. 輸入您的 Cortecs API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇一個模型,如 Kimi K2 Instruct

    /models

DeepSeek

  1. 前往 DeepSeek console,創建一個帳戶,然後單擊 Create new API key

  2. 運行 /connect 命令並搜尋 DeepSeek

    /connect
  3. 輸入您的 DeepSeek API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令以選擇 DeepSeek 模型,例如 DeepSeek Reasoner

    /models

Deep Infra

  1. 前往 Deep Infra dashboard,創建一個帳戶並生成一個 API 密鑰。

  2. 運行 /connect 命令並搜尋 Deep Infra

    /connect
  3. 輸入您的 Deep Infra API 密鑰。

    ┌ API key
    └ enter
  4. 執行 /models 命令選擇模型。

    /models

Firmware

  1. 前往 Firmware dashboard,創建一個帳戶並生成一個 API 密鑰。

  2. 運行 /connect 命令並搜尋 Firmware

    /connect
  3. 輸入您的 Firmware API 密鑰。

    ┌ API key
    └ enter
  4. 執行 /models 命令選擇模型。

    /models

Fireworks AI

  1. 前往 Fireworks AI console,創建一個帳戶,然後單擊 Create API Key

  2. 運行 /connect 命令並搜尋 Fireworks AI

    /connect
  3. 輸入您的 Fireworks AI API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇一個模型,如 Kimi K2 Instruct

    /models

GitLab Duo

GitLab Duo 通過 GitLab 的 Anthropic 代理提供具有本機工具調用功能的 AI 驅動的代理聊天。

  1. 運行 /connect 命令並選擇 GitLab。

    /connect
  2. 選擇您的身份驗證方法:

    ┌ Select auth method
    │ OAuth (Recommended)
    │ Personal Access Token

    使用 OAuth(推薦)

    選擇 OAuth,您的瀏覽器將打開以進行授權。

    使用 Personal Access Token

    1. 前往 GitLab User Settings > Access Tokens
    2. 單擊 Add new token
    3. Name:OpenCode,Scopes:api
    4. 複製令牌(以 glpat- 開頭)
    5. 在終端機中輸入它
  3. 運行 /models 命令以查看可用模型。

    /models

    提供三種基於 Claude 的模型:

    • duo-chat-haiku-4-5(Default)- 快速任務的快速響應
    • duo-chat-sonnet-4-5 - 大多數工作流程的平衡性能
    • duo-chat-opus-4-5 - 最有能力進行複雜分析
Self-Hosted GitLab

對於自託管的 GitLab 實例:

Terminal window
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...

如果您的實例運行自定義 AI 網關:

Terminal window
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com

或者添加到您的 bash 配置文件中:

~/.bash_profile
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...
OAuth for Self-Hosted instances

為了使 OAuth 適用於您的自託管實例,您需要創建 一個新的應用程式(Settings → Applications),使用 回調 URL http://127.0.0.1:8080/callback 和以下範圍:

  • api(代表您訪問 API)
  • read_user(讀取您的個人信息)
  • read_repository(允許對存儲庫進行只讀訪問)

然後將應用程式 ID 公開為環境變量:

Terminal window
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here

更多文檔請參見 opencode-gitlab-auth 主頁。

Configuration

通過 opencode.json 定制:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com",
"featureFlags": {
"duo_agent_platform_agentic_chat": true,
"duo_agent_platform": true
}
}
}
}
}
GitLab API Tools(可選,但強烈推薦)

要訪問 GitLab 工具(merge requests、issues、pipelines、CI/CD 等):

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["@gitlab/opencode-gitlab-plugin"]
}

該插件提供全面的 GitLab 存儲庫管理功能,包括 MR 審查、問題跟踪、管道監控等。


GitHub Copilot

要將 GitHub Copilot 訂閱與 OpenCode 結合使用:

  1. 運行 /connect 命令並搜尋 GitHub Copilot。

    /connect
  2. 導航至 github.com/login/device 並輸入代碼。

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. 現在運行 /models 命令來選擇您想要的模型。

    /models

Google Vertex AI

要將 Google Vertex AI 與 OpenCode 結合使用:

  1. 前往 Google Cloud Console 中的 Model Garden 並檢查 您所在地區提供的模型。

  2. 設置所需的環境變量:

    • GOOGLE_CLOUD_PROJECT:您的 Google Cloud 項目 ID
    • VERTEX_LOCATION(可選):Vertex AI 的區域(默認為 global
    • 身份驗證(選擇一項):
      • GOOGLE_APPLICATION_CREDENTIALS:Path to your service account JSON key file
      • Authenticate using gcloud CLI: gcloud auth application-default login

    在運行 opencode 時設置它們。

    Terminal window
    GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode

    或者將它們添加到您的 bash 配置文件中。

    ~/.bash_profile
    export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
    export GOOGLE_CLOUD_PROJECT=your-project-id
    export VERTEX_LOCATION=global
  1. 運行 /models 命令選擇所需的模型。

    /models

Groq

  1. 前往 Groq console,單擊 Create API Key,然後複製密鑰。

  2. 運行 /connect 命令並搜尋 Groq。

    /connect
  3. 輸入提供商的 API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇您想要的。

    /models

Hugging Face

Hugging Face Inference Providers 提供對超過 17 個提供商支持的開放模型的訪問。

  1. 前往 Hugging Face settings 創建一個具有調用 Inference Providers 權限的令牌。

  2. 運行 /connect 命令並搜尋 Hugging Face

    /connect
  3. 輸入您的 Hugging Face 令牌。

    ┌ API key
    └ enter
  4. 運行 /models 命令來選擇模型,如 Kimi-K2-InstructGLM-4.6

    /models

Helicone

Helicone 是一個 LLM 可觀察性平台,可為您的 AI 應用程式提供日誌記錄、監控和分析。 The Helicone AI Gateway 根據模型自動將您的請求路由到適當的提供商。

  1. 前往 Helicone,創建一個帳戶,並從您的儀表板生成 API 密鑰。

  2. 運行 /connect 命令並搜尋 Helicone

    /connect
  3. 輸入您的 Helicone API 密鑰。

    ┌ API key
    └ enter
  4. 執行 /models 命令選擇模型。

    /models

有關更多提供商和高級功能(例如緩存和速率限制),請查看 Helicone documentation

Optional Configs

如果您發現 Helicone 的功能或模型未通過 OpenCode 自動配置,您始終可以自行配置。

這是 Helicone’s Model Directory,您將需要它來獲取要添加的模型的 ID。

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}

Custom Headers

Helicone 支持緩存、用戶跟踪和會話管理等功能的自定義標頭。使用 options.headers 將它們添加到您的提供商配置中:

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
Session tracking

Helicone 的 Sessions 功能可讓您將相關的 LLM 請求分組在一起。使用 opencode-helicone-session 插件自動將每個 OpenCode 對話記錄為 Helicone 中的會話。

Terminal window
npm install -g opencode-helicone-session

將其添加到您的配置中。

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

該插件將 Helicone-Session-IdHelicone-Session-Name 標頭注入您的請求中。在 Helicone 的 Sessions 頁面中,您將看到每個 OpenCode 對話都列為單獨的會話。

Common Helicone headers
HeaderDescription
Helicone-Cache-Enabled啟用響應緩存 (true/false)
Helicone-User-Id按用戶跟踪指標
Helicone-Property-[Name]添加自定義屬性(例如 Helicone-Property-Environment
Helicone-Prompt-Id將請求與提示版本相關聯

有關所有可用標頭,請參閱 Helicone Header Directory


llama.cpp

您可以通過 llama.cpp’s llama-server 實用程序配置 OpenCode 以使用本地模型

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

在這個例子中:

  • llama.cpp 是自定義提供商 ID。這可以是您想要的任何字符串。
  • npm 指定用於此提供商的包。這裡,@ai-sdk/openai-compatible 用於任何 OpenAI 兼容的 API。
  • name 是 UI 中提供商的顯示名稱。
  • options.baseURL 是本地服務器的端點。
  • models 是模型 ID 與其配置的映射。模型名稱將顯示在模型選擇列表中。

IO.NET

IO.NET 提供了 17 種針對各種用例進行優化的模型:

  1. 前往 IO.NET console,創建一個帳戶並生成一個 API 密鑰。

  2. 運行 /connect 命令並搜尋 IO.NET

    /connect
  3. 輸入您的 IO.NET API 密鑰。

    ┌ API key
    └ enter
  4. 執行 /models 命令選擇模型。

    /models

LM Studio

您可以通過 LM Studio 配置 OpenCode 以使用本地模型。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

在這個例子中:

  • lmstudio 是自定義提供商 ID。這可以是您想要的任何字符串。
  • npm 指定用於此提供商的包。這裡,@ai-sdk/openai-compatible 用於任何 OpenAI 兼容的 API。
  • name 是 UI 中提供商的顯示名稱。
  • options.baseURL 是本地服務器的端點。
  • models 是模型 ID 與其配置的映射。模型名稱將顯示在模型選擇列表中。

Moonshot AI

要使用 Moonshot AI 中的 Kimi K2:

  1. 前往 Moonshot AI console,創建一個帳戶,然後單擊 Create API key

  2. 運行 /connect 命令並搜尋 Moonshot AI

    /connect
  3. 輸入您的 Moonshot API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇 Kimi K2

    /models

MiniMax

  1. 前往 MiniMax API Console,創建一個帳戶並生成一個 API 密鑰。

  2. 運行 /connect 命令並搜尋 MiniMax

    /connect
  3. 輸入您的 MiniMax API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇模型,如 M2.1

    /models

Nebius Token Factory

  1. 前往 Nebius Token Factory console,創建一個帳戶,然後單擊 Add Key

  2. 運行 /connect 命令並搜尋 Nebius Token Factory

    /connect
  3. 輸入您的 Nebius Token Factory API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇一個模型,如 Kimi K2 Instruct

    /models

Ollama

您可以通過 Ollama 配置 OpenCode 以使用本地模型。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

在這個例子中:

  • ollama 是自定義提供商 ID。這可以是您想要的任何字符串。
  • npm 指定用於此提供商的包。這裡,@ai-sdk/openai-compatible 用於任何 OpenAI 兼容的 API。
  • name 是 UI 中提供商的顯示名稱。
  • options.baseURL 是本地服務器的端點。
  • models 是模型 ID 與其配置的映射。模型名稱將顯示在模型選擇列表中。

Ollama Cloud

要將 Ollama Cloud 與 OpenCode 結合使用:

  1. 前往 https://ollama.com/ 並登錄或創建帳戶。

  2. 導航到 Settings > Keys,然後單擊 Add API Key 以生成新的 API 密鑰。

  3. 複製 API 密鑰以在 OpenCode 中使用。

  4. 運行 /connect 命令並搜尋 Ollama Cloud

    /connect
  5. 輸入您的 Ollama Cloud API 密鑰。

    ┌ API key
    └ enter
  6. Important:在 OpenCode 中使用雲模型之前,您必須將模型信息拉取到本地:

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. 運行 /models 命令以選擇您的 Ollama Cloud 模型。

    /models

OpenAI

我們建議註冊 ChatGPT Plus or Pro

  1. 註冊後,運行 /connect 命令並選擇 OpenAI。

    /connect
  2. 在這裡您可以選擇 ChatGPT Plus/Pro 選項,它將打開您的瀏覽器 並要求您進行身份驗證。

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. 現在,當您使用 /models 命令時,所有 OpenAI 模型都應該可用。

    /models
使用 API 密鑰

如果您已有 API 密鑰,可以選擇 Manually enter API Key 並將其粘貼到您的終端機中。


OpenCode Zen

OpenCode Zen 是 OpenCode 團隊提供的經過測試和驗證的模型列表。 了解更多

  1. 登錄 OpenCode Zen 並單擊 Create API Key

  2. 運行 /connect 命令並搜尋 OpenCode Zen

    /connect
  3. 輸入您的 OpenCode API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇模型,如 Qwen 3 Coder 480B

    /models

OpenRouter

  1. 前往 OpenRouter dashboard,單擊 Create API Key,然後複製密鑰。

  2. 運行 /connect 命令並搜尋 OpenRouter。

    /connect
  3. 輸入提供商的 API 密鑰。

    ┌ API key
    └ enter
  4. 許多 OpenRouter 模型是默認預加載的,運行 /models 命令選擇您想要的模型。

    /models

    您還可以通過 OpenCode 配置添加其他模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }
  5. 您還可以通過 OpenCode 配置自定義它們。這是指定提供商的示例

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI Core 通過統一平台提供對 OpenAI、Anthropic、Google、Amazon、Meta、Mistral 和 AI21 的 40 多個模型的訪問。

  1. 轉到您的 SAP BTP Cockpit,導航到您的 SAP AI Core 服務實例,然後創建一個服務密鑰。

  2. 運行 /connect 命令並搜尋 SAP AI Core

    /connect
  3. 輸入您的服務密鑰 JSON。

    ┌ Service key
    └ enter

    或者設置 AICORE_SERVICE_KEY 環境變量:

    Terminal window
    AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

    或者將其添加到您的 bash 配置文件中:

    ~/.bash_profile
    export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  4. (可選)設置部署 ID 和資源組:

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  5. 運行 /models 命令從 40 多個可用模型中進行選擇。

    /models

OVHcloud AI Endpoints

  1. 前往 OVHcloud panel。導航到 Public Cloud 部分,AI & Machine Learning > AI Endpoints,然後在 API Keys 選項卡中單擊 Create a new API key

  2. 運行 /connect 命令並搜尋 OVHcloud AI Endpoints

    /connect
  3. 輸入您的 OVHcloud AI Endpoints API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇模型,如 gpt-oss-120b

    /models

Scaleway

要將 Scaleway Generative APIs 與 OpenCode 一起使用:

  1. 前往 Scaleway Console IAM settings 生成新的 API 密鑰。

  2. 運行 /connect 命令並搜尋 Scaleway

    /connect
  3. 輸入您的 Scaleway API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇模型,如 devstral-2-123b-instruct-2512gpt-oss-120b

    /models

Together AI

  1. 前往 Together AI console,創建一個帳戶,然後單擊 Add Key

  2. 運行 /connect 命令並搜尋 Together AI

    /connect
  3. 輸入您的 Together AI API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇一個模型,如 Kimi K2 Instruct

    /models

Venice AI

  1. 前往 Venice AI console,創建一個帳戶並生成一個 API 密鑰。

  2. 運行 /connect 命令並搜尋 Venice AI

    /connect
  3. 輸入您的 Venice AI API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇模型,如 Llama 3.3 70B

    /models

Vercel AI Gateway

Vercel AI Gateway 可讓您通過統一端點訪問來自 OpenAI、Anthropic、Google、xAI 等的模型。模型按標價提供,不加價。

  1. 前往 Vercel dashboard,導航至 AI Gateway 選項卡,然後單擊 API keys 以創建新的 API 密鑰。

  2. 運行 /connect 命令並搜尋 Vercel AI Gateway

    /connect
  3. 輸入您的 Vercel AI Gateway API 密鑰。

    ┌ API key
    └ enter
  4. 執行 /models 命令選擇模型。

    /models

您還可以通過 OpenCode 配置自定義模型。以下是指定提供者路由順序的示例。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

一些有用的路由選項:

OptionDescription
orderProvider sequence to try
onlyRestrict to specific providers
zeroDataRetentionOnly use providers with zero data retention policies

xAI

  1. 前往 xAI console,創建一個帳戶並生成一個 API 密鑰。

  2. 運行 /connect 命令並搜尋 xAI

    /connect
  3. 輸入您的 xAI API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇一個模型,如 Grok Beta

    /models

Z.AI

  1. 前往 Z.AI API console,創建一個帳戶,然後單擊 Create a new API key

  2. 運行 /connect 命令並搜尋 Z.AI

    /connect

    如果您訂閱了 GLM Coding Plan,請選擇 Z.AI Coding Plan

  3. 輸入您的 Z.AI API 密鑰。

    ┌ API key
    └ enter
  4. 運行 /models 命令選擇 GLM-4.7 等模型。

    /models

ZenMux

  1. 前往 ZenMux dashboard,單擊 Create API Key,然後複製密鑰。

  2. 運行 /connect 命令並搜尋 ZenMux。

    /connect
  3. 輸入提供商的 API 密鑰。

    ┌ API key
    └ enter
  4. 默認情況下預加載了許多 ZenMux 模型,運行 /models 命令選擇您想要的模型。

    /models

    您還可以通過 OpenCode 配置添加其他模型。

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "zenmux": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }

Custom provider

要添加 /connect 命令中未列出的任何 OpenAI-compatible 提供商:

  1. 運行 /connect 命令並向下滾動到 Other

    Terminal window
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. 輸入提供商的唯一 ID。

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. 輸入提供商的 API 密鑰。

    Terminal window
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
    Enter your API key
    sk-...
  4. 在項目目錄中創建或更新 opencode.json 文件:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

    以下是配置選項:

    • npm:要使用的 AI SDK 包,@ai-sdk/openai-compatible 用於 OpenAI 兼容提供商
    • name:UI 中的顯示名稱。
    • models:可用模型。
    • options.baseURL:API 端點 URL。
    • options.apiKey:如果不使用身份驗證,可以選擇設置 API 密鑰。
    • options.headers:可選擇設置自定義標頭。

    有關高級選項的更多信息,請參見下面的示例。

  5. 運行 /models 命令,您的自定義提供商和模型將出現在選擇列表中。


Example

以下是設置 apiKeyheaders 和模型 limit 選項的示例。

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

配置詳情:

  • apiKey:使用 env 變量語法 了解更多 設置。
  • headers:隨每個請求發送的自定義標頭。
  • limit.context:模型接受的最大輸入標記。
  • limit.output:模型可以生成的最大令牌。

limit 字段允許 OpenCode 了解您還剩下多少上下文。標準提供商會自動從 models.dev 中提取這些內容。


Troubleshooting

如果您在配置提供商時遇到問題,請檢查以下內容:

  1. Check the auth setup:運行 opencode auth list 以查看憑據是否 提供商的配置已添加到您的配置中。

    這不適用於 Amazon Bedrock 等依賴環境變量進行身份驗證的提供商。

  2. 對於自定義提供商,請檢查 OpenCode 配置並:

    • 確保 /connect 命令中使用的提供商 ID 與 OpenCode 配置中的 ID 匹配。
    • 正確的 npm 包用於提供商。例如,對 Cerebras 使用 @ai-sdk/cerebras。對於所有其他 OpenAI 兼容提供商,請使用 @ai-sdk/openai-compatible
    • 檢查 options.baseURL 字段中使用了正確的 API 端點。