提供商
使用 OpenCode 中的任何 LLM 提供商。
OpenCode 使用 AI SDK 和 Models.dev 來支持 75+ LLM 提供商,並且它支持運行本地模型。
要添加提供商,您需要:
- 使用
/connect命令添加提供商的 API 密鑰。 - 在 OpenCode 配置中配置提供商。
憑證
當您使用 /connect 命令添加提供商的 API 密鑰時,它們會被存儲
在 ~/.local/share/opencode/auth.json。
配置
您可以在 OpenCode 配置的 provider 部分自定義提供商。
基本網址
您可以通過設置 baseURL 選項來自定義任何提供商的基本 URL。這在使用代理服務或自定義端點時非常有用。
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}OpenCode Zen
OpenCode Zen 是 OpenCode 團隊提供的模型列表,這些模型已被 經過測試和驗證,可以與 OpenCode 良好配合。 了解更多。
-
在 TUI 中運行
/connect命令,選擇 opencode,然後前往 opencode.ai/auth。/connect -
登錄,添加您的帳單詳細信息,然後複製您的 API 密鑰。
-
粘貼您的 API 密鑰。
┌ API key││└ enter -
在 TUI 中運行
/models以查看我們推薦的模型列表。/models
它的工作方式與 OpenCode 中的任何其他提供商一樣,並且完全可以選擇使用。
目錄
讓我們詳細了解一些提供商。如果您想將提供商添加到 列表,請隨時打開 PR。
302.AI
-
前往 302.AI 控制台,創建一個帳戶並生成一個 API 密鑰。
-
運行
/connect命令並搜尋 302.AI。/connect -
輸入您的 302.AI API 密鑰。
┌ API key││└ enter -
執行
/models命令選擇模型。/models
Amazon Bedrock
要將 Amazon Bedrock 與 OpenCode 結合使用:
-
前往 Amazon Bedrock 控制台中的 Model catalog 並請求 訪問您想要的模型。
-
使用以下方法之一配置身份驗證:
環境變量(快速啟動)
運行 opencode 時設置以下環境變量之一:
Terminal window # Option 1: Using AWS access keysAWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode# Option 2: Using named AWS profileAWS_PROFILE=my-profile opencode# Option 3: Using Bedrock bearer tokenAWS_BEARER_TOKEN_BEDROCK=XXX opencode或者將它們添加到您的 bash 配置文件中:
~/.bash_profile export AWS_PROFILE=my-dev-profileexport AWS_REGION=us-east-1配置文件(推薦)
對於特定於項目或持久的配置,請使用
opencode.json:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "my-aws-profile"}}}}可用選項:
region- AWS 區域(例如us-east-1、eu-west-1)profile- 來自~/.aws/credentials的 AWS 命名配置文件endpoint- 用於 VPC 端點的自定義端點 URL(通用baseURL選項的別名)
高級:VPC 端點
如果您使用 Bedrock 的 VPC 端點:
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "production","endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"}}}}認證方式
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY:創建 IAM 用戶並在 AWS Console 中生成訪問密鑰AWS_PROFILE:使用~/.aws/credentials中的命名配置文件。首先配置aws configure --profile my-profile或aws sso loginAWS_BEARER_TOKEN_BEDROCK:從 Amazon Bedrock 控制台生成長期 API 密鑰AWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN:適用於 EKS IRSA(服務帳戶的 IAM 角色)或具有 OIDC 聯合的其他 Kubernetes 環境。使用服務帳戶註釋時,這些環境變量由 Kubernetes 自動注入。
認證優先級
Amazon Bedrock 使用以下身份驗證優先級:
- Bearer Token -
AWS_BEARER_TOKEN_BEDROCK環境變量或來自/connect命令的令牌 - AWS Credential Chain - 配置文件、訪問密鑰、共享憑證、IAM 角色、Web 身份令牌 (EKS IRSA)、實例元數據
-
運行
/models命令選擇所需的模型。/models
Anthropic
-
註冊後,運行
/connect命令並選擇 Anthropic。/connect -
在這裡您可以選擇 Claude Pro/Max 選項,它將打開您的瀏覽器 並要求您進行身份驗證。
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
現在,當您使用
/models命令時,所有 Anthropic 模型都應該可用。/models
Anthropic 不正式支持在 OpenCode 中使用您的 Claude Pro/Max 訂閱。
使用 API 密鑰
如果您沒有 Pro/Max 訂閱,您還可以選擇 Create an API Key。它還會打開您的瀏覽器並要求您登錄 Anthropic 並為您提供一個可以粘貼到終端機中的代碼。
或者,如果您已有 API 密鑰,則可以選擇 Manually enter API Key 並將其粘貼到您的終端機中。
Azure OpenAI
-
轉到 Azure portal 並創建 Azure OpenAI 資源。您需要:
- Resource name:這將成為您的 API 端點 (
https://RESOURCE_NAME.openai.azure.com/) 的一部分 - API key:來自您的資源的
KEY 1或KEY 2
- Resource name:這將成為您的 API 端點 (
-
轉到 Azure AI Foundry 並部署模型。
-
運行
/connect命令並搜尋 Azure。/connect -
輸入您的 API 密鑰。
┌ API key││└ enter -
將您的資源名稱設置為環境變量:
Terminal window AZURE_RESOURCE_NAME=XXX opencode或者將其添加到您的 bash 配置文件中:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
運行
/models命令以選擇您部署的模型。/models
Azure Cognitive Services
-
轉到 Azure portal 並創建 Azure OpenAI 資源。您需要:
- Resource name:這將成為您的 API 端點 (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) 的一部分 - API key:來自您的資源的
KEY 1或KEY 2
- Resource name:這將成為您的 API 端點 (
-
轉到 Azure AI Foundry 並部署模型。
-
運行
/connect命令並搜尋 Azure Cognitive Services。/connect -
輸入您的 API 密鑰。
┌ API key││└ enter -
將您的資源名稱設置為環境變量:
Terminal window AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode或者將其添加到您的 bash 配置文件中:
~/.bash_profile export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
運行
/models命令以選擇您部署的模型。/models
Baseten
-
前往 Baseten,創建一個帳戶並生成一個 API 密鑰。
-
運行
/connect命令並搜尋 Baseten。/connect -
輸入您的 Baseten API 密鑰。
┌ API key││└ enter -
執行
/models命令選擇模型。/models
Cerebras
-
前往 Cerebras console,創建一個帳戶並生成一個 API 密鑰。
-
運行
/connect命令並搜尋 Cerebras。/connect -
輸入您的 Cerebras API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇模型,如 Qwen 3 Coder 480B。/models
Cloudflare AI Gateway
Cloudflare AI Gateway 讓您可以通過統一端點訪問來自 OpenAI、Anthropic、Workers AI 等的模型。使用 Unified Billing,您不需要為每個提供商提供單獨的 API 密鑰。
-
前往 Cloudflare dashboard,導航至 AI > AI Gateway,然後創建一個新網關。
-
將您的 Account ID 和 Gateway ID 設置為環境變量。
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
運行
/connect命令並搜尋 Cloudflare AI Gateway。/connect -
輸入您的 Cloudflare API 令牌。
┌ API key││└ enter或者將其設置為環境變量。
~/.bash_profile export CLOUDFLARE_API_TOKEN=your-api-token -
執行
/models命令選擇模型。/models您還可以通過 OpenCode 配置添加模型。
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"cloudflare-ai-gateway": {"models": {"openai/gpt-4o": {},"anthropic/claude-sonnet-4": {}}}}}
Cortecs
-
前往 Cortecs console,創建一個帳戶並生成一個 API 密鑰。
-
運行
/connect命令並搜尋 Cortecs。/connect -
輸入您的 Cortecs API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇一個模型,如 Kimi K2 Instruct。/models
DeepSeek
-
前往 DeepSeek console,創建一個帳戶,然後單擊 Create new API key。
-
運行
/connect命令並搜尋 DeepSeek。/connect -
輸入您的 DeepSeek API 密鑰。
┌ API key││└ enter -
運行
/models命令以選擇 DeepSeek 模型,例如 DeepSeek Reasoner。/models
Deep Infra
-
前往 Deep Infra dashboard,創建一個帳戶並生成一個 API 密鑰。
-
運行
/connect命令並搜尋 Deep Infra。/connect -
輸入您的 Deep Infra API 密鑰。
┌ API key││└ enter -
執行
/models命令選擇模型。/models
Firmware
-
前往 Firmware dashboard,創建一個帳戶並生成一個 API 密鑰。
-
運行
/connect命令並搜尋 Firmware。/connect -
輸入您的 Firmware API 密鑰。
┌ API key││└ enter -
執行
/models命令選擇模型。/models
Fireworks AI
-
前往 Fireworks AI console,創建一個帳戶,然後單擊 Create API Key。
-
運行
/connect命令並搜尋 Fireworks AI。/connect -
輸入您的 Fireworks AI API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇一個模型,如 Kimi K2 Instruct。/models
GitLab Duo
GitLab Duo 通過 GitLab 的 Anthropic 代理提供具有本機工具調用功能的 AI 驅動的代理聊天。
-
運行
/connect命令並選擇 GitLab。/connect -
選擇您的身份驗證方法:
┌ Select auth method││ OAuth (Recommended)│ Personal Access Token└使用 OAuth(推薦)
選擇 OAuth,您的瀏覽器將打開以進行授權。
使用 Personal Access Token
- 前往 GitLab User Settings > Access Tokens
- 單擊 Add new token
- Name:
OpenCode,Scopes:api - 複製令牌(以
glpat-開頭) - 在終端機中輸入它
-
運行
/models命令以查看可用模型。/models提供三種基於 Claude 的模型:
- duo-chat-haiku-4-5(Default)- 快速任務的快速響應
- duo-chat-sonnet-4-5 - 大多數工作流程的平衡性能
- duo-chat-opus-4-5 - 最有能力進行複雜分析
Self-Hosted GitLab
對於自託管的 GitLab 實例:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_TOKEN=glpat-...如果您的實例運行自定義 AI 網關:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com或者添加到您的 bash 配置文件中:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comexport GITLAB_TOKEN=glpat-...OAuth for Self-Hosted instances
為了使 OAuth 適用於您的自託管實例,您需要創建
一個新的應用程式(Settings → Applications),使用
回調 URL http://127.0.0.1:8080/callback 和以下範圍:
- api(代表您訪問 API)
- read_user(讀取您的個人信息)
- read_repository(允許對存儲庫進行只讀訪問)
然後將應用程式 ID 公開為環境變量:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here更多文檔請參見 opencode-gitlab-auth 主頁。
Configuration
通過 opencode.json 定制:
{ "$schema": "https://opencode.ai/config.json", "provider": { "gitlab": { "options": { "instanceUrl": "https://gitlab.com", "featureFlags": { "duo_agent_platform_agentic_chat": true, "duo_agent_platform": true } } } }}GitLab API Tools(可選,但強烈推薦)
要訪問 GitLab 工具(merge requests、issues、pipelines、CI/CD 等):
{ "$schema": "https://opencode.ai/config.json", "plugin": ["@gitlab/opencode-gitlab-plugin"]}該插件提供全面的 GitLab 存儲庫管理功能,包括 MR 審查、問題跟踪、管道監控等。
GitHub Copilot
要將 GitHub Copilot 訂閱與 OpenCode 結合使用:
-
運行
/connect命令並搜尋 GitHub Copilot。/connect -
導航至 github.com/login/device 並輸入代碼。
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
現在運行
/models命令來選擇您想要的模型。/models
Google Vertex AI
要將 Google Vertex AI 與 OpenCode 結合使用:
-
前往 Google Cloud Console 中的 Model Garden 並檢查 您所在地區提供的模型。
-
設置所需的環境變量:
GOOGLE_CLOUD_PROJECT:您的 Google Cloud 項目 IDVERTEX_LOCATION(可選):Vertex AI 的區域(默認為global)- 身份驗證(選擇一項):
GOOGLE_APPLICATION_CREDENTIALS:Path to your service account JSON key file- Authenticate using gcloud CLI:
gcloud auth application-default login
在運行 opencode 時設置它們。
Terminal window GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode或者將它們添加到您的 bash 配置文件中。
~/.bash_profile export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.jsonexport GOOGLE_CLOUD_PROJECT=your-project-idexport VERTEX_LOCATION=global
-
運行
/models命令選擇所需的模型。/models
Groq
-
前往 Groq console,單擊 Create API Key,然後複製密鑰。
-
運行
/connect命令並搜尋 Groq。/connect -
輸入提供商的 API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇您想要的。/models
Hugging Face
Hugging Face Inference Providers 提供對超過 17 個提供商支持的開放模型的訪問。
-
前往 Hugging Face settings 創建一個具有調用 Inference Providers 權限的令牌。
-
運行
/connect命令並搜尋 Hugging Face。/connect -
輸入您的 Hugging Face 令牌。
┌ API key││└ enter -
運行
/models命令來選擇模型,如 Kimi-K2-Instruct 或 GLM-4.6。/models
Helicone
Helicone 是一個 LLM 可觀察性平台,可為您的 AI 應用程式提供日誌記錄、監控和分析。 The Helicone AI Gateway 根據模型自動將您的請求路由到適當的提供商。
-
前往 Helicone,創建一個帳戶,並從您的儀表板生成 API 密鑰。
-
運行
/connect命令並搜尋 Helicone。/connect -
輸入您的 Helicone API 密鑰。
┌ API key││└ enter -
執行
/models命令選擇模型。/models
有關更多提供商和高級功能(例如緩存和速率限制),請查看 Helicone documentation。
Optional Configs
如果您發現 Helicone 的功能或模型未通過 OpenCode 自動配置,您始終可以自行配置。
這是 Helicone’s Model Directory,您將需要它來獲取要添加的模型的 ID。
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}Custom Headers
Helicone 支持緩存、用戶跟踪和會話管理等功能的自定義標頭。使用 options.headers 將它們添加到您的提供商配置中:
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}Session tracking
Helicone 的 Sessions 功能可讓您將相關的 LLM 請求分組在一起。使用 opencode-helicone-session 插件自動將每個 OpenCode 對話記錄為 Helicone 中的會話。
npm install -g opencode-helicone-session將其添加到您的配置中。
{ "plugin": ["opencode-helicone-session"]}該插件將 Helicone-Session-Id 和 Helicone-Session-Name 標頭注入您的請求中。在 Helicone 的 Sessions 頁面中,您將看到每個 OpenCode 對話都列為單獨的會話。
Common Helicone headers
| Header | Description |
|---|---|
Helicone-Cache-Enabled | 啟用響應緩存 (true/false) |
Helicone-User-Id | 按用戶跟踪指標 |
Helicone-Property-[Name] | 添加自定義屬性(例如 Helicone-Property-Environment) |
Helicone-Prompt-Id | 將請求與提示版本相關聯 |
有關所有可用標頭,請參閱 Helicone Header Directory。
llama.cpp
您可以通過 llama.cpp’s llama-server 實用程序配置 OpenCode 以使用本地模型
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}在這個例子中:
llama.cpp是自定義提供商 ID。這可以是您想要的任何字符串。npm指定用於此提供商的包。這裡,@ai-sdk/openai-compatible用於任何 OpenAI 兼容的 API。name是 UI 中提供商的顯示名稱。options.baseURL是本地服務器的端點。models是模型 ID 與其配置的映射。模型名稱將顯示在模型選擇列表中。
IO.NET
IO.NET 提供了 17 種針對各種用例進行優化的模型:
-
前往 IO.NET console,創建一個帳戶並生成一個 API 密鑰。
-
運行
/connect命令並搜尋 IO.NET。/connect -
輸入您的 IO.NET API 密鑰。
┌ API key││└ enter -
執行
/models命令選擇模型。/models
LM Studio
您可以通過 LM Studio 配置 OpenCode 以使用本地模型。
{ "$schema": "https://opencode.ai/config.json", "provider": { "lmstudio": { "npm": "@ai-sdk/openai-compatible", "name": "LM Studio (local)", "options": { "baseURL": "http://127.0.0.1:1234/v1" }, "models": { "google/gemma-3n-e4b": { "name": "Gemma 3n-e4b (local)" } } } }}在這個例子中:
lmstudio是自定義提供商 ID。這可以是您想要的任何字符串。npm指定用於此提供商的包。這裡,@ai-sdk/openai-compatible用於任何 OpenAI 兼容的 API。name是 UI 中提供商的顯示名稱。options.baseURL是本地服務器的端點。models是模型 ID 與其配置的映射。模型名稱將顯示在模型選擇列表中。
Moonshot AI
要使用 Moonshot AI 中的 Kimi K2:
-
前往 Moonshot AI console,創建一個帳戶,然後單擊 Create API key。
-
運行
/connect命令並搜尋 Moonshot AI。/connect -
輸入您的 Moonshot API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇 Kimi K2。/models
MiniMax
-
前往 MiniMax API Console,創建一個帳戶並生成一個 API 密鑰。
-
運行
/connect命令並搜尋 MiniMax。/connect -
輸入您的 MiniMax API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇模型,如 M2.1。/models
Nebius Token Factory
-
前往 Nebius Token Factory console,創建一個帳戶,然後單擊 Add Key。
-
運行
/connect命令並搜尋 Nebius Token Factory。/connect -
輸入您的 Nebius Token Factory API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇一個模型,如 Kimi K2 Instruct。/models
Ollama
您可以通過 Ollama 配置 OpenCode 以使用本地模型。
{ "$schema": "https://opencode.ai/config.json", "provider": { "ollama": { "npm": "@ai-sdk/openai-compatible", "name": "Ollama (local)", "options": { "baseURL": "http://localhost:11434/v1" }, "models": { "llama2": { "name": "Llama 2" } } } }}在這個例子中:
ollama是自定義提供商 ID。這可以是您想要的任何字符串。npm指定用於此提供商的包。這裡,@ai-sdk/openai-compatible用於任何 OpenAI 兼容的 API。name是 UI 中提供商的顯示名稱。options.baseURL是本地服務器的端點。models是模型 ID 與其配置的映射。模型名稱將顯示在模型選擇列表中。
Ollama Cloud
要將 Ollama Cloud 與 OpenCode 結合使用:
-
前往 https://ollama.com/ 並登錄或創建帳戶。
-
導航到 Settings > Keys,然後單擊 Add API Key 以生成新的 API 密鑰。
-
複製 API 密鑰以在 OpenCode 中使用。
-
運行
/connect命令並搜尋 Ollama Cloud。/connect -
輸入您的 Ollama Cloud API 密鑰。
┌ API key││└ enter -
Important:在 OpenCode 中使用雲模型之前,您必須將模型信息拉取到本地:
Terminal window ollama pull gpt-oss:20b-cloud -
運行
/models命令以選擇您的 Ollama Cloud 模型。/models
OpenAI
我們建議註冊 ChatGPT Plus or Pro。
-
註冊後,運行
/connect命令並選擇 OpenAI。/connect -
在這裡您可以選擇 ChatGPT Plus/Pro 選項,它將打開您的瀏覽器 並要求您進行身份驗證。
┌ Select auth method││ ChatGPT Plus/Pro│ Manually enter API Key└ -
現在,當您使用
/models命令時,所有 OpenAI 模型都應該可用。/models
使用 API 密鑰
如果您已有 API 密鑰,可以選擇 Manually enter API Key 並將其粘貼到您的終端機中。
OpenCode Zen
OpenCode Zen 是 OpenCode 團隊提供的經過測試和驗證的模型列表。 了解更多。
-
登錄 OpenCode Zen 並單擊 Create API Key。
-
運行
/connect命令並搜尋 OpenCode Zen。/connect -
輸入您的 OpenCode API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇模型,如 Qwen 3 Coder 480B。/models
OpenRouter
-
前往 OpenRouter dashboard,單擊 Create API Key,然後複製密鑰。
-
運行
/connect命令並搜尋 OpenRouter。/connect -
輸入提供商的 API 密鑰。
┌ API key││└ enter -
許多 OpenRouter 模型是默認預加載的,運行
/models命令選擇您想要的模型。/models您還可以通過 OpenCode 配置添加其他模型。
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"somecoolnewmodel": {}}}}} -
您還可以通過 OpenCode 配置自定義它們。這是指定提供商的示例
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
SAP AI Core
SAP AI Core 通過統一平台提供對 OpenAI、Anthropic、Google、Amazon、Meta、Mistral 和 AI21 的 40 多個模型的訪問。
-
轉到您的 SAP BTP Cockpit,導航到您的 SAP AI Core 服務實例,然後創建一個服務密鑰。
-
運行
/connect命令並搜尋 SAP AI Core。/connect -
輸入您的服務密鑰 JSON。
┌ Service key││└ enter或者設置
AICORE_SERVICE_KEY環境變量:Terminal window AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode或者將其添加到您的 bash 配置文件中:
~/.bash_profile export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' -
(可選)設置部署 ID 和資源組:
Terminal window AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode -
運行
/models命令從 40 多個可用模型中進行選擇。/models
OVHcloud AI Endpoints
-
前往 OVHcloud panel。導航到
Public Cloud部分,AI & Machine Learning>AI Endpoints,然後在API Keys選項卡中單擊 Create a new API key。 -
運行
/connect命令並搜尋 OVHcloud AI Endpoints。/connect -
輸入您的 OVHcloud AI Endpoints API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇模型,如 gpt-oss-120b。/models
Scaleway
要將 Scaleway Generative APIs 與 OpenCode 一起使用:
-
前往 Scaleway Console IAM settings 生成新的 API 密鑰。
-
運行
/connect命令並搜尋 Scaleway。/connect -
輸入您的 Scaleway API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇模型,如 devstral-2-123b-instruct-2512 或 gpt-oss-120b。/models
Together AI
-
前往 Together AI console,創建一個帳戶,然後單擊 Add Key。
-
運行
/connect命令並搜尋 Together AI。/connect -
輸入您的 Together AI API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇一個模型,如 Kimi K2 Instruct。/models
Venice AI
-
前往 Venice AI console,創建一個帳戶並生成一個 API 密鑰。
-
運行
/connect命令並搜尋 Venice AI。/connect -
輸入您的 Venice AI API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇模型,如 Llama 3.3 70B。/models
Vercel AI Gateway
Vercel AI Gateway 可讓您通過統一端點訪問來自 OpenAI、Anthropic、Google、xAI 等的模型。模型按標價提供,不加價。
-
前往 Vercel dashboard,導航至 AI Gateway 選項卡,然後單擊 API keys 以創建新的 API 密鑰。
-
運行
/connect命令並搜尋 Vercel AI Gateway。/connect -
輸入您的 Vercel AI Gateway API 密鑰。
┌ API key││└ enter -
執行
/models命令選擇模型。/models
您還可以通過 OpenCode 配置自定義模型。以下是指定提供者路由順序的示例。
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}一些有用的路由選項:
| Option | Description |
|---|---|
order | Provider sequence to try |
only | Restrict to specific providers |
zeroDataRetention | Only use providers with zero data retention policies |
xAI
-
前往 xAI console,創建一個帳戶並生成一個 API 密鑰。
-
運行
/connect命令並搜尋 xAI。/connect -
輸入您的 xAI API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇一個模型,如 Grok Beta。/models
Z.AI
-
前往 Z.AI API console,創建一個帳戶,然後單擊 Create a new API key。
-
運行
/connect命令並搜尋 Z.AI。/connect如果您訂閱了 GLM Coding Plan,請選擇 Z.AI Coding Plan。
-
輸入您的 Z.AI API 密鑰。
┌ API key││└ enter -
運行
/models命令選擇 GLM-4.7 等模型。/models
ZenMux
-
前往 ZenMux dashboard,單擊 Create API Key,然後複製密鑰。
-
運行
/connect命令並搜尋 ZenMux。/connect -
輸入提供商的 API 密鑰。
┌ API key││└ enter -
默認情況下預加載了許多 ZenMux 模型,運行
/models命令選擇您想要的模型。/models您還可以通過 OpenCode 配置添加其他模型。
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"zenmux": {"models": {"somecoolnewmodel": {}}}}}
Custom provider
要添加 /connect 命令中未列出的任何 OpenAI-compatible 提供商:
-
運行
/connect命令並向下滾動到 Other。Terminal window $ /connect┌ Add credential│◆ Select provider│ ...│ ● Other└ -
輸入提供商的唯一 ID。
Terminal window $ /connect┌ Add credential│◇ Enter provider id│ myprovider└ -
輸入提供商的 API 密鑰。
Terminal window $ /connect┌ Add credential│▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.│◇ Enter your API key│ sk-...└ -
在項目目錄中創建或更新
opencode.json文件:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}以下是配置選項:
- npm:要使用的 AI SDK 包,
@ai-sdk/openai-compatible用於 OpenAI 兼容提供商 - name:UI 中的顯示名稱。
- models:可用模型。
- options.baseURL:API 端點 URL。
- options.apiKey:如果不使用身份驗證,可以選擇設置 API 密鑰。
- options.headers:可選擇設置自定義標頭。
有關高級選項的更多信息,請參見下面的示例。
- npm:要使用的 AI SDK 包,
-
運行
/models命令,您的自定義提供商和模型將出現在選擇列表中。
Example
以下是設置 apiKey、headers 和模型 limit 選項的示例。
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}配置詳情:
- apiKey:使用
env變量語法 了解更多 設置。 - headers:隨每個請求發送的自定義標頭。
- limit.context:模型接受的最大輸入標記。
- limit.output:模型可以生成的最大令牌。
limit 字段允許 OpenCode 了解您還剩下多少上下文。標準提供商會自動從 models.dev 中提取這些內容。
Troubleshooting
如果您在配置提供商時遇到問題,請檢查以下內容:
-
Check the auth setup:運行
opencode auth list以查看憑據是否 提供商的配置已添加到您的配置中。這不適用於 Amazon Bedrock 等依賴環境變量進行身份驗證的提供商。
-
對於自定義提供商,請檢查 OpenCode 配置並:
- 確保
/connect命令中使用的提供商 ID 與 OpenCode 配置中的 ID 匹配。 - 正確的 npm 包用於提供商。例如,對 Cerebras 使用
@ai-sdk/cerebras。對於所有其他 OpenAI 兼容提供商,請使用@ai-sdk/openai-compatible。 - 檢查
options.baseURL字段中使用了正確的 API 端點。
- 確保