提供商
在 opencode 中使用任意 LLM 提供商。
opencode 使用 AI SDK 和 Models.dev,支持 75+ LLM 提供商,也支持运行本地模型。
要添加提供商,你需要:
- 使用
/connect命令添加提供商的 API 密钥。 - 在 opencode 配置中设置该提供商。
凭据
当你使用 /connect 命令添加提供商 API 后,凭据会存储在
~/.local/share/opencode/auth.json。
配置
你可以使用 opencode 配置中的 provider 部分自定义提供商配置。
基本網址
您可以通过设置 baseURL 选项来自定义任何提供商的基本 URL。这在使用代理服务或自定义端点时非常有用。
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}opencode 一代
OpenCode Zen 是opencode团队提供的模型列表,这些模型已被 经测试和验证可与opencode良好配合。 了解更多。
-
Run the
/connectcommand in the TUI, select opencode, and head to opencode.ai/auth./connect -
登录,添加您的账单详细信息,然后复制您的 API 密钥。
-
贴上您的 API 密钥。
┌ API key││└ enter -
在 TUI 中执行
/models以查看我们推荐的模型列表。/models
它的工作方式与 opencode 中的任何其他提供的程序相同,并且完全可以选择使用。
目录
讓我们詳細瞭解一些提供商。如果您想将提供商添加到 列表,请随时开启PR。
302.艾伊
-
Head over to the 302.AI console, create an account, and generate an API key.
-
执行
/connect命令并搜索302.AI。/connect -
输入您的 302.AI API 密钥。
┌ API key││└ enter -
执行
/models命令选择模型。/models
亞馬遜基岩
相当于 Amazon Bedrock 与 opencode 结合使用:
-
前往 Amazon Bedrock 控制台中的 模型目录 并请求 访问您想要的模型。
:::提示 您需要能够在 Amazon Bedrock 中访问所需的模型。 :::
-
使用以下方法之一配置身份验证:
环境变量(快速启动)
执行 opencode 时设置以下环境变量之一:
Terminal window # Option 1: Using AWS access keysAWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode# Option 2: Using named AWS profileAWS_PROFILE=my-profile opencode# Option 3: Using Bedrock bearer tokenAWS_BEARER_TOKEN_BEDROCK=XXX opencode或者将它们添加到您的 bash 配置文件中:
~/.bash_profile export AWS_PROFILE=my-dev-profileexport AWS_REGION=us-east-1配置文件(推薦)
For project-specific or persistent configuration, use
opencode.json:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "my-aws-profile"}}}}可用選項:
region- AWS 区域(例如us-east-1、eu-west-1)profile- 来自~/.aws/credentials的 AWS 命名配置档案endpoint- VPC 节点节点的自定义节点 URL(通用baseURL选项的别名)
:::提示 配置文件選項优先于环境变量。 :::
高阶:VPC 端点
如果您使用 Bedrock 的 VPC 终端节点:
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "production","endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"}}}}:::笔记
endpoint选项是通用baseURL选项的别名,使用 AWS 术语特定。如果同时指定了endpoint和baseURL,则endpoint优先。 :::認證方式
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY:创建IAM用户并在AWS控制台中生成访问金币。AWS_PROFILE:使用~/.aws/credentials中的命名配置文件。首先配置aws configure --profile my-profile或aws sso loginAWS_BEARER_TOKEN_BEDROCK:从 Amazon Bedrock 控制台生成长期 API 密钥AWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN:适用于 EKS IRSA(服务账户的 IAM 角色)或具有 OIDC 联合的其他 Kubernetes 环境。使用服务账户注释时,这些环境变量由 Kubernetes 自动注入。
認證优先顺序
Amazon Bedrock 使用以下身份验证优先顺序:
- 不记名Tokens -
AWS_BEARER_TOKEN_BEDROCK环境变化数据或来自/connectTokens的Tokens - AWS 凭证链 - 配置档案、访问密钥、共享凭证、IAM 角色、Web 身份Tokens (EKS IRSA)、实例项后设置资料
:::笔记 设置不记名Tokens(使用
/connect或AWS_BEARER_TOKEN_BEDROCK)时,其优先于所有 AWS 凭证方法(包括配置的配置文件)。 ::: -
执行
/models命令选择所需的模型。/models
人择
-
注册后,执行
/connect命令并选择Anthropic。/connect -
您可以在此处选择 Claude Pro/Max 选项,就会打开您的浏览器 并要求您进行身份验证。
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
现在,当您使用
/models命令时,所有人类模型都应该可用。/models
Using your Claude Pro/Max subscription in opencode is not officially supported by Anthropic.
使用 API 键
如果您没有 Pro/Max 订阅,您还可以选择 创建 API 密钥。它还会开启您的浏览器并要求您登录 Anthropic 并为您提供一个可以粘贴到终端中的代码。
或者,如果您已安装 API 密钥,则可以选择 手动输入 API 密钥 将其贴到终端中。
天蓝色 OpenAI
-
Head over to the Azure portal and create an Azure OpenAI resource. You’ll need:
- 资源名称:这将成为您的 API 端点 (
https://RESOURCE_NAME.openai.azure.com/) 的一部分 - API 密钥:来自您资源的
KEY 1或KEY 2
- 资源名称:这将成为您的 API 端点 (
-
Go to Azure AI Foundry and deploy a model.
:::笔记 部署名称必须与模型名称匹配,opencode才能正常工作。 :::
-
执行
/connect命令并搜索 Azure。/connect -
输入您的 API 密钥。
┌ API key││└ enter -
将您的资源名称设置为环境变量:
Terminal window AZURE_RESOURCE_NAME=XXX opencode或者将其添加内容添加到您的 bash 配置文件中:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
执行
/models命令以选择您部署的模型。/models
Azure 认知服务
-
Head over to the Azure portal and create an Azure OpenAI resource. You’ll need:
- 资源名称:这将成为您的 API 端点 (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) 的一部分 - API 密钥:来自您资源的
KEY 1或KEY 2
- 资源名称:这将成为您的 API 端点 (
-
Go to Azure AI Foundry and deploy a model.
:::笔记 部署名称必须与模型名称匹配,opencode才能正常工作。 :::
-
执行
/connect命令并搜索 Azure 认知服务。/connect -
输入您的 API 密钥。
┌ API key││└ enter -
将您的资源名称设置为环境变量:
Terminal window AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode或者将其添加内容添加到您的 bash 配置文件中:
~/.bash_profile export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
执行
/models命令以选择您部署的模型。/models
巴吉度獵犬
-
Head over to the Baseten, create an account, and generate an API key.
-
执行
/connect命令并搜索 Baseten。/connect -
输入您的 Baseten API 密钥。
┌ API key││└ enter -
执行
/models命令选择模型。/models
大腦
-
Head over to the Cerebras console, create an account, and generate an API key.
-
执行
/connect命令并搜索 Cerebras。/connect -
输入您的 Cerebras API 密钥。
┌ API key││└ enter -
执行
/models命令选择Qwen 3 Coder 480B等模型。/models
Cloudflare AI闸道器
Cloudflare AI Gateway lets you access models from OpenAI, Anthropic, Workers AI, and more through a unified endpoint. With Unified Billing you don’t need separate API keys for each provider.
-
Head over to the Cloudflare dashboard, navigate to AI > AI Gateway, and create a new gateway.
-
将您的账户ID和闸道器ID设定为环境变量。
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
执行
/connect命令并搜索 Cloudflare AI Gateway。/connect -
输入您的 Cloudflare API Tokens。
┌ API key││└ enter或者将其设置为环境变量。
~/.bash_profile export CLOUDFLARE_API_TOKEN=your-api-token -
执行
/models命令选择模型。/models您还可以使用opencode配置添加模型。
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"cloudflare-ai-gateway": {"models": {"openai/gpt-4o": {},"anthropic/claude-sonnet-4": {}}}}}
皮質
-
Head over to the Cortecs console, create an account, and generate an API key.
-
执行
/connect命令并搜索 Cortecs。/connect -
输入您的 Cortecs API 密钥。
┌ API key││└ enter -
执行
/models命令以选择类似 Kimi K2 Instruct 的模型。/models
深度搜索
-
Head over to the DeepSeek console, create an account, and click Create new API key.
-
执行
/connect命令并搜索 DeepSeek。/connect -
输入您的 DeepSeek API 密钥。
┌ API key││└ enter -
执行
/models命令以选择DeepSeek模型,例如DeepSeek Reasoner。/models
深層基礎設施
-
Head over to the Deep Infra dashboard, create an account, and generate an API key.
-
执行
/connect命令并搜索 Deep Infra。/connect -
输入您的深层基础设施 API 密钥。
┌ API key││└ enter -
执行
/models命令选择模型。/models
韌體
-
Head over to the Firmware dashboard, create an account, and generate an API key.
-
执行
/connect命令并搜索韧体。/connect -
输入您的韧体API 密钥。
┌ API key││└ enter -
执行
/models命令选择模型。/models
煙花人工智慧
-
Head over to the Fireworks AI console, create an account, and click Create API Key.
-
执行
/connect命令并搜索 Fireworks AI。/connect -
输入您的 Fireworks AI API 密钥。
┌ API key││└ enter -
执行
/models命令以选择类似 Kimi K2 Instruct 的模型。/models
GitLab 二人组
GitLab Duo 通过 GitLab 的人工代理提供具有本机工具呼叫功能的人工智慧代理聊天。
-
执行
/connect命令并选择GitLab。/connect -
选择您的身份验证方法:
┌ Select auth method││ OAuth (Recommended)│ Personal Access Token└使用OAuth(推荐)
选择OAuth,您的浏览器将开启并进行授权。
使用个人访问Tokens
- Go to GitLab User Settings > Access Tokens
- 单击添加新Tokens
- Name:
OpenCode, Scopes:api - 复制Tokens(以
glpat-发起人) - 在终端中輸入
-
执行
/models命令查看可用模型。/models提供基于 Claude 的模型:
- duo-chat-haiku-4-5(默认)- 快速任务的快速响应
- duo-chat-sonnet-4-5 - 大多数工作流程的平衡失败
- duo-chat-opus-4-5 - 最有能力进行复杂分析
自托管 GitLab
对于自托管 GitLab 示例项目:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_TOKEN=glpat-...如果您的示例项执行自定义AI闸道器:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com或者添加到您的 bash 配置文件中:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comexport GITLAB_TOKEN=glpat-...用于自托管项目的 OAuth
为了使 Oauth 适用于您的自托管项目,您需要建立
一个新的应用程序(设置→应用程序)
回调 URL http://127.0.0.1:8080/callback 和以下范围:
- api(您代表访问API)
- read_user(读取您的个人信息)
- read_repository(允许对存储库进行只读访问)
然后将应用程序ID公开为环境变量:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_hereMore documentation on opencode-gitlab-auth homepage.
配置
Customize through opencode.json:
{ "$schema": "https://opencode.ai/config.json", "provider": { "gitlab": { "options": { "instanceUrl": "https://gitlab.com", "featureFlags": { "duo_agent_platform_agentic_chat": true, "duo_agent_platform": true } } } }}GitLab API 工具(可选,但强烈推荐)
要访问GitLab工具(合并请求、问题、管道、CI/CD等):
{ "$schema": "https://opencode.ai/config.json", "plugin": ["@gitlab/opencode-gitlab-plugin"]}该外挂提供全面的GitLab存储库管理功能,包括MR审查、问题跟踪、管道监控等。
GitHub Copilot
相当于您的 GitHub Copilot 订阅与 opencode 一起使用:
-
执行
/connect命令并搜索 GitHub Copilot。/connect -
Navigate to github.com/login/device and enter the code.
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
现在执行
/models命令来选择您想要的模型。/models
谷歌顶点人工智能
Google Vertex AI 与 opencode 结合使用:
-
前往 Google Cloud Console 中的 模型花园 并检查 您所在地区提供的模型。
:::笔记 您需要有一个启用了 Vertex AI API 的 Google Cloud 专案。 :::
-
设置所需的环境变量:
GOOGLE_CLOUD_PROJECT:您的Google云专案IDVERTEX_LOCATION(可选):Vertex AI的区域(默认为global)- 身份验证(选择一項):
GOOGLE_APPLICATION_CREDENTIALS:服务帐户 JSON 密钥文件的路径- 使用 gcloud CLI 进行身份验证:
gcloud auth application-default login
在执行 opencode 时设置它们。
Terminal window GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode或者将它们添加到您的 bash 配置文件中。
~/.bash_profile export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.jsonexport GOOGLE_CLOUD_PROJECT=your-project-idexport VERTEX_LOCATION=global
-
执行
/models命令选择所需的模型。/models
格羅克
-
Head over to the Groq console, click Create API Key, and copy the key.
-
执行
/connect命令并搜索 Groq。/connect -
输入结构的API 密钥。
┌ API key││└ enter -
执行
/models命令来选择您想要的。/models
抱臉
Hugging Face Inference Providers provides access to open models supported by 17+ providers.
-
Head over to Hugging Face settings to create a token with permission to make calls to Inference Providers.
-
执行
/connect命令并搜索 拥抱脸。/connect -
輸入您的擁抱臉標記。
┌ API key││└ enter -
执行
/models命令选择Kimi-K2-Instruct 或 GLM-4.6 等模型。/models
螺旋錐
Helicone is an LLM observability platform that provides logging, monitoring, and analytics for your AI applications. The Helicone AI Gateway routes your requests to the appropriate provider automatically based on the model.
-
Head over to Helicone, create an account, and generate an API key from your dashboard.
-
执行
/connect命令并搜索 Helicone。/connect -
输入您的 Helicone API 密钥。
┌ API key││└ enter -
执行
/models命令选择模型。/models
For more providers and advanced features like caching and rate limiting, check the Helicone documentation.
可選配置
如果您发现Helicone的某些功能或模型未通过opencode自动配置,您始终可以自行配置。
Here’s Helicone’s Model Directory, you’ll need this to grab the IDs of the models you want to add.
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}自定義標頭
Helicone 支持快速获取、用户跟踪和会话管理等功能的自定义标头。使用 options.headers 将它们添加到您提供的方案配置中:
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}会话跟蹤
Helicone’s Sessions feature lets you group related LLM requests together. Use the opencode-helicone-session plugin to automatically log each opencode conversation as a session in Helicone.
npm install -g opencode-helicone-session将其添加到您的配置中。
{ "plugin": ["opencode-helicone-session"]}该外挂将 Helicone-Session-Id 和 Helicone-Session-Name 标头注入您的请求中。在 Helicone 的会话页面中,您将看到每个 opencode 对话都是单独的会话。
常见螺旋接头
| 標題 | 描述 |
|---|---|
Helicone-Cache-Enabled | Enable response caching (true/false) |
Helicone-User-Id | 点击用户跟踪指标 |
Helicone-Property-[Name] | 添加自定义属性(例如Helicone-Property-Environment) |
Helicone-Prompt-Id | 将请求与提示版本相关联 |
See the Helicone Header Directory for all available headers.
呼叫.cpp
You can configure opencode to use local models through llama.cpp’s llama-server utility
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}在这个例子中:
llama.cpp是自定义创建 ID。这可以是您想要的任何字符串。npmspecifies the package to use for this provider. Here,@ai-sdk/openai-compatibleis used for any OpenAI-compatible API.name是 UI 中提供商的显示名称。options.baseURL是本地服务器器的端点。models是模型 ID 以及配置的对应映射。模型名称将显示在模型选择列表中。
IO网路
IO.NET提供了17种针对各种例子进行优化的模型:
-
Head over to the IO.NET console, create an account, and generate an API key.
-
执行
/connect命令并搜索IO.NET。/connect -
输入您的 IO.NET API 密钥。
┌ API key││└ enter -
执行
/models命令选择模型。/models
LM工作室
您可以通过使用本地模型来使用 LM Studio 配置opencode。
{ "$schema": "https://opencode.ai/config.json", "provider": { "lmstudio": { "npm": "@ai-sdk/openai-compatible", "name": "LM Studio (local)", "options": { "baseURL": "http://127.0.0.1:1234/v1" }, "models": { "google/gemma-3n-e4b": { "name": "Gemma 3n-e4b (local)" } } } }}在这个例子中:
lmstudio是自定义创建 ID。这可以是您想要的任何字符串。npmspecifies the package to use for this provider. Here,@ai-sdk/openai-compatibleis used for any OpenAI-compatible API.name是 UI 中提供商的显示名称。options.baseURL是本地服务器器的端点。models是模型 ID 以及配置的对应映射。模型名称将显示在模型选择列表中。
登月人工智慧
要使用 Moonshot AI 中的 Kimi K2:
-
Head over to the Moonshot AI console, create an account, and click Create API key.
-
执行
/connect命令并搜索 Moonshot AI。/connect -
输入您的 Moonshot API 密钥。
┌ API key││└ enter -
执行
/models命令以选择Kimi K2。/models
最小最大
-
Head over to the MiniMax API Console, create an account, and generate an API key.
-
执行
/connect命令并搜索 MiniMax。/connect -
输入您的 MiniMax API 密钥。
┌ API key││└ enter -
执行
/models命令选择M2.1等模型。/models
Nebius 代币工厂
-
Head over to the Nebius Token Factory console, create an account, and click Add Key.
-
执行
/connect命令并搜索NebiusTokens工厂。/connect -
输入您的 Nebius Tokens工厂 API 密钥。
┌ API key││└ enter -
执行
/models命令以选择类似 Kimi K2 Instruct 的模型。/models
成为
您可以使用 Ollama 配置 opencode 本地模型。
{ "$schema": "https://opencode.ai/config.json", "provider": { "ollama": { "npm": "@ai-sdk/openai-compatible", "name": "Ollama (local)", "options": { "baseURL": "http://localhost:11434/v1" }, "models": { "llama2": { "name": "Llama 2" } } } }}在这个例子中:
ollama是自定义创建 ID。这可以是您想要的任何字符串。npmspecifies the package to use for this provider. Here,@ai-sdk/openai-compatibleis used for any OpenAI-compatible API.name是 UI 中提供商的显示名称。options.baseURL是本地服务器器的端点。models是模型 ID 以及配置的对应映射。模型名称将显示在模型选择列表中。
奧拉馬雲
相当于 Ollama Cloud 与 opencode 一起使用:
-
前往 https://ollama.com/ 并登录或建立账户。
-
导航至设置 > API 密钥,然后单击添加API 密钥以生成新的API 密钥。
-
复制 API 密钥以在 opencode 中使用。
-
执行
/connect命令并搜索 Ollama Cloud。/connect -
输入您的 Ollama Cloud API 密钥。
┌ API key││└ enter -
重要:在opencode中使用云模型之前,必须将模型信息拉取到本地:
Terminal window ollama pull gpt-oss:20b-cloud -
执行
/models命令以选择您的 Ollama Cloud 模型。/models
开放人工智能
We recommend signing up for ChatGPT Plus or Pro.
-
注册后,执行
/connect命令并选择OpenAI。/connect -
您可以选择 ChatGPT Plus 或 Pro 选项,就会在这里开启您的浏览器 并要求您进行身份验证。
┌ Select auth method││ ChatGPT Plus/Pro│ Manually enter API Key└ -
现在,当您使用
/models命令时,所有 OpenAI 模型都应该可用。/models
使用 API 键
如果您已安装 API 密钥,则可以选择 手动输入 API 密钥 将其贴到终端中。
opencode 一代
OpenCode Zen 是 opencode 团队提供的经过测试和验证的模型列表。 了解更多。
-
登录 OpenCode Zen 并单击 创建 API 密钥。
-
执行
/connect命令并搜索 OpenCode Zen。/connect -
输入您的 opencode API 密钥。
┌ API key││└ enter -
执行
/models命令选择Qwen 3 Coder 480B等模型。/models
開放路由器
-
Head over to the OpenRouter dashboard, click Create API Key, and copy the key.
-
执行
/connect命令并搜索OpenRouter。/connect -
输入结构的API 密钥。
┌ API key││└ enter -
默认情况下预加载了多个OpenRouter模型,执行
/models命令选择您想要的模型。/models您还可以通过opencode配置添加其他模型。
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"somecoolnewmodel": {}}}}} -
您还可以使用opencode配置自定义它们。这是指定的示例
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
SAP人工智慧核心
SAP AI Core跨统一平台提供对OpenAI、Anthropic、Google、Amazon、Meta、Mistral和AI21的40多个模型的访问。
-
Go to your SAP BTP Cockpit, navigate to your SAP AI Core service instance, and create a service key.
:::提示 The service key is a JSON object containing
clientid,clientsecret,url, andserviceurls.AI_API_URL. You can find your AI Core instance under Services > Instances and Subscriptions in the BTP Cockpit. ::: -
执行
/connect命令并搜索SAP AI Core。/connect -
输入您的服务金号JSON。
┌ Service key││└ enter或者设置
AICORE_SERVICE_KEY环境变量:Terminal window AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode或者将其添加内容添加到您的 bash 配置文件中:
~/.bash_profile export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' -
(可选)设置部署ID和资源组:
Terminal window AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode:::笔记 这些设置是可选的,应根据 SAP AI Core 设置进行配置。 :::
-
执行
/models命令从 40 个多个可用模型中进行选择。/models
OVHcloud AI 端点
-
Head over to the OVHcloud panel. Navigate to the
Public Cloudsection,AI & Machine Learning>AI Endpointsand inAPI Keystab, click Create a new API key. -
执行
/connect命令并搜索 OVHcloud AI 端点。/connect -
输入您的 OVHcloud AI 端点 API 密钥。
┌ API key││└ enter -
执行
/models命令选择gpt-oss-120b等模型。/models
斯卡威
To use Scaleway Generative APIs with Opencode:
-
Head over to the Scaleway Console IAM settings to generate a new API key.
-
执行
/connect命令并搜索 Scaleway。/connect -
输入您的Scaleway API 密钥。
┌ API key││└ enter -
执行
/models命令选择 devstral-2-123b-instruct-2512 或 gpt-oss-120b 等模型。/models
一起人工智慧
-
Head over to the Together AI console, create an account, and click Add Key.
-
执行
/connect命令并搜索 Together AI。/connect -
输入您的Together AI API 密钥。
┌ API key││└ enter -
执行
/models命令以选择类似 Kimi K2 Instruct 的模型。/models
威尼斯人工智慧
-
Head over to the Venice AI console, create an account, and generate an API key.
-
执行
/connect命令并搜索 Venice AI。/connect -
输入您的威尼斯 AI API 密钥。
┌ API key││└ enter -
执行
/models命令选择Llama 3.3 70B等模型。/models
Vercel人工智慧闸道器
Vercel AI Gateway 可以让您跨统一端点访问来自 OpenAI、Anthropic、Google、xAI 等的模型。模型按标价提供,不加价。
-
Head over to the Vercel dashboard, navigate to the AI Gateway tab, and click API keys to create a new API key.
-
执行
/connect命令并搜索 Vercel AI Gateway。/connect -
输入您的 Vercel AI 网关 API 密钥。
┌ API key││└ enter -
执行
/models命令选择模型。/models
您还可以穿透 opencode 配置自定义模型。以下是指定提供商路由顺序的示例。
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}一些有用的路由選項:
| 選項 | 描述 |
|---|---|
order | 提供商尝试顺序 |
only | 限制特定提供商 |
zeroDataRetention | 仅使用零资料保留的政策 |
人工智慧
-
Head over to the xAI console, create an account, and generate an API key.
-
执行
/connect命令并搜索 xAI。/connect -
输入您的 xAI API 密钥。
┌ API key││└ enter -
执行
/models命令来选择类似 Grok Beta 的模型。/models
扎艾
-
Head over to the Z.AI API console, create an account, and click Create a new API key.
-
执行
/connect命令并搜索 Z.AI。/connect如果您订阅了GLM编码计划,请选择Z.AI编码计划。
-
输入您的 Z.AI API 密钥。
┌ API key││└ enter -
执行
/models命令选择GLM-4.7等模型。/models
多路復用器
-
Head over to the ZenMux dashboard, click Create API Key, and copy the key.
-
执行
/connect命令并搜索 ZenMux。/connect -
输入结构的API 密钥。
┌ API key││└ enter -
默认情况下预加载了多个 ZenMux 模型,执行
/models命令选择您想要的模型。/models您还可以通过opencode配置添加其他模型。
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"zenmux": {"models": {"somecoolnewmodel": {}}}}}
定製提供商
要添加 /connect 命令中未列出的任何 OpenAI 兼容提供商:
-
执行
/connect命令并逐步升级到其他。Terminal window $ /connect┌ Add credential│◆ Select provider│ ...│ ● Other└ -
输入企业的唯一ID。
Terminal window $ /connect┌ Add credential│◇ Enter provider id│ myprovider└:::笔记 选择一个容易记住的 ID,您将在配置文件中使用它。 :::
-
输入您的事业的 API 密钥。
Terminal window $ /connect┌ Add credential│▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.│◇ Enter your API key│ sk-...└ -
Create or update your
opencode.jsonfile in your project directory:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}以下是配置選項:
- npm:要使用AI的SDK包,
@ai-sdk/openai-compatible用于OpenAI兼容的事业 - 名称:UI中的显示名称。
- 模型:可用模型。
- options.baseURL:API 端点 URL。
- options.apiKey:如果不使用身份验证,可以选择设置API 密钥。
- options.headers:可选择设置自定义标头。
有關高階選項的更多資訊,请參見下面的示例。
- npm:要使用AI的SDK包,
-
执行
/models命令,您提供的自定义程序和模型将出现在选择列表中。
例子
以下是设置 apiKey、headers 和模型 limit 选项的示例。
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}配置详情:
- apiKey:使用
env变数语法了解更多设置。 - ** headers **:随每个请求传送的自定义标头。
- limit.context:模型接受的最大输入标记。
- limit.output:模型可以生成的最大Tokens。
limit 栏位允许 opencode 了解您还剩下多少上下文。标准提供商会自动从 models.dev 中提取这些内容。
故障排除
如果您在配置提供商時遇到問題,请检查以下內容:
-
Check the auth setup: Run
opencode auth listto see if the credentials 提供商的配置已添加到您的配置中。这并不利于 Amazon Bedrock 等依赖环境变数进行身份验证的工作。
-
对于自定义提供的程序,请检查 opencode 配置并:
- 确保
/connect命令中使用的提供商 ID 与 opencode 配置中的 ID 匹配。 - 正确的 npm 包用于提供商。例如,对 Cerebras 使用
@ai-sdk/cerebras。对于所有其他 OpenAI 相内容的提供商,请使用@ai-sdk/openai-compatible。 - 检查
options.baseURL栏位中使用的 API 端点是否正确。
- 确保