Provedores
Usando qualquer provedor LLM no opencode.
opencode usa o AI SDK e Models.dev para suportar 75+ provedores LLM e suporta a execução de modelos locais.
Para adicionar um provedor, você precisa:
- Adicionar as chaves da API para o provedor usando o comando
/connect. - Configurar o provedor na sua configuração do opencode.
Credenciais
Quando você adiciona as chaves da API de um provedor com o comando /connect, elas são armazenadas em ~/.local/share/opencode/auth.json.
Configuração
Você pode personalizar os provedores através da seção provider na sua configuração do opencode.
URL Base
Você pode personalizar a URL base para qualquer provedor definindo a opção baseURL. Isso é útil ao usar serviços de proxy ou endpoints personalizados.
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}OpenCode Zen
OpenCode Zen é uma lista de modelos fornecidos pela equipe do opencode que foram testados e verificados para funcionar bem com o opencode. Saiba mais.
-
Execute o comando
/connectno TUI, selecione opencode e acesse opencode.ai/auth./connect -
Faça login, adicione seus dados de cobrança e copie sua chave da API.
-
Cole sua chave da API.
┌ API key││└ enter -
Execute
/modelsno TUI para ver a lista de modelos que recomendamos./models
Funciona como qualquer outro provedor no opencode e é completamente opcional.
Diretório
Vamos olhar alguns dos provedores em detalhes. Se você gostaria de adicionar um provedor à lista, sinta-se à vontade para abrir um PR.
302.AI
-
Acesse o console 302.AI, crie uma conta e gere uma chave da API.
-
Execute o comando
/connecte procure por 302.AI./connect -
Insira sua chave da API 302.AI.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo./models
Amazon Bedrock
Para usar o Amazon Bedrock com o opencode:
-
Acesse o Catálogo de Modelos no console do Amazon Bedrock e solicite acesso aos modelos que você deseja.
-
Configure a autenticação usando um dos seguintes métodos:
Variáveis de Ambiente (Início Rápido)
Defina uma dessas variáveis de ambiente ao executar o opencode:
Terminal window # Option 1: Using AWS access keysAWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode# Option 2: Using named AWS profileAWS_PROFILE=my-profile opencode# Option 3: Using Bedrock bearer tokenAWS_BEARER_TOKEN_BEDROCK=XXX opencodeOu adicione-as ao seu perfil bash:
~/.bash_profile export AWS_PROFILE=my-dev-profileexport AWS_REGION=us-east-1Arquivo de Configuração (Recomendado)
Para configuração específica do projeto ou persistente, use
opencode.json:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "my-aws-profile"}}}}Opções disponíveis:
region- Região da AWS (ex:us-east-1,eu-west-1)profile- Perfil nomeado da AWS em~/.aws/credentialsendpoint- URL de endpoint personalizada para endpoints VPC (alias para a opção genéricabaseURL)
Avançado: Endpoints VPC
Se você estiver usando endpoints VPC para Bedrock:
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "production","endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"}}}}Métodos de Autenticação
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: Crie um usuário IAM e gere chaves de acesso no Console da AWSAWS_PROFILE: Use perfis nomeados de~/.aws/credentials. Primeiro configure comaws configure --profile my-profileouaws sso loginAWS_BEARER_TOKEN_BEDROCK: Gere chaves de API de longo prazo no console do Amazon BedrockAWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN: Para EKS IRSA (IAM Roles for Service Accounts) ou outros ambientes Kubernetes com federação OIDC. Essas variáveis de ambiente são injetadas automaticamente pelo Kubernetes ao usar anotações de conta de serviço.
Precedência de Autenticação
O Amazon Bedrock usa a seguinte prioridade de autenticação:
- Bearer Token - variável de ambiente
AWS_BEARER_TOKEN_BEDROCKou token do comando/connect - Cadeia de Credenciais da AWS - Perfil, chaves de acesso, credenciais compartilhadas, funções IAM, Tokens de Identidade da Web (EKS IRSA), metadados da instância
-
Execute o comando
/modelspara selecionar o modelo que você deseja./models
Anthropic
-
Depois de se inscrever, execute o comando
/connecte selecione Anthropic./connect -
Aqui você pode selecionar a opção Claude Pro/Max e isso abrirá seu navegador e pedirá para você se autenticar.
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
Agora todos os modelos da Anthropic devem estar disponíveis quando você usar o comando
/models./models
Usar sua assinatura Claude Pro/Max no opencode não é oficialmente suportado pela Anthropic.
Usando chaves da API
Você também pode selecionar Criar uma chave da API se não tiver uma assinatura Pro/Max. Isso também abrirá seu navegador e pedirá que você faça login na Anthropic e lhe dará um código que você pode colar no seu terminal.
Ou, se você já tiver uma chave da API, pode selecionar Inserir chave da API manualmente e colá-la no seu terminal.
Azure OpenAI
-
Acesse o portal Azure e crie um recurso Azure OpenAI. Você precisará:
- Nome do recurso: Isso se torna parte do seu endpoint da API (
https://RESOURCE_NAME.openai.azure.com/) - Chave da API: Seja
KEY 1ouKEY 2do seu recurso
- Nome do recurso: Isso se torna parte do seu endpoint da API (
-
Vá para Azure AI Foundry e implante um modelo.
-
Execute o comando
/connecte procure por Azure./connect -
Insira sua chave da API.
┌ API key││└ enter -
Defina o nome do seu recurso como uma variável de ambiente:
Terminal window AZURE_RESOURCE_NAME=XXX opencodeOu adicione ao seu perfil bash:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
Execute o comando
/modelspara selecionar seu modelo implantado./models
Azure Cognitive Services
-
Acesse o portal Azure e crie um recurso Azure OpenAI. Você precisará:
- Nome do recurso: Isso se torna parte do seu endpoint da API (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) - Chave da API: Seja
KEY 1ouKEY 2do seu recurso
- Nome do recurso: Isso se torna parte do seu endpoint da API (
-
Vá para Azure AI Foundry e implante um modelo.
-
Execute o comando
/connecte procure por Azure Cognitive Services./connect -
Insira sua chave da API.
┌ API key││└ enter -
Defina o nome do seu recurso como uma variável de ambiente:
Terminal window AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencodeOu adicione ao seu perfil bash:
~/.bash_profile export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
Execute o comando
/modelspara selecionar seu modelo implantado./models
Baseten
-
Acesse o Baseten, crie uma conta e gere uma chave da API.
-
Execute o comando
/connecte procure por Baseten./connect -
Insira sua chave da API Baseten.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo./models
Cerebras
-
Acesse o console Cerebras, crie uma conta e gere uma chave da API.
-
Execute o comando
/connecte procure por Cerebras./connect -
Insira sua chave da API Cerebras.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como Qwen 3 Coder 480B./models
Cloudflare AI Gateway
O Cloudflare AI Gateway permite que você acesse modelos do OpenAI, Anthropic, Workers AI e mais através de um endpoint unificado. Com Faturamento Unificado, você não precisa de chaves de API separadas para cada provedor.
-
Acesse o painel do Cloudflare, navegue até AI > AI Gateway e crie um novo gateway.
-
Defina seu ID de Conta e ID de Gateway como variáveis de ambiente.
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
Execute o comando
/connecte procure por Cloudflare AI Gateway./connect -
Insira seu token da API do Cloudflare.
┌ API key││└ enterOu defina como uma variável de ambiente.
~/.bash_profile export CLOUDFLARE_API_TOKEN=your-api-token -
Execute o comando
/modelspara selecionar um modelo./modelsVocê também pode adicionar modelos através da sua configuração do opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"cloudflare-ai-gateway": {"models": {"openai/gpt-4o": {},"anthropic/claude-sonnet-4": {}}}}}
Cortecs
-
Acesse o console Cortecs, crie uma conta e gere uma chave da API.
-
Execute o comando
/connecte procure por Cortecs./connect -
Insira sua chave da API Cortecs.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como Kimi K2 Instruct./models
DeepSeek
-
Acesse o console DeepSeek, crie uma conta e clique em Criar nova chave da API.
-
Execute o comando
/connecte procure por DeepSeek./connect -
Insira sua chave da API DeepSeek.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo DeepSeek como DeepSeek Reasoner./models
Deep Infra
-
Acesse o painel Deep Infra, crie uma conta e gere uma chave da API.
-
Execute o comando
/connecte procure por Deep Infra./connect -
Insira sua chave da API Deep Infra.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo./models
Firmware
-
Acesse o painel Firmware, crie uma conta e gere uma chave da API.
-
Execute o comando
/connecte procure por Firmware./connect -
Insira sua chave da API Firmware.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo./models
Fireworks AI
-
Acesse o console Fireworks AI, crie uma conta e clique em Criar Chave da API.
-
Execute o comando
/connecte procure por Fireworks AI./connect -
Insira sua chave da API Fireworks AI.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como Kimi K2 Instruct./models
GitLab Duo
GitLab Duo fornece um chat agente com suporte a ferramentas nativas através do proxy da Anthropic do GitLab.
-
Execute o comando
/connecte selecione GitLab./connect -
Escolha seu método de autenticação:
┌ Select auth method││ OAuth (Recommended)│ Personal Access Token└Usando OAuth (Recomendado)
Selecione OAuth e seu navegador abrirá para autorização.
Usando Token de Acesso Pessoal
- Vá para Configurações do Usuário do GitLab > Tokens de Acesso
- Clique em Adicionar novo token
- Nome:
OpenCode, Escopos:api - Copie o token (começa com
glpat-) - Insira-o no terminal
-
Execute o comando
/modelspara ver os modelos disponíveis./modelsTrês modelos baseados em Claude estão disponíveis:
- duo-chat-haiku-4-5 (Padrão) - Respostas rápidas para tarefas rápidas
- duo-chat-sonnet-4-5 - Desempenho equilibrado para a maioria dos fluxos de trabalho
- duo-chat-opus-4-5 - Mais capaz para análises complexas
GitLab Auto-Hospedado
Para instâncias do GitLab auto-hospedadas:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_TOKEN=glpat-...Se sua instância executar um AI Gateway personalizado:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comOu adicione ao seu perfil bash:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comexport GITLAB_TOKEN=glpat-...OAuth para instâncias auto-hospedadas
Para fazer o OAuth funcionar para sua instância auto-hospedada, você precisa criar
um novo aplicativo (Configurações → Aplicativos) com a
URL de callback http://127.0.0.1:8080/callback e os seguintes escopos:
- api (Acessar a API em seu nome)
- read_user (Ler suas informações pessoais)
- read_repository (Permite acesso somente leitura ao repositório)
Em seguida, exponha o ID do aplicativo como variável de ambiente:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_hereMais documentação na página opencode-gitlab-auth.
Configuração
Personalize através do opencode.json:
{ "$schema": "https://opencode.ai/config.json", "provider": { "gitlab": { "options": { "instanceUrl": "https://gitlab.com", "featureFlags": { "duo_agent_platform_agentic_chat": true, "duo_agent_platform": true } } } }}Ferramentas da API do GitLab (Opcional, mas altamente recomendado)
Para acessar ferramentas do GitLab (merge requests, issues, pipelines, CI/CD, etc.):
{ "$schema": "https://opencode.ai/config.json", "plugin": ["@gitlab/opencode-gitlab-plugin"]}Este plugin fornece capacidades abrangentes de gerenciamento de repositório do GitLab, incluindo revisões de MR, rastreamento de issues, monitoramento de pipelines e mais.
GitHub Copilot
Para usar sua assinatura do GitHub Copilot com o opencode:
-
Execute o comando
/connecte procure por GitHub Copilot./connect -
Navegue até github.com/login/device e insira o código.
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
Agora execute o comando
/modelspara selecionar o modelo que você deseja./models
Google Vertex AI
Para usar o Google Vertex AI com o opencode:
-
Acesse o Model Garden no Console do Google Cloud e verifique os modelos disponíveis na sua região.
-
Defina as variáveis de ambiente necessárias:
GOOGLE_CLOUD_PROJECT: Seu ID do projeto do Google CloudVERTEX_LOCATION(opcional): A região para o Vertex AI (padrão églobal)- Autenticação (escolha uma):
GOOGLE_APPLICATION_CREDENTIALS: Caminho para seu arquivo de chave JSON da conta de serviço- Autentique usando o CLI gcloud:
gcloud auth application-default login
Defina-as ao executar o opencode.
Terminal window GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencodeOu adicione-as ao seu perfil bash.
~/.bash_profile export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.jsonexport GOOGLE_CLOUD_PROJECT=your-project-idexport VERTEX_LOCATION=global
-
Execute o comando
/modelspara selecionar o modelo que você deseja./models
Groq
-
Acesse o console Groq, clique em Criar Chave da API e copie a chave.
-
Execute o comando
/connecte procure por Groq./connect -
Insira a chave da API para o provedor.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar o que você deseja./models
Hugging Face
Provedores de Inferência Hugging Face fornecem acesso a modelos abertos suportados por mais de 17 provedores.
-
Acesse configurações do Hugging Face para criar um token com permissão para fazer chamadas para Provedores de Inferência.
-
Execute o comando
/connecte procure por Hugging Face./connect -
Insira seu token do Hugging Face.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como Kimi-K2-Instruct ou GLM-4.6./models
Helicone
Helicone é uma plataforma de observabilidade LLM que fornece registro, monitoramento e análises para suas aplicações de AI. O Helicone AI Gateway roteia suas solicitações para o provedor apropriado automaticamente com base no modelo.
-
Acesse Helicone, crie uma conta e gere uma chave da API a partir do seu painel.
-
Execute o comando
/connecte procure por Helicone./connect -
Insira sua chave da API Helicone.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo./models
Para mais provedores e recursos avançados como cache e limitação de taxa, consulte a documentação do Helicone.
Configurações Opcionais
Caso você veja um recurso ou modelo do Helicone que não está configurado automaticamente através do opencode, você sempre pode configurá-lo você mesmo.
Aqui está o Diretório de Modelos do Helicone, você precisará disso para pegar os IDs dos modelos que deseja adicionar.
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}Cabeçalhos Personalizados
Helicone suporta cabeçalhos personalizados para recursos como cache, rastreamento de usuários e gerenciamento de sessões. Adicione-os à sua configuração do provedor usando options.headers:
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}Rastreamento de Sessões
O recurso Sessões do Helicone permite que você agrupe solicitações LLM relacionadas. Use o plugin opencode-helicone-session para registrar automaticamente cada conversa do opencode como uma sessão no Helicone.
npm install -g opencode-helicone-sessionAdicione-o à sua configuração.
{ "plugin": ["opencode-helicone-session"]}O plugin injeta os cabeçalhos Helicone-Session-Id e Helicone-Session-Name em suas solicitações. Na página de Sessões do Helicone, você verá cada conversa do opencode listada como uma sessão separada.
Cabeçalhos Comuns do Helicone
| Cabeçalho | Descrição |
|---|---|
Helicone-Cache-Enabled | Habilitar cache de resposta (true/false) |
Helicone-User-Id | Rastrear métricas por usuário |
Helicone-Property-[Name] | Adicionar propriedades personalizadas (ex: Helicone-Property-Environment) |
Helicone-Prompt-Id | Associar solicitações com versões de prompt |
Consulte o Diretório de Cabeçalhos do Helicone para todos os cabeçalhos disponíveis.
llama.cpp
Você pode configurar o opencode para usar modelos locais através da utilidade llama-server do llama.cpp
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}Neste exemplo:
llama.cppé o ID do provedor personalizado. Isso pode ser qualquer string que você quiser.npmespecifica o pacote a ser usado para este provedor. Aqui,@ai-sdk/openai-compatibleé usado para qualquer API compatível com OpenAI.nameé o nome exibido para o provedor na interface do usuário.options.baseURLé o endpoint para o servidor local.modelsé um mapa de IDs de modelos para suas configurações. O nome do modelo será exibido na lista de seleção de modelos.
IO.NET
IO.NET oferece 17 modelos otimizados para vários casos de uso:
-
Acesse o console IO.NET, crie uma conta e gere uma chave da API.
-
Execute o comando
/connecte procure por IO.NET./connect -
Insira sua chave da API IO.NET.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo./models
LM Studio
Você pode configurar o opencode para usar modelos locais através do LM Studio.
{ "$schema": "https://opencode.ai/config.json", "provider": { "lmstudio": { "npm": "@ai-sdk/openai-compatible", "name": "LM Studio (local)", "options": { "baseURL": "http://127.0.0.1:1234/v1" }, "models": { "google/gemma-3n-e4b": { "name": "Gemma 3n-e4b (local)" } } } }}Neste exemplo:
lmstudioé o ID do provedor personalizado. Isso pode ser qualquer string que você quiser.npmespecifica o pacote a ser usado para este provedor. Aqui,@ai-sdk/openai-compatibleé usado para qualquer API compatível com OpenAI.nameé o nome exibido para o provedor na interface do usuário.options.baseURLé o endpoint para o servidor local.modelsé um mapa de IDs de modelos para suas configurações. O nome do modelo será exibido na lista de seleção de modelos.
Moonshot AI
Para usar Kimi K2 do Moonshot AI:
-
Acesse o console Moonshot AI, crie uma conta e clique em Criar chave da API.
-
Execute o comando
/connecte procure por Moonshot AI./connect -
Insira sua chave da API Moonshot.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar Kimi K2./models
MiniMax
-
Acesse o MiniMax API Console, crie uma conta e gere uma chave da API.
-
Execute o comando
/connecte procure por MiniMax./connect -
Insira sua chave da API MiniMax.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como M2.1./models
Nebius Token Factory
-
Acesse o console Nebius Token Factory, crie uma conta e clique em Adicionar Chave.
-
Execute o comando
/connecte procure por Nebius Token Factory./connect -
Insira sua chave da API Nebius Token Factory.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como Kimi K2 Instruct./models
Ollama
Você pode configurar o opencode para usar modelos locais através do Ollama.
{ "$schema": "https://opencode.ai/config.json", "provider": { "ollama": { "npm": "@ai-sdk/openai-compatible", "name": "Ollama (local)", "options": { "baseURL": "http://localhost:11434/v1" }, "models": { "llama2": { "name": "Llama 2" } } } }}Neste exemplo:
ollamaé o ID do provedor personalizado. Isso pode ser qualquer string que você quiser.npmespecifica o pacote a ser usado para este provedor. Aqui,@ai-sdk/openai-compatibleé usado para qualquer API compatível com OpenAI.nameé o nome exibido para o provedor na interface do usuário.options.baseURLé o endpoint para o servidor local.modelsé um mapa de IDs de modelos para suas configurações. O nome do modelo será exibido na lista de seleção de modelos.
Ollama Cloud
Para usar o Ollama Cloud com o opencode:
-
Acesse https://ollama.com/ e faça login ou crie uma conta.
-
Navegue até Configurações > Chaves e clique em Adicionar Chave da API para gerar uma nova chave da API.
-
Copie a chave da API para uso no opencode.
-
Execute o comando
/connecte procure por Ollama Cloud./connect -
Insira sua chave da API do Ollama Cloud.
┌ API key││└ enter -
Importante: Antes de usar modelos em nuvem no opencode, você deve puxar as informações do modelo localmente:
Terminal window ollama pull gpt-oss:20b-cloud -
Execute o comando
/modelspara selecionar seu modelo do Ollama Cloud./models
OpenAI
Recomendamos se inscrever para ChatGPT Plus ou Pro.
-
Depois de se inscrever, execute o comando
/connecte selecione OpenAI./connect -
Aqui você pode selecionar a opção ChatGPT Plus/Pro e isso abrirá seu navegador e pedirá para você se autenticar.
┌ Select auth method││ ChatGPT Plus/Pro│ Manually enter API Key└ -
Agora todos os modelos da OpenAI devem estar disponíveis quando você usar o comando
/models./models
Usando chaves da API
Se você já tiver uma chave da API, pode selecionar Inserir chave da API manualmente e colá-la no seu terminal.
OpenCode Zen
OpenCode Zen é uma lista de modelos testados e verificados fornecidos pela equipe do opencode. Saiba mais.
-
Faça login em OpenCode Zen e clique em Criar Chave da API.
-
Execute o comando
/connecte procure por OpenCode Zen./connect -
Insira sua chave da API do opencode.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como Qwen 3 Coder 480B./models
OpenRouter
-
Acesse o painel OpenRouter, clique em Criar Chave da API e copie a chave.
-
Execute o comando
/connecte procure por OpenRouter./connect -
Insira a chave da API para o provedor.
┌ API key││└ enter -
Muitos modelos do OpenRouter são pré-carregados por padrão, execute o comando
/modelspara selecionar o que você deseja./modelsVocê também pode adicionar modelos adicionais através da sua configuração do opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"somecoolnewmodel": {}}}}} -
Você também pode personalizá-los através da sua configuração do opencode. Aqui está um exemplo de especificar um provedor
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
SAP AI Core
SAP AI Core fornece acesso a mais de 40 modelos do OpenAI, Anthropic, Google, Amazon, Meta, Mistral e AI21 através de uma plataforma unificada.
-
Vá para seu SAP BTP Cockpit, navegue até sua instância de serviço SAP AI Core e crie uma chave de serviço.
-
Execute o comando
/connecte procure por SAP AI Core./connect -
Insira seu JSON da chave de serviço.
┌ Service key││└ enterOu defina a variável de ambiente
AICORE_SERVICE_KEY:Terminal window AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeOu adicione ao seu perfil bash:
~/.bash_profile export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' -
Opcionalmente, defina o ID de implantação e o grupo de recursos:
Terminal window AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode -
Execute o comando
/modelspara selecionar entre mais de 40 modelos disponíveis./models
OVHcloud AI Endpoints
-
Acesse o painel OVHcloud. Navegue até a seção
Public Cloud,AI & Machine Learning>AI Endpointse na abaAPI Keys, clique em Criar uma nova chave da API. -
Execute o comando
/connecte procure por OVHcloud AI Endpoints./connect -
Insira sua chave da API OVHcloud AI Endpoints.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como gpt-oss-120b./models
Scaleway
Para usar APIs Generativas Scaleway com o opencode:
-
Acesse as configurações de IAM do Scaleway Console para gerar uma nova chave da API.
-
Execute o comando
/connecte procure por Scaleway./connect -
Insira sua chave da API Scaleway.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como devstral-2-123b-instruct-2512 ou gpt-oss-120b./models
Together AI
-
Acesse o console Together AI, crie uma conta e clique em Adicionar Chave.
-
Execute o comando
/connecte procure por Together AI./connect -
Insira sua chave da API Together AI.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como Kimi K2 Instruct./models
Venice AI
-
Acesse o console Venice AI, crie uma conta e gere uma chave da API.
-
Execute o comando
/connecte procure por Venice AI./connect -
Insira sua chave da API Venice AI.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como Llama 3.3 70B./models
Vercel AI Gateway
O Vercel AI Gateway permite que você acesse modelos do OpenAI, Anthropic, Google, xAI e mais através de um endpoint unificado. Os modelos são oferecidos pelo preço de tabela, sem markup.
-
Acesse o painel Vercel, navegue até a aba AI Gateway e clique em Chaves da API para criar uma nova chave da API.
-
Execute o comando
/connecte procure por Vercel AI Gateway./connect -
Insira sua chave da API do Vercel AI Gateway.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo./models
Você também pode personalizar modelos através da sua configuração do opencode. Aqui está um exemplo de especificar a ordem de roteamento do provedor.
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}Algumas opções de roteamento úteis:
| Opção | Descrição |
|---|---|
order | Sequência de provedores a serem tentados |
only | Restringir a provedores específicos |
zeroDataRetention | Usar apenas provedores com políticas de retenção de dados zero |
xAI
-
Acesse o console xAI, crie uma conta e gere uma chave da API.
-
Execute o comando
/connecte procure por xAI./connect -
Insira sua chave da API xAI.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como Grok Beta./models
Z.AI
-
Acesse o console da API Z.AI, crie uma conta e clique em Criar uma nova chave da API.
-
Execute o comando
/connecte procure por Z.AI./connectSe você estiver inscrito no GLM Coding Plan, selecione Z.AI Coding Plan.
-
Insira sua chave da API Z.AI.
┌ API key││└ enter -
Execute o comando
/modelspara selecionar um modelo como GLM-4.7./models
ZenMux
-
Acesse o painel ZenMux, clique em Criar Chave da API e copie a chave.
-
Execute o comando
/connecte procure por ZenMux./connect -
Insira a chave da API para o provedor.
┌ API key││└ enter -
Muitos modelos ZenMux são pré-carregados por padrão, execute o comando
/modelspara selecionar o que você deseja./modelsVocê também pode adicionar modelos adicionais através da sua configuração do opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"zenmux": {"models": {"somecoolnewmodel": {}}}}}
Provedor personalizado
Para adicionar qualquer provedor compatível com OpenAI que não esteja listado no comando /connect:
-
Execute o comando
/connecte role para baixo até Outro.Terminal window $ /connect┌ Add credential│◆ Select provider│ ...│ ● Other└ -
Insira um ID exclusivo para o provedor.
Terminal window $ /connect┌ Add credential│◇ Enter provider id│ myprovider└ -
Insira sua chave da API para o provedor.
Terminal window $ /connect┌ Add credential│▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.│◇ Enter your API key│ sk-...└ -
Crie ou atualize seu arquivo
opencode.jsonno diretório do seu projeto:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}Aqui estão as opções de configuração:
- npm: Pacote do SDK de AI a ser usado,
@ai-sdk/openai-compatiblepara provedores compatíveis com OpenAI - name: Nome de exibição na interface do usuário.
- models: Modelos disponíveis.
- options.baseURL: URL do endpoint da API.
- options.apiKey: Defina opcionalmente a chave da API, se não estiver usando autenticação.
- options.headers: Defina opcionalmente cabeçalhos personalizados.
Mais sobre as opções avançadas no exemplo abaixo.
- npm: Pacote do SDK de AI a ser usado,
-
Execute o comando
/modelse seu provedor e modelos personalizados aparecerão na lista de seleção.
Exemplo
Aqui está um exemplo definindo as opções apiKey, headers e limit do modelo.
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}Detalhes da configuração:
- apiKey: Definido usando a sintaxe de variável
env, saiba mais. - headers: Cabeçalhos personalizados enviados com cada solicitação.
- limit.context: Máximo de tokens de entrada que o modelo aceita.
- limit.output: Máximo de tokens que o modelo pode gerar.
Os campos limit permitem que o opencode entenda quanto contexto você tem disponível. Provedores padrão puxam isso automaticamente do models.dev.
Solução de Problemas
Se você estiver tendo problemas para configurar um provedor, verifique o seguinte:
-
Verifique a configuração de autenticação: Execute
opencode auth listpara ver se as credenciais para o provedor estão adicionadas à sua configuração.Isso não se aplica a provedores como Amazon Bedrock, que dependem de variáveis de ambiente para sua autenticação.
-
Para provedores personalizados, verifique a configuração do opencode e:
- Certifique-se de que o ID do provedor usado no comando
/connectcorresponda ao ID na sua configuração do opencode. - O pacote npm correto está sendo usado para o provedor. Por exemplo, use
@ai-sdk/cerebraspara Cerebras. E para todos os outros provedores compatíveis com OpenAI, use@ai-sdk/openai-compatible. - Verifique se o endpoint da API correto está sendo usado no campo
options.baseURL.
- Certifique-se de que o ID do provedor usado no comando