Pular para o conteúdo

Provedores

Usando qualquer provedor LLM no opencode.

opencode usa o AI SDK e Models.dev para suportar 75+ provedores LLM e suporta a execução de modelos locais.

Para adicionar um provedor, você precisa:

  1. Adicionar as chaves da API para o provedor usando o comando /connect.
  2. Configurar o provedor na sua configuração do opencode.

Credenciais

Quando você adiciona as chaves da API de um provedor com o comando /connect, elas são armazenadas em ~/.local/share/opencode/auth.json.


Configuração

Você pode personalizar os provedores através da seção provider na sua configuração do opencode.


URL Base

Você pode personalizar a URL base para qualquer provedor definindo a opção baseURL. Isso é útil ao usar serviços de proxy ou endpoints personalizados.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen é uma lista de modelos fornecidos pela equipe do opencode que foram testados e verificados para funcionar bem com o opencode. Saiba mais.

  1. Execute o comando /connect no TUI, selecione opencode e acesse opencode.ai/auth.

    /connect
  2. Faça login, adicione seus dados de cobrança e copie sua chave da API.

  3. Cole sua chave da API.

    ┌ API key
    └ enter
  4. Execute /models no TUI para ver a lista de modelos que recomendamos.

    /models

Funciona como qualquer outro provedor no opencode e é completamente opcional.


Diretório

Vamos olhar alguns dos provedores em detalhes. Se você gostaria de adicionar um provedor à lista, sinta-se à vontade para abrir um PR.


302.AI

  1. Acesse o console 302.AI, crie uma conta e gere uma chave da API.

  2. Execute o comando /connect e procure por 302.AI.

    /connect
  3. Insira sua chave da API 302.AI.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo.

    /models

Amazon Bedrock

Para usar o Amazon Bedrock com o opencode:

  1. Acesse o Catálogo de Modelos no console do Amazon Bedrock e solicite acesso aos modelos que você deseja.

  2. Configure a autenticação usando um dos seguintes métodos:

    Variáveis de Ambiente (Início Rápido)

    Defina uma dessas variáveis de ambiente ao executar o opencode:

    Terminal window
    # Option 1: Using AWS access keys
    AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
    # Option 2: Using named AWS profile
    AWS_PROFILE=my-profile opencode
    # Option 3: Using Bedrock bearer token
    AWS_BEARER_TOKEN_BEDROCK=XXX opencode

    Ou adicione-as ao seu perfil bash:

    ~/.bash_profile
    export AWS_PROFILE=my-dev-profile
    export AWS_REGION=us-east-1

    Arquivo de Configuração (Recomendado)

    Para configuração específica do projeto ou persistente, use opencode.json:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "my-aws-profile"
    }
    }
    }
    }

    Opções disponíveis:

    • region - Região da AWS (ex: us-east-1, eu-west-1)
    • profile - Perfil nomeado da AWS em ~/.aws/credentials
    • endpoint - URL de endpoint personalizada para endpoints VPC (alias para a opção genérica baseURL)

    Avançado: Endpoints VPC

    Se você estiver usando endpoints VPC para Bedrock:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "production",
    "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
    }
    }
    }
    }

    Métodos de Autenticação

    • AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY: Crie um usuário IAM e gere chaves de acesso no Console da AWS
    • AWS_PROFILE: Use perfis nomeados de ~/.aws/credentials. Primeiro configure com aws configure --profile my-profile ou aws sso login
    • AWS_BEARER_TOKEN_BEDROCK: Gere chaves de API de longo prazo no console do Amazon Bedrock
    • AWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN: Para EKS IRSA (IAM Roles for Service Accounts) ou outros ambientes Kubernetes com federação OIDC. Essas variáveis de ambiente são injetadas automaticamente pelo Kubernetes ao usar anotações de conta de serviço.

    Precedência de Autenticação

    O Amazon Bedrock usa a seguinte prioridade de autenticação:

    1. Bearer Token - variável de ambiente AWS_BEARER_TOKEN_BEDROCK ou token do comando /connect
    2. Cadeia de Credenciais da AWS - Perfil, chaves de acesso, credenciais compartilhadas, funções IAM, Tokens de Identidade da Web (EKS IRSA), metadados da instância
  3. Execute o comando /models para selecionar o modelo que você deseja.

    /models

Anthropic

  1. Depois de se inscrever, execute o comando /connect e selecione Anthropic.

    /connect
  2. Aqui você pode selecionar a opção Claude Pro/Max e isso abrirá seu navegador e pedirá para você se autenticar.

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. Agora todos os modelos da Anthropic devem estar disponíveis quando você usar o comando /models.

    /models

Usar sua assinatura Claude Pro/Max no opencode não é oficialmente suportado pela Anthropic.

Usando chaves da API

Você também pode selecionar Criar uma chave da API se não tiver uma assinatura Pro/Max. Isso também abrirá seu navegador e pedirá que você faça login na Anthropic e lhe dará um código que você pode colar no seu terminal.

Ou, se você já tiver uma chave da API, pode selecionar Inserir chave da API manualmente e colá-la no seu terminal.


Azure OpenAI

  1. Acesse o portal Azure e crie um recurso Azure OpenAI. Você precisará:

    • Nome do recurso: Isso se torna parte do seu endpoint da API (https://RESOURCE_NAME.openai.azure.com/)
    • Chave da API: Seja KEY 1 ou KEY 2 do seu recurso
  2. Vá para Azure AI Foundry e implante um modelo.

  3. Execute o comando /connect e procure por Azure.

    /connect
  4. Insira sua chave da API.

    ┌ API key
    └ enter
  5. Defina o nome do seu recurso como uma variável de ambiente:

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

    Ou adicione ao seu perfil bash:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. Execute o comando /models para selecionar seu modelo implantado.

    /models

Azure Cognitive Services

  1. Acesse o portal Azure e crie um recurso Azure OpenAI. Você precisará:

    • Nome do recurso: Isso se torna parte do seu endpoint da API (https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/)
    • Chave da API: Seja KEY 1 ou KEY 2 do seu recurso
  2. Vá para Azure AI Foundry e implante um modelo.

  3. Execute o comando /connect e procure por Azure Cognitive Services.

    /connect
  4. Insira sua chave da API.

    ┌ API key
    └ enter
  5. Defina o nome do seu recurso como uma variável de ambiente:

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

    Ou adicione ao seu perfil bash:

    ~/.bash_profile
    export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  6. Execute o comando /models para selecionar seu modelo implantado.

    /models

Baseten

  1. Acesse o Baseten, crie uma conta e gere uma chave da API.

  2. Execute o comando /connect e procure por Baseten.

    /connect
  3. Insira sua chave da API Baseten.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo.

    /models

Cerebras

  1. Acesse o console Cerebras, crie uma conta e gere uma chave da API.

  2. Execute o comando /connect e procure por Cerebras.

    /connect
  3. Insira sua chave da API Cerebras.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como Qwen 3 Coder 480B.

    /models

Cloudflare AI Gateway

O Cloudflare AI Gateway permite que você acesse modelos do OpenAI, Anthropic, Workers AI e mais através de um endpoint unificado. Com Faturamento Unificado, você não precisa de chaves de API separadas para cada provedor.

  1. Acesse o painel do Cloudflare, navegue até AI > AI Gateway e crie um novo gateway.

  2. Defina seu ID de Conta e ID de Gateway como variáveis de ambiente.

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. Execute o comando /connect e procure por Cloudflare AI Gateway.

    /connect
  4. Insira seu token da API do Cloudflare.

    ┌ API key
    └ enter

    Ou defina como uma variável de ambiente.

    ~/.bash_profile
    export CLOUDFLARE_API_TOKEN=your-api-token
  5. Execute o comando /models para selecionar um modelo.

    /models

    Você também pode adicionar modelos através da sua configuração do opencode.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "cloudflare-ai-gateway": {
    "models": {
    "openai/gpt-4o": {},
    "anthropic/claude-sonnet-4": {}
    }
    }
    }
    }

Cortecs

  1. Acesse o console Cortecs, crie uma conta e gere uma chave da API.

  2. Execute o comando /connect e procure por Cortecs.

    /connect
  3. Insira sua chave da API Cortecs.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como Kimi K2 Instruct.

    /models

DeepSeek

  1. Acesse o console DeepSeek, crie uma conta e clique em Criar nova chave da API.

  2. Execute o comando /connect e procure por DeepSeek.

    /connect
  3. Insira sua chave da API DeepSeek.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo DeepSeek como DeepSeek Reasoner.

    /models

Deep Infra

  1. Acesse o painel Deep Infra, crie uma conta e gere uma chave da API.

  2. Execute o comando /connect e procure por Deep Infra.

    /connect
  3. Insira sua chave da API Deep Infra.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo.

    /models

Firmware

  1. Acesse o painel Firmware, crie uma conta e gere uma chave da API.

  2. Execute o comando /connect e procure por Firmware.

    /connect
  3. Insira sua chave da API Firmware.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo.

    /models

Fireworks AI

  1. Acesse o console Fireworks AI, crie uma conta e clique em Criar Chave da API.

  2. Execute o comando /connect e procure por Fireworks AI.

    /connect
  3. Insira sua chave da API Fireworks AI.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como Kimi K2 Instruct.

    /models

GitLab Duo

GitLab Duo fornece um chat agente com suporte a ferramentas nativas através do proxy da Anthropic do GitLab.

  1. Execute o comando /connect e selecione GitLab.

    /connect
  2. Escolha seu método de autenticação:

    ┌ Select auth method
    │ OAuth (Recommended)
    │ Personal Access Token

    Usando OAuth (Recomendado)

    Selecione OAuth e seu navegador abrirá para autorização.

    Usando Token de Acesso Pessoal

    1. Vá para Configurações do Usuário do GitLab > Tokens de Acesso
    2. Clique em Adicionar novo token
    3. Nome: OpenCode, Escopos: api
    4. Copie o token (começa com glpat-)
    5. Insira-o no terminal
  3. Execute o comando /models para ver os modelos disponíveis.

    /models

    Três modelos baseados em Claude estão disponíveis:

    • duo-chat-haiku-4-5 (Padrão) - Respostas rápidas para tarefas rápidas
    • duo-chat-sonnet-4-5 - Desempenho equilibrado para a maioria dos fluxos de trabalho
    • duo-chat-opus-4-5 - Mais capaz para análises complexas
GitLab Auto-Hospedado

Para instâncias do GitLab auto-hospedadas:

Terminal window
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...

Se sua instância executar um AI Gateway personalizado:

Terminal window
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com

Ou adicione ao seu perfil bash:

~/.bash_profile
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...
OAuth para instâncias auto-hospedadas

Para fazer o OAuth funcionar para sua instância auto-hospedada, você precisa criar um novo aplicativo (Configurações → Aplicativos) com a URL de callback http://127.0.0.1:8080/callback e os seguintes escopos:

  • api (Acessar a API em seu nome)
  • read_user (Ler suas informações pessoais)
  • read_repository (Permite acesso somente leitura ao repositório)

Em seguida, exponha o ID do aplicativo como variável de ambiente:

Terminal window
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here

Mais documentação na página opencode-gitlab-auth.

Configuração

Personalize através do opencode.json:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com",
"featureFlags": {
"duo_agent_platform_agentic_chat": true,
"duo_agent_platform": true
}
}
}
}
}
Ferramentas da API do GitLab (Opcional, mas altamente recomendado)

Para acessar ferramentas do GitLab (merge requests, issues, pipelines, CI/CD, etc.):

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["@gitlab/opencode-gitlab-plugin"]
}

Este plugin fornece capacidades abrangentes de gerenciamento de repositório do GitLab, incluindo revisões de MR, rastreamento de issues, monitoramento de pipelines e mais.


GitHub Copilot

Para usar sua assinatura do GitHub Copilot com o opencode:

  1. Execute o comando /connect e procure por GitHub Copilot.

    /connect
  2. Navegue até github.com/login/device e insira o código.

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. Agora execute o comando /models para selecionar o modelo que você deseja.

    /models

Google Vertex AI

Para usar o Google Vertex AI com o opencode:

  1. Acesse o Model Garden no Console do Google Cloud e verifique os modelos disponíveis na sua região.

  2. Defina as variáveis de ambiente necessárias:

    • GOOGLE_CLOUD_PROJECT: Seu ID do projeto do Google Cloud
    • VERTEX_LOCATION (opcional): A região para o Vertex AI (padrão é global)
    • Autenticação (escolha uma):
      • GOOGLE_APPLICATION_CREDENTIALS: Caminho para seu arquivo de chave JSON da conta de serviço
      • Autentique usando o CLI gcloud: gcloud auth application-default login

    Defina-as ao executar o opencode.

    Terminal window
    GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode

    Ou adicione-as ao seu perfil bash.

    ~/.bash_profile
    export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
    export GOOGLE_CLOUD_PROJECT=your-project-id
    export VERTEX_LOCATION=global
  1. Execute o comando /models para selecionar o modelo que você deseja.

    /models

Groq

  1. Acesse o console Groq, clique em Criar Chave da API e copie a chave.

  2. Execute o comando /connect e procure por Groq.

    /connect
  3. Insira a chave da API para o provedor.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar o que você deseja.

    /models

Hugging Face

Provedores de Inferência Hugging Face fornecem acesso a modelos abertos suportados por mais de 17 provedores.

  1. Acesse configurações do Hugging Face para criar um token com permissão para fazer chamadas para Provedores de Inferência.

  2. Execute o comando /connect e procure por Hugging Face.

    /connect
  3. Insira seu token do Hugging Face.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como Kimi-K2-Instruct ou GLM-4.6.

    /models

Helicone

Helicone é uma plataforma de observabilidade LLM que fornece registro, monitoramento e análises para suas aplicações de AI. O Helicone AI Gateway roteia suas solicitações para o provedor apropriado automaticamente com base no modelo.

  1. Acesse Helicone, crie uma conta e gere uma chave da API a partir do seu painel.

  2. Execute o comando /connect e procure por Helicone.

    /connect
  3. Insira sua chave da API Helicone.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo.

    /models

Para mais provedores e recursos avançados como cache e limitação de taxa, consulte a documentação do Helicone.

Configurações Opcionais

Caso você veja um recurso ou modelo do Helicone que não está configurado automaticamente através do opencode, você sempre pode configurá-lo você mesmo.

Aqui está o Diretório de Modelos do Helicone, você precisará disso para pegar os IDs dos modelos que deseja adicionar.

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}

Cabeçalhos Personalizados

Helicone suporta cabeçalhos personalizados para recursos como cache, rastreamento de usuários e gerenciamento de sessões. Adicione-os à sua configuração do provedor usando options.headers:

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
Rastreamento de Sessões

O recurso Sessões do Helicone permite que você agrupe solicitações LLM relacionadas. Use o plugin opencode-helicone-session para registrar automaticamente cada conversa do opencode como uma sessão no Helicone.

Terminal window
npm install -g opencode-helicone-session

Adicione-o à sua configuração.

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

O plugin injeta os cabeçalhos Helicone-Session-Id e Helicone-Session-Name em suas solicitações. Na página de Sessões do Helicone, você verá cada conversa do opencode listada como uma sessão separada.

Cabeçalhos Comuns do Helicone
CabeçalhoDescrição
Helicone-Cache-EnabledHabilitar cache de resposta (true/false)
Helicone-User-IdRastrear métricas por usuário
Helicone-Property-[Name]Adicionar propriedades personalizadas (ex: Helicone-Property-Environment)
Helicone-Prompt-IdAssociar solicitações com versões de prompt

Consulte o Diretório de Cabeçalhos do Helicone para todos os cabeçalhos disponíveis.


llama.cpp

Você pode configurar o opencode para usar modelos locais através da utilidade llama-server do llama.cpp

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

Neste exemplo:

  • llama.cpp é o ID do provedor personalizado. Isso pode ser qualquer string que você quiser.
  • npm especifica o pacote a ser usado para este provedor. Aqui, @ai-sdk/openai-compatible é usado para qualquer API compatível com OpenAI.
  • name é o nome exibido para o provedor na interface do usuário.
  • options.baseURL é o endpoint para o servidor local.
  • models é um mapa de IDs de modelos para suas configurações. O nome do modelo será exibido na lista de seleção de modelos.

IO.NET

IO.NET oferece 17 modelos otimizados para vários casos de uso:

  1. Acesse o console IO.NET, crie uma conta e gere uma chave da API.

  2. Execute o comando /connect e procure por IO.NET.

    /connect
  3. Insira sua chave da API IO.NET.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo.

    /models

LM Studio

Você pode configurar o opencode para usar modelos locais através do LM Studio.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

Neste exemplo:

  • lmstudio é o ID do provedor personalizado. Isso pode ser qualquer string que você quiser.
  • npm especifica o pacote a ser usado para este provedor. Aqui, @ai-sdk/openai-compatible é usado para qualquer API compatível com OpenAI.
  • name é o nome exibido para o provedor na interface do usuário.
  • options.baseURL é o endpoint para o servidor local.
  • models é um mapa de IDs de modelos para suas configurações. O nome do modelo será exibido na lista de seleção de modelos.

Moonshot AI

Para usar Kimi K2 do Moonshot AI:

  1. Acesse o console Moonshot AI, crie uma conta e clique em Criar chave da API.

  2. Execute o comando /connect e procure por Moonshot AI.

    /connect
  3. Insira sua chave da API Moonshot.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar Kimi K2.

    /models

MiniMax

  1. Acesse o MiniMax API Console, crie uma conta e gere uma chave da API.

  2. Execute o comando /connect e procure por MiniMax.

    /connect
  3. Insira sua chave da API MiniMax.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como M2.1.

    /models

Nebius Token Factory

  1. Acesse o console Nebius Token Factory, crie uma conta e clique em Adicionar Chave.

  2. Execute o comando /connect e procure por Nebius Token Factory.

    /connect
  3. Insira sua chave da API Nebius Token Factory.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como Kimi K2 Instruct.

    /models

Ollama

Você pode configurar o opencode para usar modelos locais através do Ollama.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

Neste exemplo:

  • ollama é o ID do provedor personalizado. Isso pode ser qualquer string que você quiser.
  • npm especifica o pacote a ser usado para este provedor. Aqui, @ai-sdk/openai-compatible é usado para qualquer API compatível com OpenAI.
  • name é o nome exibido para o provedor na interface do usuário.
  • options.baseURL é o endpoint para o servidor local.
  • models é um mapa de IDs de modelos para suas configurações. O nome do modelo será exibido na lista de seleção de modelos.

Ollama Cloud

Para usar o Ollama Cloud com o opencode:

  1. Acesse https://ollama.com/ e faça login ou crie uma conta.

  2. Navegue até Configurações > Chaves e clique em Adicionar Chave da API para gerar uma nova chave da API.

  3. Copie a chave da API para uso no opencode.

  4. Execute o comando /connect e procure por Ollama Cloud.

    /connect
  5. Insira sua chave da API do Ollama Cloud.

    ┌ API key
    └ enter
  6. Importante: Antes de usar modelos em nuvem no opencode, você deve puxar as informações do modelo localmente:

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. Execute o comando /models para selecionar seu modelo do Ollama Cloud.

    /models

OpenAI

Recomendamos se inscrever para ChatGPT Plus ou Pro.

  1. Depois de se inscrever, execute o comando /connect e selecione OpenAI.

    /connect
  2. Aqui você pode selecionar a opção ChatGPT Plus/Pro e isso abrirá seu navegador e pedirá para você se autenticar.

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. Agora todos os modelos da OpenAI devem estar disponíveis quando você usar o comando /models.

    /models
Usando chaves da API

Se você já tiver uma chave da API, pode selecionar Inserir chave da API manualmente e colá-la no seu terminal.


OpenCode Zen

OpenCode Zen é uma lista de modelos testados e verificados fornecidos pela equipe do opencode. Saiba mais.

  1. Faça login em OpenCode Zen e clique em Criar Chave da API.

  2. Execute o comando /connect e procure por OpenCode Zen.

    /connect
  3. Insira sua chave da API do opencode.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como Qwen 3 Coder 480B.

    /models

OpenRouter

  1. Acesse o painel OpenRouter, clique em Criar Chave da API e copie a chave.

  2. Execute o comando /connect e procure por OpenRouter.

    /connect
  3. Insira a chave da API para o provedor.

    ┌ API key
    └ enter
  4. Muitos modelos do OpenRouter são pré-carregados por padrão, execute o comando /models para selecionar o que você deseja.

    /models

    Você também pode adicionar modelos adicionais através da sua configuração do opencode.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }
  5. Você também pode personalizá-los através da sua configuração do opencode. Aqui está um exemplo de especificar um provedor

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI Core fornece acesso a mais de 40 modelos do OpenAI, Anthropic, Google, Amazon, Meta, Mistral e AI21 através de uma plataforma unificada.

  1. Vá para seu SAP BTP Cockpit, navegue até sua instância de serviço SAP AI Core e crie uma chave de serviço.

  2. Execute o comando /connect e procure por SAP AI Core.

    /connect
  3. Insira seu JSON da chave de serviço.

    ┌ Service key
    └ enter

    Ou defina a variável de ambiente AICORE_SERVICE_KEY:

    Terminal window
    AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

    Ou adicione ao seu perfil bash:

    ~/.bash_profile
    export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  4. Opcionalmente, defina o ID de implantação e o grupo de recursos:

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  5. Execute o comando /models para selecionar entre mais de 40 modelos disponíveis.

    /models

OVHcloud AI Endpoints

  1. Acesse o painel OVHcloud. Navegue até a seção Public Cloud, AI & Machine Learning > AI Endpoints e na aba API Keys, clique em Criar uma nova chave da API.

  2. Execute o comando /connect e procure por OVHcloud AI Endpoints.

    /connect
  3. Insira sua chave da API OVHcloud AI Endpoints.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como gpt-oss-120b.

    /models

Scaleway

Para usar APIs Generativas Scaleway com o opencode:

  1. Acesse as configurações de IAM do Scaleway Console para gerar uma nova chave da API.

  2. Execute o comando /connect e procure por Scaleway.

    /connect
  3. Insira sua chave da API Scaleway.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como devstral-2-123b-instruct-2512 ou gpt-oss-120b.

    /models

Together AI

  1. Acesse o console Together AI, crie uma conta e clique em Adicionar Chave.

  2. Execute o comando /connect e procure por Together AI.

    /connect
  3. Insira sua chave da API Together AI.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como Kimi K2 Instruct.

    /models

Venice AI

  1. Acesse o console Venice AI, crie uma conta e gere uma chave da API.

  2. Execute o comando /connect e procure por Venice AI.

    /connect
  3. Insira sua chave da API Venice AI.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como Llama 3.3 70B.

    /models

Vercel AI Gateway

O Vercel AI Gateway permite que você acesse modelos do OpenAI, Anthropic, Google, xAI e mais através de um endpoint unificado. Os modelos são oferecidos pelo preço de tabela, sem markup.

  1. Acesse o painel Vercel, navegue até a aba AI Gateway e clique em Chaves da API para criar uma nova chave da API.

  2. Execute o comando /connect e procure por Vercel AI Gateway.

    /connect
  3. Insira sua chave da API do Vercel AI Gateway.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo.

    /models

Você também pode personalizar modelos através da sua configuração do opencode. Aqui está um exemplo de especificar a ordem de roteamento do provedor.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

Algumas opções de roteamento úteis:

OpçãoDescrição
orderSequência de provedores a serem tentados
onlyRestringir a provedores específicos
zeroDataRetentionUsar apenas provedores com políticas de retenção de dados zero

xAI

  1. Acesse o console xAI, crie uma conta e gere uma chave da API.

  2. Execute o comando /connect e procure por xAI.

    /connect
  3. Insira sua chave da API xAI.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como Grok Beta.

    /models

Z.AI

  1. Acesse o console da API Z.AI, crie uma conta e clique em Criar uma nova chave da API.

  2. Execute o comando /connect e procure por Z.AI.

    /connect

    Se você estiver inscrito no GLM Coding Plan, selecione Z.AI Coding Plan.

  3. Insira sua chave da API Z.AI.

    ┌ API key
    └ enter
  4. Execute o comando /models para selecionar um modelo como GLM-4.7.

    /models

ZenMux

  1. Acesse o painel ZenMux, clique em Criar Chave da API e copie a chave.

  2. Execute o comando /connect e procure por ZenMux.

    /connect
  3. Insira a chave da API para o provedor.

    ┌ API key
    └ enter
  4. Muitos modelos ZenMux são pré-carregados por padrão, execute o comando /models para selecionar o que você deseja.

    /models

    Você também pode adicionar modelos adicionais através da sua configuração do opencode.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "zenmux": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }

Provedor personalizado

Para adicionar qualquer provedor compatível com OpenAI que não esteja listado no comando /connect:

  1. Execute o comando /connect e role para baixo até Outro.

    Terminal window
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. Insira um ID exclusivo para o provedor.

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. Insira sua chave da API para o provedor.

    Terminal window
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
    Enter your API key
    sk-...
  4. Crie ou atualize seu arquivo opencode.json no diretório do seu projeto:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

    Aqui estão as opções de configuração:

    • npm: Pacote do SDK de AI a ser usado, @ai-sdk/openai-compatible para provedores compatíveis com OpenAI
    • name: Nome de exibição na interface do usuário.
    • models: Modelos disponíveis.
    • options.baseURL: URL do endpoint da API.
    • options.apiKey: Defina opcionalmente a chave da API, se não estiver usando autenticação.
    • options.headers: Defina opcionalmente cabeçalhos personalizados.

    Mais sobre as opções avançadas no exemplo abaixo.

  5. Execute o comando /models e seu provedor e modelos personalizados aparecerão na lista de seleção.


Exemplo

Aqui está um exemplo definindo as opções apiKey, headers e limit do modelo.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

Detalhes da configuração:

  • apiKey: Definido usando a sintaxe de variável env, saiba mais.
  • headers: Cabeçalhos personalizados enviados com cada solicitação.
  • limit.context: Máximo de tokens de entrada que o modelo aceita.
  • limit.output: Máximo de tokens que o modelo pode gerar.

Os campos limit permitem que o opencode entenda quanto contexto você tem disponível. Provedores padrão puxam isso automaticamente do models.dev.


Solução de Problemas

Se você estiver tendo problemas para configurar um provedor, verifique o seguinte:

  1. Verifique a configuração de autenticação: Execute opencode auth list para ver se as credenciais para o provedor estão adicionadas à sua configuração.

    Isso não se aplica a provedores como Amazon Bedrock, que dependem de variáveis de ambiente para sua autenticação.

  2. Para provedores personalizados, verifique a configuração do opencode e:

    • Certifique-se de que o ID do provedor usado no comando /connect corresponda ao ID na sua configuração do opencode.
    • O pacote npm correto está sendo usado para o provedor. Por exemplo, use @ai-sdk/cerebras para Cerebras. E para todos os outros provedores compatíveis com OpenAI, use @ai-sdk/openai-compatible.
    • Verifique se o endpoint da API correto está sendo usado no campo options.baseURL.