Proveedores
Usando cualquier proveedor LLM en OpenCode.
OpenCode usa el AI SDK y Models.dev para admitir 75+ proveedores LLM y admite la ejecución de modelos locales.
Para agregar un proveedor necesita:
- Agregue las claves API para el proveedor usando el comando
/connect. - Configure el proveedor en su configuración OpenCode.
Credenciales
Cuando agrega las claves API de un proveedor con el comando /connect, se almacenan
en ~/.local/share/opencode/auth.json.
Configuración
Puedes personalizar los proveedores a través de la sección provider en tu OpenCode
configuración.
URL base
Puede personalizar la URL base para cualquier proveedor configurando la opción baseURL. Esto resulta útil cuando se utilizan servicios proxy o puntos finales personalizados.
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}OpenCode Zen
OpenCode Zen es una lista de modelos proporcionados por el equipo OpenCode que han sido probado y verificado para funcionar bien con OpenCode. Más información.
-
Ejecute el comando
/connecten TUI, seleccione opencode y diríjase a opencode.ai/auth./connect -
Inicie sesión, agregue sus datos de facturación y copie su clave API.
-
Pega tu clave API.
┌ API key││└ enter -
Ejecute
/modelsen TUI para ver la lista de modelos que recomendamos./models
Funciona como cualquier otro proveedor en OpenCode y su uso es completamente opcional.
Directorio
Veamos algunos de los proveedores en detalle. Si desea agregar un proveedor a la lista, no dude en abrir un PR.
302.AI
-
Dirígete a la consola 302.AI, crea una cuenta y genera una clave API.
-
Ejecute el comando
/connecty busque 302.AI./connect -
Ingrese su clave 302.AI API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo./models
Amazon Bedrock
Para usar Amazon Bedrock con OpenCode:
-
Dirígete al Catálogo de modelos en la consola Amazon Bedrock y solicita Accede a los modelos que desees.
Necesita tener acceso al modelo que desea en Amazon Bedrock.
-
Configure la autenticación utilizando uno de los siguientes métodos:
Variables de entorno (Inicio rápido)
Establezca una de estas variables de entorno mientras ejecuta opencode:
Ventana de terminal # Option 1: Using AWS access keysAWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode# Option 2: Using named AWS profileAWS_PROFILE=my-profile opencode# Option 3: Using Bedrock bearer tokenAWS_BEARER_TOKEN_BEDROCK=XXX opencodeO agrégalos a tu perfil de bash:
~/.bash_profile export AWS_PROFILE=my-dev-profileexport AWS_REGION=us-east-1Archivo de configuración (recomendado)
Para una configuración persistente o específica del proyecto, utilice
opencode.json:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "my-aws-profile"}}}}Opciones disponibles:
region- AWS región (p. ej.,us-east-1,eu-west-1)profile- AWS perfil con nombre de~/.aws/credentialsendpoint: URL de punto de enlace personalizada para puntos de enlace de la VPC (alias para la opción genéricabaseURL)
Las opciones del archivo de configuración tienen prioridad sobre las variables de entorno.
Avanzado: puntos finales de la VPC
Si utiliza puntos de enlace de VPC para Bedrock:
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "production","endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"}}}}La opción
endpointes un alias para la opción genéricabaseURL, que utiliza terminología específica de AWS. Si se especificanendpointybaseURL,endpointtiene prioridad.Métodos de autenticación
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: Crear un usuario de IAM y generar claves de acceso en la Consola AWSAWS_PROFILE: Utilice perfiles con nombre de~/.aws/credentials. Primero configure conaws configure --profile my-profileoaws sso loginAWS_BEARER_TOKEN_BEDROCK: Genera claves API a largo plazo desde la consola Amazon BedrockAWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN: Para EKS IRSA (Roles IAM para Cuentas de Servicio) u otros entornos de Kubernetes con federación OIDC. Kubernetes inyecta automáticamente estas variables de entorno cuando se utilizan anotaciones de cuentas de servicio.
Prioridad de autenticación
Amazon Bedrock utiliza la siguiente prioridad de autenticación:
- Bearer token - variable de entorno
AWS_BEARER_TOKEN_BEDROCKo token del comando/connect - AWS Cadena de credenciales: perfil, claves de acceso, credenciales compartidas, roles de IAM, tokens de identidad web (EKS IRSA), metadatos de instancia
Cuando se define un bearer token (a traves de
/connectoAWS_BEARER_TOKEN_BEDROCK), tiene prioridad sobre todos los metodos de credenciales de AWS, incluidos los perfiles configurados. -
Ejecute el comando
/modelspara seleccionar el modelo que desee./models
Anthropic
-
Una vez que se haya registrado, ejecute el comando
/connecty seleccione Anthropic./connect -
Aquí puedes seleccionar la opción Claude Pro/Max y se abrirá tu navegador. y pedirle que se autentique.
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
Ahora todos los modelos Anthropic deberían estar disponibles cuando use el comando
/models./models
El uso de su suscripción Claude Pro/Max en OpenCode no está oficialmente respaldado por Anthropic.
Usando las teclas API
También puede seleccionar Crear una clave API si no tiene una suscripción Pro/Max. También abrirá su navegador y le pedirá que inicie sesión en Anthropic y le dará un código que puede pegar en su terminal.
O si ya tienes una clave API, puedes seleccionar Ingresar manualmente la clave API y pegarla en tu terminal.
Azul OpenAI
-
Diríjase al portal de Azure y cree un recurso Azure OpenAI. Necesitarás:
- Nombre del recurso: esto pasa a formar parte de su punto final API (
https://RESOURCE_NAME.openai.azure.com/) - Clave API:
KEY 1oKEY 2de su recurso
- Nombre del recurso: esto pasa a formar parte de su punto final API (
-
Vaya a Azure AI Foundry e implemente un modelo.
El nombre de la implementación debe coincidir con el nombre del modelo para que opencode funcione correctamente.
-
Ejecute el comando
/connecty busque Azure./connect -
Ingrese su clave API.
┌ API key││└ enter -
Configure el nombre de su recurso como una variable de entorno:
Ventana de terminal AZURE_RESOURCE_NAME=XXX opencodeO agrégalo a tu perfil de bash:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
Ejecute el comando
/modelspara seleccionar su modelo implementado./models
Servicios cognitivos de Azure
-
Diríjase al portal de Azure y cree un recurso Azure OpenAI. Necesitarás:
- Nombre del recurso: esto pasa a formar parte de su punto final API (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) - Clave API:
KEY 1oKEY 2de su recurso
- Nombre del recurso: esto pasa a formar parte de su punto final API (
-
Vaya a Azure AI Foundry e implemente un modelo.
El nombre de la implementación debe coincidir con el nombre del modelo para que opencode funcione correctamente.
-
Ejecute el comando
/connecty busque Azure Cognitive Services./connect -
Ingrese su clave API.
┌ API key││└ enter -
Configure el nombre de su recurso como una variable de entorno:
Ventana de terminal AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencodeO agrégalo a tu perfil de bash:
~/.bash_profile export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
Ejecute el comando
/modelspara seleccionar su modelo implementado./models
Baseten
-
Dirígete a Baseten, crea una cuenta y genera una clave API.
-
Ejecute el comando
/connecty busque Baseten./connect -
Ingrese su clave Baseten API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo./models
Cerebras
-
Dirígete a la consola Cerebras, crea una cuenta y genera una clave API.
-
Ejecute el comando
/connecty busque Cerebras./connect -
Ingrese su clave Cerebras API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como Qwen 3 Coder 480B./models
Cloudflare AI Gateway
Cloudflare AI Gateway le permite acceder a modelos de OpenAI, Anthropic, Workers AI y más a través de un punto final unificado. Con Facturación unificada no necesita claves API independientes para cada proveedor.
-
Dirígete al panel de Cloudflare, navega hasta AI > AI Gateway y crea una nueva puerta de enlace.
-
Configure su ID de cuenta y su ID de puerta de enlace como variables de entorno.
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
Ejecute el comando
/connecty busque Cloudflare AI Gateway./connect -
Ingrese su token API de Cloudflare.
┌ API key││└ enterO configúrelo como una variable de entorno.
~/.bash_profile export CLOUDFLARE_API_TOKEN=your-api-token -
Ejecute el comando
/modelspara seleccionar un modelo./modelsTambién puede agregar modelos a través de su configuración opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"cloudflare-ai-gateway": {"models": {"openai/gpt-4o": {},"anthropic/claude-sonnet-4": {}}}}}
Córtecs
-
Dirígete a la consola de Cortecs, crea una cuenta y genera una clave API.
-
Ejecute el comando
/connecty busque Cortecs./connect -
Ingrese su clave Cortecs API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como Kimi K2 Instruct./models
Búsqueda profunda
-
Dirígete a la consola de DeepSeek, crea una cuenta y haz clic en Crear nueva clave API.
-
Ejecute el comando
/connecty busque DeepSeek./connect -
Ingrese su clave DeepSeek API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo de DeepSeek como DeepSeek Reasoner./models
Infraestructura profunda
-
Dirígete al panel de Deep Infra, crea una cuenta y genera una clave API.
-
Ejecute el comando
/connecty busque Deep Infra./connect -
Ingrese su clave Deep Infra API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo./models
Firmware
-
Dirígete al Panel de firmware, crea una cuenta y genera una clave API.
-
Ejecute el comando
/connecty busque Firmware./connect -
Ingrese su clave de firmware API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo./models
Fuegos artificiales AI
-
Dirígete a la Consola de Fireworks AI, crea una cuenta y haz clic en Crear clave API.
-
Ejecute el comando
/connecty busque Fireworks AI./connect -
Ingrese su clave API de AI de Fireworks.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como Kimi K2 Instruct./models
GitLab Dúo
GitLab Duo proporciona chat agente basado en IA con capacidades de llamada de herramientas nativas a través del proxy Anthropic de GitLab.
-
Ejecute el comando
/connecty seleccione GitLab./connect -
Elija su método de autenticación:
┌ Select auth method││ OAuth (Recommended)│ Personal Access Token└Usando OAuth (recomendado)
Seleccione OAuth y su navegador se abrirá para autorización.
Uso del token de acceso personal
- Vaya a GitLab Configuración de usuario > Tokens de acceso
- Haga clic en Agregar nuevo token
- Nombre:
OpenCode, Alcances:api - Copie el token (comienza con
glpat-) - Introdúcelo en la terminal.
-
Ejecute el comando
/modelspara ver los modelos disponibles./modelsHay tres modelos basados en Claude disponibles:
- duo-chat-haiku-4-5 (predeterminado) - Respuestas rápidas para tareas rápidas
- duo-chat-sonnet-4-5 - Rendimiento equilibrado para la mayoría de los flujos de trabajo
- duo-chat-opus-4-5 - Más capaz para análisis complejos
Autohospedado GitLab
Para instancias GitLab autohospedadas:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_TOKEN=glpat-...Si su instancia ejecuta una puerta de enlace AI personalizada:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comO agregue a su perfil de bash:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comexport GITLAB_TOKEN=glpat-...OAuth para instancias autohospedadas
Para que Oauth funcione para su instancia autohospedada, debe crear
una nueva aplicación (Configuración → Aplicaciones) con el
URL de devolución de llamada http://127.0.0.1:8080/callback y siguientes ámbitos:
- api (Acceda al API en su nombre)
- read_user (Lee tu información personal)
- read_repository (Permite acceso de solo lectura al repositorio)
Luego exponga el ID de la aplicación como variable de entorno:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_hereMás documentación en la página de inicio de opencode-gitlab-auth.
Configuración
Personalizar a través de opencode.json:
{ "$schema": "https://opencode.ai/config.json", "provider": { "gitlab": { "options": { "instanceUrl": "https://gitlab.com", "featureFlags": { "duo_agent_platform_agentic_chat": true, "duo_agent_platform": true } } } }}GitLab API Herramientas (opcionales, pero muy recomendables)
Para acceder a herramientas GitLab (solicitudes de fusión, problemas, canalizaciones, CI/CD, etc.):
{ "$schema": "https://opencode.ai/config.json", "plugin": ["@gitlab/opencode-gitlab-plugin"]}Este complemento proporciona capacidades integrales de administración del repositorio GitLab que incluyen revisiones de MR, seguimiento de problemas, monitoreo de canalizaciones y más.
GitHub Copiloto
Para utilizar su suscripción GitHub Copilot con opencode:
-
Ejecute el comando
/connecty busque GitHub Copilot./connect -
Navegue hasta github.com/login/device e ingrese el código.
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
Ahora ejecute el comando
/modelspara seleccionar el modelo que desea./models
IA de vértice de Google
Para utilizar Google Vertex AI con OpenCode:
-
Dirígete a Model Garden en Google Cloud Console y verifica el Modelos disponibles en su región.
Debes tener un proyecto de Google Cloud con Vertex AI API habilitado.
-
Establezca las variables de entorno requeridas:
GOOGLE_CLOUD_PROJECT: tu ID de proyecto de Google CloudVERTEX_LOCATION(opcional): la región para Vertex AI (por defecto esglobal)- Autenticación (elija una):
GOOGLE_APPLICATION_CREDENTIALS: ruta al archivo clave JSON de su cuenta de servicio- Autenticar usando gcloud CLI:
gcloud auth application-default login
Configúrelos mientras ejecuta opencode.
Ventana de terminal GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencodeO agréguelos a su perfil de bash.
~/.bash_profile export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.jsonexport GOOGLE_CLOUD_PROJECT=your-project-idexport VERTEX_LOCATION=global
-
Ejecute el comando
/modelspara seleccionar el modelo que desee./models
Groq
-
Dirígete a la consola Groq, haz clic en Crear clave API y copia la clave.
-
Ejecute el comando
/connecty busque Groq./connect -
Ingrese la clave API para el proveedor.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar el que desee./models
Hugging Face
Hugging Face Inference Providers proporciona acceso a modelos abiertos compatibles con más de 17 proveedores.
-
Ve a Hugging Face settings para crear un token con permisos para llamar a inference providers.
-
Ejecute el comando
/connecty busque Hugging Face./connect -
Ingresa tu token de Hugging Face.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como Kimi-K2-Instruct o GLM-4.6./models
Helicón
Helicone es una plataforma de observabilidad LLM que proporciona registro, monitoreo y análisis para sus aplicaciones de IA. Helicone AI Gateway enruta sus solicitudes al proveedor apropiado automáticamente según el modelo.
-
Dirígete a Helicone, crea una cuenta y genera una clave API desde tu panel.
-
Ejecute el comando
/connecty busque Helicone./connect -
Ingrese su clave Helicone API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo./models
Para obtener más proveedores y funciones avanzadas como almacenamiento en caché y limitación de velocidad, consulte la documentación de Helicone.
Configuraciones opcionales
En caso de que vea una característica o modelo de Helicone que no esté configurado automáticamente a través de opencode, siempre podrá configurarlo usted mismo.
Aquí está el Directorio de modelos de Helicone, lo necesitará para obtener las ID de los modelos que desea agregar.
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}Encabezados personalizados
Helicone admite encabezados personalizados para funciones como almacenamiento en caché, seguimiento de usuarios y gestión de sesiones. Agréguelos a la configuración de su proveedor usando options.headers:
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}Seguimiento de sesión
La función Sesiones de Helicone le permite agrupar solicitudes LLM relacionadas. Utilice el complemento opencode-helicone-session para registrar automáticamente cada conversación OpenCode como una sesión en Helicone.
npm install -g opencode-helicone-sessionAgréguelo a su configuración.
{ "plugin": ["opencode-helicone-session"]}El complemento inyecta encabezados Helicone-Session-Id y Helicone-Session-Name en sus solicitudes. En la página Sesiones de Helicone, verá cada conversación OpenCode enumerada como una sesión separada.
Cabeceras comunes de Helicone
| Encabezado | Descripción |
|---|---|
Helicone-Cache-Enabled | Habilitar el almacenamiento en caché de respuestas (true/false) |
Helicone-User-Id | Seguimiento de métricas por usuario |
Helicone-Property-[Name] | Agregar propiedades personalizadas (por ejemplo, Helicone-Property-Environment) |
Helicone-Prompt-Id | Solicitudes asociadas con versiones rápidas |
Consulte el Directorio de encabezados de Helicone para conocer todos los encabezados disponibles.
llama.cpp
Puede configurar opencode para usar modelos locales a través de la utilidad llama-server de llama.cpp
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}En este ejemplo:
llama.cppes el ID del proveedor personalizado. Puede ser cualquier cadena que desees.npmespecifica el paquete que se utilizará para este proveedor. Aquí,@ai-sdk/openai-compatiblese utiliza para cualquier OpenAI compatible con API.namees el nombre para mostrar del proveedor en la interfaz de usuario.options.baseURLes el punto final del servidor local.modelses un mapa de ID de modelo para sus configuraciones. El nombre del modelo se mostrará en la lista de selección de modelos.
IO.NET
IO.NET ofrece 17 modelos optimizados para varios casos de uso:
-
Dirígete a la consola IO.NET, crea una cuenta y genera una clave API.
-
Ejecute el comando
/connecty busque IO.NET./connect -
Ingrese su clave IO.NET API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo./models
Estudio LM
Puede configurar opencode para usar modelos locales a través de LM Studio.
{ "$schema": "https://opencode.ai/config.json", "provider": { "lmstudio": { "npm": "@ai-sdk/openai-compatible", "name": "LM Studio (local)", "options": { "baseURL": "http://127.0.0.1:1234/v1" }, "models": { "google/gemma-3n-e4b": { "name": "Gemma 3n-e4b (local)" } } } }}En este ejemplo:
lmstudioes el ID del proveedor personalizado. Puede ser cualquier cadena que desees.npmespecifica el paquete que se utilizará para este proveedor. Aquí,@ai-sdk/openai-compatiblese utiliza para cualquier OpenAI compatible con API.namees el nombre para mostrar del proveedor en la interfaz de usuario.options.baseURLes el punto final del servidor local.modelses un mapa de ID de modelo para sus configuraciones. El nombre del modelo se mostrará en la lista de selección de modelos.
IA disparada a la luna
Para usar Kimi K2 de Moonshot AI:
-
Dirígete a la consola Moonshot AI, crea una cuenta y haz clic en Crear clave API.
-
Ejecute el comando
/connecty busque Moonshot AI./connect -
Ingrese su clave Moonshot API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar Kimi K2./models
Minimáx.
-
Dirígete a la Consola MiniMax API, crea una cuenta y genera una clave API.
-
Ejecute el comando
/connecty busque MiniMax./connect -
Ingrese su clave MiniMax API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como M2.1./models
Fábrica de tokens Nebius
-
Dirígete a la consola de Nebius Token Factory, crea una cuenta y haz clic en Agregar clave.
-
Ejecute el comando
/connecty busque Nebius Token Factory./connect -
Ingrese su clave API de Nebius Token Factory.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como Kimi K2 Instruct./models
Ollama
Puedes configurar opencode para usar modelos locales a través de Ollama.
{ "$schema": "https://opencode.ai/config.json", "provider": { "ollama": { "npm": "@ai-sdk/openai-compatible", "name": "Ollama (local)", "options": { "baseURL": "http://localhost:11434/v1" }, "models": { "llama2": { "name": "Llama 2" } } } }}En este ejemplo:
ollamaes el ID del proveedor personalizado. Puede ser cualquier cadena que desees.npmespecifica el paquete que se utilizará para este proveedor. Aquí,@ai-sdk/openai-compatiblese utiliza para cualquier OpenAI compatible con API.namees el nombre para mostrar del proveedor en la interfaz de usuario.options.baseURLes el punto final del servidor local.modelses un mapa de ID de modelo para sus configuraciones. El nombre del modelo se mostrará en la lista de selección de modelos.
Ollama Cloud
Para usar Ollama Cloud con OpenCode:
-
Dirígete a https://ollama.com/ e inicia sesión o crea una cuenta.
-
Vaya a Configuración > Claves y haga clic en Agregar clave API para generar una nueva clave API.
-
Copie la clave API para usarla en OpenCode.
-
Ejecute el comando
/connecty busque Ollama Cloud./connect -
Ingrese su clave Ollama Cloud API.
┌ API key││└ enter -
Importante: Antes de usar modelos en la nube en OpenCode, debe obtener la información del modelo localmente:
Ventana de terminal ollama pull gpt-oss:20b-cloud -
Ejecute el comando
/modelspara seleccionar su modelo de Ollama Cloud./models
OpenAI
Recomendamos registrarse en ChatGPT Plus o Pro.
-
Una vez que se haya registrado, ejecute el comando
/connecty seleccione OpenAI./connect -
Aquí puedes seleccionar la opción ChatGPT Plus/Pro y se abrirá tu navegador. y pedirle que se autentique.
┌ Select auth method││ ChatGPT Plus/Pro│ Manually enter API Key└ -
Ahora todos los modelos OpenAI deberían estar disponibles cuando use el comando
/models./models
Usando las teclas API
Si ya tiene una clave API, puede seleccionar Ingresar manualmente la clave API y pegarla en su terminal.
OpenCode Zen
OpenCode Zen es una lista de modelos probados y verificados proporcionada por el equipo OpenCode. Más información.
-
Inicie sesión en OpenCode Zen y haga clic en Crear API clave.
-
Ejecute el comando
/connecty busque OpenCode Zen./connect -
Ingrese su clave OpenCode API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como Qwen 3 Coder 480B./models
Enrutador abierto
-
Dirígete al panel de OpenRouter, haz clic en Crear clave API y copia la clave.
-
Ejecute el comando
/connecty busque OpenRouter./connect -
Ingrese la clave API para el proveedor.
┌ API key││└ enter -
Muchos modelos de OpenRouter están precargados de forma predeterminada, ejecute el comando
/modelspara seleccionar el que desee./modelsTambién puede agregar modelos adicionales a través de su configuración opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"somecoolnewmodel": {}}}}} -
También puedes personalizarlos a través de tu configuración opencode. A continuación se muestra un ejemplo de cómo especificar un proveedor.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
Núcleo de IA de SAP
SAP AI Core brinda acceso a más de 40 modelos de OpenAI, Anthropic, Google, Amazon, Meta, Mistral y AI21 a través de una plataforma unificada.
-
Vaya a su SAP BTP Cockpit, navegue hasta su instancia de servicio SAP AI Core y cree una clave de servicio.
La clave de servicio es un objeto JSON que contiene
clientid,clientsecret,urlyserviceurls.AI_API_URL. Puede encontrar su instancia de AI Core en Servicios > Instancias y suscripciones en BTP Cockpit. -
Ejecute el comando
/connecty busque SAP AI Core./connect -
Ingrese su clave de servicio JSON.
┌ Service key││└ enterO configure la variable de entorno
AICORE_SERVICE_KEY:Ventana de terminal AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeO agrégalo a tu perfil de bash:
~/.bash_profile export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' -
Opcionalmente, configure el ID de implementación y el grupo de recursos:
Ventana de terminal AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencodeEstas configuraciones son opcionales y deben configurarse de acuerdo con su configuración de SAP AI Core.
-
Ejecute el comando
/modelspara seleccionar entre más de 40 modelos disponibles./models
Puntos finales de IA de OVHcloud
-
Dirígete al panel de OVHcloud. Navegue a la sección
Public Cloud,AI & Machine Learning>AI Endpointsy en la pestañaAPI Keys, haga clic en Crear una nueva clave API. -
Ejecute el comando
/connecty busque OVHcloud AI Endpoints./connect -
Introduzca la clave API de sus OVHcloud AI Endpoints.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como gpt-oss-120b./models
Escala
Para utilizar API generativas de Scaleway con OpenCode:
-
Dirígete a la Configuración de IAM de la consola Scaleway para generar una nueva clave API.
-
Ejecute el comando
/connecty busque Scaleway./connect -
Ingrese su clave Scaleway API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como devstral-2-123b-instruct-2512 o gpt-oss-120b./models
Juntos IA
-
Dirígete a la consola de Together AI, crea una cuenta y haz clic en Agregar clave.
-
Ejecute el comando
/connecty busque Together AI./connect -
Ingrese su clave Together AI API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como Kimi K2 Instruct./models
Venecia AI
-
Dirígete a la consola de Venice AI, crea una cuenta y genera una clave API.
-
Ejecute el comando
/connecty busque Venice AI./connect -
Ingrese su clave Venecia AI API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como Llama 3.3 70B./models
Vercel AI Gateway
Vercel AI Gateway le permite acceder a modelos de OpenAI, Anthropic, Google, xAI y más a través de un punto final unificado. Los modelos se ofrecen a precio de lista sin margen de beneficio.
-
Dirígete al panel de Vercel, navega hasta la pestaña AI Gateway y haz clic en API claves para crear una nueva clave API.
-
Ejecute el comando
/connecty busque Vercel AI Gateway./connect -
Ingrese su clave Vercel AI Gateway API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo./models
También puede personalizar modelos a través de su configuración opencode. A continuación se muestra un ejemplo de cómo especificar el orden de enrutamiento del proveedor.
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}Algunas opciones de enrutamiento útiles:
| Opción | Descripción |
|---|---|
order | Secuencia de proveedores para probar |
only | Restringir a proveedores específicos |
zeroDataRetention | Utilice únicamente proveedores con políticas de retención de datos cero |
xAI
-
Dirígete a la consola xAI, crea una cuenta y genera una clave API.
-
Ejecute el comando
/connecty busque xAI./connect -
Ingrese su clave xAI API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como Grok Beta./models
Z.AI
-
Dirígete a la consola Z.AI API, crea una cuenta y haz clic en Crear una nueva clave API.
-
Ejecute el comando
/connecty busque Z.AI./connectSi está suscrito al Plan de codificación GLM, seleccione Plan de codificación Z.AI.
-
Ingrese su clave Z.AI API.
┌ API key││└ enter -
Ejecute el comando
/modelspara seleccionar un modelo como GLM-4.7./models
ZenMux
-
Dirígete al panel de ZenMux, haz clic en Crear clave API y copia la clave.
-
Ejecute el comando
/connecty busque ZenMux./connect -
Ingrese la clave API para el proveedor.
┌ API key││└ enter -
Muchos modelos de ZenMux están precargados de forma predeterminada, ejecute el comando
/modelspara seleccionar el que desee./modelsTambién puede agregar modelos adicionales a través de su configuración opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"zenmux": {"models": {"somecoolnewmodel": {}}}}}
Proveedor personalizado
Para agregar cualquier proveedor compatible con OpenAI que no aparezca en el comando /connect:
-
Ejecute el comando
/connecty desplácese hacia abajo hasta Otro.Ventana de terminal $ /connect┌ Add credential│◆ Select provider│ ...│ ● Other└ -
Ingrese una identificación única para el proveedor.
Ventana de terminal $ /connect┌ Add credential│◇ Enter provider id│ myprovider└Elija una identificación memorable, la usará en su archivo de configuración.
-
Ingrese su clave API para el proveedor.
Ventana de terminal $ /connect┌ Add credential│▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.│◇ Enter your API key│ sk-...└ -
Cree o actualice su archivo
opencode.jsonen el directorio de su proyecto:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}Aquí están las opciones de configuración:
- npm: paquete AI SDK para usar,
@ai-sdk/openai-compatiblepara proveedores compatibles con OpenAI - nombre: nombre para mostrar en la interfaz de usuario.
- modelos: Modelos disponibles.
- options.baseURL: API URL del punto final.
- options.apiKey: Opcionalmente, configure la clave API, si no usa autenticación.
- options.headers: Opcionalmente, configure encabezados personalizados.
Más información sobre las opciones avanzadas en el siguiente ejemplo.
- npm: paquete AI SDK para usar,
-
Ejecute el comando
/modelsy su proveedor y modelos personalizados aparecerán en la lista de selección.
Ejemplo
A continuación se muestra un ejemplo de configuración de las opciones apiKey, headers y modelo limit.
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}Detalles de configuración:
- apiKey: se configura usando la sintaxis de la variable
env, más información. - encabezados: encabezados personalizados enviados con cada solicitud.
- limit.context: tokens de entrada máximos que acepta el modelo.
- limit.output: tokens máximos que el modelo puede generar.
Los campos limit le permiten a OpenCode comprender cuánto contexto le queda. Los proveedores estándar los extraen de models.dev automáticamente.
Solución de problemas
Si tiene problemas para configurar un proveedor, verifique lo siguiente:
-
Verifique la configuración de autenticación: Ejecute
opencode auth listpara ver si las credenciales para el proveedor se agregan a su configuración.Esto no se aplica a proveedores como Amazon Bedrock, que dependen de variables de entorno para su autenticación.
-
Para proveedores personalizados, verifique la configuración opencode y:
- Asegúrese de que el ID del proveedor utilizado en el comando
/connectcoincida con el ID en su configuración opencode. - Se utiliza el paquete npm correcto para el proveedor. Por ejemplo, utilice
@ai-sdk/cerebraspara Cerebras. Y para todos los demás proveedores compatibles con OpenAI, utilice@ai-sdk/openai-compatible. - Verifique que se utilice el punto final API correcto en el campo
options.baseURL.
- Asegúrese de que el ID del proveedor utilizado en el comando