zen
Lista seleccionada de modelos proporcionada por OpenCode.
OpenCode Zen es una lista de modelos probados y verificados proporcionada por el equipo OpenCode.
Zen funciona como cualquier otro proveedor en OpenCode. Inicias sesion en OpenCode Zen y obtienes tu API key. Es completamente opcional y no necesitas usarlo para usar OpenCode.
Fondo
Hay una gran cantidad de modelos, pero solo unos pocos funcionan bien como agentes de coding. Ademas, la mayoria de proveedores se configura de forma diferente, asi que el rendimiento y la calidad varian mucho.
Si usas un modelo a traves de algo como OpenRouter, nunca puedes estar seguro de que recibes la mejor version del modelo que quieres.
Para solucionar este problema, hicimos un par de cosas:
- Probamos un grupo selecto de modelos y hablamos con sus equipos sobre cómo mejor ejecutarlos.
- Luego trabajamos con algunos proveedores para asegurarnos de que estuvieran siendo atendidos. correctamente.
- Finalmente, comparamos la combinación modelo/proveedor y llegamos con una lista que nos sentimos bien recomendando.
OpenCode Zen es una puerta de enlace de IA que le brinda acceso a estos modelos.
Cómo funciona
OpenCode Zen funciona como cualquier otro proveedor en OpenCode.
- Inicias sesión en OpenCode Zen, agregas tu facturación detalles y copie su clave API.
- Ejecuta el comando
/connecten TUI, selecciona OpenCode Zen y pega tu clave API. - Ejecute
/modelsen TUI para ver la lista de modelos que recomendamos.
Se le cobra por solicitud y puede agregar créditos a su cuenta.
Puntos finales
También puede acceder a nuestros modelos a través de los siguientes puntos finales API.
| Modelo | Model ID | Endpoint | AI SDK package |
|---|---|---|---|
| GPT 5.2 | gpt-5.2 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.2 Codex | gpt-5.2-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 | gpt-5.1 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex | gpt-5.1-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex Max | gpt-5.1-codex-max | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex Mini | gpt-5.1-codex-mini | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 | gpt-5 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 Codex | gpt-5-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 Nano | gpt-5-nano | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| Claude Sonnet 4.5 | claude-sonnet-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Sonnet 4 | claude-sonnet-4 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Haiku 4.5 | claude-haiku-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Haiku 3.5 | claude-3-5-haiku | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.6 | claude-opus-4-6 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.5 | claude-opus-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.1 | claude-opus-4-1 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Gemini 3 Pro | gemini-3-pro | https://opencode.ai/zen/v1/models/gemini-3-pro | @ai-sdk/google |
| Gemini 3 Flash | gemini-3-flash | https://opencode.ai/zen/v1/models/gemini-3-flash | @ai-sdk/google |
| MiniMax M2.1 | minimax-m2.1 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| MiniMax M2.1 Free | minimax-m2.1-free | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| GLM 4.7 | glm-4.7 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| GLM 4.7 Free | glm-4.7-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| GLM 4.6 | glm-4.6 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 | kimi-k2.5 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2.5 Free | kimi-k2.5-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2 Thinking | kimi-k2-thinking | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2 | kimi-k2 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Qwen3 Coder 480B | qwen3-coder | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Big Pickle | big-pickle | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
El model ID en tu configuracion de OpenCode
usa el formato opencode/<model-id>. Por ejemplo, para GPT 5.2 Codex, debes
usar opencode/gpt-5.2-codex en tu configuracion.
Modelos
Puede obtener la lista completa de modelos disponibles y sus metadatos en:
https://opencode.ai/zen/v1/modelsPrecios
Apoyamos un modelo de pago por uso. A continuación se muestran los precios por 1 millón de tokens.
| Modelo | Entrada | Salida | Lectura en caché | Escritura en caché |
|---|---|---|---|---|
| Big Pickle | Gratis | Gratis | Gratis | - |
| MiniMax M2.1 Free | Gratis | Gratis | Gratis | - |
| MiniMax M2.1 | $0,30 | $1,20 | $0,10 | - |
| GLM 4.7 Free | Gratis | Gratis | Gratis | - |
| GLM 4.7 | $0,60 | $2.20 | $0,10 | - |
| GLM 4.6 | $0,60 | $2.20 | $0,10 | - |
| Kimi K2.5 Free | Gratis | Gratis | Gratis | - |
| Kimi K2.5 | $0,60 | $3.00 | $0,08 | - |
| Kimi K2 Thinking | $0,40 | $2.50 | - | - |
| Kimi K2 | $0,40 | $2.50 | - | - |
| Qwen3 Coder 480B | $0,45 | $1,50 | - | - |
| Claude Sonnet 4.5 (≤ 200.000 tokens) | $3.00 | $15.00 | $0,30 | $3,75 |
| Claude Sonnet 4.5 (> 200.000 tokens) | $6.00 | $22,50 | $0,60 | $7.50 |
| Claude Sonnet 4 (≤ 200K tokens) | $3.00 | $15.00 | $0,30 | $3,75 |
| Claude Sonnet 4 (> 200K tokens) | $6.00 | $22,50 | $0,60 | $7.50 |
| Claude Haiku 4.5 | $1.00 | $5.00 | $0,10 | $1,25 |
| Claude Haiku 3.5 | $0,80 | $4.00 | $0,08 | $1.00 |
| Claude Opus 4.6 (≤ 200.000 tokens) | $5.00 | $25.00 | $0,50 | $6.25 |
| Claude Opus 4.6 (> 200K tokens) | $10.00 | $37,50 | $1.00 | $12,50 |
| Claude Opus 4.5 | $5.00 | $25.00 | $0,50 | $6.25 |
| Claude Opus 4.1 | $15.00 | $75.00 | $1,50 | $18,75 |
| Gemini 3 Pro (≤ 200K tokens) | $2.00 | $12.00 | $0,20 | - |
| Gemini 3 Pro (> 200K tokens) | $4.00 | $18.00 | $0,40 | - |
| Gemini 3 Flash | $0,50 | $3.00 | $0,05 | - |
| GPT 5.2 | $1,75 | $14.00 | $0,175 | - |
| GPT 5.2 Codex | $1,75 | $14.00 | $0,175 | - |
| GPT 5.1 | $1.07 | $8,50 | $0,107 | - |
| GPT 5.1 Codex | $1.07 | $8,50 | $0,107 | - |
| GPT 5.1 Codex Max | $1,25 | $10.00 | $0,125 | - |
| GPT 5.1 Codex Mini | $0,25 | $2.00 | $0,025 | - |
| GPT 5 | $1.07 | $8,50 | $0,107 | - |
| GPT 5 Codex | $1.07 | $8,50 | $0,107 | - |
| GPT 5 Nano | Gratis | Gratis | Gratis | - |
Es posible que notes Claude Haiku 3.5 en tu historial de uso. Este es un modelo de bajo costo que se utiliza para generar los títulos de tus sesiones.
Los modelos gratuitos:
- GLM 4.7 Free está disponible en OpenCode por tiempo limitado. El equipo está aprovechando este tiempo para recopilar comentarios y mejorar el modelo.
- Kimi K2.5 Free está disponible en OpenCode por tiempo limitado. El equipo está aprovechando este tiempo para recopilar comentarios y mejorar el modelo.
- MiniMax M2.1 Free está disponible en OpenCode por tiempo limitado. El equipo está aprovechando este tiempo para recopilar comentarios y mejorar el modelo.
- Big Pickle es un modelo sigiloso gratuito en OpenCode por tiempo limitado. El equipo está aprovechando este tiempo para recopilar comentarios y mejorar el modelo.
Contáctenos si tiene alguna pregunta.
Recarga automática
Si su saldo es inferior a $5, Zen recargará automáticamente $20.
Puedes cambiar el monto de la recarga automática. También puedes desactivar la recarga automática por completo.
Límites mensuales
También puede establecer un límite de uso mensual para todo el espacio de trabajo y para cada miembro de tu equipo.
Por ejemplo, digamos que establece un límite de uso mensual de $20, Zen no usará más de $20 en un mes. Pero si tienes habilitada la recarga automática, Zen podría terminar cobrarle más de $20 si su saldo es inferior a $5.
Privacidad
Todos nuestros modelos están alojados en los EE. UU. Nuestros proveedores siguen una política de retención cero y no utilizan sus datos para la capacitación de modelos, con las siguientes excepciones:
- Big Pickle: Durante su periodo gratuito, los datos recopilados podrán utilizarse para mejorar el modelo.
- GLM 4.7 Gratis: Durante su periodo gratuito, los datos recopilados podrán utilizarse para mejorar el modelo.
- Kimi K2.5 Free: Durante su periodo gratuito, los datos recopilados podrán utilizarse para mejorar el modelo.
- MiniMax M2.1 Free: Durante su período gratuito, los datos recopilados podrán utilizarse para mejorar el modelo.
- API de OpenAI: las solicitudes se conservan durante 30 días de acuerdo con las Políticas de datos de OpenAI.
- API de Anthropic: las solicitudes se conservan durante 30 días de acuerdo con las Políticas de datos de Anthropic.
Para equipos
Zen también funciona muy bien para equipos. Puedes invitar a compañeros de equipo, asignar roles, seleccionar los modelos que utiliza su equipo y más.
Actualmente, administrar su espacio de trabajo es gratuito para equipos como parte de la versión beta. estaremos compartiremos más detalles sobre los precios pronto.
Roles
Puedes invitar a compañeros de equipo a tu espacio de trabajo y asignar roles:
- Administrador: administra modelos, miembros, claves API y facturación
- Miembro: administra solo sus propias claves API
Los administradores también pueden establecer límites de gastos mensuales para cada miembro para mantener los costos bajo control.
Acceso al modelo
Los administradores pueden habilitar o deshabilitar modelos específicos para el espacio de trabajo. Las solicitudes realizadas a un modelo deshabilitado devolverán un error.
Esto es útil para los casos en los que desea desactivar el uso de un modelo que recopila datos.
Trae tu propia API key
Puedes usar tus propias API keys de OpenAI o Anthropic mientras accedes a otros modelos en Zen.
Cuando utiliza sus propias claves, los tokens los factura directamente el proveedor, no Zen.
Por ejemplo, es posible que su organización ya tenga una clave para OpenAI o Anthropic. y quieres usar ese en lugar del que proporciona Zen.
Objetivos
Creamos OpenCode Zen para:
- Evaluar los mejores modelos/proveedores de agentes de codificación.
- Tener acceso a las opciones de más alta calidad y no degradar el rendimiento ni recurrir a proveedores más baratos.
- Transmitir cualquier bajada de precio vendiendo al costo; por lo que el único margen de beneficio es para cubrir nuestras tarifas de procesamiento.
- No tener ningún bloqueo al permitirle usarlo con cualquier otro agente de codificación. Y siempre le permitirá utilizar cualquier otro proveedor con OpenCode también.