Провайдеры
Использование любого провайдера LLM в opencode.
opencode использует AI SDK и Models.dev для поддержки более 75 поставщиков LLM и поддерживает запуск локальных моделей.
Чтобы добавить провайдера, вам необходимо:
- Добавьте ключи API для провайдера с помощью команды
/connect. - Настройте провайдера в вашей конфигурации opencode.
Credentials
Когда вы добавляете ключи API провайдера с помощью команды /connect, они сохраняются
в ~/.local/share/opencode/auth.json.
Config
Вы можете настроить поставщиков через раздел provider в вашем opencode.
конфиг.
Базовый URL
Вы можете настроить базовый URL-адрес для любого провайдера, установив параметр baseURL. Это полезно при использовании прокси-сервисов или пользовательских конечных точек.
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}Открытый код Нет
OpenCode Zen — это список моделей, предоставленный командой opencode, которые были протестировано и проверено на хорошую работу с opencode. Подробнее.
-
Запустите команду
/connectв TUI, выберите opencode и перейдите по адресу opencode.ai/auth./connect -
Войдите в систему, добавьте свои платежные данные и скопируйте ключ API.
-
Вставьте свой ключ API.
┌ API key││└ enter -
Запустите
/modelsв TUI, чтобы просмотреть список рекомендуемых нами моделей./models
Он работает как любой другой поставщик в opencode и его использование совершенно необязательно.
Каталог
Рассмотрим некоторых провайдеров подробнее. Если вы хотите добавить провайдера в список, смело открывайте пиар.
302.AI
-
Перейдите в консоль 302.AI](https://302.ai/), создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите 302.AI./connect -
Введите свой ключ API 302.AI.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель./models
Amazon Bedrock
Чтобы использовать Amazon Bedrock с opencode:
-
Перейдите в Каталог моделей в консоли Amazon Bedrock и запросите доступ к нужным моделям.
-
Настройте аутентификацию одним из следующих способов:
Переменные среды (быстрый старт)
Установите одну из этих переменных среды при запуске opencode:
Окно терминала # Option 1: Using AWS access keysAWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode# Option 2: Using named AWS profileAWS_PROFILE=my-profile opencode# Option 3: Using Bedrock bearer tokenAWS_BEARER_TOKEN_BEDROCK=XXX opencodeИли добавьте их в свой профиль bash:
~/.bash_profile export AWS_PROFILE=my-dev-profileexport AWS_REGION=us-east-1Файл конфигурации (рекомендуется)
Для конкретной или постоянной конфигурации проекта используйте
opencode.json:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "my-aws-profile"}}}}Доступные варианты:
region– регион AWS (например,us-east-1,eu-west-1).profile– именованный профиль AWS из~/.aws/credentials.endpoint— URL-адрес пользовательской конечной точки для конечных точек VPC (псевдоним для общей опцииbaseURL).
Дополнительно: конечные точки VPC
Если вы используете конечные точки VPC для Bedrock:
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "production","endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"}}}}Методы аутентификации
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: создайте пользователя IAM и сгенерируйте ключи доступа в консоли AWS.AWS_PROFILE: использовать именованные профили из~/.aws/credentials. Сначала настройтеaws configure --profile my-profileилиaws sso login.AWS_BEARER_TOKEN_BEDROCK: создание долгосрочных ключей API из консоли Amazon Bedrock.AWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN: для EKS IRSA (роли IAM для учетных записей служб) или других сред Kubernetes с федерацией OIDC. Эти переменные среды автоматически вводятся Kubernetes при использовании аннотаций учетной записи службы.
Приоритет аутентификации
Amazon Bedrock использует следующий приоритет аутентификации:
- Токен носителя — переменная среды
AWS_BEARER_TOKEN_BEDROCKили токен из команды/connect. - Цепочка учетных данных AWS — профиль, ключи доступа, общие учетные данные, роли IAM, токены веб-идентификации (EKS IRSA), метаданные экземпляра.
-
Запустите команду
/models, чтобы выбрать нужную модель./models
Anthropic
-
После регистрации введите команду
/connectи выберите Anthropic./connect -
Здесь вы можете выбрать опцию Claude Pro/Max, и ваш браузер откроется. и попросите вас пройти аутентификацию.
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
Теперь все модели Anthropic должны быть доступны при использовании команды
/models./models
Использование вашей подписки Claude Pro/Max в opencode официально не поддерживается Anthropic.
Использование ключей API
Вы также можете выбрать Создать ключ API, если у вас нет подписки Pro/Max. Он также откроет ваш браузер и попросит вас войти в Anthropic и предоставит вам код, который вы можете вставить в свой терминал.
Или, если у вас уже есть ключ API, вы можете выбрать Ввести ключ API вручную и вставить его в свой терминал.
Azure OpenAI
-
Перейдите на портал Azure и создайте ресурс Azure OpenAI. Вам понадобится:
- Имя ресурса: оно становится частью вашей конечной точки API (
https://RESOURCE_NAME.openai.azure.com/). - Ключ API:
KEY 1илиKEY 2из вашего ресурса.
- Имя ресурса: оно становится частью вашей конечной точки API (
-
Перейдите в Azure AI Foundry и разверните модель.
:::примечание Для правильной работы opencode имя развертывания должно совпадать с именем модели. :::
-
Запустите команду
/connectи найдите Azure./connect -
Введите свой ключ API.
┌ API key││└ enter -
Задайте имя ресурса как переменную среды:
Окно терминала AZURE_RESOURCE_NAME=XXX opencodeИли добавьте его в свой профиль bash:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
Запустите команду
/models, чтобы выбрать развернутую модель./models
Azure Cognitive Services
-
Перейдите на портал Azure и создайте ресурс Azure OpenAI. Вам понадобится:
- Имя ресурса: оно становится частью вашей конечной точки API (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/). - Ключ API:
KEY 1илиKEY 2из вашего ресурса.
- Имя ресурса: оно становится частью вашей конечной точки API (
-
Перейдите в Azure AI Foundry и разверните модель.
:::примечание Для правильной работы opencode имя развертывания должно совпадать с именем модели. :::
-
Запустите команду
/connectи найдите Azure Cognitive Services./connect -
Введите свой ключ API.
┌ API key││└ enter -
Задайте имя ресурса как переменную среды:
Окно терминала AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencodeИли добавьте его в свой профиль bash:
~/.bash_profile export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
Запустите команду
/models, чтобы выбрать развернутую модель./models
Baseten
-
Перейдите в Baseten, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Baseten./connect -
Введите свой ключ API Baseten.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель./models
Cerebras
-
Перейдите в консоль Cerebras, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Cerebras./connect -
Введите свой ключ API Cerebras.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать такую модель, как Qwen 3 Coder 480B./models
Cloudflare AI Gateway
Cloudflare AI Gateway позволяет вам получать доступ к моделям OpenAI, Anthropic, Workers AI и т. д. через единую конечную точку. Благодаря Unified Billing вам не нужны отдельные ключи API для каждого провайдера.
-
Перейдите на панель управления Cloudflare, выберите AI > AI Gateway и создайте новый шлюз.
-
Установите идентификатор своей учетной записи и идентификатор шлюза в качестве переменных среды.
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
Запустите команду
/connectи найдите Cloudflare AI Gateway./connect -
Введите свой токен API Cloudflare.
┌ API key││└ enterИли установите его как переменную среды.
~/.bash_profile export CLOUDFLARE_API_TOKEN=your-api-token -
Запустите команду
/models, чтобы выбрать модель./modelsВы также можете добавлять модели через конфигурацию opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"cloudflare-ai-gateway": {"models": {"openai/gpt-4o": {},"anthropic/claude-sonnet-4": {}}}}}
Cortecs
-
Перейдите в консоль Cortecs, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Cortecs./connect -
Введите свой ключ API Cortecs.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать такую модель, как Kimi K2 Instruct./models
DeepSeek
-
Перейдите в консоль DeepSeek, создайте учетную запись и нажмите Создать новый ключ API.
-
Запустите команду
/connectи найдите DeepSeek./connect -
Введите свой ключ API DeepSeek.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель DeepSeek, например DeepSeek Reasoner./models
Deep Infra
-
Перейдите на панель мониторинга Deep Infra](https://deepinfra.com/dash), создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Deep Infra./connect -
Введите свой ключ API Deep Infra.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель./models
Firmware
-
Перейдите на панель Firmware, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Firmware./connect -
Введите ключ API Firmware.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель./models
Fireworks AI
-
Перейдите в консоль Fireworks AI, создайте учетную запись и нажмите Создать ключ API.
-
Запустите команду
/connectи найдите Fireworks AI./connect -
Введите ключ API Fireworks AI.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать такую модель, как Kimi K2 Instruct./models
GitLab Duo
GitLab Duo предоставляет агентский чат на базе искусственного интеллекта со встроенными возможностями вызова инструментов через прокси-сервер GitLab Anthropic.
-
Запустите команду
/connectи выберите GitLab./connect -
Выберите метод аутентификации:
┌ Select auth method││ OAuth (Recommended)│ Personal Access Token└Использование OAuth (рекомендуется)
Выберите OAuth, и ваш браузер откроется для авторизации.
Использование токена личного доступа
- Перейдите в Настройки пользователя GitLab > Токены доступа.
- Нажмите Добавить новый токен.
- Имя:
OpenCode, Области применения:api - Скопируйте токен (начинается с
glpat-) - Введите его в терминал
-
Запустите команду
/models, чтобы просмотреть доступные модели./modelsДоступны три модели на основе Claude:
- duo-chat-haiku-4-5 (по умолчанию) — быстрые ответы на быстрые задачи.
- duo-chat-sonnet-4-5 — сбалансированная производительность для большинства рабочих процессов.
- duo-chat-opus-4-5 — Наиболее способен к комплексному анализу.
Самостоятельная GitLab
Для самостоятельных экземпляров GitLab:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_TOKEN=glpat-...Если в вашем экземпляре используется собственный AI-шлюз:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comИли добавьте в свой профиль bash:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comexport GITLAB_TOKEN=glpat-...OAuth для локальных экземпляров
Чтобы Oauth работал на вашем локальном экземпляре, вам необходимо создать
новое приложение (Настройки → Приложения) с
URL обратного вызова http://127.0.0.1:8080/callback и следующие области:
- API (Доступ к API от вашего имени)
- read_user (прочитать вашу личную информацию)
- read_repository (разрешает доступ к репозиторию только для чтения)
Затем укажите идентификатор приложения как переменную среды:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_hereДополнительная документация на домашней странице opencode-gitlab-auth.
Конфигурация
Настройте через opencode.json:
{ "$schema": "https://opencode.ai/config.json", "provider": { "gitlab": { "options": { "instanceUrl": "https://gitlab.com", "featureFlags": { "duo_agent_platform_agentic_chat": true, "duo_agent_platform": true } } } }}Инструменты API GitLab (необязательно, но настоятельно рекомендуется)
Чтобы получить доступ к инструментам GitLab (мерж-реквесты, задачи, конвейеры, CI/CD и т. д.):
{ "$schema": "https://opencode.ai/config.json", "plugin": ["@gitlab/opencode-gitlab-plugin"]}Этот плагин предоставляет комплексные возможности управления репозиторием GitLab, включая проверки MR, отслеживание проблем, мониторинг конвейера и многое другое.
GitHub Copilot
Чтобы использовать подписку GitHub Copilot с открытым кодом:
-
Запустите команду
/connectи найдите GitHub Copilot./connect -
Перейдите на github.com/login/device и введите код.
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
Теперь запустите команду
/models, чтобы выбрать нужную модель./models
Google Vertex AI
Чтобы использовать Google Vertex AI с opencode:
-
Перейдите в Model Garden в Google Cloud Console и проверьте модели, доступные в вашем регионе.
-
Установите необходимые переменные среды:
GOOGLE_CLOUD_PROJECT: идентификатор вашего проекта Google Cloud.VERTEX_LOCATION(необязательно): регион для Vertex AI (по умолчаниюglobal).- Аутентификация (выберите одну):
GOOGLE_APPLICATION_CREDENTIALS: путь к ключевому файлу JSON вашего сервисного аккаунта.- Аутентификация через CLI gcloud:
gcloud auth application-default login.
Установите их во время запуска opencode.
Окно терминала GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencodeИли добавьте их в свой профиль bash.
~/.bash_profile export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.jsonexport GOOGLE_CLOUD_PROJECT=your-project-idexport VERTEX_LOCATION=global
-
Запустите команду
/models, чтобы выбрать нужную модель./models
Groq
-
Перейдите в консоль Groq](https://console.groq.com/), нажмите Создать ключ API и скопируйте ключ.
-
Запустите команду
/connectи найдите Groq./connect -
Введите ключ API для провайдера.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать тот, который вам нужен./models
Hugging Face
Hugging Face Inference Providers предоставляют доступ к открытым моделям, поддерживаемым более чем 17 поставщиками.
-
Перейдите в Настройки Hugging Face, чтобы создать токен с разрешением совершать вызовы к поставщикам выводов.
-
Запустите команду
/connectи найдите Hugging Face./connect -
Введите свой токен Hugging Face.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать такую модель, как Kimi-K2-Instruct или GLM-4.6./models
Helicone
Helicone — это платформа наблюдения LLM, которая обеспечивает ведение журнала, мониторинг и аналитику для ваших приложений искусственного интеллекта. Helicone AI Gateway автоматически направляет ваши запросы соответствующему поставщику на основе модели.
-
Перейдите в Helicone, создайте учетную запись и сгенерируйте ключ API на своей панели управления.
-
Запустите команду
/connectи найдите Helicone./connect -
Введите свой ключ API Helicone.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель./models
Дополнительные сведения о дополнительных провайдерах и расширенных функциях, таких как кэширование и ограничение скорости, см. в Документация Helicone.
Дополнительные конфигурации
Если вы видите функцию или модель от Helicone, которая не настраивается автоматически через opencode, вы всегда можете настроить ее самостоятельно.
Вот Справочник моделей Helicone, он понадобится вам, чтобы получить идентификаторы моделей, которые вы хотите добавить.
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}Пользовательские заголовки
Helicone поддерживает пользовательские заголовки для таких функций, как кэширование, отслеживание пользователей и управление сеансами. Добавьте их в конфигурацию вашего провайдера, используя options.headers:
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}Отслеживание сеансов
Функция Helicone Sessions позволяет группировать связанные запросы LLM вместе. Используйте плагин opencode-helicone-session, чтобы автоматически регистрировать каждый диалог opencode как сеанс в Helicone.
npm install -g opencode-helicone-sessionДобавьте его в свою конфигурацию.
{ "plugin": ["opencode-helicone-session"]}Плагин вставляет в ваши запросы заголовки Helicone-Session-Id и Helicone-Session-Name. На странице «Сеансы» Helicone вы увидите каждый диалог opencode, указанный как отдельный сеанс.
Общие разъемы Helicone
| Заголовок | Описание |
|---|---|
Helicone-Cache-Enabled | Включить кэширование ответов (true/false) |
Helicone-User-Id | Отслеживание показателей по пользователю |
Helicone-Property-[Name] | Добавьте пользовательские свойства (например, Helicone-Property-Environment) |
Helicone-Prompt-Id | Связывание запросов с версиями промптов |
См. Справочник заголовков Helicone для всех доступных заголовков.
llama.cpp
Вы можете настроить opencode для использования локальных моделей с помощью утилиты llama-server llama.cpp’s
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}В этом примере:
llama.cpp— это идентификатор пользовательского поставщика. Это может быть любая строка, которую вы хотите.npmуказывает пакет, который будет использоваться для этого поставщика. Здесь@ai-sdk/openai-compatibleиспользуется для любого API-интерфейса, совместимого с OpenAI.name— это отображаемое имя поставщика в пользовательском интерфейсе.options.baseURL— конечная точка локального сервера.models— это карта идентификаторов моделей с их конфигурациями. Название модели будет отображаться в списке выбора модели.
IO.NET
IO.NET предлагает 17 моделей, оптимизированных для различных случаев использования:
-
Перейдите в консоль IO.NET](https://ai.io.net/), создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите IO.NET./connect -
Введите свой ключ API IO.NET.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель./models
LM Studio
Вы можете настроить opencode для использования локальных моделей через LM Studio.
{ "$schema": "https://opencode.ai/config.json", "provider": { "lmstudio": { "npm": "@ai-sdk/openai-compatible", "name": "LM Studio (local)", "options": { "baseURL": "http://127.0.0.1:1234/v1" }, "models": { "google/gemma-3n-e4b": { "name": "Gemma 3n-e4b (local)" } } } }}В этом примере:
lmstudio— это идентификатор пользовательского поставщика. Это может быть любая строка, которую вы хотите.npmуказывает пакет, который будет использоваться для этого поставщика. Здесь@ai-sdk/openai-compatibleиспользуется для любого API-интерфейса, совместимого с OpenAI.name— это отображаемое имя поставщика в пользовательском интерфейсе.options.baseURL— конечная точка локального сервера.models— это карта идентификаторов моделей с их конфигурациями. Название модели будет отображаться в списке выбора модели.
Moonshot AI
Чтобы использовать Кими К2 из Moonshot AI:
-
Перейдите в консоль Moonshot AI, создайте учетную запись и нажмите Создать ключ API.
-
Запустите команду
/connectи найдите Moonshot AI./connect -
Введите свой API-ключ Moonshot.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать Kimi K2./models
MiniMax
-
Перейдите в консоль API MiniMax, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите MiniMax./connect -
Введите свой ключ API MiniMax.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель типа M2.1./models
Nebius Token Factory
-
Перейдите в консоль Nebius Token Factory](https://tokenfactory.nebius.com/), создайте учетную запись и нажмите Добавить ключ.
-
Запустите команду
/connectи найдите Nebius Token Factory./connect -
Введите ключ API фабрики токенов Nebius.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать такую модель, как Kimi K2 Instruct./models
Ollama
Вы можете настроить opencode для использования локальных моделей через Ollama.
{ "$schema": "https://opencode.ai/config.json", "provider": { "ollama": { "npm": "@ai-sdk/openai-compatible", "name": "Ollama (local)", "options": { "baseURL": "http://localhost:11434/v1" }, "models": { "llama2": { "name": "Llama 2" } } } }}В этом примере:
ollama— это идентификатор пользовательского поставщика. Это может быть любая строка, которую вы хотите.npmуказывает пакет, который будет использоваться для этого поставщика. Здесь@ai-sdk/openai-compatibleиспользуется для любого API-интерфейса, совместимого с OpenAI.name— это отображаемое имя поставщика в пользовательском интерфейсе.options.baseURL— конечная точка локального сервера.models— это карта идентификаторов моделей с их конфигурациями. Название модели будет отображаться в списке выбора модели.
Ollama Cloud
Чтобы использовать Ollama Cloud с opencode:
-
Перейдите на https://ollama.com/ и войдите в систему или создайте учетную запись.
-
Перейдите в Настройки > Ключи и нажмите Добавить ключ API, чтобы создать новый ключ API.
-
Скопируйте ключ API для использования в opencode.
-
Запустите команду
/connectи найдите Ollama Cloud./connect -
Введите свой ключ API Ollama Cloud.
┌ API key││└ enter -
Важно. Перед использованием облачных моделей в opencode необходимо получить информацию о модели локально:
Окно терминала ollama pull gpt-oss:20b-cloud -
Запустите команду
/models, чтобы выбрать модель облака Ollama./models
OpenAI
Мы рекомендуем подписаться на ChatGPT Plus или Pro.
-
После регистрации выполните команду
/connectи выберите OpenAI./connect -
Здесь вы можете выбрать опцию ChatGPT Plus/Pro, и ваш браузер откроется. и попросите вас пройти аутентификацию.
┌ Select auth method││ ChatGPT Plus/Pro│ Manually enter API Key└ -
Теперь все модели OpenAI должны быть доступны при использовании команды
/models./models
Использование ключей API
Если у вас уже есть ключ API, вы можете выбрать Ввести ключ API вручную и вставить его в свой терминал.
OpenCode Zen
OpenCode Zen — это список протестированных и проверенных моделей, предоставленный командой opencode. Подробнее.
-
Войдите в систему OpenCode Zen и нажмите Создать ключ API.
-
Запустите команду
/connectи найдите OpenCode Zen./connect -
Введите свой ключ API opencode.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать такую модель, как Qwen 3 Coder 480B./models
OpenRouter
-
Перейдите на панель управления OpenRouter](https://openrouter.ai/settings/keys), нажмите Создать ключ API и скопируйте ключ.
-
Запустите команду
/connectи найдите OpenRouter./connect -
Введите ключ API для провайдера.
┌ API key││└ enter -
Многие модели OpenRouter предварительно загружены по умолчанию. Запустите команду
/models, чтобы выбрать нужную./modelsВы также можете добавить дополнительные модели через конфигурацию opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"somecoolnewmodel": {}}}}} -
Вы также можете настроить их через конфигурацию opencode. Вот пример указания провайдера
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
SAP AI Core
SAP AI Core предоставляет доступ к более чем 40 моделям от OpenAI, Anthropic, Google, Amazon, Meta, Mistral и AI21 через единую платформу.
-
Перейдите в SAP BTP Cockpit, перейдите к экземпляру службы SAP AI Core и создайте ключ службы.
-
Запустите команду
/connectи найдите SAP AI Core./connect -
Введите свой сервисный ключ в формате JSON.
┌ Service key││└ enterИли установите переменную среды
AICORE_SERVICE_KEY:Окно терминала AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeИли добавьте его в свой профиль bash:
~/.bash_profile export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' -
При необходимости укажите идентификатор развертывания и группу ресурсов:
Окно терминала AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode -
Запустите команду
/models, чтобы выбрать одну из более чем 40 доступных моделей./models
OVHcloud AI Endpoints
-
Перейдите к OVHcloud Panel. Перейдите в раздел
Public Cloud,AI & Machine Learning>AI Endpointsи на вкладкеAPI Keysнажмите Создать новый ключ API. -
Запустите команду
/connectи найдите Конечные точки OVHcloud AI./connect -
Введите ключ API конечных точек OVHcloud AI.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель типа gpt-oss-120b./models
Scaleway
Чтобы использовать Scaleway Generative APIs с opencode:
-
Перейдите к Настройки IAM консоли Scaleway, чтобы сгенерировать новый ключ API.
-
Запустите команду
/connectи найдите Scaleway./connect -
Введите ключ API Scaleway.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель, например devstral-2-123b-instruct-2512 или gpt-oss-120b./models
Together AI
-
Перейдите в консоль Together AI, создайте учетную запись и нажмите Добавить ключ.
-
Запустите команду
/connectи найдите Together AI./connect -
Введите ключ API Together AI.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать такую модель, как Kimi K2 Instruct./models
Venice AI
-
Перейдите к консоли Venice AI, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите Venice AI./connect -
Введите свой ключ API Venice AI.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель типа Llama 3.3 70B./models
Vercel AI Gateway
Vercel AI Gateway позволяет получать доступ к моделям OpenAI, Anthropic, Google, xAI и других источников через единую конечную точку. Модели предлагаются по прейскурантной цене без наценок.
-
Перейдите на панель мониторинга Vercel, перейдите на вкладку AI Gateway и нажмите Ключи API, чтобы создать новый ключ API.
-
Запустите команду
/connectи найдите Vercel AI Gateway./connect -
Введите ключ API Vercel AI Gateway.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель./models
Вы также можете настраивать модели через конфигурацию opencode. Ниже приведен пример указания порядка маршрутизации поставщика.
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}Некоторые полезные параметры маршрутизации:
| Вариант | Описание |
|---|---|
order | Последовательность провайдеров для попытки |
only | Ограничить конкретными провайдерами |
zeroDataRetention | Использовать только провайдеров с политикой нулевого хранения данных |
xAI
-
Перейдите на консоль xAI, создайте учетную запись и сгенерируйте ключ API.
-
Запустите команду
/connectи найдите xAI./connect -
Введите свой ключ API xAI.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать такую модель, как Grok Beta./models
Z.AI
-
Перейдите в консоль Z.AI API, создайте учетную запись и нажмите Создать новый ключ API.
-
Запустите команду
/connectи найдите Z.AI./connectЕсли вы подписаны на План кодирования GLM, выберите План кодирования Z.AI.
-
Введите свой ключ API Z.AI.
┌ API key││└ enter -
Запустите команду
/models, чтобы выбрать модель типа GLM-4.7./models
ZenMux
-
Перейдите на панель управления ZenMux, нажмите Создать ключ API и скопируйте ключ.
-
Запустите команду
/connectи найдите ZenMux./connect -
Введите ключ API для провайдера.
┌ API key││└ enter -
Многие модели ZenMux предварительно загружены по умолчанию. Запустите команду
/models, чтобы выбрать нужную./modelsВы также можете добавить дополнительные модели через конфигурацию opencode.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"zenmux": {"models": {"somecoolnewmodel": {}}}}}
Пользовательский поставщик
Чтобы добавить любого совместимого с OpenAI поставщика, не указанного в команде /connect:
-
Запустите команду
/connectи прокрутите вниз до пункта Другое.Окно терминала $ /connect┌ Add credential│◆ Select provider│ ...│ ● Other└ -
Введите уникальный идентификатор провайдера.
Окно терминала $ /connect┌ Add credential│◇ Enter provider id│ myprovider└:::примечание Выберите запоминающийся идентификатор, вы будете использовать его в своем файле конфигурации. :::
-
Введите свой ключ API для провайдера.
Окно терминала $ /connect┌ Add credential│▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.│◇ Enter your API key│ sk-...└ -
Создайте или обновите файл
opencode.jsonв каталоге вашего проекта:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}Вот варианты конфигурации:
- npm: используемый пакет AI SDK,
@ai-sdk/openai-compatibleдля поставщиков, совместимых с OpenAI. - имя: отображаемое имя в пользовательском интерфейсе.
- модели: Доступные модели.
- options.baseURL: URL-адрес конечной точки API.
- options.apiKey: при необходимости установите ключ API, если не используется аутентификация.
- options.headers: при необходимости можно установить собственные заголовки.
Подробнее о дополнительных параметрах в примере ниже.
- npm: используемый пакет AI SDK,
-
Запустите команду
/models, и ваш пользовательский поставщик и модели появятся в списке выбора.
Пример
Ниже приведен пример настройки параметров apiKey, headers и модели limit.
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}Детали конфигурации:
- apiKey: устанавливается с использованием синтаксиса переменной
env, подробнее . - заголовки: пользовательские заголовки, отправляемые с каждым запросом.
- limit.context: Максимальное количество входных токенов, которые принимает модель.
- limit.output: Максимальное количество токенов, которые может сгенерировать модель.
Поля limit позволяют opencode понять, сколько контекста у вас осталось. Стандартные поставщики автоматически извлекают их из models.dev.
Поиск неисправностей
Если у вас возникли проблемы с настройкой провайдера, проверьте следующее:
-
Проверьте настройку аутентификации: запустите
opencode auth list, чтобы проверить, верны ли учетные данные. для провайдера добавлены в ваш конфиг.Это не относится к таким поставщикам, как Amazon Bedrock, которые для аутентификации полагаются на переменные среды.
-
Для пользовательских поставщиков проверьте конфигурацию opencode и:
- Убедитесь, что идентификатор провайдера, используемый в команде
/connect, соответствует идентификатору в вашей конфигурации opencode. - Для провайдера используется правильный пакет npm. Например, используйте
@ai-sdk/cerebrasдля Cerebras. А для всех других поставщиков, совместимых с OpenAI, используйте@ai-sdk/openai-compatible. - Убедитесь, что в поле
options.baseURLиспользуется правильная конечная точка API.
- Убедитесь, что идентификатор провайдера, используемый в команде