Перейти к содержимому

Модели

Настройка поставщика и модели LLM.

opencode использует AI SDK и Models.dev для поддержки более 75 поставщиков LLM и поддерживает запуск локальных моделей.


Провайдеры

Большинство популярных провайдеров предварительно загружены по умолчанию. Если вы добавили учетные данные для поставщика с помощью команды /connect, они будут доступны при запуске opencode.

Узнайте больше о providers.


Выберите модель

После того, как вы настроили своего провайдера, вы можете выбрать нужную модель, введя:

/models

Рекомендуемые модели

Моделей очень много, новые выходят каждую неделю.

Однако лишь немногие из них хороши как в генерации кода, так и в вызове инструментов.

Вот несколько моделей, которые хорошо работают с opencode (в произвольном порядке). (Это не исчерпывающий список и не обязательно актуальный):

  • GPT 5.2
  • Кодекс GPT 5.1
  • Закрыть работу 4.5
  • Клод Сонет 4.5
  • Минимакс М2.1
  • Близнецы 3 Про

Установить значение по умолчанию

Чтобы установить одну из них в качестве модели по умолчанию, вы можете установить ключ model в вашем Конфигурация opencode.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}

Здесь полный идентификатор provider_id/model_id. Например, если вы используете OpenCode Zen, вы должны использовать opencode/gpt-5.1-codex для кодекса GPT 5.1.

Если вы настроили пользовательский поставщик, provider_id — это ключ из части provider вашей конфигурации, а model_id — это ключ из provider.models.


Настройка моделей

Вы можете глобально настроить параметры модели через файл config.

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}

Здесь мы настраиваем глобальные параметры для двух встроенных моделей: gpt-5 при доступе через поставщика openai и claude-sonnet-4-20250514 при доступе через поставщика anthropic. Названия встроенных поставщиков и моделей можно найти на сайте Models.dev.

Вы также можете настроить эти параметры для любых используемых вами агентов. Конфигурация агента переопределяет любые глобальные параметры здесь. Подробнее.

Вы также можете определить собственные варианты, расширяющие встроенные. Варианты позволяют настраивать разные параметры для одной и той же модели без создания повторяющихся записей:

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}

Варианты

Многие модели поддерживают несколько вариантов с разными конфигурациями. opencode поставляется со встроенными вариантами по умолчанию для популярных провайдеров.

Встроенные варианты

opencode поставляется с вариантами по умолчанию для многих провайдеров:

Антропный:

  • high — Бюджет с высоким мышлением (по умолчанию)
  • max — Максимальный бюджет мышления

OpenAI:

Зависит от модели, но примерно:

  • none — Никаких рассуждений.
  • minimal — Минимальные усилия рассуждения
  • low — Низкие усилия по рассуждению.
  • medium – средние усилия рассуждения.
  • high — Большие усилия по рассуждению.
  • xhigh — сверхвысокие мыслительные усилия.

Google:

  • low – меньший бюджет усилий/токенов.
  • high — более высокий бюджет усилий/токенов

Пользовательские варианты

Вы можете переопределить существующие варианты или добавить свои собственные:

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}

Варианты цикла

Используйте сочетание клавиш variant_cycle для быстрого переключения между вариантами. Подробнее .


Загрузка моделей

Когда opencode запускается, он проверяет модели в следующем порядке приоритета:

  1. CLI-флаг --model или -m. Формат тот же, что и в файле конфигурации: provider_id/model_id.

  2. Список моделей в конфигурации opencode.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "model": "anthropic/claude-sonnet-4-20250514"
    }

    Здесь используется формат provider/model.

  3. Последняя использованная модель.

  4. Первая модель, использующая внутренний приоритет.