İçeriğe geç

Sağlayıcılar

opencode'da herhangi bir LLM sağlayıcısını kullanma.

opencode, 75’ten fazla LLM sağlayıcısını desteklemek için AI SDK ve Models.dev kullanır ve yerel modellerin çalıştırılmasını destekler.

Bir sağlayıcı eklemek için şunları yapmanız gerekir:

  1. /connect komutunu kullanarak sağlayıcı için API anahtarlarını ekleyin.
  2. Sağlayıcıyı opencode yapılandırmanızda yapılandırın.

Credentials

Bir sağlayıcının API anahtarlarını /connect komutuyla eklediğinizde, bunlar saklanır ~/.local/share/opencode/auth.json içinde.


Config

Sağlayıcıları opencode’unuzdaki provider bölümü aracılığıyla özelleştirebilirsiniz. config.


Base URL

baseURL seçeneğini ayarlayarak URL tabanını herhangi bir sağlayıcı için özelleştirebilirsiniz. Bu, proxy hizmetlerini veya özel uç noktaları kullanırken kullanışlıdır.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen, opencode ekibi tarafından sağlanan modellerin bir listesidir. opencode ile iyi çalıştığı test edilip doğrulandı. Daha fazla bilgi.

  1. TUI’de /connect komutunu çalıştırın, opencode’u seçin ve opencode.ai/auth’ye gidin.

    /connect
  2. Oturum açın, fatura ayrıntılarınızı ekleyin ve API anahtarınızı kopyalayın.

  3. API anahtarınızı yapıştırın.

    ┌ API key
    └ enter
  4. Önerdiğimiz modellerin listesini görmek için TUI’de /models komutunu çalıştırın.

    /models

opencode’daki diğer sağlayıcılar gibi çalışır ve kullanımı tamamen isteğe bağlıdır.


Dizin

Sağlayıcılardan bazılarına ayrıntılı olarak bakalım. Bir sağlayıcı eklemek istiyorsanız liste, bir PR açmaktan çekinmeyin.


302.AI

  1. 302.AI console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve 302.AI’yi arayın.

    /connect
  3. 302.AI API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Bir model seçmek için /models komutunu çalıştırın.

    /models

Amazon Bedrock

Amazon Bedrock’u opencode ile kullanmak için:

  1. Amazon Bedrock konsolundaki Model kataloğuna gidin ve istekte bulunun Dilediğiniz modellere ulaşabilirsiniz.

  2. Kimlik doğrulamayı yapılandırın: Aşağıdaki yöntemlerden birini kullanın:

    Ortam Değişkenleri (Hızlı Başlangıç)

    Set one of these environment variables while running opencode:

    Terminal window
    # Option 1: Using AWS access keys
    AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
    # Option 2: Using named AWS profile
    AWS_PROFILE=my-profile opencode
    # Option 3: Using Bedrock bearer token
    AWS_BEARER_TOKEN_BEDROCK=XXX opencode

    Veya bunları bash profilinize ekleyin:

    ~/.bash_profile
    export AWS_PROFILE=my-dev-profile
    export AWS_REGION=us-east-1

    Yapılandırma Dosyası (Önerilen)

    Projeye özel veya kalıcı yapılandırma için opencode.json kullanın:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "my-aws-profile"
    }
    }
    }
    }

    Mevcut seçenekler:

    • region - AWS region (e.g., us-east-1, eu-west-1)
    • profile - ~/.aws/credentials’den AWS adlı profil
    • endpoint - VPC uç noktaları için özel uç nokta URL (genel baseURL seçeneğinin takma adı)

    Advanced: VPC Endpoints

    Bedrock için VPC uç noktaları kullanıyorsanız:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "production",
    "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
    }
    }
    }
    }

    Authentication Methods

    • AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY: Bir IAM kullanıcısı oluşturun ve AWS Konsolunda erişim anahtarları oluşturun
    • AWS_PROFILE: ~/.aws/credentials’den adlandırılmış profilleri kullanın. İlk önce aws configure --profile my-profile veya aws sso login ile yapılandırın
    • AWS_BEARER_TOKEN_BEDROCK: Amazon Bedrock konsolundan uzun vadeli API anahtarları oluşturun
    • AWS_WEB_IDENTITY_TOKEN_FILE / AWS_ROLE_ARN: EKS IRSA (IAM Hizmet Hesapları için Roller) veya OIDC federasyonuna sahip diğer Kubernetes ortamları için. Bu ortam değişkenleri, hizmet hesabı ek açıklamaları kullanılırken Kubernetes tarafından otomatik olarak eklenir.

    Authentication Precedence

    Amazon Bedrock aşağıdaki kimlik doğrulama önceliğini kullanır:

    1. Taşıyıcı Belirteç - AWS_BEARER_TOKEN_BEDROCK ortam değişkeni veya /connect komutundan belirteç
    2. AWS Credential Chain - Profile, access keys, shared credentials, IAM roles, Web Identity Tokens (EKS IRSA), instance metadata
  3. İstediğiniz modeli seçmek için /models komutunu çalıştırın.

    /models

Anthropic

  1. Kaydolduktan sonra /connect komutunu çalıştırın ve Anthropic’i seçin.

    /connect
  2. Burada Claude Pro/Max seçeneğini seçebilirsiniz; tarayıcınız açılacaktır. ve sizden kimlik doğrulamanızı isteyeceğiz.

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. Artık /models komutunu kullandığınızda tüm Antropik modeller mevcut olmalıdır.

    /models

Claude Pro/Max aboneliğinizi opencode’da kullanmak Anthropic tarafından resmi olarak desteklenmemektedir.

API tuşlarını kullanma

Pro/Max aboneliğiniz yoksa API Anahtarı Oluştur seçeneğini de seçebilirsiniz. Ayrıca tarayıcınızı açacak ve Anthropic’te oturum açmanızı isteyecek ve terminalinize yapıştırabileceğiniz bir kod verecektir.

Veya zaten bir API anahtarınız varsa API Anahtarını Manuel Olarak Girin seçeneğini seçip terminalinize yapıştırabilirsiniz.


Azure OpenAI

  1. Azure portal’a gidin ve bir Azure OpenAI kaynağı oluşturun. İhtiyacınız olacak:

    • Kaynak adı: Bu, API bitiş noktanızın (https://RESOURCE_NAME.openai.azure.com/) parçası olur
    • API anahtarı: Kaynağınızdan KEY 1 veya KEY 2
  2. Azure AI Foundry’a gidin ve bir model dağıtın.

  3. /connect komutunu çalıştırın ve Azure’u arayın.

    /connect
  4. API anahtarınızı girin.

    ┌ API key
    └ enter
  5. Kaynak adınızı ortam değişkeni olarak ayarlayın:

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

    Veya bash profilinize ekleyin:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. Dağıtılan modelinizi seçmek için /models komutunu çalıştırın.

    /models

Azure Cognitive Services

  1. Azure portal’a gidin ve bir Azure OpenAI kaynağı oluşturun. İhtiyacınız olacak:

    • Kaynak adı: Bu, API bitiş noktanızın (https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) parçası olur
    • API anahtarı: Kaynağınızdan KEY 1 veya KEY 2
  2. Azure AI Foundry’a gidin ve bir model dağıtın.

  3. /connect komutunu çalıştırın ve Azure Bilişsel Hizmetler’i arayın.

    /connect
  4. API anahtarınızı girin.

    ┌ API key
    └ enter
  5. Kaynak adınızı ortam değişkeni olarak ayarlayın:

    Terminal window
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

    Veya bash profilinize ekleyin:

    ~/.bash_profile
    export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  6. Dağıtılan modelinizi seçmek için /models komutunu çalıştırın.

    /models

Baseten

  1. Baseten adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve Baseten’i arayın.

    /connect
  3. Baseten API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Bir model seçmek için /models komutunu çalıştırın.

    /models

Cerebras

  1. Cerebras console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve Cerebras’ı arayın.

    /connect
  3. Cerebras API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Qwen 3 Coder 480B gibi bir model seçmek için /models komutunu çalıştırın.

    /models

Cloudflare AI Gateway

Cloudflare AI Gateway, OpenAI, Anthropic, Workers AI ve daha fazlasındaki modellere birleşik bir uç nokta aracılığıyla erişmenizi sağlar. Unified Billing ile her sağlayıcı için ayrı API anahtarlarına ihtiyacınız yoktur.

  1. Cloudflare dashboard’a gidin, AI > AI Ağ Geçidi’ne gidin ve yeni bir ağ geçidi oluşturun.

  2. Hesap Kimliğinizi ve Ağ Geçidi Kimliğinizi ortam değişkenleri olarak ayarlayın.

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. /connect komutunu çalıştırın ve Cloudflare AI Gateway’i arayın.

    /connect
  4. Cloudflare API jetonunuzu girin.

    ┌ API key
    └ enter

    Or set it as an environment variable.

    ~/.bash_profile
    export CLOUDFLARE_API_TOKEN=your-api-token
  5. Bir model seçmek için /models komutunu çalıştırın.

    /models

    Opencode yapılandırmanız aracılığıyla da modeller ekleyebilirsiniz.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "cloudflare-ai-gateway": {
    "models": {
    "openai/gpt-4o": {},
    "anthropic/claude-sonnet-4": {}
    }
    }
    }
    }

Cortecs

  1. Cortecs console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve Cortecs’i arayın.

    /connect
  3. Cortecs API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Kimi K2 Instruct gibi bir model seçmek için /models komutunu çalıştırın.

    /models

DeepSeek

  1. DeepSeek console’a gidin, bir hesap oluşturun ve Yeni API anahtarı oluştur’a tıklayın.

  2. /connect komutunu çalıştırın ve DeepSeek’i arayın.

    /connect
  3. DeepSeek API anahtarınızı girin.

    ┌ API key
    └ enter
  4. DeepSeek Reasoner gibi bir DeepSeek modeli seçmek için /models komutunu çalıştırın.

    /models

Deep Infra

  1. Deep Infra dashboard adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve Deep Infra’yı arayın.

    /connect
  3. Deep Infra API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Bir model seçmek için /models komutunu çalıştırın.

    /models

Firmware

  1. Firmware dashboard adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve Firmware’i arayın.

    /connect
  3. Firmware API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Bir model seçmek için /models komutunu çalıştırın.

    /models

Fireworks AI

  1. Fireworks AI console’a gidin, bir hesap oluşturun ve API Anahtarı Oluştur’a tıklayın.

  2. /connect komutunu çalıştırın ve Fireworks AI’yi arayın.

    /connect
  3. Fireworks AI API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Kimi K2 Instruct gibi bir model seçmek için /models komutunu çalıştırın.

    /models

GitLab Duo

GitLab Duo, GitLab’ın Anthropic proxy’si aracılığıyla yerel araç çağırma yetenekleriyle yapay zeka destekli aracılı sohbet sağlar.

  1. /connect komutunu çalıştırın ve GitLab’ı seçin.

    /connect
  2. Kimlik doğrulama yönteminizi seçin:

    ┌ Select auth method
    │ OAuth (Recommended)
    │ Personal Access Token

    OAuth Kullanımı (Önerilen)

    OAuth’u seçtiğinizde tarayıcınız yetkilendirme için açılacaktır.

    Kişisel Erişim Simgesini Kullanma

    1. Go to GitLab User Settings > Access Tokens
    2. Click Add new token
    3. Name: OpenCode, Scopes: api
    4. Belirteci kopyalayın (glpat- ile başlar)
    5. Terminale girin
  3. Mevcut modelleri görmek için /models komutunu çalıştırın.

    /models

    Üç Claude tabanlı model mevcuttur:

    • duo-chat-haiku-4-5 (Varsayılan) - Hızlı görevler için hızlı yanıtlar
    • duo-chat-sonnet-4-5 - Çoğu iş akışı için dengeli performans
    • duo-chat-opus-4-5 - Karmaşık analizler için en yeteneklisi
Self-Hosted GitLab

Şirket içinde barındırılan GitLab örnekleri için:

Terminal window
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_TOKEN=glpat-...

Örneğiniz özel bir AI Ağ Geçidi çalıştırıyorsa:

Terminal window
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com

Veya bash profilinize ekleyin:

~/.bash_profile
export GITLAB_INSTANCE_URL=https://gitlab.company.com
export GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.com
export GITLAB_TOKEN=glpat-...
Kendi Kendine Barındırılan örnekler için OAuth

Oauth’un kendi kendine barındırılan örneğiniz için çalışmasını sağlamak amacıyla yeni bir uygulama (Ayarlar → Uygulamalar) ile geri arama URL http://127.0.0.1:8080/callback ve aşağıdaki kapsamlar:

  • api (Sizin adınıza API’a erişin)
  • read_user (Kişisel bilgilerinizi okuyun)
  • read_repository (Depoya salt okunur erişime izin verir)

Then expose application ID as environment variable:

Terminal window
export GITLAB_OAUTH_CLIENT_ID=your_application_id_here

Daha fazla belge opencode-gitlab-auth ana sayfasında.

Configuration

Customize through opencode.json:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"gitlab": {
"options": {
"instanceUrl": "https://gitlab.com",
"featureFlags": {
"duo_agent_platform_agentic_chat": true,
"duo_agent_platform": true
}
}
}
}
}

To access GitLab tools (merge requests, issues, pipelines, CI/CD, etc.):

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"plugin": ["@gitlab/opencode-gitlab-plugin"]
}

Bu eklenti, MR incelemeleri, sorun izleme, işlem hattı izleme ve daha fazlasını içeren kapsamlı GitLab veri havuzu yönetimi yetenekleri sağlar.


GitHub Copilot

GitHub Copilot aboneliğinizi opencode’la kullanmak için:

  1. /connect komutunu çalıştırın ve GitHub Copilot’u arayın.

    /connect
  2. github.com/login/device’a gidin ve kodu girin.

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. Şimdi istediğiniz modeli seçmek için /models komutunu çalıştırın.

    /models

Google Vertex AI

Google Vertex AI’yi opencode ile kullanmak için:

  1. Google Cloud Console’daki Model Bahçesi’ne gidin ve şunları kontrol edin: Bölgenizde mevcut modeller.

  2. Gerekli ortam değişkenlerini ayarlayın:

    • GOOGLE_CLOUD_PROJECT: Google Cloud proje kimliğiniz
    • VERTEX_LOCATION (isteğe bağlı): Vertex AI bölgesi (varsayılanı global’dir)
    • Authentication (choose one):
      • GOOGLE_APPLICATION_CREDENTIALS: Hizmet hesabınızın yolu JSON anahtar dosyası
      • gcloud kullanarak kimlik doğrulaması yapın CLI: gcloud auth application-default login

    Set them while running opencode.

    Terminal window
    GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode

    Veya bunları bash profilinize ekleyin.

    ~/.bash_profile
    export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
    export GOOGLE_CLOUD_PROJECT=your-project-id
    export VERTEX_LOCATION=global
  1. İstediğiniz modeli seçmek için /models komutunu çalıştırın.

    /models

Groq

  1. Groq console’a gidin, API Anahtarı Oluştur’a tıklayın ve anahtarı kopyalayın.

  2. /connect komutunu çalıştırın ve Groq’u arayın.

    /connect
  3. Sağlayıcının API anahtarını girin.

    ┌ API key
    └ enter
  4. İstediğinizi seçmek için /models komutunu çalıştırın.

    /models

Hugging Face

Hugging Face Inference Providers 17’den fazla sağlayıcı tarafından desteklenen açık modellere erişim sağlar.

  1. Çıkarım Sağlayıcılara çağrı yapma iznine sahip bir belirteç oluşturmak için Hugging Face settings adresine gidin.

  2. /connect komutunu çalıştırın ve Sarılma Yüzünü arayın.

    /connect
  3. Hugging Face jetonunuzu girin.

    ┌ API key
    └ enter
  4. Kimi-K2-Instruct veya GLM-4.6 gibi bir model seçmek için /models komutunu çalıştırın.

    /models

Helicone

Helicone, AI uygulamalarınız için günlük kaydı, izleme ve analiz sağlayan bir LLM gözlemlenebilirlik platformudur. Helicone AI Gateway, taleplerinizi modele göre otomatik olarak uygun sağlayıcıya yönlendirir.

  1. Helicone adresine gidin, bir hesap oluşturun ve kontrol panelinizden bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve Helicone’yu arayın.

    /connect
  3. Helicone API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Bir model seçmek için /models komutunu çalıştırın.

    /models

Daha fazla sağlayıcı ve önbelleğe alma ve hız sınırlama gibi gelişmiş özellikler için Helicone documentation’yi kontrol edin.

Optional Configs

Helicone’un opencode aracılığıyla otomatik olarak yapılandırılmayan bir özelliği veya modelini görmeniz durumunda bunu her zaman kendiniz yapılandırabilirsiniz.

İşte Helicone’s Model Directory, eklemek istediğiniz modellerin kimliklerini almak için buna ihtiyacınız olacak.

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Model ID (from Helicone's model directory page)
"name": "GPT-4o", // Your own custom name for the model
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}

Custom Headers

Helicone, önbelleğe alma, kullanıcı izleme ve oturum yönetimi gibi özellikler için özel başlıkları destekler. options.headers kullanarak bunları sağlayıcınızın yapılandırmasına ekleyin:

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
Oturum izleme

Helicone’un Sessions özelliği, ilgili LLM isteklerini birlikte gruplandırmanıza olanak tanır. Her opencode görüşmesini Helicone’da bir oturum olarak otomatik olarak kaydetmek için opencode-helicone-session eklentisini kullanın.

Terminal window
npm install -g opencode-helicone-session

Yapılandırmanıza ekleyin.

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

Eklenti isteklerinize Helicone-Session-Id ve Helicone-Session-Name başlıklarını enjekte eder. Helicone’un Oturumlar sayfasında her opencode görüşmesinin ayrı bir oturum olarak listelendiğini göreceksiniz.

Common Helicone headers
BaşlıkAçıklama
Helicone-Cache-EnabledEnable response caching (true/false)
Helicone-User-IdTrack metrics by user
Helicone-Property-[Name]Add custom properties (e.g., Helicone-Property-Environment)
Helicone-Prompt-Idİstekleri bilgi istemi sürümleriyle ilişkilendirin

Mevcut tüm başlıklar için Helicone Header Directory’a bakın.


llama.cpp

opencode’u yerel modelleri kullanacak şekilde llama.cpp’s llama-server yardımcı programını kullanarak yapılandırabilirsiniz.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

Bu örnekte:

  • llama.cpp özel sağlayıcı kimliğidir. Bu istediğiniz herhangi bir dize olabilir.
  • npm bu sağlayıcı için kullanılacak paketi belirtir. Burada @ai-sdk/openai-compatible, herhangi bir OpenAI uyumlu API için kullanılır.
  • name sağlayıcının kullanıcı arayüzündeki görünen adıdır.
  • options.baseURL yerel sunucunun uç noktasıdır.
  • models model kimliklerinin konfigürasyonlarına ait bir haritasıdır. Model adı, model seçim listesinde görüntülenecektir.

IO.NET

IO.NET, çeşitli kullanım durumları için optimize edilmiş 17 model sunar:

  1. IO.NET console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve IO.NET öğesini arayın.

    /connect
  3. IO.NET API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Bir model seçmek için /models komutunu çalıştırın.

    /models

LM Studio

LM Studio aracılığıyla opencode’u yerel modelleri kullanacak şekilde yapılandırabilirsiniz.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

Bu örnekte:

  • lmstudio özel sağlayıcı kimliğidir. Bu istediğiniz herhangi bir dize olabilir.
  • npm bu sağlayıcı için kullanılacak paketi belirtir. Burada @ai-sdk/openai-compatible, herhangi bir OpenAI uyumlu API için kullanılır.
  • name sağlayıcının kullanıcı arayüzündeki görünen adıdır.
  • options.baseURL yerel sunucunun uç noktasıdır.
  • models model kimliklerinin konfigürasyonlarına ait bir haritasıdır. Model adı, model seçim listesinde görüntülenecektir.

Moonshot AI

Moonshot AI’dan Kimi K2’yi kullanmak için:

  1. Moonshot AI console’a gidin, bir hesap oluşturun ve API anahtarı oluştur’a tıklayın.

  2. /connect komutunu çalıştırın ve Moonshot AI’yi arayın.

    /connect
  3. Moonshot API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Kimi K2 seçmek için /models komutunu çalıştırın.

    /models

MiniMax

  1. MiniMax API Console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve MiniMax’ı arayın.

    /connect
  3. MiniMax API anahtarınızı girin.

    ┌ API key
    └ enter
  4. M2.1 gibi bir model seçmek için /models komutunu çalıştırın.

    /models

Nebius Token Factory

  1. Nebius Token Factory console’a gidin, bir hesap oluşturun ve Anahtar Ekle’ye tıklayın.

  2. /connect komutunu çalıştırın ve Nebius Token Factory’yi arayın.

    /connect
  3. Nebius Token Factory API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Kimi K2 Instruct gibi bir model seçmek için /models komutunu çalıştırın.

    /models

Ollama

Ollama aracılığıyla opencode’u yerel modelleri kullanacak şekilde yapılandırabilirsiniz.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

Bu örnekte:

  • ollama özel sağlayıcı kimliğidir. Bu istediğiniz herhangi bir dize olabilir.
  • npm bu sağlayıcı için kullanılacak paketi belirtir. Burada @ai-sdk/openai-compatible, herhangi bir OpenAI uyumlu API için kullanılır.
  • name sağlayıcının kullanıcı arayüzündeki görünen adıdır.
  • options.baseURL yerel sunucunun uç noktasıdır.
  • models model kimliklerinin konfigürasyonlarına ait bir haritasıdır. Model adı, model seçim listesinde görüntülenecektir.

Ollama Cloud

Ollama Cloud’u opencode ile kullanmak için:

  1. https://ollama.com/ adresine gidin ve oturum açın veya bir hesap oluşturun.

  2. Ayarlar > Anahtarlar’a gidin ve yeni bir API anahtarı oluşturmak için API Anahtarı Ekle’yi tıklayın.

  3. opencode’da kullanmak için API anahtarını kopyalayın.

  4. /connect komutunu çalıştırın ve Ollama Cloud’u arayın.

    /connect
  5. Ollama Cloud API anahtarınızı girin.

    ┌ API key
    └ enter
  6. Önemli: opencode’da bulut modellerini kullanmadan önce model bilgilerini yerel olarak almanız gerekir:

    Terminal window
    ollama pull gpt-oss:20b-cloud
  7. Ollama Cloud modelinizi seçmek için /models komutunu çalıştırın.

    /models

OpenAI

ChatGPT Plus or Pro’a kaydolmanızı öneririz.

  1. Kaydolduktan sonra /connect komutunu çalıştırın ve OpenAI’yi seçin.

    /connect
  2. Burada ChatGPT Plus/Pro seçeneğini seçebilirsiniz, tarayıcınız açılacaktır. ve sizden kimlik doğrulamanızı isteyeceğiz.

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. Artık /models komutunu kullandığınızda tüm OpenAI modelleri mevcut olmalıdır.

    /models
API tuşlarını kullanma

Zaten bir API anahtarınız varsa, API Anahtarını Manuel Olarak Girin seçeneğini seçip terminalinize yapıştırabilirsiniz.


OpenCode Zen

OpenCode Zen, opencode ekibinin test edip doğruladığı modellerin bir listesidir. Daha fazla bilgi.

  1. OpenCode Zen’de oturum açın ve API Anahtarı Oluştur’u tıklayın.

  2. /connect komutunu çalıştırın ve OpenCode Zen’i arayın.

    /connect
  3. opencode API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Qwen 3 Coder 480B gibi bir model seçmek için /models komutunu çalıştırın.

    /models

OpenRouter

  1. OpenRouter dashboard’a gidin, API Anahtarı Oluştur’a tıklayın ve anahtarı kopyalayın.

  2. /connect komutunu çalıştırın ve OpenRouter’ı arayın.

    /connect
  3. Sağlayıcının API anahtarını girin.

    ┌ API key
    └ enter
  4. Birçok OpenRouter modeli varsayılan olarak önceden yüklenmiştir; istediğiniz modeli seçmek için /models komutunu çalıştırın.

    /models

    opencode yapılandırmanız aracılığıyla ek modeller de ekleyebilirsiniz.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }
  5. Bunları ayrıca opencode yapılandırmanız aracılığıyla da özelleştirebilirsiniz. Burada bir sağlayıcı belirtmeye ilişkin bir örnek verilmiştir

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI Core, birleşik bir platform aracılığıyla OpenAI, Anthropic, Google, Amazon, Meta, Mistral ve AI21’den 40’tan fazla modele erişim sağlar.

  1. SAP BTP Cockpit sunucunuza gidin, SAP AI Core hizmet örneğinize gidin ve bir hizmet anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve SAP AI Core arayın.

    /connect
  3. Servis anahtarınızı JSON girin.

    ┌ Service key
    └ enter

    Veya AICORE_SERVICE_KEY ortam değişkenini ayarlayın:

    Terminal window
    AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

    Veya bash profilinize ekleyin:

    ~/.bash_profile
    export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  4. İsteğe bağlı olarak dağıtım kimliğini ve kaynak grubunu ayarlayın:

    Terminal window
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  5. 40’tan fazla mevcut model arasından seçim yapmak için /models komutunu çalıştırın.

    /models

OVHcloud AI Endpoints

  1. OVHcloud panel’a gidin. Public Cloud bölümüne gidin, AI & Machine Learning > AI Endpoints ve API Keys sekmesinde Yeni bir API anahtarı oluştur’u tıklayın.

  2. /connect komutunu çalıştırın ve OVHcloud AI Endpoints’i arayın.

    /connect
  3. OVHcloud AI Uç Noktaları API anahtarınızı girin.

    ┌ API key
    └ enter
  4. gpt-oss-120b gibi bir model seçmek için /models komutunu çalıştırın.

    /models

Scaleway

Scaleway Generative APIs’yi Opencode ile kullanmak için:

  1. Yeni bir API anahtarı oluşturmak için Scaleway Console IAM settings’a gidin.

  2. /connect komutunu çalıştırın ve Scaleway’i arayın.

    /connect
  3. Scaleway API anahtarınızı girin.

    ┌ API key
    └ enter
  4. devstral-2-123b-instruct-2512 veya gpt-oss-120b gibi bir model seçmek için /models komutunu çalıştırın.

    /models

Together AI

  1. Together AI console’a gidin, bir hesap oluşturun ve Anahtar Ekle’ye tıklayın.

  2. /connect komutunu çalıştırın ve Together AI’yi arayın.

    /connect
  3. Together AI API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Kimi K2 Instruct gibi bir model seçmek için /models komutunu çalıştırın.

    /models

Venice AI

  1. Venice AI console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve Venice AI’yi arayın.

    /connect
  3. Venice AI API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Llama 3.3 70B gibi bir model seçmek için /models komutunu çalıştırın.

    /models

Vercel AI Gateway

Vercel AI Gateway, OpenAI, Anthropic, Google, xAI ve daha fazlasındaki modellere birleşik bir uç nokta aracılığıyla erişmenizi sağlar. Modeller herhangi bir fark olmadan liste fiyatıyla sunulmaktadır.

  1. Vercel dashboard’a gidin, AI Ağ Geçidi sekmesine gidin ve yeni bir API anahtarı oluşturmak için API anahtarlarına tıklayın.

  2. /connect komutunu çalıştırın ve Vercel AI Gateway’i arayın.

    /connect
  3. Vercel AI Gateway API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Bir model seçmek için /models komutunu çalıştırın.

    /models

Modelleri opencode yapılandırmanız aracılığıyla da özelleştirebilirsiniz. Sağlayıcı yönlendirme sırasını belirtmeye ilişkin bir örneği burada bulabilirsiniz.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

Some useful routing options:

SeçenekAçıklama
orderDenenecek sağlayıcı sırası
onlyRestrict to specific providers
zeroDataRetentionYalnızca sıfır veri saklama politikasına sahip sağlayıcıları kullanın

xAI

  1. xAI console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.

  2. /connect komutunu çalıştırın ve xAI’yi arayın.

    /connect
  3. xAI API anahtarınızı girin.

    ┌ API key
    └ enter
  4. Grok Beta gibi bir model seçmek için /models komutunu çalıştırın.

    /models

Z.AI

  1. Z.AI API console’a gidin, bir hesap oluşturun ve Yeni bir API anahtarı oluştur’a tıklayın.

  2. /connect komutunu çalıştırın ve Z.AI’yi arayın.

    /connect

    GLM Kodlama Planı’na aboneyseniz Z.AI Kodlama Planı’nı seçin.

  3. Z.AI API anahtarınızı girin.

    ┌ API key
    └ enter
  4. GLM-4.7 gibi bir model seçmek için /models komutunu çalıştırın.

    /models

ZenMux

  1. ZenMux dashboard’a gidin, API Anahtarı Oluştur’a tıklayın ve anahtarı kopyalayın.

  2. /connect komutunu çalıştırın ve ZenMux’u arayın.

    /connect
  3. Sağlayıcının API anahtarını girin.

    ┌ API key
    └ enter
  4. Çoğu ZenMux modeli varsayılan olarak önceden yüklenmiştir; istediğinizi seçmek için /models komutunu çalıştırın.

    /models

    opencode yapılandırmanız aracılığıyla ek modeller de ekleyebilirsiniz.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "zenmux": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }

Özel sağlayıcı

/connect komutunda listelenmeyen herhangi bir OpenAI uyumlu sağlayıcıyı eklemek için:

  1. /connect komutunu çalıştırın ve Diğer seçeneğine ilerleyin.

    Terminal window
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. Sağlayıcı için benzersiz bir kimlik girin.

    Terminal window
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. Sağlayıcı için API anahtarınızı girin.

    Terminal window
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
    Enter your API key
    sk-...
  4. Proje dizininizde opencode.json dosyanızı oluşturun veya güncelleyin:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

    Yapılandırma seçenekleri şunlardır:

    • npm: Kullanılacak AI SDK paketi, OpenAI uyumlu sağlayıcılar için @ai-sdk/openai-compatible
    • name: Display name in UI.
    • modeller: Mevcut modeller.
    • options.baseURL: API endpoint URL.
    • options.apiKey: Kimlik doğrulama kullanılmıyorsa isteğe bağlı olarak API anahtarını ayarlayın.
    • options.headers: Optionally set custom headers.

    Aşağıdaki örnekte gelişmiş seçenekler hakkında daha fazla bilgi bulabilirsiniz.

  5. /models komutunu çalıştırın; özel sağlayıcınız ve modelleriniz seçim listesinde görünecektir.


Example

Burada apiKey, headers ve model limit seçeneklerini ayarlayan bir örnek verilmiştir.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

Configuration details:

  • apiKey: env değişken söz dizimini kullanarak ayarlayın, learn more.
  • başlıklar: Her istekle birlikte gönderilen özel başlıklar.
  • limit.context: Modelin kabul ettiği maksimum giriş jetonları.
  • limit.output: Modelin üretebileceği maksimum jeton sayısı.

limit alanları opencode’un ne kadar bağlamınız kaldığını anlamasını sağlar. Standart sağlayıcılar bunları models.dev’den otomatik olarak alır.


Troubleshooting

Sağlayıcıyı yapılandırma konusunda sorun yaşıyorsanız aşağıdakileri kontrol edin:

  1. Kimlik doğrulama kurulumunu kontrol edin: Kimlik bilgilerinin geçerli olup olmadığını görmek için opencode auth list komutunu çalıştırın. sağlayıcı için yapılandırmanıza eklenir.

    Bu, kimlik doğrulaması için ortam değişkenlerine güvenen Amazon Bedrock gibi sağlayıcılar için geçerli değildir.

  2. Özel sağlayıcılar için opencode yapılandırmasını kontrol edin ve:

    • /connect komutunda kullanılan sağlayıcı kimliğinin, opencode yapılandırmanızdaki kimlikle eşleştiğinden emin olun.
    • Sağlayıcı için doğru npm paketi kullanılıyor. Örneğin Cerebras için @ai-sdk/cerebras kullanın. Diğer tüm OpenAI uyumlu sağlayıcılar için @ai-sdk/openai-compatible kullanın.
    • options.baseURL alanında doğru API bitiş noktasının kullanıldığını kontrol edin.