Sağlayıcılar
opencode'da herhangi bir LLM sağlayıcısını kullanma.
opencode, 75’ten fazla LLM sağlayıcısını desteklemek için AI SDK ve Models.dev kullanır ve yerel modellerin çalıştırılmasını destekler.
Bir sağlayıcı eklemek için şunları yapmanız gerekir:
/connectkomutunu kullanarak sağlayıcı için API anahtarlarını ekleyin.- Sağlayıcıyı opencode yapılandırmanızda yapılandırın.
Credentials
Bir sağlayıcının API anahtarlarını /connect komutuyla eklediğinizde, bunlar saklanır
~/.local/share/opencode/auth.json içinde.
Config
Sağlayıcıları opencode’unuzdaki provider bölümü aracılığıyla özelleştirebilirsiniz.
config.
Base URL
baseURL seçeneğini ayarlayarak URL tabanını herhangi bir sağlayıcı için özelleştirebilirsiniz. Bu, proxy hizmetlerini veya özel uç noktaları kullanırken kullanışlıdır.
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}OpenCode Zen
OpenCode Zen, opencode ekibi tarafından sağlanan modellerin bir listesidir. opencode ile iyi çalıştığı test edilip doğrulandı. Daha fazla bilgi.
-
TUI’de
/connectkomutunu çalıştırın, opencode’u seçin ve opencode.ai/auth’ye gidin./connect -
Oturum açın, fatura ayrıntılarınızı ekleyin ve API anahtarınızı kopyalayın.
-
API anahtarınızı yapıştırın.
┌ API key││└ enter -
Önerdiğimiz modellerin listesini görmek için TUI’de
/modelskomutunu çalıştırın./models
opencode’daki diğer sağlayıcılar gibi çalışır ve kullanımı tamamen isteğe bağlıdır.
Dizin
Sağlayıcılardan bazılarına ayrıntılı olarak bakalım. Bir sağlayıcı eklemek istiyorsanız liste, bir PR açmaktan çekinmeyin.
302.AI
-
302.AI console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve 302.AI’yi arayın./connect -
302.AI API anahtarınızı girin.
┌ API key││└ enter -
Bir model seçmek için
/modelskomutunu çalıştırın./models
Amazon Bedrock
Amazon Bedrock’u opencode ile kullanmak için:
-
Amazon Bedrock konsolundaki Model kataloğuna gidin ve istekte bulunun Dilediğiniz modellere ulaşabilirsiniz.
-
Kimlik doğrulamayı yapılandırın: Aşağıdaki yöntemlerden birini kullanın:
Ortam Değişkenleri (Hızlı Başlangıç)
Set one of these environment variables while running opencode:
Terminal window # Option 1: Using AWS access keysAWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode# Option 2: Using named AWS profileAWS_PROFILE=my-profile opencode# Option 3: Using Bedrock bearer tokenAWS_BEARER_TOKEN_BEDROCK=XXX opencodeVeya bunları bash profilinize ekleyin:
~/.bash_profile export AWS_PROFILE=my-dev-profileexport AWS_REGION=us-east-1Yapılandırma Dosyası (Önerilen)
Projeye özel veya kalıcı yapılandırma için
opencode.jsonkullanın:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "my-aws-profile"}}}}Mevcut seçenekler:
region- AWS region (e.g.,us-east-1,eu-west-1)profile-~/.aws/credentials’den AWS adlı profilendpoint- VPC uç noktaları için özel uç nokta URL (genelbaseURLseçeneğinin takma adı)
Advanced: VPC Endpoints
Bedrock için VPC uç noktaları kullanıyorsanız:
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "production","endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"}}}}Authentication Methods
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: Bir IAM kullanıcısı oluşturun ve AWS Konsolunda erişim anahtarları oluşturunAWS_PROFILE:~/.aws/credentials’den adlandırılmış profilleri kullanın. İlk önceaws configure --profile my-profileveyaaws sso loginile yapılandırınAWS_BEARER_TOKEN_BEDROCK: Amazon Bedrock konsolundan uzun vadeli API anahtarları oluşturunAWS_WEB_IDENTITY_TOKEN_FILE/AWS_ROLE_ARN: EKS IRSA (IAM Hizmet Hesapları için Roller) veya OIDC federasyonuna sahip diğer Kubernetes ortamları için. Bu ortam değişkenleri, hizmet hesabı ek açıklamaları kullanılırken Kubernetes tarafından otomatik olarak eklenir.
Authentication Precedence
Amazon Bedrock aşağıdaki kimlik doğrulama önceliğini kullanır:
- Taşıyıcı Belirteç -
AWS_BEARER_TOKEN_BEDROCKortam değişkeni veya/connectkomutundan belirteç - AWS Credential Chain - Profile, access keys, shared credentials, IAM roles, Web Identity Tokens (EKS IRSA), instance metadata
-
İstediğiniz modeli seçmek için
/modelskomutunu çalıştırın./models
Anthropic
-
Kaydolduktan sonra
/connectkomutunu çalıştırın ve Anthropic’i seçin./connect -
Burada Claude Pro/Max seçeneğini seçebilirsiniz; tarayıcınız açılacaktır. ve sizden kimlik doğrulamanızı isteyeceğiz.
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
Artık
/modelskomutunu kullandığınızda tüm Antropik modeller mevcut olmalıdır./models
Claude Pro/Max aboneliğinizi opencode’da kullanmak Anthropic tarafından resmi olarak desteklenmemektedir.
API tuşlarını kullanma
Pro/Max aboneliğiniz yoksa API Anahtarı Oluştur seçeneğini de seçebilirsiniz. Ayrıca tarayıcınızı açacak ve Anthropic’te oturum açmanızı isteyecek ve terminalinize yapıştırabileceğiniz bir kod verecektir.
Veya zaten bir API anahtarınız varsa API Anahtarını Manuel Olarak Girin seçeneğini seçip terminalinize yapıştırabilirsiniz.
Azure OpenAI
-
Azure portal’a gidin ve bir Azure OpenAI kaynağı oluşturun. İhtiyacınız olacak:
- Kaynak adı: Bu, API bitiş noktanızın (
https://RESOURCE_NAME.openai.azure.com/) parçası olur - API anahtarı: Kaynağınızdan
KEY 1veyaKEY 2
- Kaynak adı: Bu, API bitiş noktanızın (
-
Azure AI Foundry’a gidin ve bir model dağıtın.
-
/connectkomutunu çalıştırın ve Azure’u arayın./connect -
API anahtarınızı girin.
┌ API key││└ enter -
Kaynak adınızı ortam değişkeni olarak ayarlayın:
Terminal window AZURE_RESOURCE_NAME=XXX opencodeVeya bash profilinize ekleyin:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
Dağıtılan modelinizi seçmek için
/modelskomutunu çalıştırın./models
Azure Cognitive Services
-
Azure portal’a gidin ve bir Azure OpenAI kaynağı oluşturun. İhtiyacınız olacak:
- Kaynak adı: Bu, API bitiş noktanızın (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) parçası olur - API anahtarı: Kaynağınızdan
KEY 1veyaKEY 2
- Kaynak adı: Bu, API bitiş noktanızın (
-
Azure AI Foundry’a gidin ve bir model dağıtın.
-
/connectkomutunu çalıştırın ve Azure Bilişsel Hizmetler’i arayın./connect -
API anahtarınızı girin.
┌ API key││└ enter -
Kaynak adınızı ortam değişkeni olarak ayarlayın:
Terminal window AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencodeVeya bash profilinize ekleyin:
~/.bash_profile export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
Dağıtılan modelinizi seçmek için
/modelskomutunu çalıştırın./models
Baseten
-
Baseten adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Baseten’i arayın./connect -
Baseten API anahtarınızı girin.
┌ API key││└ enter -
Bir model seçmek için
/modelskomutunu çalıştırın./models
Cerebras
-
Cerebras console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Cerebras’ı arayın./connect -
Cerebras API anahtarınızı girin.
┌ API key││└ enter -
Qwen 3 Coder 480B gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Cloudflare AI Gateway
Cloudflare AI Gateway, OpenAI, Anthropic, Workers AI ve daha fazlasındaki modellere birleşik bir uç nokta aracılığıyla erişmenizi sağlar. Unified Billing ile her sağlayıcı için ayrı API anahtarlarına ihtiyacınız yoktur.
-
Cloudflare dashboard’a gidin, AI > AI Ağ Geçidi’ne gidin ve yeni bir ağ geçidi oluşturun.
-
Hesap Kimliğinizi ve Ağ Geçidi Kimliğinizi ortam değişkenleri olarak ayarlayın.
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
/connectkomutunu çalıştırın ve Cloudflare AI Gateway’i arayın./connect -
Cloudflare API jetonunuzu girin.
┌ API key││└ enterOr set it as an environment variable.
~/.bash_profile export CLOUDFLARE_API_TOKEN=your-api-token -
Bir model seçmek için
/modelskomutunu çalıştırın./modelsOpencode yapılandırmanız aracılığıyla da modeller ekleyebilirsiniz.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"cloudflare-ai-gateway": {"models": {"openai/gpt-4o": {},"anthropic/claude-sonnet-4": {}}}}}
Cortecs
-
Cortecs console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Cortecs’i arayın./connect -
Cortecs API anahtarınızı girin.
┌ API key││└ enter -
Kimi K2 Instruct gibi bir model seçmek için
/modelskomutunu çalıştırın./models
DeepSeek
-
DeepSeek console’a gidin, bir hesap oluşturun ve Yeni API anahtarı oluştur’a tıklayın.
-
/connectkomutunu çalıştırın ve DeepSeek’i arayın./connect -
DeepSeek API anahtarınızı girin.
┌ API key││└ enter -
DeepSeek Reasoner gibi bir DeepSeek modeli seçmek için
/modelskomutunu çalıştırın./models
Deep Infra
-
Deep Infra dashboard adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Deep Infra’yı arayın./connect -
Deep Infra API anahtarınızı girin.
┌ API key││└ enter -
Bir model seçmek için
/modelskomutunu çalıştırın./models
Firmware
-
Firmware dashboard adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Firmware’i arayın./connect -
Firmware API anahtarınızı girin.
┌ API key││└ enter -
Bir model seçmek için
/modelskomutunu çalıştırın./models
Fireworks AI
-
Fireworks AI console’a gidin, bir hesap oluşturun ve API Anahtarı Oluştur’a tıklayın.
-
/connectkomutunu çalıştırın ve Fireworks AI’yi arayın./connect -
Fireworks AI API anahtarınızı girin.
┌ API key││└ enter -
Kimi K2 Instruct gibi bir model seçmek için
/modelskomutunu çalıştırın./models
GitLab Duo
GitLab Duo, GitLab’ın Anthropic proxy’si aracılığıyla yerel araç çağırma yetenekleriyle yapay zeka destekli aracılı sohbet sağlar.
-
/connectkomutunu çalıştırın ve GitLab’ı seçin./connect -
Kimlik doğrulama yönteminizi seçin:
┌ Select auth method││ OAuth (Recommended)│ Personal Access Token└OAuth Kullanımı (Önerilen)
OAuth’u seçtiğinizde tarayıcınız yetkilendirme için açılacaktır.
Kişisel Erişim Simgesini Kullanma
- Go to GitLab User Settings > Access Tokens
- Click Add new token
- Name:
OpenCode, Scopes:api - Belirteci kopyalayın (
glpat-ile başlar) - Terminale girin
-
Mevcut modelleri görmek için
/modelskomutunu çalıştırın./modelsÜç Claude tabanlı model mevcuttur:
- duo-chat-haiku-4-5 (Varsayılan) - Hızlı görevler için hızlı yanıtlar
- duo-chat-sonnet-4-5 - Çoğu iş akışı için dengeli performans
- duo-chat-opus-4-5 - Karmaşık analizler için en yeteneklisi
Self-Hosted GitLab
Şirket içinde barındırılan GitLab örnekleri için:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_TOKEN=glpat-...Örneğiniz özel bir AI Ağ Geçidi çalıştırıyorsa:
GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comVeya bash profilinize ekleyin:
export GITLAB_INSTANCE_URL=https://gitlab.company.comexport GITLAB_AI_GATEWAY_URL=https://ai-gateway.company.comexport GITLAB_TOKEN=glpat-...Kendi Kendine Barındırılan örnekler için OAuth
Oauth’un kendi kendine barındırılan örneğiniz için çalışmasını sağlamak amacıyla
yeni bir uygulama (Ayarlar → Uygulamalar) ile
geri arama URL http://127.0.0.1:8080/callback ve aşağıdaki kapsamlar:
- api (Sizin adınıza API’a erişin)
- read_user (Kişisel bilgilerinizi okuyun)
- read_repository (Depoya salt okunur erişime izin verir)
Then expose application ID as environment variable:
export GITLAB_OAUTH_CLIENT_ID=your_application_id_hereDaha fazla belge opencode-gitlab-auth ana sayfasında.
Configuration
Customize through opencode.json:
{ "$schema": "https://opencode.ai/config.json", "provider": { "gitlab": { "options": { "instanceUrl": "https://gitlab.com", "featureFlags": { "duo_agent_platform_agentic_chat": true, "duo_agent_platform": true } } } }}GitLab API Tools (Optional, but highly recommended)
To access GitLab tools (merge requests, issues, pipelines, CI/CD, etc.):
{ "$schema": "https://opencode.ai/config.json", "plugin": ["@gitlab/opencode-gitlab-plugin"]}Bu eklenti, MR incelemeleri, sorun izleme, işlem hattı izleme ve daha fazlasını içeren kapsamlı GitLab veri havuzu yönetimi yetenekleri sağlar.
GitHub Copilot
GitHub Copilot aboneliğinizi opencode’la kullanmak için:
-
/connectkomutunu çalıştırın ve GitHub Copilot’u arayın./connect -
github.com/login/device’a gidin ve kodu girin.
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
Şimdi istediğiniz modeli seçmek için
/modelskomutunu çalıştırın./models
Google Vertex AI
Google Vertex AI’yi opencode ile kullanmak için:
-
Google Cloud Console’daki Model Bahçesi’ne gidin ve şunları kontrol edin: Bölgenizde mevcut modeller.
-
Gerekli ortam değişkenlerini ayarlayın:
GOOGLE_CLOUD_PROJECT: Google Cloud proje kimliğinizVERTEX_LOCATION(isteğe bağlı): Vertex AI bölgesi (varsayılanıglobal’dir)- Authentication (choose one):
GOOGLE_APPLICATION_CREDENTIALS: Hizmet hesabınızın yolu JSON anahtar dosyası- gcloud kullanarak kimlik doğrulaması yapın CLI:
gcloud auth application-default login
Set them while running opencode.
Terminal window GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencodeVeya bunları bash profilinize ekleyin.
~/.bash_profile export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.jsonexport GOOGLE_CLOUD_PROJECT=your-project-idexport VERTEX_LOCATION=global
-
İstediğiniz modeli seçmek için
/modelskomutunu çalıştırın./models
Groq
-
Groq console’a gidin, API Anahtarı Oluştur’a tıklayın ve anahtarı kopyalayın.
-
/connectkomutunu çalıştırın ve Groq’u arayın./connect -
Sağlayıcının API anahtarını girin.
┌ API key││└ enter -
İstediğinizi seçmek için
/modelskomutunu çalıştırın./models
Hugging Face
Hugging Face Inference Providers 17’den fazla sağlayıcı tarafından desteklenen açık modellere erişim sağlar.
-
Çıkarım Sağlayıcılara çağrı yapma iznine sahip bir belirteç oluşturmak için Hugging Face settings adresine gidin.
-
/connectkomutunu çalıştırın ve Sarılma Yüzünü arayın./connect -
Hugging Face jetonunuzu girin.
┌ API key││└ enter -
Kimi-K2-Instruct veya GLM-4.6 gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Helicone
Helicone, AI uygulamalarınız için günlük kaydı, izleme ve analiz sağlayan bir LLM gözlemlenebilirlik platformudur. Helicone AI Gateway, taleplerinizi modele göre otomatik olarak uygun sağlayıcıya yönlendirir.
-
Helicone adresine gidin, bir hesap oluşturun ve kontrol panelinizden bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Helicone’yu arayın./connect -
Helicone API anahtarınızı girin.
┌ API key││└ enter -
Bir model seçmek için
/modelskomutunu çalıştırın./models
Daha fazla sağlayıcı ve önbelleğe alma ve hız sınırlama gibi gelişmiş özellikler için Helicone documentation’yi kontrol edin.
Optional Configs
Helicone’un opencode aracılığıyla otomatik olarak yapılandırılmayan bir özelliği veya modelini görmeniz durumunda bunu her zaman kendiniz yapılandırabilirsiniz.
İşte Helicone’s Model Directory, eklemek istediğiniz modellerin kimliklerini almak için buna ihtiyacınız olacak.
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Model ID (from Helicone's model directory page) "name": "GPT-4o", // Your own custom name for the model }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}Custom Headers
Helicone, önbelleğe alma, kullanıcı izleme ve oturum yönetimi gibi özellikler için özel başlıkları destekler. options.headers kullanarak bunları sağlayıcınızın yapılandırmasına ekleyin:
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}Oturum izleme
Helicone’un Sessions özelliği, ilgili LLM isteklerini birlikte gruplandırmanıza olanak tanır. Her opencode görüşmesini Helicone’da bir oturum olarak otomatik olarak kaydetmek için opencode-helicone-session eklentisini kullanın.
npm install -g opencode-helicone-sessionYapılandırmanıza ekleyin.
{ "plugin": ["opencode-helicone-session"]}Eklenti isteklerinize Helicone-Session-Id ve Helicone-Session-Name başlıklarını enjekte eder. Helicone’un Oturumlar sayfasında her opencode görüşmesinin ayrı bir oturum olarak listelendiğini göreceksiniz.
Common Helicone headers
| Başlık | Açıklama |
|---|---|
Helicone-Cache-Enabled | Enable response caching (true/false) |
Helicone-User-Id | Track metrics by user |
Helicone-Property-[Name] | Add custom properties (e.g., Helicone-Property-Environment) |
Helicone-Prompt-Id | İstekleri bilgi istemi sürümleriyle ilişkilendirin |
Mevcut tüm başlıklar için Helicone Header Directory’a bakın.
llama.cpp
opencode’u yerel modelleri kullanacak şekilde llama.cpp’s llama-server yardımcı programını kullanarak yapılandırabilirsiniz.
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}Bu örnekte:
llama.cppözel sağlayıcı kimliğidir. Bu istediğiniz herhangi bir dize olabilir.npmbu sağlayıcı için kullanılacak paketi belirtir. Burada@ai-sdk/openai-compatible, herhangi bir OpenAI uyumlu API için kullanılır.namesağlayıcının kullanıcı arayüzündeki görünen adıdır.options.baseURLyerel sunucunun uç noktasıdır.modelsmodel kimliklerinin konfigürasyonlarına ait bir haritasıdır. Model adı, model seçim listesinde görüntülenecektir.
IO.NET
IO.NET, çeşitli kullanım durumları için optimize edilmiş 17 model sunar:
-
IO.NET console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve IO.NET öğesini arayın./connect -
IO.NET API anahtarınızı girin.
┌ API key││└ enter -
Bir model seçmek için
/modelskomutunu çalıştırın./models
LM Studio
LM Studio aracılığıyla opencode’u yerel modelleri kullanacak şekilde yapılandırabilirsiniz.
{ "$schema": "https://opencode.ai/config.json", "provider": { "lmstudio": { "npm": "@ai-sdk/openai-compatible", "name": "LM Studio (local)", "options": { "baseURL": "http://127.0.0.1:1234/v1" }, "models": { "google/gemma-3n-e4b": { "name": "Gemma 3n-e4b (local)" } } } }}Bu örnekte:
lmstudioözel sağlayıcı kimliğidir. Bu istediğiniz herhangi bir dize olabilir.npmbu sağlayıcı için kullanılacak paketi belirtir. Burada@ai-sdk/openai-compatible, herhangi bir OpenAI uyumlu API için kullanılır.namesağlayıcının kullanıcı arayüzündeki görünen adıdır.options.baseURLyerel sunucunun uç noktasıdır.modelsmodel kimliklerinin konfigürasyonlarına ait bir haritasıdır. Model adı, model seçim listesinde görüntülenecektir.
Moonshot AI
Moonshot AI’dan Kimi K2’yi kullanmak için:
-
Moonshot AI console’a gidin, bir hesap oluşturun ve API anahtarı oluştur’a tıklayın.
-
/connectkomutunu çalıştırın ve Moonshot AI’yi arayın./connect -
Moonshot API anahtarınızı girin.
┌ API key││└ enter -
Kimi K2 seçmek için
/modelskomutunu çalıştırın./models
MiniMax
-
MiniMax API Console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve MiniMax’ı arayın./connect -
MiniMax API anahtarınızı girin.
┌ API key││└ enter -
M2.1 gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Nebius Token Factory
-
Nebius Token Factory console’a gidin, bir hesap oluşturun ve Anahtar Ekle’ye tıklayın.
-
/connectkomutunu çalıştırın ve Nebius Token Factory’yi arayın./connect -
Nebius Token Factory API anahtarınızı girin.
┌ API key││└ enter -
Kimi K2 Instruct gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Ollama
Ollama aracılığıyla opencode’u yerel modelleri kullanacak şekilde yapılandırabilirsiniz.
{ "$schema": "https://opencode.ai/config.json", "provider": { "ollama": { "npm": "@ai-sdk/openai-compatible", "name": "Ollama (local)", "options": { "baseURL": "http://localhost:11434/v1" }, "models": { "llama2": { "name": "Llama 2" } } } }}Bu örnekte:
ollamaözel sağlayıcı kimliğidir. Bu istediğiniz herhangi bir dize olabilir.npmbu sağlayıcı için kullanılacak paketi belirtir. Burada@ai-sdk/openai-compatible, herhangi bir OpenAI uyumlu API için kullanılır.namesağlayıcının kullanıcı arayüzündeki görünen adıdır.options.baseURLyerel sunucunun uç noktasıdır.modelsmodel kimliklerinin konfigürasyonlarına ait bir haritasıdır. Model adı, model seçim listesinde görüntülenecektir.
Ollama Cloud
Ollama Cloud’u opencode ile kullanmak için:
-
https://ollama.com/ adresine gidin ve oturum açın veya bir hesap oluşturun.
-
Ayarlar > Anahtarlar’a gidin ve yeni bir API anahtarı oluşturmak için API Anahtarı Ekle’yi tıklayın.
-
opencode’da kullanmak için API anahtarını kopyalayın.
-
/connectkomutunu çalıştırın ve Ollama Cloud’u arayın./connect -
Ollama Cloud API anahtarınızı girin.
┌ API key││└ enter -
Önemli: opencode’da bulut modellerini kullanmadan önce model bilgilerini yerel olarak almanız gerekir:
Terminal window ollama pull gpt-oss:20b-cloud -
Ollama Cloud modelinizi seçmek için
/modelskomutunu çalıştırın./models
OpenAI
ChatGPT Plus or Pro’a kaydolmanızı öneririz.
-
Kaydolduktan sonra
/connectkomutunu çalıştırın ve OpenAI’yi seçin./connect -
Burada ChatGPT Plus/Pro seçeneğini seçebilirsiniz, tarayıcınız açılacaktır. ve sizden kimlik doğrulamanızı isteyeceğiz.
┌ Select auth method││ ChatGPT Plus/Pro│ Manually enter API Key└ -
Artık
/modelskomutunu kullandığınızda tüm OpenAI modelleri mevcut olmalıdır./models
API tuşlarını kullanma
Zaten bir API anahtarınız varsa, API Anahtarını Manuel Olarak Girin seçeneğini seçip terminalinize yapıştırabilirsiniz.
OpenCode Zen
OpenCode Zen, opencode ekibinin test edip doğruladığı modellerin bir listesidir. Daha fazla bilgi.
-
OpenCode Zen’de oturum açın ve API Anahtarı Oluştur’u tıklayın.
-
/connectkomutunu çalıştırın ve OpenCode Zen’i arayın./connect -
opencode API anahtarınızı girin.
┌ API key││└ enter -
Qwen 3 Coder 480B gibi bir model seçmek için
/modelskomutunu çalıştırın./models
OpenRouter
-
OpenRouter dashboard’a gidin, API Anahtarı Oluştur’a tıklayın ve anahtarı kopyalayın.
-
/connectkomutunu çalıştırın ve OpenRouter’ı arayın./connect -
Sağlayıcının API anahtarını girin.
┌ API key││└ enter -
Birçok OpenRouter modeli varsayılan olarak önceden yüklenmiştir; istediğiniz modeli seçmek için
/modelskomutunu çalıştırın./modelsopencode yapılandırmanız aracılığıyla ek modeller de ekleyebilirsiniz.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"somecoolnewmodel": {}}}}} -
Bunları ayrıca opencode yapılandırmanız aracılığıyla da özelleştirebilirsiniz. Burada bir sağlayıcı belirtmeye ilişkin bir örnek verilmiştir
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
SAP AI Core
SAP AI Core, birleşik bir platform aracılığıyla OpenAI, Anthropic, Google, Amazon, Meta, Mistral ve AI21’den 40’tan fazla modele erişim sağlar.
-
SAP BTP Cockpit sunucunuza gidin, SAP AI Core hizmet örneğinize gidin ve bir hizmet anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve SAP AI Core arayın./connect -
Servis anahtarınızı JSON girin.
┌ Service key││└ enterVeya
AICORE_SERVICE_KEYortam değişkenini ayarlayın:Terminal window AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeVeya bash profilinize ekleyin:
~/.bash_profile export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' -
İsteğe bağlı olarak dağıtım kimliğini ve kaynak grubunu ayarlayın:
Terminal window AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode -
40’tan fazla mevcut model arasından seçim yapmak için
/modelskomutunu çalıştırın./models
OVHcloud AI Endpoints
-
OVHcloud panel’a gidin.
Public Cloudbölümüne gidin,AI & Machine Learning>AI EndpointsveAPI Keyssekmesinde Yeni bir API anahtarı oluştur’u tıklayın. -
/connectkomutunu çalıştırın ve OVHcloud AI Endpoints’i arayın./connect -
OVHcloud AI Uç Noktaları API anahtarınızı girin.
┌ API key││└ enter -
gpt-oss-120b gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Scaleway
Scaleway Generative APIs’yi Opencode ile kullanmak için:
-
Yeni bir API anahtarı oluşturmak için Scaleway Console IAM settings’a gidin.
-
/connectkomutunu çalıştırın ve Scaleway’i arayın./connect -
Scaleway API anahtarınızı girin.
┌ API key││└ enter -
devstral-2-123b-instruct-2512 veya gpt-oss-120b gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Together AI
-
Together AI console’a gidin, bir hesap oluşturun ve Anahtar Ekle’ye tıklayın.
-
/connectkomutunu çalıştırın ve Together AI’yi arayın./connect -
Together AI API anahtarınızı girin.
┌ API key││└ enter -
Kimi K2 Instruct gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Venice AI
-
Venice AI console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve Venice AI’yi arayın./connect -
Venice AI API anahtarınızı girin.
┌ API key││└ enter -
Llama 3.3 70B gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Vercel AI Gateway
Vercel AI Gateway, OpenAI, Anthropic, Google, xAI ve daha fazlasındaki modellere birleşik bir uç nokta aracılığıyla erişmenizi sağlar. Modeller herhangi bir fark olmadan liste fiyatıyla sunulmaktadır.
-
Vercel dashboard’a gidin, AI Ağ Geçidi sekmesine gidin ve yeni bir API anahtarı oluşturmak için API anahtarlarına tıklayın.
-
/connectkomutunu çalıştırın ve Vercel AI Gateway’i arayın./connect -
Vercel AI Gateway API anahtarınızı girin.
┌ API key││└ enter -
Bir model seçmek için
/modelskomutunu çalıştırın./models
Modelleri opencode yapılandırmanız aracılığıyla da özelleştirebilirsiniz. Sağlayıcı yönlendirme sırasını belirtmeye ilişkin bir örneği burada bulabilirsiniz.
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}Some useful routing options:
| Seçenek | Açıklama |
|---|---|
order | Denenecek sağlayıcı sırası |
only | Restrict to specific providers |
zeroDataRetention | Yalnızca sıfır veri saklama politikasına sahip sağlayıcıları kullanın |
xAI
-
xAI console adresine gidin, bir hesap oluşturun ve bir API anahtarı oluşturun.
-
/connectkomutunu çalıştırın ve xAI’yi arayın./connect -
xAI API anahtarınızı girin.
┌ API key││└ enter -
Grok Beta gibi bir model seçmek için
/modelskomutunu çalıştırın./models
Z.AI
-
Z.AI API console’a gidin, bir hesap oluşturun ve Yeni bir API anahtarı oluştur’a tıklayın.
-
/connectkomutunu çalıştırın ve Z.AI’yi arayın./connectGLM Kodlama Planı’na aboneyseniz Z.AI Kodlama Planı’nı seçin.
-
Z.AI API anahtarınızı girin.
┌ API key││└ enter -
GLM-4.7 gibi bir model seçmek için
/modelskomutunu çalıştırın./models
ZenMux
-
ZenMux dashboard’a gidin, API Anahtarı Oluştur’a tıklayın ve anahtarı kopyalayın.
-
/connectkomutunu çalıştırın ve ZenMux’u arayın./connect -
Sağlayıcının API anahtarını girin.
┌ API key││└ enter -
Çoğu ZenMux modeli varsayılan olarak önceden yüklenmiştir; istediğinizi seçmek için
/modelskomutunu çalıştırın./modelsopencode yapılandırmanız aracılığıyla ek modeller de ekleyebilirsiniz.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"zenmux": {"models": {"somecoolnewmodel": {}}}}}
Özel sağlayıcı
/connect komutunda listelenmeyen herhangi bir OpenAI uyumlu sağlayıcıyı eklemek için:
-
/connectkomutunu çalıştırın ve Diğer seçeneğine ilerleyin.Terminal window $ /connect┌ Add credential│◆ Select provider│ ...│ ● Other└ -
Sağlayıcı için benzersiz bir kimlik girin.
Terminal window $ /connect┌ Add credential│◇ Enter provider id│ myprovider└ -
Sağlayıcı için API anahtarınızı girin.
Terminal window $ /connect┌ Add credential│▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.│◇ Enter your API key│ sk-...└ -
Proje dizininizde
opencode.jsondosyanızı oluşturun veya güncelleyin:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}Yapılandırma seçenekleri şunlardır:
- npm: Kullanılacak AI SDK paketi, OpenAI uyumlu sağlayıcılar için
@ai-sdk/openai-compatible - name: Display name in UI.
- modeller: Mevcut modeller.
- options.baseURL: API endpoint URL.
- options.apiKey: Kimlik doğrulama kullanılmıyorsa isteğe bağlı olarak API anahtarını ayarlayın.
- options.headers: Optionally set custom headers.
Aşağıdaki örnekte gelişmiş seçenekler hakkında daha fazla bilgi bulabilirsiniz.
- npm: Kullanılacak AI SDK paketi, OpenAI uyumlu sağlayıcılar için
-
/modelskomutunu çalıştırın; özel sağlayıcınız ve modelleriniz seçim listesinde görünecektir.
Example
Burada apiKey, headers ve model limit seçeneklerini ayarlayan bir örnek verilmiştir.
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}Configuration details:
- apiKey:
envdeğişken söz dizimini kullanarak ayarlayın, learn more. - başlıklar: Her istekle birlikte gönderilen özel başlıklar.
- limit.context: Modelin kabul ettiği maksimum giriş jetonları.
- limit.output: Modelin üretebileceği maksimum jeton sayısı.
limit alanları opencode’un ne kadar bağlamınız kaldığını anlamasını sağlar. Standart sağlayıcılar bunları models.dev’den otomatik olarak alır.
Troubleshooting
Sağlayıcıyı yapılandırma konusunda sorun yaşıyorsanız aşağıdakileri kontrol edin:
-
Kimlik doğrulama kurulumunu kontrol edin: Kimlik bilgilerinin geçerli olup olmadığını görmek için
opencode auth listkomutunu çalıştırın. sağlayıcı için yapılandırmanıza eklenir.Bu, kimlik doğrulaması için ortam değişkenlerine güvenen Amazon Bedrock gibi sağlayıcılar için geçerli değildir.
-
Özel sağlayıcılar için opencode yapılandırmasını kontrol edin ve:
/connectkomutunda kullanılan sağlayıcı kimliğinin, opencode yapılandırmanızdaki kimlikle eşleştiğinden emin olun.- Sağlayıcı için doğru npm paketi kullanılıyor. Örneğin Cerebras için
@ai-sdk/cerebraskullanın. Diğer tüm OpenAI uyumlu sağlayıcılar için@ai-sdk/openai-compatiblekullanın. options.baseURLalanında doğru API bitiş noktasının kullanıldığını kontrol edin.