Anbieter
Verwendung beliebter LLM-Anbieter in OpenCode.
OpenCode verwendet das AI SDK und Models.dev, um mehr als 75 LLM-Anbieter zu unterstützen, und untersttzt die Ausfhrung lokaler Modelle.
Um einen Anbieter hinzuzufgen, mssen Sie:
- Die API-Schlssel des Anbieters mit dem Befehl
/connecthinzufgen. - Den Anbieter in Ihrer OpenCode-Konfiguration konfigurieren.
Anmeldedaten
Wenn Sie die API-Schlssel eines Anbieters mit dem Befehl /connect hinzufgen, werden sie in ~/.local/share/opencode/auth.json gespeichert.
Konfiguration
Sie knnen die Anbieter ber den Abschnitt provider in Ihrer OpenCode-Konfiguration anpassen.
Basis-URL
Sie knnen die Basis-URL fr jeden Anbieter anpassen, indem Sie die Option baseURL festlegen. Dies ist ntzlich bei der Verwendung von Proxy-Diensten oder benutzerdefinierten Endpunkten.
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}OpenCode Zen
OpenCode Zen ist eine Liste von Modellen, die vom OpenCode-Team bereitgestellt werden und die getestet und verifiziert wurden, um gut mit OpenCode zu funktionieren. Mehr erfahren.
-
Fhren Sie den Befehl
/connectim TUI aus, whlen Sie opencode aus und gehen Sie zu opencode.ai/auth./connect -
Melden Sie sich an, fgen Sie Ihre Abrechnungsdetails hinzu und kopieren Sie Ihren API-Schlssel.
-
Fgen Sie Ihren API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie
/modelsim TUI aus, um die Liste der Modelle zu sehen, die wir empfehlen./models
Es funktioniert wie jeder andere Anbieter in OpenCode. Die Verwendung ist vollstndig optional.
Verzeichnis
Schauen wir uns einige der Anbieter im Detail an. Wenn Sie einen Anbieter zur Liste hinzufgen mchten, ffn Sie gerne eine PR.
Amazon Bedrock
Um Amazon Bedrock mit OpenCode zu verwenden:
-
Gehen Sie zum Modellkatalog in der Amazon Bedrock-Konsole und fordern Sie Zugang zu den Modellen an, die Sie verwenden mchten.
-
Authentifizierung konfigurieren mit einer der folgenden Methoden:
Umgebungsvariablen (Schnellstart)
Legen Sie eine dieser Umgebungsvariablen fest, whrend Sie opencode ausfhren:
Terminal-Fenster # Option 1: Verwendung von AWS-ZugriffsschlsselnAWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode# Option 2: Verwendung eines benannten AWS-ProfilsAWS_PROFILE=my-profile opencode# Option 3: Verwendung von Bedrock-Bearer-TokenAWS_BEARER_TOKEN_BEDROCK=XXX opencodeOder fgen Sie sie zu Ihrem Bash-Profil hinzu:
~/.bash_profile export AWS_PROFILE=my-dev-profileexport AWS_REGION=us-east-1Konfigurationsdatei (Empfohlen)
Fr projektspezifische oder dauerhafte Konfiguration verwenden Sie
opencode.json:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "my-aws-profile"}}}}Verfgbare Optionen:
region- AWS-Region (z. B.us-east-1,eu-west-1)profile- AWS-benanntes Profil aus~/.aws/credentialsendpoint- Benutzerdefinierte Endpunkt-URL fr VPC-Endpunkte (Alias fr die generische OptionbaseURL)
Fortgeschritten: VPC-Endpunkte
Wenn Sie VPC-Endpunkte fr Bedrock verwenden:
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "production","endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"}}}}Authentifizierungsmethoden
AWS_ACCESS_KEY_ID/AWS_SECRET_ACCESS_KEY: Erstellen Sie einen IAM-Benutzer und generieren Sie Zugriffsschlssel in der AWS-KonsoleAWS_PROFILE: Verwenden Sie benannte Profile aus~/.aws/credentials. Konfigurieren Sie zuerst mitaws configure --profile my-profileoderaws sso loginAWS_BEARER_TOKEN_BEDROCK: Generieren Sie langfristige API-Schlssel aus der Amazon Bedrock-Konsole
Authentifizierungsprioritt
Amazon Bedrock verwendet die folgende Authentifizierungsprioritt:
- Bearer-Token - Umgebungsvariable
AWS_BEARER_TOKEN_BEDROCKoder Token vom Befehl/connect - AWS-Anmeldedaten-Kette - Profil, Zugriffsschlssel, freigegebene Anmeldedaten, IAM-Rollen, Instanzmetadaten
-
Fhren Sie den Befehl
/modelsaus, um das Modell auszuwhlen, das Sie verwenden mchten./models
Anthropic
Wir empfehlen die Anmeldung fr Claude Pro oder Max.
-
Nachdem Sie sich angemeldet haben, fhren Sie den Befehl
/connectaus und whlen Sie Anthropic aus./connect -
Hier knnen Sie die Option Claude Pro/Max auswhlen und dies wird Ihren Browser ffnen und Sie zur Authentifizierung auffordern.
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
Nun sollten alle Anthropic-Modelle verfgbar sein, wenn Sie den Befehl
/modelsverwenden./models
Verwendung von API-Schlsseln
Sie knnen auch API-Schlssel erstellen auswhlen, wenn Sie kein Pro/Max-Abonnement haben. Dies wird ebenfalls Ihren Browser ffnen und Sie auffordern, sich bei Anthropic anzumelden, und gibt Ihnen einen Code, den Sie in Ihr Terminal einfgen knnen.
Oder wenn Sie bereits einen API-Schlssel haben, knnen Sie API-Schlssel manuell eingeben auswhlen und ihn in Ihr Terminal einfgen.
Azure OpenAI
-
Gehen Sie zum Azure-Portal und erstellen Sie eine Azure OpenAI-Ressource. Sie bentigen:
- Ressourcenname: Dieser wird Teil Ihres API-Endpunkts (
https://RESOURCE_NAME.openai.azure.com/) - API-Schlssel: Entweder
KEY 1oderKEY 2aus Ihrer Ressource
- Ressourcenname: Dieser wird Teil Ihres API-Endpunkts (
-
Gehen Sie zu Azure AI Foundry und stellen Sie ein Modell bereit.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Azure./connect -
Geben Sie Ihren API-Schlssel ein.
┌ API key││└ enter -
Legen Sie Ihren Ressourcennamen als Umgebungsvariable fest:
Terminal-Fenster AZURE_RESOURCE_NAME=XXX opencodeOder fgen Sie ihn zu Ihrem Bash-Profil hinzu:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
Fhren Sie den Befehl
/modelsaus, um Ihr bereitgestelltes Modell auszuwhlen./models
Azure Cognitive Services
-
Gehen Sie zum Azure-Portal und erstellen Sie eine Azure OpenAI-Ressource. Sie bentigen:
- Ressourcenname: Dieser wird Teil Ihres API-Endpunkts (
https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/) - API-Schlssel: Entweder
KEY 1oderKEY 2aus Ihrer Ressource
- Ressourcenname: Dieser wird Teil Ihres API-Endpunkts (
-
Gehen Sie zu Azure AI Foundry und stellen Sie ein Modell bereit.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Azure Cognitive Services./connect -
Geben Sie Ihren API-Schlssel ein.
┌ API key││└ enter -
Legen Sie Ihren Ressourcennamen als Umgebungsvariable fest:
Terminal-Fenster AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencodeOder fgen Sie ihn zu Ihrem Bash-Profil hinzu:
~/.bash_profile export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX -
Fhren Sie den Befehl
/modelsaus, um Ihr bereitgestelltes Modell auszuwhlen./models
Baseten
-
Gehen Sie zu Baseten, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Baseten./connect -
Geben Sie Ihren Baseten-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell auszuwhlen./models
Cerebras
-
Gehen Sie zur Cerebras-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Cerebras./connect -
Geben Sie Ihren Cerebras-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie Qwen 3 Coder 480B auszuwhlen./models
Cloudflare AI Gateway
Cloudflare AI Gateway ermglicht Ihnen den Zugriff auf Modelle von OpenAI, Anthropic, Workers AI und mehr ber einen einheitlichen Endpunkt. Mit Unified Billing bentigen Sie keine separaten API-Schlssel fr jeden Anbieter.
-
Gehen Sie zum Cloudflare-Dashboard, navigieren Sie zu AI > AI Gateway und erstellen Sie ein neues Gateway.
-
Legen Sie Ihre Konto-ID und Gateway-ID als Umgebungsvariablen fest.
~/.bash_profile export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-idexport CLOUDFLARE_GATEWAY_ID=your-gateway-id -
Fhren Sie den Befehl
/connectaus und suchen Sie nach Cloudflare AI Gateway./connect -
Geben Sie Ihren Cloudflare-API-Token ein.
┌ API key││└ enterOder legen Sie ihn als Umgebungsvariable fest.
~/.bash_profile export CLOUDFLARE_API_TOKEN=your-api-token -
Fhren Sie den Befehl
/modelsaus, um ein Modell auszuwhlen./modelsSie knnen auch Modelle ber Ihre opencode-Konfiguration hinzufgen.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"cloudflare-ai-gateway": {"models": {"openai/gpt-4o": {},"anthropic/claude-sonnet-4": {}}}}}
Cortecs
-
Gehen Sie zur Cortecs-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Cortecs./connect -
Geben Sie Ihren Cortecs-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie Kimi K2 Instruct auszuwhlen./models
DeepSeek
-
Gehen Sie zur DeepSeek-Konsole, erstellen Sie ein Konto und klicken Sie auf Neuen API-Schlssel erstellen.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach DeepSeek./connect -
Geben Sie Ihren DeepSeek-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein DeepSeek-Modell wie DeepSeek Reasoner auszuwhlen./models
Deep Infra
-
Gehen Sie zum Deep Infra-Dashboard, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Deep Infra./connect -
Geben Sie Ihren Deep Infra-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell auszuwhlen./models
Fireworks AI
-
Gehen Sie zur Fireworks AI-Konsole, erstellen Sie ein Konto und klicken Sie auf API-Schlssel erstellen.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Fireworks AI./connect -
Geben Sie Ihren Fireworks AI-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie Kimi K2 Instruct auszuwhlen./models
GitHub Copilot
Um Ihr GitHub Copilot-Abonnement mit opencode zu verwenden:
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach GitHub Copilot./connect -
Gehen Sie zu github.com/login/device und geben Sie den Code ein.
┌ Login with GitHub Copilot││ https://github.com/login/device││ Enter code: 8F43-6FCF│└ Waiting for authorization... -
Fhren Sie nun den Befehl
/modelsaus, um das Modell auszuwhlen, das Sie verwenden mchten./models
Google Vertex AI
Um Google Vertex AI mit OpenCode zu verwenden:
-
Gehen Sie zum Model Garden in der Google Cloud Konsole und prfen Sie die Modelle, die in Ihrer Region verfgbar sind.
-
Legen Sie die erforderlichen Umgebungsvariablen fest:
GOOGLE_CLOUD_PROJECT: Ihre Google Cloud-Projekt-IDVERTEX_LOCATION(optional): Die Region fr Vertex AI (Standard istglobal)- Authentifizierung (whlen Sie eine):
GOOGLE_APPLICATION_CREDENTIALS: Pfad zu Ihrer Dienstkonten-JSON-Schlsseldatei- Authentifizieren Sie sich mit dem gcloud-CLI:
gcloud auth application-default login
Legen Sie sie fest, whrend Sie opencode ausfhren.
Terminal-Fenster GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencodeOder fgen Sie sie zu Ihrem Bash-Profil hinzu.
~/.bash_profile export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.jsonexport GOOGLE_CLOUD_PROJECT=your-project-idexport VERTEX_LOCATION=global
-
Fhren Sie den Befehl
/modelsaus, um das Modell auszuwhlen, das Sie verwenden mchten./models
Groq
-
Gehen Sie zur Groq-Konsole, klicken Sie auf API-Schlssel erstellen und kopieren Sie den Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Groq./connect -
Geben Sie den API-Schlssel fr den Anbieter ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um den auszuwhlen, den Sie mchten./models
Hugging Face
Hugging Face Inference Providers bietet Zugriff auf Open-Source-Modelle, die von mehr als 17 Anbietern untersttzt werden.
-
Gehen Sie zu den Hugging Face-Einstellungen, um ein Token zu erstellen, das Berechtigung hat, Aufrufe an Inferenzanbieter zu ttigen.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Hugging Face./connect -
Geben Sie Ihr Hugging Face-Token ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie Kimi-K2-Instruct oder GLM-4.6 auszuwhlen./models
Helicone
Helicone ist eine LLM-Observabilittsplattform, die Protokollierung, berwachung und Analyse fr Ihre KI-Anwendungen bereitstellt. Der Helicone AI Gateway leitet Ihre Anfragen automatisch an den entsprechenden Anbieter basierend auf dem Modell weiter.
-
Gehen Sie zu Helicone, erstellen Sie ein Konto und generieren Sie einen API-Schlssel aus Ihrem Dashboard.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Helicone./connect -
Geben Sie Ihren Helicone-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell auszuwhlen./models
Fr weitere Anbieter und erweiterte Funktionen wie Caching und Ratenbegrenzung lesen Sie die Helicone-Dokumentation.
Optionale Konfigurationen
Falls Sie eine Funktion oder ein Modell von Helicone sehen, das nicht automatisch ber opencode konfiguriert ist, knnen Sie es immer selbst konfigurieren.
Hier ist das Helicone-Modellverzeichnis, Sie bentigen dies, um die IDs der Modelle abzurufen, die Sie hinzufgen mchten.
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", }, "models": { "gpt-4o": { // Modell-ID (von der Seite des Helicone-Modellverzeichnisses) "name": "GPT-4o", // Ihr eigener benutzerdefinierter Name fr das Modell }, "claude-sonnet-4-20250514": { "name": "Claude Sonnet 4", }, }, }, },}Benutzerdefinierte Header
Helicone untersttzt benutzerdefinierte Header fr Funktionen wie Caching, Benutzerverfolgung und Sitzungsverwaltung. Fgen Sie sie zu Ihrer Anbieterkonfiguration mit options.headers hinzu:
{ "$schema": "https://opencode.ai/config.json", "provider": { "helicone": { "npm": "@ai-sdk/openai-compatible", "name": "Helicone", "options": { "baseURL": "https://ai-gateway.helicone.ai", "headers": { "Helicone-Cache-Enabled": "true", "Helicone-User-Id": "opencode", }, }, }, },}Sitzungsverfolgung
Die Sessions-Funktion von Helicone ermglicht es Ihnen, verwandte LLM-Anfragen zu gruppieren. Verwenden Sie das Plugin opencode-helicone-session, um jede OpenCode-Konversation automatisch als Sitzung in Helicone zu protokollieren.
npm install -g opencode-helicone-sessionFgen Sie es zu Ihrer Konfiguration hinzu.
{ "plugin": ["opencode-helicone-session"]}Das Plugin injiziert die Header Helicone-Session-Id und Helicone-Session-Name in Ihre Anfragen. Auf der Sessions-Seite von Helicone sehen Sie jede OpenCode-Konversation als separate Sitzung aufgelistet.
Hufige Helicone-Header
| Header | Beschreibung |
|---|---|
Helicone-Cache-Enabled | Antwort-Caching aktivieren (true/false) |
Helicone-User-Id | Metriken nach Benutzer verfolgen |
Helicone-Property-[Name] | Benutzerdefinierte Eigenschaften hinzufgen (z. B. Helicone-Property-Environment) |
Helicone-Prompt-Id | Anfragen mit Prompt-Versionen verknpfen |
Siehe das Helicone-Header-Verzeichnis fr alle verfgbaren Header.
llama.cpp
Sie knnen opencode so konfigurieren, dass es lokale Modelle ber das llama-server-Dienstprogramm von llama.cpp verwendet
{ "$schema": "https://opencode.ai/config.json", "provider": { "llama.cpp": { "npm": "@ai-sdk/openai-compatible", "name": "llama-server (local)", "options": { "baseURL": "http://127.0.0.1:8080/v1" }, "models": { "qwen3-coder:a3b": { "name": "Qwen3-Coder: a3b-30b (local)", "limit": { "context": 128000, "output": 65536 } } } } }}In diesem Beispiel:
llama.cppist die benutzerdefinierte Anbieter-ID. Dies kann ein beliebiger String sein, den Sie mchten.npmgibt das Paket an, das fr diesen Anbieter verwendet werden soll. Hier wird@ai-sdk/openai-compatiblefr jede OpenAI-kompatible API verwendet.nameist der Anzeigename fr den Anbieter in der Benutzeroberflche.options.baseURList der Endpunkt fr den lokalen Server.modelsist eine Zuordnung von Modell-IDs zu ihren Konfigurationen. Der Modellname wird in der Modellauswahlliste angezeigt.
IO.NET
IO.NET bietet 17 Modelle, die fr verschiedene Anwendungsflle optimiert sind:
-
Gehen Sie zur IO.NET-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach IO.NET./connect -
Geben Sie Ihren IO.NET-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell auszuwhlen./models
LM Studio
Sie knnen opencode so konfigurieren, dass es lokale Modelle ber LM Studio verwendet.
{ "$schema": "https://opencode.ai/config.json", "provider": { "lmstudio": { "npm": "@ai-sdk/openai-compatible", "name": "LM Studio (local)", "options": { "baseURL": "http://127.0.0.1:1234/v1" }, "models": { "google/gemma-3n-e4b": { "name": "Gemma 3n-e4b (local)" } } } }}In diesem Beispiel:
lmstudioist die benutzerdefinierte Anbieter-ID. Dies kann ein beliebiger String sein, den Sie mchten.npmgibt das Paket an, das fr diesen Anbieter verwendet werden soll. Hier wird@ai-sdk/openai-compatiblefr jede OpenAI-kompatible API verwendet.nameist der Anzeigename fr den Anbieter in der Benutzeroberflche.options.baseURList der Endpunkt fr den lokalen Server.modelsist eine Zuordnung von Modell-IDs zu ihren Konfigurationen. Der Modellname wird in der Modellauswahlliste angezeigt.
Moonshot AI
Um Kimi K2 von Moonshot AI zu verwenden:
-
Gehen Sie zur Moonshot AI-Konsole, erstellen Sie ein Konto und klicken Sie auf API-Schlssel erstellen.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Moonshot AI./connect -
Geben Sie Ihren Moonshot-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um Kimi K2 auszuwhlen./models
MiniMax
-
Gehen Sie zur MiniMax-API-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach MiniMax./connect -
Geben Sie Ihren MiniMax-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie M2.1 auszuwhlen./models
Nebius Token Factory
-
Gehen Sie zur Nebius Token Factory-Konsole, erstellen Sie ein Konto und klicken Sie auf Schlssel hinzufgen.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Nebius Token Factory./connect -
Geben Sie Ihren Nebius Token Factory-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie Kimi K2 Instruct auszuwhlen./models
Ollama
Sie knnen opencode so konfigurieren, dass es lokale Modelle ber Ollama verwendet.
{ "$schema": "https://opencode.ai/config.json", "provider": { "ollama": { "npm": "@ai-sdk/openai-compatible", "name": "Ollama (local)", "options": { "baseURL": "http://localhost:11434/v1" }, "models": { "llama2": { "name": "Llama 2" } } } }}In diesem Beispiel:
ollamaist die benutzerdefinierte Anbieter-ID. Dies kann ein beliebiger String sein, den Sie mchten.npmgibt das Paket an, das fr diesen Anbieter verwendet werden soll. Hier wird@ai-sdk/openai-compatiblefr jede OpenAI-kompatible API verwendet.nameist der Anzeigename fr den Anbieter in der Benutzeroberflche.options.baseURList der Endpunkt fr den lokalen Server.modelsist eine Zuordnung von Modell-IDs zu ihren Konfigurationen. Der Modellname wird in der Modellauswahlliste angezeigt.
Ollama Cloud
Um Ollama Cloud mit OpenCode zu verwenden:
-
Gehen Sie zu https://ollama.com/ und melden Sie sich an oder erstellen Sie ein Konto.
-
Navigieren Sie zu Einstellungen > Schlssel und klicken Sie auf API-Schlssel hinzufgen, um einen neuen API-Schlssel zu generieren.
-
Kopieren Sie den API-Schlssel fr die Verwendung in OpenCode.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Ollama Cloud./connect -
Geben Sie Ihren Ollama Cloud-API-Schlssel ein.
┌ API key││└ enter -
Wichtig: Bevor Sie Cloud-Modelle in OpenCode verwenden, mssen Sie die Modellinformationen lokal abrufen:
Terminal-Fenster ollama pull gpt-oss:20b-cloud -
Fhren Sie den Befehl
/modelsaus, um Ihr Ollama Cloud-Modell auszuwhlen./models
OpenAI
Wir empfehlen die Anmeldung fr ChatGPT Plus oder Pro.
-
Nachdem Sie sich angemeldet haben, fhren Sie den Befehl
/connectaus und whlen Sie OpenAI aus./connect -
Hier knnen Sie die Option ChatGPT Plus/Pro auswhlen und dies wird Ihren Browser ffnen und Sie zur Authentifizierung auffordern.
┌ Select auth method││ ChatGPT Plus/Pro│ Manually enter API Key└ -
Nun sollten alle OpenAI-Modelle verfgbar sein, wenn Sie den Befehl
/modelsverwenden./models
Verwendung von API-Schlsseln
Wenn Sie bereits einen API-Schlssel haben, knnen Sie API-Schlssel manuell eingeben auswhlen und ihn in Ihr Terminal einfgen.
OpenCode Zen
OpenCode Zen ist eine Liste von getesteten und verifizierten Modellen, die vom OpenCode-Team bereitgestellt werden. Mehr erfahren.
-
Melden Sie sich bei OpenCode Zen an und klicken Sie auf API-Schlssel erstellen.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach OpenCode Zen./connect -
Geben Sie Ihren OpenCode-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie Qwen 3 Coder 480B auszuwhlen./models
OpenRouter
-
Gehen Sie zum OpenRouter-Dashboard, klicken Sie auf API-Schlssel erstellen und kopieren Sie den Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach OpenRouter./connect -
Geben Sie den API-Schlssel fr den Anbieter ein.
┌ API key││└ enter -
Viele OpenRouter-Modelle sind standardmig vorinstalliert, fhren Sie den Befehl
/modelsaus, um den auszuwhlen, den Sie mchten./modelsSie knnen auch weitere Modelle ber Ihre opencode-Konfiguration hinzufgen.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"somecoolnewmodel": {}}}}} -
Sie knnen sie auch ber Ihre opencode-Konfiguration anpassen. Hier ist ein Beispiel fr die Angabe eines Anbieters
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"openrouter": {"models": {"moonshotai/kimi-k2": {"options": {"provider": {"order": ["baseten"],"allow_fallbacks": false}}}}}}}
SAP AI Core
SAP AI Core bietet Zugriff auf mehr als 40 Modelle von OpenAI, Anthropic, Google, Amazon, Meta, Mistral und AI21 ber eine einheitliche Plattform.
-
Gehen Sie zu Ihrem SAP BTP-Cockpit, navigieren Sie zu Ihrer SAP AI Core-Dienstinstanz und erstellen Sie einen Dienstschlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach SAP AI Core./connect -
Geben Sie Ihren Dienstschlssel-JSON ein.
┌ Service key││└ enterOder legen Sie die Umgebungsvariable
AICORE_SERVICE_KEYfest:Terminal-Fenster AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencodeOder fgen Sie ihn zu Ihrem Bash-Profil hinzu:
~/.bash_profile export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' -
Optional knnen Sie die Bereitstellungs-ID und die Ressourcengruppe festlegen:
Terminal-Fenster AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode -
Fhren Sie den Befehl
/modelsaus, um aus mehr als 40 verfgbaren Modellen auszuwhlen./models
OVHcloud AI Endpoints
-
Gehen Sie zum OVHcloud-Panel. Navigieren Sie zum Abschnitt
Public Cloud,AI & Machine Learning>AI Endpointsund im TabAPI Keysklicken Sie auf Neuen API-Schlssel erstellen. -
Fhren Sie den Befehl
/connectaus und suchen Sie nach OVHcloud AI Endpoints./connect -
Geben Sie Ihren OVHcloud AI Endpoints-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie gpt-oss-120b auszuwhlen./models
Scaleway
Um die Scaleway Generative APIs mit Opencode zu verwenden:
-
Gehen Sie zu den Scaleway-Konsole IAM-Einstellungen, um einen neuen API-Schlssel zu generieren.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Scaleway./connect -
Geben Sie Ihren Scaleway-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie devstral-2-123b-instruct-2512 oder gpt-oss-120b auszuwhlen./models
Together AI
-
Gehen Sie zur Together AI-Konsole, erstellen Sie ein Konto und klicken Sie auf Schlssel hinzufgen.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Together AI./connect -
Geben Sie Ihren Together AI-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie Kimi K2 Instruct auszuwhlen./models
Venice AI
-
Gehen Sie zur Venice AI-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Venice AI./connect -
Geben Sie Ihren Venice AI-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie Llama 3.3 70B auszuwhlen./models
Vercel AI Gateway
Vercel AI Gateway ermglicht Ihnen den Zugriff auf Modelle von OpenAI, Anthropic, Google, xAI und mehr ber einen einheitlichen Endpunkt. Modelle werden zum Listenpreis ohne Aufschlag angeboten.
-
Gehen Sie zum Vercel-Dashboard, navigieren Sie zum Tab AI Gateway und klicken Sie auf API-Schlssel, um einen neuen API-Schlssel zu erstellen.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Vercel AI Gateway./connect -
Geben Sie Ihren Vercel AI Gateway-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell auszuwhlen./models
Sie knnen Modelle auch ber Ihre opencode-Konfiguration anpassen. Hier ist ein Beispiel fr die Angabe der Anbietersrouting-Reihenfolge.
{ "$schema": "https://opencode.ai/config.json", "provider": { "vercel": { "models": { "anthropic/claude-sonnet-4": { "options": { "order": ["anthropic", "vertex"] } } } } }}Einige ntzliche Routing-Optionen:
| Option | Beschreibung |
|---|---|
order | Anbietersequenz zum Ausprobieren |
only | Auf bestimmte Anbieter beschrnken |
zeroDataRetention | Nur Anbieter mit Null-Datenretentionsrichtlinien verwenden |
xAI
-
Gehen Sie zur xAI-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach xAI./connect -
Geben Sie Ihren xAI-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie Grok Beta auszuwhlen./models
Z.AI
-
Gehen Sie zur Z.AI-API-Konsole, erstellen Sie ein Konto und klicken Sie auf Neuen API-Schlssel erstellen.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach Z.AI./connectWenn Sie fr das GLM-Coding-Abonnement angemeldet sind, whlen Sie Z.AI-Coding-Abonnement.
-
Geben Sie Ihren Z.AI-API-Schlssel ein.
┌ API key││└ enter -
Fhren Sie den Befehl
/modelsaus, um ein Modell wie GLM-4.7 auszuwhlen./models
ZenMux
-
Gehen Sie zum ZenMux-Dashboard, klicken Sie auf API-Schlssel erstellen und kopieren Sie den Schlssel.
-
Fhren Sie den Befehl
/connectaus und suchen Sie nach ZenMux./connect -
Geben Sie den API-Schlssel fr den Anbieter ein.
┌ API key││└ enter -
Viele ZenMux-Modelle sind standardmig vorinstalliert, fhren Sie den Befehl
/modelsaus, um den auszuwhlen, den Sie mchten./modelsSie knnen auch weitere Modelle ber Ihre opencode-Konfiguration hinzufgen.
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"zenmux": {"models": {"somecoolnewmodel": {}}}}}
Benutzerdefinierter Anbieter
Um einen beliebigen OpenAI-kompatiblen Anbieter hinzuzufgen, der nicht im Befehl /connect aufgelistet ist:
-
Fhren Sie den Befehl
/connectaus und scrollen Sie nach unten zu Andere.Terminal-Fenster $ /connect┌ Add credential│◆ Select provider│ ...│ ● Other└ -
Geben Sie eine eindeutige ID fr den Anbieter ein.
Terminal-Fenster $ /connect┌ Add credential│◇ Enter provider id│ myprovider└ -
Geben Sie Ihren API-Schlssel fr den Anbieter ein.
Terminal-Fenster $ /connect┌ Add credential│▲ This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.│◇ Enter your API key│ sk-...└ -
Erstellen oder aktualisieren Sie Ihre Datei
opencode.jsonin Ihrem Projektverzeichnis:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"myprovider": {"npm": "@ai-sdk/openai-compatible","name": "My AI ProviderDisplay Name","options": {"baseURL": "https://api.myprovider.com/v1"},"models": {"my-model-name": {"name": "My Model Display Name"}}}}}Hier sind die Konfigurationsoptionen:
- npm: Zu verwendendes AI SDK-Paket,
@ai-sdk/openai-compatiblefr OpenAI-kompatible Anbieter - name: Anzeigename in der Benutzeroberflche.
- models: Verfgbare Modelle.
- options.baseURL: API-Endpunkt-URL.
- options.apiKey: Legen Sie optional den API-Schlssel fest, wenn Sie keine Authentifizierung verwenden.
- options.headers: Legen Sie optional benutzerdefinierte Header fest.
Weitere Informationen zu den erweiterten Optionen finden Sie im Beispiel unten.
- npm: Zu verwendendes AI SDK-Paket,
-
Fhren Sie den Befehl
/modelsaus und Ihr benutzerdefinierter Anbieter und Ihre Modelle erscheinen in der Auswahlliste.
Beispiel
Hier ist ein Beispiel, das die Optionen apiKey, headers und limit des Modells festlegt.
{ "$schema": "https://opencode.ai/config.json", "provider": { "myprovider": { "npm": "@ai-sdk/openai-compatible", "name": "My AI ProviderDisplay Name", "options": { "baseURL": "https://api.myprovider.com/v1", "apiKey": "{env:ANTHROPIC_API_KEY}", "headers": { "Authorization": "Bearer custom-token" } }, "models": { "my-model-name": { "name": "My Model Display Name", "limit": { "context": 200000, "output": 65536 } } } } }}Konfigurationsdetails:
- apiKey: Festgelegt unter Verwendung der
env-Variablensyntax, mehr erfahren. - headers: Benutzerdefinierte Header, die mit jeder Anfrage gesendet werden.
- limit.context: Maximale Eingabetoken, die das Modell akzeptiert.
- limit.output: Maximale Token, die das Modell generieren kann.
Die Felder limit ermglichen es OpenCode zu verstehen, wie viel Kontext Ihnen noch brig bleibt. Standardanbieter ziehen diese automatisch von models.dev.
Fehlerbehebung
Wenn Sie Probleme bei der Konfiguration eines Anbieters haben, berprfen Sie Folgendes:
-
berprfen Sie die Auth-Einrichtung: Fhren Sie
opencode auth listaus, um zu sehen, ob die Anmeldedaten fr den Anbieter zu Ihrer Konfiguration hinzugefgt wurden.Dies gilt nicht fr Anbieter wie Amazon Bedrock, die sich auf Umgebungsvariablen fr ihre Authentifizierung verlassen.
-
Fr benutzerdefinierte Anbieter berprfen Sie die opencode-Konfiguration und:
- Stellen Sie sicher, dass die im Befehl
/connectverwendete Anbieter-ID mit der ID in Ihrer opencode-Konfiguration bereinstimmt. - Das richtige npm-Paket fr den Anbieter verwendet wird. Verwenden Sie beispielsweise
@ai-sdk/cerebrasfr Cerebras. Und fr alle anderen OpenAI-kompatiblen Anbieter verwenden Sie@ai-sdk/openai-compatible. - berprfen Sie, ob der korrekte API-Endpunkt im Feld
options.baseURLverwendet wird.
- Stellen Sie sicher, dass die im Befehl