Zum Inhalt springen

Anbieter

Verwendung beliebter LLM-Anbieter in OpenCode.

OpenCode verwendet das AI SDK und Models.dev, um mehr als 75 LLM-Anbieter zu unterstützen, und untersttzt die Ausfhrung lokaler Modelle.

Um einen Anbieter hinzuzufgen, mssen Sie:

  1. Die API-Schlssel des Anbieters mit dem Befehl /connect hinzufgen.
  2. Den Anbieter in Ihrer OpenCode-Konfiguration konfigurieren.

Anmeldedaten

Wenn Sie die API-Schlssel eines Anbieters mit dem Befehl /connect hinzufgen, werden sie in ~/.local/share/opencode/auth.json gespeichert.


Konfiguration

Sie knnen die Anbieter ber den Abschnitt provider in Ihrer OpenCode-Konfiguration anpassen.


Basis-URL

Sie knnen die Basis-URL fr jeden Anbieter anpassen, indem Sie die Option baseURL festlegen. Dies ist ntzlich bei der Verwendung von Proxy-Diensten oder benutzerdefinierten Endpunkten.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen ist eine Liste von Modellen, die vom OpenCode-Team bereitgestellt werden und die getestet und verifiziert wurden, um gut mit OpenCode zu funktionieren. Mehr erfahren.

  1. Fhren Sie den Befehl /connect im TUI aus, whlen Sie opencode aus und gehen Sie zu opencode.ai/auth.

    /connect
  2. Melden Sie sich an, fgen Sie Ihre Abrechnungsdetails hinzu und kopieren Sie Ihren API-Schlssel.

  3. Fgen Sie Ihren API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie /models im TUI aus, um die Liste der Modelle zu sehen, die wir empfehlen.

    /models

Es funktioniert wie jeder andere Anbieter in OpenCode. Die Verwendung ist vollstndig optional.


Verzeichnis

Schauen wir uns einige der Anbieter im Detail an. Wenn Sie einen Anbieter zur Liste hinzufgen mchten, ffn Sie gerne eine PR.


Amazon Bedrock

Um Amazon Bedrock mit OpenCode zu verwenden:

  1. Gehen Sie zum Modellkatalog in der Amazon Bedrock-Konsole und fordern Sie Zugang zu den Modellen an, die Sie verwenden mchten.

  2. Authentifizierung konfigurieren mit einer der folgenden Methoden:

    Umgebungsvariablen (Schnellstart)

    Legen Sie eine dieser Umgebungsvariablen fest, whrend Sie opencode ausfhren:

    Terminal-Fenster
    # Option 1: Verwendung von AWS-Zugriffsschlsseln
    AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
    # Option 2: Verwendung eines benannten AWS-Profils
    AWS_PROFILE=my-profile opencode
    # Option 3: Verwendung von Bedrock-Bearer-Token
    AWS_BEARER_TOKEN_BEDROCK=XXX opencode

    Oder fgen Sie sie zu Ihrem Bash-Profil hinzu:

    ~/.bash_profile
    export AWS_PROFILE=my-dev-profile
    export AWS_REGION=us-east-1

    Konfigurationsdatei (Empfohlen)

    Fr projektspezifische oder dauerhafte Konfiguration verwenden Sie opencode.json:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "my-aws-profile"
    }
    }
    }
    }

    Verfgbare Optionen:

    • region - AWS-Region (z. B. us-east-1, eu-west-1)
    • profile - AWS-benanntes Profil aus ~/.aws/credentials
    • endpoint - Benutzerdefinierte Endpunkt-URL fr VPC-Endpunkte (Alias fr die generische Option baseURL)

    Fortgeschritten: VPC-Endpunkte

    Wenn Sie VPC-Endpunkte fr Bedrock verwenden:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "production",
    "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
    }
    }
    }
    }

    Authentifizierungsmethoden

    • AWS_ACCESS_KEY_ID / AWS_SECRET_ACCESS_KEY: Erstellen Sie einen IAM-Benutzer und generieren Sie Zugriffsschlssel in der AWS-Konsole
    • AWS_PROFILE: Verwenden Sie benannte Profile aus ~/.aws/credentials. Konfigurieren Sie zuerst mit aws configure --profile my-profile oder aws sso login
    • AWS_BEARER_TOKEN_BEDROCK: Generieren Sie langfristige API-Schlssel aus der Amazon Bedrock-Konsole

    Authentifizierungsprioritt

    Amazon Bedrock verwendet die folgende Authentifizierungsprioritt:

    1. Bearer-Token - Umgebungsvariable AWS_BEARER_TOKEN_BEDROCK oder Token vom Befehl /connect
    2. AWS-Anmeldedaten-Kette - Profil, Zugriffsschlssel, freigegebene Anmeldedaten, IAM-Rollen, Instanzmetadaten
  3. Fhren Sie den Befehl /models aus, um das Modell auszuwhlen, das Sie verwenden mchten.

    /models

Anthropic

Wir empfehlen die Anmeldung fr Claude Pro oder Max.

  1. Nachdem Sie sich angemeldet haben, fhren Sie den Befehl /connect aus und whlen Sie Anthropic aus.

    /connect
  2. Hier knnen Sie die Option Claude Pro/Max auswhlen und dies wird Ihren Browser ffnen und Sie zur Authentifizierung auffordern.

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. Nun sollten alle Anthropic-Modelle verfgbar sein, wenn Sie den Befehl /models verwenden.

    /models
Verwendung von API-Schlsseln

Sie knnen auch API-Schlssel erstellen auswhlen, wenn Sie kein Pro/Max-Abonnement haben. Dies wird ebenfalls Ihren Browser ffnen und Sie auffordern, sich bei Anthropic anzumelden, und gibt Ihnen einen Code, den Sie in Ihr Terminal einfgen knnen.

Oder wenn Sie bereits einen API-Schlssel haben, knnen Sie API-Schlssel manuell eingeben auswhlen und ihn in Ihr Terminal einfgen.


Azure OpenAI

  1. Gehen Sie zum Azure-Portal und erstellen Sie eine Azure OpenAI-Ressource. Sie bentigen:

    • Ressourcenname: Dieser wird Teil Ihres API-Endpunkts (https://RESOURCE_NAME.openai.azure.com/)
    • API-Schlssel: Entweder KEY 1 oder KEY 2 aus Ihrer Ressource
  2. Gehen Sie zu Azure AI Foundry und stellen Sie ein Modell bereit.

  3. Fhren Sie den Befehl /connect aus und suchen Sie nach Azure.

    /connect
  4. Geben Sie Ihren API-Schlssel ein.

    ┌ API key
    └ enter
  5. Legen Sie Ihren Ressourcennamen als Umgebungsvariable fest:

    Terminal-Fenster
    AZURE_RESOURCE_NAME=XXX opencode

    Oder fgen Sie ihn zu Ihrem Bash-Profil hinzu:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. Fhren Sie den Befehl /models aus, um Ihr bereitgestelltes Modell auszuwhlen.

    /models

Azure Cognitive Services

  1. Gehen Sie zum Azure-Portal und erstellen Sie eine Azure OpenAI-Ressource. Sie bentigen:

    • Ressourcenname: Dieser wird Teil Ihres API-Endpunkts (https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/)
    • API-Schlssel: Entweder KEY 1 oder KEY 2 aus Ihrer Ressource
  2. Gehen Sie zu Azure AI Foundry und stellen Sie ein Modell bereit.

  3. Fhren Sie den Befehl /connect aus und suchen Sie nach Azure Cognitive Services.

    /connect
  4. Geben Sie Ihren API-Schlssel ein.

    ┌ API key
    └ enter
  5. Legen Sie Ihren Ressourcennamen als Umgebungsvariable fest:

    Terminal-Fenster
    AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX opencode

    Oder fgen Sie ihn zu Ihrem Bash-Profil hinzu:

    ~/.bash_profile
    export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
  6. Fhren Sie den Befehl /models aus, um Ihr bereitgestelltes Modell auszuwhlen.

    /models

Baseten

  1. Gehen Sie zu Baseten, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Baseten.

    /connect
  3. Geben Sie Ihren Baseten-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell auszuwhlen.

    /models

Cerebras

  1. Gehen Sie zur Cerebras-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Cerebras.

    /connect
  3. Geben Sie Ihren Cerebras-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie Qwen 3 Coder 480B auszuwhlen.

    /models

Cloudflare AI Gateway

Cloudflare AI Gateway ermglicht Ihnen den Zugriff auf Modelle von OpenAI, Anthropic, Workers AI und mehr ber einen einheitlichen Endpunkt. Mit Unified Billing bentigen Sie keine separaten API-Schlssel fr jeden Anbieter.

  1. Gehen Sie zum Cloudflare-Dashboard, navigieren Sie zu AI > AI Gateway und erstellen Sie ein neues Gateway.

  2. Legen Sie Ihre Konto-ID und Gateway-ID als Umgebungsvariablen fest.

    ~/.bash_profile
    export CLOUDFLARE_ACCOUNT_ID=your-32-character-account-id
    export CLOUDFLARE_GATEWAY_ID=your-gateway-id
  3. Fhren Sie den Befehl /connect aus und suchen Sie nach Cloudflare AI Gateway.

    /connect
  4. Geben Sie Ihren Cloudflare-API-Token ein.

    ┌ API key
    └ enter

    Oder legen Sie ihn als Umgebungsvariable fest.

    ~/.bash_profile
    export CLOUDFLARE_API_TOKEN=your-api-token
  5. Fhren Sie den Befehl /models aus, um ein Modell auszuwhlen.

    /models

    Sie knnen auch Modelle ber Ihre opencode-Konfiguration hinzufgen.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "cloudflare-ai-gateway": {
    "models": {
    "openai/gpt-4o": {},
    "anthropic/claude-sonnet-4": {}
    }
    }
    }
    }

Cortecs

  1. Gehen Sie zur Cortecs-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Cortecs.

    /connect
  3. Geben Sie Ihren Cortecs-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie Kimi K2 Instruct auszuwhlen.

    /models

DeepSeek

  1. Gehen Sie zur DeepSeek-Konsole, erstellen Sie ein Konto und klicken Sie auf Neuen API-Schlssel erstellen.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach DeepSeek.

    /connect
  3. Geben Sie Ihren DeepSeek-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein DeepSeek-Modell wie DeepSeek Reasoner auszuwhlen.

    /models

Deep Infra

  1. Gehen Sie zum Deep Infra-Dashboard, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Deep Infra.

    /connect
  3. Geben Sie Ihren Deep Infra-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell auszuwhlen.

    /models

Fireworks AI

  1. Gehen Sie zur Fireworks AI-Konsole, erstellen Sie ein Konto und klicken Sie auf API-Schlssel erstellen.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Fireworks AI.

    /connect
  3. Geben Sie Ihren Fireworks AI-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie Kimi K2 Instruct auszuwhlen.

    /models

GitHub Copilot

Um Ihr GitHub Copilot-Abonnement mit opencode zu verwenden:

  1. Fhren Sie den Befehl /connect aus und suchen Sie nach GitHub Copilot.

    /connect
  2. Gehen Sie zu github.com/login/device und geben Sie den Code ein.

    ┌ Login with GitHub Copilot
    │ https://github.com/login/device
    │ Enter code: 8F43-6FCF
    └ Waiting for authorization...
  3. Fhren Sie nun den Befehl /models aus, um das Modell auszuwhlen, das Sie verwenden mchten.

    /models

Google Vertex AI

Um Google Vertex AI mit OpenCode zu verwenden:

  1. Gehen Sie zum Model Garden in der Google Cloud Konsole und prfen Sie die Modelle, die in Ihrer Region verfgbar sind.

  2. Legen Sie die erforderlichen Umgebungsvariablen fest:

    • GOOGLE_CLOUD_PROJECT: Ihre Google Cloud-Projekt-ID
    • VERTEX_LOCATION (optional): Die Region fr Vertex AI (Standard ist global)
    • Authentifizierung (whlen Sie eine):
      • GOOGLE_APPLICATION_CREDENTIALS: Pfad zu Ihrer Dienstkonten-JSON-Schlsseldatei
      • Authentifizieren Sie sich mit dem gcloud-CLI: gcloud auth application-default login

    Legen Sie sie fest, whrend Sie opencode ausfhren.

    Terminal-Fenster
    GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode

    Oder fgen Sie sie zu Ihrem Bash-Profil hinzu.

    ~/.bash_profile
    export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
    export GOOGLE_CLOUD_PROJECT=your-project-id
    export VERTEX_LOCATION=global
  1. Fhren Sie den Befehl /models aus, um das Modell auszuwhlen, das Sie verwenden mchten.

    /models

Groq

  1. Gehen Sie zur Groq-Konsole, klicken Sie auf API-Schlssel erstellen und kopieren Sie den Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Groq.

    /connect
  3. Geben Sie den API-Schlssel fr den Anbieter ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um den auszuwhlen, den Sie mchten.

    /models

Hugging Face

Hugging Face Inference Providers bietet Zugriff auf Open-Source-Modelle, die von mehr als 17 Anbietern untersttzt werden.

  1. Gehen Sie zu den Hugging Face-Einstellungen, um ein Token zu erstellen, das Berechtigung hat, Aufrufe an Inferenzanbieter zu ttigen.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Hugging Face.

    /connect
  3. Geben Sie Ihr Hugging Face-Token ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie Kimi-K2-Instruct oder GLM-4.6 auszuwhlen.

    /models

Helicone

Helicone ist eine LLM-Observabilittsplattform, die Protokollierung, berwachung und Analyse fr Ihre KI-Anwendungen bereitstellt. Der Helicone AI Gateway leitet Ihre Anfragen automatisch an den entsprechenden Anbieter basierend auf dem Modell weiter.

  1. Gehen Sie zu Helicone, erstellen Sie ein Konto und generieren Sie einen API-Schlssel aus Ihrem Dashboard.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Helicone.

    /connect
  3. Geben Sie Ihren Helicone-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell auszuwhlen.

    /models

Fr weitere Anbieter und erweiterte Funktionen wie Caching und Ratenbegrenzung lesen Sie die Helicone-Dokumentation.

Optionale Konfigurationen

Falls Sie eine Funktion oder ein Modell von Helicone sehen, das nicht automatisch ber opencode konfiguriert ist, knnen Sie es immer selbst konfigurieren.

Hier ist das Helicone-Modellverzeichnis, Sie bentigen dies, um die IDs der Modelle abzurufen, die Sie hinzufgen mchten.

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
},
"models": {
"gpt-4o": {
// Modell-ID (von der Seite des Helicone-Modellverzeichnisses)
"name": "GPT-4o", // Ihr eigener benutzerdefinierter Name fr das Modell
},
"claude-sonnet-4-20250514": {
"name": "Claude Sonnet 4",
},
},
},
},
}

Benutzerdefinierte Header

Helicone untersttzt benutzerdefinierte Header fr Funktionen wie Caching, Benutzerverfolgung und Sitzungsverwaltung. Fgen Sie sie zu Ihrer Anbieterkonfiguration mit options.headers hinzu:

~/.config/opencode/opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"helicone": {
"npm": "@ai-sdk/openai-compatible",
"name": "Helicone",
"options": {
"baseURL": "https://ai-gateway.helicone.ai",
"headers": {
"Helicone-Cache-Enabled": "true",
"Helicone-User-Id": "opencode",
},
},
},
},
}
Sitzungsverfolgung

Die Sessions-Funktion von Helicone ermglicht es Ihnen, verwandte LLM-Anfragen zu gruppieren. Verwenden Sie das Plugin opencode-helicone-session, um jede OpenCode-Konversation automatisch als Sitzung in Helicone zu protokollieren.

Terminal-Fenster
npm install -g opencode-helicone-session

Fgen Sie es zu Ihrer Konfiguration hinzu.

opencode.json
{
"plugin": ["opencode-helicone-session"]
}

Das Plugin injiziert die Header Helicone-Session-Id und Helicone-Session-Name in Ihre Anfragen. Auf der Sessions-Seite von Helicone sehen Sie jede OpenCode-Konversation als separate Sitzung aufgelistet.

Hufige Helicone-Header
HeaderBeschreibung
Helicone-Cache-EnabledAntwort-Caching aktivieren (true/false)
Helicone-User-IdMetriken nach Benutzer verfolgen
Helicone-Property-[Name]Benutzerdefinierte Eigenschaften hinzufgen (z. B. Helicone-Property-Environment)
Helicone-Prompt-IdAnfragen mit Prompt-Versionen verknpfen

Siehe das Helicone-Header-Verzeichnis fr alle verfgbaren Header.


llama.cpp

Sie knnen opencode so konfigurieren, dass es lokale Modelle ber das llama-server-Dienstprogramm von llama.cpp verwendet

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"llama.cpp": {
"npm": "@ai-sdk/openai-compatible",
"name": "llama-server (local)",
"options": {
"baseURL": "http://127.0.0.1:8080/v1"
},
"models": {
"qwen3-coder:a3b": {
"name": "Qwen3-Coder: a3b-30b (local)",
"limit": {
"context": 128000,
"output": 65536
}
}
}
}
}
}

In diesem Beispiel:

  • llama.cpp ist die benutzerdefinierte Anbieter-ID. Dies kann ein beliebiger String sein, den Sie mchten.
  • npm gibt das Paket an, das fr diesen Anbieter verwendet werden soll. Hier wird @ai-sdk/openai-compatible fr jede OpenAI-kompatible API verwendet.
  • name ist der Anzeigename fr den Anbieter in der Benutzeroberflche.
  • options.baseURL ist der Endpunkt fr den lokalen Server.
  • models ist eine Zuordnung von Modell-IDs zu ihren Konfigurationen. Der Modellname wird in der Modellauswahlliste angezeigt.

IO.NET

IO.NET bietet 17 Modelle, die fr verschiedene Anwendungsflle optimiert sind:

  1. Gehen Sie zur IO.NET-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach IO.NET.

    /connect
  3. Geben Sie Ihren IO.NET-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell auszuwhlen.

    /models

LM Studio

Sie knnen opencode so konfigurieren, dass es lokale Modelle ber LM Studio verwendet.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"lmstudio": {
"npm": "@ai-sdk/openai-compatible",
"name": "LM Studio (local)",
"options": {
"baseURL": "http://127.0.0.1:1234/v1"
},
"models": {
"google/gemma-3n-e4b": {
"name": "Gemma 3n-e4b (local)"
}
}
}
}
}

In diesem Beispiel:

  • lmstudio ist die benutzerdefinierte Anbieter-ID. Dies kann ein beliebiger String sein, den Sie mchten.
  • npm gibt das Paket an, das fr diesen Anbieter verwendet werden soll. Hier wird @ai-sdk/openai-compatible fr jede OpenAI-kompatible API verwendet.
  • name ist der Anzeigename fr den Anbieter in der Benutzeroberflche.
  • options.baseURL ist der Endpunkt fr den lokalen Server.
  • models ist eine Zuordnung von Modell-IDs zu ihren Konfigurationen. Der Modellname wird in der Modellauswahlliste angezeigt.

Moonshot AI

Um Kimi K2 von Moonshot AI zu verwenden:

  1. Gehen Sie zur Moonshot AI-Konsole, erstellen Sie ein Konto und klicken Sie auf API-Schlssel erstellen.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Moonshot AI.

    /connect
  3. Geben Sie Ihren Moonshot-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um Kimi K2 auszuwhlen.

    /models

MiniMax

  1. Gehen Sie zur MiniMax-API-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach MiniMax.

    /connect
  3. Geben Sie Ihren MiniMax-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie M2.1 auszuwhlen.

    /models

Nebius Token Factory

  1. Gehen Sie zur Nebius Token Factory-Konsole, erstellen Sie ein Konto und klicken Sie auf Schlssel hinzufgen.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Nebius Token Factory.

    /connect
  3. Geben Sie Ihren Nebius Token Factory-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie Kimi K2 Instruct auszuwhlen.

    /models

Ollama

Sie knnen opencode so konfigurieren, dass es lokale Modelle ber Ollama verwendet.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"llama2": {
"name": "Llama 2"
}
}
}
}
}

In diesem Beispiel:

  • ollama ist die benutzerdefinierte Anbieter-ID. Dies kann ein beliebiger String sein, den Sie mchten.
  • npm gibt das Paket an, das fr diesen Anbieter verwendet werden soll. Hier wird @ai-sdk/openai-compatible fr jede OpenAI-kompatible API verwendet.
  • name ist der Anzeigename fr den Anbieter in der Benutzeroberflche.
  • options.baseURL ist der Endpunkt fr den lokalen Server.
  • models ist eine Zuordnung von Modell-IDs zu ihren Konfigurationen. Der Modellname wird in der Modellauswahlliste angezeigt.

Ollama Cloud

Um Ollama Cloud mit OpenCode zu verwenden:

  1. Gehen Sie zu https://ollama.com/ und melden Sie sich an oder erstellen Sie ein Konto.

  2. Navigieren Sie zu Einstellungen > Schlssel und klicken Sie auf API-Schlssel hinzufgen, um einen neuen API-Schlssel zu generieren.

  3. Kopieren Sie den API-Schlssel fr die Verwendung in OpenCode.

  4. Fhren Sie den Befehl /connect aus und suchen Sie nach Ollama Cloud.

    /connect
  5. Geben Sie Ihren Ollama Cloud-API-Schlssel ein.

    ┌ API key
    └ enter
  6. Wichtig: Bevor Sie Cloud-Modelle in OpenCode verwenden, mssen Sie die Modellinformationen lokal abrufen:

    Terminal-Fenster
    ollama pull gpt-oss:20b-cloud
  7. Fhren Sie den Befehl /models aus, um Ihr Ollama Cloud-Modell auszuwhlen.

    /models

OpenAI

Wir empfehlen die Anmeldung fr ChatGPT Plus oder Pro.

  1. Nachdem Sie sich angemeldet haben, fhren Sie den Befehl /connect aus und whlen Sie OpenAI aus.

    /connect
  2. Hier knnen Sie die Option ChatGPT Plus/Pro auswhlen und dies wird Ihren Browser ffnen und Sie zur Authentifizierung auffordern.

    ┌ Select auth method
    │ ChatGPT Plus/Pro
    │ Manually enter API Key
  3. Nun sollten alle OpenAI-Modelle verfgbar sein, wenn Sie den Befehl /models verwenden.

    /models
Verwendung von API-Schlsseln

Wenn Sie bereits einen API-Schlssel haben, knnen Sie API-Schlssel manuell eingeben auswhlen und ihn in Ihr Terminal einfgen.


OpenCode Zen

OpenCode Zen ist eine Liste von getesteten und verifizierten Modellen, die vom OpenCode-Team bereitgestellt werden. Mehr erfahren.

  1. Melden Sie sich bei OpenCode Zen an und klicken Sie auf API-Schlssel erstellen.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach OpenCode Zen.

    /connect
  3. Geben Sie Ihren OpenCode-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie Qwen 3 Coder 480B auszuwhlen.

    /models

OpenRouter

  1. Gehen Sie zum OpenRouter-Dashboard, klicken Sie auf API-Schlssel erstellen und kopieren Sie den Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach OpenRouter.

    /connect
  3. Geben Sie den API-Schlssel fr den Anbieter ein.

    ┌ API key
    └ enter
  4. Viele OpenRouter-Modelle sind standardmig vorinstalliert, fhren Sie den Befehl /models aus, um den auszuwhlen, den Sie mchten.

    /models

    Sie knnen auch weitere Modelle ber Ihre opencode-Konfiguration hinzufgen.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }
  5. Sie knnen sie auch ber Ihre opencode-Konfiguration anpassen. Hier ist ein Beispiel fr die Angabe eines Anbieters

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "openrouter": {
    "models": {
    "moonshotai/kimi-k2": {
    "options": {
    "provider": {
    "order": ["baseten"],
    "allow_fallbacks": false
    }
    }
    }
    }
    }
    }
    }

SAP AI Core

SAP AI Core bietet Zugriff auf mehr als 40 Modelle von OpenAI, Anthropic, Google, Amazon, Meta, Mistral und AI21 ber eine einheitliche Plattform.

  1. Gehen Sie zu Ihrem SAP BTP-Cockpit, navigieren Sie zu Ihrer SAP AI Core-Dienstinstanz und erstellen Sie einen Dienstschlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach SAP AI Core.

    /connect
  3. Geben Sie Ihren Dienstschlssel-JSON ein.

    ┌ Service key
    └ enter

    Oder legen Sie die Umgebungsvariable AICORE_SERVICE_KEY fest:

    Terminal-Fenster
    AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode

    Oder fgen Sie ihn zu Ihrem Bash-Profil hinzu:

    ~/.bash_profile
    export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
  4. Optional knnen Sie die Bereitstellungs-ID und die Ressourcengruppe festlegen:

    Terminal-Fenster
    AICORE_DEPLOYMENT_ID=your-deployment-id AICORE_RESOURCE_GROUP=your-resource-group opencode
  5. Fhren Sie den Befehl /models aus, um aus mehr als 40 verfgbaren Modellen auszuwhlen.

    /models

OVHcloud AI Endpoints

  1. Gehen Sie zum OVHcloud-Panel. Navigieren Sie zum Abschnitt Public Cloud, AI & Machine Learning > AI Endpoints und im Tab API Keys klicken Sie auf Neuen API-Schlssel erstellen.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach OVHcloud AI Endpoints.

    /connect
  3. Geben Sie Ihren OVHcloud AI Endpoints-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie gpt-oss-120b auszuwhlen.

    /models

Scaleway

Um die Scaleway Generative APIs mit Opencode zu verwenden:

  1. Gehen Sie zu den Scaleway-Konsole IAM-Einstellungen, um einen neuen API-Schlssel zu generieren.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Scaleway.

    /connect
  3. Geben Sie Ihren Scaleway-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie devstral-2-123b-instruct-2512 oder gpt-oss-120b auszuwhlen.

    /models

Together AI

  1. Gehen Sie zur Together AI-Konsole, erstellen Sie ein Konto und klicken Sie auf Schlssel hinzufgen.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Together AI.

    /connect
  3. Geben Sie Ihren Together AI-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie Kimi K2 Instruct auszuwhlen.

    /models

Venice AI

  1. Gehen Sie zur Venice AI-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Venice AI.

    /connect
  3. Geben Sie Ihren Venice AI-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie Llama 3.3 70B auszuwhlen.

    /models

Vercel AI Gateway

Vercel AI Gateway ermglicht Ihnen den Zugriff auf Modelle von OpenAI, Anthropic, Google, xAI und mehr ber einen einheitlichen Endpunkt. Modelle werden zum Listenpreis ohne Aufschlag angeboten.

  1. Gehen Sie zum Vercel-Dashboard, navigieren Sie zum Tab AI Gateway und klicken Sie auf API-Schlssel, um einen neuen API-Schlssel zu erstellen.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Vercel AI Gateway.

    /connect
  3. Geben Sie Ihren Vercel AI Gateway-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell auszuwhlen.

    /models

Sie knnen Modelle auch ber Ihre opencode-Konfiguration anpassen. Hier ist ein Beispiel fr die Angabe der Anbietersrouting-Reihenfolge.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"vercel": {
"models": {
"anthropic/claude-sonnet-4": {
"options": {
"order": ["anthropic", "vertex"]
}
}
}
}
}
}

Einige ntzliche Routing-Optionen:

OptionBeschreibung
orderAnbietersequenz zum Ausprobieren
onlyAuf bestimmte Anbieter beschrnken
zeroDataRetentionNur Anbieter mit Null-Datenretentionsrichtlinien verwenden

xAI

  1. Gehen Sie zur xAI-Konsole, erstellen Sie ein Konto und generieren Sie einen API-Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach xAI.

    /connect
  3. Geben Sie Ihren xAI-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie Grok Beta auszuwhlen.

    /models

Z.AI

  1. Gehen Sie zur Z.AI-API-Konsole, erstellen Sie ein Konto und klicken Sie auf Neuen API-Schlssel erstellen.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach Z.AI.

    /connect

    Wenn Sie fr das GLM-Coding-Abonnement angemeldet sind, whlen Sie Z.AI-Coding-Abonnement.

  3. Geben Sie Ihren Z.AI-API-Schlssel ein.

    ┌ API key
    └ enter
  4. Fhren Sie den Befehl /models aus, um ein Modell wie GLM-4.7 auszuwhlen.

    /models

ZenMux

  1. Gehen Sie zum ZenMux-Dashboard, klicken Sie auf API-Schlssel erstellen und kopieren Sie den Schlssel.

  2. Fhren Sie den Befehl /connect aus und suchen Sie nach ZenMux.

    /connect
  3. Geben Sie den API-Schlssel fr den Anbieter ein.

    ┌ API key
    └ enter
  4. Viele ZenMux-Modelle sind standardmig vorinstalliert, fhren Sie den Befehl /models aus, um den auszuwhlen, den Sie mchten.

    /models

    Sie knnen auch weitere Modelle ber Ihre opencode-Konfiguration hinzufgen.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "zenmux": {
    "models": {
    "somecoolnewmodel": {}
    }
    }
    }
    }

Benutzerdefinierter Anbieter

Um einen beliebigen OpenAI-kompatiblen Anbieter hinzuzufgen, der nicht im Befehl /connect aufgelistet ist:

  1. Fhren Sie den Befehl /connect aus und scrollen Sie nach unten zu Andere.

    Terminal-Fenster
    $ /connect
    Add credential
    Select provider
    ...
    Other
  2. Geben Sie eine eindeutige ID fr den Anbieter ein.

    Terminal-Fenster
    $ /connect
    Add credential
    Enter provider id
    myprovider
  3. Geben Sie Ihren API-Schlssel fr den Anbieter ein.

    Terminal-Fenster
    $ /connect
    Add credential
    This only stores a credential for myprovider - you will need to configure it in opencode.json, check the docs for examples.
    Enter your API key
    sk-...
  4. Erstellen oder aktualisieren Sie Ihre Datei opencode.json in Ihrem Projektverzeichnis:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "myprovider": {
    "npm": "@ai-sdk/openai-compatible",
    "name": "My AI ProviderDisplay Name",
    "options": {
    "baseURL": "https://api.myprovider.com/v1"
    },
    "models": {
    "my-model-name": {
    "name": "My Model Display Name"
    }
    }
    }
    }
    }

    Hier sind die Konfigurationsoptionen:

    • npm: Zu verwendendes AI SDK-Paket, @ai-sdk/openai-compatible fr OpenAI-kompatible Anbieter
    • name: Anzeigename in der Benutzeroberflche.
    • models: Verfgbare Modelle.
    • options.baseURL: API-Endpunkt-URL.
    • options.apiKey: Legen Sie optional den API-Schlssel fest, wenn Sie keine Authentifizierung verwenden.
    • options.headers: Legen Sie optional benutzerdefinierte Header fest.

    Weitere Informationen zu den erweiterten Optionen finden Sie im Beispiel unten.

  5. Fhren Sie den Befehl /models aus und Ihr benutzerdefinierter Anbieter und Ihre Modelle erscheinen in der Auswahlliste.


Beispiel

Hier ist ein Beispiel, das die Optionen apiKey, headers und limit des Modells festlegt.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"myprovider": {
"npm": "@ai-sdk/openai-compatible",
"name": "My AI ProviderDisplay Name",
"options": {
"baseURL": "https://api.myprovider.com/v1",
"apiKey": "{env:ANTHROPIC_API_KEY}",
"headers": {
"Authorization": "Bearer custom-token"
}
},
"models": {
"my-model-name": {
"name": "My Model Display Name",
"limit": {
"context": 200000,
"output": 65536
}
}
}
}
}
}

Konfigurationsdetails:

  • apiKey: Festgelegt unter Verwendung der env-Variablensyntax, mehr erfahren.
  • headers: Benutzerdefinierte Header, die mit jeder Anfrage gesendet werden.
  • limit.context: Maximale Eingabetoken, die das Modell akzeptiert.
  • limit.output: Maximale Token, die das Modell generieren kann.

Die Felder limit ermglichen es OpenCode zu verstehen, wie viel Kontext Ihnen noch brig bleibt. Standardanbieter ziehen diese automatisch von models.dev.


Fehlerbehebung

Wenn Sie Probleme bei der Konfiguration eines Anbieters haben, berprfen Sie Folgendes:

  1. berprfen Sie die Auth-Einrichtung: Fhren Sie opencode auth list aus, um zu sehen, ob die Anmeldedaten fr den Anbieter zu Ihrer Konfiguration hinzugefgt wurden.

    Dies gilt nicht fr Anbieter wie Amazon Bedrock, die sich auf Umgebungsvariablen fr ihre Authentifizierung verlassen.

  2. Fr benutzerdefinierte Anbieter berprfen Sie die opencode-Konfiguration und:

    • Stellen Sie sicher, dass die im Befehl /connect verwendete Anbieter-ID mit der ID in Ihrer opencode-Konfiguration bereinstimmt.
    • Das richtige npm-Paket fr den Anbieter verwendet wird. Verwenden Sie beispielsweise @ai-sdk/cerebras fr Cerebras. Und fr alle anderen OpenAI-kompatiblen Anbieter verwenden Sie @ai-sdk/openai-compatible.
    • berprfen Sie, ob der korrekte API-Endpunkt im Feld options.baseURL verwendet wird.