Zum Inhalt springen

Modelle

Konfiguration eines LLM-Anbieters und -Modells.

OpenCode verwendet das AI SDK und Models.dev zur Unterstutzung von 75+ LLM-Anbietern und unterstutzt die Ausfuhrung lokaler Modelle.


Anbieter

Die meisten beliebten Anbieter sind standardmabig vorinstalliert. Wenn Sie die Anmeldedaten fur einen Anbieter uber den Befehl /connect hinzugefugt haben, stehen sie beim Start von OpenCode zur Verfugung.

Weitere Informationen uber Anbieter.


Modell auswahlen

Sobald Sie Ihren Anbieter konfiguriert haben, konnen Sie das gewunschte Modell auswahlen, indem Sie eingeben:

/models

Empfohlene Modelle

Es gibt viele Modelle, mit neuen Modellen, die jede Woche erscheinen.

Es gibt jedoch nur wenige, die gut sowohl in der Codegenerierung als auch im Tool-Aufruf sind.

Hier sind mehrere Modelle, die gut mit OpenCode funktionieren, in keiner bestimmten Reihenfolge. (Dies ist keine vollstandige Liste und nicht unbedingt aktuell):

  • GPT 5.2
  • GPT 5.1 Codex
  • Claude Opus 4.5
  • Claude Sonnet 4.5
  • Minimax M2.1
  • Gemini 3 Pro

Standard festlegen

Um eines davon als Standardmodell festzulegen, konnen Sie den Schlussel model in Ihrer OpenCode-Konfiguration festlegen.

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}

Hier ist die vollstandige ID anbieter-id/modell-id. Wenn Sie beispielsweise OpenCode Zen verwenden, wurden Sie opencode/gpt-5.1-codex fur GPT 5.1 Codex verwenden.

Wenn Sie einen benutzerdefinierten Anbieter konfiguriert haben, ist die anbieter-id der Schlussel aus dem provider-Teil Ihrer Konfiguration und die modell-id der Schlussel aus provider.models.


Modelle konfigurieren

Sie konnen die Optionen eines Modells global uber die Konfiguration konfigurieren.

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}

Hier konfigurieren wir globale Einstellungen fur zwei integrierte Modelle: gpt-5 beim Zugriff uber den openai-Anbieter und claude-sonnet-4-20250514 beim Zugriff uber den anthropic-Anbieter. Die integrierten Anbieter- und Modellnamen konnen auf Models.dev gefunden werden.

Sie konnen diese Optionen auch fur alle Agents konfigurieren, die Sie verwenden. Die Agentenkonfiguration uberschreibt alle globalen Optionen hier. Weitere Informationen.

Sie konnen auch benutzerdefinierte Varianten definieren, die integrierte erweitern. Varianten ermöglichen es Ihnen, verschiedene Einstellungen fur dasselbe Modell zu konfigurieren, ohne doppelte Eintrage zu erstellen:

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}

Varianten

Viele Modelle unterstutzen mehrere Varianten mit unterschiedlichen Konfigurationen. OpenCode wird mit integrierten Standardvarianten fur beliebte Anbieter geliefert.

Integrierte Varianten

OpenCode wird mit Standardvarianten fur viele Anbieter geliefert:

Anthropic:

  • high - Hohes Denk-Budget (Standard)
  • max - Maximalles Denk-Budget

OpenAI:

Variiert je nach Modell, aber ungefahr:

  • none - Kein Reasoning
  • minimal - Minimaler Reasoning-Aufwand
  • low - Geringer Reasoning-Aufwand
  • medium - Mittlerer Reasoning-Aufwand
  • high - Hoher Reasoning-Aufwand
  • xhigh - Sehr hoher Reasoning-Aufwand

Google:

  • low - Geringerer Aufwand/Token-Budget
  • high - Hoherer Aufwand/Token-Budget

Benutzerdefinierte Varianten

Sie konnen vorhandene Varianten uberschreiben oder eigene hinzufugen:

opencode.jsonc
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}

Varianten wechseln

Verwenden Sie das Keybind variant_cycle, um schnell zwischen Varianten zu wechseln. Weitere Informationen.


Modelle laden

Beim Start von OpenCode werden Modelle in der folgenden Prioritatsreihenfolge uberpruft:

  1. Der Befehlszeilen-Schalter --model oder -m. Das Format ist das gleiche wie in der Konfigurationsdatei: anbieter-id/modell-id.

  2. Die Modellsliste in der OpenCode-Konfiguration.

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "model": "anthropic/claude-sonnet-4-20250514"
    }

    Das Format hier ist anbieter/modell.

  3. Das zuletzt verwendete Modell.

  4. Das erste Modell unter Verwendung einer internen Prioritat.