Modelle
Konfiguration eines LLM-Anbieters und -Modells.
OpenCode verwendet das AI SDK und Models.dev zur Unterstutzung von 75+ LLM-Anbietern und unterstutzt die Ausfuhrung lokaler Modelle.
Anbieter
Die meisten beliebten Anbieter sind standardmabig vorinstalliert. Wenn Sie die Anmeldedaten fur einen Anbieter uber den Befehl /connect hinzugefugt haben, stehen sie beim Start von OpenCode zur Verfugung.
Weitere Informationen uber Anbieter.
Modell auswahlen
Sobald Sie Ihren Anbieter konfiguriert haben, konnen Sie das gewunschte Modell auswahlen, indem Sie eingeben:
/modelsEmpfohlene Modelle
Es gibt viele Modelle, mit neuen Modellen, die jede Woche erscheinen.
Es gibt jedoch nur wenige, die gut sowohl in der Codegenerierung als auch im Tool-Aufruf sind.
Hier sind mehrere Modelle, die gut mit OpenCode funktionieren, in keiner bestimmten Reihenfolge. (Dies ist keine vollstandige Liste und nicht unbedingt aktuell):
- GPT 5.2
- GPT 5.1 Codex
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gemini 3 Pro
Standard festlegen
Um eines davon als Standardmodell festzulegen, konnen Sie den Schlussel model in Ihrer OpenCode-Konfiguration festlegen.
{ "$schema": "https://opencode.ai/config.json", "model": "lmstudio/google/gemma-3n-e4b"}Hier ist die vollstandige ID anbieter-id/modell-id. Wenn Sie beispielsweise OpenCode Zen verwenden, wurden Sie opencode/gpt-5.1-codex fur GPT 5.1 Codex verwenden.
Wenn Sie einen benutzerdefinierten Anbieter konfiguriert haben, ist die anbieter-id der Schlussel aus dem provider-Teil Ihrer Konfiguration und die modell-id der Schlussel aus provider.models.
Modelle konfigurieren
Sie konnen die Optionen eines Modells global uber die Konfiguration konfigurieren.
{ "$schema": "https://opencode.ai/config.json", "provider": { "openai": { "models": { "gpt-5": { "options": { "reasoningEffort": "high", "textVerbosity": "low", "reasoningSummary": "auto", "include": ["reasoning.encrypted_content"], }, }, }, }, "anthropic": { "models": { "claude-sonnet-4-5-20250929": { "options": { "thinking": { "type": "enabled", "budgetTokens": 16000, }, }, }, }, }, },}Hier konfigurieren wir globale Einstellungen fur zwei integrierte Modelle: gpt-5 beim Zugriff uber den openai-Anbieter und claude-sonnet-4-20250514 beim Zugriff uber den anthropic-Anbieter.
Die integrierten Anbieter- und Modellnamen konnen auf Models.dev gefunden werden.
Sie konnen diese Optionen auch fur alle Agents konfigurieren, die Sie verwenden. Die Agentenkonfiguration uberschreibt alle globalen Optionen hier. Weitere Informationen.
Sie konnen auch benutzerdefinierte Varianten definieren, die integrierte erweitern. Varianten ermöglichen es Ihnen, verschiedene Einstellungen fur dasselbe Modell zu konfigurieren, ohne doppelte Eintrage zu erstellen:
{ "$schema": "https://opencode.ai/config.json", "provider": { "opencode": { "models": { "gpt-5": { "variants": { "high": { "reasoningEffort": "high", "textVerbosity": "low", "reasoningSummary": "auto", }, "low": { "reasoningEffort": "low", "textVerbosity": "low", "reasoningSummary": "auto", }, }, }, }, }, },}Varianten
Viele Modelle unterstutzen mehrere Varianten mit unterschiedlichen Konfigurationen. OpenCode wird mit integrierten Standardvarianten fur beliebte Anbieter geliefert.
Integrierte Varianten
OpenCode wird mit Standardvarianten fur viele Anbieter geliefert:
Anthropic:
high- Hohes Denk-Budget (Standard)max- Maximalles Denk-Budget
OpenAI:
Variiert je nach Modell, aber ungefahr:
none- Kein Reasoningminimal- Minimaler Reasoning-Aufwandlow- Geringer Reasoning-Aufwandmedium- Mittlerer Reasoning-Aufwandhigh- Hoher Reasoning-Aufwandxhigh- Sehr hoher Reasoning-Aufwand
Google:
low- Geringerer Aufwand/Token-Budgethigh- Hoherer Aufwand/Token-Budget
Benutzerdefinierte Varianten
Sie konnen vorhandene Varianten uberschreiben oder eigene hinzufugen:
{ "$schema": "https://opencode.ai/config.json", "provider": { "openai": { "models": { "gpt-5": { "variants": { "thinking": { "reasoningEffort": "high", "textVerbosity": "low", }, "fast": { "disabled": true, }, }, }, }, }, },}Varianten wechseln
Verwenden Sie das Keybind variant_cycle, um schnell zwischen Varianten zu wechseln. Weitere Informationen.
Modelle laden
Beim Start von OpenCode werden Modelle in der folgenden Prioritatsreihenfolge uberpruft:
-
Der Befehlszeilen-Schalter
--modeloder-m. Das Format ist das gleiche wie in der Konfigurationsdatei:anbieter-id/modell-id. -
Die Modellsliste in der OpenCode-Konfiguration.
opencode.json {"$schema": "https://opencode.ai/config.json","model": "anthropic/claude-sonnet-4-20250514"}Das Format hier ist
anbieter/modell. -
Das zuletzt verwendete Modell.
-
Das erste Modell unter Verwendung einer internen Prioritat.