Zen
Kuratierte Liste von Modellen, die von OpenCode bereitgestellt werden.
OpenCode Zen ist eine Liste von getesteten und verifizierten Modellen, die vom OpenCode-Team bereitgestellt werden.
Zen funktioniert wie jeder andere Anbieter in OpenCode. Sie melden sich bei OpenCode Zen an und erhalten Ihren API-Schlussel. Es ist vollstandig optional und Sie mussen es nicht verwenden, um OpenCode zu nutzen.
Hintergrund
Es gibt eine groe Anzahl von Modellen, aber nur einige wenige davon funktionieren gut als Codierungs-Agenten. Daruber hinaus sind die meisten Anbieter sehr unterschiedlich konfiguriert; Sie erhalten also sehr unterschiedliche Leistung und Qualitat.
Wenn Sie also ein Modell uber etwas wie OpenRouter verwenden, konnen Sie nie sicher sein, ob Sie die beste Version des gewunschten Modells erhalten.
Um dies zu beheben, haben wir ein paar Dinge getan:
- Wir haben eine ausgewahlte Gruppe von Modellen getestet und mit ihren Teams daruber gesprochen, wie man sie am besten einsetzt.
- Wir haben dann mit einigen Anbietern zusammengearbeitet, um sicherzustellen, dass diese korrekt ausgeliefert werden.
- Schliealich haben wir die Kombination aus Modell/Anbieter benchmarket und eine Liste erstellt, die wir gerne weiterempfehlen.
OpenCode Zen ist ein AI-Gateway, das Ihnen Zugang zu diesen Modellen bietet.
Funktionsweise
OpenCode Zen funktioniert wie jeder andere Anbieter in OpenCode.
- Sie melden sich bei OpenCode Zen an, fugen Ihre Abrechnungsdetails hinzu und kopieren Ihren API-Schlussel.
- Sie fuhren den Befehl
/connectin der TUI aus, wahlen OpenCode Zen aus und fugen Ihren API-Schlussel ein. - Fuhren Sie
/modelsin der TUI aus, um die Liste der Modelle zu sehen, die wir empfehlen.
Sie werden pro Anfrage berechnet und konnen Ihrem Guthaben hinzufugen.
Endpunkte
Sie konnen auch auf unsere Modelle uber die folgenden API-Endpunkte zugreifen.
| Modell | Modell-ID | Endpunkt | AI SDK-Paket |
|---|---|---|---|
| GPT 5.2 | gpt-5.2 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 | gpt-5.1 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex | gpt-5.1-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex Max | gpt-5.1-codex-max | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5.1 Codex Mini | gpt-5.1-codex-mini | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 | gpt-5 | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 Codex | gpt-5-codex | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| GPT 5 Nano | gpt-5-nano | https://opencode.ai/zen/v1/responses | @ai-sdk/openai |
| Claude Sonnet 4.5 | claude-sonnet-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Sonnet 4 | claude-sonnet-4 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Haiku 4.5 | claude-haiku-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Haiku 3.5 | claude-3-5-haiku | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.5 | claude-opus-4-5 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Claude Opus 4.1 | claude-opus-4-1 | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| MiniMax M2.1 | minimax-m2.1-free | https://opencode.ai/zen/v1/messages | @ai-sdk/anthropic |
| Gemini 3 Pro | gemini-3-pro | https://opencode.ai/zen/v1/models/gemini-3-pro | @ai-sdk/google |
| Gemini 3 Flash | gemini-3-flash | https://opencode.ai/zen/v1/models/gemini-3-flash | @ai-sdk/google |
| GLM 4.6 | glm-4.6 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| GLM 4.7 | glm-4.7-free | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2 | kimi-k2 | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Kimi K2 Thinking | kimi-k2-thinking | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Qwen3 Coder 480B | qwen3-coder | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Grok Code Fast 1 | grok-code | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
| Big Pickle | big-pickle | https://opencode.ai/zen/v1/chat/completions | @ai-sdk/openai-compatible |
Die Modell-ID in Ihrer OpenCode-Konfiguration verwendet das Format opencode/<model-id>. Beispiel: Fur GPT 5.1 Codex wurden Sie opencode/gpt-5.1-codex in Ihrer Konfiguration verwenden.
Modelle
Sie konnen die vollstandige Liste der verfugbaren Modelle und deren Metadaten abrufen von:
https://opencode.ai/zen/v1/modelsPreise
Wir unterstutzen ein Pay-as-you-go-Modell. Hier sind die Preise pro 1M Tokens.
| Modell | Input | Output | Gelesener Cache | Geschriebener Cache |
|---|---|---|---|---|
| Big Pickle | Kostenlos | Kostenlos | Kostenlos | - |
| Grok Code Fast 1 | Kostenlos | Kostenlos | Kostenlos | - |
| MiniMax M2.1 | Kostenlos | Kostenlos | Kostenlos | - |
| GLM 4.7 | Kostenlos | Kostenlos | Kostenlos | - |
| GLM 4.6 | 0,60 $ | 2,20 $ | 0,10 $ | - |
| Kimi K2 | 0,40 $ | 2,50 $ | - | - |
| Kimi K2 Thinking | 0,40 $ | 2,50 $ | - | - |
| Qwen3 Coder 480B | 0,45 $ | 1,50 $ | - | - |
| Claude Sonnet 4.5 (<= 200K Tokens) | 3,00 $ | 15,00 $ | 0,30 $ | 3,75 $ |
| Claude Sonnet 4.5 (> 200K Tokens) | 6,00 $ | 22,50 $ | 0,60 $ | 7,50 $ |
| Claude Sonnet 4 (<= 200K Tokens) | 3,00 $ | 15,00 $ | 0,30 $ | 3,75 $ |
| Claude Sonnet 4 (> 200K Tokens) | 6,00 $ | 22,50 $ | 0,60 $ | 7,50 $ |
| Claude Haiku 4.5 | 1,00 $ | 5,00 $ | 0,10 $ | 1,25 $ |
| Claude Haiku 3.5 | 0,80 $ | 4,00 $ | 0,08 $ | 1,00 $ |
| Claude Opus 4.5 | 5,00 $ | 25,00 $ | 0,50 $ | 6,25 $ |
| Claude Opus 4.1 | 15,00 $ | 75,00 $ | 1,50 $ | 18,75 $ |
| Gemini 3 Pro (<= 200K Tokens) | 2,00 $ | 12,00 $ | 0,20 $ | - |
| Gemini 3 Pro (> 200K Tokens) | 4,00 $ | 18,00 $ | 0,40 $ | - |
| Gemini 3 Flash | 0,50 $ | 3,00 $ | 0,05 $ | - |
| GPT 5.2 | 1,75 $ | 14,00 $ | 0,175 $ | - |
| GPT 5.1 | 1,07 $ | 8,50 $ | 0,107 $ | - |
| GPT 5.1 Codex | 1,07 $ | 8,50 $ | 0,107 $ | - |
| GPT 5.1 Codex Max | 1,25 $ | 10,00 $ | 0,125 $ | - |
| GPT 5.1 Codex Mini | 0,25 $ | 2,00 $ | 0,025 $ | - |
| GPT 5 | 1,07 $ | 8,50 $ | 0,107 $ | - |
| GPT 5 Codex | 1,07 $ | 8,50 $ | 0,107 $ | - |
| GPT 5 Nano | Kostenlos | Kostenlos | Kostenlos | - |
Sie bemogern vielleicht Claude Haiku 3.5 in Ihrem Nutzungsverlauf. Dies ist ein kostengunstiges Modell, das verwendet wird, um die Titel Ihrer Sitzungen zu generieren.
Die kostenlosen Modelle:
- Grok Code Fast 1 ist fur begrenzte Zeit kostenlos auf OpenCode. Das xAI-Team nutzt diese Zeit, um Feedback zu sammeln und Grok Code zu verbessern.
- GLM 4.7 ist fur begrenzte Zeit kostenlos auf OpenCode. Das Team nutzt diese Zeit, um Feedback zu sammeln und das Modell zu verbessern.
- MiniMax M2.1 ist fur begrenzte Zeit kostenlos auf OpenCode. Das Team nutzt diese Zeit, um Feedback zu sammeln und das Modell zu verbessern.
- Big Pickle ist ein Stealth-Modell, das fur begrenzte Zeit kostenlos auf OpenCode ist. Das Team nutzt diese Zeit, um Feedback zu sammeln und das Modell zu verbessern.
Kontaktieren Sie uns, wenn Sie Fragen haben.
Automatisches Aufladen
Wenn Ihr Guthaben unter 5 $ fallt, wird Zen automatisch 20 $ aufladen.
Sie konnen den Betrag fur das automatische Aufladen andern. Sie konnen das automatische Aufladen auch vollstandig deaktivieren.
Monatliche Limits
Sie konnen auch ein monatliches Nutzungslimit fur den gesamten Arbeitsbereich und fur jedes Mitglied Ihres Teams festlegen.
Wenn Sie beispielsweise ein monatliches Nutzungslimit von 20 $ festlegen, wird Zen nicht mehr als 20 $ pro Monat verwenden. Wenn Sie jedoch das automatische Aufladen aktiviert haben, konnte Zen am Ende mehr als 20 $ berechnen, wenn Ihr Guthaben unter 5 $ fallt.
Datenschutz
Alle unsere Modelle werden in den USA gehostet. Unsere Anbieter befolgen eine Zero-Retention-Policy und verwenden Ihre Daten nicht fur das Modell-Training, mit folgenden Ausnahmen:
- Grok Code Fast 1: Wahrend der kostenlosen Phase konnten gesammelte Daten verwendet werden, um Grok Code zu verbessern.
- GLM 4.7: Wahrend der kostenlosen Phase konnten gesammelte Daten verwendet werden, um das Modell zu verbessern.
- MiniMax M2.1: Wahrend der kostenlosen Phase konnten gesammelte Daten verwendet werden, um das Modell zu verbessern.
- Big Pickle: Wahrend der kostenlosen Phase konnten gesammelte Daten verwendet werden, um das Modell zu verbessern.
- OpenAI-APIs: Anfragen werden 30 Tage lang gema den OpenAI-Datenrichtlinien gespeichert.
- Anthropic-APIs: Anfragen werden 30 Tage lang gema den Anthropic-Datenrichtlinien gespeichert.
Fur Teams
Zen funktioniert auch groartig fur Teams. Sie konnen Teammitglieder einladen, Rollen zuweisen, die Modelle kuratieren, die Ihr Team verwendet, und mehr.
Die Verwaltung Ihres Arbeitsbereichs ist fur Teams im Rahmen der Beta derzeit kostenlos. Wir werden bald mehr Details zu den Preisen teilen.
Rollen
Sie konnen Teammitglieder zu Ihrem Arbeitsbereich einladen und Rollen zuweisen:
- Admin: Modelle, Mitglieder, API-Schlussel und Abrechnung verwalten
- Mitglied: Nur eigene API-Schlussel verwalten
Admins konnen auch monatliche Ausgabengrenzen fur jedes Mitglied festlegen, um die Kosten unter Kontrolle zu halten.
Modell-Zugriff
Admins konnen bestimmte Modelle fur den Arbeitsbereich aktivieren oder deaktivieren. Anfragen an ein deaktiviertes Modell geben einen Fehler zuruck.
Dies ist nitzlich fur Falle, in denen Sie die Verwendung eines Modells deaktivieren mochten, das Daten sammelt.
Eigenen Schlussel verwenden
Sie konnen Ihre eigenen OpenAI- oder Anthropic-API-Schlussel verwenden, wahrend Sie gleichzeitig auf andere Modelle in Zen zugreifen.
Wenn Sie Ihre eigenen Schlussel verwenden, werden Tokens direkt vom Anbieter berechnet, nicht von Zen.
Wenn Ihre Organisation beispielsweise bereits einen Schlussel fur OpenAI oder Anthropic hat und Sie diesen stattdessen verwenden mochten.
Ziele
Wir haben OpenCode Zen erstellt, um:
- Die besten Modelle/Anbieter fur Codierungs-Agenten zu benchmarken.
- Zugang zu den hochwertigsten Optionen zu haben und keine Leistungseinbuen oder Routing zu gunstigeren Anbietern zu riskieren.
- Alle Preissenkungen weiterzugeben, indem wir zum Selbstkostenpreis verkaufen; also ist die einzige Aufschlage, um unsere Bearbeitungsgebuhren zu decken.
- Keine Lock-in zu haben, indem wir Ihnen ermoglichen, es mit jedem anderen Codierungs-Agenten zu verwenden. Und immer erlauben, jeden anderen Anbieter mit OpenCode zu verwenden.