OpenCode Zen
使用 OpenCode 官方推荐模型列表。
OpenCode Zen 是由 OpenCode 团队维护的一份模型目录,里面的模型都经过实际验证,适配 OpenCode 在“写代码 + 工具调用”这两件事上的需求。
目标是:
- 帮你省掉自己在一堆模型里做 A/B 的时间;
- 尽量覆盖主流厂商和价位;
- 随着模型迭代保持更新。
什么时候用 Zen?
适合这些情况:
- 刚开始用 OpenCode,不想一开始就研究一大堆提供商;
- 团队希望统一“默认模型配置”;
- 只想要“一份好用的模型白名单”,而不是追所有新模型。
当然,你完全可以只把 Zen 当作“推荐列表”,同时继续直接用 OpenAI / Anthropic / DeepSeek / 本地模型等。
开始使用
-
在 TUI 中运行
/connect并选择 opencode:/connect -
浏览器会打开
opencode.ai/auth,按照页面提示登录、填写账单信息并创建 API Key; -
将该 Key 粘贴回终端:
┌ API key││└ enter -
在 TUI 中运行
/models,即可看到 OpenCode Zen 推荐的模型列表:/models
这些模型在使用方式上和其它提供商并无差别,只是已经过 OpenCode 团队的兼容性和体验测试。
在配置中使用 Zen 模型
Zen 模型的 ID 形如:
opencode/gpt-5.1-codexopencode/qwen-3-coder-480b
你可以直接把它们写进配置文件:
{ "$schema": "https://opencode.ai/config.json", "model": "opencode/gpt-5.1-codex"}也可以在 Agent 级别指定:
{ "$schema": "https://opencode.ai/config.json", "agent": { "build": { "model": "opencode/gpt-5.1-codex" } }}这样可以:
- 用 Zen 模型作为主开发 Agent;
- 为 Plan / Review 等 Agent 配置不同的 Zen 模型(如更便宜或更强的推理模型)。
与其它提供商并用
你可以同时:
- 通过
/connect配置 OpenAI、Anthropic、DeepSeek 等; - 使用本地模型(如 Ollama、LM Studio、llama.cpp 等);
- 再额外启用 OpenCode Zen。
在 /models 菜单中,它们会一起展示,你可以:
- 临时切换,感受不同模型的风格,
- 或者只把 Zen 的某个模型写进
opencode.json当默认模型。
团队协作场景
对于团队或公司:
- 可以在项目根目录的
opencode.json里统一指定 Zen 模型; - 再结合企业内部的 LLM 网关和权限控制;
- 让所有人默认使用同一套“官方推荐 + 团队认可”的模型组合。
如果你在使用 OpenCode Enterprise,可以将 Zen 配置也放进中央配置中统一管理。