提供商
在 OpenCode 中使用任意 LLM 提供商。
OpenCode 基于 AI SDK 和 Models.dev,支持 75+ 个 LLM 提供商,同时也支持运行本地模型。
要添加一个提供商,一般需要两步:
- 在 TUI 中通过
/connect命令添加该提供商的 API Key; - 在 OpenCode 配置中对该提供商做进一步配置(可选)。
凭证存储
通过 /connect 添加的 API Key 会被保存在:
~/.local/share/opencode/auth.json
配置入口
可以通过 OpenCode 配置中的 provider 字段对各提供商做更细致的定制。
Base URL
你可以通过 baseURL 覆盖任意提供商的基础 URL,这在使用代理网关或自定义 Endpoint 时非常有用:
{ "$schema": "https://opencode.ai/config.json", "provider": { "anthropic": { "options": { "baseURL": "https://api.anthropic.com/v1" } } }}OpenCode Zen
OpenCode Zen 是 OpenCode 团队维护的一份模型清单,里面的模型都经过测试,适配 OpenCode 的工具调用和编码场景。了解更多。
-
在 TUI 中运行
/connect,选择 opencode,然后打开浏览器访问 opencode.ai/auth:/connect -
登录后添加账单信息并创建 API Key;
-
将 API Key 粘贴回终端:
┌ API key││└ enter -
在 TUI 中运行
/models查看推荐模型列表:/models
OpenCode Zen 在使用方式上和普通提供商完全一致,只是配置更省心、可选用而非强制。
提供商目录
下面是一些主要提供商的使用说明;如果你希望补充某个提供商的文档,可以提 PR。
Amazon Bedrock
要在 OpenCode 中使用 Amazon Bedrock:
-
在 Amazon Bedrock 控制台的 Model catalog 中为需要使用的模型申请访问权限。
-
通过以下方式之一配置认证:
环境变量(快速上手)
运行 opencode 时设置以下任一组合:
Terminal window # 方式 1:使用 Access KeyAWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode# 方式 2:使用命名 ProfileAWS_PROFILE=my-profile opencode# 方式 3:使用 Bedrock Bearer TokenAWS_BEARER_TOKEN_BEDROCK=XXX opencode或在 bash 配置文件中写入:
~/.bash_profile export AWS_PROFILE=my-dev-profileexport AWS_REGION=us-east-1配置文件(推荐)
对于项目级或持久配置,建议在
opencode.json中写:opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "my-aws-profile"}}}}可用选项:
region:AWS 区域(如us-east-1、eu-west-1)profile:~/.aws/credentials中的命名 profileendpoint:自定义 VPC Endpoint URL(是通用baseURL的别名)
VPC Endpoint 示例
如果你在 VPC 内使用私有 Endpoint:
opencode.json {"$schema": "https://opencode.ai/config.json","provider": {"amazon-bedrock": {"options": {"region": "us-east-1","profile": "production","endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"}}}}认证方式优先级
AWS_BEARER_TOKEN_BEDROCK//connect生成的 Bearer Token- AWS Credential Chain(Profile、Access Key、IAM 角色等)
当存在 Bearer Token 时,它会优先于所有 AWS 凭证,包括 profile。
-
在 TUI 中运行
/models,选择你已开通的 Bedrock 模型:/models
Anthropic
推荐订阅 Claude Pro 或 Claude Max。
-
订阅完成后,在 TUI 中运行
/connect并选择 Anthropic:/connect -
选择 Claude Pro/Max 登录方式,浏览器会弹出 Anthropic 登录页面:
┌ Select auth method││ Claude Pro/Max│ Create an API Key│ Manually enter API Key└ -
完成后在
/models命令中可以看到对应模型:/models
使用 API Key
你也可以选择 Create an API Key(如果没有 Pro/Max),按提示生成 Key 后粘贴到终端; 或者选择 Manually enter API Key,直接输入已有的 API Key。
Azure OpenAI
-
在 Azure Portal 中创建 Azure OpenAI 资源:
- 资源名(将在 Endpoint 中使用,如
https://RESOURCE_NAME.openai.azure.com/) - API Key(
KEY 1或KEY 2)
- 资源名(将在 Endpoint 中使用,如
-
在 Azure AI Foundry 中部署模型(Deployment Name 必须与 Model Name 一致)。
-
在 TUI 中运行
/connect并搜索 Azure:/connect -
输入 API Key:
┌ API key││└ enter -
使用环境变量指定资源名:
Terminal window AZURE_RESOURCE_NAME=XXX opencode或写入 bash 配置:
~/.bash_profile export AZURE_RESOURCE_NAME=XXX -
使用
/models选择你部署的模型:/models
其余提供商
文件中还包含大量其他提供商(Azure Cognitive Services、Baseten、DeepSeek、Hugging Face、Ollama、LM Studio、OpenAI、OpenRouter、xAI、Z.AI、ZenMux 等)的详细接入步骤,整体模式基本类似:
- 在提供商控制台创建账号并生成 API Key;
- 通过
/connect选择对应提供商并粘贴 Key; - 在
/models中选择模型; - 如有需要,再通过
provider配置块补充baseURL、models、options等高级配置。
如果你需要我针对某个具体提供商写一份简化版“最小可用配置”中文说明,可以告诉我是哪个(比如 DeepSeek / Ollama / Hugging Face),我可以帮你单独提炼一个只保留核心步骤的版本。