跳转到内容

提供商

在 OpenCode 中使用任意 LLM 提供商。

OpenCode 基于 AI SDKModels.dev,支持 75+ 个 LLM 提供商,同时也支持运行本地模型。

要添加一个提供商,一般需要两步:

  1. 在 TUI 中通过 /connect 命令添加该提供商的 API Key;
  2. 在 OpenCode 配置中对该提供商做进一步配置(可选)。

凭证存储

通过 /connect 添加的 API Key 会被保存在:

  • ~/.local/share/opencode/auth.json

配置入口

可以通过 OpenCode 配置中的 provider 字段对各提供商做更细致的定制。


Base URL

你可以通过 baseURL 覆盖任意提供商的基础 URL,这在使用代理网关或自定义 Endpoint 时非常有用:

opencode.json
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://api.anthropic.com/v1"
}
}
}
}

OpenCode Zen

OpenCode Zen 是 OpenCode 团队维护的一份模型清单,里面的模型都经过测试,适配 OpenCode 的工具调用和编码场景。了解更多

  1. 在 TUI 中运行 /connect,选择 opencode,然后打开浏览器访问 opencode.ai/auth

    /connect
  2. 登录后添加账单信息并创建 API Key;

  3. 将 API Key 粘贴回终端:

    ┌ API key
    └ enter
  4. 在 TUI 中运行 /models 查看推荐模型列表:

    /models

OpenCode Zen 在使用方式上和普通提供商完全一致,只是配置更省心、可选用而非强制。


提供商目录

下面是一些主要提供商的使用说明;如果你希望补充某个提供商的文档,可以提 PR。


Amazon Bedrock

要在 OpenCode 中使用 Amazon Bedrock:

  1. 在 Amazon Bedrock 控制台的 Model catalog 中为需要使用的模型申请访问权限。

  2. 通过以下方式之一配置认证:

    环境变量(快速上手)

    运行 opencode 时设置以下任一组合:

    Terminal window
    # 方式 1:使用 Access Key
    AWS_ACCESS_KEY_ID=XXX AWS_SECRET_ACCESS_KEY=YYY opencode
    # 方式 2:使用命名 Profile
    AWS_PROFILE=my-profile opencode
    # 方式 3:使用 Bedrock Bearer Token
    AWS_BEARER_TOKEN_BEDROCK=XXX opencode

    或在 bash 配置文件中写入:

    ~/.bash_profile
    export AWS_PROFILE=my-dev-profile
    export AWS_REGION=us-east-1

    配置文件(推荐)

    对于项目级或持久配置,建议在 opencode.json 中写:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "my-aws-profile"
    }
    }
    }
    }

    可用选项:

    • region:AWS 区域(如 us-east-1eu-west-1
    • profile~/.aws/credentials 中的命名 profile
    • endpoint:自定义 VPC Endpoint URL(是通用 baseURL 的别名)

    VPC Endpoint 示例

    如果你在 VPC 内使用私有 Endpoint:

    opencode.json
    {
    "$schema": "https://opencode.ai/config.json",
    "provider": {
    "amazon-bedrock": {
    "options": {
    "region": "us-east-1",
    "profile": "production",
    "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
    }
    }
    }
    }

    认证方式优先级

    • AWS_BEARER_TOKEN_BEDROCK / /connect 生成的 Bearer Token
    • AWS Credential Chain(Profile、Access Key、IAM 角色等)

    当存在 Bearer Token 时,它会优先于所有 AWS 凭证,包括 profile。

  3. 在 TUI 中运行 /models,选择你已开通的 Bedrock 模型:

    /models

Anthropic

推荐订阅 Claude ProClaude Max

  1. 订阅完成后,在 TUI 中运行 /connect 并选择 Anthropic:

    /connect
  2. 选择 Claude Pro/Max 登录方式,浏览器会弹出 Anthropic 登录页面:

    ┌ Select auth method
    │ Claude Pro/Max
    │ Create an API Key
    │ Manually enter API Key
  3. 完成后在 /models 命令中可以看到对应模型:

    /models
使用 API Key

你也可以选择 Create an API Key(如果没有 Pro/Max),按提示生成 Key 后粘贴到终端; 或者选择 Manually enter API Key,直接输入已有的 API Key。


Azure OpenAI

  1. Azure Portal 中创建 Azure OpenAI 资源:

    • 资源名(将在 Endpoint 中使用,如 https://RESOURCE_NAME.openai.azure.com/
    • API Key(KEY 1KEY 2
  2. Azure AI Foundry 中部署模型(Deployment Name 必须与 Model Name 一致)。

  3. 在 TUI 中运行 /connect 并搜索 Azure

    /connect
  4. 输入 API Key:

    ┌ API key
    └ enter
  5. 使用环境变量指定资源名:

    Terminal window
    AZURE_RESOURCE_NAME=XXX opencode

    或写入 bash 配置:

    ~/.bash_profile
    export AZURE_RESOURCE_NAME=XXX
  6. 使用 /models 选择你部署的模型:

    /models

其余提供商

文件中还包含大量其他提供商(Azure Cognitive Services、Baseten、DeepSeek、Hugging Face、Ollama、LM Studio、OpenAI、OpenRouter、xAI、Z.AI、ZenMux 等)的详细接入步骤,整体模式基本类似:

  1. 在提供商控制台创建账号并生成 API Key;
  2. 通过 /connect 选择对应提供商并粘贴 Key;
  3. /models 中选择模型;
  4. 如有需要,再通过 provider 配置块补充 baseURLmodelsoptions 等高级配置。

如果你需要我针对某个具体提供商写一份简化版“最小可用配置”中文说明,可以告诉我是哪个(比如 DeepSeek / Ollama / Hugging Face),我可以帮你单独提炼一个只保留核心步骤的版本。