Skip to content

WorkBuddy 配置第三方大模型 API 教程(附国内可用大模型中转站)

如果你正在找 workbuddy 配置第三方大模型 api 教程,核心方法其实只有一个:编辑本机的 models.json,把大模型服务的模型 ID、接口地址、API Key 和上下文参数写进去,然后重启 WorkBuddy。腾讯官方文档已经确认,WorkBuddy 支持通过本地配置文件接入自定义模型;这篇 workbuddy 配置第三方大模型 api 教程 会把官方 Token Plan 配法和国内可用大模型中转站配法放在一起讲,方便你直接照着改。

接入建议

如果你只是想先跑通 WorkBuddy,可以先按腾讯云 Token Plan 的官方配置走;如果你想使用 Claude、GPT、Gemini、Grok 等更多模型,可以使用兼容 OpenAI 协议的大模型中转站。国内可用大模型中转站可以优先看 api.clawsocket.com,如果你还想比较更多 AI API 聚合入口,也可以看 ai-api-proxy.com。这篇 workbuddy 配置第三方大模型 api 教程 里的第三方配置示例,会按 OpenAI 兼容接口来写。

WorkBuddy 配置第三方大模型 API 的原理

WorkBuddy 不是只能使用内置模型。根据腾讯云 WorkBuddy 文档,WorkBuddy 支持通过本地 models.json 接入自定义模型;腾讯官方 Token Plan 示例里的模型配置包含这些字段:

字段作用
id模型调用参数,例如 hunyuan-2.0-instructclaude-sonnet-4-6
nameWorkBuddy 界面里展示的模型名称
vendor协议类型,官方示例里写的是 OpenAI
urlChat Completions 兼容接口地址
apiKey服务商提供的 API Key
maxInputTokens最大输入 token 上限
maxOutputTokens最大输出 token 上限
availableModelsWorkBuddy 下拉列表里可选的模型 ID

所以,workbuddy 配置第三方大模型 api 教程 的本质不是改 WorkBuddy 主程序,而是把第三方模型服务伪装成 WorkBuddy 能识别的 OpenAI 兼容模型配置。

配置文件路径

先找到 WorkBuddy 的配置文件。如果没有这个目录,就自己创建。

macOS / Linux:

bash
mkdir -p ~/.workbuddy
code ~/.workbuddy/models.json

如果你不用 VS Code,也可以用:

bash
nano ~/.workbuddy/models.json

Windows:

text
C:\Users\<用户名>\.workbuddy\models.json

这一步是整个 workbuddy 配置第三方大模型 api 教程 里最容易出错的地方。注意目录名是 .workbuddy,不是 .codebuddy;如果你配置的是 CodeBuddy Code,路径才会变成 .codebuddy

方案一:按腾讯官方 Token Plan 配置 WorkBuddy

腾讯官方 WorkBuddy 文档给出的 Token Plan 地址是:

text
https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions

如果你购买了腾讯云 Token Plan,并拿到了专属 API Key,可以把下面内容写入 ~/.workbuddy/models.json

json
{
  "models": [
    {
      "id": "tc-code-latest",
      "name": "Auto",
      "vendor": "OpenAI",
      "url": "https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions",
      "apiKey": "your-token-plan-api-key",
      "maxInputTokens": 100000,
      "maxOutputTokens": 4096
    },
    {
      "id": "hunyuan-2.0-instruct",
      "name": "Tencent HY 2.0 Instruct",
      "vendor": "OpenAI",
      "url": "https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions",
      "apiKey": "your-token-plan-api-key",
      "maxInputTokens": 100000,
      "maxOutputTokens": 4096
    },
    {
      "id": "glm-5",
      "name": "GLM-5",
      "vendor": "OpenAI",
      "url": "https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions",
      "apiKey": "your-token-plan-api-key",
      "maxInputTokens": 100000,
      "maxOutputTokens": 4096
    }
  ],
  "availableModels": [
    "tc-code-latest",
    "hunyuan-2.0-instruct",
    "glm-5"
  ]
}

保存后重启 WorkBuddy。这个配置适合优先使用腾讯云 Token Plan 模型,比如混元、GLM、Kimi、MiniMax 等官方模型列表内的模型。腾讯官方也明确说明,Token Plan 当前只能使用模型列表内的模型,使用列表以外的模型会报错。

方案二:WorkBuddy 配置国内可用大模型中转站

如果你想在 WorkBuddy 里使用更多第三方模型,就可以走大模型中转站。下面以 api.clawsocket.com 这类国内可用大模型中转站为例。

注意:WorkBuddy 的 url 字段通常需要填写完整的 Chat Completions 兼容地址。如果你的中转站控制台显示的路径不同,请以控制台为准。

json
{
  "models": [
    {
      "id": "claude-sonnet-4-6",
      "name": "Claude Sonnet 4.6",
      "vendor": "OpenAI",
      "url": "https://api.clawsocket.com/v1/chat/completions",
      "apiKey": "YOUR_API_KEY",
      "maxInputTokens": 200000,
      "maxOutputTokens": 8192
    },
    {
      "id": "claude-opus-4-6",
      "name": "Claude Opus 4.6",
      "vendor": "OpenAI",
      "url": "https://api.clawsocket.com/v1/chat/completions",
      "apiKey": "YOUR_API_KEY",
      "maxInputTokens": 200000,
      "maxOutputTokens": 8192
    },
    {
      "id": "gpt-5.4",
      "name": "GPT-5.4",
      "vendor": "OpenAI",
      "url": "https://api.clawsocket.com/v1/chat/completions",
      "apiKey": "YOUR_API_KEY",
      "maxInputTokens": 128000,
      "maxOutputTokens": 8192
    }
  ],
  "availableModels": [
    "claude-sonnet-4-6",
    "claude-opus-4-6",
    "gpt-5.4"
  ]
}

这就是 workbuddy 配置第三方大模型 api 教程 里最关键的第三方 API 配法。vendor 仍然写 OpenAI,不是因为模型一定来自 OpenAI,而是因为这里表示接口协议兼容 OpenAI Chat Completions。

方案三:Token Plan 和中转站同时保留

更实用的做法是把腾讯云 Token Plan 和第三方大模型中转站放在同一个 models.json 里。这样 WorkBuddy 里既可以选择国产模型,也可以选择 Claude、GPT 等模型。

json
{
  "models": [
    {
      "id": "hunyuan-2.0-instruct",
      "name": "Tencent HY 2.0 Instruct",
      "vendor": "OpenAI",
      "url": "https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions",
      "apiKey": "your-token-plan-api-key",
      "maxInputTokens": 100000,
      "maxOutputTokens": 4096
    },
    {
      "id": "claude-sonnet-4-6",
      "name": "Claude Sonnet 4.6",
      "vendor": "OpenAI",
      "url": "https://api.clawsocket.com/v1/chat/completions",
      "apiKey": "YOUR_CLAWSOCKET_API_KEY",
      "maxInputTokens": 200000,
      "maxOutputTokens": 8192
    }
  ],
  "availableModels": [
    "hunyuan-2.0-instruct",
    "claude-sonnet-4-6"
  ]
}

这类混合配置适合长期使用 WorkBuddy 的用户:普通办公任务走 Token Plan,复杂代码、长文档、跨模型测试走国内可用大模型中转站。

保存后如何验证

完成 models.json 后,按下面顺序验证:

  1. 保存文件。
  2. 完全退出 WorkBuddy。
  3. 重新启动 WorkBuddy。
  4. 打开模型选择区域。
  5. 看是否能看到 availableModels 里配置的模型。
  6. 用简单问题测试,例如“用三句话介绍你当前使用的模型”。

如果模型没有出现,优先检查 JSON 格式。这个问题比 API Key 错误更常见。

常见报错排查

1. WorkBuddy 看不到模型

先检查 availableModels 是否包含模型的 id。只写了 models,但没有把模型 ID 放进 availableModels,WorkBuddy 可能不会在下拉列表中显示。

2. 红色或连接异常

先检查 url。腾讯 Token Plan 的 WorkBuddy 官方示例是完整路径:

text
https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions

第三方大模型中转站也要确认是不是完整的 Chat Completions 路径,而不是只填了域名。

3. 401 或鉴权失败

通常是 API Key 错误,或者复制时多了空格。建议重新生成一个专门给 WorkBuddy 使用的 Key,不要和其他项目混用。

4. 模型 ID 不支持

如果你用的是腾讯 Token Plan,模型必须来自腾讯云模型列表;如果你用的是国内可用大模型中转站,模型 ID 要以中转站控制台实际支持的名称为准。

5. 输出太短

检查 maxOutputTokens。如果你只写 4096,复杂长文档任务可能明显不够。可以根据模型能力调整到 8192 或更高,但不要超过服务商支持的上限。

安全建议

这篇 workbuddy 配置第三方大模型 api 教程 还要强调一点:models.json 是本地明文文件,里面会保存 API Key。建议你:

  • 不要把 ~/.workbuddy/models.json 上传到 GitHub。
  • 不要截图分享带 API Key 的配置。
  • 给 WorkBuddy 单独创建一个 API Key。
  • 如果怀疑泄露,立即禁用或删除旧 Key。
  • 团队使用时,不要把个人 Key 写进共享配置。

WorkBuddy 配置第三方大模型 API 常见问题

WorkBuddy 能不能配置第三方大模型 API

可以。腾讯官方文档已经说明 WorkBuddy 支持通过本地 models.json 接入自定义模型;只要第三方服务兼容 WorkBuddy 需要的 OpenAI 风格配置,就可以加入模型列表。

WorkBuddy 配置第三方大模型 API 时 vendor 应该写什么

通常写 OpenAI。在 workbuddy 配置第三方大模型 api 教程 这个场景里,vendor 更像协议标识,不等于模型实际来源。

国内可用大模型中转站应该填什么 URL

如果使用 api.clawsocket.com,可以先按 OpenAI 兼容路径填写,例如:

text
https://api.clawsocket.com/v1/chat/completions

如果控制台显示的接入路径不同,以控制台为准。

WorkBuddy 和 CodeBuddy 的 models.json 一样吗

配置结构非常接近,但路径不同。WorkBuddy 使用 ~/.workbuddy/models.json,CodeBuddy Code 使用 ~/.codebuddy/models.json

结论

总结一下,workbuddy 配置第三方大模型 api 教程 的核心就是三步:找到 ~/.workbuddy/models.json,写入 OpenAI 兼容模型配置,把模型 ID 加进 availableModels,然后重启 WorkBuddy。腾讯 Token Plan 适合优先使用官方模型列表;如果你需要 Claude、GPT、Gemini、Grok 等更多模型,可以通过 api.clawsocket.com 这类国内可用大模型中转站接入。配置成功后,WorkBuddy 就能在同一个界面里切换不同模型,用于办公自动化、文档处理、代码生成和复杂任务执行。

参考资料:

继续阅读:

本网站为 Claude API 接入文档与场景介绍站,服务跳转至 api.clawsocket.com。