WorkBuddy 配置第三方大模型 API 教程(附国内可用大模型中转站)
如果你正在找 workbuddy 配置第三方大模型 api 教程,核心方法其实只有一个:编辑本机的 models.json,把大模型服务的模型 ID、接口地址、API Key 和上下文参数写进去,然后重启 WorkBuddy。腾讯官方文档已经确认,WorkBuddy 支持通过本地配置文件接入自定义模型;这篇 workbuddy 配置第三方大模型 api 教程 会把官方 Token Plan 配法和国内可用大模型中转站配法放在一起讲,方便你直接照着改。
接入建议
如果你只是想先跑通 WorkBuddy,可以先按腾讯云 Token Plan 的官方配置走;如果你想使用 Claude、GPT、Gemini、Grok 等更多模型,可以使用兼容 OpenAI 协议的大模型中转站。国内可用大模型中转站可以优先看 api.clawsocket.com,如果你还想比较更多 AI API 聚合入口,也可以看 ai-api-proxy.com。这篇 workbuddy 配置第三方大模型 api 教程 里的第三方配置示例,会按 OpenAI 兼容接口来写。
WorkBuddy 配置第三方大模型 API 的原理
WorkBuddy 不是只能使用内置模型。根据腾讯云 WorkBuddy 文档,WorkBuddy 支持通过本地 models.json 接入自定义模型;腾讯官方 Token Plan 示例里的模型配置包含这些字段:
| 字段 | 作用 |
|---|---|
id | 模型调用参数,例如 hunyuan-2.0-instruct 或 claude-sonnet-4-6 |
name | WorkBuddy 界面里展示的模型名称 |
vendor | 协议类型,官方示例里写的是 OpenAI |
url | Chat Completions 兼容接口地址 |
apiKey | 服务商提供的 API Key |
maxInputTokens | 最大输入 token 上限 |
maxOutputTokens | 最大输出 token 上限 |
availableModels | WorkBuddy 下拉列表里可选的模型 ID |
所以,workbuddy 配置第三方大模型 api 教程 的本质不是改 WorkBuddy 主程序,而是把第三方模型服务伪装成 WorkBuddy 能识别的 OpenAI 兼容模型配置。
配置文件路径
先找到 WorkBuddy 的配置文件。如果没有这个目录,就自己创建。
macOS / Linux:
bash
mkdir -p ~/.workbuddy
code ~/.workbuddy/models.json如果你不用 VS Code,也可以用:
bash
nano ~/.workbuddy/models.jsonWindows:
text
C:\Users\<用户名>\.workbuddy\models.json这一步是整个 workbuddy 配置第三方大模型 api 教程 里最容易出错的地方。注意目录名是 .workbuddy,不是 .codebuddy;如果你配置的是 CodeBuddy Code,路径才会变成 .codebuddy。
方案一:按腾讯官方 Token Plan 配置 WorkBuddy
腾讯官方 WorkBuddy 文档给出的 Token Plan 地址是:
text
https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions如果你购买了腾讯云 Token Plan,并拿到了专属 API Key,可以把下面内容写入 ~/.workbuddy/models.json:
json
{
"models": [
{
"id": "tc-code-latest",
"name": "Auto",
"vendor": "OpenAI",
"url": "https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions",
"apiKey": "your-token-plan-api-key",
"maxInputTokens": 100000,
"maxOutputTokens": 4096
},
{
"id": "hunyuan-2.0-instruct",
"name": "Tencent HY 2.0 Instruct",
"vendor": "OpenAI",
"url": "https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions",
"apiKey": "your-token-plan-api-key",
"maxInputTokens": 100000,
"maxOutputTokens": 4096
},
{
"id": "glm-5",
"name": "GLM-5",
"vendor": "OpenAI",
"url": "https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions",
"apiKey": "your-token-plan-api-key",
"maxInputTokens": 100000,
"maxOutputTokens": 4096
}
],
"availableModels": [
"tc-code-latest",
"hunyuan-2.0-instruct",
"glm-5"
]
}保存后重启 WorkBuddy。这个配置适合优先使用腾讯云 Token Plan 模型,比如混元、GLM、Kimi、MiniMax 等官方模型列表内的模型。腾讯官方也明确说明,Token Plan 当前只能使用模型列表内的模型,使用列表以外的模型会报错。
方案二:WorkBuddy 配置国内可用大模型中转站
如果你想在 WorkBuddy 里使用更多第三方模型,就可以走大模型中转站。下面以 api.clawsocket.com 这类国内可用大模型中转站为例。
注意:WorkBuddy 的 url 字段通常需要填写完整的 Chat Completions 兼容地址。如果你的中转站控制台显示的路径不同,请以控制台为准。
json
{
"models": [
{
"id": "claude-sonnet-4-6",
"name": "Claude Sonnet 4.6",
"vendor": "OpenAI",
"url": "https://api.clawsocket.com/v1/chat/completions",
"apiKey": "YOUR_API_KEY",
"maxInputTokens": 200000,
"maxOutputTokens": 8192
},
{
"id": "claude-opus-4-6",
"name": "Claude Opus 4.6",
"vendor": "OpenAI",
"url": "https://api.clawsocket.com/v1/chat/completions",
"apiKey": "YOUR_API_KEY",
"maxInputTokens": 200000,
"maxOutputTokens": 8192
},
{
"id": "gpt-5.4",
"name": "GPT-5.4",
"vendor": "OpenAI",
"url": "https://api.clawsocket.com/v1/chat/completions",
"apiKey": "YOUR_API_KEY",
"maxInputTokens": 128000,
"maxOutputTokens": 8192
}
],
"availableModels": [
"claude-sonnet-4-6",
"claude-opus-4-6",
"gpt-5.4"
]
}这就是 workbuddy 配置第三方大模型 api 教程 里最关键的第三方 API 配法。vendor 仍然写 OpenAI,不是因为模型一定来自 OpenAI,而是因为这里表示接口协议兼容 OpenAI Chat Completions。
方案三:Token Plan 和中转站同时保留
更实用的做法是把腾讯云 Token Plan 和第三方大模型中转站放在同一个 models.json 里。这样 WorkBuddy 里既可以选择国产模型,也可以选择 Claude、GPT 等模型。
json
{
"models": [
{
"id": "hunyuan-2.0-instruct",
"name": "Tencent HY 2.0 Instruct",
"vendor": "OpenAI",
"url": "https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions",
"apiKey": "your-token-plan-api-key",
"maxInputTokens": 100000,
"maxOutputTokens": 4096
},
{
"id": "claude-sonnet-4-6",
"name": "Claude Sonnet 4.6",
"vendor": "OpenAI",
"url": "https://api.clawsocket.com/v1/chat/completions",
"apiKey": "YOUR_CLAWSOCKET_API_KEY",
"maxInputTokens": 200000,
"maxOutputTokens": 8192
}
],
"availableModels": [
"hunyuan-2.0-instruct",
"claude-sonnet-4-6"
]
}这类混合配置适合长期使用 WorkBuddy 的用户:普通办公任务走 Token Plan,复杂代码、长文档、跨模型测试走国内可用大模型中转站。
保存后如何验证
完成 models.json 后,按下面顺序验证:
- 保存文件。
- 完全退出 WorkBuddy。
- 重新启动 WorkBuddy。
- 打开模型选择区域。
- 看是否能看到
availableModels里配置的模型。 - 用简单问题测试,例如“用三句话介绍你当前使用的模型”。
如果模型没有出现,优先检查 JSON 格式。这个问题比 API Key 错误更常见。
常见报错排查
1. WorkBuddy 看不到模型
先检查 availableModels 是否包含模型的 id。只写了 models,但没有把模型 ID 放进 availableModels,WorkBuddy 可能不会在下拉列表中显示。
2. 红色或连接异常
先检查 url。腾讯 Token Plan 的 WorkBuddy 官方示例是完整路径:
text
https://api.lkeap.cloud.tencent.com/plan/v3/chat/completions第三方大模型中转站也要确认是不是完整的 Chat Completions 路径,而不是只填了域名。
3. 401 或鉴权失败
通常是 API Key 错误,或者复制时多了空格。建议重新生成一个专门给 WorkBuddy 使用的 Key,不要和其他项目混用。
4. 模型 ID 不支持
如果你用的是腾讯 Token Plan,模型必须来自腾讯云模型列表;如果你用的是国内可用大模型中转站,模型 ID 要以中转站控制台实际支持的名称为准。
5. 输出太短
检查 maxOutputTokens。如果你只写 4096,复杂长文档任务可能明显不够。可以根据模型能力调整到 8192 或更高,但不要超过服务商支持的上限。
安全建议
这篇 workbuddy 配置第三方大模型 api 教程 还要强调一点:models.json 是本地明文文件,里面会保存 API Key。建议你:
- 不要把
~/.workbuddy/models.json上传到 GitHub。 - 不要截图分享带 API Key 的配置。
- 给 WorkBuddy 单独创建一个 API Key。
- 如果怀疑泄露,立即禁用或删除旧 Key。
- 团队使用时,不要把个人 Key 写进共享配置。
WorkBuddy 配置第三方大模型 API 常见问题
WorkBuddy 能不能配置第三方大模型 API
可以。腾讯官方文档已经说明 WorkBuddy 支持通过本地 models.json 接入自定义模型;只要第三方服务兼容 WorkBuddy 需要的 OpenAI 风格配置,就可以加入模型列表。
WorkBuddy 配置第三方大模型 API 时 vendor 应该写什么
通常写 OpenAI。在 workbuddy 配置第三方大模型 api 教程 这个场景里,vendor 更像协议标识,不等于模型实际来源。
国内可用大模型中转站应该填什么 URL
如果使用 api.clawsocket.com,可以先按 OpenAI 兼容路径填写,例如:
text
https://api.clawsocket.com/v1/chat/completions如果控制台显示的接入路径不同,以控制台为准。
WorkBuddy 和 CodeBuddy 的 models.json 一样吗
配置结构非常接近,但路径不同。WorkBuddy 使用 ~/.workbuddy/models.json,CodeBuddy Code 使用 ~/.codebuddy/models.json。
结论
总结一下,workbuddy 配置第三方大模型 api 教程 的核心就是三步:找到 ~/.workbuddy/models.json,写入 OpenAI 兼容模型配置,把模型 ID 加进 availableModels,然后重启 WorkBuddy。腾讯 Token Plan 适合优先使用官方模型列表;如果你需要 Claude、GPT、Gemini、Grok 等更多模型,可以通过 api.clawsocket.com 这类国内可用大模型中转站接入。配置成功后,WorkBuddy 就能在同一个界面里切换不同模型,用于办公自动化、文档处理、代码生成和复杂任务执行。
参考资料:
继续阅读: