Gemini API 代理怎么配:LobeChat / Chatbox 接入 api.clawsocket.com 教程
如果你已经发现网页版镜像站不够稳定,下一步大概率就是切到“API 代理 + 本地客户端”方案。这也是目前更适合长期使用 Gemini 3.1 Pro Preview 的方式,因为:
- 模型入口可以自己控制
- 聊天记录留在本地
- 客户端随时可换,代理服务也随时可换
这篇就直接讲最常见的一种配置方式:LobeChat / Chatbox 接入 api.clawsocket.com。
第一步:在 api.clawsocket.com 获取 3 个配置项
进入控制台后,先确认这三项:
- API Key
- Base URL
- 当前可用模型列表
不要一边看旧教程一边填参数。模型名、路径后缀和默认版本都可能变动,最稳的做法永远是以控制台当前显示为准。
第二步:配置 LobeChat
LobeChat 里通常要改的是“语言模型”部分。步骤可以按下面走:
- 打开设置
- 进入语言模型配置
- 选择 Gemini 或自定义兼容接口
- 填入
API Key - 填入
Base URL - 在自定义模型列表中手动加入
gemini-3.1-pro-preview
如果列表里默认没有这个模型名,不代表不能用,很多时候只是客户端没及时更新内置列表。
第三步:配置 Chatbox
Chatbox 的思路和 LobeChat 类似,区别主要在 UI。你真正要核对的依然只有三件事:
- 代理地址是否正确
- Key 是否有效
- 模型名称是否与平台当前支持的一致
第四步:做连接测试
建议按顺序测试:
- 基础问答
- 长文本总结
- 文件上传或图片理解
- 连续两到三轮追问
只要基础问答能通,不代表你的配置已经稳。真正容易暴露问题的是第二、三、四步。
推荐的环境变量写法
如果你还想把它接到自己的脚本或服务端,建议把控制台里的值放到环境变量里:
bash
CLAWSOCKET_API_KEY=
CLAWSOCKET_BASE_URL=
CLAWSOCKET_MODEL=gemini-3.1-pro-previewNode.js 示例:
ts
import OpenAI from "openai";
const client = new OpenAI({
apiKey: process.env.CLAWSOCKET_API_KEY,
baseURL: process.env.CLAWSOCKET_BASE_URL
});
const result = await client.chat.completions.create({
model: process.env.CLAWSOCKET_MODEL!,
messages: [{ role: "user", content: "请总结这份文档的三条重点。" }]
});常见问题
1. 填了 Key 但连接失败
先检查 Base URL,再检查模型名,最后检查平台是否对当前账号开启了对应模型。
2. 客户端里找不到 3.1 模型
直接手动添加 gemini-3.1-pro-preview,不要只依赖客户端内置列表。
3. 为什么比网页版镜像更推荐这条路
因为镜像站主要解决“先能用”,而本地客户端 + API 代理解决的是“长期能用、可切换、可迁移”。