Some checks failed
CI / Lint & TypeCheck (push) Has been cancelled
CI / Unit Tests (push) Has been cancelled
CI / Build Frontend (push) Has been cancelled
CI / Rust Check (push) Has been cancelled
CI / Security Scan (push) Has been cancelled
CI / E2E Tests (push) Has been cancelled
重构所有代码和文档中的项目名称,将OpenFang统一更新为ZCLAW。包括: - 配置文件中的项目名称 - 代码注释和文档引用 - 环境变量和路径 - 类型定义和接口名称 - 测试用例和模拟数据 同时优化部分代码结构,移除未使用的模块,并更新相关依赖项。
10 KiB
10 KiB
中文模型配置指南
本文档详细介绍 ZCLAW Kernel 支持的中文大语言模型,以及如何获取和配置 API Key。
支持的中文模型
ZCLAW 通过 OpenAI 兼容 API 支持所有主流中文模型提供商:
| 提供商 | 模型系列 | 特点 | 定价 |
|---|---|---|---|
| 智谱 AI | GLM-4 | 国产领先,多模态支持 | 免费 + 付费 |
| 阿里云 | 通义千问 (Qwen) | 性价比高,企业级 | 按量计费 |
| 月之暗面 | Kimi | 长上下文(200K) | 按量计费 |
| MiniMax | 海螺 AI | 语音能力强 | 按量计费 |
| 百度 | 文心一言 | 企业应用广泛 | 按量计费 |
| DeepSeek | DeepSeek | 编程能力强,低价 | 极低价格 |
| 百川智能 | Baichuan | 中文优化 | 按量计费 |
| 上海 AI Lab | 书生浦语 | 开源模型 | 免费 |
1. 智谱 GLM
模型列表
| 模型 | 上下文 | 特点 | 适用场景 |
|---|---|---|---|
glm-4-flash |
128K | 快速响应,免费额度 | 日常对话、快速问答 |
glm-4 |
128K | 旗舰模型 | 复杂任务、推理 |
glm-4-plus |
128K | 增强版 | 专业应用 |
glm-4-air |
128K | 轻量版 | 简单任务 |
glm-4v |
8K | 多模态(图像理解) | 图像分析 |
glm-4-long |
1M | 超长上下文 | 长文档处理 |
API Key 获取
- 访问 智谱开放平台
- 注册/登录账号
- 进入「API Keys」页面
- 点击「创建 API Key」
免费额度:新用户赠送 1000 万 tokens
配置示例
[model.zhipu]
provider = "zhipu"
model = "glm-4-flash"
api_key_env = "ZHIPU_API_KEY"
base_url = "https://open.bigmodel.cn/api/paas/v4"
# 设置环境变量
export ZHIPU_API_KEY="your-zhipu-api-key"
2. 通义千问 (Qwen)
模型列表
| 模型 | 上下文 | 特点 | 适用场景 |
|---|---|---|---|
qwen-turbo |
8K | 快速版 | 快速问答 |
qwen-plus |
32K | 增强版 | 复杂任务 |
qwen-max |
32K | 旗舰版 | 高质量输出 |
qwen-max-longcontext |
200K | 长上下文 | 长文档 |
qwen-vl-plus |
8K | 多模态 | 图像理解 |
qwen-vl-max |
8K | 多模态增强 | 高精度图像 |
API Key 获取
- 访问 阿里云百炼
- 登录阿里云账号
- 开通「灵积模型服务」
- 获取 API Key
免费额度:部分模型有免费试用
配置示例
[model.qwen]
provider = "openai-compat"
model = "qwen-turbo"
api_key_env = "DASHSCOPE_API_KEY"
base_url = "https://dashscope.aliyuncs.com/compatible-mode/v1"
# 设置环境变量
export DASHSCOPE_API_KEY="your-dashscope-api-key"
3. Kimi (Moonshot)
模型列表
| 模型 | 上下文 | 特点 | 适用场景 |
|---|---|---|---|
moonshot-v1-8k |
8K | 基础版 | 日常对话 |
moonshot-v1-32k |
32K | 长上下文 | 中等文档 |
moonshot-v1-128k |
128K | 超长上下文 | 长文档分析 |
API Key 获取
- 访问 Moonshot AI 开放平台
- 注册/登录账号
- 进入「API Key 管理」
- 创建新的 API Key
免费额度:新用户赠送 15 元体验金
配置示例
[model.kimi]
provider = "openai-compat"
model = "moonshot-v1-8k"
api_key_env = "MOONSHOT_API_KEY"
base_url = "https://api.moonshot.cn/v1"
# 设置环境变量
export MOONSHOT_API_KEY="your-moonshot-api-key"
4. MiniMax
模型列表
| 模型 | 上下文 | 特点 | 适用场景 |
|---|---|---|---|
abab6.5-chat |
8K | 旗舰对话 | 通用对话 |
abab6.5s-chat |
8K | 快速版 | 快速响应 |
abab6.5g-chat |
8K | 通用版 | 平衡场景 |
abab5.5-chat |
16K | 经典版 | 日常使用 |
abab5.5s-chat |
16K | 轻量版 | 简单任务 |
API Key 获取
- 访问 MiniMax 开放平台
- 注册/登录账号
- 进入「账户管理」->「API Key」
- 创建 API Key
注意:MiniMax 需要同时配置 Group ID
配置示例
[model.minimax]
provider = "openai-compat"
model = "abab6.5-chat"
api_key_env = "MINIMAX_API_KEY"
base_url = "https://api.minimax.chat/v1"
[model.minimax.headers]
# MiniMax 需要 Group ID
"x-minimax-group-id" = "your-group-id"
# 设置环境变量
export MINIMAX_API_KEY="your-minimax-api-key"
5. DeepSeek
模型列表
| 模型 | 上下文 | 特点 | 适用场景 |
|---|---|---|---|
deepseek-chat |
64K | 通用对话 | 日常使用 |
deepseek-coder |
16K | 代码专精 | 编程任务 |
deepseek-reasoner |
64K | 深度推理 | 复杂推理 |
API Key 获取
- 访问 DeepSeek 开放平台
- 注册/登录账号
- 进入「API Keys」页面
- 创建 API Key
定价优势:极低价格,性价比高
配置示例
[model.deepseek]
provider = "openai-compat"
model = "deepseek-chat"
api_key_env = "DEEPSEEK_API_KEY"
base_url = "https://api.deepseek.com"
# 设置环境变量
export DEEPSEEK_API_KEY="your-deepseek-api-key"
6. 百度文心一言
模型列表
| 模型 | 上下文 | 特点 | 适用场景 |
|---|---|---|---|
ernie-4.0-8k |
8K | 旗舰版 | 复杂任务 |
ernie-3.5-8k |
8K | 标准版 | 日常使用 |
ernie-speed-8k |
8K | 快速版 | 快速响应 |
ernie-lite-8k |
8K | 轻量版 | 简单任务 |
API Key 获取
- 访问 百度智能云千帆平台
- 登录百度账号
- 创建应用,获取 API Key 和 Secret Key
注意:文心一言使用 access_token 认证,需要额外处理
配置示例
[model.wenxin]
provider = "openai-compat"
model = "ernie-4.0-8k"
api_key_env = "WENXIN_ACCESS_TOKEN"
base_url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions"
7. 百川智能
模型列表
| 模型 | 上下文 | 特点 | 适用场景 |
|---|---|---|---|
Baichuan4 |
128K | 旗舰版 | 复杂任务 |
Baichuan3-Turbo |
32K | 快速版 | 日常使用 |
Baichuan3-Turbo-128k |
128K | 长上下文 | 长文档 |
API Key 获取
- 访问 百川智能开放平台
- 注册/登录账号
- 获取 API Key
配置示例
[model.baichuan]
provider = "openai-compat"
model = "Baichuan4"
api_key_env = "BAICHUAN_API_KEY"
base_url = "https://api.baichuan-ai.com/v1"
8. 本地模型 (Ollama)
如果你想在本地运行开源中文模型:
支持的开源模型
| 模型 | 参数量 | 内存需求 | 特点 |
|---|---|---|---|
qwen2:7b |
7B | 8GB | 通用对话 |
qwen2:14b |
14B | 16GB | 高质量输出 |
glm4:9b |
9B | 12GB | 智谱开源版 |
deepseek-coder:6.7b |
6.7B | 8GB | 代码专精 |
安装 Ollama
# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh
# Windows
# 访问 https://ollama.com/download 下载安装包
下载模型
# 下载通义千问
ollama pull qwen2:7b
# 下载 GLM4
ollama pull glm4:9b
配置示例
[model.ollama]
provider = "openai-compat"
model = "qwen2:7b"
base_url = "http://localhost:11434/v1"
# 本地模型无需 API Key
api_key_env = ""
多模型配置
ZCLAW 支持同时配置多个模型,并自动路由:
# ~/.zclaw/config.toml
[model]
# 默认模型
provider = "zhipu"
model = "glm-4-flash"
# 备选模型
[[model.alternates]]
name = "coding"
provider = "deepseek"
model = "deepseek-coder"
api_key_env = "DEEPSEEK_API_KEY"
[[model.alternates]]
name = "long-context"
provider = "kimi"
model = "moonshot-v1-128k"
api_key_env = "MOONSHOT_API_KEY"
[[model.alternates]]
name = "local"
provider = "openai-compat"
model = "qwen2:7b"
base_url = "http://localhost:11434/v1"
# 模型路由规则
[model.routing]
# 编程任务使用 DeepSeek Coder
coding = ["deepseek-coder", "glm-4"]
# 长文档使用 Kimi
long_context = ["moonshot-v1-128k", "glm-4-long"]
# 快速响应使用 Flash 或本地模型
fast = ["glm-4-flash", "qwen2:7b"]
价格对比
| 模型 | 输入价格 (元/百万 tokens) | 输出价格 (元/百万 tokens) |
|---|---|---|
| GLM-4-Flash | 免费 | 免费 |
| GLM-4 | 100 | 100 |
| 通义千问-Turbo | 2 | 6 |
| 通义千问-Max | 40 | 120 |
| Kimi-8K | 12 | 12 |
| DeepSeek-Chat | 1 | 2 |
| DeepSeek-Coder | 1 | 2 |
价格仅供参考,以官方最新公告为准
最佳实践
1. 模型选择建议
| 场景 | 推荐模型 | 理由 |
|---|---|---|
| 日常对话 | GLM-4-Flash | 免费且速度快 |
| 编程任务 | DeepSeek-Coder | 专业代码能力 |
| 长文档分析 | Kimi-128K | 超长上下文 |
| 复杂推理 | GLM-4 / Qwen-Max | 高质量输出 |
| 离线使用 | Ollama + Qwen2 | 本地运行 |
2. API Key 安全
- 永远不要在代码或配置文件中硬编码 API Key
- 使用环境变量存储敏感信息
- 定期轮换 API Key
- 为不同项目使用不同的 API Key
- 设置 API Key 使用额度限制
3. 成本控制
[metering]
# 每日最大花费(美元)
daily_budget = 5.0
# 每个 Agent 每小时最大 tokens
hourly_token_limit = 100000
# 超限行为:reject(拒绝)或 downgrade(降级)
on_limit = "downgrade"
# 降级到的模型
fallback_model = "glm-4-flash"
常见问题
Q: 如何测试 API Key 是否有效?
# 使用 curl 测试智谱 API
curl -X POST https://open.bigmodel.cn/api/paas/v4/chat/completions \
-H "Authorization: Bearer $ZHIPU_API_KEY" \
-H "Content-Type: application/json" \
-d '{"model": "glm-4-flash", "messages": [{"role": "user", "content": "你好"}]}'
Q: 多个模型如何切换?
在 Agent 配置中指定:
[agent.my-agent]
[model]
provider = "deepseek"
model = "deepseek-coder"
Q: 如何查看用量?
# 查看今日用量
zclaw usage --today
# 查看本月用量
zclaw usage --month
# 按模型分组
zclaw usage --group-by model
Q: API Key 泄露了怎么办?
- 立即在对应平台撤销泄露的 Key
- 生成新的 API Key
- 更新环境变量
- 检查账单是否有异常使用
相关链接
最后更新:2026 年 3 月