Files
zclaw_openfang/docs/setup/chinese-models.md
iven 0d4fa96b82
Some checks failed
CI / Lint & TypeCheck (push) Has been cancelled
CI / Unit Tests (push) Has been cancelled
CI / Build Frontend (push) Has been cancelled
CI / Rust Check (push) Has been cancelled
CI / Security Scan (push) Has been cancelled
CI / E2E Tests (push) Has been cancelled
refactor: 统一项目名称从OpenFang到ZCLAW
重构所有代码和文档中的项目名称,将OpenFang统一更新为ZCLAW。包括:
- 配置文件中的项目名称
- 代码注释和文档引用
- 环境变量和路径
- 类型定义和接口名称
- 测试用例和模拟数据

同时优化部分代码结构,移除未使用的模块,并更新相关依赖项。
2026-03-27 07:36:03 +08:00

10 KiB
Raw Permalink Blame History

中文模型配置指南

本文档详细介绍 ZCLAW Kernel 支持的中文大语言模型,以及如何获取和配置 API Key。


支持的中文模型

ZCLAW 通过 OpenAI 兼容 API 支持所有主流中文模型提供商:

提供商 模型系列 特点 定价
智谱 AI GLM-4 国产领先,多模态支持 免费 + 付费
阿里云 通义千问 (Qwen) 性价比高,企业级 按量计费
月之暗面 Kimi 长上下文200K 按量计费
MiniMax 海螺 AI 语音能力强 按量计费
百度 文心一言 企业应用广泛 按量计费
DeepSeek DeepSeek 编程能力强,低价 极低价格
百川智能 Baichuan 中文优化 按量计费
上海 AI Lab 书生浦语 开源模型 免费

1. 智谱 GLM

模型列表

模型 上下文 特点 适用场景
glm-4-flash 128K 快速响应,免费额度 日常对话、快速问答
glm-4 128K 旗舰模型 复杂任务、推理
glm-4-plus 128K 增强版 专业应用
glm-4-air 128K 轻量版 简单任务
glm-4v 8K 多模态(图像理解) 图像分析
glm-4-long 1M 超长上下文 长文档处理

API Key 获取

  1. 访问 智谱开放平台
  2. 注册/登录账号
  3. 进入「API Keys」页面
  4. 点击「创建 API Key」

免费额度:新用户赠送 1000 万 tokens

配置示例

[model.zhipu]
provider = "zhipu"
model = "glm-4-flash"
api_key_env = "ZHIPU_API_KEY"
base_url = "https://open.bigmodel.cn/api/paas/v4"
# 设置环境变量
export ZHIPU_API_KEY="your-zhipu-api-key"

2. 通义千问 (Qwen)

模型列表

模型 上下文 特点 适用场景
qwen-turbo 8K 快速版 快速问答
qwen-plus 32K 增强版 复杂任务
qwen-max 32K 旗舰版 高质量输出
qwen-max-longcontext 200K 长上下文 长文档
qwen-vl-plus 8K 多模态 图像理解
qwen-vl-max 8K 多模态增强 高精度图像

API Key 获取

  1. 访问 阿里云百炼
  2. 登录阿里云账号
  3. 开通「灵积模型服务」
  4. 获取 API Key

免费额度:部分模型有免费试用

配置示例

[model.qwen]
provider = "openai-compat"
model = "qwen-turbo"
api_key_env = "DASHSCOPE_API_KEY"
base_url = "https://dashscope.aliyuncs.com/compatible-mode/v1"
# 设置环境变量
export DASHSCOPE_API_KEY="your-dashscope-api-key"

3. Kimi (Moonshot)

模型列表

模型 上下文 特点 适用场景
moonshot-v1-8k 8K 基础版 日常对话
moonshot-v1-32k 32K 长上下文 中等文档
moonshot-v1-128k 128K 超长上下文 长文档分析

API Key 获取

  1. 访问 Moonshot AI 开放平台
  2. 注册/登录账号
  3. 进入「API Key 管理」
  4. 创建新的 API Key

免费额度:新用户赠送 15 元体验金

配置示例

[model.kimi]
provider = "openai-compat"
model = "moonshot-v1-8k"
api_key_env = "MOONSHOT_API_KEY"
base_url = "https://api.moonshot.cn/v1"
# 设置环境变量
export MOONSHOT_API_KEY="your-moonshot-api-key"

4. MiniMax

模型列表

模型 上下文 特点 适用场景
abab6.5-chat 8K 旗舰对话 通用对话
abab6.5s-chat 8K 快速版 快速响应
abab6.5g-chat 8K 通用版 平衡场景
abab5.5-chat 16K 经典版 日常使用
abab5.5s-chat 16K 轻量版 简单任务

API Key 获取

  1. 访问 MiniMax 开放平台
  2. 注册/登录账号
  3. 进入「账户管理」->「API Key」
  4. 创建 API Key

注意MiniMax 需要同时配置 Group ID

配置示例

[model.minimax]
provider = "openai-compat"
model = "abab6.5-chat"
api_key_env = "MINIMAX_API_KEY"
base_url = "https://api.minimax.chat/v1"

[model.minimax.headers]
# MiniMax 需要 Group ID
"x-minimax-group-id" = "your-group-id"
# 设置环境变量
export MINIMAX_API_KEY="your-minimax-api-key"

5. DeepSeek

模型列表

模型 上下文 特点 适用场景
deepseek-chat 64K 通用对话 日常使用
deepseek-coder 16K 代码专精 编程任务
deepseek-reasoner 64K 深度推理 复杂推理

API Key 获取

  1. 访问 DeepSeek 开放平台
  2. 注册/登录账号
  3. 进入「API Keys」页面
  4. 创建 API Key

定价优势:极低价格,性价比高

配置示例

[model.deepseek]
provider = "openai-compat"
model = "deepseek-chat"
api_key_env = "DEEPSEEK_API_KEY"
base_url = "https://api.deepseek.com"
# 设置环境变量
export DEEPSEEK_API_KEY="your-deepseek-api-key"

6. 百度文心一言

模型列表

模型 上下文 特点 适用场景
ernie-4.0-8k 8K 旗舰版 复杂任务
ernie-3.5-8k 8K 标准版 日常使用
ernie-speed-8k 8K 快速版 快速响应
ernie-lite-8k 8K 轻量版 简单任务

API Key 获取

  1. 访问 百度智能云千帆平台
  2. 登录百度账号
  3. 创建应用,获取 API Key 和 Secret Key

注意:文心一言使用 access_token 认证,需要额外处理

配置示例

[model.wenxin]
provider = "openai-compat"
model = "ernie-4.0-8k"
api_key_env = "WENXIN_ACCESS_TOKEN"
base_url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/completions"

7. 百川智能

模型列表

模型 上下文 特点 适用场景
Baichuan4 128K 旗舰版 复杂任务
Baichuan3-Turbo 32K 快速版 日常使用
Baichuan3-Turbo-128k 128K 长上下文 长文档

API Key 获取

  1. 访问 百川智能开放平台
  2. 注册/登录账号
  3. 获取 API Key

配置示例

[model.baichuan]
provider = "openai-compat"
model = "Baichuan4"
api_key_env = "BAICHUAN_API_KEY"
base_url = "https://api.baichuan-ai.com/v1"

8. 本地模型 (Ollama)

如果你想在本地运行开源中文模型:

支持的开源模型

模型 参数量 内存需求 特点
qwen2:7b 7B 8GB 通用对话
qwen2:14b 14B 16GB 高质量输出
glm4:9b 9B 12GB 智谱开源版
deepseek-coder:6.7b 6.7B 8GB 代码专精

安装 Ollama

# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows
# 访问 https://ollama.com/download 下载安装包

下载模型

# 下载通义千问
ollama pull qwen2:7b

# 下载 GLM4
ollama pull glm4:9b

配置示例

[model.ollama]
provider = "openai-compat"
model = "qwen2:7b"
base_url = "http://localhost:11434/v1"
# 本地模型无需 API Key
api_key_env = ""

多模型配置

ZCLAW 支持同时配置多个模型,并自动路由:

# ~/.zclaw/config.toml

[model]
# 默认模型
provider = "zhipu"
model = "glm-4-flash"

# 备选模型
[[model.alternates]]
name = "coding"
provider = "deepseek"
model = "deepseek-coder"
api_key_env = "DEEPSEEK_API_KEY"

[[model.alternates]]
name = "long-context"
provider = "kimi"
model = "moonshot-v1-128k"
api_key_env = "MOONSHOT_API_KEY"

[[model.alternates]]
name = "local"
provider = "openai-compat"
model = "qwen2:7b"
base_url = "http://localhost:11434/v1"

# 模型路由规则
[model.routing]
# 编程任务使用 DeepSeek Coder
coding = ["deepseek-coder", "glm-4"]
# 长文档使用 Kimi
long_context = ["moonshot-v1-128k", "glm-4-long"]
# 快速响应使用 Flash 或本地模型
fast = ["glm-4-flash", "qwen2:7b"]

价格对比

模型 输入价格 (元/百万 tokens) 输出价格 (元/百万 tokens)
GLM-4-Flash 免费 免费
GLM-4 100 100
通义千问-Turbo 2 6
通义千问-Max 40 120
Kimi-8K 12 12
DeepSeek-Chat 1 2
DeepSeek-Coder 1 2

价格仅供参考,以官方最新公告为准


最佳实践

1. 模型选择建议

场景 推荐模型 理由
日常对话 GLM-4-Flash 免费且速度快
编程任务 DeepSeek-Coder 专业代码能力
长文档分析 Kimi-128K 超长上下文
复杂推理 GLM-4 / Qwen-Max 高质量输出
离线使用 Ollama + Qwen2 本地运行

2. API Key 安全

  • 永远不要在代码或配置文件中硬编码 API Key
  • 使用环境变量存储敏感信息
  • 定期轮换 API Key
  • 为不同项目使用不同的 API Key
  • 设置 API Key 使用额度限制

3. 成本控制

[metering]
# 每日最大花费(美元)
daily_budget = 5.0
# 每个 Agent 每小时最大 tokens
hourly_token_limit = 100000
# 超限行为reject拒绝或 downgrade降级
on_limit = "downgrade"
# 降级到的模型
fallback_model = "glm-4-flash"

常见问题

Q: 如何测试 API Key 是否有效?

# 使用 curl 测试智谱 API
curl -X POST https://open.bigmodel.cn/api/paas/v4/chat/completions \
  -H "Authorization: Bearer $ZHIPU_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"model": "glm-4-flash", "messages": [{"role": "user", "content": "你好"}]}'

Q: 多个模型如何切换?

在 Agent 配置中指定:

[agent.my-agent]
[model]
provider = "deepseek"
model = "deepseek-coder"

Q: 如何查看用量?

# 查看今日用量
zclaw usage --today

# 查看本月用量
zclaw usage --month

# 按模型分组
zclaw usage --group-by model

Q: API Key 泄露了怎么办?

  1. 立即在对应平台撤销泄露的 Key
  2. 生成新的 API Key
  3. 更新环境变量
  4. 检查账单是否有异常使用

相关链接


最后更新2026 年 3 月