国产模型选型
本指南帮助你根据具体使用场景选择最合适的国产大模型,并提供详细的配置方法。
模型全览对比
| 模型 | 厂商 | 上下文窗口 | 输入价格(元/百万 Token) | 输出价格(元/百万 Token) | 推荐场景 |
|---|---|---|---|---|---|
| DeepSeek V3 | 深度求索 | 128K | 1 | 2 | ⭐ 通用首选,性价比之王 |
| DeepSeek R1 | 深度求索 | 128K | 4 | 16 | 复杂推理、数学、编程 |
| Qwen-Max | 阿里云 | 128K | 20 | 60 | 企业级、高质量输出 |
| Qwen-Plus | 阿里云 | 128K | 4 | 12 | 中等复杂度任务 |
| Qwen-Turbo | 阿里云 | 128K | 0.3 | 0.6 | 简单任务、高并发 |
| Moonshot (Kimi) | 月之暗面 | 200K | 12 | 12 | 超长文档处理 |
| GLM-4 | 智谱 AI | 128K | 15 | 15 | 复杂对话、知识问答 |
| GLM-4-Flash | 智谱 AI | 128K | 免费 | 免费 | 轻量任务、测试 |
| ERNIE 4.0 | 百度 | 128K | 30 | 90 | 中文理解、内容生成 |
| MiniMax-Text | 稀宇科技 | 245K | 1 | 1 | 超长上下文、角色扮演 |
| Doubao Pro | 字节跳动 | 128K | 5 | 9 | 通用对话 |
| MiMo | 小米 | 128K | 1.5 | 6 | 推理优化场景 |
价格说明
以上价格为 2026 年 3 月参考价,各厂商可能随时调整。请以官方最新定价为准。
场景推荐
日常对话
推荐:DeepSeek V3 或 Qwen-Turbo
- DeepSeek V3:综合能力强,1 元/百万 Token,性价比极高
- Qwen-Turbo:0.3 元/百万 Token,极致低成本方案
yaml
# config.yaml - 日常对话配置
models:
default: deepseek-chat
providers:
deepseek:
apiKey: "${DEEPSEEK_API_KEY}"
model: deepseek-chat复杂推理
推荐:DeepSeek R1 或 GLM-4
- DeepSeek R1:推理能力强,支持思维链(Chain of Thought)展示
- GLM-4:知识储备丰富,逻辑性好
yaml
# config.yaml - 复杂推理配置
models:
default: deepseek-reasoner
providers:
deepseek:
apiKey: "${DEEPSEEK_API_KEY}"
model: deepseek-reasoner代码生成
推荐:DeepSeek V3 或 DeepSeek R1
DeepSeek 系列在代码生成方面表现出色,接近 GPT-4o 水平:
yaml
models:
default: deepseek-chat
providers:
deepseek:
apiKey: "${DEEPSEEK_API_KEY}"
model: deepseek-chat
systemPrompt: "你是一个专业的编程助手,请用中文解释代码逻辑。"长文档处理
推荐:Moonshot (Kimi) 或 MiniMax
- Moonshot:200K 上下文窗口,擅长长文档总结和分析
- MiniMax:245K 超长上下文,价格也很实惠
yaml
models:
default: moonshot-v1-200k
providers:
moonshot:
apiKey: "${MOONSHOT_API_KEY}"
model: moonshot-v1-200k多模态任务
推荐:Qwen-VL(通义千问视觉版)
支持图片理解、OCR(光学字符识别)等视觉任务:
yaml
models:
default: qwen-vl-max
providers:
dashscope:
apiKey: "${DASHSCOPE_API_KEY}"
model: qwen-vl-max免费额度对比
| 模型 | 免费额度 | 有效期 | 适合场景 |
|---|---|---|---|
| GLM-4-Flash | 完全免费 | 长期 | 轻量任务、个人学习 |
| DeepSeek V3 | 注册送 500 万 Token | 30 天 | 初期试用 |
| Qwen-Turbo | 注册送 200 万 Token | 30 天 | 快速体验 |
| Moonshot | 注册送 15 元 | 无限期 | 测试长文档能力 |
| MiniMax | 注册送 500 万 Token | 30 天 | 测试长上下文 |
零成本起步方案
使用 GLM-4-Flash(完全免费)作为默认模型开始体验,确认需求后再切换到其他付费模型。
成本分析
以每月 1000 万 Token 用量为例:
| 模型 | 月费估算 | 性价比评级 |
|---|---|---|
| Qwen-Turbo | ≈ 4.5 元 | ⭐⭐⭐⭐⭐ |
| DeepSeek V3 | ≈ 15 元 | ⭐⭐⭐⭐⭐ |
| MiniMax-Text | ≈ 10 元 | ⭐⭐⭐⭐ |
| Qwen-Plus | ≈ 80 元 | ⭐⭐⭐ |
| Moonshot | ≈ 120 元 | ⭐⭐⭐ |
| GLM-4 | ≈ 150 元 | ⭐⭐⭐ |
| Qwen-Max | ≈ 400 元 | ⭐⭐ |
| ERNIE 4.0 | ≈ 600 元 | ⭐⭐ |
模型 Failover(故障转移)配置
配置多个模型作为备选,当主模型不可用时自动切换:
yaml
# config.yaml - Failover 配置
models:
default: deepseek-chat
failover:
- provider: deepseek
model: deepseek-chat
priority: 1
- provider: dashscope
model: qwen-plus
priority: 2
- provider: zhipuai
model: glm-4-flash
priority: 3 # 免费兜底建议至少配置两个模型提供商
单一提供商可能因为维护、故障等原因暂时不可用,配置 Failover 可以确保服务持续运行。
快速配置向导
bash
# 交互式模型配置
openclaw models setup
# 手动添加模型
openclaw models add --provider deepseek --apiKey "sk-xxx" --model deepseek-chat
# 测试模型连接
openclaw models test --provider deepseek
# 设置默认模型
openclaw config set models.default deepseek-chat