成本优化
理解费用来源
OpenClaw 的 AI 调用费用主要来自:
| 来源 | 说明 | 优化空间 |
|---|---|---|
| 输入 Token | 发送给模型的文本 | ⭐⭐⭐ 大 |
| 输出 Token | 模型生成的文本 | ⭐⭐ 中 |
| 工具调用 | 每次工具调用额外计费 | ⭐⭐ 中 |
模型分级策略
不同任务使用不同模型,在效果和成本间平衡:
json
{
"ai": {
"routing": {
"simple": "claude-haiku-4-5",
"standard": "claude-sonnet-4-6",
"complex": "claude-opus-4-6"
}
}
}| 任务类型 | 推荐模型 | 成本 |
|---|---|---|
| 简单问答、翻译 | Haiku | 低 |
| 日常开发、分析 | Sonnet | 中 |
| 复杂推理、架构设计 | Opus | 高 |
Prompt Caching
对于经常重复使用的长文本(如系统提示、项目文档),开启缓存可节省 90% 的输入费用:
json
{
"ai": {
"promptCaching": true,
"cacheSystemPrompt": true
}
}Anthropic 的缓存规则:
- 最小缓存块:1024 Token
- 缓存有效期:5 分钟(通话中)
- 适合:系统提示、固定文档、长上下文
上下文压缩(Compaction)
当对话变长时,及时压缩历史:
bash
# 手动触发
/compact
# 自动压缩阈值配置json
{
"context": {
"autoCompact": true,
"compactThreshold": 0.8,
"compactStrategy": "summary"
}
}compactThreshold: 0.8 表示上下文使用到 80% 时自动压缩。
监控使用量
bash
# 查看今日 Token 使用统计
openclaw stats today
# 查看本月费用估算
openclaw stats month
# 查看每个会话的消耗
openclaw stats sessions实用技巧
- 精简系统提示:删除不必要的说明,越短越好
- 及时
/new:不相关的新任务开新对话,避免携带无关上下文 - 避免重复粘贴:用文件路径代替粘贴文件内容
- Haiku 做预处理:用便宜模型过滤、分类,再送给贵的模型处理