OpenClaw 降低 Token 消耗
OpenClaw 降低 Token 消耗
一、斜杠命令:快速“瘦身”当前会话
对于日常对话场景,最快见效的办法就是用好几条内置的斜杠命令。它们的用法都很简单:直接在聊天框里发送给 OpenClaw 即可(无需加其他前缀)。
1. /compact:压缩当前会话上下文
作用:
让 OpenClaw 对当前会话历史做一次“总结压缩”,尽量保留关键信息,丢掉多余的细节,从而在后续对话中显著降低 Token 消耗。
使用场景:
- 和机器人聊了很久,一个问题前面要带一大段历史;
- 明显感觉响应变慢、价格飙升,但又不想完全清空上下文;
- 当前话题还要继续,但不需要保留所有细节。
用法:
在当前聊天窗口直接发送:
/compact
OpenClaw 会尝试把之前的对话收敛为较短的“摘要记忆”,并在后续对话中优先使用这个摘要,减少每次请求的上下文长度。

2. /reset:保留记忆,重置当前话题
作用:
重置当前会话的短期上下文,但保留长期记忆和全局配置。可以理解为「这段对话从头来过,但你之前帮我记住的关键信息仍然存在」。
使用场景:
- 当前话题已经结束,接下来要聊完全不同的事情;
- 上下文已经很臃肿,继续往下聊 Token 会越来越高;
- 但你又不希望清空所有历史记忆(比如个人偏好、团队代号、项目背景等)。
用法:
在当前聊天窗口直接发送:
/reset
执行后:
- 当前对话线程的历史上下文会被清空;
- Agent 的长期记忆(写入 MEMORY / 重要存档)仍然会保留;
- 后续问题会在“新话题”的上下文里继续。

3. /new:开启一段全新的对话
作用:
创建一个真正“从零开始”的新会话,可以类比为「新建一个对话标签页」。
使用场景:
- 想在同一个频道里,彻底开启一个全新的对话;
- 不希望任何历史上下文干扰当前的问题;
- 需要做 AB 对比测试——一个会话保留上下文,另外一个完全从头。
用法:
在当前聊天窗口直接发送:
/new
说明:随着使用时间变长,OpenClaw 会积累越来越多的上下文和记忆。如果不加控制,同一个问题的 Token 消耗可能从几千一路涨到几万甚至几十万。本篇从「立刻能见效」出发,介绍几种简单实用的降本方法。
一、斜杠命令:快速“瘦身”当前会话
对于日常对话场景,最快见效的办法就是用好几条内置的斜杠命令。它们的用法都很简单:直接在聊天框里发送给 OpenClaw 即可(无需加其他前缀)。
1. /compact:压缩当前会话上下文
作用:
让 OpenClaw 对当前会话历史做一次“总结压缩”,尽量保留关键信息,丢掉多余的细节,从而在后续对话中显著降低 Token 消耗。
使用场景:
- 和机器人聊了很久,一个问题前面要带一大段历史;
- 明显感觉响应变慢、价格飙升,但又不想完全清空上下文;
- 当前话题还要继续,但不需要保留所有细节。
用法:
在当前聊天窗口直接发送:
代码语言:TXT
自动换行
AI代码解释
/compact
OpenClaw 会尝试把之前的对话收敛为较短的“摘要记忆”,并在后续对话中优先使用这个摘要,减少每次请求的上下文长度。

2. /reset:保留记忆,重置当前话题
作用:
重置当前会话的短期上下文,但保留长期记忆和全局配置。可以理解为「这段对话从头来过,但你之前帮我记住的关键信息仍然存在」。
使用场景:
- 当前话题已经结束,接下来要聊完全不同的事情;
- 上下文已经很臃肿,继续往下聊 Token 会越来越高;
- 但你又不希望清空所有历史记忆(比如个人偏好、团队代号、项目背景等)。
用法:
在当前聊天窗口直接发送:
代码语言:TXT
自动换行
AI代码解释
/reset
执行后:
- 当前对话线程的历史上下文会被清空;
- Agent 的长期记忆(写入 MEMORY / 重要存档)仍然会保留;
- 后续问题会在“新话题”的上下文里继续。
3. /new:开启一段全新的对话
作用:
创建一个真正“从零开始”的新会话,可以类比为「新建一个对话标签页」。
使用场景:
- 想在同一个频道里,彻底开启一个全新的对话;
- 不希望任何历史上下文干扰当前的问题;
- 需要做 AB 对比测试——一个会话保留上下文,另外一个完全从头。
用法:
在当前聊天窗口直接发送:
代码语言:TXT
自动换行
AI代码解释
/new
执行后,OpenClaw 会以“新会话”的身份与你对话。通常来说,这比在原线程里不断滚动历史、继续追加问题要更加节省 Token。

二、用 memory-search 替代「无限长对话」
除了直接控制上下文本身,还有一种更“聪明”的方式来降低 Token: 不要把所有东西都塞进同一段对话,而是让 Agent 学会“查资料”。
OpenClaw 提供了 memory-search 能力,可以让 Agent 在需要时主动去查找历史记忆,而不是靠把所有历史对话一股脑地塞进上下文。一个典型思路是:
- 把关键信息固化到 memory 文件 知识库中;
- 开启
memory-search; - 让 Agent 在需要时用“查询”的方式取回小块相关内容,而不是每次都携带整段历史上下文参与推理。
这样一来:
- 模型输入中只包含当前问题 + 与之高度相关的一小段记忆;
- 不需要为了“怕它忘”而在每次对话里重复大量背景;
- 在复杂项目里,长远看比“全靠上下文”更节省、也更稳定。
memory-search是OpenClaw默认开启的机制,你要做的就是在进行完一轮完整的对话,或是在OpenClaw完成一轮任务后,养成让龙虾记忆重要信息的习惯,还是直接从对话框告诉它就行。

小结
以上方式,可以叠加使用:
- 日常随手用
/compact、/reset、/new掌控当前对话长度; - 在架构上拆分多 Agent,让不同任务各用各的脑;
- 逐步把长期知识迁移到 memory / 知识库,用
memory-search做“精确查找”,而不是“暴力塞上下文”。
JavaSE
JavaWeb
Spring
MyBatis
linux
消息队列
工具
片段
AI
搜索