对于OpenClaw带来的反思
不可能养龙虾
大语言模型根本就不具备与人类语义所对其的记忆功能,现阶段的记忆通过以下形式实现:
长期记忆
- 把你的记忆直接训练固化进大语言模型本体,属于参数化知识,对于普通用户则是完全不切实际。
- 外部挂载的记忆,不管是RAG还是压缩,都需要推理接入,这会产生很大的tokens成本开销,而且这些技术本身的部署和耦合也很复杂。
短期记忆
- 完整的历史对话和当前新的对话送入模型,因为其本身就不会太长,随着对话轮次逐渐增多确实会越来懂你在尚未到达模型tokens窗口极限时,一旦超出,无非两种解决办法:
- 总结对话内容,提炼精要,一定损失上下文内容。
- 裁切,即删除对话内容,一定损失上下文内容。
多Agent分散记忆压力
- 现行的skills技术本质上是(动态/静态)专家提示词,多Agent可以分散记忆压力,但是随着上下文增长,各个Agent陷入记忆问题只是时间长短的事情。
OpenClaw对模型的提升
- 没有任何提升,OpenClaw最大贡献就是生成一堆的交互数据,硬要说提升,只能说完善了大模型训练语料的富集程度。
- OpenClaw是基于模型开发而来的应用,不是一个具有OpenClaw能力的模型出现了。
结论
- 懂你但是变傻,你的用户特征占据了较多窗口上下文,而你的问题则被迫精简,送入模型。
- 健忘但是聪明,你的用户特征占据了较少窗口上下文,而你的问题则保持原貌,送入模型。
- 不好也不坏,模型外挂记忆的获取必须通过工具调用,这需要推理(tokens成本)和本地记忆库(环境成本)的支持,作为普及工具实现在各种用户的电脑环境中是一件困难的事情。
对人的影响
- 先说结论,现阶段应当尽快适应使用小参数模型,走去超大模型化去商业化模型的依赖,原因如下。
- 现行to c端模型都会占用很多资源,商业模式上绝不可能持续。
- 思考的外包,工具会改变我们的思考方式在客观科学的实际上,《浅薄》这本书总结的很好,模型充当的是辅助,不是人的思考能力的外包。
- 当to c端收费成为主流,便是失业潮的来临,垄断效应参照马克思资本论,不再赘述。
如何应对
- 开源大模型压缩技术取得重大进展,硬件方面取得重大进展。
- 用户适应开源本地可部署小模型,掌握一定的使用技巧(如拆散任务精简提问,去复杂化[OpenClaw、MutiAgent、skills等],一切从模型能力本身和低成本资源方面的实际考虑)。
- 掌握微调技术,本地微调小参数的开源模型。
大家如何看待这些事情?




