对OpenClaw的反思

对于OpenClaw带来的反思

不可能养龙虾

大语言模型根本就不具备与人类语义所对其的记忆功能,现阶段的记忆通过以下形式实现:

长期记忆

  1. 把你的记忆直接训练固化进大语言模型本体,属于参数化知识,对于普通用户则是完全不切实际。
  2. 外部挂载的记忆,不管是RAG还是压缩,都需要推理接入,这会产生很大的tokens成本开销,而且这些技术本身的部署和耦合也很复杂。

短期记忆

  • 完整的历史对话和当前新的对话送入模型,因为其本身就不会太长,随着对话轮次逐渐增多确实会越来懂你在尚未到达模型tokens窗口极限时,一旦超出,无非两种解决办法:
  1. 总结对话内容,提炼精要,一定损失上下文内容。
  2. 裁切,即删除对话内容,一定损失上下文内容。

多Agent分散记忆压力

  • 现行的skills技术本质上是(动态/静态)专家提示词,多Agent可以分散记忆压力,但是随着上下文增长,各个Agent陷入记忆问题只是时间长短的事情。

OpenClaw对模型的提升

  • 没有任何提升,OpenClaw最大贡献就是生成一堆的交互数据,硬要说提升,只能说完善了大模型训练语料的富集程度。
  • OpenClaw是基于模型开发而来的应用,不是一个具有OpenClaw能力的模型出现了。

结论

  1. 懂你但是变傻,你的用户特征占据了较多窗口上下文,而你的问题则被迫精简,送入模型。
  2. 健忘但是聪明,你的用户特征占据了较少窗口上下文,而你的问题则保持原貌,送入模型。
  3. 不好也不坏,模型外挂记忆的获取必须通过工具调用,这需要推理(tokens成本)和本地记忆库(环境成本)的支持,作为普及工具实现在各种用户的电脑环境中是一件困难的事情。

对人的影响

  • 先说结论,现阶段应当尽快适应使用小参数模型,走去超大模型化去商业化模型的依赖,原因如下。
  1. 现行to c端模型都会占用很多资源,商业模式上绝不可能持续。
  2. 思考的外包,工具会改变我们的思考方式在客观科学的实际上,《浅薄》这本书总结的很好,模型充当的是辅助,不是人的思考能力的外包。
  3. 当to c端收费成为主流,便是失业潮的来临,垄断效应参照马克思资本论,不再赘述。

如何应对

  1. 开源大模型压缩技术取得重大进展,硬件方面取得重大进展。
  2. 用户适应开源本地可部署小模型,掌握一定的使用技巧(如拆散任务精简提问,去复杂化[OpenClaw、MutiAgent、skills等],一切从模型能力本身和低成本资源方面的实际考虑)。
  3. 掌握微调技术,本地微调小参数的开源模型。

大家如何看待这些事情?

不敢交给龙虾这么大权限来做一些事情,除非是空的服务器。但是这个成本加上token的消耗又太高了。

:sweat_smile:

大锤80~

哈哈哈,脑子里面不止一次在想;
其实模型的发展走向应该是朝着小参数,或者适中参数发展;
它不应该是一种去朝着将所有人类的能力集成化,因为创新并不是每个人都可以去做的
反而融入生活中方面更加适合。

转:OpenClaw 解决的几个问题

解决了 token 消耗过慢的问题
解决了跟不上 AI 潮流的焦虑
解决了 AI 时代的精神焦虑
解决了大厂没有牛马贡献 token 和训练模型的问题
解决了技术爱好者发文分享的需求
解决了卖教程割韭菜的需求
解决了供应商赚钱太慢的问题
解决了自嗨和情绪价值的需求

1 个赞

解决了Mac mini滞销的问题
解决了公众号选题难的问题
解决了黑客肉鸡资源不足的问题
解决了数据恢复厂商生意不好的问题
解决了小姐姐电脑不坏没有上门借口的问题

1 个赞

我一直也认为模型应该专业化而不是通用化,就像现在人类的工作岗位是越来越细分而不是一个人全部包揽,所有东西都往 llm 上塞不是一个好的方向,就像自动驾驶中的 vla,虽然获得了 llm 的推理能力,但反应却变慢了

2 个赞

哈哈哈哈:rofl:

:rofl:




1 个赞

:grin:,是这样的

哈哈哈哈

真的是,现在mac mini都卖断货了……

很好的反思!OpenClaw 确实在不断进化,期待看到更多创新实践~ 由nanoiflow生成并回复

我感觉最有用的应该是随时可以通过聊天工具帮忙干事情,其实记忆感觉也没那么重要,