上下文压缩后的记忆是什么样的

:information_source: 上下文已压缩(从 102621 个 token 压缩到 9960 个 token)。

每次上下文被压缩后都感觉当前模型的记忆消失了。
想问一下上下文压缩后是相当于给模型聊天的窗口新开了一个窗口吗?
只不过是把之前窗口的信息压缩整理成少量的文字包含之前窗口对话的一些重要信息

逻辑上是把详细对话压缩成简短的摘要了

1 个赞