bug:无自动压缩上下文吗?

✕ [API Error: generate data error: HTTP error! status: 400, body: {“error”:{“message”:"Bad request!:
{“error”:{“message”:"This model’s maximum context length is 131072 tokens.

deepseek v3.2-chat 开启thinking
yolo mode

问的第一个问题,最优解决方案,不管用户发多少,先读取最多的内容 读完进行压缩,再读取后面内容,而不是像trae限制输入,恶心用户。也不是像这样直接报错。

iflow里是自动压缩的,这个报错应该是模型内部的问题,推荐切换模型使用