✕ [API Error: generate data error: HTTP error! status: 400, body: {“error”:{“message”:"Bad request!:
{“error”:{“message”:"This model’s maximum context length is 131072 tokens.
deepseek v3.2-chat 开启thinking
yolo mode
问的第一个问题,最优解决方案,不管用户发多少,先读取最多的内容 读完进行压缩,再读取后面内容,而不是像trae限制输入,恶心用户。也不是像这样直接报错。