GLM5 就没有成功过

[API Error: 生成数据错误: HTTP
错误!状态:400,响应:{“error”:{“message”:“Bad request!:
{“routify_response”:{“trace_id”:“212abeae17732845869034946d0cf6”
,“request_id”:“0d163e635ab04889b41fb29d43c31301”,“success”:false
,“status”:400,“error_source”:“CLIENT_ERROR”,“error_message”:”
AllModelsFailed: 请求供应商服务器失败",“error_detail”:{“error”:{
“code":“1261”,“message”:“{\“object\”:\“error\”,\“messa
ge\”:\“Request 149184 input tokens exceeds the model’s maximum
context length 202752\”,\“type\”:\“413\”,\“param\”:null,
\“code\”:413}\n”}}}}”,“type”:“BadRequest”,“code”:“400”}}
TraceID:00-58cf7d38f1a89ae9a2a8ba17252066ec-445da8e3c32e0676-01]

建议模型信息配置最大上下文,超过某个阈值就压缩
版本:0.5.17

试试:0.5.14版似乎是解决了glm-5的上下文问题,但是我这两天就老遇到这20%多的时候,弹出400错误了 - #8,来自 10011695425
改一下应该就会好很多了