一直报400错误是为什么

✕ [API Error: 生成数据错误: HTTP 错误!状态:400,响应:{“error”:{“message”:“Bad request!: {“routify_response”:{“trace_id”:“212bcabb17736494959164128d0ce5”,“request_id”:“b1353deb82894251b88fb8f9633e2
c4e”,“success”:false,“status”:400,“error_source”:“CLIENT_ERROR”,“error_message”:“AllModelsFailed: 请求供应商服务器失败”,“error_detail”:{“error”:{“code”:“1261”,“message”:“Prompt
exceeds max length”}}}}”,“type”:“BadRequest”,“code”:“400”}} TraceID:00-01381cd1f0565e4873acf30581344639-ac4626a6a42a4eaa-01]

换个模型就好了

谢谢,但是我还没有更新plan。。。导致我丢失了一部分会话hh,不过免费的还要什么自行车

更换模型后,可以再发一次这个错误前的提示词,而不是直接发继续,这样可能会好点

现在有啥模型能用,换了好几个模型都不行

用的人太多了,达到模型连接限制,可以等会再运行。

说人话就是资源不够了 :joy:

QWEN CODING PLUS那个看起来还不错,GLM5用的人太多

GLM -4.7 Minimax-2.5 Kimi -K2.5(前端非常适合)

1 个赞

今天改前端组件问题,再次感觉Kimi-K2.5的前端能力真的可以!

包的;
/optimized promt (子命令优化以下提示词)你给他一个身份定义比如说UI设计美观大师,前端设计美观大师
给予给出当前的前端进行优化方案指定;(模糊定位你想要的样子)
assistant: 提示词

执行优化后的提示词
assiatant:方案

执行 :nerd_face:
哈哈哈,比较适合这种没有什么美学的我

“Prompt exceeds max length”
错误提示里有提醒,应该是输入太多了,可以控制一下输入的内容量;