如题~ 11月14日,iFlowCLI v0.3.21 更新模型 Kimi K2 Thinking!
开帖收集使用反馈,欢迎大家评论区留言讨论~
如题~ 11月14日,iFlowCLI v0.3.21 更新模型 Kimi K2 Thinking!
开帖收集使用反馈,欢迎大家评论区留言讨论~
6666666666666
>>iFlowCLI v0.3.21 更新模型 Kimi K2 Thinking!
更新了吗?没有看到啊
办公室的我大声惊叹!
厉害!!
希望有空了能更新下模型库~
这个模型有特殊的限制,需要减少一些 ![]()
为啥api调用的方式还不支持kimi-thinking
希望在module选择页面标注一下模型是否支持思考
我用了一个复杂的编码测试了下,发现会有调用不存在的方法的问题,同时感觉推理很慢,300行的代码推理了10几分钟
建议集成一下arq推理系统,可以把他放到你的后端哈,这样加快推理,他比cot好多了
除了慢还是慢,现在glm4.6慢了,去看看什么问题,现在GLM超级慢
在iflow中使用k2 think模型,不太稳定,在写入大文档时(>2000行) 会经常报错
![]()
强烈建议上线API!!!!!
filow CLI 运行一段时间大概7,8个来回,有时候会卡住,但是上下文还剩余70%,还需要进一步优化。
Kimi K2 thinking 确实很慢,有时候输入提示词后要3分多钟才有反应。
今天测试了下效果还不错,整体上修复、优化、更新 rust 代码,都是改完后自己验证自己修复,最终交付都是 ok 的。唯一的问题是,我链接到远程服务器开发,iterm 上闪的太厉害了,历史记录我 cmd+k 清理掉,过一会又闪的比较厉害。不过这个不是模型问题,估计是目前 cli 程序的通病。