我居然能在 iflow cli 里面用 kimi k2.5

本来只是好奇,把本地 node_modules 下面的源文件,查找替换了 Kimi-K2-0905 为 Kimi-K2.5 ,我想着发布这么久了,也该上线了,不上线也该测试了。没想到真的能请求。不过似乎效果很差,工具调用用不好,应该是还没适配好,现在能用也没啥用其实。

继承了 kimi 系列的一以贯之的慢 :joy:

可能是部署的输出中, thinking 内容没有独立

盲猜上下文测试阶段只给了 128k

还真可用了,我这边要手动改配置文件里的modelName

相比GLM4.7,上下文确实短,一个小任务就干完了

1 个赞

希望后面context给长一点。128真的不够呀

是的 还在适配中,昨天没来得及上线,今天应该会通知(顺利的话)

上了吗

还没 :pleading_face: :white_flag:

强,终于看到了进度条的大更新

哈哈 被发现了的感觉

开发平台用openai访问好像直接报model不支持了

会比glm4.7强吗?

现在看评测结果的话,答案是:是的

初步体验下来,目前iflow中,适配程度没有GLM4.7好,各种问题,所以体验上也没有GLM4.7好,有待提高

嗯 等适配吧。模型好,适配不行也没用。
不过现在可以用用trae或者oc上的,给iflow一点时间

其实我担心的是速度。glm和minimax给我用爽了,但是kimi的速度估计不会太好。如果要等半天的话,体验就容易下降

用个 codex 就知道什么是慢了:laughing:

给就是给,不给就是不给..没必要的..大家不是啥子,

终于有动静了。