这个模型真的很不错,性能又高,速度又快。真别小看速度快这点,我去用阶跃他们家官网的服务体验爽死了,第1次感觉这么超智能高智商的ai在等我阅读。k2.5确实够好,但是实在是太重了,输出速度和等待时间,实在是让体验下降了太多。建议可以用这个模型,替代掉glm4.7和m2.1,在这个生态位上,可以完全平替这两个,并且我相信对于很多用户而言这个模型的实际使用感受甚至比k2.5还好。这样用户体验又提高,你们的服务器又减轻压力,双赢
我支持你的观点,但是我觉得直接等glm 5.0和m2.5可能更好。
这俩快出了,如果现在要部署step 3.5,glm和minimax这两个模型的位置是不能被占用的,它们毕竟基础不错,模型厂商也比较靠谱,很有希望发出更强大的模型。
我倒觉得,可以把k2.5替换掉k2-0905和k2 thinking,这样更多的资源可以跑到k2.5,来减小服务器压力。
1 个赞
看了一些评测,我感觉我用不到.
1 个赞