OpenCode插件-atomcode-auth - 免费使用 deepseek-v4-flash

atomcode-auth 插件下载:: 夸克网盘分享
为什么不开源呢:我们悄悄地用 ,开源→用得人多了就会变卡 && 反正都是给他们提供训练数据,只是换了一种方式。
使用方式:
1、下载解压
2、%USERPROFILE%\.config\opencode\opencode.json 配置文件中增加以下配置:写解压后的路径

授权登录:cli用户直接命令行输入 opencode 回车,gui用户命令行输入 opencode-cli 回车,按图操作

测试情况:

修了官方哪些问题?:
1、向官方反应了 deepseek的未正确回传 reasoning_content 的问题后,官方给关了思考内容,但没关思考。

2、修复3个模型SSE流式都不会正确终止的问题,官方修复后,插件不会走修复逻辑

注:免费使用 deepseek-v4-pro 可以使用 NVIDIA 的:
baseUrl:https://integrate.api.nvidia.com/v1
apiKey 申请:Try NVIDIA NIM APIs

模型id 模型别名 描述 最大输入 最大输出 最大思维链长度 上下文 类型 TPS
deepseek-ai/deepseek-v4-pro deepseek-v4-pro Agentic Coding 模型,据评测反馈使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但仍与 Opus 4.6 思考模式存在一定差距。针对 Claude Code 、OpenClaw、OpenCode、CodeBuddy 等主流的 Agent 产品进行了适配和优化。 - 384k - 1m 文本 每秒26 tokens

官方下架了 minimax 2.7


大概是因为之前 deepseek-v4-flash 挂过

去掉了 minimax 模型(官方不提供了),去掉了日志输出,补充了README.md文档:
链接: atomcode-auth.zip

还能这么夺舍!!!明明说只能atomcode内部调用!!!怪不得要悄悄地打枪!

我上午看还有minimax,下午就没了。

之前 qwencode 的 qwen 3.6 plus 免费使用,我也是这么做的,只不过没有发布在网上,毕竟还是阿里的嘛,产品还是需要有竞争力。

就是可惜 我刚做完当天晚上 就宣步 第2天起 日调用改为100次,且两天后取消免费。

我都没怎么用,知道消息太晚了,错过了,呜呜

你们这些人太可怕了,防不胜防啊:thinking:

但怎么说还是给阿里提供了训练数据嘛,互惠互利,哈哈

容我小试一波

可以可以,这个去掉了 minimax 模型(官方不提供了),去掉了日志输出,补充了README.md文档:
链接: atomcode-auth.zip 提取码: 1234

1 个赞

我用了一下,好慢啊,发了一句你好花了一分钟零十秒才回复过来。:rofl:

1 个赞

毕竟不是阿里这样的大厂,服务器算力资源有限,要不也不会把minimax关了,把资源留给deepseek

另一个多模态模型 qwen 3.6 的响应速度还行

是的,qwen 3.6 响应快3~5秒就输出了。readme中写了4.0没思考是不是就等于没多大用了。

这个没思考 是指没有思考内容的输出,但实际上还是有思考的,只不过官方没有解决thinking内容和 content 内容 混杂在一起的问题,只是单独把 思考的内容取消回复了,然后回复慢,也是因为你看不到思考过程,以为还没回复,实际上 回复的时间 中有大半是在思考。

好的,了解。