买了JD☁️的coding plan 分享信息

大致信息分享:

地址: 京东云 Coding Plan 特惠页面-京东云

时间

  • 每日上午 10:30 限量开放新用户首购特惠名额。记得参与前账号实名

套餐信息

买的7.9入门款,订阅如下:

  • Coding Plan Lite套餐:订阅时长1个月,新用户首订特惠价7.9元;售完可购买原价套餐:40元/月
  • Coding Plan Pro套餐:订阅时长1个月,新用户首订特惠价39.9元;售完可购买原价套餐,200元/月

用量限制

套餐 适用人群 用量限制
Lite套餐 中等强度的开发者,适合大多数开发者。 1. 每5小时:最多约 1,200 次请求。 2. 每周:最多约 9,000 次请求。 3. 每订阅月:最多约 18,000 次请求。
Pro套餐 复杂项目开发,适合高强度工作的开发者。 Lite套餐的5倍用量。 1. 每5小时:最多约 6,000 次请求。 2. 每周:最多约 45,000 次请求。 3. 每订阅月:最多约 90,000 次请求。

支持 Claude Code、OpenCode、OpenClaw、Roo Code、Cursor等主流 AI 编码工具,多工具之间套餐额度共享。

API地址

:rocket: OpenAI 兼容协议 URL

https://modelservice.jdcloud.com/coding/openai/v1

:rocket: Anthropic 兼容协议 URL

https://modelservice.jdcloud.com/coding/anthropic

model

支持配置的 Model Name:

  • DeepSeek-V3.2
  • GLM-5
  • GLM-4.7
  • MiniMax-M2.5
  • Kimi-K2.5
  • Kimi-K2-Turbo
  • Qwen3-Coder

模型详情

模型名称 模型介绍 说明
DeepSeek-V3.2 平衡推理能力与输出长度,在通用问答、Agent 任务、轻量级代码开发中稳定高效。默认包含深度思考(支持关闭)。 长度限制如下: 1. 上下文窗口:128k 2. 最大输出长度(包含思维链):64k 3. 默认关闭思考,支持开启
GLM-5 专注于复杂系统工程和长周期智能体(Agent)任务。 长度限制如下: 1. 上下文窗口:200k 2. 最大输出长度(包含思维链):32k 3. 默认开启思考,支持关闭
GLM-4.7 智谱 AI 旗舰代码大模型,轻松解析超长代码库,在代码生成、调试、全链路理解场景表现优异。 长度限制如下: 1. 上下文窗口:200k 2. 最大输出长度(包含思维链):128K 3. 默认关闭思考,支持开启
MiniMax-M2.5 MiniMax 旗舰级开源大模型,在编程、工具调用、搜索等生产力场景达到行业领先水平。 长度限制如下: 1. 上下文窗口:200k 2. 最大输出长度(包含思维链):128k 3. 默认开启思考,支持关闭
Kimi-K2.5 Moonshot AI 最新编程模型,进一步强化了前端代码质量与设计表现力。 长度限制如下: 1. 上下文窗口:256K 2. 最大输出长度(包含思维链):32k 3. 默认开启思考,支持关闭
Kimi-K2-Turbo Kimi K2 的高速版本,参数一致但输出提速至 60-100 token/s。 长度限制如下: 1. 上下文窗口:256K 2. 最大输出长度(包含思维链):32k 3. 默认关闭思考,支持开启
Qwen3-Coder Qwen(通义千问)系列迄今为止最具 Agent 代理能力的代码模 长度限制如下: 1. 上下文窗口:64K 2. 最大输出长度(包含思维链):8K 3. 默认关闭思考,支持开启

根据模型详情可在claude code、openclaw中配置斟酌多个适配模型, 减少不必要的浪费. :smiling_face_with_sunglasses:

用了几天了,用量不算太多. 目前感受速度可以,但是glm5存在问题.

从统计上可以看出来, glm5 存在失败问题. 就是你跑着跑着就报错了.

报错但不止当前错误:

4 个赞

请求限制和价格基本和其他云服务商一致,区别是没有对自家模型捆绑销售 :joy: 问题是 jd 确实没自己的模型 :rofl:

调用速度如何?

对 没自己的 :joy:

跟其他家差不多,不知道有没有mcp那些(ali code plan就是太缺免费的mcp了)

根本用不完啊,主要是不好用

我们只谈plan内,他有没有无所谓啦

这个没怎么测试的, 我在claude code 使用和 元景的glm5差不多.

目前用的不多,明天看看平台的统计 就好了. 我看统计指标不少

现在各家都出了coding plan ,火山、阿里、腾讯、百度也出了,基本都是自己模型+目前的最新开源模型。价格和额度也基本都一样,不知道选哪个

好像是量化的。。

能买到再说吧 :laughing: 腾讯家 瞬间没啊

:thinking: 这怎么验证下.
那个无闻芯穹的plan 也有说量化的.

是不是找点问题测测 ?

量化的应该挺难评估的,以现在的量化技术,已经可以把 q4 以上精度的智商保留 80~90% 以上了,如果量化后再针对编程场景进行 sft 的话,不是特别复杂的问题估计很难测出来,简单的问题又看不出区别,很多时候都觉得可能是高峰期降智了

那就是难搞了

抢不到啊

每天一次 总有机会

谷歌刚发的 TurboQuant 在 q2 量化下智力下降不到 5%,q4 可以做到 <1%,广泛应用的话不知道 coding plan 会不会降价或者加量不加价 :zany_face:

https://research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
https://arxiv.org/pdf/2504.19874

那不好说,可能假定大家不关心量化问题呢 :grin:

llama.cpp据说会引入这个,后面本地部署也可以部署稍微大点的尺寸了

那没招了