主流免费模型用来编程有平替吗?

寻找Minimax M2.5、GLM-5、Kimi 2.5这几个模型能免费使用的平台

你可以看看论坛中有个大佬在发Open code

opencode 可以免费用 m2.5 但是慢,codebuddy / trae cn 御三家都能用,但是一个每个月限额一个要排队

trae cn,codebuddy,qwen cli就这几家,自己看额度。trae cn现在是全免费,挑个不用排队的模型随便用。

**下方 国家超算平台的 2000W 和 七牛云 的1500W 都可以使用 MiniMax-M2.5,七牛云 还可以使用 glm-5、 kimi-k2.5

===================== 3家限量模型:千万起步========================**
1、七牛云 - 有效期 2个月

新用户注册 送 300W tokens 资源包,全系列免费用,觉得 300W 太少?用我这个邀请链接: https://s.qiniu.com/EZFZZn 会送 1200W tokens 资源包

要拿到这1200W 你要实名注册,并且有个坑点,你必须跟 https://portal.qiniu.com/ai-inference/chat 它对一次话。

baseUrl:https://api.qnaigc.com/v1

apiKey申请:https://portal.qiniu.com/ai-inference/api-key

用量看板:https://portal.qiniu.com/ai-inference/usage

控制台:https://portal.qiniu.com/home

模型列表:https://portal.qiniu.com/ai-inference/modelhttps://www.qiniu.com/ai/models

七牛云 开发推荐用的模型:

模型id 模型别名 说明 最大输入 最大输出 最大思维链长度 上下文 类型 请求限制
z-ai/glm-5 glm-5 GLM-5 是智谱新一代的旗舰基座模型,面向 Agentic Engineering 打造,能够在复杂系统工程与长程 Agent 任务中提供可靠生产力。在 Coding 与 Agent 能力上,GLM-5 取得开源 SOTA 表现,在真实编程场景的使用体感逼近 Claude Opus 4.5,擅长复杂系统工程与长程 Agent 任务,是通用 Agent 助手的理想基座。 116k 16k - 198k 文本 1000次调用 /5小时
z-ai/glm-4.7 glm-4.7 GLM-4.7 是智谱最新旗舰模型,面向 Agentic Coding 场景强化了编码能力、长程任务规划与工具协同,并在多个公开基准的当期榜单中取得开源模型中的领先表现。通用能力提升,回复更简洁自然,写作更具沉浸感。在执行复杂智能体任务,在工具调用时指令遵循更强,Artifacts 与 Agentic Coding 的前端美感和长程任务完成效率进一步提升 116k 16k - 198k 文本 1000次调用 /5小时
moonshotai/kimi-k2.5 kimi-k2.5 Kimi K2.5 是 Kimi 迄今最智能的模型,在 Agent、代码、视觉理解及一系列通用智能任务上取得开源 SoTA 表现。同时 Kimi K2.5 也是 Kimi 迄今最全能的模型,原生的多模态架构设计,同时支持视觉与文本输入、思考与非思考模式、对话与 Agent 任务。 224k 16k - 256k 多模态 1000次调用 /5小时
minimax/minimax-m2.5 minimax-m2.5 Minimax M2.5专为Agent场景原生设计,编程与智能体性能(Coding & Agentic)直接对标Claude Opus 4.6,尤其在Excel高阶处理、PPT生成和深度调研等Office生产力场景达到行业领先水平(SOTA)。 192k 128k - 200k 文本 1000次调用 /5小时
qwen3-coder-480b-a35b-instruct qwen3-coder-480b-a35b-instruct Qwen3-Coder-480B-A35B-Instruct是由Qwen团队开发的混合专家(MoE)代码生成模型。该模型专为智能编码任务优化,涵盖函数调用、工具使用及代码库长上下文推理等场景。其总参数量达4800亿,每次前向传播激活350亿参数(动态激活160个专家中的8个) 200k 64k - 256k 文本 1000次调用 /5小时
qwen/qwen3.6-plus-free qwen3.6-plus 建立在混合架构之上,结合了高效的线性注意力与稀疏专家混合路由,实现了强大的可扩展性和高性能推理。与3.5系列相比,它在代理编码、前端开发以及整体推理方面取得了重大进步,显著提升了“氛围编码”体验。该模型在复杂任务如3D场景、游戏和仓库级问题解决方面表现出色,在SWE-bench Verified上取得了78.8分。它在纯文本和多模态能力方面实现了重大飞跃,表现达到了最先进模型的水平。 - 66k - 1m 文本,视觉 1000次调用 /5小时
qwen/qwen3.6-plus-preview qwen3.6-plus 用了先进的混合架构,在效率与可扩展性上均有提升。与 3.5 系列相比,它具有更强的推理能力和更可靠的智能体行为表现。在基准测试中,其性能达到或超越当前领先的业界顶尖模型。作为旗舰级预览版本,它在智能体编程、前端开发及复杂问题求解方面表现尤为出色。 - 66k - 1m 文本,视觉 1000次调用 /5小时
qwen3-max qwen3-max 本版本相较preview版本在智能体编程与工具调用方向进行了专项升级。本次发布的正式版模型达到领域SOTA水平,适配场景更加复杂的智能体需求 Preview 版本相较 2.5 系列整体通用能力有大幅度提升。参数量达 1T,大幅减少知识幻觉,模型更智能。 252k 64k 80k 256k 文本 1000次调用 /5小时
doubao-seed-2.0-pro doubao-seed-2.0-pro 旗舰级全能通用模型,面向 Agent 时代的复杂推理与长链路任务执行场景。强调多模态理解、长上下文推理、结构化生成与工具增强执行。复杂指令与多约束执行能力突出,可稳定应对多步复杂规划、复杂图文推理、视频内容理解与高难度分析等场景 - 128k - 256K 文本,视觉 1000次调用 /5小时
doubao-seed-2.0-code doubao-seed-2.0-code 面向真实编程环境优化的 Coding 模型,能稳定调用 Claude Code 等常见 IDE 中的工具。模型特别优化了前端能力,在使用常见的前端框架时能有良好表现。模型支持使用 Skills,可以配合多种自定义技能使用。 - 128k - 256K 文本,视觉 1000次调用 /5小时
deepseek/deepseek-v3.1-terminus deepseek-v3.1 此次更新在保持模型原有能力的基础上,针对用户反馈的问题进行了改进,包括: 语言一致性:缓解了中英文混杂、偶发异常字符等情况; Agent 能力:进一步优化了 Code Agent 与 Search Agent 的表现。(非思考) - 32k - 128k 文本 1000次调用 /5小时
deepseek/deepseek-v3.2-251201 deepseek-v3.2 此次更新强化了 Agent 和推理能力,在主流测试中达到 GPT-5 水平并支持思考模式下的工具调用;同时推出的 Speciale 探索版在多项国际竞赛中取得金牌级表现。模型已全面开放使用。(思考) - 64k - 128k 文本 1000次调用 /5小时

看你的资源包是否到账:

https://portal.qiniu.com/financial/orders/respack-mgr/all

2、智谱AI - 有效期 3个月
使用这个链接赠送 1200W glm-4.5-air 和 600W glm-6v:非常适合用于网页分析任务
https://www.bigmodel.cn/invite?icode=k0voaZBz1K26SzIwkPrTP%2Bnfet45IvM%2BqDogImfeLyI%3D

(右上角 -财务-资源包 点击查看是否到账)
免费模型列表:https://docs.bigmodel.cn/cn/guide/models/free

模型速率限制:https://bigmodel.cn/usercenter/equity-mgmt/user-rightshttps://bigmodel.cn/usercenter/proj-mgmt/rate-limits
用量看板:https://bigmodel.cn/usercenter/glm-coding/usage

baseUrl:https://open.bigmodel.cn/api/paas/v4
apiKey申请:https://open.bigmodel.cn/usercenter/proj-mgmt/apikeys

模型id 说明 最大输入 最大输出 上下文 最大思维链长度 类型 请求限制 限量
glm-4.5-air GLM 系列中的一个中等规模模型,采用 混合专家架构(Mixture of Experts, MoE),相比 GLM-4.5,GLM-4.5-Air 的参数规模更为紧凑(总参数为 1060 亿,激活参数为 120 亿)。适用领域:网页浏览:借助网页浏览工具,可以处理包含多轮交互、多步骤任务的复杂网页浏览场景。智能体编程:支持在智能体环境下执行编程任务,如开发小游戏、创建交互式网页等。在 推理任务 中,GLM-4.5-Air 表现出优异的性能。它支持多种推理方式(如 MTP 技术)以及多轮对话理解,在多个基准测试中都能稳定输出高质量结果。擅长基于代码和推理任务的多模态处理,并支持通过工具调用接口实现一系列智能体功能。例如,它可以基于提示在前端开发一个完整的网页项目,包括布局、交互、播放等处理。 96k 16k - 128k 文本 QPS:5 2400W
glm-4.6v 面向视觉-语言任务的新迭代多模态大模型系列,相对 GLM-4.5V 进行了全面升级。官方介绍显示,该系列在训练阶段将上下文规模扩展至 128K,并首次引入原生的 Function Calling,用于跨“视觉感知”与“可执行动作”的闭环,多用于真实业务场景中的多模态 Agent - - 128k - 多模态 QPS:10 1200W

3、国家超算平台 - 有效期 15天
注册赠送:1000W 的MinMax 2.5,和 1000W 通用资源包 (活动时间截止 2026-04-06)
baseUrl:https://api.scnet.cn/api/llm/v1/
模型列表:https://www.scnet.cn/ui/llm/
友情提醒:可以用多个手机号注册多个账号(多倍快乐)

模型id 说明 最大输入 最大输出 最大思维链长度 上下文 类型
MiniMax-M2.5 原生 Spec 能力(在编码前自动拆解需求,生成架构图与功能模块规划,接近人类架构师思维) 工具调用增强,多编程语言支持(代码生成质量接近生产级) 编程效率 对标 GPT-4 Turbo 192k 128k - 200k 文本
Qwen3-235B-A22B-Thinking-2507 Qwen3-235B-A22B-Thinking-2507是一个超大规模语言模型,总参数量为2350亿,激活参数量为220亿。它改进了推理能力和大规模文本生成能力,特别适用于需要深入推理的复杂任务。该模型强化了推理、代码和智能体任务的性能,并且在多个学术与实战基准测试中表现卓越。此外,该模型现今支持最大长度为262,144 tokens的上下文,并且通过Dual Chunk Attention (DCA)MInference 技术实现更高效地处理超长文本。 124k 32k 80k 128k 文本
Qwen3-235B-A22B Qwen3-235B-A22B 是一个稠密与混合专家(MoE)模型的综合,并在推理、指令跟随、代理能力及多语言支持方面取得了突破性进展。模型总参数量为 2350亿,激活参数为 220亿。支持复杂逻辑推理、数学、编程等任务的推理模式,以及通用对话的非推理模式,并具备在 131,072 个 tokens 的上下文中进行推理的潜力。 126k 16k 38k 128k 文本
Qwen3-30B-A3B-Instruct-2507 Qwen3-30B-A3B-Instruct-2507具有30.5B的总参数量和3.3B的激活参数量,训练数据达到28.5T tokens。它只支持非思考模式,在推理、代码和智能体任务中表现优异,并且在多项学术与实战基准测试中达到世界领先的开源模型水准,接近前沿闭源模型。模型原生支持262,144个token的上下文,具有显著提升的长上下文理解能力。同时,它采用了Dual Chunk Attention(DCA)技术和MInference技术,能够在1M token上下文中实现高效推理,并在接近1M token时达到标准注意力实现的3倍速度提升。 126k 32k - 256k 文本
Qwen3-30B-A3B Qwen3-30B-A3B 推理能力以更小参数规模比肩QwQ-32B,支持推理、指令遵循、智能体等多个功能,参数量达30.5B(激活3.3B),通用能力显著超过Qwen2.5-14B,达到同规模业界SOTA水平 96k 8k - 128k 文本
QwQ-32B 基于Qwen2.5-32B基座,大幅度提升了模型推理能力。模型数学代码等核心指标(AIME 24/25、livecodebench)以及部分通用指标(IFEval、LiveBench等)达到DeepSeek-R1 满血版水平,各指标均显著超过 DeepSeek-R1-Distill-Qwen-32B 96k 8k - 128k 文本
DeepSeek-R1-Distill-Llama-70B 基于 Llama-70B 通过 DeepSeek-R1 知识蒸馏训练的70B参数量推理模型,专为推理和思维链任务优化,在数学推理(AIME 2024: 70.0% pass@1, MATH-500: 94.5% pass@1)和代码生成(CodeForces: 1633, 57.5% pass@1)方面表现出色,代码优化任务佳,运行效率提升 12%。在复杂逻辑推理、数学与代码理解等任务上具备强大性能,适合对效果与稳定性要求极高的高端生产与科研场景。 - - - 128k 文本

能用的,免费的. opencode zen 免费模型, qwen, codebuddy,trae. 不要找那种免费垃圾模型去变成很难使用.

希望到时模型库还能用