首先上下文长度肯定没给满血,原生 163840,目前问它说是 128K。
另外官方这段建议里对 reasoning_content 的特殊处理,不知道 iFlow-CLI 有没有支持的?
使用建议 日常场景:优先选用标准版 V3.2 复杂研究:临时 API 开放 Speciale 版本 开发者:通过 reasoning_content字段实现深度思考链调用
好像应该是在一轮自主对话期间(仅包括 llm 消息和工具调用结果)要把思考内容放进上下文,等下次用户追加消息以后,之前的思考内容从上下文剔除。
参见 https://www.reddit.com/r/DeepSeek/comments/1pbe7f2/deepseek发布v32_正式版agent能力增强/
本次带来两大核心模型升级:
DeepSeek-V3.2:日常任务与通用 Agent 场景,推理能力媲美 GPT-5,超越 Kimi-K2-Thinking,输出长度优化,显著降低计算开销与用户等待时间。
DeepSeek-V3.2-Speciale:开源模型的推理巅峰,斩获 IMO/CMO/ICPC/IOI 等顶级竞赛金牌。数学证明能力达 Gemini-3.0-Pro 水平 编程竞赛成绩逼近人类顶尖选手(ICPC 全球第二)。
技术突破亮点 全球首个思考融合工具调用模型 支持多轮思考+工具调用的复合推理 在 ToolUse MCP-Mark 评测中超越 Claude-4.5
数学与编程双领域突破 定理证明能力继承 DeepSeek-Math-V2 HMMT 数学竞赛得分 99.2(满分100),CodeForces 编程竞赛评级 2701(人类顶尖水平)
开源生态支持 模型权重已同步开放于 HuggingFace/ModelScope,提供 128K 超长上下文研究专用 API
使用建议 日常场景:优先选用标准版 V3.2 复杂研究:临时 API 开放 Speciale 版本 开发者:通过 reasoning_content字段实现深度思考链调用