我买了opencode和京东的订阅,但是用起来总是感觉哪里不对,iflow能听懂我的话,通常2-3次修改就完成了。opencode需要更多次数,甚至是会陷入来回出错无法正确完成任务的情况。
有可能是什么问题?
我买了opencode和京东的订阅,但是用起来总是感觉哪里不对,iflow能听懂我的话,通常2-3次修改就完成了。opencode需要更多次数,甚至是会陷入来回出错无法正确完成任务的情况。
有可能是什么问题?
glm 感觉在 claude code 里的表现比 opencode 的要好点
不过 opencode 有自带联网搜索 ![]()
你需要 安装 omo (oh-my-openagent),
所以快,而且原上下文不占用子智能体的上下文,上下文只有父智能体的要求。
omo的智能体与类别说明:
智能体说明:
| 智能体 | 用途 | 模型要求 | 上下文推荐 |
|---|---|---|---|
| Sisyphus | 主协调器。负责规划、委派给专家,并通过激进的并行执行推动任务直至完成 | 强指令遵循+ 协调能力 + 高并发能力 | 128k |
| Hephaestus | 自主编码智能体。只需提供目标,无需详细步骤。 会自主探索代码库、研究模式,并端到端地执行任务,无需人工干预 | 最强代码能力 | 1m |
| Prometheus | 规划师。与用户交互,澄清问题,识别范围与模糊点,并制定详细计划 | 思考能力 + 工具协同 | 256k |
| Atlas | 指挥家。将任务分发给专业子智能体,跨任务累积经验,并独立验证完成情况 | 指令遵循 + 任务分发 + 长程任务稳定(长链条) | 256k |
| Oracle | 顾问。专用于架构决策和复杂调试的高智商 只读 顾问 | 最强推理能力 | 1m |
| Metis | 分析员。在计划最终确定前捕捉 Prometheus 遗漏的问题 | 多步骤推理稳定 | 1m |
| Momus | 评审员。根据清晰度、可验证性和上下文标准审核计划 | 深度思考能力 (思维链机制适合逐条分析) | 256k以上 |
| Explore | 快速代码库检索,使用专注速度的模型进行模式发现 | 速度优先 + 高并发(可并行启动10个实例) | 256k |
| Librarian | 文档与开源代码搜索,持续跟踪库 API 与最佳实践 | 速度优先 + 高并发(思考模型适合分析现有实现) | 256k |
| multimodal_looker | 视觉与截图分析 | 多模态能力 + 前端能力 | 128k以上 |
| sisyphus_junior | 类别任务执行器。 | 快速代码能力 | 256k以上 |
类别说明:
| 类别 | 用途 | 模型要求+官方文档中的推荐 |
|---|---|---|
| visual-engineering | 前端、UI、CSS、设计 | 多模态能力 + 前端能力: |
| gemini-3.1-pro、glm-5、Claude Opus 4.6、k2p5 | ||
| ultrabrain | 最大推理 | 最强推理: |
| gpt-5.4、gemini-3.1-pro、Claude Opus 4.6、glm-5 | ||
| deep | 深度编码/复杂逻辑 | 深度编码能力: |
| gpt-5.3-codex、Claude Opus 4.6、gemini-3.1-pro | ||
| artistry | 创意/新颖方法 | 多模态能力: |
| gemini-3.1-pro、Claude Opus 4.6、gpt-5.4 | ||
| quick | 简单/快速任务 | 速度优先 + 高并发,轻量级: |
| gpt-5.4-mini、Claude haiku、gemini-flash、gpt-5-nano | ||
| unspecified-high | 通用复杂任务 | 最强代码能力: |
| Claude Opus 4.6、gpt-5.4、glm-5、k2p5、kimi-k2.5 | ||
| unspecified-low | 通用标准任务 | 快速代码能力: |
| Claude Sonnet 4.6 、gpt-5.3-codex、kimi-k2.5、gemini-flash | ||
| writing | 文本/文档 | 文本生成能力: |
| gemini-flash、kimi-k2.5、Claude Sonnet 4.6 |
我当前的 json 配置,可以做个参考:%USERPROFILE%\.config\opencode\oh-my-opencode.json
(里面的 bailian-coding-plan 是用这个大佬的:阿里codingplan最后一天 请站起来蹬 - iFlow 补给站 - 心流AI交流社区 没有免费模型限制的卡停是真舒服,嘿嘿)
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",
"agents": {
"sisyphus": {
"model": "bailian-coding-plan/glm-5",
"fallback_models": [
"nreg/qwen3.5-plus",
"bailian-coding-plan/qwen3-max-2026-01-23",
"bailian-coding-plan/qwen3.5-plus",
"nreg/minimax-m2.5"
],
"prompt_append": ",始终使用中文回复",
"ultrawork": {
"model": "bailian-coding-plan/glm-5",
"variant": "high"
}
},
"sisyphus_junior": {
"model": "bailian-coding-plan/qwen3-coder-next",
"fallback_models": [
"bailian-coding-plan/qwen3-coder-next"
],
"prompt_append": ",始终使用中文回复",
},
"hephaestus": {
"model": "bailian-coding-plan/qwen3-coder-plus",
"fallback_models": [
"bailian-coding-plan/qwen3-coder-next",
"nreg/deepseek-r1-distill-qwen-32b",
"nreg/minimax-m2.5"
],
"prompt_append": ",始终使用中文回复"
},
"prometheus": {
"model": "bailian-coding-plan/glm-4.7",
"fallback_models": [
"zhipuai-coding-plan/glm-4.7",
"bailian-coding-plan/qwen3-max-2026-01-23",
"nreg/minimax-m2.5"
],
"prompt_append": ",始终使用中文回复"
},
"atlas": {
"model": "nreg/qwen3.6-plus",
"fallback_models": [
"nreg/qwen3.5-plus",
"zhipuai-coding-plan/glm-5-turbo",
"nreg/minimax-m2.1"
],
"prompt_append": ",始终使用中文回复"
},
"oracle": {
"model": "bailian-coding-plan/kimi-k2.5",
"variant": "high",
"fallback_models": [
{
"model": "zhipuai-coding-plan/glm-4.7",
"variant": "high"
},
"nreg/qwq-32b",
"nreg/deepseek-r1-distill-llama-70b"
],
"prompt_append": ",始终使用中文回复",
},
"metis": {
"model": "bailian-coding-plan/kimi-k2.5",
"fallback_models": [
"bailian-coding-plan/glm-4.7",
"zhipuai-coding-plan/glm-4.7",
"nreg/qwen3-235b-a22b-thinking-2507"
],
"prompt_append": ",始终使用中文回复",
},
"momus": {
"model": "bailian-coding-plan/qwen3-max-2026-01-23",
"variant": "xhigh",
"fallback_models": [
{
"model": "bailian-coding-plan/qwen3.5-plus",
"variant": "high"
},
"nreg/qwq-32b"
],
"prompt_append": ",始终使用中文回复",
},
"explore": {
"model": "nreg/qwen3.5-flash",
"fallback_models": [
"nreg/spark-x",
"nreg/doubao-seed-2-0-mini-260215"
],
"prompt_append": ",始终使用中文回复",
},
"librarian": {
"model": "nreg/qwen3.5-flash",
"fallback_models": [
"nreg/spark-pro-128k",
"nreg/doubao-seed-2-0-lite-260215"
],
"prompt_append": ",始终使用中文回复",
},
"multimodal_looker": {
"model": "zhipuai-coding-plan/glm-4.5-air",
"fallback_models": [
"zai-coding-plan/glm-4.5-air"
],
"prompt_append": ",始终使用中文回复",
}
},
"categories": {
"quick": {
"model": "bailian-coding-plan/qwen3-coder-next",
"fallback_models": [
"nreg/doubao-seed-2-0-mini-260215",
"nreg/spark-x"
]
},
"unspecified-low": {
"model": "bailian-coding-plan/qwen3-coder-plus",
"fallback_models": [
"nreg/doubao-seed-2-0-lite-260215",
"nreg/spark-pro-128k"
]
},
"unspecified-high": {
"model": "bailian-coding-plan/glm-5",
"fallback_models": [
{
"model": "nreg/qwen3.5-plus",
"variant": "high"
},
"nreg/minimax-m2.5"
]
},
"ultrabrain": {
"model": "bailian-coding-plan/kimi-k2.5",
"variant": "xhigh",
"fallback_models": [
{
"model": "bailian-coding-plan/qwen3.5-plus",
"variant": "high"
},
"nreg/qwq-32b",
"bailian-coding-plan/qwen3-max-2026-01-23"
]
},
"visual-engineering": {
"model": "zhipuai-coding-plan/glm-4.5-air",
"fallback_models": [
"zai-coding-plan/glm-4.5-air",
"nreg/qwen3.5-plus"
]
},
"writing": {
"model": "zhipuai-coding-plan/glm-4.7",
"fallback_models": [
"bailian-coding-plan/glm-4.7",
"nreg/minimax-m2.5",
"nreg/qwen3.5-plus"
]
},
"artistry": {
"model": "nreg/qwen3.5-plus",
"fallback_models": [
"nreg/minimax-m2.5",
"zhipuai-coding-plan/glm-4.7"
]
},
"deep": {
"model": "bailian-coding-plan/qwen3-coder-plus",
"fallback_models": [
"bailian-coding-plan/qwen3-coder-next",
"nreg/deepseek-r1-distill-qwen-32b",
"nreg/minimax-m2.5"
]
}
},
"background_task": {
"providerConcurrency": {
"nreg": 15
},
"modelConcurrency": {
"nreg/spark-x": 30,
"nreg/spark-pro-128k": 10,
"nreg/qwen3.5-flash": 20,
"nreg/qwen3.5-plus": 10,
"nreg/qwen3.5-397b-a17b": 5,
"bailian-coding-plan/qwen3-max-2026-01-23": 5,
"nreg/qwen3.5-35b-a3b": 8,
"nreg/qwen3.5-27b": 8,
"nreg/qwen3.5-122b-a10b": 5,
"bailian-coding-plan/glm-5": 6,
"zhipuai-coding-plan/glm-5-turbo": 10,
"zhipuai-coding-plan/glm-4.7": 8,
"zhipuai-coding-plan/glm-4.5-air": 10,
"bailian-coding-plan/qwen3.5-plus": 10,
"bailian-coding-plan/glm-4.7": 8,
"zai-coding-plan/glm-4.5-air": 10,
"bailian-coding-plan/qwen3-coder-next": 8,
"bailian-coding-plan/qwen3-coder-next": 8,
"nreg/minimax-m2.5": 5,
"nreg/minimax-m2.1": 5,
"nreg/minimax-m2": 5,
"nreg/doubao-seed-2-0-pro-260215": 10,
"nreg/doubao-seed-2-0-lite-260215": 15,
"nreg/doubao-seed-2-0-mini-260215": 20,
"bailian-coding-plan/qwen3.5-plus": 5,
"nreg/deepseek-r1-distill-qwen-32b": 5,
"nreg/deepseek-r1-distill-qwen-7b": 8,
"nreg/deepseek-r1-distill-llama-70b": 3,
"nreg/qwq-32b": 5,
"nreg/qwen3-235b-a22b-thinking-2507": 3,
"nreg/qwen3-235b-a22b": 3,
"nreg/qwen3-30b-a3b-instruct-2507": 5,
"nreg/qwen3-30b-a3b": 5
}
},
"runtime_fallback": {
"enabled": true,
"retry_on_errors": [
400,
429,
503,
529
],
"max_fallback_attempts": 3,
"cooldown_seconds": 60,
"timeout_seconds": 30,
"notify_on_fallback": true
}
}
官方文档可能有些晦涩:
内部智能体说明:https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/guide/overview.md
内部智能体与模型匹配指南:https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/guide/agent-model-matching.md
配置说明:https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/reference/configuration.md
我整理了 omo 的架构:(下方架构图社区没有很好地支持 mermaid 语法,因此 看图 需要保存为 .md 本地文档)
Oh My OpenAgent 采用多智能体协作架构,各智能体专业化分工,通过 Sisyphus 主协调器进行任务分配。
flowchart TD
subgraph 用户交互层
A["用户输入请求"] --> B["Intent Gate<br/>意图分类"]
B --> C{"工作模式选择"}
C -->|快速执行| D["Ultrawork Mode"]
C -->|详细规划| E["Prometheus Mode"]
end
subgraph 主协调层
F["Sisyphus 主协调器"] --> G["任务分析与分解"]
G --> H["子代理调度"]
end
subgraph 专业代理层
H --> I["Prometheus<br/>战略规划"]
H --> J["Atlas<br/>任务执行"]
H --> K["Hephaestus<br/>深度技术工作"]
H --> L["Oracle<br/>架构咨询"]
H --> M["Librarian<br/>文档搜索"]
H --> N["Explore<br/>代码搜索"]
H --> O["Metis<br/>计划缺口分析"]
H --> P["Momus<br/>严格审查"]
end
subgraph 执行与验证层
J --> Q["Category-based Agents"]
Q --> R["visual-engineering<br/>ultrabrain<br/>deep<br/>quick<br/>..."]
R --> S["结果验证"]
S --> T{"完成检查"}
T -->|未完成| F
T -->|已完成| U["输出结果"]
end
D --> F
E --> I
I --> V["生成详细计划"] --> J
sequenceDiagram
participant U as 用户
participant P as Prometheus<br/>战略规划器
participant M as Metis<br/>缺口分析器
participant A as Atlas<br/>执行指挥
participant S as Sisyphus<br/>主协调器
U->>P: 输入任务需求
P->>P: 意图理解与澄清
P->>U: 提问澄清问题
U->>P: 回答澄清
P->>M: 提交计划审查
M->>P: 反馈计划缺口
P->>P: 完善计划
P->>U: 输出最终计划
U->>A: 执行 "/start-work"
A->>A: 任务分解与分配
loop 并行执行
A->>S: 委托子任务
S->>S: 调用专业代理
S->>A: 返回结果
end
A->>A: 结果验证与整合
A->>U: 输出完成结果
当 Sisyphus 委托工作时,它不选择具体模型,而是选择 Category,系统自动映射到合适的模型:
flowchart LR
A["task() 调用"] --> B["Category 选择"]
B --> C["visual-engineering<br/>前端/UI/设计"]
B --> D["ultrabrain<br/>最大推理需求"]
B --> E["deep<br/>深度编码/复杂逻辑"]
B --> F["artistry<br/>创意/新颖方法"]
B --> G["quick<br/>简单快速任务"]
B --> H["unspecified-high/low<br/>一般复杂/标准工作"]
B --> I["writing<br/>文档/散文"]
C --> J["Gemini 3.1 Pro"]
D --> K["GPT-5.4 xhigh"]
E --> L["GPT-5.3 Codex"]
F --> M["Gemini 3.1 Pro"]
G --> N["GPT-5.4 Mini"]
H --> O["Claude Opus/Sonnet"]
I --> P["Gemini 3 Flash"]
flowchart TD
A["用户: 切换到 Hephaestus"] --> B["Hephaestus 接收目标"]
B --> C["自主探索代码库"]
C --> D["研究代码模式"]
D --> E["多文件推理分析"]
E --> F["端到端执行"]
F --> G{"需要验证?"}
G -->|是| H["自我验证"]
H --> I{"验证通过?"}
I -->|否| C
I -->|是| J["输出结果"]
G -->|否| J
style B fill:#f9f,stroke:#333
style F fill:#bbf,stroke:#333
| 特性 | 说明 |
|---|---|
| 并行执行 | 多个后台代理同时工作,如研究、实现、验证并行 |
| Hash-anchored 编辑 | 使用 LINE#ID 内容哈希验证每次编辑,防止失败 |
| 学习积累 | 子代理从先前结果中学习,任务1发现的约定传递给任务5 |
| Todo 执行器 | 强制空闲代理返回工作,确保任务完成 |
| Ralph Loop | 持续工作直到100%完成 |
| 模式 | 触发方式 | 适用场景 | 特点 |
|---|---|---|---|
| Ultrawork | 输入 ultrawork 或 ulw |
快速任务、常规开发 | 全自动,无需干预 |
| Prometheus | 按 Tab 键 | 复杂项目、关键变更 | 先规划,后执行,有文档记录 |
| Hephaestus | 显式切换 | 深度架构推理、复杂调试 | GPT-5.4 自主模式 |