我总感觉opencode+GLM5没有iflow+GLM5好用,是我还需要配置些什么吗?

我买了opencode和京东的订阅,但是用起来总是感觉哪里不对,iflow能听懂我的话,通常2-3次修改就完成了。opencode需要更多次数,甚至是会陷入来回出错无法正确完成任务的情况。

有可能是什么问题?

glm 感觉在 claude code 里的表现比 opencode 的要好点 :thinking: 不过 opencode 有自带联网搜索 :joy:

你需要 安装 omo (oh-my-openagent),

  • 平时使用 Sisyphus 完成 要求准确的快速任务,它会调用模型 “类别” 池
  • plan时使用 Prometheus 它会在 . Sisyphus 下创建 md 计划文档。它有不明确的地方 它会问你。
  • 它做完计划后,要求他 通知Metis进行计划审核
  • 计划无误后(你不需要看md文档,它回复完就行),输入 /start-work 进入 alts 开始执行计划 并 进行任务分配
  • Sisyphus 和 Alts 调用子智能体时 都是并发的,它们不会等子智体做完再进行下一步,它会一直按计划分配任务,
    子智能体 做完任务后 会给 它们 回执,它们会再继续,直到做完整个计划。

所以快,而且原上下文不占用子智能体的上下文,上下文只有父智能体的要求。

omo的智能体与类别说明:
智能体说明:

智能体 用途 模型要求 上下文推荐
Sisyphus 主协调器。负责规划、委派给专家,并通过激进的并行执行推动任务直至完成 强指令遵循+ 协调能力 + 高并发能力 128k
Hephaestus 自主编码智能体。只需提供目标,无需详细步骤。 会自主探索代码库、研究模式,并端到端地执行任务,无需人工干预 最强代码能力 1m
Prometheus 规划师。与用户交互,澄清问题,识别范围与模糊点,并制定详细计划 思考能力 + 工具协同 256k
Atlas 指挥家。将任务分发给专业子智能体,跨任务累积经验,并独立验证完成情况 指令遵循 + 任务分发 + 长程任务稳定(长链条) 256k
Oracle 顾问。专用于架构决策和复杂调试的高智商 只读 顾问 最强推理能力 1m
Metis 分析员。在计划最终确定前捕捉 Prometheus 遗漏的问题 多步骤推理稳定 1m
Momus 评审员。根据清晰度、可验证性和上下文标准审核计划 深度思考能力 (思维链机制适合逐条分析) 256k以上
Explore 快速代码库检索,使用专注速度的模型进行模式发现 速度优先 + 高并发(可并行启动10个实例) 256k
Librarian 文档与开源代码搜索,持续跟踪库 API 与最佳实践 速度优先 + 高并发(思考模型适合分析现有实现) 256k
multimodal_looker 视觉与截图分析 多模态能力 + 前端能力 128k以上
sisyphus_junior 类别任务执行器。 快速代码能力 256k以上

类别说明:

类别 用途 模型要求+官方文档中的推荐
visual-engineering 前端、UI、CSS、设计 多模态能力 + 前端能力:
gemini-3.1-pro​、glm-5​、Claude Opus 4.6​、k2p5​
ultrabrain 最大推理 最强推理:
gpt-5.4​、gemini-3.1-pro​、Claude Opus 4.6​、glm-5​
deep 深度编码/复杂逻辑 深度编码能力:
gpt-5.3-codex​、Claude Opus 4.6​、gemini-3.1-pro​
artistry 创意/新颖方法 多模态能力:
gemini-3.1-pro​、Claude Opus 4.6​、gpt-5.4​
quick 简单/快速任务 速度优先 + 高并发,轻量级:
gpt-5.4-mini​、Claude haiku​、gemini-flash​、gpt-5-nano​
unspecified-high 通用复杂任务 最强代码能力:
Claude Opus 4.6​、gpt-5.4​、glm-5​、k2p5​、kimi-k2.5​
unspecified-low 通用标准任务 快速代码能力:
Claude Sonnet 4.6​ 、gpt-5.3-codex​、kimi-k2.5​、gemini-flash​
writing 文本/文档 文本生成能力:
gemini-flash​、kimi-k2.5​、Claude Sonnet 4.6​

我当前的 json 配置,可以做个参考:%USERPROFILE%\.config\opencode\oh-my-opencode.json
(里面的 bailian-coding-plan 是用这个大佬的:阿里codingplan最后一天 请站起来蹬 - iFlow 补给站 - 心流AI交流社区 没有免费模型限制的卡停是真舒服,嘿嘿)

{
    "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",
    "agents": {
        "sisyphus": {
            "model": "bailian-coding-plan/glm-5",
            "fallback_models": [
                "nreg/qwen3.5-plus",
                "bailian-coding-plan/qwen3-max-2026-01-23",
                "bailian-coding-plan/qwen3.5-plus",
                "nreg/minimax-m2.5"
            ],
            "prompt_append": ",始终使用中文回复",
            "ultrawork": {
                "model": "bailian-coding-plan/glm-5",
                "variant": "high"
            }
        },
        "sisyphus_junior": {
            "model": "bailian-coding-plan/qwen3-coder-next",
            "fallback_models": [
                "bailian-coding-plan/qwen3-coder-next"
            ],
            "prompt_append": ",始终使用中文回复",
        },
        "hephaestus": {
            "model": "bailian-coding-plan/qwen3-coder-plus",
            "fallback_models": [
                "bailian-coding-plan/qwen3-coder-next",
                "nreg/deepseek-r1-distill-qwen-32b",
                "nreg/minimax-m2.5"
            ],
            "prompt_append": ",始终使用中文回复"
        },
        "prometheus": {
            "model": "bailian-coding-plan/glm-4.7",
            "fallback_models": [
                "zhipuai-coding-plan/glm-4.7",
                "bailian-coding-plan/qwen3-max-2026-01-23",
                "nreg/minimax-m2.5"
            ],
            "prompt_append": ",始终使用中文回复"
        },
        "atlas": {
            "model": "nreg/qwen3.6-plus",
            "fallback_models": [
                "nreg/qwen3.5-plus",
                "zhipuai-coding-plan/glm-5-turbo",
                "nreg/minimax-m2.1"
            ],
            "prompt_append": ",始终使用中文回复"
        },
        "oracle": {
            "model": "bailian-coding-plan/kimi-k2.5",
            "variant": "high",
            "fallback_models": [
                {
                    "model": "zhipuai-coding-plan/glm-4.7",
                    "variant": "high"
                },
                "nreg/qwq-32b",
                "nreg/deepseek-r1-distill-llama-70b"
            ],
            "prompt_append": ",始终使用中文回复",
        },
        "metis": {
            "model": "bailian-coding-plan/kimi-k2.5",
            "fallback_models": [
                "bailian-coding-plan/glm-4.7",
                "zhipuai-coding-plan/glm-4.7",
                "nreg/qwen3-235b-a22b-thinking-2507"
            ],
            "prompt_append": ",始终使用中文回复",
        },
        "momus": {
            "model": "bailian-coding-plan/qwen3-max-2026-01-23",
            "variant": "xhigh",
            "fallback_models": [
                {
                    "model": "bailian-coding-plan/qwen3.5-plus",
                    "variant": "high"
                },
                "nreg/qwq-32b"
            ],
            "prompt_append": ",始终使用中文回复",
        },
        "explore": {
            "model": "nreg/qwen3.5-flash",
            "fallback_models": [
                "nreg/spark-x",
                "nreg/doubao-seed-2-0-mini-260215"
            ],
            "prompt_append": ",始终使用中文回复",
        },
        "librarian": {
            "model": "nreg/qwen3.5-flash",
            "fallback_models": [
                "nreg/spark-pro-128k",
                "nreg/doubao-seed-2-0-lite-260215"
            ],
            "prompt_append": ",始终使用中文回复",
        },
        "multimodal_looker": {
            "model": "zhipuai-coding-plan/glm-4.5-air",
            "fallback_models": [
                "zai-coding-plan/glm-4.5-air"
            ],
            "prompt_append": ",始终使用中文回复",
        }
    },
    "categories": {
        "quick": {
            "model": "bailian-coding-plan/qwen3-coder-next",
            "fallback_models": [
                "nreg/doubao-seed-2-0-mini-260215",
                "nreg/spark-x"
            ]
        },
        "unspecified-low": {
            "model": "bailian-coding-plan/qwen3-coder-plus",
            "fallback_models": [
                "nreg/doubao-seed-2-0-lite-260215",
                "nreg/spark-pro-128k"
            ]
        },
        "unspecified-high": {
            "model": "bailian-coding-plan/glm-5",
            "fallback_models": [
                {
                    "model": "nreg/qwen3.5-plus",
                    "variant": "high"
                },
                "nreg/minimax-m2.5"
            ]
        },
        "ultrabrain": {
            "model": "bailian-coding-plan/kimi-k2.5",
            "variant": "xhigh",
            "fallback_models": [
                {
                    "model": "bailian-coding-plan/qwen3.5-plus",
                    "variant": "high"
                },
                "nreg/qwq-32b",
                "bailian-coding-plan/qwen3-max-2026-01-23"
            ]
        },
        "visual-engineering": {
            "model": "zhipuai-coding-plan/glm-4.5-air",
            "fallback_models": [
                "zai-coding-plan/glm-4.5-air",
                "nreg/qwen3.5-plus"
            ]
        },
        "writing": {
            "model": "zhipuai-coding-plan/glm-4.7",
            "fallback_models": [
                "bailian-coding-plan/glm-4.7",
                "nreg/minimax-m2.5",
                "nreg/qwen3.5-plus"
            ]
        },
        "artistry": {
            "model": "nreg/qwen3.5-plus",
            "fallback_models": [
                "nreg/minimax-m2.5",
                "zhipuai-coding-plan/glm-4.7"
            ]
        },
        "deep": {
            "model": "bailian-coding-plan/qwen3-coder-plus",
            "fallback_models": [
                "bailian-coding-plan/qwen3-coder-next",
                "nreg/deepseek-r1-distill-qwen-32b",
                "nreg/minimax-m2.5"
            ]
        }
    },
    "background_task": {
        "providerConcurrency": {
            "nreg": 15
        },
        "modelConcurrency": {
            "nreg/spark-x": 30,
            "nreg/spark-pro-128k": 10,
            "nreg/qwen3.5-flash": 20,
            "nreg/qwen3.5-plus": 10,
            "nreg/qwen3.5-397b-a17b": 5,
            "bailian-coding-plan/qwen3-max-2026-01-23": 5,
            "nreg/qwen3.5-35b-a3b": 8,
            "nreg/qwen3.5-27b": 8,
            "nreg/qwen3.5-122b-a10b": 5,
            "bailian-coding-plan/glm-5": 6,
            "zhipuai-coding-plan/glm-5-turbo": 10,
            "zhipuai-coding-plan/glm-4.7": 8,
            "zhipuai-coding-plan/glm-4.5-air": 10,
            "bailian-coding-plan/qwen3.5-plus": 10,
            "bailian-coding-plan/glm-4.7": 8,
            "zai-coding-plan/glm-4.5-air": 10,
            "bailian-coding-plan/qwen3-coder-next": 8,
            "bailian-coding-plan/qwen3-coder-next": 8,
            "nreg/minimax-m2.5": 5,
            "nreg/minimax-m2.1": 5,
            "nreg/minimax-m2": 5,
            "nreg/doubao-seed-2-0-pro-260215": 10,
            "nreg/doubao-seed-2-0-lite-260215": 15,
            "nreg/doubao-seed-2-0-mini-260215": 20,
            "bailian-coding-plan/qwen3.5-plus": 5,
            "nreg/deepseek-r1-distill-qwen-32b": 5,
            "nreg/deepseek-r1-distill-qwen-7b": 8,
            "nreg/deepseek-r1-distill-llama-70b": 3,
            "nreg/qwq-32b": 5,
            "nreg/qwen3-235b-a22b-thinking-2507": 3,
            "nreg/qwen3-235b-a22b": 3,
            "nreg/qwen3-30b-a3b-instruct-2507": 5,
            "nreg/qwen3-30b-a3b": 5
        }
    },
    "runtime_fallback": {
        "enabled": true,
        "retry_on_errors": [
            400,
            429,
            503,
            529
        ],
        "max_fallback_attempts": 3,
        "cooldown_seconds": 60,
        "timeout_seconds": 30,
        "notify_on_fallback": true
    }
}

官方文档可能有些晦涩:
内部智能体说明:https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/guide/overview.md

内部智能体与模型匹配指南:https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/guide/agent-model-matching.md

配置说明:https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/reference/configuration.md

我整理了 omo 的架构:(下方架构图社区没有很好地支持 mermaid 语法,因此 看图 需要保存为 .md 本地文档)

Oh My OpenAgent 采用多智能体协作架构,各智能体专业化分工,通过 Sisyphus 主协调器进行任务分配。

整体架构流程

flowchart TD
    subgraph 用户交互层
        A["用户输入请求"] --> B["Intent Gate<br/>意图分类"]
        B --> C{"工作模式选择"}
        C -->|快速执行| D["Ultrawork Mode"]
        C -->|详细规划| E["Prometheus Mode"]
    end
  
    subgraph 主协调层
        F["Sisyphus 主协调器"] --> G["任务分析与分解"]
        G --> H["子代理调度"]
    end
  
    subgraph 专业代理层
        H --> I["Prometheus<br/>战略规划"]
        H --> J["Atlas<br/>任务执行"]
        H --> K["Hephaestus<br/>深度技术工作"]
        H --> L["Oracle<br/>架构咨询"]
        H --> M["Librarian<br/>文档搜索"]
        H --> N["Explore<br/>代码搜索"]
        H --> O["Metis<br/>计划缺口分析"]
        H --> P["Momus<br/>严格审查"]
    end
  
    subgraph 执行与验证层
        J --> Q["Category-based Agents"]
        Q --> R["visual-engineering<br/>ultrabrain<br/>deep<br/>quick<br/>..."]
        R --> S["结果验证"]
        S --> T{"完成检查"}
        T -->|未完成| F
        T -->|已完成| U["输出结果"]
    end
  
    D --> F
    E --> I
    I --> V["生成详细计划"] --> J

Prometheus 模式详细流程

sequenceDiagram
    participant U as 用户
    participant P as Prometheus<br/>战略规划器
    participant M as Metis<br/>缺口分析器
    participant A as Atlas<br/>执行指挥
    participant S as Sisyphus<br/>主协调器
  
    U->>P: 输入任务需求
    P->>P: 意图理解与澄清
    P->>U: 提问澄清问题
    U->>P: 回答澄清
    P->>M: 提交计划审查
    M->>P: 反馈计划缺口
    P->>P: 完善计划
    P->>U: 输出最终计划
  
    U->>A: 执行 "/start-work"
    A->>A: 任务分解与分配
    loop 并行执行
        A->>S: 委托子任务
        S->>S: 调用专业代理
        S->>A: 返回结果
    end
    A->>A: 结果验证与整合
    A->>U: 输出完成结果

Category 任务分类系统

当 Sisyphus 委托工作时,它不选择具体模型,而是选择 Category,系统自动映射到合适的模型:

flowchart LR
    A["task() 调用"] --> B["Category 选择"]
  
    B --> C["visual-engineering<br/>前端/UI/设计"]
    B --> D["ultrabrain<br/>最大推理需求"]
    B --> E["deep<br/>深度编码/复杂逻辑"]
    B --> F["artistry<br/>创意/新颖方法"]
    B --> G["quick<br/>简单快速任务"]
    B --> H["unspecified-high/low<br/>一般复杂/标准工作"]
    B --> I["writing<br/>文档/散文"]
  
    C --> J["Gemini 3.1 Pro"]
    D --> K["GPT-5.4 xhigh"]
    E --> L["GPT-5.3 Codex"]
    F --> M["Gemini 3.1 Pro"]
    G --> N["GPT-5.4 Mini"]
    H --> O["Claude Opus/Sonnet"]
    I --> P["Gemini 3 Flash"]

Hephaestus 自主工作模式

flowchart TD
    A["用户: 切换到 Hephaestus"] --> B["Hephaestus 接收目标"]
    B --> C["自主探索代码库"]
    C --> D["研究代码模式"]
    D --> E["多文件推理分析"]
    E --> F["端到端执行"]
    F --> G{"需要验证?"}
    G -->|是| H["自我验证"]
    H --> I{"验证通过?"}
    I -->|否| C
    I -->|是| J["输出结果"]
    G -->|否| J
  
    style B fill:#f9f,stroke:#333
    style F fill:#bbf,stroke:#333

关键特性

特性 说明
并行执行 多个后台代理同时工作,如研究、实现、验证并行
Hash-anchored 编辑 使用 LINE#ID 内容哈希验证每次编辑,防止失败
学习积累 子代理从先前结果中学习,任务1发现的约定传递给任务5
Todo 执行器 强制空闲代理返回工作,确保任务完成
Ralph Loop 持续工作直到100%完成

工作模式对比

模式 触发方式 适用场景 特点
Ultrawork 输入 ultraworkulw 快速任务、常规开发 全自动,无需干预
Prometheus Tab 复杂项目、关键变更 先规划,后执行,有文档记录
Hephaestus 显式切换 深度架构推理、复杂调试 GPT-5.4 自主模式
2 个赞