Hermes Agent:Nous Research 的自我进化 AI Agent
> 来源: https://github.com/NousResearch/hermes-agent
> 团队: Nous Research(Hermes / Nomos / Psyche 模型背后的实验室)
> 文档: https://hermes-agent.nousresearch.com/docs/
> 协议: MIT
> 发布: 2026-03-02(GitHub Trending)
> Slogan: "The agent that grows with you"
> 日期: 2026-03-12
📌 一句话总结
Nous Research 发布的开源 AI Agent 框架——唯一内置学习闭环的 Agent:自动从经验中创建 Skills、使用中自我改进、主动提醒持久化知识、跨 Session 搜索历史对话。定位介于 Claude Code(CLI 编码工具)和 OpenClaw(消息平台 Agent)之间。
🔧 核心特性
1. 自我学习闭环(核心差异化)
| 能力 | 说明 |
|---|---|
| 🧠 Agent 自主记忆管理 | 周期性 nudge 自己持久化知识 |
| 📚 自动创建 Skills | 完成复杂任务后自动提取为可复用技能 |
| 🔄 Skills 自我改进 | 使用过程中持续优化技能 |
| 🔍 FTS5 跨 Session 搜索 | 全文检索历史对话 + LLM 摘要 |
| 👤 Honcho 用户建模 | 辩证式(dialectic)用户画像,越用越懂你 |
2. 运行环境
6 种终端后端:
- 本地 / Docker / SSH / Daytona / Singularity / Modal
- Daytona 和 Modal 提供无服务器持久化——空闲时休眠,按需唤醒,几乎零成本
消息平台:Telegram / Discord / Slack / WhatsApp / Signal / CLI
3. 多模型支持
Nous Portal、OpenRouter(200+ 模型)、z.ai/GLM、Kimi/Moonshot、MiniMax、OpenAI 或自定义端点。一条命令切换。
4. 其他
- 40+ 内置工具:Web 搜索/提取/浏览、Vision、TTS、图片生成
- MCP 支持:连接任意 MCP server 扩展能力
- Cron 调度:自然语言定义定时任务
- Subagent 并行:隔离子 Agent 并行工作
- agentskills.io 开放标准:Skills 可移植、可共享
- 研究就绪:批量轨迹生成、Atropos RL 环境、轨迹压缩
⚔️ vs OpenClaw:社区对比
Nous Research 官方定位:
> "It sits between a Claude Code style CLI and an OpenClaw style messaging platform agent"
社区声音
Reddit r/openclaw(1 天前):
> "OpenClaw 执行一个中等复杂任务需要 50+ 步和工具调用,Hermes 用 5 次正确工具调用、少 2:30 分钟完成同样的事。"
Reddit r/LocalLLaMA(2 周前):
> "比 OpenClaw 默认更安全。"
Medium 对比文章(2 天前,ElizaOS vs OpenClaw vs Hermes):
> "三者中安全配置最干净。默认沙箱架构、显式审批。但治理结构较窄——单一组织(Nous Research)驱动方向。"
详细对比
| 维度 | OpenClaw | Hermes Agent |
|---|---|---|
| **语言** | Node.js/TypeScript | Python |
| **定位** | 消息平台 Agent(始终在线) | CLI Agent + 消息网关 |
| **学习能力** | MEMORY.md + 手动更新 | **自动学习闭环**(创建/改进 Skills) |
| **记忆** | 语义搜索 + Markdown 文件 | FTS5 全文搜索 + LLM 摘要 + Honcho 用户建模 |
| **安全** | 有安全模型但历史漏洞多 | **默认沙箱**,显式命令审批 |
| **运行环境** | 主要绑定本机/VPS | 6 种后端(含 Serverless) |
| **模型** | 任意 OpenAI 兼容 | 任意 + Nous Portal |
| **Skills** | agentskills.io 标准 | 同标准(兼容) |
| **消息平台** | Telegram/Discord/Slack/WhatsApp/Signal/iMessage/Line/IRC/Feishu | Telegram/Discord/Slack/WhatsApp/Signal |
| **消息平台数量** | 更多(含 iMessage/Line/Feishu/IRC) | 主流覆盖 |
| **研究用途** | 无专门支持 | **Atropos RL + 轨迹生成** |
| **成熟度** | 更成熟(2024 年起) | 新项目(2026-03) |
| **社区** | 更大 | 快速增长中 |
| **协议** | BSL → MIT(部分组件) | MIT |
💡 分析
为什么值得关注
1. 自我学习是真正的差异化:OpenClaw 的 Memory 是被动的(需要 Agent 主动更新 MEMORY.md),Hermes 的学习闭环是系统级自动的——这是 Agent 发展的正确方向
2. Nous Research 背景:不是随便一个开源项目,是训练了 Hermes 系列模型的实验室做的 Agent——他们理解模型行为
3. RL 管线:Atropos 环境 + 轨迹导出 = 可以用 Agent 运行数据训练更好的 Agent 模型。这形成了模型-Agent 飞轮
4. 默认安全:沙箱隔离 + 命令审批,比 OpenClaw 的安全默认值更保守
局限
1. 太新:2026-03-02 发布,才 10 天。稳定性未经验证
2. Python:对 Node.js 生态的 OpenClaw 用户来说不是"替代品"
3. 消息平台覆盖:没有 iMessage、Line、Feishu 等亚洲平台
4. 单一组织:Nous Research 独家控制方向,vs OpenClaw 的基金会治理
对我们的意义
不是替代 OpenClaw 的选择,而是值得学习的方向:
- Hermes 的自动 Skill 创建/改进机制值得 OpenClaw 借鉴
- Honcho 用户建模可以提升个性化
- 默认安全策略是正确的
可以并行运行:两者用相同的 agentskills.io 标准,Skills 可以互相共享。
🧠 深度对比:Hermes 自我学习 vs OpenClaw 非参数化学习
两者都是非参数化学习(不改模型权重),但机制设计差异很大。
记忆系统对比
| 维度 | OpenClaw | Hermes Agent |
|---|---|---|
| **存储** | `MEMORY.md` + `memory/*.md`(无上限) | `MEMORY.md` + `USER.md`(**硬限 2,200 + 1,375 字符**) |
| **注入方式** | 语义搜索 → 按需加载相关片段 | **全量注入 system prompt**(冻结快照) |
| **搜索** | OpenAI embedding 语义搜索 | FTS5 全文检索 + Gemini Flash 摘要 |
| **容量** | 实际无限(文件系统) | ~1,300 tokens 活跃记忆 + SQLite 归档 |
| **更新时机** | Agent 自主决定 | Agent 自主 + **系统 nudge** |
| **跨 Session** | ✅ 自动加载 | ✅ 冻结快照(session 内不变) |
| **用户建模** | `USER.md`(手动) | **Honcho 辩证式建模**(自动) |
学习机制对比
| 维度 | OpenClaw | Hermes Agent |
|---|---|---|
| **Skill 创建** | 手动写 SKILL.md 或用 skill-creator | **Agent 自动创建**(5+ 工具调用后触发) |
| **Skill 改进** | 手动更新 | **使用中自动改进**(发现更好路径时自动 patch) |
| **触发条件** | 用户指令 | 自动:复杂任务完成 / 遇到错误后找到正确路径 / 用户纠正 |
| **Skill 格式** | agentskills.io 标准 | 同标准(兼容) |
| **知识持久化** | Agent 自己决定写不写 MEMORY.md | **系统周期性 nudge**(提醒 Agent 该保存了) |
核心设计哲学差异
1. 容量策略完全相反
- OpenClaw:大容量 + 按需检索 — 记忆文件可以无限大,用语义搜索找相关片段。代价是检索质量依赖 embedding 模型,可能漏掉重要信息。
- Hermes:小容量 + 全量注入 — 只有 ~1,300 tokens 活跃记忆,但每次都全部注入。代价是容量极小,Agent 必须不断"整理"和"浓缩"记忆。
→ Hermes 保证关键记忆 100% 可见(不依赖搜索质量),但容量限制严重。OpenClaw 更适合"深度记忆"场景(研究报告历史、项目细节),Hermes 更适合"核心偏好"记忆。
2. 自动 vs 被动
- OpenClaw 的记忆更新是被动的——系统提示里写了"记得更新 MEMORY.md",但 Agent 经常忘记或懒得做。
- Hermes 有 system-level nudge——框架主动提醒 Agent "你刚完成了一个复杂任务,要不要保存经验?"。工程上的小改动,但效果差异巨大。
3. Skill 自我进化闭环
这是 Hermes 最大的创新:
OpenClaw:人写 Skill → Agent 执行 → 不反馈
Hermes :Agent 执行复杂任务 → 自动提取为 Skill → 下次用 → 发现改进点 → 自动 patch Skill
形成了正反馈循环:用得越多 → Skill 越精确 → 效率越高。
4. 用户建模深度
- OpenClaw:
USER.md手动维护,内容取决于 Agent 的"自觉性"。 - Hermes:Honcho 辩证式建模 — 每轮对话自动同步,AI 生成的用户画像注入 system prompt。不是简单的"用户喜欢 X",而是更深层的行为模式理解。
可借鉴的三个改进点
1. Nudge 机制:在 OpenClaw heartbeat 或 session 结束时加一个"检查是否有值得记忆的内容"——工程改动小,效果大
2. Skill 自动创建:当 Agent 完成 5+ 步工具调用的复杂任务后,自动提议提取为 Skill
3. 记忆容量可视化:Hermes 在 system prompt 里显示 "67% — 1,474/2,200 chars",让 Agent 知道何时该整理
不需要借鉴的:Hermes 的小容量全量注入模式不适合我们——深度研究场景需要大容量记忆(项目历史、报告库、人物关系),语义搜索 + 按需加载是正确选择。
📊 评分
| 维度 | 评分(/10) |
|---|---|
| 创新性 | 9.0 — 自我学习闭环是真正的差异化 |
| 技术深度 | 8.5 — 6 种后端 + RL 管线 + Honcho 建模 |
| 实用价值 | 7.5 — 太新,需要时间验证 |
| 工程质量 | 8.0 — Python、MIT、文档完整 |
| 与我们的关联 | 8.0 — 学习方向 + Skills 互通 |
| **综合** | **8.2** |
报告由深度研究助手自动生成 | 2026-03-12
来源: https://github.com/NousResearch/hermes-agent