Hermes Agent:Nous Research 的自我进化 AI Agent

> 来源: https://github.com/NousResearch/hermes-agent

> 团队: Nous Research(Hermes / Nomos / Psyche 模型背后的实验室)

> 文档: https://hermes-agent.nousresearch.com/docs/

> 协议: MIT

> 发布: 2026-03-02(GitHub Trending)

> Slogan: "The agent that grows with you"

> 日期: 2026-03-12

📌 一句话总结

Nous Research 发布的开源 AI Agent 框架——唯一内置学习闭环的 Agent:自动从经验中创建 Skills、使用中自我改进、主动提醒持久化知识、跨 Session 搜索历史对话。定位介于 Claude Code(CLI 编码工具)和 OpenClaw(消息平台 Agent)之间。

🔧 核心特性

1. 自我学习闭环(核心差异化)

能力说明
🧠 Agent 自主记忆管理周期性 nudge 自己持久化知识
📚 自动创建 Skills完成复杂任务后自动提取为可复用技能
🔄 Skills 自我改进使用过程中持续优化技能
🔍 FTS5 跨 Session 搜索全文检索历史对话 + LLM 摘要
👤 Honcho 用户建模辩证式(dialectic)用户画像,越用越懂你

2. 运行环境

6 种终端后端

消息平台:Telegram / Discord / Slack / WhatsApp / Signal / CLI

3. 多模型支持

Nous Portal、OpenRouter(200+ 模型)、z.ai/GLM、Kimi/Moonshot、MiniMax、OpenAI 或自定义端点。一条命令切换。

4. 其他

⚔️ vs OpenClaw:社区对比

Nous Research 官方定位:

> "It sits between a Claude Code style CLI and an OpenClaw style messaging platform agent"

社区声音

Reddit r/openclaw(1 天前):

> "OpenClaw 执行一个中等复杂任务需要 50+ 步和工具调用,Hermes 用 5 次正确工具调用、少 2:30 分钟完成同样的事。"

Reddit r/LocalLLaMA(2 周前):

> "比 OpenClaw 默认更安全。"

Medium 对比文章(2 天前,ElizaOS vs OpenClaw vs Hermes):

> "三者中安全配置最干净。默认沙箱架构、显式审批。但治理结构较窄——单一组织(Nous Research)驱动方向。"

详细对比

维度OpenClawHermes Agent
**语言**Node.js/TypeScriptPython
**定位**消息平台 Agent(始终在线)CLI Agent + 消息网关
**学习能力**MEMORY.md + 手动更新**自动学习闭环**(创建/改进 Skills)
**记忆**语义搜索 + Markdown 文件FTS5 全文搜索 + LLM 摘要 + Honcho 用户建模
**安全**有安全模型但历史漏洞多**默认沙箱**,显式命令审批
**运行环境**主要绑定本机/VPS6 种后端(含 Serverless)
**模型**任意 OpenAI 兼容任意 + Nous Portal
**Skills**agentskills.io 标准同标准(兼容)
**消息平台**Telegram/Discord/Slack/WhatsApp/Signal/iMessage/Line/IRC/FeishuTelegram/Discord/Slack/WhatsApp/Signal
**消息平台数量**更多(含 iMessage/Line/Feishu/IRC)主流覆盖
**研究用途**无专门支持**Atropos RL + 轨迹生成**
**成熟度**更成熟(2024 年起)新项目(2026-03)
**社区**更大快速增长中
**协议**BSL → MIT(部分组件)MIT

💡 分析

为什么值得关注

1. 自我学习是真正的差异化:OpenClaw 的 Memory 是被动的(需要 Agent 主动更新 MEMORY.md),Hermes 的学习闭环是系统级自动的——这是 Agent 发展的正确方向

2. Nous Research 背景:不是随便一个开源项目,是训练了 Hermes 系列模型的实验室做的 Agent——他们理解模型行为

3. RL 管线:Atropos 环境 + 轨迹导出 = 可以用 Agent 运行数据训练更好的 Agent 模型。这形成了模型-Agent 飞轮

4. 默认安全:沙箱隔离 + 命令审批,比 OpenClaw 的安全默认值更保守

局限

1. 太新:2026-03-02 发布,才 10 天。稳定性未经验证

2. Python:对 Node.js 生态的 OpenClaw 用户来说不是"替代品"

3. 消息平台覆盖:没有 iMessage、Line、Feishu 等亚洲平台

4. 单一组织:Nous Research 独家控制方向,vs OpenClaw 的基金会治理

对我们的意义

不是替代 OpenClaw 的选择,而是值得学习的方向

可以并行运行:两者用相同的 agentskills.io 标准,Skills 可以互相共享。

🧠 深度对比:Hermes 自我学习 vs OpenClaw 非参数化学习

两者都是非参数化学习(不改模型权重),但机制设计差异很大。

记忆系统对比

维度OpenClawHermes Agent
**存储**`MEMORY.md` + `memory/*.md`(无上限)`MEMORY.md` + `USER.md`(**硬限 2,200 + 1,375 字符**)
**注入方式**语义搜索 → 按需加载相关片段**全量注入 system prompt**(冻结快照)
**搜索**OpenAI embedding 语义搜索FTS5 全文检索 + Gemini Flash 摘要
**容量**实际无限(文件系统)~1,300 tokens 活跃记忆 + SQLite 归档
**更新时机**Agent 自主决定Agent 自主 + **系统 nudge**
**跨 Session**✅ 自动加载✅ 冻结快照(session 内不变)
**用户建模**`USER.md`(手动)**Honcho 辩证式建模**(自动)

学习机制对比

维度OpenClawHermes Agent
**Skill 创建**手动写 SKILL.md 或用 skill-creator**Agent 自动创建**(5+ 工具调用后触发)
**Skill 改进**手动更新**使用中自动改进**(发现更好路径时自动 patch)
**触发条件**用户指令自动:复杂任务完成 / 遇到错误后找到正确路径 / 用户纠正
**Skill 格式**agentskills.io 标准同标准(兼容)
**知识持久化**Agent 自己决定写不写 MEMORY.md**系统周期性 nudge**(提醒 Agent 该保存了)

核心设计哲学差异

1. 容量策略完全相反

→ Hermes 保证关键记忆 100% 可见(不依赖搜索质量),但容量限制严重。OpenClaw 更适合"深度记忆"场景(研究报告历史、项目细节),Hermes 更适合"核心偏好"记忆。

2. 自动 vs 被动

3. Skill 自我进化闭环

这是 Hermes 最大的创新:


OpenClaw:人写 Skill → Agent 执行 → 不反馈
Hermes :Agent 执行复杂任务 → 自动提取为 Skill → 下次用 → 发现改进点 → 自动 patch Skill

形成了正反馈循环:用得越多 → Skill 越精确 → 效率越高。

4. 用户建模深度

可借鉴的三个改进点

1. Nudge 机制:在 OpenClaw heartbeat 或 session 结束时加一个"检查是否有值得记忆的内容"——工程改动小,效果大

2. Skill 自动创建:当 Agent 完成 5+ 步工具调用的复杂任务后,自动提议提取为 Skill

3. 记忆容量可视化:Hermes 在 system prompt 里显示 "67% — 1,474/2,200 chars",让 Agent 知道何时该整理

不需要借鉴的:Hermes 的小容量全量注入模式不适合我们——深度研究场景需要大容量记忆(项目历史、报告库、人物关系),语义搜索 + 按需加载是正确选择。

📊 评分

维度评分(/10)
创新性9.0 — 自我学习闭环是真正的差异化
技术深度8.5 — 6 种后端 + RL 管线 + Honcho 建模
实用价值7.5 — 太新,需要时间验证
工程质量8.0 — Python、MIT、文档完整
与我们的关联8.0 — 学习方向 + Skills 互通
**综合****8.2**

报告由深度研究助手自动生成 | 2026-03-12

来源: https://github.com/NousResearch/hermes-agent