Hermes Agent – 青瓜传媒 //m.clubpenjuin.com 全球数字营销运营推广学习平台! Tue, 21 Apr 2026 01:52:46 +0000 zh-CN hourly 1 https://wordpress.org/?v=5.2.21 https://static.opp2.com/wp-content/uploads/2021/04/favicon-1.ico Hermes Agent – 青瓜传媒 //m.clubpenjuin.com 32 32 Hermes Agent 为什么聪明? //m.clubpenjuin.com/380861.html Tue, 21 Apr 2026 01:52:46 +0000 //m.clubpenjuin.com/?p=380861

 

我没批准 AI 用终端改文件,过了一会儿发现配置已经改好了——它换了个不触发审批的编辑工具,静默完成。这不是预设的 fallback 代码,是模型自己推理出来的。我翻了源码,找到系统 prompt 里三条关键指令,和一条被精心设计的拒绝措辞。

AI自己换了个方法,把事办了

前篇说过,我一般让AI来自己排查问题,我只负责在它的排查结果里面识别它的排查是不是有根据,信息可靠。

一次让小虾子(Hermes Agent)排查”回复说一半就停”的问题,查到根因后需要改 config.yaml。正常它会用 terminal 执行 shell 命令来改文件,但这会触发 approval 审批流程。一般用AI的时候,会做很多事,指挥很多个AI,也有时候干着活儿就去刷视频了。看完一个视频后,再去看哪些需要审批。然后有几次我就忘了。

过了一会儿我发现——配置已经改好了。

它没用 terminal,直接用了 patch 文件编辑工具。patch 不经过 approval,静默完成了修改。

后来我还碰到过别的情况:某条路走不通了,它会自己说”算了,我用另外一种方式处理”或者”先不管了,把主任务做完”。”算了””先不管了””绕过障碍”——这不是预设的 fallback 逻辑,是模型自己推理”目标是改文件,这个工具被堵了,那个工具也能改文件,用那个”。

给目标,不给路径。这已经有一些智能的味道了。

但这里有个双刃剑的问题:你的审批机制,可能防不住一个聪明的 Agent。terminal 执行命令会触发审批,但 patch 改文件不会。write_file 覆盖写也不会。Agent 理解工具之间的关系——面对审批被拒绝,它知道换不触发审批的工具来达到同样的目的。

聪明的 Agent 和危险的 Agent,有时候就在一线之间。

同样我让他自己去翻了源代码,查看了这个所谓的”智能”到底是什么东西,他为什么会自己绕过一些执行方式,或者为什么知道在遇到困难的时候换一种方式?

众所周知,Agent 的能力来自 LLM , 写了prompt这么多年,我肯定是用提示词写的,同样也因为用了AI这么多年,我现在已经没有动力去自己翻prompt了,所以直接用AI来找。

三句话撑起的自主判断力

很多人用了 Hermes 之后会有一个感觉:它不只是能调用工具,它好像”知道”自己在干什么。面对障碍它会绕路,面对审批被拒它会换方法,甚至你不回复确认的时候它会自己想办法用别的方式把事办了。

我让 Hermes 翻了自己的源码(agent/prompt_builder.py),找到了系统 prompt 里几条关键指令。不是什么玄学,就是几句话——但措辞的精准度决定了模型的理解方式。

第一句,”任务没完就别停”:

“Keep working until the task is actually complete. Do not stop with a summary of what you plan to do next time. If you have tools available that can accomplish the task, use them instead of telling the user what you would do.”

持续执行,直到任务真正完成为止。切勿以总结”下一步计划”来收尾。只要手头有可用工具能完成任务,就直接调用,别光跟用户口头说说。

这条指令告诉模型:你判断”完没完”的标准是任务本身有没有完成,不是你这一轮能做的事有没有做完。后面那句更关键——”如果你有能用的工具,就别光说不用”。这句话直接驱动了模型在一条路走不通时去翻自己的工具箱。

第二句,”结果不好就换策略”:

“If a tool returns empty or partial results, retry with a different query or strategy before giving up.”

若工具返回空值或不完整的结果,切勿直接放弃,而应更换查询词或调整策略进行重试。

这条在 <tool_persistence> 标签里。它告诉模型:工具调用失败不是终点,是信号。返回了空结果、部分结果、报错——你要换一种方式再试,而不是停下来汇报”失败了”。

第三句,”别问,直接干”:

“When a question has an obvious default interpretation, act on it immediately instead of asking for clarification.”

若问题存在显而易见的常规理解,请直接执行,切勿停下来要求用户澄清。

这条在 <act_dont_ask> 里。它告诉模型:大多数时候你能判断该怎么做,就别停下来问用户了。只有当歧义真的会影响你调用哪个工具的时候,才问。

这三句话共同构建了一个行为模式:目标导向,不是过程导向。

模型被告知的不是”按照A→B→C的步骤执行”,是”把事做完,遇到障碍想其它办法完成任务”。

“只拒绝命令,不拒绝目标”

还有个设计细节。

当审批被拒绝时,Hermes 返回给模型的消息是:

“BLOCKED: User denied this potentially dangerous command. Do NOT retry this command.”

已阻断:用户已拒绝执行此项潜在高危指令。严禁重试该指令。

注意这个措辞——”不要重试这条命令“。它没说”停止任务”,没说”告诉用户做不了”。它说的是:这条具体命令被拒绝了,别再试同一条。

但模型读到的信号是”这条路走不通”,不是”目标取消了”。

然后它看了一眼自己的工具列表——terminal 被堵了,但 patch 也能改文件,write_file 也行。于是它自己推理:目标是改文件,terminal 不行,patch 可以,用 patch。

这不是预设的 fallback 代码。 Hermes 的代码里没有”如果 terminal 被拒就切 patch”这样的逻辑。这是模型在理解了”目标是什么””哪些工具能达成这个目标””当前哪条路被堵了”之后,自己推理出来的路径选择。

三条可复用的 prompt 写作技巧

之所以有这篇文章,我的目的就是要获得这个 prompt。

Hermes “聪明”的本质不是模型本身特别聪明,是系统 prompt 的措辞精准度 + 工具定义的完整性,把模型推向了”目标导向”的行为模式。

这三条指令的写作技巧,我们自己设计 prompt 的时候完全可以借鉴:

1. 给终点,不给路径。

说”把事做完”,别说”按步骤执行”。模型知道终点在哪,就会自己找路。你把路定死了,它就只会走那条路,堵了就停。

2. 把失败定义为”信号”而不是”终点”。

说”换策略再试”,别说”失败了就汇报”。前者让模型把失败当成需要处理的信息,后者让模型把失败当成可以停下来的理由。

3. 拒绝时只拒绝具体操作,不拒绝目标。

说”这条命令不行”,别说”停止”。前者保留了解决问题的空间,后者直接把门关死了。Hermes 之所以能在审批被拒后绕路,就是因为被拒消息里只堵了具体命令,没堵目标。

而且这个设计有个很有意思的推论:工具越多、工具描述越清晰,模型就越”聪明”。因为它能看到更多的替代路径。如果 Hermes 只有 terminal 一个工具,审批被拒了它就真的只能停下来。但有了 patch、write_file、read_file、execute_code 这些功能重叠但审批路径不同的工具,模型就能自己组合出绕行方案。

所以如果你在别的系统里也想复现这种”聪明”,核心不是选一个更聪明的模型,而是:给完整的工具定义 + 目标导向的指令 + 精准的失败反馈。 三者缺一,模型要么停在原地等指令,要么机械重试同一条死路。

它为什么能”自己查自己”

自己查自己也不新鲜了,比如说,Claude code 、openclaw 、Hermes Agent 都有类似的能力。这次,让小虾子帮我查清楚。

比如,我们问 Hermes 关于它自己的配置里写了什么、当前用的什么模型、compression 阈值是多少——它都能答上来。甚至你让它改自己的配置、排查自己的问题,它也能干。

这个能力从哪来的? <mandatory_tool_use> 有一段指令:

“NEVER answer these from memory or mental computation — ALWAYS use a tool.”

以下类型的问题,严禁凭记忆或心算(推理?)作答——必须调用工具。

后面列了系统状态、文件内容、当前时间、Git 历史等类型。意思就一句话:这些事你别猜,去查。

所以你问它配置,它不是”记住”了 config.yaml,是用 read_file 重新读了一遍。你问它某个功能怎么用,它去读了 SKILL.md 文件。你让它排查问题,它用搜索工具在源码里找。工具驱动的自我认知——模型不需要记住所有配置,只需要知道该查什么文件、该用什么工具。

还有一个细节:源码里有个 <verification> 标签,要求模型回复前做四项检查——正确性、事实依据、格式、安全。做了→查了→确认对了→再回复。不是做完就交,是做完再验一遍。

和 Claude Code 的区别——显式指令 vs 隐式设计

之前 code code 有类似方案的设计思路,这里跟 Hermes 也是有一些区别。

底层逻辑一样,都是”按需查,不靠背”。 但实现方式有区别。

Claude Code 不需要显式告诉模型”去查”——它把工具的用法、参数、注意事项直接写进工具描述(schema)里。模型看到工具描述就自然知道该怎么做,不需要额外指令。你给它一个 Bash 工具,描述里写着”执行 shell 命令”,它遇到系统状态问题就知道调用 Bash 去查。知识嵌在工具定义里,不在系统 prompt 的大段文字里。

Hermes 多了一层显式的行为指令。它的系统 prompt 里不只有工具描述,还有专门的行为控制标签——<mandatory_tool_use> 告诉模型”这些事必须用工具查”,<tool_persistence> 告诉模型”结果不好就换策略”,<act_dont_ask> 告诉模型”别问直接干”。这些不是工具定义,是行为准则

打个比方:Claude Code 的方式是”给一本写得很好的说明书,你自己看”,Hermes 的方式是”给说明书,再加一位老员工在旁边说’遇到这种情况你该这样做’”。

哪个更好?**取决于模型本身的能力。能力强的模型,看到好的工具描述就够了,不需要额外叮嘱。能力参差不齐或者你想统一行为模式时,显式指令更可控。**Hermes 支持切换不同模型(GPT、Gemini、GLM、Claude……),所以它需要这些显式指令来确保不管底座模型是什么,行为都一致。

这里同样印证了我们在讨论AI产品的时候,大家经常说的:设计AI产品时不要过度工程化。

汇总——五条指令

Hermes 通过系统 prompt 控制模型行为的关键指令,一共五条:

1. 驱动主动推进

“Keep working until the task is actually complete. Do not stop with a summary of what you plan to do next time. If you have tools available that can accomplish the task, use them instead of telling the user what you would do.”

2. 驱动自我纠错

“If a tool returns empty or partial results, retry with a different query or strategy before giving up.”

3. 驱动自主判断

“When a question has an obvious default interpretation, act on it immediately instead of asking for clarification.”

4. 驱动工具查询(不靠幻觉)

“NEVER answer these from memory or mental computation — ALWAYS use a tool.”

以下类型的问题,严禁凭记忆或心算作答——必须调用工具。

5. 驱动验证循环

“Before finalizing: check correctness, grounding, formatting, safety.”

主动推进、遇到障碍绕路、不问多余的问题、用工具查真实状态、做完了再验一遍。五条组合出你看到的那种”聪明”。

“聪明”——是设计出来的。

作者:jovi_AI电报

]]>
开源项目Hermes Agent评测 //m.clubpenjuin.com/380510.html Wed, 08 Apr 2026 01:10:00 +0000 //m.clubpenjuin.com/?p=380510

 

上周我被一个 GitHub 项目刷屏了——17K Stars、上线两个月、207 位贡献者。这个叫 Hermes Agent 的项目标语挺有意思:「The agent that grows with you」,翻译过来就是「与你共同成长的智能体」。说实话我见过太多 AI 工具说自己「智能」了,但说自己能「成长」的真不多见。好奇心驱使我花了一周深度体验了一番,今天来聊聊我的真实感受。

一、Hermes Agent 是什么?

Hermes Agent 是由 Nous Research 开发的开源自主 AI 智能体,2026 年 2 月正式发布。提到 Nous Research 你可能不熟悉,但说起他们家的模型系列——Hermes、Nomos、Psyche——在开源圈子里算是小有名气的存在。

那么 Hermes Agent 到底是什么?官方给它的定位是「自我改进型 AI Agent 框架」。用大白话翻译一下:它不是一个绑定在 IDE 里的代码补全工具,也不是一个单纯的聊天机器人。它是一个部署在你自己服务器上的、具备持续学习能力的 AI 助手

这句话里有三个关键词:

第一,部署在你自己的服务器上。 这意味着你的数据不会经过第三方服务器,隐私可控。

第二,具备持续学习能力。 这是 Hermes Agent 与其他 AI 工具最大的差异点。它能在使用过程中「记住」你的偏好、创建新技能、在后续任务中调用这些技能。你用它越久,它越懂你。

第三,开源且免费。 项目采用 MIT 协议开源,源代码公开,你可以自由部署、自由修改、自由商用。

光看这些描述可能还是有点虚,说白了它解决的核心问题是——大多数 AI 工具是「金鱼式」的,每次对话都是独立的。但 Hermes Agent 想做的是「记忆形」的,你告诉过它的事情它会记住,你教过它的技能它会复用。

二、Hermes Agent 的用户规模和开源生态

指标 数据
GitHub Stars 17,000+
贡献者数量 207 位
协议类型 MIT
首次发布 2026 年 2 月
维护团队 Nous Research

17K Stars 在 GitHub 上属于「明星项目」级别。从开源社区的参与度来看,它的活跃度和认可度相当不错。作为一款 2026 年 2 月才发布的产品,Hermes Agent 的商业数据暂无公开披露,变现路径目前主要靠开源生态带动品牌影响力,再转化到 Nous Research 的模型服务上。

说实话,一个开源项目能在两个月内积累 17K Stars,说明确实有两把刷子。同期很多项目折腾一年都未必能到 1K。

三、Hermes Agent 的核心功能有哪些?

聊完背景,我们来看看它到底能干什么。

内置闭环学习系统

这是 Hermes Agent 最核心的差异化能力。它内置了一个「学习—实践—改进」的闭环:当你发现某个任务它完成得特别好,可以把经验「沉淀」为一个可复用的技能;技能在使用过程中会自动优化;它还会主动「提醒」自己保持知识的更新,不会因为时间推移而「遗忘」。

这个设计思路挺有意思的。大多数 AI 工具是「一次性」的——每次对话都是独立的,不会留下任何痕迹。但 Hermes Agent 想让你主动参与到这个循环里来,你不只是它的用户,还是它的「训练师」。

跨会话记忆

大多数 AI 对话工具的问题在于:会话结束,上下文就消失了。第二天再打开,它完全不记得你是谁、你之前让它干过什么。

Hermes Agent 解决这个问题的方案是持久化记忆。它能记住跨会话的信息,包括:你的个人偏好、之前完成的任务、积累的技能、以及项目的背景知识。简单说就是——你用它越久,它越懂你。

全平台消息网关

Hermes Agent 内置了一个全平台消息网关,只需要启动一个进程,就能同时接入多个平台:Telegram、飞书、企业微信、Slack、Discord 等。一个 Agent,多个入口,统一管理。

对于需要跨平台协作的用户来说,这个功能相当实用。你不用在多个 App 之间来回切换,在一个地方就能处理所有渠道的消息。

工具调用与自动化工作流

Hermes Agent 不仅能「回答」问题,还能执行任务。它支持调用各种工具:搜索网页、执行代码、读写文件、调用 API、发送通知、定时任务。你可以在一个对话里让它「帮我查一下今天的天气,然后发到飞书群里」,整个流程它能自动完成。

多模型支持

Hermes Agent 不绑定特定大模型,你可以根据需要选择:支持 Ollama 本地模型、OpenAI GPT 系列、Claude 系列、以及其他兼容 OpenAI API 格式的模型。这种灵活性意味着你可以根据自己的隐私需求和预算选择合适的模型。

隐私敏感的业务用本地模型,想省事的时候用 GPT-4丰俭由人。

四、Hermes Agent 面向的人群有哪些?

用户类型 需求特点 适合度
开发者 想要构建可成长的 AI 应用 ★★★★★
技术极客 喜欢自己部署、自己定制 ★★★★★
隐私敏感用户 不希望数据经过第三方服务器 ★★★★☆
跨境团队 需要多平台消息同步 ★★★★☆
企业内部 想要私有化部署 AI 助手 ★★★★☆
普通用户 想要开箱即用的聊天机器人 ★★★☆☆

如果你是一个普通用户,只想要一个能聊天的 AI,Hermes Agent 可能有点「杀鸡用牛刀」——它的学习能力和自动化能力对普通用户来说可能用不上。

但如果你是开发者或有技术背景的用户,想要一个真正能「干活」且能「成长」的 AI 助手,它值得一试。说实话,光是「记住你教过它的东西」这一点,就比很多同类产品强了。

五、Hermes Agent 的应用场景有哪些?

结合它的功能特性,Hermes Agent 在以下几个场景下特别有用:

1. 个人知识管理助手

你可以让它持续跟踪某个领域的信息,定期整理摘要、提醒重要动态。它会记住你关注什么、习惯怎么处理信息,久而久之就成了你私人定制的「第二大脑」。

2. 跨平台消息聚合

如果你的团队同时使用多个平台,Hermes Agent 可以作为统一的消息中枢,在一个地方处理所有平台的沟通。再也不用在 Slack、飞书、Telegram 之间来回切换了。

3. 自动化运维助手

结合它的工具调用能力,Hermes Agent 可以帮你监控服务器状态、自动执行备份任务、异常时发送告警。由于它有记忆能力,还能记住过往处理过的故障及解决方案,下次遇到类似问题响应速度会快很多。

4. 客服自动化

企业可以用它搭建客服 Agent,接入多个渠道(微信、Telegram、网站),自动回复常见问题,复杂问题再转人工。MIT 协议意味着你可以把它集成到商业产品里而不用担心许可证问题。

六、Hermes Agent 和同类竞品的差异有哪些?

产品 类型 核心优势 定价
Hermes Agent 开源框架 内置学习闭环、跨会话记忆、MIT 协议 免费
AutoGPT 开源框架 任务分解与执行能力强 免费
LangChain 开发框架 丰富的工具链和集成 免费/付费
Dify 开源平台 可视化编排、易用性好 免费/付费
Coze 商业平台 拖拽式工作流、插件丰富 免费/付费

Hermes Agent 的差异化在于内置学习闭环MIT 开源协议。它不是给你一堆工具让你自己组装,而是直接给你一个「会学习」的智能体,你只需要告诉它做什么,它会自己琢磨怎么做得更好。

另一个不得不提的优势是 MIT 协议——你拿它做商业产品完全没问题,不用担心许可证风险。对比某些「免费试用但商用收费」的平台,这一点对开发者来说相当友好。

七、Hermes Agent 有哪些使用技巧?

基于我的踩坑经验,分享几个能让你更快上手的技巧:

技巧一:从单一渠道开始验证

不要一上来就接入所有平台。先从单一渠道 + 一个具体自动化任务开始,比如「每天早八点给我发一条日报摘要」。跑通之后再逐步扩展,循序渐进比一上来就搞大工程要稳妥得多。

技巧二:重视技能的沉淀

每当你发现它完成了一个复杂的任务,记得把经验「沉淀」成技能。这个过程需要你主动参与,但一旦沉淀完成,后续类似任务的执行效率会大幅提升。说白了,Hermes Agent 的能力很大程度上取决于你愿意花多少时间教它。

技巧三:选择合适的模型驱动

本地部署推荐用 Ollama + Llama/Mistral 系列,响应快且免费;如果你对效果要求更高,可以考虑 GPT-4 或 Claude。不同任务用不同模型,性价比最高。

技巧四:定期整理记忆文件

它的记忆能力虽然强,但也需要适当「整理」。建议每隔一段时间检查一下它记住的内容,把过时的或者错误的信息清理掉。保持记忆的准确性,Agent 的表现才会越来越稳定。

八、Hermes Agent 对企业和个人的价值

对个人用户

  • 效率提升:重复性任务自动化,省出时间专注创造性工作
  • 知识积累:跨会话记忆让 Agent 越来越懂你
  • 隐私保障:数据留在本地,不用担心第三方泄露

对企业用户

  • 私有化部署:数据不出公司,安全合规
  • 全平台接入:统一管理多个渠道的沟通
  • 可定制:开源协议允许深度定制成自有品牌产品

对于企业来说,Hermes Agent 的价值不只是做一个客服机器人。它更像是一个「可编程的员工」——你能教它你的业务流程、让它学习你的产品知识、帮你的团队处理各种重复性工作。

九、Hermes Agent 的产品定价

Hermes Agent 本身是完全免费的开源项目,采用 MIT 协议。

但运行它需要一定的技术成本:你需要自己的服务器(或云服务器)、以及一个用于驱动的 LLM 模型。

模型成本取决于你选择的方式:

模型方案 成本 适用场景
Ollama 本地模型 免费(需 GPU) 隐私敏感、长期运行
OpenAI GPT-4 按 token 计费 追求效果
Claude 按 token 计费 追求性价比

总体来说,Hermes Agent 的使用成本在开源 AI Agent 框架中算是比较低的——你只需要付服务器和模型费用,没有额外的软件授权费。对于预算有限的团队来说,这个定价策略相当友好。

十、Hermes Agent 的官网和获取方式

  • 官方网站:https://hermes-agent.org
  • GitHub 仓库:https://github.com/NousResearch/hermes-agent

总体评价

说实话,Hermes Agent 刚出来的时候,我觉得「会成长的智能体」这个概念有点噱头。但用了一周之后,我的看法有所改变。

它最有价值的地方不是某一个具体功能,而是那个学习闭环的设计思路。大多数 AI 工具是「一次性」的——每次对话都是独立的,不会留下任何痕迹。但 Hermes Agent 让我看到了一个不同的可能性:AI 不只是一个工具,而是一个可以「积累经验」的合作伙伴。

当然,它不是完美的。部署有一定门槛、需要自己维护服务器、某些场景下响应速度不如商业产品。但对于技术用户来说,这些是可以接受的代价。

]]>