Hermes Agent 教程:安装配置你的第一个自我进化 AI 智能体(2026)
- 1. 为什么选择 Hermes Agent?
- 2. 前置条件
- 3. 第一步:安装 Hermes Agent
- 4. 第二步:选择并配置 AI 模型
- 5. 第三步:第一次对话
- 6. 第四步:设置 Telegram 或 Discord 机器人
- 7. 第五步:观察自我学习——技能与记忆
- 8. 第六步:使用 Cron 调度器设置自动任务
- 9. 进阶:MCP 服务器与自定义工具
- 10. 常见问题排查
- 11. 配置文件参考
- 12. 下一步可以构建什么
- 13. 总结
1. 为什么选择 Hermes Agent?
2026 年 4 月 — 大多数 AI 工具在你关闭终端的那一刻就忘记了一切。而 Nous Research 推出的 Hermes Agent 不会。它是一个开源的 AI 智能体,能从你交给它的每一个任务中学习,为成功的工作流创建可复用的技能文件,并在会话之间持久化记忆。
简单来说,它是一个越用越聪明的 AI 助手。
在本教程中,你将在 30 分钟内完成以下全部内容:
- 本地安装 Hermes Agent(v0.8.0)并连接到你的 AI 模型
- 通过 Telegram、Discord 或 Slack 与智能体交互的消息网关
- 自动从复杂任务中创建技能文档的自我学习系统
- 无需人工干预的定时自动任务
2. 前置条件
开始前请确认系统满足以下要求:
操作系统:
- Linux(Ubuntu 20.04+、Debian、Fedora、Arch)
- macOS(Intel 或 Apple Silicon)
- Windows 通过 WSL2(原生 Windows 不支持)
硬件:
- 4 GB 内存(最低),推荐 8 GB+
- 2 GB 可用磁盘空间
- 本地模型(通过 Ollama):8-16 GB+ VRAM 的 GPU(Apple Silicon 的 Metal 加速效果很好,7B 模型可达 50-80 tokens/秒)
AI 模型访问(任选其一):
- OpenRouter、OpenAI 或 Anthropic 的 API 密钥
- 本地安装 Ollama(免费、离线)
- Nous Portal 账号
上下文窗口要求: Hermes Agent 至少需要 64,000 tokens 的上下文。上下文窗口较小的模型无法保持足够的工作记忆来完成多步工具调用工作流,启动时会被拒绝。
3. 第一步:安装 Hermes Agent
打开终端,运行一行安装命令:
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash
这一行命令完成以下所有操作:
- 检测你的操作系统并安装缺失的系统依赖(Python 3.11+、Node.js、ripgrep、ffmpeg)
- 克隆仓库到
~/.hermes - 创建 Python 虚拟环境并安装所有 Python/Node 包
- 注册全局
hermes命令,随处可用 - 启动设置向导配置 LLM 提供商
整个过程在典型网络连接下只需不到 5 分钟。
安装完成后,重新加载 shell:
source ~/.bashrc # Linux
# 或
source ~/.zshrc # macOS
验证安装:
hermes --version
# 预期输出:hermes-agent v0.8.0
如果遇到问题,运行内置诊断工具:
hermes doctor
它会检查你的环境、依赖、API 连通性和配置中的常见问题。
从 OpenClaw 迁移
如果你之前使用过 OpenClaw,设置向导会自动检测 ~/.openclaw 目录,并询问是否迁移配置、技能和记忆。
4. 第二步:选择并配置 AI 模型
安装过程中,设置向导会提示你选择 LLM 提供商。你也可以随时更改:
hermes model
选项 A:OpenRouter(200+ 模型)
OpenRouter 通过单一 API 密钥提供超过 200 种模型,包括 Claude、GPT-4、Gemini 和 Llama:
- 在 openrouter.ai 注册并获取 API 密钥
- 在设置向导中选择 “OpenRouter”
- 粘贴你的 API 密钥
- 选择模型(Claude Sonnet、GPT-4o 或 Llama 3.1 405B 都是可靠选择)
选项 B:Anthropic API(直连)
如果你想直接使用 Claude:
- 从 console.anthropic.com 获取 API 密钥
- 在设置向导中选择 “Anthropic”
- 粘贴你的 API 密钥
- 向导默认使用最新的 Claude 模型,200K 上下文
选项 C:Ollama(免费、本地、离线)
这是零成本选项,无需 API 调用,数据不离开你的机器:
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 拉取具有足够上下文的模型
ollama pull gemma4 # ~16 GB VRAM
# 或
ollama pull qwen3.5 # ~11 GB VRAM
然后在 Hermes 设置向导中:
- 选择 “Custom endpoint”
- 设置 API 基础 URL 为
http://127.0.0.1:11434/v1 - API 密钥留空(本地 Ollama 不需要)
运行本地模型时,务必设置上下文大小为至少 64K:
ollama run gemma4 --ctx-size 65536
提供商容灾链
Hermes 支持有序的容灾提供商链。如果主提供商宕机,它会自动切换到下一个。在 ~/.hermes/config.yaml 中配置:
fallback_providers:
- provider: openrouter
model: anthropic/claude-sonnet
- provider: ollama
model: gemma4
5. 第三步:第一次对话
启动 Hermes:
hermes
你现在进入了一个交互式聊天会话。先试试简单的:
> 我当前目录下有什么?列出文件并告诉我这个项目是做什么的。
Hermes 使用内置工具——文件操作、终端命令、网页搜索——来探索你的文件系统并给出上下文相关的回答。它预装了 40+ 内置工具:
- 文件操作 — 读取、写入、搜索和编辑文件
- 终端命令 — 运行 shell 命令并捕获输出
- 网页搜索 — 从互联网获取实时信息
- 代码分析 — 理解代码库、查找模式、解释逻辑
CLI 基本命令
| 命令 | 作用 |
|---|---|
/help | 列出所有可用命令 |
/tools | 显示已启用的工具 |
/compress | 总结对话以减少 token 使用量 |
/memory | 查看智能体的持久记忆 |
/skills | 列出所有已学习的技能 |
/quit | 结束会话 |
/compress 命令对长会话特别重要。它总结对话历史,显著减少 token 使用量同时保留上下文——在处理上下文窗口较小的模型或降低 API 成本时非常有用。
6. 第四步:设置 Telegram 或 Discord 机器人
消息网关让 Hermes 超越 CLI 工具。你可以通过 Telegram、Discord、Slack、WhatsApp、Signal 等多种平台与智能体交互——全部通过一个后台进程实现。
Telegram 设置
- 打开 Telegram 搜索 @BotFather
- 发送
/newbot - 为你的机器人取一个名字和用户名
- 复制 BotFather 给你的机器人令牌
然后配置 Hermes:
hermes gateway setup
选择 Telegram 并粘贴你的机器人令牌。要限制只有你的账号能访问:
# 找到你的 Telegram 用户 ID(给 @userinfobot 发消息)
export TELEGRAM_ALLOWED_USERS=123456789
Discord 设置
- 进入 Discord Developer Portal
- 创建一个新应用并添加机器人
- 复制机器人令牌
- 邀请机器人到你的服务器(带适当权限)
运行网关设置:
hermes gateway setup
选择 Discord 并粘贴你的令牌。有用选项:
# 在 ~/.hermes/config.yaml 中
discord:
require_mention: true # 仅在 @提及 时回复
free_response_channels: "12345" # 机器人自由回复的频道 ID
auto_thread: true # @提及 时创建线程
启动网关
前台测试:
hermes gateway
确认工作正常后,安装为持久服务:
# macOS (launchd)
hermes gateway install
# Linux (systemd 用户服务)
hermes gateway install
# Linux (系统级,重启后仍有效)
sudo hermes gateway install --system
服务会自动重启(如果崩溃)并在开机时启动。
7. 第五步:观察自我学习——技能与记忆
这是 Hermes Agent 区别于其他工具的核心功能。完成一个复杂任务(通常 5+ 工具调用)后,智能体会自动创建一个技能文件——一个结构化的 Markdown 文档,记录它做了什么、怎么做、遇到的陷阱和验证步骤。
技能如何工作
- 你让 Hermes 做一件复杂的事——比如”用 Docker、测试和 CI 配置一个 Python FastAPI 项目”
- Hermes 使用多个工具完成任务
- 它识别出这是一个非平凡的工作流,并创建一个技能文件
- 下次你或任何人请求类似任务时,它直接加载该技能,而不是从头开始摸索
技能遵循 agentskills.io 标准,因此可以在智能体之间移植和共享。
查看和管理技能
hermes skills # 列出所有技能
hermes skills show <name> # 查看特定技能
技能会在使用中自我改进。如果智能体在执行技能时发现了更好的方法,它会更新技能文档。
持久记忆
除了技能,Hermes 还维护一个 MEMORY.md 文件——智能体整理的关于你、你的偏好、项目和工作流的事实。它通过定期提示来持久化耐用知识。
会话历史、记忆条目和技能元数据都存储在 SQLite(带 FTS5 全文搜索)中,因此智能体可以在会话之间高效地检索相关上下文。
hermes memory # 查看当前记忆
hermes memory search "docker" # 搜索记忆中的主题
8. 第六步:使用 Cron 调度器设置自动任务
Hermes 内置了 cron 调度器,可以按照任何时间表自动运行任务,并将结果发送到你配置的任何平台。
创建定时任务
使用自然语言描述:
hermes cron add
然后按提示描述任务:
每天早上9点,查看 Hacker News 的 AI 新闻,在 Telegram 上给我发摘要。
或者使用 cron 表达式精确指定:
hermes cron add --schedule "0 9 * * *" --prompt "查看 Hacker News 排名前5的 AI 相关新闻。每条用2句话总结。发送到 Telegram。" --deliver telegram
管理定时任务
hermes cron list # 显示所有定时任务
hermes cron remove <id> # 删除任务
hermes cron logs <id> # 查看执行历史
hermes cron start # 启动调度器守护进程
实用的 cron 任务想法:
- 每天总结你仓库中的 GitHub Issues
- 每周将行业新闻摘要发送到 Slack
- 每小时监控生产服务健康状态
- 早晨简报:日历事件 + 任务优先级
9. 进阶:MCP 服务器与自定义工具
Hermes 支持 Model Context Protocol(MCP),可以连接到外部服务——GitHub、数据库、Stripe 或任何暴露 MCP 端点的工具。
添加 MCP 服务器
编辑 ~/.hermes/config.yaml:
mcp_servers:
github:
command: npx
args: ["-y", "@modelcontextprotocol/server-github"]
env:
GITHUB_PERSONAL_ACCESS_TOKEN: "ghp_your_token_here"
filesystem:
command: npx
args: ["-y", "@modelcontextprotocol/server-filesystem", "/home/user/projects"]
stripe:
url: "https://mcp.stripe.com"
headers:
Authorization: "Bearer sk_live_your_key"
MCP 配置选项
每个服务器支持可选设置来控制工具访问和行为:
mcp_servers:
github:
command: npx
args: ["-y", "@modelcontextprotocol/server-github"]
env:
GITHUB_PERSONAL_ACCESS_TOKEN: "ghp_xxx"
timeout: 120 # 工具调用超时(秒)
connect_timeout: 60 # 初始连接超时
tools:
include: [list_issues, create_issue, search_code]
prompts: false
resources: false
tools.include 和 tools.exclude 列表让你精确控制智能体可从每个 MCP 服务器访问哪些工具——对安全和成本控制非常有用。
终端后端
Hermes 支持六种终端后端,决定智能体的 shell 命令在哪里执行:
| 后端 | 适用场景 |
|---|---|
| local | 在本地机器上直接执行(默认) |
| docker | 在 Docker 容器中沙盒执行 |
| ssh | 通过 SSH 在远程服务器上执行 |
| daytona | 托管工作空间,服务端持久化 |
| modal | 无服务器云沙盒 |
| singularity | HPC 兼容容器执行 |
在 ~/.hermes/config.yaml 中配置:
terminal:
backend: docker
working_directory: /workspace
command_timeout: 300
env_forward:
- HOME
- PATH
Docker 后端默认以所有 capabilities 降级且无提权的方式运行命令——非常适合运行不受信任或实验性代码。
10. 常见问题排查
“Model context too small” 错误
Hermes 需要至少 64K 上下文 tokens 的模型。如果本地模型出现此错误,增加上下文大小:
ollama run your-model --ctx-size 65536
Token 使用量过高
在使用默认工具和 SOUL.md 的情况下,Hermes 每次 CLI 对话约使用 6-8K 输入 tokens,每次 Telegram 消息约 15-20K。要降低使用量:
- 在长会话期间定期运行
/compress - 使用
hermes tools禁用未使用的工具 - 保持 SOUL.md 简洁
网关无法连接
hermes doctor # 检查环境
hermes gateway status # 检查网关服务状态
hermes gateway logs # 查看日志
确认 ~/.hermes/.env 中的机器人令牌是否正确。
命令被 Tirith 安全模块阻止
Tirith 是 Hermes 的安全模块。它会硬阻止危险命令(如将 curl 输出管道到 shell)。如果合法命令被阻止,可以在配置中调整 Tirith 规则。这是有意为之——安全模块保护智能体免受提示注入攻击。
Cron 任务不触发
多数 cron 问题分为四类:
- 时间设置 — 验证 cron 表达式和时区配置
- 投递配置 — 如果投递到 Telegram/Discord,确保网关正在运行
- 权限 — 确认智能体有权限访问所需工具
- 技能加载 — 如果任务引用技能文件,确认文件存在
运行 hermes cron logs <id> 查看执行历史和错误详情。
11. 配置文件参考
Hermes 将所有设置和状态存储在 ~/.hermes/ 下:
| 文件/目录 | 用途 |
|---|---|
| config.yaml | 主配置 |
| .env | API 密钥和密钥 |
| SOUL.md | 智能体身份和个性 |
| MEMORY.md | 持久记忆 |
| skills/ | 已学习的技能文档 |
| sessions/ | 对话历史 |
| cron/ | 定时任务定义 |
| logs/ | 应用日志 |
12. 下一步可以构建什么
现在你的智能体已经运行起来了,这里有一些实用的项目尝试:
- 个人研究助手 — 让 Hermes 监控 RSS 源、总结论文、每天发送简报
- 代码审查机器人 — 连接 GitHub MCP 服务器,定时审查 PR
- DevOps 监控 — 设置 cron 任务检查服务器健康、SSL 证书、响应时间
- 数据管道自动化 — 让 Hermes 按周期从 API 获取、清洗和转换数据
- 会议准备助手 — 开会前让 Hermes 拉取相关文档、历史笔记和待办事项
13. 总结
Hermes Agent 是 2026 年最实用的开源 AI 智能体项目之一。安装只需 5 分钟,学习曲线平缓——从 CLI 对话开始,逐步添加消息网关、MCP 服务器和 cron 任务。自我进化的技能系统意味着你的智能体会随着时间积累价值,而不是每个会话都从零开始。
本教程涵盖的关键步骤:
- 一键安装 Hermes Agent
- 连接你偏好的 AI 模型(云端或本地)
- 在终端中直接对话
- 通过网关部署 Telegram 或 Discord 机器人
- 观察技能创建和记忆持久化
- 使用 cron 调度器自动化重复任务
- 通过 MCP 服务器和自定义工具扩展能力
从基础开始,让智能体学习你的工作流,然后逐步扩展。官方文档涵盖了你需要的其他一切。
| 来源: Hermes Agent GitHub | 官方文档 | 安装指南 | 快速入门 | MCP 集成 | FAQ |
版权所有,本作品采用知识共享署名-非商业性使用 3.0 未本地化版本许可协议进行许可。转载请注明出处:https://www.wangjun.dev//2026/05/hermes-agent-install-tutorial/
