VHermesAgents:本地化自托管AI智能体平台,全流程可运维的目标驱动执行引擎
VHermesAgents是什么
VHermesAgents是一款开源、可自托管、以目标为核心驱动的AI智能体(Agent)平台。它区别于传统仅提供对话交互的AI助手,核心定位是全流程可管控、可运维、可落地的企业级与本地化智能执行系统,核心设计理念是“目标拆解—任务执行—成果交付—知识沉淀”的完整闭环。
该项目主打本地化优先、数据安全可控、全链路可观测,无需依赖外部云端大模型服务,默认集成Ollama实现本地LLM与向量嵌入能力,可在内网、隔离网络等隐私敏感环境独立运行。系统采用微服务架构,通过Go负责智能体编排、Rust负责高性能工具执行与知识进化、Vue3提供可视化控制台,形成稳定、高效、易扩展的技术体系。
VHermesAgents的核心价值在于:把模糊的业务目标,转化为可执行、可追踪、可复盘的结构化任务流,并自动沉淀可复用的知识资产,解决传统智能体“不可控、不可靠、不可运维、知识无法沉淀”的行业痛点。

功能特色
1. 目标驱动的全链路任务闭环
目标自动拆解:用户输入抽象目标(如“撰写一份产品调研报告”“完成数据清洗与可视化”),系统自动规划执行路径、拆分为子任务队列。
异步任务调度:基于RabbitMQ实现任务异步解耦,支持高并发、可重试、可追踪的分布式执行。
执行状态持久化:任务进度、日志、中间结果实时写入MySQL,支持断点续跑、历史回溯、全链路审计。
成果标准化交付:执行完成后自动打包ZIP产物,上传至MinIO并生成预签名下载链接,实现“目标—交付物”端到端闭环。
2. 安全沙箱化工具执行引擎
Rust高性能运行时:工具执行模块采用Rust开发,内存安全、执行高效、边界严格,杜绝越权访问。
多维度权限管控:
HERMES_FS_ROOT:限定文件系统访问根目录HERMES_EXEC_ENABLED:开关系统命令执行权限HERMES_GIT_ENABLED:控制Git仓库读写能力内置44+类标准化工具,支持自定义扩展与能力白名单
无主机渗透风险:所有工具运行在隔离上下文,无默认主机权限,满足企业安全合规要求。
3. 三层记忆与知识进化体系
工作记忆:当前任务上下文,动态维护执行状态与临时数据。
情景记忆:历史任务全量记录,支持全文检索与过程回溯。
语义记忆:知识进化模块自动蒸馏执行成果、去重、向量化,存入Qdrant向量库,形成可复用知识库。
闭环知识迭代:新任务自动检索历史经验,实现“执行—反思—沉淀—复用”的智能进化。
4. 本地化与私有化部署能力
本地LLM原生支持:默认对接Ollama,支持Llama 3、Qwen、GLM等开源模型本地部署,完全脱离云端API。
全组件自托管:MySQL、Qdrant、MinIO、RabbitMQ均支持Docker Compose一键部署,无外部服务依赖。
内网/离线适配:无外网请求、无数据外发、无遥测,适配政务、金融、制造等内网环境。
5. 可视化全功能运维控制台
Vue3响应式界面:现代UI设计,支持移动端适配,操作简洁直观。
核心运维模块:
目标管理:创建、编辑、启停、删除目标任务
任务监控:实时任务流、执行日志、状态统计
知识管理:向量库检索、知识条目编辑、进化日志
能力中心:工具列表、权限配置、自定义技能上传
系统监控:服务健康、队列状态、资源占用
6. 企业级可扩展性
微服务架构:API层、工具层、知识层、前端解耦,支持独立扩容与灰度更新。
标准接口开放:提供RESTful API,支持与现有系统集成、二次开发。
多模型兼容:除Ollama外,可配置对接OpenAI、DeepSeek、Kimi等云端模型,灵活切换。

技术细节
1. 整体技术架构
VHermesAgents采用四层微服务架构,各模块职责清晰、通信标准化:
接入层(Web):Vue3 + Vite + Element Plus,提供PC/移动端管理界面,通过Axios与后端API交互。
编排层(API-Go):Go语言开发HTTP/gRPC服务,核心功能:
目标解析与任务规划
任务队列调度(RabbitMQ)
状态管理与持久化(MySQL)
API网关与权限控制
执行层(Tools-RS):Rust高性能工具运行时,负责:
安全沙箱执行
文件/代码/搜索/浏览器等44+工具
异步结果回调
权限与资源限制
知识层(Knowledge-RS):Rust知识进化引擎:
成果文本蒸馏与摘要
向量嵌入生成(Ollama)
Qdrant向量库CRUD
去重、分类、索引优化
2. 核心技术栈清单
| 模块 | 技术选型 | 核心作用 |
|---|---|---|
| 后端编排 | Go 1.22+ | 高并发、低延迟、稳定可靠的API与任务调度 |
| 执行/知识引擎 | Rust 1.75+ | 内存安全、极致性能、安全沙箱、无GC |
| 前端控制台 | Vue 3 + Vite + Element Plus | 响应式UI、可视化运维、用户交互 |
| 任务队列 | RabbitMQ | 异步解耦、消息持久化、流量削峰 |
| 关系存储 | MySQL 8.0 | 目标/任务/用户/配置持久化 |
| 向量存储 | Qdrant | 高维向量检索、语义匹配、知识库管理 |
| 对象存储 | MinIO | 成果文件、附件、模型缓存存储 |
| 本地LLM | Ollama | 开源模型本地部署、对话/嵌入能力 |
| 部署方案 | Docker Compose | 一键部署、环境一致性、跨平台支持 |
3. 核心执行流程(目标生命周期)
目标创建:用户在控制台输入目标描述、设置参数(优先级、超时、权限)。
规划拆解:API-Go调用LLM生成执行计划,拆分为有序子任务列表。
任务入队:子任务推送至RabbitMQ
task_queue,标记状态PENDING。消费执行:Tools-RS消费者拉取任务,在沙箱内安全执行,实时回传日志。
状态更新:MySQL同步更新任务进度、日志、结果,支持
RUNNING/SUCCESS/FAILED/RETRY。成果交付:全部完成后,自动打包产物→上传MinIO→生成下载链接→更新目标状态。
知识进化:Knowledge-RS提取成果精华→向量化→存入Qdrant→构建索引。
4. 安全与隔离机制
文件系统隔离:通过
chroot+环境变量双重限制,工具仅能访问指定目录。系统调用过滤:Rust运行时内置白名单,禁止危险调用(如
fork/exec高危组合)。资源配额:CPU/内存/磁盘/网络带宽限制,防止资源耗尽。
超时熔断:单任务默认30分钟超时,自动终止并回收资源。
审计日志:全操作留痕,包含执行者、时间、内容、结果、IP,满足等保要求。

应用场景
1. 企业内部私有化智能助理
场景:金融、政务、医疗等数据敏感行业,禁止外发数据的内部文档处理、报表生成、合规检查、知识问答。
价值:本地部署、数据不出内网、权限严格管控、全链路审计,解决云端AI数据安全风险。
2. 研发与工程自动化
场景:代码评审、文档生成、接口测试、数据清洗、日志分析、部署辅助、技术文档自动更新。
价值:对接Git/CI/CD/数据库,安全执行命令,自动沉淀最佳实践,提升研发效率50%+。
3. 内容创作与知识管理
场景:市场调研报告、产品文档、行业分析、知识库搭建、内容审核、多语言翻译。
价值:自动收集资料→分析整理→生成初稿→迭代优化→版本管理→知识入库,全流程自动化。
4. 内网数据分析与处理
场景:企业内部报表、用户行为分析、运营数据统计、离线数据挖掘、合规数据审计。
价值:无需导出内网数据,本地直接对接数据库/文件系统,安全高效完成分析与可视化。
5. 教育与科研工具
场景:论文辅助、文献综述、数据计算、实验记录、教学材料生成、学术内容审核。
价值:离线使用、无数据泄露、自定义学术规则、沉淀领域知识、支持长期迭代。
6. 个人高效助手(隐私优先)
场景:个人日程、邮件处理、文件管理、笔记整理、计划制定、隐私内容处理。
价值:完全本地运行、数据自主掌控、无第三方监听、高度自定义、长期记忆进化。
使用方法
1. 环境要求
操作系统:Linux (Ubuntu 22.04+)/macOS 13+/Windows 11 (WSL2)
硬件配置:
最低:2核4GB内存、20GB磁盘(仅跑轻量任务)
推荐:4核16GB内存、50GB SSD(本地7B+模型)
本地LLM:显存≥8GB(推荐16GB+)
预装依赖:Git、Docker、Docker Compose(v2.20+)
2. 一键部署(推荐)
# 1. 克隆仓库 git clone https://github.com/smarttang/VHermesAgents.git cd VHermesAgents # 2. 复制环境变量模板 cp .env.example .env # 3. 编辑配置(可选) # 主要修改:OLLAMA_BASE_URL、MYSQL_PASSWORD、MINIO_ROOT_PASSWORD等 vim .env # 4. 一键启动所有服务 docker-compose up -d # 5. 查看启动日志 docker-compose logs -f # 6. 初始化完成后访问 # 前端控制台:http://localhost:5173 # API文档:http://localhost:8080/swagger # MinIO控制台:http://localhost:9001 # RabbitMQ控制台:http://localhost:15672
3. 初始化配置
访问前端:打开 http://localhost:5173
管理员账号:默认
admin@example.com/password(首次登录强制修改)模型配置:
进入「系统设置」→「模型管理」
确认Ollama地址(默认
http://ollama:11434)拉取模型:在服务器执行
docker exec -it vhermes-ollama ollama pull llama3:8b-instruct-q4_K_M工具权限:「能力中心」→「工具管理」,按需开启/关闭工具与权限
4. 快速使用流程
创建目标
点击「新建目标」
输入目标描述:如“分析2026年Q1销售数据,生成可视化报表与总结报告”
设置参数:优先级、超时时间、允许工具(文件、Excel、图表、搜索)
提交
监控执行
目标列表查看实时状态
进入详情查看任务流、日志、进度
支持手动重试失败任务
获取成果
完成后「下载产物」获取ZIP包
包含报告、图表、源数据、执行日志
知识复用
下次同类任务自动检索历史知识
「知识管理」手动查看/编辑沉淀内容
5. 常用运维命令
# 停止所有服务 docker-compose down # 重启服务 docker-compose restart # 查看服务状态 docker-compose ps # 查看所有日志 docker-compose logs -f --tail=100 # 仅查看API日志 docker-compose logs -f api-go # 备份数据(MySQL+MinIO+Qdrant) ./scripts/backup.sh # 恢复数据 ./scripts/restore.sh

竞品对比
主流AI智能体平台对比(VHermesAgents vs Dify vs OpenClaw)
| 对比维度 | VHermesAgents | Dify | OpenClaw (Hermes Agent) |
|---|---|---|---|
| 项目定位 | 本地化目标驱动智能体,全流程可运维 | 低代码LLM应用开发平台 | 自进化单智能体框架,CLI优先 |
| 核心优势 | 私有化、安全沙箱、知识闭环、内网适配 | 可视化编排、生态丰富、快速上线 | 自主技能生成、跨平台IM、轻量化 |
| 技术栈 | Go+Rust+Vue3,微服务 | Python+React,单体为主 | Python+TypeScript,CLI/多端 |
| 部署方式 | 全Docker Compose自托管 | 云端SaaS+开源部署 | 一键脚本、Docker、支持移动端 |
| 本地LLM | 原生深度集成Ollama | 支持,配置较复杂 | 支持,依赖第三方服务 |
| 数据安全 | 全链路本地、无外发、严格沙箱 | 云端版有数据风险,开源可控 | 本地可控,无强制云端 |
| 工具执行 | Rust沙箱,权限严密,无主机风险 | Python沙箱,权限一般 | 系统级执行,安全边界较弱 |
| 知识系统 | 三层记忆+闭环进化+向量库 | 文档QA+基础记忆 | 五层记忆+技能自生成 |
| 运维能力 | 可视化控制台、监控、审计、日志 | 基础监控、无系统级运维 | CLI为主,UI较弱 |
| 适用场景 | 企业内网、隐私场景、工程自动化 | 快速搭建聊天机器人、客服 | 个人助手、跨平台聊天、轻自动化 |
| 开源协议 | MIT | Apache-2.0 | MIT |
| 生态成熟度 | 新兴,专注垂直场景 | 成熟,插件丰富 | 活跃,社区增长快 |
核心差异总结:
VHermesAgents:安全可控、私有化、全链路可运维,适合企业内网与隐私敏感场景。
Dify:低代码、易上手、生态强,适合快速搭建对话类应用。
OpenClaw:轻量化、自进化、多平台,适合个人与轻量场景。
常见问题解答
Q:VHermesAgents必须联网才能使用吗?
A:不需要。系统设计为完全离线可用。首次部署拉取镜像需联网,完成后所有服务(Ollama、MySQL、Qdrant、MinIO、RabbitMQ、前端、后端)均在内网独立运行,无任何外部请求。
Q:本地部署需要什么配置?能否在普通PC上运行?
A:可以。最低配置2核4GB内存可运行基础任务;推荐4核16GB+内存,搭配8GB+显存显卡,可流畅运行Llama 3 8B等主流模型。普通办公PC(16GB内存+集显)可运行轻量模型与任务。
Q:如何更换本地LLM模型?
A:三步完成:
服务器执行Ollama拉取命令:
docker exec -it vhermes-ollama ollama pull qwen:7b前端「系统设置」→「模型管理」,添加新模型配置
目标创建时选择新模型即可
Q:工具执行是否安全?会不会感染病毒或破坏系统?
A:高度安全。工具运行在Rust沙箱内:
文件系统严格隔离,仅能访问指定目录
系统调用白名单过滤,禁止高危操作
资源配额限制,防止资源耗尽
全操作审计日志,可追溯
默认未开启高危能力,需手动配置开启。
Q:数据存储在哪里?如何备份与恢复?
A:所有数据(任务、知识、文件、配置)均存储在本地Docker卷:
关系数据:MySQL卷
向量数据:Qdrant卷
文件数据:MinIO卷
项目提供scripts/backup.sh与restore.sh,一键备份/恢复所有数据。
Q:是否支持多用户与权限管理?
A:支持。内置用户系统:
管理员:全权限
操作员:创建/执行/查看目标
观察者:仅查看
支持部门、角色、权限细粒度控制
Q:能否对接企业现有系统(如飞书、钉钉、数据库)?
A:可以。
内置HTTP/RPC工具,可调用企业内部API
支持数据库工具,直接查询内网MySQL/PostgreSQL
提供Webhook与事件通知,可接入IM/办公系统
支持自定义工具开发,深度集成现有业务

相关链接
官方文档(中文):https://github.com/smarttang/VHermesAgents/blob/main/README.zh-CN.md
Docker Compose部署配置:https://github.com/smarttang/VHermesAgents/blob/main/docker-compose.yml
总结
VHermesAgents是一款面向隐私安全、内网环境、企业级管控的开源自托管AI智能体平台,以目标驱动为核心,构建了从任务规划、安全执行、成果交付到知识进化的完整技术闭环。它采用Go+Rust+Vue3的高性能技术栈,通过微服务架构与严格的安全沙箱机制,解决了传统智能体不可控、不可靠、数据不安全的痛点。系统默认支持本地Ollama模型部署,实现全链路离线运行,适配金融、政务、医疗、研发等高隐私场景。相比Dify、OpenClaw等竞品,VHermesAgents在私有化能力、安全隔离、运维完备度、知识闭环上具备显著优势,是追求数据主权、系统可控与长期价值用户的理想选择,为企业与个人提供了一套可落地、可扩展、可持续进化的AI智能体解决方案。
版权及免责申明:本文由@AI工具集原创发布。该文章观点仅代表作者本人,不代表本站立场。本站不承担任何相关法律责任。
如若转载,请注明出处:https://www.aipuzi.cn/ai-news/vhermesagents.html

