VHermesAgents:本地化自托管AI智能体平台,全流程可运维的目标驱动执行引擎

原创 发布日期:
71

VHermesAgents是什么

VHermesAgents是一款开源、可自托管、以目标为核心驱动的AI智能体(Agent)平台。它区别于传统仅提供对话交互的AI助手,核心定位是全流程可管控、可运维、可落地的企业级与本地化智能执行系统,核心设计理念是“目标拆解—任务执行—成果交付—知识沉淀”的完整闭环。

该项目主打本地化优先、数据安全可控、全链路可观测,无需依赖外部云端大模型服务,默认集成Ollama实现本地LLM与向量嵌入能力,可在内网、隔离网络等隐私敏感环境独立运行。系统采用微服务架构,通过Go负责智能体编排、Rust负责高性能工具执行与知识进化、Vue3提供可视化控制台,形成稳定、高效、易扩展的技术体系。

VHermesAgents的核心价值在于:把模糊的业务目标,转化为可执行、可追踪、可复盘的结构化任务流,并自动沉淀可复用的知识资产,解决传统智能体“不可控、不可靠、不可运维、知识无法沉淀”的行业痛点。

VHermesAgents:本地化自托管AI智能体平台,全流程可运维的目标驱动执行引擎

功能特色

1. 目标驱动的全链路任务闭环

  • 目标自动拆解:用户输入抽象目标(如“撰写一份产品调研报告”“完成数据清洗与可视化”),系统自动规划执行路径、拆分为子任务队列。

  • 异步任务调度:基于RabbitMQ实现任务异步解耦,支持高并发、可重试、可追踪的分布式执行。

  • 执行状态持久化:任务进度、日志、中间结果实时写入MySQL,支持断点续跑、历史回溯、全链路审计。

  • 成果标准化交付:执行完成后自动打包ZIP产物,上传至MinIO并生成预签名下载链接,实现“目标—交付物”端到端闭环。

2. 安全沙箱化工具执行引擎

  • Rust高性能运行时:工具执行模块采用Rust开发,内存安全、执行高效、边界严格,杜绝越权访问。

  • 多维度权限管控

    • HERMES_FS_ROOT:限定文件系统访问根目录

    • HERMES_EXEC_ENABLED:开关系统命令执行权限

    • HERMES_GIT_ENABLED:控制Git仓库读写能力

    • 内置44+类标准化工具,支持自定义扩展与能力白名单

  • 无主机渗透风险:所有工具运行在隔离上下文,无默认主机权限,满足企业安全合规要求。

3. 三层记忆与知识进化体系

  • 工作记忆:当前任务上下文,动态维护执行状态与临时数据。

  • 情景记忆:历史任务全量记录,支持全文检索与过程回溯。

  • 语义记忆:知识进化模块自动蒸馏执行成果、去重、向量化,存入Qdrant向量库,形成可复用知识库。

  • 闭环知识迭代:新任务自动检索历史经验,实现“执行—反思—沉淀—复用”的智能进化。

4. 本地化与私有化部署能力

  • 本地LLM原生支持:默认对接Ollama,支持Llama 3、Qwen、GLM等开源模型本地部署,完全脱离云端API。

  • 全组件自托管:MySQL、Qdrant、MinIO、RabbitMQ均支持Docker Compose一键部署,无外部服务依赖。

  • 内网/离线适配:无外网请求、无数据外发、无遥测,适配政务、金融、制造等内网环境。

5. 可视化全功能运维控制台

  • Vue3响应式界面:现代UI设计,支持移动端适配,操作简洁直观。

  • 核心运维模块

    • 目标管理:创建、编辑、启停、删除目标任务

    • 任务监控:实时任务流、执行日志、状态统计

    • 知识管理:向量库检索、知识条目编辑、进化日志

    • 能力中心:工具列表、权限配置、自定义技能上传

    • 系统监控:服务健康、队列状态、资源占用

6. 企业级可扩展性

  • 微服务架构:API层、工具层、知识层、前端解耦,支持独立扩容与灰度更新。

  • 标准接口开放:提供RESTful API,支持与现有系统集成、二次开发。

  • 多模型兼容:除Ollama外,可配置对接OpenAI、DeepSeek、Kimi等云端模型,灵活切换。

VHermesAgents:本地化自托管AI智能体平台,全流程可运维的目标驱动执行引擎

技术细节

1. 整体技术架构

VHermesAgents采用四层微服务架构,各模块职责清晰、通信标准化:

  • 接入层(Web):Vue3 + Vite + Element Plus,提供PC/移动端管理界面,通过Axios与后端API交互。

  • 编排层(API-Go):Go语言开发HTTP/gRPC服务,核心功能:

    • 目标解析与任务规划

    • 任务队列调度(RabbitMQ)

    • 状态管理与持久化(MySQL)

    • API网关与权限控制

  • 执行层(Tools-RS):Rust高性能工具运行时,负责:

    • 安全沙箱执行

    • 文件/代码/搜索/浏览器等44+工具

    • 异步结果回调

    • 权限与资源限制

  • 知识层(Knowledge-RS):Rust知识进化引擎:

    • 成果文本蒸馏与摘要

    • 向量嵌入生成(Ollama)

    • Qdrant向量库CRUD

    • 去重、分类、索引优化

2. 核心技术栈清单

模块 技术选型 核心作用
后端编排 Go 1.22+ 高并发、低延迟、稳定可靠的API与任务调度
执行/知识引擎 Rust 1.75+ 内存安全、极致性能、安全沙箱、无GC
前端控制台 Vue 3 + Vite + Element Plus 响应式UI、可视化运维、用户交互
任务队列 RabbitMQ 异步解耦、消息持久化、流量削峰
关系存储 MySQL 8.0 目标/任务/用户/配置持久化
向量存储 Qdrant 高维向量检索、语义匹配、知识库管理
对象存储 MinIO 成果文件、附件、模型缓存存储
本地LLM Ollama 开源模型本地部署、对话/嵌入能力
部署方案 Docker Compose 一键部署、环境一致性、跨平台支持

3. 核心执行流程(目标生命周期)

  1. 目标创建:用户在控制台输入目标描述、设置参数(优先级、超时、权限)。

  2. 规划拆解:API-Go调用LLM生成执行计划,拆分为有序子任务列表。

  3. 任务入队:子任务推送至RabbitMQ task_queue,标记状态PENDING

  4. 消费执行:Tools-RS消费者拉取任务,在沙箱内安全执行,实时回传日志。

  5. 状态更新:MySQL同步更新任务进度、日志、结果,支持RUNNING/SUCCESS/FAILED/RETRY

  6. 成果交付:全部完成后,自动打包产物→上传MinIO→生成下载链接→更新目标状态。

  7. 知识进化:Knowledge-RS提取成果精华→向量化→存入Qdrant→构建索引。

4. 安全与隔离机制

  • 文件系统隔离:通过chroot+环境变量双重限制,工具仅能访问指定目录。

  • 系统调用过滤:Rust运行时内置白名单,禁止危险调用(如fork/exec高危组合)。

  • 资源配额:CPU/内存/磁盘/网络带宽限制,防止资源耗尽。

  • 超时熔断:单任务默认30分钟超时,自动终止并回收资源。

  • 审计日志:全操作留痕,包含执行者、时间、内容、结果、IP,满足等保要求。

VHermesAgents:本地化自托管AI智能体平台,全流程可运维的目标驱动执行引擎

应用场景

1. 企业内部私有化智能助理

  • 场景:金融、政务、医疗等数据敏感行业,禁止外发数据的内部文档处理、报表生成、合规检查、知识问答。

  • 价值:本地部署、数据不出内网、权限严格管控、全链路审计,解决云端AI数据安全风险。

2. 研发与工程自动化

  • 场景:代码评审、文档生成、接口测试、数据清洗、日志分析、部署辅助、技术文档自动更新。

  • 价值:对接Git/CI/CD/数据库,安全执行命令,自动沉淀最佳实践,提升研发效率50%+。

3. 内容创作与知识管理

  • 场景:市场调研报告、产品文档、行业分析、知识库搭建、内容审核、多语言翻译。

  • 价值:自动收集资料→分析整理→生成初稿→迭代优化→版本管理→知识入库,全流程自动化。

4. 内网数据分析与处理

  • 场景:企业内部报表、用户行为分析、运营数据统计、离线数据挖掘、合规数据审计。

  • 价值:无需导出内网数据,本地直接对接数据库/文件系统,安全高效完成分析与可视化。

5. 教育与科研工具

  • 场景:论文辅助、文献综述、数据计算、实验记录、教学材料生成、学术内容审核。

  • 价值:离线使用、无数据泄露、自定义学术规则、沉淀领域知识、支持长期迭代。

6. 个人高效助手(隐私优先)

  • 场景:个人日程、邮件处理、文件管理、笔记整理、计划制定、隐私内容处理。

  • 价值:完全本地运行、数据自主掌控、无第三方监听、高度自定义、长期记忆进化。

使用方法

1. 环境要求

  • 操作系统:Linux (Ubuntu 22.04+)/macOS 13+/Windows 11 (WSL2)

  • 硬件配置

    • 最低:2核4GB内存、20GB磁盘(仅跑轻量任务)

    • 推荐:4核16GB内存、50GB SSD(本地7B+模型)

    • 本地LLM:显存≥8GB(推荐16GB+)

  • 预装依赖:Git、Docker、Docker Compose(v2.20+)

2. 一键部署(推荐)

# 1. 克隆仓库
git clone https://github.com/smarttang/VHermesAgents.git
cd VHermesAgents

# 2. 复制环境变量模板
cp .env.example .env

# 3. 编辑配置(可选)
# 主要修改:OLLAMA_BASE_URL、MYSQL_PASSWORD、MINIO_ROOT_PASSWORD等
vim .env

# 4. 一键启动所有服务
docker-compose up -d

# 5. 查看启动日志
docker-compose logs -f

# 6. 初始化完成后访问
# 前端控制台:http://localhost:5173
# API文档:http://localhost:8080/swagger
# MinIO控制台:http://localhost:9001
# RabbitMQ控制台:http://localhost:15672

3. 初始化配置

  1. 访问前端:打开 http://localhost:5173

  2. 管理员账号:默认 admin@example.com / password(首次登录强制修改)

  3. 模型配置

    • 进入「系统设置」→「模型管理」

    • 确认Ollama地址(默认 http://ollama:11434

    • 拉取模型:在服务器执行 docker exec -it vhermes-ollama ollama pull llama3:8b-instruct-q4_K_M

  4. 工具权限:「能力中心」→「工具管理」,按需开启/关闭工具与权限

4. 快速使用流程

  1. 创建目标

    • 点击「新建目标」

    • 输入目标描述:如“分析2026年Q1销售数据,生成可视化报表与总结报告”

    • 设置参数:优先级、超时时间、允许工具(文件、Excel、图表、搜索)

    • 提交

  2. 监控执行

    • 目标列表查看实时状态

    • 进入详情查看任务流、日志、进度

    • 支持手动重试失败任务

  3. 获取成果

    • 完成后「下载产物」获取ZIP包

    • 包含报告、图表、源数据、执行日志

  4. 知识复用

    • 下次同类任务自动检索历史知识

    • 「知识管理」手动查看/编辑沉淀内容

5. 常用运维命令

# 停止所有服务
docker-compose down

# 重启服务
docker-compose restart

# 查看服务状态
docker-compose ps

# 查看所有日志
docker-compose logs -f --tail=100

# 仅查看API日志
docker-compose logs -f api-go

# 备份数据(MySQL+MinIO+Qdrant)
./scripts/backup.sh

# 恢复数据
./scripts/restore.sh

VHermesAgents:本地化自托管AI智能体平台,全流程可运维的目标驱动执行引擎

竞品对比

主流AI智能体平台对比(VHermesAgents vs Dify vs OpenClaw)

对比维度VHermesAgentsDifyOpenClaw (Hermes Agent)
项目定位 本地化目标驱动智能体,全流程可运维 低代码LLM应用开发平台 自进化单智能体框架,CLI优先
核心优势 私有化、安全沙箱、知识闭环、内网适配 可视化编排、生态丰富、快速上线 自主技能生成、跨平台IM、轻量化
技术栈 Go+Rust+Vue3,微服务 Python+React,单体为主 Python+TypeScript,CLI/多端
部署方式 全Docker Compose自托管 云端SaaS+开源部署 一键脚本、Docker、支持移动端
本地LLM 原生深度集成Ollama 支持,配置较复杂 支持,依赖第三方服务
数据安全 全链路本地、无外发、严格沙箱 云端版有数据风险,开源可控 本地可控,无强制云端
工具执行 Rust沙箱,权限严密,无主机风险 Python沙箱,权限一般 系统级执行,安全边界较弱
知识系统 三层记忆+闭环进化+向量库 文档QA+基础记忆 五层记忆+技能自生成
运维能力 可视化控制台、监控、审计、日志 基础监控、无系统级运维 CLI为主,UI较弱
适用场景 企业内网、隐私场景、工程自动化 快速搭建聊天机器人、客服 个人助手、跨平台聊天、轻自动化
开源协议 MIT Apache-2.0 MIT
生态成熟度 新兴,专注垂直场景 成熟,插件丰富 活跃,社区增长快

核心差异总结

  • VHermesAgents安全可控、私有化、全链路可运维,适合企业内网与隐私敏感场景。

  • Dify低代码、易上手、生态强,适合快速搭建对话类应用。

  • OpenClaw轻量化、自进化、多平台,适合个人与轻量场景。

常见问题解答

Q:VHermesAgents必须联网才能使用吗?

A:不需要。系统设计为完全离线可用。首次部署拉取镜像需联网,完成后所有服务(Ollama、MySQL、Qdrant、MinIO、RabbitMQ、前端、后端)均在内网独立运行,无任何外部请求。

Q:本地部署需要什么配置?能否在普通PC上运行?

A:可以。最低配置2核4GB内存可运行基础任务;推荐4核16GB+内存,搭配8GB+显存显卡,可流畅运行Llama 3 8B等主流模型。普通办公PC(16GB内存+集显)可运行轻量模型与任务。

Q:如何更换本地LLM模型?

A:三步完成:

  1. 服务器执行Ollama拉取命令:docker exec -it vhermes-ollama ollama pull qwen:7b

  2. 前端「系统设置」→「模型管理」,添加新模型配置

  3. 目标创建时选择新模型即可

Q:工具执行是否安全?会不会感染病毒或破坏系统?

A:高度安全。工具运行在Rust沙箱内:

  • 文件系统严格隔离,仅能访问指定目录

  • 系统调用白名单过滤,禁止高危操作

  • 资源配额限制,防止资源耗尽

  • 全操作审计日志,可追溯
    默认未开启高危能力,需手动配置开启。

Q:数据存储在哪里?如何备份与恢复?

A:所有数据(任务、知识、文件、配置)均存储在本地Docker卷:

  • 关系数据:MySQL卷

  • 向量数据:Qdrant卷

  • 文件数据:MinIO卷
    项目提供scripts/backup.shrestore.sh,一键备份/恢复所有数据。

Q:是否支持多用户与权限管理?

A:支持。内置用户系统:

  • 管理员:全权限

  • 操作员:创建/执行/查看目标

  • 观察者:仅查看

  • 支持部门、角色、权限细粒度控制

Q:能否对接企业现有系统(如飞书、钉钉、数据库)?

A:可以

  1. 内置HTTP/RPC工具,可调用企业内部API

  2. 支持数据库工具,直接查询内网MySQL/PostgreSQL

  3. 提供Webhook与事件通知,可接入IM/办公系统

  4. 支持自定义工具开发,深度集成现有业务

VHermesAgents:本地化自托管AI智能体平台,全流程可运维的目标驱动执行引擎

相关链接

总结

VHermesAgents是一款面向隐私安全、内网环境、企业级管控的开源自托管AI智能体平台,以目标驱动为核心,构建了从任务规划、安全执行、成果交付到知识进化的完整技术闭环。它采用Go+Rust+Vue3的高性能技术栈,通过微服务架构与严格的安全沙箱机制,解决了传统智能体不可控、不可靠、数据不安全的痛点。系统默认支持本地Ollama模型部署,实现全链路离线运行,适配金融、政务、医疗、研发等高隐私场景。相比Dify、OpenClaw等竞品,VHermesAgents在私有化能力、安全隔离、运维完备度、知识闭环上具备显著优势,是追求数据主权、系统可控与长期价值用户的理想选择,为企业与个人提供了一套可落地、可扩展、可持续进化的AI智能体解决方案。

打赏
THE END
作者头像
AI工具集
工具不孤岛,AI集大成——这里有你要的一切智能解法