Hermes 记忆 vs 技能
可视化交互全解

彻底厘清“失忆症”与“上下文爆炸”的底层逻辑。掌握大模型计算成本控制下的会话管理策略。

1. 冷热分离与缓存设计

本区域展示大模型系统提示词缓存(Prompt Caching)的资源分配逻辑。保持热数据轻量化,旨在保住数万 Token 系统提示词的缓存折扣。

🔥

热数据 (Memory)

高频注入 · 固定事实

  • 载体:MEMORY.md
  • 特性:每次对话强制注入
  • 限制:4000 字符硬性截断
🌡️

温数据 (Search)

按需召回 · 跨将会话

  • 工具:session_search
  • 机制:返回 AI 生成的摘要
  • 优势:突破单窗口上下文极限
❄️

冷数据 (Skill)

意图触发 · 复杂流程

  • 载体:SKILL.md 体系
  • 特性:用时加载,用完即弃
  • 功能:支持 patch 自我修正

系统资源消耗对比分析

2. 实战路由:事实用记忆,流程用技能

“事实用记忆,流程用技能”。通过下方的意图分类器,验证各类业务场景在系统中的标准归属路径。

意图测试器

请选择场景进行归属诊断

💡 Memory 写入范式

# 纯文本 § 分隔

公司名称:lonsun-site → 朗盛贸易

§

WSL 约束:Ubuntu 24.04

自动沉淀:记忆冲刷

当对话接近压缩阈值(50%)时,系统会自动提取长对话中的修正结论和用户偏好,并写入 MEMORY.md。

4. 窗口生命周期与管理决策

隐藏成本:左侧显示消息数 ≠ 实际发送数。1 条指令可能触发 5-10 次工具调用。

请在左侧选择体感信号

5. 运维实战 FAQ

关于底层机制与边界控制的核心疑难解答。