Hermes 记忆 vs 技能
可视化交互全解
彻底厘清“失忆症”与“上下文爆炸”的底层逻辑。掌握大模型计算成本控制下的会话管理策略。
1. 冷热分离与缓存设计
本区域展示大模型系统提示词缓存(Prompt Caching)的资源分配逻辑。保持热数据轻量化,旨在保住数万 Token 系统提示词的缓存折扣。
热数据 (Memory)
高频注入 · 固定事实
- 载体:MEMORY.md
- 特性:每次对话强制注入
- 限制:4000 字符硬性截断
温数据 (Search)
按需召回 · 跨将会话
- 工具:session_search
- 机制:返回 AI 生成的摘要
- 优势:突破单窗口上下文极限
冷数据 (Skill)
意图触发 · 复杂流程
- 载体:SKILL.md 体系
- 特性:用时加载,用完即弃
- 功能:支持 patch 自我修正
系统资源消耗对比分析
2. 实战路由:事实用记忆,流程用技能
“事实用记忆,流程用技能”。通过下方的意图分类器,验证各类业务场景在系统中的标准归属路径。
意图测试器
请选择场景进行归属诊断
💡 Memory 写入范式
# 纯文本 § 分隔
公司名称:lonsun-site → 朗盛贸易
§
WSL 约束:Ubuntu 24.04
自动沉淀:记忆冲刷
当对话接近压缩阈值(50%)时,系统会自动提取长对话中的修正结论和用户偏好,并写入 MEMORY.md。
3. 跨会话搜索:连接信息孤岛
跨越所有历史窗口搜索摘要的核心指令工具。无需记忆复杂函数,直接使用自然语言。
架构回顾
"帮我查一下记忆瘦身那次聊了什么"
流程追溯
"查之前 Quartz 同步数字花园的讨论"
* 检索仅返回 200-300 字摘要,极大节省 Token。
4. 窗口生命周期与管理决策
隐藏成本:左侧显示消息数 ≠ 实际发送数。1 条指令可能触发 5-10 次工具调用。
请在左侧选择体感信号
5. 运维实战 FAQ
关于底层机制与边界控制的核心疑难解答。