核心概念
概述
MOS (记忆操作系统)
定义 MOS 是 MemOS 的编排调度层,负责协调多个 MemCube 与各类记忆操作。它作为中间件,将 LLM 与结构化、可解释的记忆系统连接起来,以支持复杂的推理与规划任务。
使用场景 当您需要在用户、会话或智能体之间建立一致、可审计且可追溯的记忆工作流时,应使用 MOS 进行统一调度。
MemCube
定义 MemCube 是 MemOS 中的可插拔、可扩展记忆容器。每个用户、会话或任务均可分配独立的 MemCube,其中可承载一种或多种类型的记忆。
使用场景 随着系统规模增长,可通过配置不同的 MemCube 实现记忆的隔离、复用与水平扩展。
记忆类型
MemOS 将记忆视为动态演化的知识系统,而非静态数据存储。其核心记忆类型如下:
| 记忆类型 | 描述 | 何时使用 |
|---|---|---|
| 参数记忆 | 内化至模型权重的知识 | 常青技能、稳定领域专业知识 |
| 激活记忆 | 可复用的 KV 缓存与隐藏状态 | 对话中的快速重用、多轮会话 |
| 明文记忆 | 文本、文档、图节点、工具或偏好等 | 可搜索、可检查、演进知识 |
参数记忆
定义 参数记忆指固化在模型权重中的知识,可视为模型的“长期记忆”。它始终在线,为推理任务提供零延迟的知识支持。
使用场景 适用于稳定的领域知识、经过提炼的通用问题解法以及不易变化的操作技能。
激活记忆
定义 激活记忆是模型可复用的“工作记忆”,包括预先计算的键值缓存(KV Cache)与隐藏状态,可直接注入注意力机制中,避免对重复内容的重复编码。
为什么重要: 将稳定的上下文信息(如产品说明、操作指南)以 KV Cache 形式存储,可大幅降低首词元延迟(TTFT),并提升多轮对话与检索增强生成(RAG)的吞吐效率。
何时使用:
- 在连续查询中复用背景知识
- 加速基于固定上下文的对话系统
- 配合 MemScheduler 将高频明文记忆自动转换为 KV 缓存
明文记忆
定义 结构化或非结构化的知识单元,具有用户可见性和可解释性。除了传统的文档、聊天日志、图节点和向量嵌入外,MemOS 还将以下内容视为明文记忆:
- 工具记忆 (Tool Memory):包括工具的定义 (Schema) 和使用轨迹 (Trajectory),用于增强智能体(Agent)的工具调用能力。
- 偏好记忆 (Preference Memory):显式或隐式的用户偏好,用于个性化推荐和响应。
使用场景 适用于语义搜索、个性化体验构建、复杂任务的工具增强以及随时间演进的可追溯事实。支持标签、来源追踪和完整的生命周期管理。
它们如何协同工作
MemOS 让您在生命周期循环中调度所有三种记忆类型:
- 提炼过程:高频使用的明文记忆可被蒸馏为参数记忆,提升推理效率。
- 缓存优化:常见推理路径可固化为可复用的 KV 模板,减少重复计算。
- 降级归档:使用频率降低的参数或激活记忆可降级为明文存储,便于审计与再训练。
借助 MemOS,您的 AI 系统不仅能存储信息,更能实现持续记忆、深度理解和自主进化。
- 随着时间的推移,频繁使用的明文记忆可以提炼为参数记忆。
- 低频参数或缓存则可归档为明文,形成可审计、可再训练的知识闭环。
横切概念
混合检索
结合向量相似性检索和图遍历算法,实现稳健且具有上下文感知能力的混合搜索。
治理与生命周期
每个记忆单元都具备完整的生命周期状态(激活、合并、归档),并支持来源跟踪和细粒度访问控制,这对满足审计和数据合规性要求至关重要。
请确保对每个记忆单元的来源与状态变更进行完整记录,以符合数据治理与审计规范。
关键要点
MemOS 为您的 LLM 应用提供结构化、可演进、可治理的记忆系统,使智能体能够进行长远规划、复杂推理与持续自适应,释放下一代 AI 应用的真正潜力。