核心概念

MemOS 将记忆视为一等资源。其核心设计围绕如何为您的 LLM 应用程序组织、存储、检索和治理记忆。

概述

MOS (记忆操作系统)

定义 MOS 是 MemOS 的编排调度层,负责协调多个 MemCube 与各类记忆操作。它作为中间件,将 LLM 与结构化、可解释的记忆系统连接起来,以支持复杂的推理与规划任务。

使用场景 当您需要在用户、会话或智能体之间建立一致、可审计且可追溯的记忆工作流时,应使用 MOS 进行统一调度。

MemCube

定义 MemCube 是 MemOS 中的可插拔、可扩展记忆容器。每个用户、会话或任务均可分配独立的 MemCube,其中可承载一种或多种类型的记忆。

使用场景 随着系统规模增长,可通过配置不同的 MemCube 实现记忆的隔离、复用与水平扩展。

记忆类型

MemOS 将记忆视为动态演化的知识系统,而非静态数据存储。其核心记忆类型如下:

记忆类型描述何时使用
参数记忆内化至模型权重的知识常青技能、稳定领域专业知识
激活记忆可复用的 KV 缓存与隐藏状态对话中的快速重用、多轮会话
明文记忆文本、文档、图节点、工具或偏好等可搜索、可检查、演进知识

参数记忆

定义 参数记忆指固化在模型权重中的知识,可视为模型的“长期记忆”。它始终在线,为推理任务提供零延迟的知识支持。

使用场景 适用于稳定的领域知识、经过提炼的通用问题解法以及不易变化的操作技能。

激活记忆

定义 激活记忆是模型可复用的“工作记忆”,包括预先计算的键值缓存(KV Cache)与隐藏状态,可直接注入注意力机制中,避免对重复内容的重复编码。

为什么重要: 将稳定的上下文信息(如产品说明、操作指南)以 KV Cache 形式存储,可大幅降低首词元延迟(TTFT),并提升多轮对话与检索增强生成(RAG)的吞吐效率。

何时使用:

  • 在连续查询中复用背景知识
  • 加速基于固定上下文的对话系统
  • 配合 MemScheduler 将高频明文记忆自动转换为 KV 缓存

明文记忆

定义 结构化或非结构化的知识单元,具有用户可见性和可解释性。除了传统的文档、聊天日志、图节点和向量嵌入外,MemOS 还将以下内容视为明文记忆:

  • 工具记忆 (Tool Memory):包括工具的定义 (Schema) 和使用轨迹 (Trajectory),用于增强智能体(Agent)的工具调用能力。
  • 偏好记忆 (Preference Memory):显式或隐式的用户偏好,用于个性化推荐和响应。

使用场景 适用于语义搜索、个性化体验构建、复杂任务的工具增强以及随时间演进的可追溯事实。支持标签、来源追踪和完整的生命周期管理。

它们如何协同工作

MemOS 让您在生命周期循环中调度所有三种记忆类型:

  • 提炼过程:高频使用的明文记忆可被蒸馏为参数记忆,提升推理效率。
  • 缓存优化:常见推理路径可固化为可复用的 KV 模板,减少重复计算。
  • 降级归档:使用频率降低的参数或激活记忆可降级为明文存储,便于审计与再训练。

借助 MemOS,您的 AI 系统不仅能存储信息,更能实现持续记忆深度理解自主进化

系统洞察
  • 随着时间的推移,频繁使用的明文记忆可以提炼为参数记忆。
  • 低频参数或缓存则可归档为明文,形成可审计、可再训练的知识闭环。

横切概念

混合检索

结合向量相似性检索和图遍历算法,实现稳健且具有上下文感知能力的混合搜索。

治理与生命周期

每个记忆单元都具备完整的生命周期状态(激活、合并、归档),并支持来源跟踪和细粒度访问控制,这对满足审计和数据合规性要求至关重要。

合规提示
请确保对每个记忆单元的来源与状态变更进行完整记录,以符合数据治理与审计规范。

关键要点

MemOS 为您的 LLM 应用提供结构化、可演进、可治理的记忆系统,使智能体能够进行长远规划、复杂推理与持续自适应,释放下一代 AI 应用的真正潜力。