工程架构
AI 记忆系统正在变成基础设施,而不是提示词技巧
从 2026-04-28 的 agentic-db 发布和 n8n Memori 社区节点看,长期记忆正在向数据库、工作流和托管平台下沉;真正要评估的是写入治理、召回路径、遗忘机制和可观测性。
来源说明
本文基于 2026-04-28 当天可复核的新材料和近期对照材料写成。新材料包括 Constructive 通过 PR Newswire 发布的 agentic-db 开源公告,以及 n8n 社区发布的 n8n-nodes-memori-community 节点讨论。为了避免把单一发布稿当成事实,本文同时对照 MemoriLabs/Memori 仓库、n8n 官方 memory 文档,以及 Cloudflare 在 2026-04-17 发布的 Agent Memory 技术文章。
稳定 slug:2026-04-28-agent-memory-infra-postgres-n8n。
参考来源:
- Constructive: Constructive Open Sources Agentic DB, the Postgres Memory Layer for AI Agents
- n8n Community: [Community Node] n8n-nodes-memori-community Long-term memory for n8n agents via Memori
- MemoriLabs/Memori: GitHub repository
- n8n Docs: What’s memory in AI?
- Cloudflare: Agents that remember: introducing Agent Memory
今天的新信号
今天的材料没有带来一个新的记忆算法突破,也没有出现可独立复现实验的论文结果。它更像一个工程信号:AI agent 的长期记忆正在从“应用代码里的一个模块”下沉成数据库 schema、工作流节点和云平台能力。
Constructive 的 agentic-db 公告把记忆层直接放进 Postgres 叙事里:长期记忆、会话历史、工具调用、任务队列、运行日志、技能和提示词注册表都被描述为同一个数据库架构中的表和索引能力。n8n 社区节点则从另一个方向说明同一件事:低代码/自动化工作流用户不想自己维护 agent memory pipeline,而是希望在现有 AI Agent 节点旁边接一个能跨 session 工作的 memory model。
这两条线索的共同点不是“又多了一个记忆产品”,而是记忆系统的边界在变化。过去的常见做法是:
- 把最近几轮对话塞进上下文窗口。
- 把摘要写进 Markdown 或数据库字段。
- 用向量库检索历史片段。
- 在系统提示词里要求模型“记住用户偏好”。
现在发布材料反复强调的能力则更接近基础设施:
- 写入时抽取事实、偏好、事件、任务和规则。
- 检索时混合全文、向量、实体关系或主题键。
- 对跨 session、跨 agent、跨工具的状态进行隔离和共享。
- 对 token、调用、工具结果、日志和任务执行做审计。
- 提供遗忘、更新、冲突处理或 supersession 链路。
工程上,这意味着“记忆”不再只是 prompt engineering。它开始要求数据库设计、索引策略、权限模型、可观测性和评测方法。
机制拆解:三种基础设施化路径
1. 数据库内生型:把记忆当作可查询的业务状态
agentic-db 的核心声明是“Postgres memory layer”。从公告可见,它不是只建一张 memories 表,而是试图把 agent 运行需要的多个状态面合并在数据库里:episodic memories、messages、tool calls、task orchestration、skills、rules、runtime logs、CRM/world model 等。
这个方向的优势很明确:
- 数据在企业已有的治理面里,权限、备份、迁移、审计和 SQL 查询都更容易接入。
- 结构化状态和向量检索不必分裂在多个服务之间。
- agent 可以围绕同一个数据模型完成记忆检索、任务追踪和运行复盘。
- 如果 schema 设计足够清晰,记忆可以被人审查,而不是只存在不可解释的 embedding 里。
但它也有明显风险。把一切都放进 Postgres 不等于自动获得好记忆。真正困难的部分仍然在写入决策和召回排序:
- 哪些内容应该写入长期记忆?
- 同一事实反复出现时是增强置信度、覆盖旧事实,还是保留版本链?
- 任务状态和用户偏好是否应该共享同一检索路径?
- 向量、BM25、trigram、空间索引和关系查询的权重如何调?
- agent 是否能安全写入 rules、skills 或 CRM 这类高影响状态?
如果没有清晰的写入边界,数据库型记忆会从“可查询大脑”退化成“结构化垃圾堆”。Postgres 提供的是承载能力,不是记忆质量本身。
2. 工作流接入型:把记忆作为 AI 节点旁路
n8n 社区节点的价值不在算法新颖,而在集成形态。帖子描述的做法是:通过 Memori 的代理服务把长期记忆接到 n8n AI Agent 流程里,用户需要提供 entity、process ID 和 session ID,让同一个用户、同一个 agent、同一次交互可以被归因和检索。
这类路径适合大量真实应用,因为许多团队的 agent 并不是独立框架,而是工作流系统里的一组节点:CRM 更新、工单分派、邮件回复、客服机器人、Webhook 自动化。它们的问题不是没有向量库,而是缺少“在工作流语义里稳定识别谁、哪个流程、哪次会话”的机制。
工作流型记忆要关注三个点:
- 归因是否稳定:
entity_id、process_id、session_id如果随便生成,长期记忆会碎片化。 - 插入点是否正确:记忆应该在模型调用前检索,在关键事件后写入,而不是每个节点都无差别写。
- 故障是否可降级:记忆服务不可用时,工作流应该退回无记忆执行,而不是阻塞核心业务。
n8n 官方文档把 AI memory 解释为保存历史消息以维持持续对话,并提供 Simple Memory、Redis Chat Memory、Postgres Chat Memory、Xata、Zep 等选项。社区 Memori 节点说明了一件事:用户正在从“保存聊天历史”走向“抽取结构化事实并跨 workflow 召回”。
3. 托管平台型:把记忆嵌进 agent 生命周期
Cloudflare Agent Memory 的文章提供了更完整的机制参照。它把记忆放在 compaction 生命周期里:当 agent 上下文需要压缩时,把对话交给 memory service 做批量 ingest;模型也可以通过受约束工具执行 remember、recall、forget、list。
它的几个工程选择值得关注:
- 写入前做抽取、验证、分类和去重,而不是原样保存每轮对话。
- 将 memory 分成 facts、events、instructions、tasks 等类型。
- 对 facts 和 instructions 使用 key,发生更新时 supersede 旧记忆而不是简单删除。
- 检索时并行使用 full-text、fact-key、raw message search、direct vector、HyDE vector,再用 RRF 融合。
- 对日期计算等任务用确定性逻辑,不把所有事情交给 LLM。
这套设计说明了生产记忆系统的重点:不要让主 agent 消耗上下文去设计存储策略。记忆工具面应该窄,底层 pipeline 应该承担抽取、校验、排序和过期处理。
工程判断:今天值得写的不是“谁赢了”,而是评估框架
从今天的材料看,AI 记忆系统正在出现两种竞争叙事:
- “把记忆放进你已有的数据库和工作流。”
- “把记忆交给托管平台的专用 pipeline。”
两者都合理,选择取决于系统约束。
数据库内生型适合已经有 Postgres 治理能力、需要本地部署、强审计、跨业务表联动的团队。它的关键指标不是 README 里的“支持向量搜索”,而是 schema 是否可迁移、写入是否可审计、权限是否能限制 agent 改写高风险状态。
工作流接入型适合 n8n、Zapier、自研编排器这类场景。它的关键不是记忆模型多复杂,而是 session 归因、失败降级、节点级可观测性和凭证隔离。很多业务流程只需要记住偏好、联系人、最近决策和待办事项,不需要完整知识图谱。
托管平台型适合希望快速上线、能接受供应商边界、重视 ingestion/retrieval pipeline 质量的团队。它的风险在于迁移成本、数据可导出性、调参透明度和评测是否能覆盖自己的真实任务。
适用场景
这些新基础设施最适合以下场景:
- 长周期编码 agent:需要记住项目约定、架构选择、历史 review 反馈和失败修复路径。
- 客服与销售自动化:需要跨会话记住客户偏好、交易状态、承诺事项和禁用话术。
- 团队共享助手:一个 agent 学到的工程规则要被另一个 agent 或同事复用。
- 工作流机器人:需要在多次执行间保留用户、流程和任务状态。
- 内部知识助手:需要把对话中形成的新知识变成可审查、可撤回、可检索的组织资产。
不适合的场景也要明确:
- 单轮问答或低频工具调用,没有长期状态价值。
- 强合规数据但没有权限模型、审计和删除机制。
- 记忆质量无法评估,只是为了让产品看起来“更智能”。
- 业务事实高频变化,但系统没有冲突处理和过期策略。
失败模式
记忆系统最常见的失败不是“搜不到”,而是“记错了还很自信”。
需要特别警惕这些模式:
- 过度写入:把临时任务、闲聊、错误中间结论都写进长期记忆。
- 旧事实污染:用户偏好、项目路径、API 限制已经变化,但旧记忆仍被召回。
- 归因错位:不同用户、不同 agent、不同环境的记忆混在一起。
- 检索幻觉:召回片段弱相关,模型为了回答把它解释成强证据。
- 权限越界:agent 能写入规则、联系人、任务或 CRM 状态,但缺少审批。
- benchmark 过拟合:在 LoCoMo、LongMemEval 等数据集上表现好,却无法处理真实日志中的噪声、冲突和半结构化事件。
- 无法遗忘:用户删除数据或纠正事实后,embedding、缓存、摘要和下游索引仍残留旧内容。
可验证指标
如果要把今天这些系统纳入工程评估,不应只看“是否支持 long-term memory”。至少需要设计以下指标:
- 写入精度:抽取出的 memory 中,有多少确实被源对话支持。
- 写入召回:关键偏好、事实、事件和任务有多少被漏掉。
- 冲突处理:同一事实更新后,旧事实是否被 supersede,是否仍会被召回。
- 检索命中率:针对真实任务问题,top-k memory 是否包含必要证据。
- 证据可追溯:每条 memory 是否能回到原始消息、工具调用或业务事件。
- 延迟预算:ingest 是否阻塞主流程,recall p95 是否可接受。
- token 节省:相比全历史上下文,注入 token 下降多少,回答质量是否保持。
- 隔离正确性:跨用户、跨项目、跨 agent 是否存在串记忆。
- 遗忘完整性:删除或更正后,全文索引、向量索引、摘要和缓存是否同步失效。
- 人工审查成本:运营或工程人员能否理解、编辑、回滚记忆。
这些指标比“支持 graph memory”“支持 hybrid search”更接近真实风险。
局限分析
今天的材料仍然有限。agentic-db 的信息主要来自发布稿,我没有拿到可独立核验的仓库结构、迁移文件和测试结果,因此不能把它的性能、成熟度或安全性写成事实。n8n 社区节点有清晰的使用说明和限制说明,但它是社区集成,且帖子明确指出端到端并非完全免费开源:Memori proxy 和 BYODB 可自托管,但增强 pipeline 仍依赖 Memori 服务和 API key。
因此,本文的结论不是“某个项目已经解决 AI 记忆”,而是:2026 年的 agent memory 正在从库级能力变成基础设施接口。数据库、工作流和边缘平台都在争夺同一个位置:谁来负责长期状态的写入、召回、遗忘和审计。
自审
- 事实可靠性:只引用公开发布稿、社区帖、官方文档和公开仓库;未把未验证性能宣传写成结论。
- 来源完整性:来源覆盖当天发布、社区讨论、官方文档、仓库和近期平台技术文章。
- 原创性:本文重点是机制归类、工程取舍和评估指标,不复述 README 或发布稿。
- 标题风险:标题表达趋势判断,不宣称突破或胜负。
- 薄内容检查:包含技术问题、机制拆解、适用场景、失败模式和可验证指标。
- 猜测边界:对 agentic-db 的仓库级实现明确标注为未独立核验。
- 站内重复:当前站点尚无公开文章,不存在重复选题。