type
Post
status
Published
date
Aug 17, 2025
slug
agent-memory-learning-notes
summary
我把 Agent Memory 理解成智能体从一次性助手走向长期协作者的基础能力,关键在于写入、检索、更新和遗忘机制。
tags
LLM
agent
工具
category
LLM
icon
password
🧠
这篇是我学习 Agent Memory 时整理的笔记。以前我更多关注 Agent 会不会调用工具,现在我越来越觉得,长期记忆才是 Agent 从一次性助手走向持续协作者的关键能力。
记忆像星系结构一样,需要组织、检索和持续更新
记忆像星系结构一样,需要组织、检索和持续更新

📝 主旨内容

💡 一、我为什么关注 Agent Memory

如果 Agent 每次对话都从零开始,它就很难成为真正的长期助手。
我在使用各种 Agent 工具时,经常会遇到一个问题:它能完成当前任务,但下次又忘了我的偏好、项目背景和历史决策。这样一来,我就必须反复解释同样的信息。
Agent Memory 想解决的正是这个问题。它让 Agent 能保存长期信息,在需要时检索出来,并把历史上下文用于新的任务。

🔍 二、我理解的几类记忆

我现在会把 Agent 记忆分成几类:
  • 短期记忆:当前对话里的上下文
  • 长期记忆:跨会话保存的偏好、事实和项目背景
  • 情景记忆:某次任务的过程和结果
  • 语义记忆:结构化后的知识和概念
  • 程序记忆:可复用的工作流程和操作习惯
不同记忆不能混在一起。比如用户偏好和一次任务日志的生命周期就完全不同。

🛠️ 三、我最关心记忆的质量

记住错误信息,比忘记更危险。
Agent Memory 不是简单把所有内容存进向量库。它需要判断什么值得存、什么时候更新、什么时候过期、什么内容不能保存。如果记忆里有错误或过时信息,Agent 会在后续任务里持续放大这个错误。
我会给记忆系统加这些规则
  1. 写入前先判断是否长期有用。
  1. 保存来源和时间。
  1. 支持更新和删除。
  1. 区分事实、偏好和任务记录。
  1. 敏感信息默认不写入长期记忆。

🤗 总结归纳

学习 Agent Memory 后,我更清楚长期 Agent 的基础问题:不是模型会不会回答,而是它能不能在正确时间想起正确的信息。
作为学习者,我后面会重点研究记忆写入策略、检索策略和过期机制。没有这些治理,记忆系统很容易从能力变成噪声。

📎 参考文章

 
💡
我现在的判断是:Agent Memory 不应该默认全量记录,而应该像一个有边界的知识库,只保存真正能帮助后续工作的内容。
LLM-白泽🐲用 AI 写代码是什么感觉:Claude Code 初体验
Loading...