10+年产品经理聊聊产品、测测产品,产品人交流学习成长平台,按 Ctrl+D 收藏我们
关于我 留言板 小程序 标签云

苏米客

  • 首页
  • AIGC
    • AI最新动态
    • AI学习教程
    • AI工具集合
    • AI产品百科
    • AI编程开发
    • AI提示词
    • AI开源项目
    • AI智能体
  • Axure
    • Axure动态
    • Axure教程
  • 产品
    • 用户体验
    • 产品设计
    • 苏米杂谈
  • 资源
    • 产品UI组件库
    • 开源图标库
    • 中后台框架
  • 书单
    • AI书籍
    • 用户体验
    • UI视觉
    • 产品研究
    • 其他类型
  • 下载
    • Axure组件
    • Axure原型
    • 文档报告
    • 素材资源
  • 登录
  • 首页
  • AIGC
    • AI最新动态
    • AI学习教程
    • AI工具集合
    • AI产品百科
    • AI编程开发
    • AI提示词
    • AI开源项目
    • AI智能体
  • Axure
    • Axure动态
    • Axure教程
  • 产品
    • 用户体验
    • 产品设计
    • 苏米杂谈
  • 资源
    • 产品UI组件库
    • 开源图标库
    • 中后台框架
  • 书单
    • AI书籍
    • 用户体验
    • UI视觉
    • 产品研究
    • 其他类型
  • 下载
    • Axure组件
    • Axure原型
    • 文档报告
    • 素材资源
当前位置: 首页 » 苏米杂谈

通俗解读:大模型的短期记忆与长期记忆

2周前 苏米杂谈 316 0

今天深度聊一聊一个被频繁问到的问题:智能体里的 Memory(记忆)到底分为短期记忆(Short-term memory)和长期记忆(Long-term memory)两类,它们分别指什么、差别在哪、又是如何实现的?

一、先搭个框架:智能体的“大脑”和“记忆”

按照《LLM Powered Autonomous Agents》的划分,大语言模型(LLM)在自主智能体中相当于“大脑”,它与规划、工具和记忆等关键组件协同工作。其中,“记忆”又细分为短期与长期两部分,分别承担不同的角色。

二、短期记忆:只在当前会话里的记忆

它是什么:短期记忆可以理解为智能体在单一会话中维持的即时上下文能力。

工作原理:完全依赖大模型的“上下文窗口”。智能体会把此前的对话历史、以及中间推理步骤(如 Chain of Thought)拼进 Prompt,一并提交给模型。

天然局限:对话越长,越早的信息越容易被“挤”出上下文窗口,从而被丢弃或“遗忘”。

常见缓解方法:

  • 滑动窗口:只保留最近的若干轮对话。
  • 摘要法:把更早的大段对话浓缩成简短摘要,给新内容腾出窗口空间。

本质上怎么实现:短期记忆是通过“请求参数”维持的——我们在每次请求时附带上此前的对话历史,模型才知道“你们之前聊过什么”。

实操示例:以 Cherry Studio 为例

在 Cherry Studio 里,无论是默认助手还是自定义助手,模型设置中都会显示“上下文数”。

这代表能携带进当前请求的历史轮次。

比如你依次提问:“你好” →(第二个问题略)→ “很好” → “不需要”。

当对话轮次超过设置的“上下文数”时,最早那轮(如第一句“你好”)就可能被丢弃,模型在新一轮回答中不再能看到它。

小提示:点击 Cherry Studio 客户端窗口后,按快捷键 Ctrl + Shift + I(Mac:Command + Option + I)可打开控制台,查看请求过程与上下文携带情况。

为什么不把“上下文数”拉满?

成本上升:多数大模型按输入与输出的 tokens 计费。上下文越长,费用越高。

参考定价:DeepSeek 计费说明。

效果可能变差:上下文超长时,很多模型的综合能力反而会下降。

可参考研究:Context matters: how long contexts affect models。

会话隔离:短期记忆是“随请求带历史”的机制,不同会话之间不能自动共享关键信息。

三、长期记忆:跨会话、跨时间的“持久存档”

它是什么:允许智能体存储、检索并利用跨越数天、数月甚至数年的信息。

实现思路(RAG):通常采用检索增强生成(RAG)。智能体把重要信息向量化(Embeddings)并存入数据库,回答时通过语义匹配检索相关片段,再提供给大模型参考。

常见分类:

  • 情境记忆(Episodic Memory):记录具体“经历”。例如:“用户上周二在上海出差,提到喜欢当地咖啡”。
  • 语义记忆(Semantic Memory):存储抽象“事实”。例如:“用户对花生过敏”。
  • 程序记忆(Procedural Memory):沉淀“技能/SOP”。例如:学会调用某个特定 API 的步骤。

实操示例:Cherry Studio 的“全局记忆”

Cherry Studio 通过“全局记忆”实现长期记忆。

你既可以手动添加,也可以在智能体中开启自动记忆,让系统判断哪些信息需要保存并持久化。

使用方式:在全局设置中开启“全局记忆”。

对话流程:用户发起对话时,系统会调用 Memory_Search 工具检索可能相关的记忆,把它们加入上下文,辅助大模型更好地回答。

异步更新:回答完成后,系统会异步提取本次对话中的关键信息,如需新增、修改或删除记忆,会通过对应工具进行处理。

更多实现细节可参考 Cherry Studio 源码:https://github.com/CherryHQ/cherry-studio

长期记忆也有坑

  • 自动记忆可能出错:若 AI 未与用户确认便自行写入记忆,可能留下错误信息。
  • 不当“对齐”:部分模型在回答时会过度依赖检索到的记忆,导致结果跑偏,不符合用户当前意图。

一句话总结

短期记忆:靠在请求时携带“对话历史”实现,仅在当前会话内生效;窗口受限、成本与效果需权衡。

长期记忆:通过持久化存储(如向量数据库)和检索技术实现,可跨会话、跨时间复用信息。

声明:本站原创文章文字版权归本站所有,转载务必注明作者和出处;本站转载文章仅仅代表原作者观点,不代表本站立场,图文版权归原作者所有。如有侵权,请联系我们删除。
未经允许不得转载:通俗解读:大模型的短期记忆与长期记忆
#短期记忆 #长期记忆 #向量数据库 
收藏 1
手把手教你用阿里云服务器+百炼Coding Plan,超低成本搭建OpenClaw智能助手实操指南
ClawForce:在OpenClaw 企业化落地,Agent企业化落地方案
推荐阅读
  • 用Cursor开发的血泪教训:一个产品经理的实战心得
  • 顶级模型没用、普通模型起飞,OpenCode 值不值得用?
  • 从精通 Axure 到用 Prompt 画原型:一个产品经理的思维重构
  • 从聊天到行动:AI Agent时代的三大基础设施
  • 从盲盒到茅台,年轻人正在重写消费逻辑:情绪价值成了刚需
评论 (0)
请登录后发表评论
分类精选
产品经理原型设计指南:产品经理如何快速绘制高质量原型?(附步骤与资源)
89989 1年前
AI 开发提速了 70%?为什么最后的 30% 仍然要靠人
6052 5月前
一文看懂所有产品经理岗位:从功能到AI,从C端到B端
5103 9月前
从Kiro官方定价看AI编程工具:20美元包月套餐正在成为过去式
4021 7月前
我把KISS复盘法交给AI,它变成了我的思维教练
3973 5月前
AI 编程正在重塑产品经理
3939 5月前
聊一聊产品规划指南:从定义到执行,全面解读方法与工具
2726 1年前
Dify:帮AI产品经理迈出的第一步
2720 5月前
Bento Grid “便当盒子”网格布局风格探索:Bento风PPT实战
2563 9月前
2025 年我实测的 AI 编程工具选型建议(Cursor、Claude Code、Codex、Lovable、v0)
2557 4月前

文章目录

关注「苏米客」公众号

订阅推送更及时,手机查看更方便
分类排行
1 Anthropic官方报告:AI编程8大趋势与我的落地手记
2 用OpenClaw 搭建28个跨境电商数字员工,从内容生产到数据优化全流程
3 别再把Agent当玩具,用 OpenClaw 跑通跨境电商10个自动化场景
4 别把时间耗在选择上:OpenClaw 新手10问10答,部署路线推荐(直接照抄)
5 装个 OpenClaw 收 500,简直就是智商税,真正值钱的是你会不会用 OpenClaw?
6 热搜退场,用户未散:Cursor没凉,是叙事中心换人了
7 为什么你用不好OpenClaw?不是OpenClaw不聪明,而你是没理解什么是Agent!
8 把 AI 当同事:2026 AI 应用最佳学习实践路线图(工具、心法、落地、趋势)
9 抛弃数据库和向量存储的AI记忆系统架构选择
10 深挖OpenClaw,发现这才是超级个体的正确玩法
©2015-2024 苏米客XMSUMI 版权所有 · WWW.XMSUMI.COM 闽ICP备14005900号-6
微信文章助手 程序库 免费影视APP 免费字体下载 Axure RP 10 免费Axure模板 Axure元件库下载 申请友联