模型无持久记忆
定义
大语言模型本身没有持久记忆能力。它更像一条计算完成就清空现场的流水线。模型之所以表现出"记得上下文",是因为每次用户发新问题时,平台都会把之前的对话记录一起打包,再连同新问题作为一份新的输入重新发给模型。
工程本质
- 每次请求都是独立计算
- 模型不保存任何历史状态
- "记忆"是通过 Context(上下文)机制模拟的
- Context 包含:用户问题、历史对话、系统设定、工具返回数据等
工程意义
- 解释模型行为:解释了为什么模型在长对话中可能"忘记"早期内容
- Context Window 的重要性:模型的"记忆"容量受 Context Window 限制
- RAG 的必要性:当需要外部知识时,不能依赖模型"记住",必须通过 RAG 注入
- 成本考量:每次请求携带的历史对话越长,Token 成本越高
与相关概念的关系
- [[Context-Window]]:模型的"记忆"容量上限
- [[RAG]]:解决模型"记不住"外部知识的工程方案
- [[Prompt-Engineering]]:通过 System Prompt 在 Context 中设定行为规则