文字接龙引擎
定义
对 LLM 核心工作原理的通俗比喻。大语言模型本质上是一个基于输入文本预测下一个最可能 Token 的数学系统,其"智能"源于对海量文本中统计规律的学习,而非真正的理解或思考。
工作原理
- 模型接收输入文本序列(如"工业智能的发展趋势是")
- 基于内部参数和运算,预测下一个最可能出现的 Token(如"向")
- 将新输出的 Token 拼回原句,形成新输入(“工业智能的发展趋势是向”)
- 继续预测下一个 Token(如"前")
- 循环往复,直到模型判断内容完成并输出结束信号
工程意义
- 解释了模型"逐字输出"的界面表现
- 揭示了模型"智能"的统计本质
- 为理解 Prompt 工程、Context 管理提供了基础认知
- 破除"模型真正理解"的迷思,有助于合理设定对 AI 能力的预期
与相关概念的关系
- [[LLM]]:文字接龙引擎是对 LLM 核心工作原理的通俗描述
- [[Token]]:模型预测的基本单位是 Token,而非"词"
- [[Context-Window]]:文字接龙的范围受 Context Window 限制
- [[Prompt-Engineering]]:通过 Prompt 引导文字接龙的方向