推理时计算 (Inference-time Compute)
推理时计算是指模型在生成答案时,通过动态分配计算资源(如搜索深度)进行"思考"的过程。这是2026年AI模型能力提升的核心技术路径,但伴随着高昂的计算成本。
关键特性
- 动态资源分配:模型根据问题复杂度动态调整计算资源投入
- 搜索深度:GPT-5.4通过动态分配搜索深度来提升推理准确性
- 成本悖论:每次"深度思考"消耗的电能达到普通查询的15倍,引发了关于"AI推理通胀"的讨论
相关技术
- [[逻辑熵减]] — GPT-5.4引入的推理优化算法
- [[时空注意]] — Gemini 3.1的多模态推理机制
影响
推理时计算定义了"昂贵的智慧"——AI变得博学且严谨,但高昂的"逻辑账单"成为制约其普及的瓶颈。企业在采用高级模型时需评估其高昂的推理成本。