AI不确定性衡量指标 AI不确定性衡量指标 MIT提出的一种全新的不确定性衡量指标,旨在解决大模型饱受诟病的幻觉问题。该方法能够有效识别语言模型何时处于"过度自信"状态,并在其生成虚假信息(幻觉)前发出预警。 关键信息 技术价值:对于金融、法律等高容错率极低的工业级应用具有巨大价值。 核心理念:解决幻觉的第一步,就是让AI学会准确表达"我不知道"。 与现有概念的关系:与[[大模型不是真理机器-而是论证机器]]中讨论的模型可靠性问题直接相关,是解决该问题的关键技术路径。