大语言模型的幻觉问题一直是业界关注的焦点。最新研究提出了多种创新方法来解决这一问题。
其中,基于知识图谱的事实验证方法能够有效识别和纠正模型生成的错误信息。多模型交叉验证方法则通过比对多个模型的输出来提高信息准确性。
这些进展为大模型在医疗、法律等高风险领域的应用铺平了道路。
幻觉问题指的是模型生成的内容看似合理但实际错误或无中生有。这对于依赖AI提供信息的用户来说可能造成误导,甚至带来严重后果。
知识图谱验证方法的核心思路是将模型的输出与结构化的知识库进行比对。研究人员首先从维基百科、专业数据库等来源构建大规模知识图谱,然后在模型生成文本时实时检查其中的事实陈述是否与知识图谱一致。
实验表明,这种方法能够识别出约85%的幻觉内容,并自动生成更正建议。例如,当模型错误地声称'爱因斯坦获得了诺贝尔物理学奖'时,系统能够指出爱因斯坦实际获得的是诺贝尔物理学奖但原因是光电效应理论而非相对论。
多模型交叉验证则采用了不同的策略。该方法同时调用多个大语言模型回答同一问题,通过比较答案的一致性和可信度来筛选最可能的正确答案。如果多个模型给出相似回答,则该答案的可靠性更高。
此外,研究人员还在探索让模型自己评估不确定性。通过特殊训练,模型能够对自己生成的内容给出置信度评分,帮助用户判断信息的可靠性。
尽管这些方法取得了显著进展,但完全消除幻觉仍然是一个长期目标。研究者呼吁,在关键领域应用大模型时,仍需人工审核和验证。