什么是人工智能幻觉?
人工智能幻觉是指人工智能系统在训练数据收集过程中,产生或推断不存在的不正确信息的情况。
如果不解决人工智能幻觉问题,则可能导致传播虚假信息和做出有偏见的判断等问题,从而引发经济和安全问题。
如何发现人工智能“幻觉”?
当生成式人工智能不知道问题的答案时,就会发出“幻觉”。以下是如何发现的方法。
牛津大学的研究人员发明了一种新方法,帮助用户判断生成式人工智能何时会出现“幻觉”。当人工智能系统被提出一个它不知道答案的问题时,就会出现这种情况,导致它编造一个错误的答案。
好在,有一些技巧可以帮助我们在发生这种情况时,及时发现并彻底防止发生。
如何阻止人工智能幻觉?
牛津大学团队的一项新研究建立了一个统计模型,该模型可以识别生成式人工智能聊天机器人提出的问题何时最有可能产生错误答案。
这对于生成式人工智能模型来说是一个真正的问题,因为它们交流方式的先进性意味着它们可以将虚假信息当作事实。今年2月ChatGPT因提供虚假答案而失控时就凸显了这一点。
随着各行各业越来越多的人开始使用人工智能工具来帮助学习、工作和日常生活,参与这项研究的人工智能专家呼吁人们,以更清晰的方式判断人工智能何时在编造答案,特别是在涉及医疗保健和法律等严肃话题时。
牛津大学的研究人员声称,其研究可以分辨出模型是正确的还是编造出来的。
研究作者Sebastian Farquhar在接受采访时表示:“LLM能够用多种不同的方式来表达同一件事,这使得我们很难分辨出其何时对答案有把握,何时只是在编造一些东西。使用以前的方法,无法区分模型是不确定要说什么,还是不确定如何表达。但新方法克服了这个问题。”
然而,在消除人工智能模型可能犯的错误方面,还有更多的工作要做。
Sebastian Farquhar补充道:“语义不确定性有助于解决特定的可靠性问题,但这只是一部分。如果LLM不断犯错,这种新方法就无法发现这一点。人工智能最危险的失败是,当系统出现错误却自信而系统化的时候。
此文内容来自千家网,如涉及作品内容、版权和其它问题,请于联系工作人员,我们将在第一时间和您对接删除处理!