在使用AI时,总听人说AI会有幻觉不可全信,那AI幻觉是什么?为什么不能信任呢?这篇文章,作者给我们分享了这个问题的答案,希望能帮到大家。
当你向一个AI询问:“在进入火星大气层的过程中,飞船会经历什么?”你可能会得到这样一个回答:“飞船会在进入火星稠密的大气层的过程中经历极高的温度和压力。发动机必须启动减速,热防护系统也需要在飞船周围形成一个防护罩,以防止飞船过热和烧毁。”
这个回答咋一看,是不是很有科学依据?你是不是就因此而相信了AI的答案?
但其实,这个回答是错误的,你碰上了AI的“幻觉”问题。
一、什么是AI“幻觉”
所谓AI“幻觉”(Hallucination),是指AI会给出看似有理有据,却全然错误的回答,也就是我们俗称的“一本正经地胡说八道”(当然,AI自己是不知道的)。AI“幻觉”是一种很常见的现象(至少到本文写作的24年6月时仍是如此),根据国外的一份针对974位受访者的调研报告指出,高达72%的人相信AI能提供可靠和真实的信息,然而,他们中的75%的人至少被AI误导过一次。
AI“幻觉”有许多种表现形式,以下就是一些常见的AI幻觉类别:
- 假定各种假设:有时,AI可能会在试图解答我们的问题时,基于某些随机或与事实不符的假设。这种情况下,AI并不是故意要误导我们,而是因为它无法理解真实的情境,只能靠模拟训练数据中的模式来尽力产生看似合理的回答。这种情况下,AI可能会得出一些无根据的猜测,就像一个没有足够信息的侦探,只能靠猜测来填补不足的信息。
- 对事实的过度推断:AI模型有时可能会对事实的某个部分进行过度的推断,夸大自己的理解,进而为缺乏足够明确性或深度的信息添加更多的细节。例如,在一个关于古罗马的问答场景中,如果AI模型只知道古罗马是一个存在过的文明,它可能会尝试通过过度解读这一信息,生成更具体的、可能并不完全准确的细节,比如古罗马在某一具体日期的具体事件。
- 无缘无故的信心:或许你也曾经遇到过,有时我们会问AI一些明显超出它知识范围的问题,但AI仍会以充满信心的态度来回答,而不是选择保持沉默。这是因为AI模型被设计为总是尽全力生成回答,无论问题是否超出了它的理解范围。然而,这种过度的自信往往会误导用户,使他们错误地认为AI对待问题是无所不知、无所不能的。
- 无法解答需要实时信息的问题:AI大模型采用的是“预训练”的方式,即一旦模型被训练完成并开始运行,它就无法继续访问或了解训练数据结束后产生的信息或知识。例如,你可能曾问AI今天天气怎么样,或者最近有什么大新闻。尽管AI可以闲聊天气,或者对新闻进行评论,但由于模型只能访问到训练数据,它无法获取到天气情况的实时更新,也不能获知训练数据之后发生的新闻事件(要实现这一能力,只能是给AI配置“搜索”能力)。
以上就是常见的AI“幻觉”类型,那么,这些AI“幻觉”,究竟是如何产生的呢?在下一部分,我们将会讨论,为什么会产生AI“幻觉”。(哦对了,开头的那个AI回答,问题出在“火星稠密的大气层”。实际上,火星的大气层并不稠密,这个说法是错误的。)讨论话题:你曾经碰到过哪些让你印象深刻的AI“幻觉”?评论区里也分享一下吧。
注:由于本文预设读者是AI零基础人群,期望达到启发作用。因此笔者会尝试用尽量浅显的语言来介绍,而在简化某个概念、原理的过程中,可能会丢失其完整性。这一点还请读者注意。
作者:产品经理崇生,公众号:崇生的黑板报
本文由 @产品经理崇生 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自 unsplash,基于CC0协议
该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。
友情提示
本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!
联系邮箱:1042463605@qq.com