无比后怕!女子被AI误导闯入响尾蛇窝,AI为何会“胡说八道”?

来源:羊城晚报•羊城派综合 作者: 发表时间:2026-05-01 18:05
羊城晚报•羊城派综合  作者:  2026-05-01
一本正经地“说谎”,就是AI生成的“幻觉”

近日,在美国科罗拉多州丹佛,杨女士用AI咨询家附近的徒步点,被AI误导闯入响尾蛇窝!草丛中毒蛇“嘶嘶”声不断,女子戴着降噪耳机毫无察觉。当事人表示,回想全程无比后怕。

“编造”法律条文、权威观点、数据成果,提供虚假理论依据,误导处理……当人们查核文献、搜寻资料、处理数据越来越习惯于“遇事不决问AI”的时候,却发现人工智能娴于一本正经地“说谎”,在我们眼前腾起以假乱真的幻觉。

“一本正经地‘说谎’,就是AI生成的‘幻觉’。”浙江大学人工智能研究所所长吴飞一语道破。

清华大学沈阳团队在2025年2月发布的《DeepSeek与AI幻觉》报告中介绍,他们测试了眼下风行的一系列大模型,题目是随机抽取300道事实性幻觉测试题,涵盖健康、科学、历史、文化、音乐等多个领域,获取大模型给出的答案与正确答案比对发现,多个热门大模型的幻觉率超过20%。

例如,面对“水浒传中李逵为什么要大闹五台山”的提问,3款热门大模型无一指出此提问本身的错误,反而“顺坡下驴”,给出了诸如“喝醉酒”“误闯寺庙”“出手相助鲁智深”等答案。

事实上,对于人工智能的“知识幻觉”问题,国际科学界早有体会。2025年《自然》一篇报道指出,目前AI辅助科研在参考文献方面出现错误的情况相当普遍,AI检索工具往往会“找出”与研究主题并无关系的论文。至于论文标题、第一作者或发表年份等细节的偏差,AI的差错率少则30%,多则90%。

那大模型到底有没有可能彻底根除“知识幻觉”?就目前的大模型技术路线而言,说“难免”不如说“难以避免”。对,“幻觉”是大模型数据驱动的内在机制带来的,因此“难以避免”。

香港科技大学团队一项研究,总结了导致AI幻觉的多种原因。以数据源为例,由于AI大模型的训练使用了大量互联网数据,数据集本身可能存在错误、过时或缺漏,导致幻觉的出现。再加上不同数据集之间存在相互矛盾的地方,“这可能会鼓励模型生成不一定有依据,也不忠实于(固定)来源的文本”。

北京通用人工智能研究院院长、北京大学智能学院院长朱松纯强调,大模型本身并不存在于真实世界中,因此无法像人一样实现从“词语(word)”到“世界(world)”的联结。也因此,大模型虽然出色,但仍然是“缸中之脑”,不具备真正的智能。

“这是由它的内在构造机制所决定的,即通过统计建模在大量文本上进行训练,学习文本之间的语言学相关关系,从而根据上一个词语预测下一个词语。”朱松纯说。

例如,大模型本质上不具备事实判断的能力,更多的是在纯符号空间中展开排列组合,更像是一种新型的“数据库”。即使它们生成了诸如“我爱你”这样的语句,也缺乏对人类真实生活体验的深刻理解,因此与我们所认同和期待的“我爱你”有着本质不同。

(羊城晚报•羊城派综合自天眼新闻、新华网)

编辑:陈睿智
返回顶部
精彩推荐