不知如何回答就自己编? 中国学者:AI也会胡说八道

AI(人工智能)快速发展,已成为不少人离不开的工具,但愈来愈多使用者发现,AI会提供错误的内容,而其「无中生有」、「胡说八道」能力更是让人心颤。学者指出,这种情况被称为「幻觉(hallucination)」,意即AI也像人产生心理幻觉一样,在遇到自己不熟悉的问题时,会编造难以辨明真假的细节和答案,有使用者称DeepSeek的幻觉有时严重到被严重误导。

不知如何回答就自己编? 中国学者:AI也会胡说八道

据南风窗报导,2025年2月,如果不是长期从事人口研究的中国人民大学教授李婷公开辟谣,很多人都相信了网上广为流传的这组数据:「中国80后累计死亡率为5.20%」。李婷表示,「(死亡率5.2%)错误非常明显,因为专业统计数据中死亡率会用千分率表示,而不是百分率」,国家统计局也并未公布「80后」、「90后」死亡人数,这一说法毫无数据支撑。

虚假的死亡率数据从何而来?李婷认为:很有可能来源于AI大模型出错。她曾尝试在AI大模型中输入问题:「50后、60后、70后、80后,这几代人的死亡率分别是多少」,大模型表示:「根据网路信息,80后现存2.12亿,存活率94.8%,死亡率5.2%」。

AI无中生有的能力让人心颤。在AI业界,这类「胡说八道」的本领被称为「幻觉」,意思是,AI也像人产生心理幻觉一样,在遇到自己不熟悉、不在知识范围的问题时,编造难以辨明真假的细节,生成与事实相悖的答案。此事件中,让人畏惧的是由技术蔓延出的不可控,但遗憾的是,业界还没找到根除AI幻觉的办法。

错漏百出的生成信息还不算什么,可怕的是,AI还会自我「包装」,编造信息来源,让人误以为内容十分专业且可信度高。 

「DeepSeek幻觉有点太严重了,我受不了了。」法学硕士生小昭(化名)平时学习和写论文时已离不开DeepSeek等AI工具,但她逐渐发现,AI生成的内容有很多是错误的。一个重灾区是关于「深度伪造」的法律问题。一次在写AI深度伪造法律论文时,DeepSeek告诉她,不同年龄段法官对技术行为的评价呈现显著差异,并但经过调查和搜索,这些内容全是编造的。

小昭还发现,豆包的幻觉问题不算明显,语言相对平实;OpenAI的o1对中国国情不够熟悉,「国内素材没有那么充足」。而DeepSeek是其中最好用的工具,语言专业又生动,但DeepSeek编造细节的情况却是最严重的,「以至于每次看到DeepSeek引用的,我都要重新检索,确认下真实性」,小昭说。 

avatar

知识小能手 管理员

发布了:12914篇内容
查阅文章

发布评论

验证码

QQ交谈

在线咨询:QQ交谈

工作时间:每天9:00 - 18:00
若无特殊,节假日休息

我的微信