2025年两会期间,全国人大代表、国内人工智能企业科大讯飞的董事长刘庆峰建议,应预防大模型生成“幻觉数据”充斥互联网带来的危害,从技术研发和管理机制上构建可信的信息环境。


  AI幻觉(AI Hallucinations)指的是大模型时常胡编乱造,而且有时候编得足以以假乱真,或者出现“AI 运算偏差”,产生与真实世界不一致的内容。


  近日,科技博主阑夕的一篇题为《DeepSeek的胡编乱造,正在淹没中文互联网》广为传播,也是关注了AI幻觉的问题。文章举例,DeepSeek-R1 生成的一篇关于国产动画电影崛起的知乎回答,充满了事实错误。比如提到哪吒电影里的敖丙变身镜头在法国昂西动画节上轰动业界,实际上参展的是追光动画出品的 “哪吒重生”,且宣传片内容是一个现代都市里的赛车动作演示,哪吒和敖丙变身都未出现。此外,关于 “哪吒” 的制片方给员工分成都房子、攻克水下流体特效等描述也都是 DeepSeek-R1 脑补的。


  历史博主知北游被人用虚构的历史材料布局七天,若不是博主反诈意识强且有人脉证伪,可能会深陷其中。破绽在于 AI 搞错了两个历史人物的死亡顺序,文史圈因文献数字化程度低、考据成本高,易成为AI 污染重灾区。


  文章称,DeepSeek-R1的“极繁主义”风格,堆砌专业术语、生造概念、滥用修辞,初期易被识别,但经提示词优化后迷惑性增强。推理模型还存在“谄媚性”,为满足用户需求,主动编造论据,而非质疑指令合理性。


  文章称,DeepSeek-R1的幻觉率高达14.3%(Vectara榜单),因“创造力”与“事实性”的失衡,在需严谨场景中风险显著。时政、历史、娱乐等领域成重灾区,自媒体利用AI低成本炮制真假混杂内容,加剧信息污染。


  本文源自金融界