转自:北京头条
今天上午,“DeepSeek给王一博道歉是假的”冲上微博热搜,很多人可能还一头雾水:科技圈和娱乐圈的两大“顶流”怎么有了交集?而且还是需要“道歉”的关系?
橙柿互动记者梳理发现,事情的起因是前几天,首创集团原党委书记、董事长李爱庆受贿案尘埃落定,随后一些自媒体称王一博和这起案件有牵连。
早在2022年,王一博的经纪公司乐华已就相关谣言辟谣过,没想到这次借着李爱庆判决,旧的谣言又开始传播了。昨天乐华也再次发布声明,表示要通过法律途径来追责。
事情进展到这一步,谁也没想到还出了一个大插曲:昨天,全网出现了一篇《演员王一博案,判了》的文章,表示针对这件事,DeepSeek出了一份官方道歉,但这份网传声明中引用的“北京市第三中级人民法院(2025)京03刑终174号判决书”经中国裁判文书网检索不存在,属于是AI编造的内容,DeepSeek也从未就此事发表过任何官方声明。
于是,昨天还是“DeepSeek给王一博道歉”的话题,今天变成了“DeepSeek给王一博道歉是假的”。以上就是这起无厘头事件的大致发展脉络。
事实上,这也不是AI第一次出现差错。此前还有网友用DeepSeek查阅资料后发现结果错误,AI不仅及时更正信息并道歉,还表示要补偿网友3000元人民币,让人有点哭笑不得。
在大模型火爆的当下,AI 犯错、道歉以及承诺补偿这样滑稽的事情并不少见,那么,AI为什么会出错呢?
行业内有一种“概率鹦鹉”的观点。想象一下,有一只超级聪明的鹦鹉,它听过无数对话,能根据统计规律说出“合理”的话,但它其实不懂自己在说什么。大语言模型就像这只“概率鹦鹉”,它擅长生成语法正确、逻辑连贯的文本,但不能真正理解内容的真实性,有时候也分不清事实和谣言,更不会理解“承诺”以及“申明”等词语的法律含义。
以这次DeepSeek和王一博之间的这起事件为例,大量网友与DeepSeek在对话中反复质疑“谣言关联”,最后AI生成了包含“全网删除信息、启动赔偿”等具体举措的道歉声明。
“这种现象的专业术语叫社会学工程诱导,以区别于黑客的攻击性诱导。”蚂蚁集团大模型安全专家毛宏亮介绍,因为AI模型基于训练数据生成回答,无事实核查能力,当用户输入带偏见的问题时,易输出虚构的赔偿、道歉等承诺信息。
“AI不仅会说谎,甚至会被投毒,就像给食物下毒会让人生病一样,可能会有人故意给大模型投喂错误的信息,破坏它正常学习的能力,让它做出错误的判断。”毛宏亮补充说,随着大模型在我们生活中变得越来越重要,了解AI风险也变得非常关键,这不仅是技术问题,更是安全问题。
目前,AI强大的信息检索能力和人本生成能力让很多人的手机里都多了一个AI应用,但AI的技术漏洞被放大后,也给我们的生活带来很多不方便甚至危害,AI出错的内容被引用,其他AI将其视为“信源”,然后生成更多虚假信息,最终形成恶性循环。
因此,大家在使用AI应用时需提高信息鉴别力,警惕AI生成内容的权威性,特别是涉及赔偿、司法等承诺信息。(橙柿互动)
下一篇:银魂里的经典台词