炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
(来源:网易科技报道)
作者 | 刘春
出品 | 网易科技
全球最顶尖的 AI 学术会议,正在被 AI “攻陷”。
这听起来像个地狱笑话,却在现实中发生了。最新数据显示:ICLR 2026 竟有超过 1.5 万份审稿意见完全由 AI 代写。
试想一下,你熬秃了头写出的论文,审稿人可能连看都没看,直接甩给 ChatGPT 生成了一堆“正确的废话”,甚至还一本正经地指责你文中根本不存在的数据有误。
曾经神圣的“同行评审”,如今正演变成一场 AI 生成内容的注水游戏。
据统计,约 21% 的评审意见被判定为“全自动生成”,甚至连投稿论文本身也混入了大量 AI “枪手”。面对这场史无前例的信任危机,ICLR 组委会终于坐不住了,祭出了史上最严厉的“封杀令”。
怀疑成真:研究者收到“诡异”评审报告
“评审意见非常啰嗦,满是要点,却要求进行非标准的统计分析。”美国卡内基梅隆大学的 AI 研究员格雷厄姆·诺伊比格(Graham Neubig)道出了许多投稿人的困惑。社交媒体上,数十名学者纷纷吐槽:评审中出现了“幻觉”引用,反馈异常冗长且含糊不清。
丹麦哥本哈根大学的计算机科学家德斯蒙德·埃利奥特(Desmond Elliott)团队更遭遇了令人啼笑皆非的评审——对方竟提到论文中根本不存在的数值结果,并据此给出了最低分,让论文命运悬于“接受与拒绝”的边缘。 他的博士生直觉判断:这像是大型语言模型的“杰作”。
数据揭秘:数万份评审惊现 AI“魅影”
怀疑需要证实。诺伊比格公开悬赏,很快得到了专业 AI 文本检测公司 Pangram Labs 的响应。他们对 ICLR 2026 提交的 19490 篇研究和 75800 份评审进行了大规模扫描。
结果令人震惊:
· 约 21% 的同行评审(15,899 份)被判定为完全由 AI 生成。
· 超过一半的评审含有 AI 使用的迹象。
· 甚至投稿论文本身也未能幸免:1%(199 篇)被判定为完全 AI 生成,9% 的投稿包含超过 50% 的 AI 生成文本。
“人们之前只是怀疑,但没有具体证据。” Pangram 首席执行官马克斯·斯佩罗(Max Spero)表示,他们的分析为此提供了确凿的数据支撑。
会议硬核回应:用 LLM 糊弄?直接重罚。
面对大规模 AI 滥用,ICLR 2026 组织方迅速行动,并发布了措辞强硬的声明。会议高级项目主席巴拉特·哈里哈兰(Bharath Hariharan)承认,这是会议首次大规模面临此问题。
·论文投稿:用 AI 不声明=直接拒稿
会议方明确,大量使用 LLM 写论文却不声明,将被直接拒稿。 “LLM 胡编乱造、虚构文献、逻辑掉线?将被视为违反道德准则。”会议已启动 AI 检测工具与领域主席双轨核查,“抓到一个毙一个”。
·同行评审:AI 写可以,内容你全责
针对评审环节,声明强调:用 LLM 写评审可以,但评审人对内容负全责。如果出现“瞎扯、虚构引用”,直接记违规,后果可能包括评审人自己投稿的论文被直接拒稿。
·作者遇到问题评审?立即举报。
作者若收到疑似 AI 生成的垃圾评审,可立即私信举报。程序组承诺将进行处理,坚决维护评审过程的严肃性。
·严厉处罚:结果全部公开
接下来 1-2 周,领域主席(ACs)和高级领域主席(SACs)将严查论文与评审,处理结果全部公开。 会议方表示:“我们早预判了 LLM 会搞事情,现在,是动真格的时候了。”
背后困局:评审压力与学术诚信的拉锯
这场风波也折射出 AI 学术界繁荣背后的隐忧。
· 评审负荷过重:ICLR 2026 每位评审平均需在两周内审完 5 篇论文。“这远高于过去的工作量。”
· 领域扩张太快:“过去五年,AI 领域呈指数级扩张,我们正面临评审危机。”诺伊比格道出了同行评审系统承受的巨大压力。
学者困境:如何应对“AI 废话”的轰炸?
一些作者因评审中的虚假陈述已撤稿。更多人则在苦恼:如何回应这些充满“AI 风格”的评审?
埃利奥特的经验颇具代表性:“疑似 AI 生成的评审往往包含‘大量内容’。”其中一部分或许相关值得回应,但另一部分则完全“毫无意义”。在信息洪流中辨别有效反馈,成了研究者的新负担。
这场 ICLR 的风波,无疑为整个学术界敲响了警钟:当 AI 变得足够聪明,不仅能辅助研究,更能“污染”科研诚信的核心环节——同行评审时,我们赖以建立信任的体系,将如何应对?
上一篇:摩尔线程超334万元新股遭弃购
下一篇:摩尔线程,最新发布!