全球顶级AI学术会议遭AI入侵:超1.5万条评审意见由AI生成!
事件概述
在ICLR 2026会议的评审过程中,AI生成的"幽灵评审"大规模渗透,第三方检测显示:
- 76,000条评审中,21条完全由大模型一键生成
- 35条经过AI不同程度编辑
- 仅43条完全由人工撰写
AI评审特征分析
- 篇幅更长:机器撰写的评审平均长度超过人工评审
- 评分更高:AI给出的评分普遍偏高
- 存在严重问题:
- 频繁出现"幻觉引用"(虚构的文献引用)
- 指责论文中存在实际不存在的数值错误
学术界的反应
作者群体在社交媒体上集体投诉,引发信任危机。
组委会应对措施
ICLR 2026组委会发布"最严格禁令":
投稿方面
- 如论文大量使用LLM但未声明,将立即被拒收
评审方面
- AI可作为辅助工具,但评审者需对内容全权负责
- 如出现虚假引用或"AI胡言乱语",评审者本人的投稿也可能被拒
举报机制
- 作者可私下标记疑似AI评审
- 程序主席将集中调查并在两周内公开结果
深层原因分析
会议主席承认:
- AI领域指数级增长迫使每位评审者在两周内评审5篇论文
- 工作量远超以往,这是"AI代笔"泛滥的结构性原因
行业警示
ICLR 2026的"AI评审危机"表明:
- 当大模型成为评审者时,学术界必须首先使用规则和检测工具来阻止这些"幽灵投票"
- 否则同行评审将变成无人负责的自动化实验
信息来源:AIbase Daily – 2025年11月28日
