文章摘要
【关 键 词】 AI造假、学术不端、知识污染、论文工厂、学术诚信
心理学教授Dan Quintana在审稿时发现一篇论文引用了他从未发表过的“幽灵论文”,这一事件揭示了AI生成内容对学术界的严重威胁。该论文不仅虚构了引用文献,还通过算法模拟了Quintana真实的合作网络,使伪造内容极具欺骗性。类似案例不断涌现,包括Emmanuel Tsekleves教授发现的博士生论文中ChatGPT生成的虚假引用,以及美国政府报告中的“幽灵引用”错误。这种现象已从边缘期刊蔓延至权威出版物,形成对人类知识体系的系统性“认知污染”。
英国Clear Skies公司的Adam Day发现,造假行为已形成工业化链条。论文工厂使用标准化模板批量生产虚假研究,尤其在癌症领域,通过报告“不痛不痒”的蛋白质交互数据规避复现审查。生成式AI甚至能伪造生物医学研究中的关键图像证据,如组织切片和电泳凝胶图,这些传统“铁证”的可信度正被算法瓦解。2024年《细胞与发育生物学前沿》刊登的“大睾丸老鼠”AI插图事件,以及NeurIPS顶会论文中的数百条AI编造引用,凸显问题已渗透至顶级学术平台。
学术评审体系同样陷入恶性循环。面对海量投稿,审稿人开始依赖AI生成评审意见,而论文作者则针对性植入肉眼不可见的“白色密令”操纵AI审稿。Pangram Labs数据显示,ICLR会议中超过50%的评审意见有AI参与,20%完全由AI生成,形成“AI写稿-AI审稿”的荒诞闭环。预印本平台arXiv和bioRxiv的投稿量因ChatGPT出现异常激增,部分研究者年发文量暴增至50篇,平台审核机制形同虚设。
默里州立大学教授A.J. Boston警告,科学文献可能滑向“死亡互联网”状态——AI相互生成和评审论文,真实研究被淹没在算法垃圾中。这种“认知污染”将随AI训练数据循环加剧,最终导致知识体系根基崩塌。当虚假引用、伪造数据和图片成为下一代AI的学习素材,人类可能永远失去辨别真伪的能力,站在由算法垃圾堆砌的“巨人肩膀”上。
原文和模型
【原文链接】 阅读原文 [ 2835字 | 12分钟 ]
【原文作者】 新智元
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★☆



