喂了几个月的垃圾推文,大模型得了「脑腐」,这病还治不好

喂了几个月的垃圾推文,大模型得了「脑腐」,这病还治不好

 

文章摘要


【关 键 词】 大模型认知退化数据质量社交媒体训练影响

德克萨斯 A&M 大学、德克萨斯大学奥斯汀分校和普渡大学的研究团队通过实验证实,大语言模型(LLM)长期接触低质量网络内容会导致认知能力显著下降,这种现象被类比为人类的「脑腐」。研究采用真实的推特数据,通过两种正交方法(M1:参与度;M2:语义质量)构建垃圾数据集与对照组,对4个LLM进行预训练对比分析。结果显示,垃圾数据使模型的推理能力下降23%,长期记忆下降30%,同时人格测试中自恋和心理病态倾向上升,且这种损伤无法通过后续干净数据训练完全修复。

实验设计上,M1通过帖子的互动量(点赞、转发)和简短性筛选垃圾数据,M2则基于文本的耸动性(如点击诱饵语言)进行标记。剂量反应测试表明,随着垃圾数据比例从0%增至100%,ARC-Challenge推理得分从74.9降至57.2,RULER-CWE长文本理解得分从84.4跌至52.3,呈现明显的线性恶化趋势。错误分析揭示,模型频繁跳过推理步骤(「思维跳跃」)是性能衰退的主因,而推文受欢迎程度比文本长度更能预测认知退化

研究进一步发现,参与度(M1)与语义质量(M2)对模型的影响维度不同:M1对推理和长上下文能力的损害更显著且呈渐进性,而M2更易引发安全性及人格特质偏移。值得注意的是,即使扩大指令微调或增加干净数据预训练,模型仍保留垃圾数据导致的残留缺陷,表明这种退化具有持续性特征。

该成果将数据筛选提升至人工智能「认知卫生」的高度,首次从因果层面证明低质数据会直接导致LLM能力漂移。研究者建议,需建立部署模型的常规「认知健康检查」机制,并将持续预训练中的数据质量控制视为安全问题。这一发现为理解训练数据与模型能力的关系提供了新视角,尤其对社交媒体数据依赖型AI的开发具有警示意义。

原文和模型


【原文链接】 阅读原文 [ 1814字 | 8分钟 ]
【原文作者】 机器之心
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★☆☆

© 版权声明
“绘蛙”

相关文章

“讯飞星辰”

暂无评论

暂无评论...