标签:后门攻击

管你模型多大,250份有毒文档统统放倒,Anthropic:LLM比想象中脆弱

黑掉一个大模型似乎比人们预期的要简单得多。传统观点认为,攻击或污染具有庞大参数量的大模型非常困难,通常需要极大量的数据污染。然而,Anthropic与英国人...

ICLR 2024 | 联邦学习后门攻击的模型关键层

联邦学习是一种分布式的机器学习方法,它允许多个参与方在保护数据隐私的前提下共同训练模型。然而,这种方法存在安全隐患,因为服务器无法监控参与者在本地...