AI音频成诈骗神器!律师父亲险被骗走21万,3秒原声即可克隆声音

AIGC动态2个月前发布 AIera
417 0 0
AI音频成诈骗神器!律师父亲险被骗走21万,3秒原声即可克隆声音

 

文章摘要


【关 键 词】 DeepfakeAI诈骗语音克隆安全挑战技术应用

在AI技术飞速发展的今天,Deepfake技术的应用已经渗透到社会的各个角落,带来了一系列严重的安全问题。最近,国外一名律师Jay Shooster的父亲就险些成为一场AI骗局的受害者。诈骗者利用AI技术克隆了Shooster的声音,伪造了一场车祸事故,企图骗取3万美元的保释金。这一事件再次凸显了AI技术滥用的危险性。

据伦敦大学学院的研究显示,人们在27%的情况下无法识别AI生成的声音,即使反复聆听,检测率也难以提升。这表明,AI电话诈骗的潜在受害者数量可能远超我们的想象。事实上,AI技术不仅可以克隆声音,还能伪造图像和视频,Deepfake技术已经对每个人的生活产生了深远的影响。

在这种背景下,科学家们也在积极寻找应对之策。例如,IBM的安全专家展示了如何通过结合语音识别、文本生成和声音克隆技术,实现“音频劫持”。他们还警告说,未来的攻击可能会操纵实时视频通话。此外,AI克隆的声音还被用于未经授权的朗读内容,引发了版权和道德问题。

与此同时,一些研究团队也在开发能够检测和防范Deepfake的工具。例如,中科院的工程师开源了一种能够识别伪造图像的AI模型,受到了广泛关注。在美国圣路易斯华盛顿大学,博士生Zhiyuan Yu和Ning Zhang教授合作开发了AntiFake,这是一种创新性的水印技术,可以在人们不太关注的频率上添加噪音,从而干扰AI生成的Deepfake。

浙江大学智能系统安全实验室(USSLAB)与清华大学也联合开发了一种名为SafeEar的语音伪造检测方法。该方法基于神经音频编解码器,能够将语音的声学信息与语义信息分离,仅利用声学信息进行伪造检测,从而实现内容隐私保护。实验结果显示,SafeEar的检测等错误率(EER)可低至2.02%,与基于完整语音信息进行伪造检测的SOTA性能接近。

尽管如此,防御Deepfake仍然是一项极具挑战性的任务。除了技术手段,我们还需要提高公众的防范意识,加强法律法规的建设,共同应对这一新兴的安全威胁。同时,AI技术在正义领域的应用也不容忽视。例如,英国的一个警察局正在测试一套AI系统,该系统能够极大缩短侦查时间,帮助破解陈年旧案。这表明,AI技术在正确引导下,同样能够为社会带来积极的影响。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 3151字 | 13分钟 ]
【原文作者】 新智元
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...