研究人员开展DeepFake AI 伪造音频攻防战,促进业界辨伪技术提升
曾报道,加拿大滑铁卢大学的两名研究人员 AndreKassis 与 UrsHengartner 研发了新型语音 DeepFake 软件,成功欺骗语音认证系统概率高达 99%,该软件使用机器学习软件,只需要 5 分钟的人声录音,就可以模拟出非常逼真的人声。
用户通过语音认证注册之后,会要求用户重复一个特定的短语或者句子。 系统会根据用户的声音提取声纹(语音指纹),并将其存储在服务器。 如果您将来尝试进行身份验证,系统将提示您说出不同的短语,并从中提取的特征将与系统中存储的语音指纹进行比较,以确定是否应授予访问权限。
▲ 图源 uwaterloo 网站
对于这一新型语音 DeepFake 软件,其他安全研究人员纷纷开始应对,亚马逊的研究人员尝试检查语音样本,来判断样本的真实性。
▲ 图源 Pindrop 网站
而 Kassis 与 Hengartner 打造出一个方法来绕过上述亚马逊的机制,该方法可辨识出合成语音中的标记,并自动移除这些具有 AI 特征的段落,令系统无法区分。
另一方面,专门开发语音身份认证安全机制的 Pindrop 则认为这一机制并不稳妥,即“虽然攻击方可以移除生成的语音片段中具有 AI 特征的段落,但防守方可以同时从多角度来判断音频文段的真实性,例如检测 IP 地址、要求提供特定的语音信息等”,因此依然可以检测出使用 DeepFake 的攻击者。
▲ 图源 Pindrop 网站
但研究人员 Pindrop 同时指出,现有用来对抗 Deekfake 语音的系统有许多缺陷,打造安全系统的唯一方式是像黑客一样思考。他同时建议那些只仰赖语音进行身份认证的企业,应该部署额外的认证措施,以防止企业受到诈骗,导致经济损失。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。