警惕语音克隆诈骗,AI 已可以做到 5s 内克隆人声并生成任意内容
一位银行经理接到公司董事打来的电话:公司安排了一项收购,要从账户里转出巨额资金,希望他批准这道流程,还附上了相关律师的电子邮件,以确认金额和转入账户。
这次交易合法合规,流程也并无问题,况且还是老板亲自打的电话,他就按要求将 3500 万美元如数转出。
晴天霹雳的背后是 AI 语音转换
直到转完账之后,这位迪拜高管也万万没有想到,电话那头熟悉的老板的声音,其实是用语音克隆技术合成的。
这桩诈骗案由福布斯报道,但受害者的名字和其他更多细节没有透露。据估计,这项精密的计划至少涉及 17 人,自去年年初,骗取的资金已经发往全球各地的银行账户。
如果不是亲耳听到,应该是不会相信会有这么神奇的事。
不过不得不说,能做到这种程度已经能够以假乱真了。如果有更长的时间和更多的素材去训练,相似程度应该还能更上一层楼。
更可怕的是,如此逼真的转换,操作起来也不难。
例如在 Github 上大火的 AI 拟声项目 Real-Time-Voice-Cloning,能够在 5s 内克隆你的声音并生成任意内容,还能直接下载或者自行训练合成器。
开源项目可以直接从 GitHub 上直接获取。
然后再录入一段你的声音和目标声音,打出想要读出的文本内容,就可以克隆出一段输出音频了。
面对这样以假乱真的效果,也就不难理解这位银行高管为什么会被轻易诈骗了。但这仅是已知使用语音克隆实施巨额诈骗的第二例,已经远比第一例英国某能源公司 22 万欧元诈骗案更为成功,其破坏力可见一斑。
科技中立,善恶由人
了解完这样的新型诈骗手段不禁让人想问,发明出 AI 语音转换难道是用来骗人的吗?
完全不是,语音转换本可以用来做很有意义的事。在前些时候,语音转换技术就曾在央视节目《等着我》中出现,帮助退役多年的袁爷爷,找回了当时在战场上一同作战的老排长的"声音"。
但是在各种科技公司研究语音转换技术给人带来便利的同时,也需要谨防人工智能在网络犯罪中的恶意使用。
如今已有少数信息安全方面的创业公司关注到这一点。他们声称可以检测出合成的语音以防止诈骗。
反诈原理是通过对比音频里单词的实际发音在细微程度上是否与真实人类的说话模式相匹配,毕竟人类发音不会像机器一样标准、机械。
这也给我们提了一个醒,有必要及时关注科技新进展,不断提高安全意识。
对于长辈来说,今后除了要下载反诈 App,可能还要多验证验证电话另一端是不是真正的儿子和女儿。
2022-05-06 13:49:23