接陌生来电别先开口!AI仿声成诈骗新助力:3秒就能复制声音,还能捕捉语调/情感转折!

关注我们的 WhatsApp 频道, TikTokInstagram 以观看最新的短视频 - 开箱,测评与第一手新闻资讯。

AI人工智能带来便利,但也成为不肖份子的诈骗工具之一。加州柏克莱大学一位教授就警告道,AI仿声只需要短短3秒钟,就能轻松复制声音进行诈骗,所以提醒大家如果接到陌生来电,千万不要先开口说话!

全世界诈骗集团常用老梗:“妈,我被绑架了!”,十万火急要求爸妈或亲友汇款,帮助他摆脱困境,现在有诈骗份子加入AI技术,让一般民众根本难辨声音的真假。

鉴于这类新型态诈骗案件频传,美国联邦贸易委员会(FTC)近日特别警告消费者,诈骗集团可以利用短短3秒钟本尊声音,加上AI技术,制造模仿本人声音,来诈取钱财,呼吁民众小心别上当。

据悉,早前一名来自亚利桑那州的母亲向警局报案,并警告亲友,她亲身遭遇一个可怕的电话诈骗,涉及彷声AI技术。

这位妈妈Jennifer DeStefano表示,日前接到了一同陌生电话,另一头传出了她15岁女儿的声音,一直在无助地向妈妈求助和哭泣。所幸的是,Jennifer DeStefano最后得以跟丈夫确认女儿的安全,这才免于遭受钱财损失。

她说道,她确认电话里是她女儿的声音,甚至哭泣的方式也是一样的,因此不疑有他,这正是让人陷入迷惑的部分。然而,事实证明,这个15岁的女孩从未在电话另一头说过任何一句话,电话里的声音,只是AI创造出来的分身。

对此,资讯科学教授Subbarao Kambhampati表示,复制语音的技术飞跃进步,你不能再相信自己的耳朵了。以前,复制声音需要从本尊身上获取大量样;如今,只需3秒钟本尊的声音就可以复制出一模一样的“分声”,大多数复制实际上都有捕捉到本人语调和情感的转折。而目前,深度学习技术几乎没有受到法规的监督,而且它越来越容易取得和使用。

加州柏克莱大学教授Hany Farid也警告,抖音上面一小段声音,就算只有3秒钟,就足以让歹徒有机可乘;语音信箱的留言也是。

更多科技资讯,请继续守住TechNave中文版!

资料来源

大家来评论

接陌生来电别先开口!AI仿声成诈骗新助力:3秒就能复制声音,还能捕捉语调/情感转折!