人耳无法分辨的高仿人声!科技未来引发犯罪担忧

2019年08月25日 悉尼ing



很多人可能听说过deepfake视频
就是人工智能可以通过学习人体图像
自动合成
叠加在已有的视频或图片上
达到以假乱真效果的一项科技
Deepfake是“deep learning”(深度学习)
和“fake”(伪造)的混成词
 
现在很多deepfake科技都用在
制作虚假名人的色情影片
和制作假新闻视频上
这引起了很多
关于道德和法律的争议

 
Deepfake影片以假乱真的程度
令人担忧
但与此同时
现在deepfake音频的出现
更是为不法分子通过电话欺诈
打开了潘多拉的魔盒
 
根据BBC的报道
已经有人中招了!
不法分子利用deepfake科技
模仿公司总裁的声音
令职员转移投资人资产
被偷金额竟达几百万英镑!
 


Deepfake音频和视频相同
都是用人工智能学习
并仿照真人声线制作出来的
这种deepfake音频效果相当好,
专家称,人耳几乎很难分辨
不仅如此
人工智能学习人声的速度飞快
而且效果很好
仅需要半个小时的真人样本
就可以仿制出一模一样的声线
随后只要叠加在
一段其他人的音频上
最终结果就仿佛是本人在说话!
 


而被问到普通人如何防骗,专家回答:
这种deepfake音频仅靠人耳
很难分辨出来
所幸,我们还可以通过观察
对方说话的语调和方式
是否自然,
是否符合此人一贯的说话方式
另外也可以会问一些问题
预录的音频是无法
很有逻辑地回答问题的
更重要的而是保持警惕心
不要轻易透露个人隐私信息

 
随着这种科技的普及
Deepfake的电话诈骗势必会越来越多
不了解这种科技的人,
尤其是老年人,
会更容易成为目标和受害群体
所以现在,
多了解相关的知识,
是最好的预防措施了




>>>>

推荐阅读







ing推广

悉尼大小事,每日推送
每天定时推送,悉尼生活娱乐资讯
卖萌搞基无下限,吃喝玩乐送福利
悉尼ing
www.sydneying.com
微信号:sydney_ing

长按二维码扫描,立即关注悉尼ing!
悉尼ing广告咨询:[email protected]


收藏 已赞