骗子利用虚假信息模仿了首席执行官的声音,骗了一家未具名的能源公司243,000美元。
在《华尔街日报》详细报道的一次事件中 ,诈骗者在与该德国公司一家英国子公司的首席执行官的电话中使用了该技术,以命令向匈牙利供应商转移资金。这位英国首席执行官认为他正在与他的德国酋长交谈,并转移了资金。
欺诈背后的人再次尝试了这种欺骗手段,但是英国子公司变得可疑,因为工作人员注意到这些电话是来自奥地利而不是德国。资金从匈牙利的一家银行转至墨西哥的一个帐户,然后再转至其他地方。没有发现嫌疑犯。
《华尔街日报》援引该官员的说法称,此案是欺诈者首次“明显”利用人工智能模仿某人的声音来欺诈性地诱骗一家公司转移资金,但这并不是唯一的例子。英国广播公司(BBC )7月份的一份报告指出,安全公司赛门铁克公司(Symantec Corp.)看到了三起案例:“看似深藏不清的不同首席执行官的声音,它们曾诱使高级财务控制人员转移现金。”
Deepfakes主要是一个术语,用于基于人工智能的人类图像合成,这是使用技术提供真实结果的伪造视频的生成,但在某些情况下也已应用于伪造语音的生成。
Deepfakes的兴起引起了人们的关注,因为该技术所提供的结果通常是真实视频和音频无法形容的,从而打开了Pandora可能存在的欺诈和操纵框。Facebook公司CEO马克·扎克伯格的deepfake视频在六月当时说是东西来的迹象。
该消息发布之际,随着中国深层仿造应用Zao的发布引发了人们对隐私的担忧。该应用程序允许用户将其照片叠加在影片剪辑中的名人和其他公众人物之上。
在不到八秒的时间内交付的结果是惊人的,随着技术的不断改进,其含义也越来越明显。
“令人担心的是,如果有人可能上传一个公众人物,名人或其他人的照片,他们可以很容易使它看起来好像这个人是做的事情从未发生过,” CNBC报道。