你的老板通过Skype与您联系。你看到她的脸,听到她的声音,要求你把大量的钱转移到你从未听过的公司。你会要求对她的订单书面确认吗?或者你会简单地跟随她的指示?

我当然会被这样的请求滥用,但再一次,这不是在我和老板的正常交易附近的任何地方。但是,鉴于成功率首席执行官欺诈(这就不那么有说服力了),威胁演员只需要找到合适的人联系,就能成功地骗员工汇款。

想象骗局艺术家能够在这样的Skype呼叫中实际复制你的老板的脸部和声音的首席执行官欺诈的成功率。使用DeepFake技术,他们可能会在不太遥远的未来达到那个水平。

什么是deep fake?

“DeepFake”这个词是通过捣碎“深入学习”和“假”在一起创造。它是基于人工智能(AI)创建人类图像的方法。简单地说,创作者养成了由一个人的大量面部表情组成的计算机数据,找到一个可以模仿那个人的声音的人。然后,AI算法能够匹配口腔和面部以与口语单词同步。所有这一切都会导致与匹配的面部和声音接近完美的“唇部同步”。

与旧的Photoshop技术相比,创造虚假证据,这将有资格成为“VideoShop 3.0”。

它从哪里来的?

关于这项技术的第一次骚动是当一位名为DeepFakes的Reddit用户发布了看起来很真实的名人的露骨视频时。他把原来的色情演员的脸换成了名人的脸,从而制作了这些视频。通过使用深度学习,这些“换脸”几乎不可能被检测到。

DeepFakes在GitHub上发布了他用来制作这些视频的代码,很快,很多人开始学习如何制作自己的视频,并在过程中发现新的用例。关于Deepfakes的论坛非常受欢迎被铸币工人利用.在某种程度上,Deepfake的用户友好版技术是与密码器捆绑

技术

通过使用叫做AutoEncoder的深度学习技术实现了DeepFake效果。输入被压缩或编码成小表示。这些可用于重现原始输入,以便在同一上下文中匹配先前的图像(此处,它是视频)。不过,创作者需要足够的相关数据来实现这一目标。为了创建DeepFake图像,生产者使用面部A作为输入来再现面部B.因此,虽然面部A的所有者正在谈论Skype呼叫的来电侧,但接收器看到面部B制作运动。接收器将遵守呼叫,好像B是在进行谈话的人中。

我们给算法输入的目标人物的照片越多,模仿者的面部表情就会变得越真实。

鉴于AI已经存在,可以接受培训模仿声音after listening to it for about a minute, it doesn’t look as if it will take long before the voice impersonator can be replaced with another routine that repeats the caller’s sentences in a reasonable imitation of the voice that the receiver associates with the face on the screen.

虐童案件

如前所述,该技术首先用于用名人代替色情电影中的演员。我们还看到了一些关于如何用于创建的技术的示例“深的假新闻.”

所以,诈骗者占据了多长时间才能创造精心制作恶作剧,伪造宣传材料,进行现实的欺诈?

在当前的形势下,恶作剧和其他假新闻的破坏性已经足够了。从本质上讲,人们倾向于相信他们所看到的。如果他们能亲眼看到,为什么还要怀疑呢?

你可能会发现这个故事"世界大战"广播随之而来的恐慌有趣,但我很确定超过一百万的人被吓到的人不会同意你的意见。那只是一个无线电广播。想象一下,与“Live Iovageage”类似的东西,并使用您最喜爱的新闻锚的面孔和声音(或更好地说,令人信服的模仿)。想象一下,如果威胁演员可能欺骗恐怖袭击或大规模射击。有许多更令人邪恶的可能性。

对策

国防高级研究项目机构(DARPA)意识到Deepfakes可以姿势的危险。

“虽然许多操纵都是善意的,出于娱乐或艺术价值的考虑,但也有一些是出于敌对目的,比如宣传或虚假信息运动。

这种可视媒体的操纵是通过复杂的图像和视频编辑应用的广泛可用性,以及自动化操作算法,其允许以非常难以检测视觉上的方式或当前图像分析和视觉媒体取证工具的方式进行编辑.今天使用的法医工具缺乏稳健性和可扩展性,并仅解决媒体认证的某些方面;执行完整和自动取证分析的端到端平台不存在。“

darpa推出了MediFor该项目旨在刺激研究人员开发能够检测操作,甚至提供操作如何完成的信息的技术。

研究人员现在寻求揭示篡改视频的标志之一是视频中的人频率眨眼睛。如果正常人每隔几秒钟闪烁,那么深蓝的模仿可能根本无法做到,或者通常不足以令人信服。这种效果的原因之一是,闭着眼睛的人的照片不会出版,所以他们必须使用实际的视频片段作为输入使闪烁频率正确。

随着技术的进步,我们无疑会看到模仿和防守两方面的改进。已经很明显的是,要识别Deepfake视频需要的不仅仅是训练有素的眼睛——我们需要机器学习算法去适应。

防视频欺诈

随着Deepfakes领域的飞速发展,在不久的将来,你可能会看到使用这种方法的骗局或骗局。也许在某些时候,我们甚至会开始使用专门的反视频欺诈软件,就像我们已经习惯了使用反垃圾邮件和反恶意软件保护一样。

保持安全并保持警惕!