我早就说过,Deepfakes错失了机会,因为它是一段隐秘、可信的视频片段,能够扭转选举或其他重大事件的趋势。我们已经多次看到在重要事件中如何使用建议示例一直都很糟糕,而明智的使用往往是安静,低级的事情作为垫脚石,而不是最终目标。

另一种观点是,人们会发现移动图像比照片或人工智能生成的文本更可信。这是一个完全公正的观点,我们也不能确切地说,在全球范围内,没有任何严重的坏事会来自deepfake。然而,一项研究表明,在这成为可能之前,造假者还有一段路要走。

音频和视觉线索

寄存器报告麻省理工学院的研究人员已经揭开了整个深度造假问题的面纱。只有5000多人参加了视频/音频和文本文本的对决。任务是:弄清楚乔·拜登和唐纳德·特朗普的音频、视频/音频和文字记录是真的还是假的。结果:

视频和音频: 82%猜对了

音频只有76%的人猜对

文本只57%的人猜对

有人会认为只有文本将是相当的掷骰子。就视频而言,我们是否能更好地发现大多数深度造假内容中的连接、编辑和轻微的恐怖谷效应?在过去的几年里,我们看到了那么多深度造假的内容,我们是否以某种方式训练了自己知道什么时候是不对的?

这些问题我们还没有答案,尽管一如既往,我们可能有更紧迫的担忧。

谁需要深度造假?

就深度造假而言,我是阻力最小的想法的粉丝。也就是说,是否有更简单的方法来实现deepfake的预期效果?而且,如果是这样的话,为什么一开始还要使用deepfake呢?这是一项巨大风险却几乎没有回报的工作。

一个很好的例子是:目前围绕乌克兰事件的许多不实消息。深度造假没有被使用;这只是普通镜头以任何需要的方式拼接。当简单的照片或病毒视频被贴错标签并传播开来时,可能就不需要复杂复杂的人工智能生成的假货了。

仅在过去的几天里,我们就在社交媒体上看到了几个这种现象的例子,通常是由社交媒体上经过验证的(可能被误认为是权威的)评论员宣传的:

数字篡改视频与jpeg对比

评论人士继续警告深度造假的危险,但看看这个例子来自这个视频。他的头移动得很奇怪,看起来和他那特别扁平的身体没有很好地连接在一起。整个过程中,嘴巴在不同的地方奇怪地移动。即使不使用工具来分析视频,内容显然也有很大的问题。所以,我们又回到了开始的地方:尝试和测试方法,技术开销要求较低。当超过1400万人被告知史蒂文·西格尔在前线由于匆忙的图像编辑,过度锻造的深度伪造的影响逐渐消失在远处。

当赝品与赝品斗争的时候

最重要的是,我们看到了换脸应用试图传播真实的信息.据称,一场活动共发送了900万条信息,其中200万条发送给了俄罗斯的用户。可以说,在重大活动中,deepfake技术最有趣、最普遍的用途就是从本质上取消其自身的力量。

对于人工智能改变的革命来说,这的确是一个奇怪的时代,它似乎从未真正着陆。