AI与AI的较量!如何与Deepfake斗争 谁负责证明音频或视频已被操纵?

来源: 铮材实聊

在世界范围内,“说谎”变得越来越高科技,人们日益关注能够制作以假乱真的伪造视频和音频的先进技术,即所谓的“ Deepfake”。但是,与此同时,技术人员也在不断发展,正在反击这些谎言。

2018年12月,大西洋两岸选举廉政委员会(Transatlantic Commission on Election Integrity)成员艾琳多纳霍(Eileen Donahoe)对美国全国广播公司(CNBC)表示:“人们担心,全球范围内将出现一场越来越多的运动,破坏信息领域的质量,破坏民主所必需的话语质量。”“Deepfake”可能是下一代的造谣手段。

对于2020年美国大选,加利福尼亚州的立法者非常担心“Deepfake”会造成破坏性的影响,以至于他们在2019年10月通过了一项法律,禁止在选举后60天内分发“具有实质性欺骗性的音频或视频媒体”。

但是,尚未通过“Deepfake”进行政治干预的事例。在大多数“Deepfake”的出现在视频活动的创建中,在未经视频所有人同意的情况下,随意更改视频内容。但现在没有,并不意味着没有其他潜在风险。来来,包括伪造的刑事证据,欺诈或勒索等等。还有另一种可能性同样令人担忧的是,人们可能会错误地认为真实的视频是假的。

即使加利福尼亚州的“反深度造假法案(Anti-Deepfake Bill)”存在多个缺陷,其中一个揭示了一个重要问题:谁负责证明音频或视频已被操纵?

世界各地的一些研究人员正在通过用AI对抗AI来构建工具来帮助实现这一目标。“Deepfake”的核心在于,它们足够令人信服,足以愚弄人类。随着创建深层伪造的技术变得越来越有效,并且更容易被不良行为者使用,为深层伪造检测模式和分析创造同样强大的技术将成为揭露真相的关键点。

Dessa的联合创始人兼机器学习负责人拉加万·瑟拉拉特南(Ragavan Thurairatnam)表示:“对人类来说,那些做得很好的伪造的音频和视频很难发现。” Dessa是一家新兴公司,该公司已经建立了一种工具来模仿Joe Rogan的声音,以演示音频Deepfake的功能。该公司目前正在开发用于检测伪造音频的AI。

如果尝试一种传统的基于软件的方法,那么很难找出规则来编写代码,以便有效地对抗“Deepfake”。除此之外,“Deepfake”技术将不断改变,传统软件每次都必须手工重写。另一方面,只要你有足够的数据,AI就可以自己学习检测“Deepfake”。此外,它还可以适应新的“Deepfake”技术,因为即使在人眼难以察觉的情况下,它们也会真相。奥尔巴尼大学的吕思伟(Siwei Lyu)也认为,至少在目前,深度学习可能是关键。“数据驱动的深度学习方法似乎是迄今为止最有效的方法。因为他们从训练数据中学习分类规则,所以它们更灵活,可以适应视频传播的复杂条件,例如通过视频压缩、社会媒体清洗和其他应用程序所采用的反措施。”

然而,训练机器学习模型需要大量的数据。缺乏训练数据一直是研究人员试图建立有效的“Deepfake”检测系统的主要障碍。总部位于阿姆斯特丹的一家旨在打击“Deepfake”的初创公司Deeptrace最近的一份报告指出,网上有14678个“Deepfake”视频,其中绝大多数是不良视频。尽管增长率(自2018年12月上次审核以来发现的视频数量几乎翻了一番,尽管尚不清楚其中某些原因可能是由于Deeptrace的技术能力得到提升,更好地检测出这些视频),但令人担忧的是,这仍然是一个相对较低的训练AI算法的数字。

这对于伪造者是一种优势。尽管检测技术需要大量的“Deepfake”视频进行培训,但伪造者可能只需要在正确的时间在正确的位置放置一个视频即可实现其目标。

目前,尽管“Deepfake”的数量很少,但威胁正受到关注。为了帮助解决缺乏培训数据的问题,脸书、谷歌、亚马逊和微软最近联合宣布了Deepfake检测挑战。挑战赛将于下个月启动,它将发布一个专门创建的Deepfake数据集,其中使用付费演员为世界各地的研究人员提供模型的训练数据。开发有效的“Deepfake”检测系统显然符合公共利益,但这并非完全是科技巨头的无私之举,因为这些科技巨头可能在执行诸如加利福尼亚州的“反深度造假法案(Anti-Deepfake Bill)”之类的立法的第一线,因此有强烈的动机去寻找和建立实用的检测机制。

也有研究人员提出了另一种检测方法,该方法不需要大量数据。由于当前的“Deepfake”算法只能生成分辨率有限的图像,必须对其进行进一步变形以匹配原始视频,因此可以通过测量面部变形来识别造假视频。训练此模型所需的数据比许多其他深度学习方法少得多。当然,缺点是伪造者可能找到一种减少面部翘曲的方法。

还有一些研究人员观察到伪造视频中的人很少眨眼,并以此为基础建立了检测“Deepfake”伪造的模型。但是,技术高超的伪造者仍可以通过后期处理和更高级的模型以及更多的训练数据来创建逼真的眨眼效果。因此,一旦伪造者发现了这个过程,这种方法就不太可能有效。

伪造和检测之间的竞争是一个持续的猫捉老鼠游戏,双方将相互学习,并不断提高。

澳大利亚迪肯大学的研究团队最近比较了不同的人工智能检测深度学习模型,也认为深度学习是目前最有前途的方法,但还有其他的选择也值得探索。比如,[不使用深度学习,而是使用光响应非均匀性分析从正品中检测“Deepfake”。PRNU是一种噪声模式,源于数码相机感光传感器的工厂缺陷。PRNU对于每台数码相机都是不同的,通常被认为是数码图像的指纹。这种分析在图像取证中得到了广泛的应用,因为交换后的人脸会改变视频帧面部区域的局部PRNU模式。

但没有一种模型能够很好地适用于所有类型的“Deepfake”。对于“Deepfake”检测而言,尤其如此,因为大多数现有的“Deepfake”检测方法都是基于发现“Deepfake”创建方法中的弱点。但是,研究人员仍需要朝着寻找可以在大多数种类上有效执行的“Deepfake”检测模型的目标努力。

然而,开发用于深度检测的技术方法只是解决该问题的第一步。任何解决方案都只有在实施时才有效。这又回到了加州“反深度造假法案(Anti-Deepfake Bill)”中未解决的关键问题:谁负责证明音频或视频已被操纵?

提高对“Deepfake”的认识是消除其潜在恶意用途的最佳方法之一。在最近发生的Deepfake欺诈案,一名首席执行官的声音被伪造用来从一家英国的能源公司窃取 22万欧元(18.9万英镑),而电话那头以为自己在和老板说话的高管还一无所知。如果他有对这种“Deepfake”技术有所了解,那么当我们觉得事情看起来不对劲时,我们应该怀疑是否应该相信自己的耳朵或者眼睛,这是确保人们不那么容易被这些技术欺骗的第一步。

个人用户的意识是很重要的,但是问题的严重性意味着最终可能是科技技术公司必须从这些伪造的产品中分清真相。

在技术平台层面,尤其是Facebook,Twitter和Youtube等社交媒体巨头,整合deepfake检测系统可能是打击deepfake内容泛滥的唯一现实途径。这既有优点也有缺点,一方面,这些平台的规模和覆盖范围可实现无与伦比的全局可见性和数据分析。科技巨头之间在“ Deepfake检测挑战”上的合作可能为在进一步打击Deepfake的集体行动中奠定基础。

一种选择可能是建立一个类似于目前全球反恐互联网论坛的系统。GIFCT管理一个数据库,允许科技公司共享问题内容。这意味着,例如,如果Facebook在其平台上找到恐怖分子视频,他们可以将该内容的特征值共享到数据库中,以便Youtube或Twitter可以调查该视频是否也已上传到他们的服务中。

但科技巨头的全球规模也带来了挑战。文化误会、认识讽刺和受保护的政治言论、法律管辖区的复杂性和不相容的国家法律都是影响GIFCT的问题,并且可能影响任何管理GIFCT的协调努力。

尽管深度检测技术非常复杂,但与人心相比,它可能是最容易的部分。

标签: Deepfake

精彩放送

热文