近日发表在《Proceedings of the National Academy of Sciences USA》上的一项新研究提供了一个衡量“深度伪造”技术已取得多大进展的标准。研究结果表明,真正的人类很容易被机器生成的面孔所迷惑,甚至将其解释为比真人更容易获得信任。
研究报告的共同作者、加州大学伯克利分校教授Hany Farid指出:“我们发现,合成脸不仅高度逼真且被认为比真实脸更容易获得信任。这一结果引起了人们的担忧,这些面孔在被用于邪恶目的时可能非常有效。”
来自意大利瑞士大学的副教授Piotr Didyk则表示:“我们确实已经进入了危险的深度伪造的世界。”他没有参与该论文。Didyk认为,尽管创建同样复杂的视频更具挑战性,但其工具可能很快就会被普遍使用。
这项研究的合成面孔则是在两个神经网络之间的来回互动中形成的,这是一种被称为生成式对抗网络的例子。其中一个网络被称为生成器,它产生了一系列不断发展的合成面孔;另一个网络被称为鉴别器,它在真实图像上进行训练,然后通过跟实际面孔的数据进行比较对生成的输出进行分级。
生成器以随机像素开始练习。随着鉴别器的反馈,它逐渐产生了越来越逼真的人脸。最终,鉴别器无法分辨出真假人脸。
该网络在代表黑人、东亚、南亚和白人男性和女性面孔的真实图像阵列上进行了训练,这跟早期研究中更常见的白人男性面孔形成鲜明对比。
在将400张真实面孔跟400张合成面孔相匹配后,研究人员要求315人在128张图片中分辨出真假。另一组219名参与者在试图区分脸部时得到了一些关于如何识别假货的培训和反馈。最后,第三组223名参与者对128张图片的可信度进行了评分,评分标准为1(非常不值得信任)至7(非常值得信任)。
第一组在分辨真假人脸方面的表现并不比抛硬币的结果好,平均准确率为48.2%。第二组未能显示出戏剧性的改善,只得到了约59%,即使有关于这些参与者的选择的反馈。对可信度进行评分的小组给合成人脸的平均评分略高,为4.82分,而真人的评分为4.48分。
研究人员并没有预料到这些结果。“我们最初认为,合成面孔会比真实面孔更不值得信任,”这项研究的论文共同作者Sophie Nightingale说道。
这一发现增加了人们对技术可及性的担忧,因为几乎任何人都有可能创造出具有欺骗性的静态图像。Nightingale说道:“任何人都可以在没有Photoshop或CGI专业知识的情况下创建合成内容。”南加州大学视觉智能和多媒体分析实验室的创始主任Wael Abd-Almageed则称,另一个担忧是,这种发现会给人一种印象,即深度造假将变得完全无法检测。据悉,Almageed没有参与这项研究。他担心科学家们可能会放弃开发应对深度伪造的措施。
人权组织WITNESS的项目战略和创新总监Sam Gregory指出:“在这个研究界没有发生足够的对话,那就是如何积极主动地开始改进这些检测工具。”据悉,该组织部分地专注于区分深度伪造的方法。他表示,制作检测工具非常重要,因为人们往往会高估自己识别假货的能力,并且“公众总是不得不去了解他们被恶意使用的情况。”
没有参与这项研究的Gregory指出,论文作者们直接解决了这些问题。他们强调了三种可能的解决方案,包括为这些生成的图像创建持久的水印,“比如嵌入指纹,这样你就可以看到它来自一个生成过程”。
研究人员在强调深度伪造的欺骗性使用将继续构成威胁之后以一个严酷的结论结束--“因此,我们鼓励那些开发这些技术的人考虑相关的风险是否大于其收益。如果是这样,那么我们不鼓励开发技术,仅仅是因为它是可能的。”