本报记者邵文
看到这张照片,你觉得是真的人脸照片吗?
实际上,这是一个名为“此人不存在”的网站生成的合成人脸照片(this-person-does-not-exist.com)。
“我们对AI合成人脸照片真实感的评估表明,合成引擎已经走过了‘恐怖谷’,可以创建与真实人脸难以区分的人脸,更加可靠。”2月14日,一篇发表在《美国国家科学院院刊》( PNAS)上的论文在摘要中说。
“恐怖谷效应”是由森昌弘在1970年提出的,是关于人类对机器人和非人类物体的感受的一种假说。
“恐怖谷效应”是指由于机器人在外形和动作上与人类相似,人类也会对机器人产生积极的感情。当机器人和人类的相似度达到一定程度时,人类对它们的反应会突然变得极其消极和厌恶。哪怕机器人和人类只有一点点差别,也会非常显眼,非常刺耳,让整个机器人非常僵硬,非常恐怖。在合成人脸照片的场景中,“恐怖谷”效应往往来自于人眼中空孔洞的表情所带来的不安。
一旦机器人与人类的相似度持续上升,相当于普通人之间的相似度,人类对它们的情感反应就会再次回归积极,从而产生人类之间的共情。
越来越多令人信服的图像正在将观众拉出“恐怖谷”,带入Deepfake构建的欺骗世界。在加州大学伯克利分校教授哈尼·法里德和兰卡斯特大学博士生索菲·南丁格尔(Sophie Nightingale)进行的“AI合成人脸与真实人脸难以区分,更可靠”的研究中,实验参与者被要求区分神经网络StyleGAN2合成人脸与真实人脸,以及这些人脸引起的信任程度。
本研究由三个实验组成。在第一个实验中,315名参与者将128张人脸(从一组800张人脸中提取)分类为真实人脸或合成人脸,准确率为48%。
在第二个实验中,219名新参与者接受了识别真实面孔和合成面孔的训练,然后128张面孔被归类为第一个实验中的面孔。尽管进行了训练,但最终的准确率只提高到了59%。
然后,研究人员决定探索可信度的感知是否可以帮助人们识别人工图像。“人脸提供了丰富的信息源,只需要几毫秒就可以隐式推断出个人特征(比如可信度)。我们想知道合成面孔是否会激活同样的可信度判断。如果不是,可信度的感知可能有助于区分真实人脸和合成人脸。”
在第三个实验中,223名参与者对128张面孔的可靠性进行评级,这些面孔取自同一组的800张面孔,从1(非常不可靠)到7(非常可信)不等。最后,合成人脸的平均得分比真实人脸高7.7%,具有统计学意义。
实验结果表明,合成的人脸照片与真实人脸几乎没有区别,甚至更加可信。这个结果也是研究者始料未及的。南丁格尔说,“我们最初认为合成脸不如真实脸可信。”
生成这张人脸照片的StyleGAN是英伟达在2018年开发的神经网络。GAN由两个相互竞争的神经网络组成,其中一个叫生成器,不断生成某个东西,另一个叫鉴别器,不断尝试确定结果是真的还是第一个生成的。生成器从随机像素开始练习。随着鉴别器的反馈,逐渐产生越来越逼真的人脸。最后鉴别器分不清真脸和假脸,训练结束。
创造不存在的人脸照片其实是甘的副产品。它最初的主要目标是训练人工智能识别假脸和普通脸。Nvidia需要自动识别人脸,并应用其他渲染算法来提高其显卡性能。然而,由于StyleGAN代码是公开的,一名优步工程师用它创建了一个随机面部生成器。
Deepfake技术的恶意使用在现实中已经体现在很多方面,比如美国大选的虚假宣传活动,为敲诈而制造的虚假色情内容等等。Deepfake技术出现以来,已经成为识别深度伪造和进一步欺骗识别之间的“军备竞赛”。
现在这个关于Deepfake进展的研究,让人们更加担心它的滥用。“任何人都可以在没有Photoshop或CGI专业知识的情况下创建复合内容,”南丁格尔说。
南加州大学视觉智能和多媒体分析实验室主任Wael Abd-Almageed在接受《科学美国人》采访时表示,“另一个担忧是,这些发现会让人们觉得深度伪造将变得完全无法检测,科学家可能会放弃尝试开发针对深度伪造的对策。”
两位研究人员还提出了对策,例如将强大的水印结合到图像和视频合成网络中,这将为可靠的识别提供有效的机制。
该论文写道,也许最有害的事情是,在任何图像和视频都可以伪造的数字世界中,任何不受欢迎的记录的真实性都可能受到质疑。“因此,我们鼓励推动技术发展的人考虑风险是否大于收益,而不仅仅是从技术角度考虑是否有可能实现。”
编辑:李跃群
校对:刘伟