担心被 AI 换脸技术祸害?Deepfake 纠察队正在赶来
时间:2020-07-11 出处:H懂生活
Deepfake 自问世以来,一路向人性阴暗面直奔。民间技术已能将 AI 换脸教程玩得不亦乐乎,但每个人更容易成为受害者:假造绑架影片勒索诈骗,不雅影片损毁名誉,或恐怖影片製造混乱,都因 Deepfake 开源技术变得空前容易。 让名人换上小布希的脸部动作。PS 摧毁大众对图片的信任后,Deepfa
担心被 AI 换脸技术祸害?Deepfake 纠察队正在赶来

Deepfake 自问世以来,一路向人性阴暗面直奔。民间技术已能将 AI 换脸教程玩得不亦乐乎,但每个人更容易成为受害者:假造绑架影片勒索诈骗,不雅影片损毁名誉,或恐怖影片製造混乱,都因 Deepfake 开源技术变得空前容易。

担心被 AI 换脸技术祸害?Deepfake 纠察队正在赶来

让名人换上小布希的脸部动作。

PS 摧毁大众对图片的信任后,Deepfake 也在摧毁大众对影片的信任。没有人想在网路看到自己的面孔说出没说过的话,许多针对个人的伤害,也因为影响不够大而投诉无门。

美国正在形成一支 Deepfake 纠察队,不仅是学校实验室、研究中心在找寻 Deepfake 的破绽,创业潮流也在兴起。

但这是一场造假 AI 与辨别 AI「你有张良计,我有过墙梯」的竞赛。每篇检讨 Deepfake 的论文,彷彿帮造假技术修补漏洞,进而更上一层楼。

​关上 Deepfake 的潘多拉盒子,他们能做到吗?

以找出 Deepfake 创业

Shiva Kintali 离开担任讲师 4 年的普林斯顿大学电脑系,正在硅谷创业认证虚拟造影片,合作对象有警察、记者、保险公司等,透过机器学习找寻虚拟影片的破绽,用区块链纪录资讯等技术来辅助认证。

Kintali 的网站可上传影像、音讯、影片来分析检查是否有修改痕迹。他同时开发手机相机应用,用人工智慧为影像添加时间、地点浮水印,并将图片初始资讯印至区块链。一旦影像的资讯与原始图片不符,就容易判断真假。

这些产品希望帮助记者、媒体公司、政治竞选团体、执法机构(如 FBI、NSA),保险公司(假事故照片的保险索赔问题)和大公司(如 Facebook、Twitter、Redditt、PornHub),在平台阻止假影片、假音讯、照片传递。

由于 Deepfake 降低了影片造假的门槛。面对真假难辨的影像资料,记者不知道能否发表,保险公司不知是应该理赔还是警告诈骗,警察收集证据后,也需要专业工具鉴定图片和影片的真假。

目前流传的假影片大多是「浅度造假」,但因数量多,造成无数困扰。史丹佛研究人员向认证公司确认困扰他们的三大问题:数量太多、可用认证时间太短、缺乏标準化工具。

因此,研究者搜寻能大规模应用的检测方法。Facebook、Twitter 等社群网路爆炸式传递的图片和影像,留给验证真假的时间越来越短。大众也不可能雇用专业人士认证。

商用化的影像验证平台 Truepic 已上线智慧相机应用软体。用户将拍下的影像上传至伺服器,建立时身分验证照片和影片,获得唯一编码。相机应用撷取装置的感测器资料,在传送之前加密照片或影片,执行 20 多个影像取证测试,并在几秒钟内,将影像加密签名印至公用区块链,使资讯不可篡改。

这是一种「自证清白」的方式,适用电子商务平台和公民记者类用户。如果用户将图片传给接收者,Truepic 允许收件人验证影像的原点和资料的完整性。任何二次传递的多媒体材料,都可与区块链原始资讯对比,辨别真假。

在 Deepfake 的威胁下,鉴定图片影片的真实性,都成了相机应用的卖点。但这类以营利为目的的产品又引起用户的新担忧。毕竟,谁能确保 Truepic 也不作恶?

演算法打演算法

位于硅谷的 SRI International AI 中心则「以毒攻毒」,用假影片训练演算法,让演算法辨识虚拟痕迹。在人们上传影片到社交网站时,平台需要重新编码影片。这是个侦测假影片的好时机。

但随着 Deepfake 漏洞日渐最佳化,用演算法打演算法的难度也日益增加。

辨别 AI 原本就是训练造假 AI 的一部分,两者刚好在生成对抗性网路的两端。一个是建构程式,一个是认证程式,道高一尺,魔高一丈。

由于 Deepfake 的技术在于篡改资料,认证方则搜寻一切篡改资料的痕迹。一种方法是基于像素的影片侦测,影片其实是成千上万帧图片连放,细致到侦测每个像素的改变痕迹,是颇浩大的工程。

此外,假的脸部表情仍有缺陷。假脸部表情往往与其他部分不一致,电脑演算法可侦测图片或影片的不一致。

担心被 AI 换脸技术祸害?Deepfake 纠察队正在赶来

加州大学柏克莱分校研究者比对真假人物的脸部差异。

举例来说,初代 Deepfake 影片的人物,眨眼方式都有点奇怪。

纽约州立大学奥尔巴尼分校电脑科学副教授 Siwei Lyu 曾撰文表示,成年人眨眼间隔为 2~10 秒,一次眨眼需要十分之一到十分之四秒。这是正常影片人物应有的眨眼频率,但很多 Deepfake 影片的人做不到。

由于缺乏闭眼影像资料,演算法的训练并不完美,影片人物面孔总有一种「哪里不对」的不和谐感。

然而,透过闭眼的脸部影像、或使用影片串列训练,可改善眨眼间隔。假影片的品质总会提高,而研究人员需要继续找寻检测漏洞的方法。

南加大研究者 Wael Abd-Almageed 表示,社群网路可使用演算法大规模辨识 Deepfake。为了做到自动化,研究人员首先建立一个神经网路,「学习」人类说话时如何行动的重要特徵。然后,研究人员使用这些参数将假影片的堆叠帧输入 AI 模型,侦测随时间的不一致性。

普渡大学研究人员也採用类似方法,他们认为,随着训练模型的 Deepfake 资料量越来越大,模型也会更精确,更容易找出假影片。

美国 2020 年总统大选在即,如何阻止 Deepfake 从低俗娱乐发展到操纵民意,是研究者最迫切的动力之一。但愿一键辨假的速度,能追上一键换脸的速度。



上一篇: 下一篇: