担心被AI换脸技术祸害?别怕!Deepfake打假队正在赶来

时间:2019-08-23 来源:www.shanghaiwenjiangui.com

PingWest昨天玩我要分享image.php?url=0MouTkYJPL关闭Deepfake Pandora Box,他们能做到吗?自成立以来,Deepfake一直奔向人性的黑暗面。

B台用户要求蔡旭坤在偶像教练的C台上首次亮相,面对一个六岁的男孩。民间技术流程已经能够与AI变脸教程对抗。但每个人都更有可能成为受害者:假冒绑架视频勒索软件,猥亵视频破坏声誉或恐怖视频搞乱,因为Deepfake的开源技术从未如此简单。

image.php?url=0MouTkUb3C

让名人改变布什的面部动作。在PS摧毁了公众对图片的信任之后,TED正在摧毁公众对视频的信任。没有人愿意在互联网上看到他们的脸,并说出他们没有说的话。很多人受伤,而且因为影响不够大,没有办法抱怨。美国正在组建一支Deepfake反假冒团队。大学实验室和研究中心不仅在寻找Deepfake的缺陷,而且还出现了一种商业趋势。但这是假人工智能和虚假AI之间的竞争“你有一个好的计划,我有一个墙梯”。每一篇测试Deepfake的论文似乎都能够证明假技术可以修复自己的漏洞并将其提升到一个新的水平。关闭Deepfake Pandora的盒子,他们能做到吗? Shivas有太多伪造的Deepfake,可用的身份验证时间太短,缺乏标准化的工具。因此,研究人员正在寻找可以大规模应用的防伪方法。 Facebook和Twitter等社交网络上的图片和图像爆炸,使得谣言的时间窗口越来越短。一般公众也不可能聘请专业人士进行身份识别。商业前图像验证平台Truepic推出了智能相机应用程序。用户拍摄的图像将被上传到服务器,并且在创建时将对照片和视频进行认证以获得唯一代码。相机应用程序捕获设备的传感器数据,在传输之前加密照片或视频,运行20多个图像取证测试,并在几秒钟内在公共区块链上打印图像的加密签名,以便信息不能篡改。这是电子商务平台和公民记者的“自我归罪”方法。如果用户将图片发送给收件人,Truepic允许收件人验证图像的来源和元数据完整性。可以将任何二次传播的多媒体材料与区块链上的原始信息进行比较,以区分真假。在Deepfake的威胁下,识别图像和视频的真实性已成为相机应用的卖点。但这种营利性产品已经引起了用户新的隐私问题。毕竟,谁能确保Truepic不做恶?算法算法位于硅谷的SRI国际AI中心,它使用“假中毒”使算法更好地识别伪造的痕迹。当人们将视频上传到社交网站时,平台需要重新编码视频。这是检测虚假视频的好时机。然而,随着Deepfake的漏洞变得越来越好,使用算法算法越来越困难。伪AI最初是培训欺诈AI的一部分,它恰好产生了对抗性网络的两端。发电机,鉴别器,高1英尺,高高。由于Deepfake的技术正在篡改数据,因此验证者正在寻找所有篡改数据的痕迹。一种方法是基于像素的视频检测。视频实际上是成千上万帧的图片,精心检测每个像素的变化轨迹是一个非常大的项目。此外,虚假的面部表情仍然存在缺陷。伪造的面部表情往往与其他部分不一致,并且计算机算法可以检测图片或视频中的这种不一致。

image.php?url=0MouTk9GBJ

加州大学伯克利分校的研究人员比较了真假数字的面部差异。加州大学伯克利分校(UC Berkeley)例如,第一代Deepfake视频中的人物有点奇怪。纽约州立大学奥尔巴尼分校计算机科学副教授Siwei Lyu写道,成年人的眨眼间隔为2到10秒,眨眼间需要十分之一到十分之四秒。这是普通视频角色应该具有的闪烁频率,但Deepfake视频中的许多角色都无法做到这一点。那时,由于缺乏闭眼图像数据,算法的训练并不完美。在视频角色面前总会有一种不和谐感。但是,可以通过关闭面部图像或使用视频序列进行训练来改善眨眼间隔。假视频的质量总是在提高,研究人员需要继续寻找检测漏洞的方法。根据南加州大学的研究员Wael Abd-Almageed的说法,社交网络可以使用算法来大规模地识别Deepfake。为了使这一过程自动化,研究人员首先建立了一个神经网络,“学习”人类说话时如何移动的重要特征。然后,研究人员使用这些参数将伪造视频的堆叠帧输入AI模型,以检测随时间的不一致性。普渡大学的研究人员采用了类似的方法。他们认为,随着训练模型中Deepfake视频数据量的增加,模型将更准确,更容易检测伪造视频。美国2020年的大选即将来临。如何防止Deepfake从庸俗娱乐发展到操纵舆论是研究人员最迫切的动机之一。我希望一键假货的速度,能赶上一把钥匙改变脸部的速度。

喜欢这篇文章?

2)将其分享给您的朋友和小组圈

3)关注硅星!

收集报告投诉