新西蘭
繁體中文(台灣)
分享

换脸App背后的恐慌:我的脸什么时候会被伪造,又该如何辨别?

转载作者: EON
换脸App背后的恐慌:我的脸什么时候会被伪造,又该如何辨别?
摘要这种以假乱真的换脸视频技术,其实已经不是什么新鲜事了。

谁能想到,全民换脸的时刻这么快就来临了。在一夜之间,朋友圈几乎被ZAO刷屏,亲朋好友们纷纷用自己的脸换上了电影明星的脸,“上演天下好戏”。

这种以假乱真的换脸视频技术,其实已经不是什么新鲜事了担心自己成为色情片的主角

然而在火爆之后,质疑声也接踵而至。很多人开始针对ZAO的用户协议提出批评,直指你的脸有可能被恶意利用,甚至在出现侵权问题时也可能是你来背锅。

hougarden

在受到争议后,ZAO修改的最新用户协议 | ZAO用户协议截图

让AI技术触及大众本来是件好事,那换脸视频到底出了什么问题呢?

hougarden

换脸变得越来越容易

要了解这种换脸视频是如何实现的,Deepfake技术

2017年,一位叫做“Deepfakes”的Reddit网友上传了几个色情视频,引起轰动。令人意外的是,这些视频里的演员都是名人,比如“神奇女侠”盖尔·加朵和“赫敏”艾玛·沃森。当然这些视频并不是真的,而是借由AI技术伪造,这种技术因此得名Deepfake。

“我只是找到了一个聪明的方法来换脸。”Deepfakes在接受Vice采访时说, “有了数百张面部图像,我就能轻松生成数百万变形的图像来训练神经网络

hougarden

动起来的玛丽莲梦露、爱因斯坦和蒙娜丽莎 | Egor Zakharov/YouTube

这就是被称为“生成对抗网络”(GAN)的一种深度学习技术。简单来说,要伪造视频,我们首先需要两个神经网络来参与。网络A会生成一个假的视频片段,然后问网络B这个视频是否为真,网络B的反馈能够加强网络A所生成图像的可信度。前者被称作生成网络,后者则为判别网络。

就这样,两个神经网络在不断对抗中学习,直至Deepfake生成以假乱真的视频。

2017年12月

Reddit网友“Deepfakes”在社区r / deepfakes发布伪造的名人色情视频,其中包括演员斯嘉丽·约翰逊、歌手泰勒·斯威夫特和凯蒂·佩里等人。Deepfakes声称自己所使用的是多个深度学习的开源库,例如Google 的人工智能框架TensorFlow。

2018年1月

能够换脸的软件FakeApp推出,该软件同样基于TensorFlow开发。

2018年2月

Reddit禁止用户在r / deepfakes分享深度学习伪造的非自愿色情内容,Twitter和成人视频网站Pornhub也在随后做出类似举动。

2018年9月

Google在禁止列表里添加了“非自愿合成色情图像”,允许任何人请求搜索引擎封锁有关自己的虚假色情内容。

2018年12月

斯嘉丽·约翰逊在《华盛顿邮报》公开谈论Deepfake事件:“任何人都会成为目标,这只是时间问题”。

2019年2月

26日,一段杨幂的换脸视频蹿红网络。名为“换脸哥”的B站Up主通过Deepfake修改了94版《射雕英雄传》的视频片段,将朱茵的脸换成杨幂的脸。2月27日,“换脸哥”发布微博称“及时下架了相关视频”,并指出“大家应尊重版权与肖像权,专注于技术本身”。

2019年6月

DeepNude的Windows和Linux程序公开下载,该程序能够将图像中女性的衣物删除。6月27日,DeepNude的开发者关闭该程序。

hougarden

不只是隐私问题

如今,Deepfake让“眼见不一定为实”有了新的诠释。“无图无真相”的时代早已过去,换脸、换头甚至换声音的技术让真相变得更加扑朔迷离。

在国外媒体BuzzFeed通过FakeApp制作的一段视频中,你可以看到电影制作人乔丹·皮尔(Jordan Peele)充当奥巴马所发表的讲话。

hougarden

BuzzFeed视频片段 | BuzzFeedNews

“这是一个危险的时代。我们在互联网所相信的东西,我们对此应该更加警惕。”皮尔假扮的“奥巴马”说。

值得注意的是,像Deepfake和FakeApp这样的技术和程序已经有很多了。由德国研究人员开发的Face2Face,能实时捕捉人的面部图像,并将其移植到另一个视频中。人的神态和动作也能被轻易模仿,通过斯坦福大学的研究人员开发的“深度视频肖像”( Deep Video Portraits)技术,你能像操控牵线木偶一般生成假视频——实现转头、做出表情、注视和眨眼等动作。

与此同时,声音也能被伪造了。早在2016年,Adobe就展示了自己的Voco软件(至今仍未发布),该软件只需要20分钟的目标语音,就能生成听起来十分相似的语音。创业公司Lyrebird的产品声称,只用一分钟的音频就能模仿任何人说话。而百度推出的Deep Voice算法,甚至将生成假音频所需的音频时间减少到3.7秒。

hougarden

DeepNude官方推特的声明 | deepnudeapp/Twitter

在这些技术的加持下,轻易就能伪造却难以辨伪的内容,可能让社会面临种种威胁,而色情视频只是其中一个缩影。评论者们指出,任何人都将无法保护自己的隐私权和肖像权,假新闻更容易猖獗,政客甚至可以用其攻击竞争对手,别有用心的人可能借此影响股市等。个人信息的安全也更难保证,合成的语音或视频将欺骗生物验证,例如需要真人才能验证的语音和面部识别。

但更令人担忧的问题在于,FakeApp和ZAO这样的AI程序正在变得唾手可得。更多人能够接触到这类AI技术,意味着其被滥用的可能性也相应增加了。

hougarden

如何揭露真相?

面对Deepfake的泛滥,一个很自然的解决方法是,技术引发的问题交给技术来解决

从技术上来说,Deepfake会在篡改视频上留下可预测的伪造痕迹,而深度学习算法能够检测到它们

美国国防部高级研究计划局(DARPA)已经专门成立“媒体取证”项目(The Media Forensics)来解决Deepfake带来的问题,并资助研究者探索自动检测Deepfake的最佳方法。其中一个受到资助的研究团队发现,可以通过分析视频中的眨眼来辨别Deepfake,因为名人眨眼的照片并不多。

hougarden

视频片段,盖尔·加朵的脸被放在了色情电影演员的身上 | vice.com

在推进假音频检测的过程中,Google在2019年的ASVspoof挑战中为开发人员提供了合成语音的数据集,帮其开发更安全的自动语音验证系统。除此之外,甚至还有更为硬核的研究:检测Deepfake音频的不再是AI本身,而是小鼠。

在最近的一项研究中,俄勒冈大学的研究人员成功训练老鼠来检测假的语音。通过让小鼠辨别辅音,例如不同语境中“buh”和“guh”的区别,小鼠能够以80%的准确度辨别真假语音。研究人员表示,用小鼠模型来研究复杂声音处理是很有前景的,“研究哺乳动物的听觉系统检测音频的计算机制,有助于研究下一代的欺骗检测通用算法”。

除技术之外,我们还有办法应对Deepfake的横行吗?有些细微瑕疵还是能够通过肉眼识别

1.不要妄下结论;

2.考虑内容的来源;

3.验证这些内容都出现在哪些地方;

4.检查人物的嘴部动作;

5.放慢视频,仔细观察。

然而在这个“后真相”的时代,我们很难奢求所有人都花心思去辨别一个视频的真伪。而在全民“ZAO”脸的狂欢下,已经轻易将自己的肖像拱手相让的我们,会有心思去辨别什么是真,什么是假吗?

参考文献:

[1]https://www.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn

[2]https://www.washingtonpost.com/technology/2018/12/31/scarlett-johansson-fake-ai-generated-sex-videos-nothing-can-stop-someone-cutting-pasting-my-image

[3]https://www.law.com/legaltechnews/2019/03/19/harvard-and-mit-fund-deepfake-detection-government-transparency-ai-tools/?slreturn=20190801224307

[4]https://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/experts-bet-on-first-deepfakes-political-scandal

[5]https://www.axios.com/the-coming-deepfakes-threat-to-businesses-308432e8-f1d8-465e-b628-07498a7c1e2a.html

[6]https://www.axios.com/deepfake-audio-ai-impersonators-f736a8fc-162e-47f0-a582-e5eb8b8262ff.html

[7]https://www.theverge.com/2019/3/5/18251736/deepfake-propaganda-misinformation-troll-video-hoax

[8]https://www.alienvault.com/blogs/security-essentials/deepfakes-are-a-problem-whats-the-solution

[9]https://www.buzzfeed.com/craigsilverman/obama-jordan-peele-deepfake-video-debunk-buzzfeed

[10]https://web.stanford.edu/~zollhoef/papers/CVPR2016_Face2Face/page.html

vice.com/en_us/article/d3wd3k/gfycat-fighting-ai-porn-deepfakes-fake-news

[11]https://www.pcmag.com/news/370040/how-lab-mice-are-helping-detect-deepfakes

[12]https://www.governmentciomedia.com/darpa-tackles-deepfakes-ai

[13]https://www.buzzfeednews.com/article/davidmack/obama-fake-news-jordan-peele-psa-video-buzzfeed#.gcxNolpGL

作者:EON

编辑:八云

一个AI

AI不坏,但要看你怎么用。

(责任编辑:Aimee)



转载声明转载声明:本文系后花园转载发布,仅代表原作者或原平台态度,不代表我方观点。后花园仅提供信息发布平台,文章或有适当删改。对转载有异议和删稿要求的原著方,可联络[email protected]