AI换脸是色情报复的新武器
不过,其中技术最为牛逼的是换脸UP主,他们用AI换脸技术,可以将蔡徐坤变成任何人,栩栩如生。
网友眼中有些古板的孙悟空六小龄童,在AI换脸的世界中,成了时尚潮男。
虽然我对蔡徐坤不是很熟,但我还是要谢谢蔡徐坤,是他让我领略了AI换脸的有趣,展开了对AI换脸的学习。
AI换脸,又叫Deepfake,是人工智能的一个分支,如果按族谱算,无人汽车、阿尔法狗、微软小冰等比较出名的产品,都是Deepfake的哥哥。
但在Deepfake的世界中,身份就是没有身份,美猴王可以打起篮球,苏大强可以变成吴彦祖。
△来源:梨视频 从b站海量up主可以掌握AI换脸来看,这技术看着新颖,实际操作起来,并不深奥。 换脸技术运用最广泛的领域就是电影,比方说1994年的《阿甘正传》就用了“原始”的换脸技术,用数字方式,将肯尼迪的影像填充到了电影中,并调节他的表情和肢体语言。 而在《速度与激情7》中,虽然沃克不幸在电影拍摄完成前去世了,但依靠换脸技术,通过电脑合成的沃克,还是能生动地出现在荧幕上,与大伙见面。 不过,在国外,网友们多是利用deepfake技术来恶搞政坛人物,而非大牌明星。 做这个希拉里·特朗普的视频不复杂,仅仅用了一个叫FAKEAPP的软件,放入图片、视频,成了,操作起来十分简单,就算是不懂得编程的人,只要仔细阅读使用帮助,也能马上动手做一个换脸视频。 不过,deepfake第一次广泛出现在观众视线的,并非令人逗乐的鬼畜创作,而是在Pornhub上流行的“deepfake”系列视频,就是把自己喜欢的女明星的脸,放上色情片女主角脸上。 在这个色情领域,安妮·海瑟薇、艾玛·沃特森、神奇女侠加尔·盖朵是被deepfake最多的女星。 而这些明星换脸视频的制作源头,往往指向一个地方——Reddit的deepfake论坛。 △如今deepfakes论坛,由于色情视频、色情复仇、隐私侵犯、恋童癖等问题被Reddit给封禁了 这个deepfakes论坛的发展过程,有点像倒过来的马斯洛需求金字塔。 在初期,少数了解deepfake技术的精英们,为了传播deepfake技术,创办了这个论坛,不仅满足了自己的成就感,也赢得了网友们的尊重。 不过,久而久之,网友们在讨论学习的过程中,也发现deepfake技术的黑暗面——可以满足自己的私欲、性幻想,网友们将自己“梦中情人”的面庞,放到了各色视频中。 然而,这种发展却逐渐异化、病态化了,有的网友直接收集女生照片,用deepfake技术定制色情片了。 △这位屌丝,得不到自己暗恋的女生,收集了许多她的照片,在各个社区求助,想自己动手做一部换脸黄片。他也在reddit上发过,帖子已经被封了 这种色情癖帖子的传播,最终很可能会演化出新产物——色情复仇。 比方说你憎恨某个人,那你就收集他的照片,用deepfake技术与色情片演员换脸,伪造色情视频,在网上传播。 偷窥狂、性报复者,不用提心吊胆地安装针孔摄像头了,只要偷拍女性的照片、或者在网上收集,接着利用deepfake技术,就能做出伪造精良的色情视频。 别说是你的爱豆了,就连你的爱人,要是被怀有恶意的老王盯上了,你能保护你爱人的名誉么? 印度记者Rana Ayyub,因为揭露了印度古吉拉特暴乱中官员的黑幕和不作为。她不仅收到了死亡威胁,她也被色情复仇了。 不法分子利用Deepfake技术,将Rana的脸与色情片女主角的脸互换,做成粗糙的短视频,在Whatsapp上传播。而且,许多印度人真的信了,甚至,Rana的家人还拿着视频来问Rana:“这是你么?” △在印度Whatsapp上流传的Rana的换脸视频,据Rana说,整个印度的人都看过了她的换脸视频 Whatsapp和推特上,不断地有人来询问Rana一夜情的报价,也有人用最恶毒的语言咒骂Rana。 △大意是:“一个婊子跟狗一起死去吧,支持她的垃圾都去哭吧。” 最后,因为社会的压力,Rana患病住院。心悸、焦虑、抑郁、失眠、高血压、内分泌失调。而且,印度尚不健全的法律制度,帮不了Rana。 现在的中国明星换脸的视频已经在这些色情网站上大量存在了,而且售卖视频已经成了一个地下生意。 大家不能低估了人性的恶,想要毁了一个人的人生,只需要一个精美的deepfake色情视频。 到时候即使某明星证明了该情色换脸视频是假的,又能怎样?大众还是喜欢看热闹,各种视频还是在疯狂传播,就像Rana的换脸小视频一样。 如果看待deepfake还停留在恶搞蔡徐坤、对着明星撸管儿、拍点低成本A片的阶段,还不足以概括其中的恶意。 除了色情领域的滥用,Deepfake更大的危害,目前在一片欢声笑语和淫秽视频中还没有显现,就是deepfake这个成本极低的技术,可以篡改视频证据。视频、照片已经不能算作真实的依据。 一些社交媒体疯狂的世界,人们无法识别什么是假新闻。早在2016年,欧洲刑警组织《网络有组织犯罪威胁评估报告》中,就已经点明了deepfake犯罪将成为趋势。 而且,现如今,在人工智能的圈子里,出现了Deepfake2.0概念,就是不止要AI换脸,还要能模仿一个人的行为举止、声音、习惯、动作。要真的实现了,AI换脸视频和真人视频,就根本无法分辨了。 △斯坦福研究中心的一个研究项目,研究怎么模仿一个人的口吻和语音 没准再过十几个月,一个小黑客就可以轻松模拟出川普和妓女的欢愉视频,或是普京辱骂穆斯林国家的视频。这会引起直接的国际争端和政治大变动。 对于我列举的可能,大家或许不以为然,想着怎么可能会有人会上当受骗。但事实就是在世界的许多地方,尤其是第三世界的穷人们,缺乏辨别是非的能力,他们就非常吃这一套。 △2018年7月,印度的Rainpada村村民,因为在Whatsapp听信了拐卖小孩的谣言后,将路过村口与小孩交谈的五位陌生人,抓入房间内打死 再比如,deepfake一个马云、马化腾唱衰经济的视频,很有可能造成一段时间的市场恐慌抛售,那么伪造视频的人可以借此大肆做空获利。你的财产就这么缩水了。 你可能会质疑,市场有这么蠢么?抱歉,这就是事实。2013年4月23日,美联社的推特账号被黑客攻击,发布了一条假新闻,说:“号外:白宫发生两次爆炸,奥巴马受伤”。 这么容易求证的假新闻,却导致道琼斯指数当即暴跌了140多点,在假新闻的冲击下,瞬间蒸发掉了1365亿美元。直到新闻被证伪,市场才渐渐回归理性。 而且,这则流言仅仅是假推特罢了,在deepfake2.0的加持之下,有可能川普今天在白宫宣布核震慑中东,明天普京就在克里姆林宫下令进军乌克兰了。 要是假新闻真的在网上流传了,社会会产生多么剧烈的反应?又需要多少时间重回正轨? 但作为一个缺乏反制能力的普通人,如果有人想利用deefapke视频对你进行诈骗,你很难防范。 东欧小国的某个模特,与你视频聊天,念着你的中文名,变着花样让你微信发红包,要你证明你们的爱情海枯石烂。 最近就有一个乌克兰的女性附着照片给我发邮件,但没有回复,因为这骗局已经太古老了,在这骗局之前,还有中东王子、非洲公主、南美毒枭都给我发过相亲信息了。但如果她和我视频聊天呢?我觉得我可能真的有些心动。 甚至,你的亲朋好友的脸也会被替换成勒索视频中的人质,哭着求你转账救人,要是你看到这个视频,你还能调用理性分辨出真假吗?我觉得很难。 抑或者,在一个换脸视频中,你的脸被放在了犯罪分子身上。这时候,你又该如何自证清白?在愤怒的网友面前,告诉大家这不是你? 04. https://www.cnbc.com/id/100646197 05. http://news.livedoor.com/article/detail/14661259/ 06. https://money.cnn.com/2018/02/08/technology/reddit-deepfake-porn-ai/index.html01.Deepfake是怎么成为色情复仇的新工具的?
02.Deepfake的世界里,还有真相吗?