新西兰
中文简体
分享

为什么我们对deepfake技术又爱又恨?

转载作者: 腾讯研究院
为什么我们对deepfake技术又爱又恨?
摘要编者按:本文来自微信公众号“腾讯研究院”(ID:cyberlawrc),作者 S君. ai……

为什么我们对deepfake技术又爱又恨?

Deefake到底是什么?即便你对这个近来AI界频频出现的热词不够了解,对「AI换脸」也一定不陌生。从国外的恶搞奥巴马、盖尔加朵,到国内的朱茵换脸杨幂、以及ZAO App的昙花一现。这项脑洞大开的技术在2017年由Reddit网站用户「deepfakes」提出并开源,便在论坛炸了锅。随即衍生出FakeApp等视频合成工具和一系列伪造影片。

这种源自人工智能生成对抗网络(GAN,generative adversarial network)的伪造技术,可以实现用另一张人脸图片替换掉原始视频中的原始人像。基于GAN算法的博弈优化原理,最终生成逼真度极高的伪造视频,目前已可以以假乱真。

hougarden

一方面,deepfake技术应用在影视文化行业的想象空间极大,另一方面,恶搞与色情影片对人性的耸动,使其从诞生之初就伴随着肖像权、版权和伦理层面的纷争。deepfake被滥用究竟有何威胁?造假之风日盛,打假军团也逐渐诞生。用AI打假AI,成为一场「军备竞赛」。而我们会获胜吗?

Deepfake被滥用对我们究竟意味着什么?

■ 近来的一项研究表明,目前网上有14678个DeepFake视频,其中96%是色情视频。大部分都是著名女演员的脸,被转移到色情明星的身体上。(Deep Trace Lab)作为主要目标之一的女演员斯嘉丽就表示:「这对我的影响没有那么大,因为人们知道色情视频里的人并不是我......但是对于那些因此可能丢掉工作的人来说就不同了。」 (机器之心)

对于普通人或知名度较低的女性而言,deepfake技术让造假色情视频变得十分容易,基于报复或其他目的的色情视频,可能让女性面临更高的名誉风险而难以自辩。

■ 技术的革新也让「欺诈产业」不断改头换面。基于deepfake的合成人像、合成语音乃至合成笔迹,让欺诈活动变得更加隐秘而难以侦查和防卫。

今年 3 月,犯罪分子成功模仿了一家英国能源公司的德国 母公司CEO的声音,欺骗了多位同事和合作伙伴,一天内诈骗了 220,000 欧元(约合 173 万元人民币)。(Deeptech深科技)6月,间谍使用 AI 生成了一个并不存在的个像和资料,在职场社交平台LinkedIn上欺骗了包括政治专家和政府内部人士的众多联系人。(新智元)

■ 除了已爆发的安全风险,Deepfake的潜在效应还将蔓延到大众的信息获取和社会信任层面。

「如果一个信息消费者不知道该相信什么,他们不能从虚构中辨别事实,那么他们要么相信一切,要么什么都不相信。如果他们什么都不相信,那就会导致长期的冷漠,这对美国是有害的。」(外交政策研究所研究员Clint Watts/新智元)

AI对抗AI,会是好的解决方案吗?

■ 正如中国科学技术法学会李晟教授所言,deepfake的真正问题在于,「传统意义上「真实」与「虚假」的界线会被打破」。既然能用技术造假,可否利用更强有力的技术来检测假视频?这种AI对抗AI的思路成了过去两年内不少机构关注的方向。

纽约州立大学教授Siwei Lyu和学生发现,使用AI技术生成的假脸极少甚至不会眨眼,因为它们都是使用睁眼的照片进行训练的。美国国防部研究机构 DAPRA 据此研发出了首款「反变脸」的AI刑侦检测工具。(新智元)Hao Li 所在的团队通过追踪每个人特有的面部微表情来做到这一点。这些标记(微表情)被称为「软生物特征」,它们对 AI 来说太微妙了,目前还无法模仿。(机器之心)

■ 不过无论是Lyu还是Li都认为,这项技术可能没多久就没用了。「在伪造视频的后期处理中手动添加眨眼并不是一个巨大的挑战」,随着鉴别技术的提升,假视频的质量也会进一步提高。开发这种算法,「至少有助于阻止和延迟创建伪造视频的过程。」(Siwei Lyu网易)

生成式对抗网络的原理就是让两套神经网络在相互博弈中学习,长远看来,两者永远处在不断的对抗当中,谁也无法彻底打败谁。(爱范儿)

■ 即便是当前十分有效的检测技术,也难以完美捕获所有的造假信息。人工智能基金会的研究副总裁Delip Rao 表示,「近期公布的 deepfake 检测算法据说可以达到 97% 的准确率。但考虑到互联网平台的规模,这剩下的 3% 仍然具有破坏性。假设 Facebook 每天要处理 3.5 亿张图像,即使是 3% 的错误率仍然会导致大量错误识别图像被放出。」(Delip Rao/机器之心)

■ 另一个问题在于,「打假研究」与「造假研究」的规模和声量很不成比例。「2018年,全球加在一起,也只有25篇有关识别合成图像的论文发表。

对比一下,GAN有902篇。算下来,1比36。」(量子位)对于此,Facebook、Google等巨头公司已开始调整思路,采用奖金竞赛、搭建数据集等方式,期望集众力填补这一缺口。9月,Facebook宣布与数家公司和高校合作发起Deepfake检测挑战赛。(cnBeta)

这种规模化的行动能否帮助打假技术实现飞跃?我们尚需等待。

除了AI反制,还有什么应对思路?

■ 在不明确技术泛滥后果的前提下,合理地释放技术成果成为了一些企业的选择。比如OpenAI前段时间推出的无监督语言模型GPT-2,就没有按照行业惯例进行开源,只发布了简化版,不发布数据集、训练代码以及模型权重,目的就是避免「这一技术被人恶意利用」。(脑极体)

■ 由于AI打假存在漏网之鱼,Hwang认为最有可能的解决方案是,在自动检测工具(可以扫描数百万个视频)和人工审查(可以关注更棘手的案件)之间取得平衡。例如,记者、事实检查员和研究人员可以收集视频内容的支持证据。对于经过特别打磨的deepfake作品尤其有用。(前瞻网)

■ 美国弗吉尼亚州和加州都在deepfake技术的立法监管层面有所尝试。今年5月,我国民法典人格权编草案二审稿提出,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。「如果正式通过,这意味着即便没有营利目的和主观恶意,未经本人同意的AI换脸同样有可能构成侵权。」(北京大学法学院副院长薛军/新华网)

■ 「在我看来,最重要的是,公众必须意识到现代技术在视频生成和编辑方面的有很大的能力。这将使他们更批判性地思考自己每天消费的视频内容,尤其是在没有来源证明的情况下。」(斯坦福大学访问助理教授Michael Zollhofer/新智元)

编者小结

正如这项技术的缔造者「deepfakes」所言:任何技术都可能被邪恶的动机利用。Deepfake诞生不久,就引发了诸如色情视频泛滥、更隐秘的欺诈手段、乃至身份识别和社会信任的挑战。如果我们想要拥抱这种能让Paul Walker在《速度与激情7》中复生的美妙技术,就更应当积极地参与到防止技术滥用的努力之中。

目前看来,依靠技术制衡技术、开发好的AI算法来检测虚假内容,依然是最可行的解决办法。虽然这条路径无法通向100%的成功率,并且面临造假技术更新带来的持久「军备竞赛」局面。这场竞赛已从最初的大小机构各自为阵,转向了巨头公司利用奖金竞赛、搭建数据集等方式,鼓励更广泛的关注和参与。

但在技术博弈之外,依然有很多重要的路径值得探索。例如:人工查证如何聪明地参与到技术侦测之中,起到四两拨千斤的作用?在能够驾驭之前,这类敏感技术是否应该有限度地开源?配套的监管政策如何不妨碍技术的正向发展?

回到最初的问题:deepfake出现将对大众如何定义真相将产生冲击。因而,对抗技术滥用并不只是行业和监管等一小部分人的事;当这一问题获得更广泛的关注,人们对造假的免疫力才会更强,更懂批判性思考和吸收,社会对「假象」的风险才有了最坚实的根基。


转载声明转载声明:本文系后花园转载发布,仅代表原作者或原平台态度,不代表我方观点。后花园仅提供信息发布平台,文章或有适当删改。对转载有异议和删稿要求的原著方,可联络[email protected]