新西兰
中文简体
分享

人工智能正在改变你看待世界的方式

生活作者: 神译局
人工智能正在改变你看待世界的方式
摘要通过系统地扭曲我们看到和创造的图像,人工智能正在改变我们的认知

编者按:通过系统地扭曲我们看到和创造的图像,人工智能正在改变我们的认知,并最终改变我们与物理世界的关系。当我们依赖视觉认知来认识世界的基本能力被深度造假或人为修改的图像破坏时,我们就基本事实达成一致的能力就会减弱,我们的社会凝聚力也会因此受损。本文译自medium,文章作者Sonia Klug,原文标题A.I. Is Changing How You See the World。

hougarden

图片来源:The Washington Post/Getty Images

今年早些时候,我和家人徒步前往苏格兰Skye岛外缘的Claigan珊瑚海滩。我们想亲眼看看在Google搜索中看到的令人印象深刻的珊瑚究竟是什么样的。但是到了目的地之后,我们真正看到的不是网上显示的那美丽的白色海滩和蓝绿色的大海,而是散布于各处的珊瑚碎片。当我看到精灵池——由小瀑布形成的晶莹剔透的岩石池——时,也有同样的感觉。我过去很喜欢亲自探秘这类地方,但现在看到的景象让我失去了任何兴趣,因为它带给了我一种很不真实的感觉,就像你回到了童年时期的某个地方,却发现它比你记忆中的更小更破旧。

我们对世界的印象很大程度上受到我们在网上看到的图片的影响。2010年代初,随着智能手机的普及,数码摄影蓬勃发展。如今,Snapchat用户每天会拍摄出30亿张快照,Instagram上的帖子每天被点赞35亿次,其中很多都经过了滤镜和修图的加持。任何一个拥有智能手机的人都可以“拍摄”出过去只有专业摄影师和修图师才能拍出的影像效果。

然而,数量如此巨大的经过处理的照片意味着,我们不是用照片来反映我们周围的世界,而是在系统性地扭曲我们对世界的记录和认知。摄影越来越多地代表我们生活的理想化版本,而我们也为此付出了代价。“我们知道,虚假的照片可以改变我们对过去的看法,改变我们对过去的记忆,甚至改变我们对未来的打算,”University of Warwick心理学家、摄影和记忆专家Kim Wade博士说。“修图的行为可能会改变我们对过去的看法,并最终改变我们与现实的关系。”

虽然算法总是自动提高数字图像的饱和度和对比度,但机器学习的引入更加了不得了:拍摄数百万张图像的训练可以教会手机识别它们正在拍摄的是什么样的场景,以及哪些图像特征是可取的或不可取的。华为P30智能手机可以识别超过1500个场景,并自动进行优化设置。如果手机检测到一幅肖像,它会熟练地平滑皮肤,模糊背景,并使用更讨人喜欢的灯光。

目前大多数智能手机都采用HDR技术,也就是说如果手机检测到一个高对比度的场景,有太多的阴影或者没有足够的高光,它就会用不同曝光量的图像来合成一张完美的照片。

人工智能也开始一展拳脚。Google Pixel Top Shot可以在按下快门前后拍摄90张照片,并根据过去的数据经验选择其中最好的那一张——也许是笑得最灿烂的那一张,也许是姿势最优美的那一张。

此外还有滤镜和其他应用程序,它们通常被用来让照片中的一切看起来更精致、更令人印象深刻。大多数手机都配有标准的滤镜,还有无数的其他可供修图的应用程序,比如Snapchat和FaceApp,提供了磨皮功能,还可以让眼睛变大、下巴变小等等。只需轻按手指就能令人信服地让自己年轻几十岁。

更为可怕的是,即使是外行也可以使用像FakeApp这样的软件在视频中给人物“换脸”,而且这项技术很快就会“渗透”到我们的智能手机上。

然而,无论我们认为自己多么有知识和鉴别力,研究表明,我们仍然有强烈的偏见,倾向于相信我们在图像中看到的东西。Wade说:“我们的研究表明,人们过于相信照片,从而导致自己无法可靠地反映过去。人们往往对自己检测虚假图像的能力过于自信,如果不确定,他们倾向于相信图像是真实的。即使是经常编辑自己照片的人也很难区分真假。”

不断地暴露在夸张的图像中会让现实生活显得平淡无奇,令人失望。2017年,University of California的一项研究发现,人们花在社交媒体上的时间越多,他们对自己生活的满意度就越低,这其中包括一些证据充分的负面影响,比如一些描绘不切实际的图片使得年轻女性对美的认知产生了负面影响。与直觉相悖的是,University of Warwick 2016年的一项研究发现,与没有贴标签的图片相比,把那些显示不切实际的美丽理想的图片贴上“经过处理”之类的标签,更有可能让看到这些图片的人想要改变自己的外表。整形外科医生报告称,希望看起来更像经过滤镜加持的自拍照的整容手术增加了47%,这种情况被称为“Snapchat上瘾症”。

“通过工具来标准化美学是一件非常危险的事情,”荷兰艺术家Constant Dullaart说,他的关注重点是数字操作的标准化,这种性别歧视的审美是由营利性企业促成的,这些企业的商业模式依赖于最大程度的用户参与。

Dullaart说:“现实是一种人为的建构,成千上万的人正在接受一种让我感到压抑的现实。这种自动化的审美加强了这一点。媒体正变得被这些图片所主导。我最害怕的是,孩子们会逐渐觉得自己也需要遵守这种审美标准、生理标准和行为标准。”

虽然摄影一直是主观的,但它总是有助于塑造我们对周围世界的理解。摄影作为一种“共享的现实”是一种让我们能够交流和创造意义的重要媒介,如果作为一种媒介的摄影变得不那么可靠,我们就失去了一种共情的渠道和途径。

《Ethical Threats and Emotional Unintelligence in the Tech Industry》一书的作者、科技意识中心(Center for Technology Awareness)创始人兼首席执行官Katy Cook表示:“无论内容如何,被修改的图片都会削弱我们对现实的理解。篡改人物或世界事件的图片不仅在系统层面上让我们感到困惑,而且是对我们当前体系的最严重威胁之一。因为它其实是在暗示我们不能相信眼前所见,而这与我们的进化理念极不一致,毕竟我们很依赖所观所见来理解周围的世界。”

“当这一基本功能被深度造假或人为修改的图像破坏时,我们就基本事实达成一致的能力就会减弱,我们的社会凝聚力也会因此受损,”她继续说道。

但现在,我们也很欣喜地看到,这种人为制造现实的情形终于遭到了抵制——#nofilter活动,目前在Instagram上打上这一标签的图片已经超过了2.5亿张。这一活动的兴起表明,人们对此愿意做出反应,而这是改变我们理解的第一步。“从滤镜加持之下的照片到促使我们改变外表的软件,再到促使我们一点点远离真实的东西,我们总算意识到这一点。”

译者:喜汤


转载声明转载声明:本文系后花园转载发布,仅代表原作者或原平台态度,不代表我方观点。后花园仅提供信息发布平台,文章或有适当删改。对转载有异议和删稿要求的原著方,可联络[email protected]
评论
验证码