ન્યુ ઝીલૅન્ડ
Gujarati
શેર

迎接AI时代的到来,人类需要提高“情绪智力”

生活લેખક: 神译局
迎接AI时代的到来,人类需要提高“情绪智力”
સારાંશ神译局是旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风……

编者按:人工智能技术的问世催生了外界对于科技的质疑与不信任。关于AI将取代人类的言论至今还甚嚣尘上,可实际上对于开发AI的技术专家来说,他们的本意更多是借助技术造福人类。那么,公众与先进技术之间存在的信任鸿沟应当如此弥合?在本文作者Meghan E. Butler看来,企业领导者需要肩负起这一重担,人类也需要提高情绪智力。本文编译自Fastcompany平台上原文名为《The secret to rebuilding trust in tech: More emotionally intelligent humans》的文章。

hougarden

有一个众所周知、但大家却不愿承认的事实:人们通常不喜欢那些自己不信任的事物,也不会信任那些自己无法理解的事物。

这样一来,人们在当下就陷入了一种进退两难的境地:利用好先进的技术,这意味着我们既要理解那些优化人类生存体验的变革性发展,还要弄明白那些“思考型”机器和人工智能技术带来的未知结果。

为了更好地理解人类与先进技术之间存在的信任鸿沟并且找到弥合此鸿沟的方法,我同行业内的一些领导者进行了交谈,例如戴尔公司的领导者以及数据科学家Jon Christiansen等。交谈得到的结论并不会让大家感到震惊,但却非常重要。原因很简单,信任鸿沟是确实可以解决的。

也许意义最为深远的一点是,几乎所有人都以直接或间接的方式点明了一件事:就那些为人类服务且由人类创造的技术来说,弥合信任鸿沟的秘诀在于人性——情绪智力。

专家称以下这些方式可以帮助AI领导者在其企业或整个行业内设定标准,共同发力来弥合信任鸿沟,从而确保大家能够更好地理解并采用人工智能技术。

承认信任鸿沟的存在

“黑匣子”效应指的是决策和举措的制定都是背着大家的,且超出了集体认知范围。该效应便是造成人类与先进技术之间信任鸿沟的元凶。这也表明,信任鸿沟的出现源于大范围内的沟通缺失。

“我们信任错综复杂的系统。但在大家看来,人工智能是一个复杂的系统,这是一个不一样的存在。”Cambrian AI的创始人兼管理合作伙伴奥拉夫·格鲁斯(Olaf Groth)说道,他也是《Solomon’s Code: Humanity in a World of Thinking Machines》一书的合著者。

格鲁斯解释道,错综复杂(complicated)的系统并不等同于复杂(complex)的系统,这是因为前者涉及到精密的设计,需要借助人类的专业知识加以理解。最重要的是,它们是部分的整合。如果发生了什么悲剧性的事件,比如说空难,这可能是源于系统内出现的一个问题。

然而,复杂的系统却并不能简化为其组成部分,通常这是一种形成现象。作为一个复杂的系统,人工智能其实是形成产物。部分组合在一起时与其单独运行时起到的作用是不同的,且它们主要受外界因素和数据组的影响。这就使得AI具有更大的神秘性和不确定性,因此也是不值得信任的。

展现企业的自我意识并首度承认对于未知的恐惧,这样才能够建立起真正的连接,“触发”人类信任。触发人类信任则是企业沟通功能的职责所在,此外还要辅以领导层的努力。

坦白意图

对于那些处于创新圣地之外、却希望能采用创新产品的我们来说,单单是承认缺失的事实还不足以触动我们的信任。信任需要维系,为此明确性和透明度必不可少。

别弄错了——透明度并不意味着要你去揭露算法或是商业机密。这指的是满足公众理解技术背后意图和考量的需要。

光是讨论开发过程中深思熟虑的细节信息还不够。IBM创建了一个可以确保AI开发者问责制的标准,任何参与开发AI产品的企业都可以使用。

“我们应当提供更多信息。对于这些未来将使用此技术的人来说,透明度能够帮助建立信任。”IBM的人工智能伦理道德全球负责人弗朗西斯卡·罗西(Francesca Rossi)说道,“我们相信人们会逐渐意识并理解开发者的考量。《Everyday Ethics for Artificial Intelligence》中列出了七大要求以及每一位人工智能团队成员都需要回答的问题。”

就像是家长要为自己的孩子负责一样,每一个开发人工智能的人也应当为其开发的技术负责。

不会取代人类

减少恐惧和建立信任没那么快见效,但我们还是要采用一种高效的方式:即整体改进可解释性,从逐渐优化人类生存体验的角度来定位先进的技术,而不要将其解释为可能迅速削弱人类的技术。

就拿戴尔为例吧。通过将用户置于生产力的最佳区域,它创建出了一种以人为中心的人工智能技术。其AI能够改进工作体验。它创造出了用户的数字化身,负责处理那些日常琐碎的计算任务。这样一来,用户本身便可以专注于处理更为重要的一些工作,而不必将精力浪费在整理收到的垃圾邮件上。

“如果AI无法减轻人类肩上的担子或是让他们享受其中,那么它也不会取得成功。”戴尔EMC的总裁兼首席技术官约翰·罗伊斯(John Roese)表示,“我们衡量成功的一个标准便是看其能否改进人类的状态。最佳的判断方式就是评估人类使用该技术后承担的压力大小。他们是否感到受挫?他们的生物物理指标能否表明他们在完成这些任务上所耗费的精力变多还是变少了?”

像戴尔等公司的看法都是AI是为人类服务,而非取代人类。相比那些大肆宣扬人工智能技术将占领地球的人,戴尔公司这样的措辞往往能够赢得我们的信任,吸引我们的注意力,也能促使我们更快地采用AI。

人工智能平台Bureau Works的创始人兼首席执行官加布里埃尔·费尔曼(Gabriel Fairman)也认为,信任鸿沟归根结底还是沟通问题。合适的解决方案在于要让人类有所准备,这样他们才可以充分利用AI,而不必畏惧于它。

“人工智能技术能够在大量数据组中很好地识别数据模式。但这并不意味着AI就能取代那些负责分析数据组的人类。”他说,“这反而表明了,人类需要负责理解这些数据组背后的伦理含义、数据组中的间接联系以及这些数据组推动的举措内容。”

为了完成这种认知的建立,AI企业的沟通战略应重点关注人类价值观以及采用技术后用户所要肩负的责任,进而达到教育和解释的目的——这种方式要比提供技术细节信息更有效。

促进技术专家的人性

集体概念意义上的“我们”属于期待使用AI技术的外界人士,我们只是信任鸿沟的一方。另外一方则是技术专家。这些天才负责编写代码、开发技术,他们是这项技术的人类代表。

虽然企业内的资深领导者具备“软技能”以及其他与情绪智力相关的能力,但是对于企业内剩余的人来说,这些能力的培养很难见效,特别是年轻一点的员工以及新领导层。

“和职场性骚扰问题的相关培训一样,企业也应当设置情绪智力课程,尤其是要为那些设计模型的数据科学家准备。”IBM的物联网和数字部门主管丽莎·西卡特·德卢卡(Lisa Seacat DeLuca)说。

AI神经网络的整个目标——成为数字化的人类大脑——是要去复制大脑的能力,但同样要具备人类能力范围之外的计算力。作为一种认知、推理型的技术,人工智能的重点在于理解、学习、智能以及洞察力。

“认知和AI无法做到的事情是感觉。它不具备任何情感。”Sparks Research的数据科学家兼首席智能官乔恩·克里斯蒂安(Jon Christiansen)称,这并非意味着感觉和情感是认知的反义词,它们本身就不存在对立关系。实际上,它们是互补的。整合两者,你就能获得一个在真正意义上很强大的机制。但这要取决于坐在电脑另一端的人类。”

对于大多数分析型和技术型的思考者来说,一个亘古不变的痛点在于,人类本身就是混乱、非线性且无法优化的。因此,与其要求他们回答关于终端用户的问题,还不如让他们回答关于自己的相关问题。

在IBM建议的问题之外,我想每一位负责开发人工智能产品的人员都应当回答以下这些问题:

这些问题其实又让我们回到了最初的起点,即情绪智力中最为重要的一部分——自我意识。除非技术专家能够发现并且明确表达自己内在固有的偏见,否则人工智能背后的这些“大脑”就应当为其创建的产物负责。

展示AI背后的开发者,而不是展现算法

Cambria AI的格鲁斯表示:“在科技驱动的经济体下,掌握大权的是那些拥有技术专业知识和资本的人。”

权力越大,社会责任也越大。

每一个开发和部署人工智能的企业都需要在不暴露商业机密的前提下推广自己的技术。事实上,从情绪智力的角度来说,最合适的一种解决方案就是展示AI背后的开发人员,而不是去展现算法。向公众展示是谁开发了AI,此外更重要的一点是,为什么他们会想要开发这项技术。

“如果企业能让他们的技术专家和数据科学家走到幕前,向大家表明这些是真实的人类,那就足以证明他们对于AI技术编程的态度,即是真实的人类在为自己的同胞开发人工智能技术。”波兰科兹明斯基大学及麻省理工学院斯隆管理学院的AI研究员Aleksandra Przegalinska解释道,“这将消除黑匣子心态。”

人类依然决定着人工智能技术发展的心跳。虽然仍有恶意存在,但是大多数技术专家都是怀揣善意的。

和那些让我们感到害怕的技术一样,人类是有能力做出改变的。进化。为自己以及即将迎来的人工智能技术提高情绪智力。

译者:Vivian Wang


转载声明转载声明:本文系后花园转载发布,仅代表原作者或原平台态度,不代表我方观点。后花园仅提供信息发布平台,文章或有适当删改。对转载有异议和删稿要求的原著方,可联络[email protected]