Aotearoa
Te Reo Māori
toha

AI教父发出严厉警告:“人类进化体”可能带来灾难

社会Kaituhi: Charles
AI教父发出严厉警告:“人类进化体”可能带来灾难
Whakarāpopototanga“如果你简单地告诉AI,你希望改善气候变化,它可能认为最好的方法就是消灭人类。”“如果它来自外太空,我们一定会感到非常害怕,但现在,因为我们自己创造了它,而且它英语又说得很好,所以我认为人们的担心还不够。”

后花园3月15日援引RNZ报道

人工智能(AI)教父Geoffrey Hinton最近提出担忧,认为AI技术可能过于强大,不利于人类自身的利益。

Hinton去年辞去谷歌职务。辞职时,他表示自己能够自由地谈论这项技术的危险,有些危险甚至“相当可怕”,例如AI可能传播虚假信息、颠覆就业市场,并最终对人类生存构成风险。

Hinton 是人工神经网络的先驱,人工神经网络是一种受人脑启发而教会计算机处理数据的方法。正是这一神经网络演变成如今的AI。

本周,欧盟立法者批准了围绕AI的新法规。新西兰政府也表示将制定一个框架。

Hinton做客RNZ节目时表示,2023 年初,当他试图提高AI的效率时,他意识到用于运行神经网络的数字计算机“可能优于生物智能”。

“它们在一些方面比我们更好,那就是分享信息的能力。”

“如果让 1 万个人去学习 1 万种不同的东西,他们很难分享所有这些知识。因为教育是一件痛苦的过程。”

“但是,如果在计算机上运行相同神经网络模型的 1 万个副本并学习互联网的 1 万个不同部分,那么或多或少,它们都能立即分享所得到的知识。所以每个人(副本)都可以知道各自学到了什么。这是蜂巢思维。”

他说,像 GPT 4 这样的系统比任何人类个体所掌握的知识都要多数千倍。

人性

Hinton表示,掌握一般知识和人类推理能力之间并没有明显的区别。

“编造和记忆之间没有明显的界限。”

“所以,当我们回忆很久以前发生的事情时,我们实际上是在编造一些听起来似乎合理的东西,而且可能有很多细节是错误的。如果它是最近发生的,我们可能会回忆出正确的细节。”

但二者过程是相同的,它涉及神经网络中神经元之间的连接强度,然后利用知识组合出对人类或AI来说合理的一连串单词。

Hinton说,神经网络的工作方式更像人,许多人相信AI在不久的将来会变得比人类更聪明。

“它的智力只会比我们高,这很可怕。”

人工智能自主性、子目标和道德聊天机器人

他说,通过用大模型制作代理,人工智能系统已经被赋予了自主权。

“如果你想去北半球旅行,你就得制定一个计划,计划中的每个部分就是一个子目标,类似于到达某个机场。现在您可以实现该子目标,而不必担心计划的其余部分。”

他说,大型语言模型或大型聊天机器人需要能够创建子目标才能实现目标,而这一点现在正在研究中。

“一旦他们能够做到这一点,你就必须对他们创建的子目标保持高度警惕。他们可能会创建你不希望看到的子目标。”

“举例来说,如果你简单地告诉AI,你希望改善气候变化,它可能认为最好的方法就是消灭人类。”

然而,一些公司正在尝试构建道德聊天机器人。 他表示,美国人工智能研究公司 Anthropic 正在努力确保聊天机器人理解道德原则,这是保证安全的一种方式。

Hinton表示,AI在创建虚假图像、视频和声音方面做得越来越好,随着美国、英国和澳大利亚即将举行选举,这一点在今年将变得更加明显。

“在右翼民粹主义浪潮兴起的情况下,有人会利用这些来破坏民主进程。”

失业

Hinton将AI给人类带来的失业危机视为一个长期问题,并认同许多常规工作将会消失。

“没人能准确预测未来。经济学家对这个问题有着不同的看法。但我们面临着前所未有的局面,这是比我们更聪明的事物。”

“当我们能够制造出比我们自身更强大的机器时,常规脑力劳动很可能会像常规体力劳动一样。”

网络犯罪

他表示,Facebook、谷歌、OpenAi 和微软等大公司将开源其模型。

“开源通常是一件好事。它可以帮助更多人发现程序中的错误。但这些东西不像普通的计算机程序。它们内部有一个知道如何学习的计算机编程,但它学习的内容是由数据决定的,我们并不真正知道它要学习什么。”

“因此,将它们开源是非常危险的,网络犯罪分子可以采用其中一种开源模型并对其进行微调,以更好地进行网络犯罪或网络钓鱼攻击等活动。”

Hinton表示,开源模型为网络犯罪分子免去了从头开始训练模型的烦恼,这非常可怕。

Hinton 坚信不应该开源大模型,但他承认这存在争议,例如,著名的开源倡导者 Yann LeCun 乐观地认为“好人总是能够击败坏人”。

人类生存威胁

Hinton表示,如果数字智能取代生物智能,这将成为机器和人类之间的权力斗争。

“我们可以给它设定目标,但它可能会以我们意想不到的方式去实现这些目标,这对我们有害。”

Hinton认为,AI可以战胜人类获得控制权,因为它们会更聪明。AI也有一定程度的意识,知道自己在与谁交谈。

那么,是什么让我们区别于AI,更具备人类特征呢?

“也许什么都没有。”

当被问及人工智能是否只是创造一个新的非有机、非生物物种时,Hinton表示同意。

“如果它来自外太空,我们一定会感到非常害怕,但现在,因为我们自己创造了它,而且它英语又说得很好,所以我认为人们的担心还不够。”

研究和立法

Hinton 对AI的未来感到悲观。

“我们对它的行为了解还不够。所以这是一件紧迫的事情。”

他呼吁各国政府制定立法,将虚假视频、图像和内容加以标记。

他还认为,在真正吃到苦头之前,人类不会醒悟。

“目前,所有主要国家都在研究诸如战斗机器人之类的东西。据我所知,到 2030 年,一半美国士兵可能是战斗机器人。


























Hinton说,需要立法来限制它们可能造成的危害,但“除非发生非常惊悚的事情,否则我们不会立法”。

责任编辑:charles


网站声明原创声明: 本文系文章顶部作者原创采写,未获书面授权严禁转载! 在获授权前提下,转载必须在醒目位置注明本文出处和具体网页链接。对未注明而擅自转载者,将保留追究法律责任的权利。 评论规范: 1. 所有评论均以读者个人身份发表,并不代表后花园立场。 2. 不得使用任何肮脏和亵渎的措辞。 3. 不得进行人身攻击,不得公开或泄露他人隐私。 4. 不得发布侮辱或歧视任何种族、国籍、性别、地域、年龄、职业等方面的言论。 5. 不得在读者评论区散发广告讯息,不得大量转抄其他媒体的文章。 6. 不得煽动仇恨、暴力、歧视。 7. 不得以任何隐晦方式发布上述不当言论,包括但不限于使用字母、数字、代号、谐音、链接跳转等。 8. 后花园保留对违反上述规范的留言行为进一步处理的权力。
Kōrero
kāore anō koe kia takiuru ki HouGarden!
Waehere