AI教父发出严厉警告:“人类进化体”可能带来灾难
后花园3月15日援引RNZ报道
人工智能(AI)教父Geoffrey Hinton最近提出担忧,认为AI技术可能过于强大,不利于人类自身的利益。
Hinton去年辞去谷歌职务。辞职时,他表示自己能够自由地谈论这项技术的危险,有些危险甚至“相当可怕”,例如AI可能传播虚假信息、颠覆就业市场,并最终对人类生存构成风险。
Hinton 是人工神经网络的先驱,人工神经网络是一种受人脑启发而教会计算机处理数据的方法。正是这一神经网络演变成如今的AI。
本周,欧盟立法者批准了围绕AI的新法规。新西兰政府也表示将制定一个框架。
Hinton做客RNZ节目时表示,2023 年初,当他试图提高AI的效率时,他意识到用于运行神经网络的数字计算机“可能优于生物智能”。
“它们在一些方面比我们更好,那就是分享信息的能力。”
“如果让 1 万个人去学习 1 万种不同的东西,他们很难分享所有这些知识。因为教育是一件痛苦的过程。”
“但是,如果在计算机上运行相同神经网络模型的 1 万个副本并学习互联网的 1 万个不同部分,那么或多或少,它们都能立即分享所得到的知识。所以每个人(副本)都可以知道各自学到了什么。这是蜂巢思维。”
他说,像 GPT 4 这样的系统比任何人类个体所掌握的知识都要多数千倍。
人性
Hinton表示,掌握一般知识和人类推理能力之间并没有明显的区别。
“编造和记忆之间没有明显的界限。”
“所以,当我们回忆很久以前发生的事情时,我们实际上是在编造一些听起来似乎合理的东西,而且可能有很多细节是错误的。如果它是最近发生的,我们可能会回忆出正确的细节。”
但二者过程是相同的,它涉及神经网络中神经元之间的连接强度,然后利用知识组合出对人类或AI来说合理的一连串单词。
Hinton说,神经网络的工作方式更像人,许多人相信AI在不久的将来会变得比人类更聪明。
“它的智力只会比我们高,这很可怕。”
人工智能自主性、子目标和道德聊天机器人
他说,通过用大模型制作代理,人工智能系统已经被赋予了自主权。
“如果你想去北半球旅行,你就得制定一个计划,计划中的每个部分就是一个子目标,类似于到达某个机场。现在您可以实现该子目标,而不必担心计划的其余部分。”
他说,大型语言模型或大型聊天机器人需要能够创建子目标才能实现目标,而这一点现在正在研究中。
“一旦他们能够做到这一点,你就必须对他们创建的子目标保持高度警惕。他们可能会创建你不希望看到的子目标。”
“举例来说,如果你简单地告诉AI,你希望改善气候变化,它可能认为最好的方法就是消灭人类。”
然而,一些公司正在尝试构建道德聊天机器人。 他表示,美国人工智能研究公司 Anthropic 正在努力确保聊天机器人理解道德原则,这是保证安全的一种方式。
Hinton表示,AI在创建虚假图像、视频和声音方面做得越来越好,随着美国、英国和澳大利亚即将举行选举,这一点在今年将变得更加明显。
“在右翼民粹主义浪潮兴起的情况下,有人会利用这些来破坏民主进程。”
失业
Hinton将AI给人类带来的失业危机视为一个长期问题,并认同许多常规工作将会消失。
“没人能准确预测未来。经济学家对这个问题有着不同的看法。但我们面临着前所未有的局面,这是比我们更聪明的事物。”
“当我们能够制造出比我们自身更强大的机器时,常规脑力劳动很可能会像常规体力劳动一样。”
网络犯罪
他表示,Facebook、谷歌、OpenAi 和微软等大公司将开源其模型。
“开源通常是一件好事。它可以帮助更多人发现程序中的错误。但这些东西不像普通的计算机程序。它们内部有一个知道如何学习的计算机编程,但它学习的内容是由数据决定的,我们并不真正知道它要学习什么。”
“因此,将它们开源是非常危险的,网络犯罪分子可以采用其中一种开源模型并对其进行微调,以更好地进行网络犯罪或网络钓鱼攻击等活动。”
Hinton表示,开源模型为网络犯罪分子免去了从头开始训练模型的烦恼,这非常可怕。
Hinton 坚信不应该开源大模型,但他承认这存在争议,例如,著名的开源倡导者 Yann LeCun 乐观地认为“好人总是能够击败坏人”。
人类生存威胁
Hinton表示,如果数字智能取代生物智能,这将成为机器和人类之间的权力斗争。
“我们可以给它设定目标,但它可能会以我们意想不到的方式去实现这些目标,这对我们有害。”
Hinton认为,AI可以战胜人类获得控制权,因为它们会更聪明。AI也有一定程度的意识,知道自己在与谁交谈。
那么,是什么让我们区别于AI,更具备人类特征呢?
“也许什么都没有。”
当被问及人工智能是否只是创造一个新的非有机、非生物物种时,Hinton表示同意。
“如果它来自外太空,我们一定会感到非常害怕,但现在,因为我们自己创造了它,而且它英语又说得很好,所以我认为人们的担心还不够。”
研究和立法
Hinton 对AI的未来感到悲观。
“我们对它的行为了解还不够。所以这是一件紧迫的事情。”
他呼吁各国政府制定立法,将虚假视频、图像和内容加以标记。
他还认为,在真正吃到苦头之前,人类不会醒悟。
“目前,所有主要国家都在研究诸如战斗机器人之类的东西。据我所知,到 2030 年,一半美国士兵可能是战斗机器人。
Hinton说,需要立法来限制它们可能造成的危害,但“除非发生非常惊悚的事情,否则我们不会立法”。
责任编辑:charles