人工智能(AI)与人工通用智能(AGI):如何识别两者的区别

现如今的人工智能(AI)宛若薛定谔之猫:既似乎触手可及地模仿人类,又完全脱离人性。
设想一个 AI,它不仅能像 ChatGPT 那样解答问题,还能为你泡早晨的咖啡、洗完餐具、甚至在你忙碌工作时照料你的老年父母。
这个场景曾在 1962 年的《杰森一家》中首次被描绘,而随着人工智能技术的进步,这一幻想在未来十年实现的可能性越来越大。
然而,这种技术的影响远不止于家用的 Jarvis 那么简单。这正是像 Meta 的 CEO 马克·扎克伯格等科技界巨头渴望将 AI 推向新高度的原因。他上月向 The Verge 表示,他的新目标是开发出人工通用智能(AGI),这一目标让他与 ChatGPT 的开发者 OpenAI 和 Google 的 DeepMind 站在了同一起跑线上。
尽管扎克伯格希望通过融合 AGI 到产品中以深化与用户的联系,OpenAI 和 DeepMind 则探讨了 AGI 为人类带来福祉的可能性。无论出于何种动机,这都标志着人工智能从当前以生成式 AI 和聊天机器人为主导的状态,向前迈出了一大步。这些机器人至今以其写作能力、创造力和看似无尽的回答能力让我们赞叹不已,尽管它们的回答并非总能精准无误。
关于人工通用智能(AGI),目前还没有一个被普遍接受的定义,这意味着对它的理解和看法有很大的自由度。不过,可以确信的是,AGI 拥有更加贴近人类智能的特质,并且其技能范围远超过大部分现有的人工智能。它对我们的未来将产生不可估量的影响。
然而,AGI 要想完全达到模仿人脑的水平还有很长的路要走,更不用说实现自主决策的能力了。因此,可以把当前的 AGI 比作人工智能界的薛定谔之猫:它既是也不是具备人类智能特质的存在。
如果你对 AGI 的热议感到好奇,这篇简介正是你需要的。以下是一些基本情况你需要了解。
什么是人工智能? 
我们先来解释一个去年频频出现的术语:人工智能。这是计算机科学的一个分支,它让机器模拟人类智能的各个方面。
正如乔治亚理工学院互动计算学院的教授兼该校机器学习中心副主任 Mark Riedl 所说,人工智能是“寻找能够模仿我们认为需要智能才能完成的行为的算法和系统的过程。”
这涉及到如驾驶汽车、筹划生日聚会或编程等具体任务——这些任务在今天已经能被自动驾驶汽车及其辅助驾驶功能,或者在给出恰当指令时由像 ChatGPT 这样的助理来完成。
Riedl 进一步指出:“这些任务是我们认为人类擅长并需要认知处理的。因此,任何能模仿这些行为或自动化这类任务的系统都被认为是人工智能。”

(OpenAI 的 Dall-E 3 生成一把置于迷幻绿色背景前的带刺电吉他)

什么是狭义智能?

当一个 AI 能够在某个特定领域表现出卓越的能力——例如下棋——这种能力就被称为专项智能。IBM 的 Watson,这个在 2011 年《危险边缘》游戏节目中大放异彩的问答AI,是这一领域最知名的例子之一。而 IBM 的另一项 AI 成就 Deep Blue,则以其在 1997 年战胜国际象棋大师加里·卡斯帕罗夫的卓越表现而名声大噪。
然而,专项智能的局限性在于它只能擅长完成唯一指定的任务。
华盛顿大学的教授 Chirag Shah 表示:“它既不能打高尔夫球,也不能驾驶汽车。”但如果比赛的是《危险边缘》知识竞赛或者下棋,Watson 和 Deep Blue 或许能轻松战胜你。

什么是人工通用智能(AGI)?

相较之下,人工通用智能(AGI)涵盖的范围更宽泛,定义也更难界定。

AGI 指的是机器能够完成许多人类的活动——或者说,可能是人类能做的所有事情。这个定义因人而异。

人类因能够完成众多任务而被视为最高级的通用智能,如交流、驾车、解决问题、写作等。

从理论上讲,AGI 能够毫无区别地执行这些活动,正如德克萨斯大学工程学教授 Georgios-Alex Dimakis 所描述的,它能像“一个极端智能的人类”一样行动。

然而,在达到人类水平的能力之外,对于什么成就应被视为 AGI 的认定上并无一致意见。对有些人而言,仅仅能够像人一样执行某个任务,就已足以被视作 AGI 的证明。对另一些人而言,AGI 的真正存在必须基于其能完成人脑能够实现的所有事务。也有观点认为,它的真实形态介于二者之间。
扎克伯格在与 The Verge 的采访中展现了这种定义上的灵活性。“你可以对于通用智能是否等同于人类级别的智能进行辩论,或者它是否超越了人类智能,亦或是它是否某个遥远未来的超级智能,”他表示。“但对我而言,重点在于其广度,也就是智能必须具备各种各样的能力,包括推理和直觉等。”
但关键是 AGI 的范围广泛,而 AI 的范围狭窄。

人工通用智能(AGI)何时成为现实

人工通用智能(AGI)的到来时间同样存在争议。一些人认为它已经出现,或者快了。还有人认为它可能永远都不会实现。有人预测这将在五到十年内成为可能——DeepMind 的 CEO Demis Hassabis 就持这一看法——而有的人则认为需要几十年时间。

“就我个人而言,我认为它现在还不存在,”Shah 表示。

他提到了微软在 2023 年 3 月发表的一篇研究报告,报告中提到了“AGI 的迹象”。研究人员表示,与最新的大型语言模型(比如 GPT-4)进行的一些对话“开始表明,它在理解问题上具有比单纯回答问题更深层的能力,”Shah 说。

这意味着“你实际上可以像与人交谈一样,与它进行无拘无束的对话,”他进一步说明。此外,像 Google 的 Gemini 和 ChatGPT 这样的最新聊天机器人版本,能够处理更加复杂的查询。

如果你能接受一个更加广泛的定义,这种能力确实暗示了人工通用智能(AGI)的存在。
大型语言模型(LLMs)属于人工智能类型,它们通过吸收书籍和新闻报道等内容来先理解再产生自己的文本输出。LLMs 支撑了我们所熟知(并喜爱?)的所有生成式 AI 聊天机器人,例如 ChatGPT、Gemini、Microsoft Bing 和 Claude.ai。
LLMs 的一个有趣特点是,它们不仅仅限于完成某一项具体任务。它们能够创作诗歌、规划假期,甚至通过律师考试,这表明它们能够执行多种任务,这也是 AGI 存在的一个标志。
不过,它们仍然会遇到“幻觉”问题,即产生错误或不逻辑的输出。它们还可能犯推理错误,易受欺骗,并且可能对同一问题给出不同的答案。
因此,这与薛定谔的猫的概念类似,根据这一思想实验,直到有人打开箱子确认之前,猫被认为是同时处于生与死的状态。
人工通用智能会对我们产生什么影响?
这或许是个价值十万美金的问题——而且是个很难确切回答的问题。
如果一个 AGI 能够学会执行多项家务,我们可能真的会实现《杰森一家》中的场景。此外,AGI 有可能成为能够像朋友或家人一样理解你的居家助理,能够照顾你,Shah 认为这对于老年人护理有极大的可能性。
随着 AGI 越来越能够胜任多种任务,它将持续对就业市场产生影响。这意味着更多现有的职位可能会受到威胁,但好消息是,新的职位将会被创造出来,机会依旧存在。
人工通用智能会使我们变得不再重要吗? 
答案是不会。
首先,AGI 能够执行多项任务,并不表示它具有意识或自我意志。即使某个 AI 拥有了自我决策的能力,决定消灭人类并朝这一目标迈进所需的步骤太多,实际上是不可能实现的。
Riedl 表示:“有很多情况,并非坚硬的证据或证明,但它们并不支持那种[有一天机器人会杀光我们]的说法。”
他还提到了规划的问题,他定义为“预先思考自己的未来,为了解决一个你之前未曾解决过的问题而决定采取什么行动。”
大型语言模型(LLMs)通过学习历史数据而训练,它们非常擅长利用过往的信息来解决新问题,比如规划一场假期。
但有些问题则需要对未来进行思考。
Riedl 提出了这样一个问题:“在从未有过此类事件发生的历史记录的情况下,一个 AI 系统如何预先思考并规划消除其对手?” “这需要进行规划、前瞻性思考以及构建尚未存在的假设场景……存在一个巨大的技能黑洞,即人类所能完成的事情,而 AI 目前在这方面表现极差。”
Dimakis 同样认为,拥有自我意识的机器人消灭全人类的可能性“极低”。
一个更大的风险是,这项技术最终被一两个大型科技公司独占,而不是像在大学中那样对外开放。
Dimakis 表示:“让一两家公司独占这些新型 AI 系统,形成垄断或寡头垄断,将对经济产生极大负面影响,因为我们将看到大量技术仅基于这些 AI 基础模型构建。” “在我看来,这是我们在不久的将来需要考虑的最大风险之一。”
人工超级智能(ASI)又是什么?
人工通用智能(AGI)与人工超级智能(ASI)是两个不同的概念,ASI 是指能够自主决策的 AI。也就是说,它具备自我意识或感知能力。这正是当前许多人所忧虑的 AI 形态。
Shah 表示:“你可以回想那些科幻小说和电影中的场景,其中的机器人拥有能自行规划和思考的 AI。” “它们能够在不接受外部指令的情况下行动,并且能够在无需任何监督的情况下完全自主掌控。”
但好消息是,ASI 比 AGI 更为遥远。因此,我们还有时间来设置保护措施,引导或限制它的发展。
人工通用智能会给人类带来好处吗?
然而,康奈尔大学计算机科学教授 Thorsten Joachims 相信,我们会对 AI 系统设定比对自己更高的期望——这最终有助于我们弥补社会上的一些短板。
拿犯罪来说,
“如果 AI 系统犯下了同样的错误,我们是绝不会接受的,”他说。
Joachims 还特别指出了法庭上的决策制定问题。即便是受过高等教育且经验丰富的专业人士,比如法官,在相似案件的判决上也存在巨大差异。
他认为,我们同样不会容忍 AI 出现这种不一致性。这种更高的期待将指导 AI 系统的开发——最终,它们甚至可能与人类迥异。
实际上,AGI 最终有可能帮助我们解决长期难以克服的问题,比如治愈癌症。哪怕这是某个特定 AI 能完成的唯一成就,那也将是一次革命。
科尼尔大学的计算机科学教授 Thorsten Joachims 认为,我们将对 AI 系统设定比对自己更高的标准——这最终可能帮助我们解决一些社会问题。
例如,人类会犯罪。
他说:“如果 AI 系统做出了同样的事情,我们绝不会容忍。”
Joachims 还指出了决策制定的问题,特别是在法庭上。即便是受过良好教育且经验丰富的专业人士,如法官,在类似案件中也会做出截然不同的判决。
他认为我们也不会容忍 AI 在这方面的不一致性。这些更高的标准将指导 AI 系统的构建——最终,它们甚至可能看起来并不那么像人类。
实际上,AGI 最终可能帮助我们解决长期挣扎的问题,比如治愈癌症。即便这是某个特定 AI 能做的唯一事情,那本身就将是革命性的。
德克萨斯大学的计算机科学教授兼国家科学基金会机器学习基础 AI 研究所所长 Adam Klivans 表示:“也许它无法通过图灵测试”——一种评估计算机是否能够被认为具有人类智能的标准方法——“所以我们甚至可能不会以任何方式认为它具有智能,但它肯定会拯救数十亿生命,那将是不可思议的。”
换句话说,AI 可以帮助我们解决问题,而无需完全模仿人类智能。
Dimakis 说:“这些并不完全是 AGI,因为它们并不是做人类能做的事情,而是以非常有用的方式增强人性。这并不是在做人类能做的事情,而是在创造新的 AI 工具,这些工具将改善人类状况。”