当前位置:江苏数码科技 >> 深度 >> 文章正文

计算机科学家:我们无法控制超智能AI

发布于:2021-01-21 被浏览:3560次

假设有人写了一个优于人脑的AI系统。它可以独立完整地学习。连接到网络后,它可以访问关于人类世界的所有数据。它甚至可以取代现有的所有计算机程序,控制世界上所有的在线AI ——。恭喜你,AI(超智能AI诞生了。

未来,如果超智能 AI 真的出现,它会创造一个乌托邦世界还是反乌托邦世界?它会选择帮助人类治愈癌症、预防气候灾难、乃至维护世界和平?还是会像科幻故事中的情节一样,选择直接消灭如同 “蝼蚁” 般的人类并占领地球?

(资料来源:Pixabay)

很明显,在上面的场景中,会给人带来极大恐慌的是,后面的——超级智能AI很可能意味着未知和不可控制的危险。善于防范的人类,早就开始了预防这种危险的研究。

由马克斯普朗克人类发展研究所人机中心科学家组成的国际研究小组使用了试图找出一种能够遏制超智能 AI 伤害人类利益的算法,的理论计算方法,但最终结果显示是我们根本不可能控制超智能 AI.相关论文发表在科学杂志《人工智能研究杂志》(人工智能研究杂志)上,标题为“高等智能不能包含:课可计算性理论”。

未雨绸缪:两种 “抵制” 策略

随着科学家们继续研究为计算机构建一个“类似人脑的”结构,今天的人工智能领域可以说是既迷人又未知。计算机科学家和哲学家开始思考我们能否控制超智能AI,以确保它不会对人类构成威胁。

在这方面,这篇研究论文的作者之一曼努埃尔切布里安说:“能够控制整个世界的超智能人工智能听起来仍然非常科幻。但是,目前已经有机器人能够独立执行某些重要任务,而程序员们却并没有完全了解它们是如何自我学习的。:因此,我们必须考虑这是否意味着人工智能可能在某个时候对人类变得不可控制。”

为此,切布里安等人在论文中讨论了控制超智能人工智能的两种策略:

图|控制超智能AI的两种策略(来源:人工智能研究杂志)

一方面,可以针对性地限制其特定的功能。,为例,将它与网络上的所有其他技术设备隔离开来,使它无法与外界保持联系,但这将大大降低AI的性能和效率,可能无法满足人类的实际需求。

(来源:人工智能研究杂志)

例如,另一方面,人类可以在最初开始开发 AI 之时,就确保其被激发为仅去追求那些符合人类最大利益的目标。,将道德原则编入人工智能系统。

然而,研究人员也表明,这些以及其他当前和以前关于控制超智能人工智能的想法都有其局限性。

class="one-p">仅处于理论层面的 “遏制算法”

在这项研究中,研究人员基于理论计算构思了一种遏制算法,该算法可通过首先模拟 AI 的行为并在认为有害的情况下将其停止,以确保超智能 AI 在任何情况下均不会伤害他人。然而,在算法演示过程中,研究人员却发现,该遏制算法其实难以真正发挥作用,无法有效中止超智能 AI 的有害行为。

正如人类与机器中心主任 Iyad Rahwan 所说:“如果将这个问题分解为理论计算机科学的基本规则,你会发现,命令 AI 不破坏世界的算法可能会在无意中自行中止自己的操作。如果发生这种情况,你将无法判断遏制算法是否仍在分析威胁,或者它是否已经停止中止有害 AI 行为的作用。实际上,这使得这种遏制算法根本无法应用于实际工程。”

基于该研究团队的计算,我们可以得出的结论是:没有任何一种算法可以找到一种确定 AI 是否会对世界造成危害的解决方案。此外,研究人员表明,我们甚至可能都不知道超智能 AI 何时实现,因为确定一个 AI 是否表现出了优于人类智商的难度,与如何遏制超智能 AI 的有害行为这一问题的难度,显然不分伯仲。

但至少我们现在可以确定的是,AI 技术还需要很长一段时间才能达到我们上述预想的水平。

编审:寇建超

排版:沈晶

参考资料:

https://www.mpib-berlin.mpg.de/computer-science-superintelligent-machines

https://jair.org/index.php/jair/article/view/12202

标签: 人类 智能 算法