我们无法阻止流氓AI

有很多声音(其中包括霍克斯霍克斯)在警告中说,超级智能的人工智能有一天可以扭转我们,我们不应该在如此热的,你

有很多声音(其中包括霍克斯·霍克斯)在警告说,超级智能的人工智能可能有一天会扭转我们,而且我们不应该在如此热烈,毫无疑问的赶快来发展真实的AI。其他人说,不用担心。现在,Max Planck人类发展研究所的人类和机器中心科学家的新白皮书提出了一系列理论测试,以确认威胁:由于计算的基本概念,我们将无法完全控制超级超级 – 智能AI。

该论文的作者写道:“我们认为,由于计算自身固有的基本限制,总体上的遏制是不可能的。”

白皮书发表在《人工智能研究杂志》上。

学分: @nt/Adobe股票

“一款控制世界的超级智能机器听起来像是科幻小说,”纸本合着作者Manuel Cebrian在新闻稿中说。 “但是,已经有一些机器可以独立执行某些重要任务,而没有程序员充分了解他们如何学习它。因此,问题出现了,这是否可能在某个时候变得无法控制和危险。”

AI的诱饵很明显。它“看到”数据模式的能力使其成为解决问题过于复杂的有前途的推动力,无法围绕我们的思想。可以治愈癌症吗?解决气候危机?可能性几乎是无尽的。

AI连接到Internet,可以抓住实现其任务所需的任何信息,而这是危险的很大一部分。通过获取所有人类数据的访问,并负责其自身的教育,他知道它会学到什么经验教训,无论其编程中有什么道德约束?谁知道它将采用什么目标,以及它可能会达到什么目标?即使假设仁慈,也存在危险。假设一个人的AI面临着类似于手推车困境的一个或选择的人,甚至可能是大规模的:AI是否可以决定歼灭数百万人,如果它决定其余的数十亿人将是一个更好的生存机会?

学分:maxim_kazmin/Adobe股票

防止超级智能AI领先于我们的最明显方法是通过防止其连接到Internet来限制其对信息的访问。但是,限制对信息的访问的问题是,这将使我们更难解决AI解决任何问题。我们将削弱其解决问题的承诺,可能是无用的。

可能采取的第二种方法是限制超级智能AI通过对其进行编程的能力来限制某些界限的能力。这可能类似于作家艾萨克·阿西莫夫(Isaac Asimov)的机器人法则,其中第一个是:“机器人可能不会伤害人类,或者通过无所作为,允许人类受到伤害。”

这项研究说,不幸的是,一系列逻辑测试表明,不可能创建此类限制。事实证明,任何这样的遏制算法都是自欺欺人的。

图片来源:叔叔/垃圾股票

“如果您将问题分解为理论计算机科学的基本规则,事实证明,将命令AI不破坏世界的算法可能会无意中停止其自己的操作。如果发生这种情况,您将不知道该遏制算法是否仍在分析威胁,或者它是否已停止遏制有害的AI。该团队研究了堆叠遏制算法,每次监视上一个行为的行为,但最终出现同样的问题:最终检查本身使其不可靠。

普朗克的研究人员还得出结论,类似的逻辑使我们无法知道何时自学计算机的智能超过我们自己的智能。从本质上讲,我们还不够聪明,无法为我们的智能制定测试。

“机器以很大的频率使我感到惊讶。这主要是因为我没有进行足够的计算来决定他们会做什么。” – 艾伦·图灵(Alan Turing)

这意味着,完全可以想象的是,一个能够自学能力的AI可以很好地悄悄地上升到超级智慧的情况下,甚至我们甚至不知道这一点 – 这本身就是一个可怕的理由,可以放慢我们狂热的伯利竞赛对人工智能的竞争。

最后,我们要做或不做出危险的便宜货:我们是否冒着安全风险,以换取AI可以解决我们无法解决的问题的可能性?

原创文章,作者:新知会,如若转载,请注明出处:http://www.dsonekey.com/3239.html

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息