为什么将AI对准我们的价值观可能比我们想象的要难

许多科学家,哲学家和科幻作家都想知道如何防止潜在的超人AI摧毁我们所有人。虽然明显的答案是“如果试图杀死它,请拔掉它

许多科学家,哲学家和科幻作家都想知道如何防止潜在的超人AI摧毁我们所有人。虽然“如果尝试杀死您”的明显答案有许多支持者(并且在HAL 9000上起作用),但不难想象足够高级的机器能够阻止您这样做。另外,一个非常强大的AI可能能够做出太快的决定,以使人无法审查道德正确性或纠正其造成的损害。

阻止潜在的超人AI免于流氓和伤害人的问题被称为“控制问题”,并且有许多潜在的解决方案。更频繁的讨论之一是“对齐”,涉及将AI同步到人类的价值观,目标和道德标准。这个想法是,使用适当的道德制度设计的人工智能不会以对人类有害的方式行事。

但是,使用此解决方案,魔鬼在细节中。我们应该教什么样的道德,我们可以遵循什么样的伦理,以及谁能回答这些问题?

艾森·加布里埃尔(Iason Gabriel)在他的新论文“人工智能,价值观和一致性”中考虑了这些问题。他解决了这些问题,同时指出对它们的回答比看起来要复杂得多。

人类真的很擅长解释道德问题并讨论潜在的解决方案。我们中的一些人非常擅长向其他人讲授整个道德体系。但是,我们倾向于使用语言而不是代码来做到这一点。我们还教具有与我们相似的学习能力的人,而不是与具有不同能力的机器相似的人。从人到机器的转移可能会引入一些局限性。许多不同的机器学习方法可以应用于道德理论。麻烦是,他们可能被证明是能够吸收一种道德立场,并且完全无法处理另一种姿态。

增强学习(RL)是一种教授机器来通过最大化奖励信号来做某事的方式。通过反复试验,机器最终能够学习如何有效地获得尽可能多的奖励。由于其内在的趋势可以最大程度地提高定义的好处,因此该系统显然使自己倾向于功利主义,其目标是最大程度地提高幸福感和其他后果主义的道德体系。如何使用它有效教授不同的道德体系仍然未知。

另外,学徒制或模仿学习允许程序员为计算机提供一长串的数据或示例列表,以观察并允许机器从中推断值和偏好。关心对准问题的思想家通常认为这可以通过行动而不是理想化的语言来教授我们的偏好和价值观。它只需要我们向机器展示道德典范,并告诉它复制他们的工作。这个想法与美德伦理有很多相似之处。

谁是其他人的道德典范的问题仍然没有解决,如果有人应该让计算机试图效仿的话,谁应该同样辩论。同时,有些道德理论我们不知道如何教机器。道义论理论以创建普遍的规则始终遵守,通常依靠道德代理人将理由应用于他们在特定方面发现自己的情况。目前没有机器能够做到这一点。鉴于您必须如何赋予这些权利,即使是更有限的权利观念,无论有什么优化的趋势,无论有什么优化趋势,都不应违反它们的概念。

在讨论了这些问题之后,加布里埃尔指出:

“鉴于这些考虑因素,似乎我们用来构建人造代理的方法可能会影响我们能够编码的价值或原理的种类。”

这是一个非常真实的问题。毕竟,如果您有超级AI,您是否不想使用最适合您建造的学习技术来教授它的道德?如果该技术无法很好地教授功利主义,但是您认为美德伦理是正确的方法,您该怎么办?

如果哲学家无法就人们的行动达成共识,我们将如何弄清楚超智能计算机应该如何运作?

重要的事情可能不是用一种真正的道德理论编程机器,而是要确保它与每个人都可以同意的价值观和行为保持一致。加布里埃尔(Gabriel)提出了一些关于如何决定AI应该遵循的值的想法。

他认为,可以通过共识找到一组价值。在非洲,西方,伊斯兰和中国哲学的横截面中,人权理论有相当多的重叠。一个价值观的计划,诸如“所有人类都有不受伤害的权利,无论损害他们的经济利益有多多,都可以被所有文化中的大量人塑造并认可。使用“无知的面纱”,这是一个思想实验,要求人们找到正义原则,如果他们不知道自己的自身利益和社会地位会在一个遵循这些原则的世界中,他们会支持什么,以找到AI值的值。他们选择的价值观大概是保护所有人免受人工智能可能造成的任何恶作剧的价值观,并确保其福利将达到所有人。

最后,我们可以对价值投票。人们没有弄清楚人们在某些情况下会认可什么或基于他们已经赞同的哲学,而是可以对一系列他们希望任何超级AI受到束缚的价值观进行投票。

所有这些想法也因目前缺乏超级AI而负担。关于AI伦理学尚无共识,目前的辩论还没有像必要的那样具有国际化。无知面纱背后的思想家将需要知道他们在提出价值方案时计划的AI的功能,因为他们不太可能选择AI并非旨在有效处理的值集。民主制度在确保每个人都可以同意的价值观的正当和合法的“选举”方面面临巨大的困难。

尽管有这些局限性,我们还是需要更快而不是晚些时候回答这个问题。提出我们应该将AI绑定到的价值观是您要在拥有超级计算机之前要做的事情,如果它没有道德指南针来指导它,可能会造成巨大伤害。

尽管人工智能足以在人类控制之外运行的人工智能仍然很长一段路,但在到达时如何保持它们的问题仍然是一个重要的问题。通过伦理使此类机器与人类价值和利益保持一致是一种可能的方法,但是这些价值观应该是什么,如何将它们教给机器以及谁能决定这些问题的答案的问题仍然没有解决。

原创文章,作者:新知会,如若转载,请注明出处:http://www.dsonekey.com/3278.html

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息