为什么A.I.机器人技术应具有与动物相同的道德保护

世界各地的大学都在进行人工智能(A.I.)的主要研究,以及艾伦学院(Allen Institute)等组织以及包括Google和Facebook在内的科技公司。一个

世界各地的大学都在进行人工智能(A.I.)的主要研究,以及艾伦学院(Allen Institute)等组织以及包括Google和Facebook在内的科技公司。

可能的结果是我们很快就会有AI。大约像小鼠或狗一样具有认知的复杂性。现在是时候开始思考这些AI.S是否应该得到我们通常给动物的道德保护的时候开始思考。

讨论“ A.I.迄今为止,权利”或“机器人权利”一直由我们对AI的道德义务进行的问题主导。人类般的智力或卓越的智力 – 例如来自《星际迷航》或西部世界的多洛雷斯的Android数据。但是,以这种方式是从错误的地方开始,它可能会带来严重的道德后果。在我们创建一个A.I.之前有了人类般的复杂性,应得到人类式的道德考虑,我们很可能会创建一个A.I.比人类的精致不足,值得一些人类的道德考虑。

我们在如何使用某些非人类动物的研究方面已经非常谨慎。动物护理和使用委员会评估研究建议,以确保不必要地杀死或遭受过度痛苦的脊椎动物。如果涉及人类干细胞,尤其是人类脑细胞,则监督标准更加严格。生物医学研究经过仔细的审查,但AID。目前根本没有审查的研究可能需要一些相同的道德风险。也许应该是。

您可能会认为,除非有意识,否则AI.S不应该得到这种道德保护,即,除非它们具有真正的经验,并具有真正的喜悦和苦难。我们同意。但是,现在我们面临一个棘手的哲学问题:我们将如何知道创造有能力和苦难的东西何时?如果AI像数据或Dolores一样,它可以抱怨和捍卫自己,并启动其权利的讨论。但是,如果AI像老鼠或狗一样不明显,或者出于某些其他原因无法将其内在的生活传达给我们,它可能无法报告它正在遭受苦难。意识的科学研究尚未达成关于什么是意识的共识,以及我们如何判断它是否存在。在某些观点(“自由”的观点)以使意识的存在只需要某种类型的良好组织的信息处理,例如,与对象相关的系统的灵活信息模型,具有引导性的注意力能力和长时间 – 期限行动计划。我们可能已经开始创建此类系统了。在其他观点(“保守”的观点)上,意识可能需要非常具体的生物学特征,例如大脑在其低水平的结构细节中非常像哺乳动物的大脑:在这种情况下,我们远不及创造人工意识。

目前尚不清楚哪种视图是正确的,或者最终是否会占上风。但是,如果自由主义的观点是正确的,我们可能很快就会创建许多应该得到道德保护的亚人类AI。存在道德风险。

讨论“ A.I.风险,在不必要的体内,纳粹医疗战争犯罪和塔斯基吉梅毒研究中)。有了AI,我们有机会做得更好。我们提出了评估尖端A.I.的监督委员会的成立考虑这些问题。这样的委员会,就像动物护理委员会和STEM细胞监督委员会一样,应该由科学家和非科学家组成 – A.I.设计师,意识科学家,伦理学家和感兴趣的社区成员。这些委员会的任务是确定和评估新形式的A.I.的道德风险。设计有对科学和道德问题的复杂理解,使风险与研究的好处权衡。此类委员会很可能会判断所有当前的A.I.允许的研究。在大多数主流意识理论上,我们尚未创建AI。具有有意识的经验,具有道德考虑。但是我们可能很快可能会越过这一关键的道德路线。我们应该为此做好准备。

John Basl&Eric Sc​​hwitzgebel

这篇文章最初发表在Aeon,并在Creative Commons下重新出版。

原创文章,作者:点数网,如若转载,请注明出处:http://www.dsonekey.com/5964.html

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息