“死者”死后可以为你说话

在我们的日常生活中,机器学习系统越来越多地走上了自己的方式,挑战了我们的道德和社会价值观以及管理它们的规则。这些天,虚拟助手威胁

在我们的日常生活中,机器学习系统越来越多地走上了自己的方式,挑战了我们的道德和社会价值观以及管理它们的规则。如今,虚拟助手威胁了房屋的隐私。新闻推荐人塑造了我们了解世界的方式。风险预测系统给社会工作者提供保护儿童免受虐待的社会工作者;尽管数据驱动的招聘工具也排名您有机会找到工作的机会。但是,机器学习的伦理仍然对许多人来说仍然模糊。

在比利时Uclouvain参加道德和信息和传播技术课程的年轻工程师的文章时,我对33岁的Joshua Barbeau的案件特别震惊。创建一个会话机器人 – 聊天机器人 – 将模拟与已故未婚夫杰西卡(Jessica)的对话。

对话机器人模仿死者

这种类型的聊天机器人被称为Deadbot,允许Barbeau与人工“ Jessica”交换短信。尽管案件具有道德上有争议的性质,但我很少发现材料超越了事实方面,并通过明确的规范性镜头分析了案件:为什么要发展截止机器人?

在我们努力解决这些问题之前,让我们将事情置于上下文中:项目12月是由游戏开发商Jason Rohrer创建的,使人们能够以他们想与之互动的个性自定义聊天机器人,只要他们为此付出了代价。该项目是在人工智能研究公司OpenAI的GPT-3的API上构建的。 Barbeau的案子在Rohrer和Openai之间开辟了裂痕,因为该公司的指南明确禁止GPT-3用于性,多情,自我伤害或欺凌目的。 ”,Rohrer关闭了12月的GPT-3版本。

虽然我们所有人都可能对开发机器学习的僵局是对还是错,但拼写其含义几乎不会使一项轻松的任务。这就是为什么要逐步解决案件提出的道德问题很重要的原因。

Barbeau的同意是否足以发展杰西卡的死者?

由于杰西卡(Jessica)是一个真实的人(尽管死了),巴尔(Barbeau)同意模仿她的死者的创造似乎不足。即使他们死了,人们也不仅仅是别人可以随心所欲地做的事情。这就是为什么我们的社会认为亵渎或不尊重死者的记忆是错误的。换句话说,就死亡而言,我们对死者有某些道德义务,并不一定意味着人们以道德上相关的方式不再存在。

同样,关于我们是否应该保护死者的基本权利(例如,隐私和个人数据)的辩论也是公开的。开发一个重复某人个性的死者需要大量的个人信息,例如社交网络数据(请参阅Microsoft或Evernime提出的建议),这些信息已证明可以揭示高度敏感的特征。还活着,为什么在他们死后这样做应该是道德的?从这个意义上讲,在制定僵局时,要求要求镜像个性的人的同意 – 在这种情况下,杰西卡(Jessica)。

当模仿的人给绿灯时

因此,第二个问题是:杰西卡(Jessica)的同意是否足以认为她的死者的创造道德?如果它使她的记忆力降解怎么办?

同意的局限性确实是一个有争议的问题。以“罗滕堡食人”为例,尽管受害者已同意被食用,但他被判处无期徒刑。在这方面,有人认为同意对自己有害的事物,无论是身体上(出售自己的重要器官)还是抽象(疏远自己的权利)是不道德的。

在哪些特定术语中,可能对死者有害是一个特别复杂的问题,我不会全面分析。然而,值得注意的是,即使死者不能以与生活相同的方式受到伤害或冒犯,这并不意味着他们对不良行为是无敌的,也不是这些都是道德的。死者可能会遭受其荣誉,声誉或尊严的损害(例如,死后的涂抹运动),对死者的不尊重也损害了亲密的人。而且,对死者的表现不佳,使我们进入了一个更加不公正和对人们的尊严更加尊重的社会。在本文中,鉴于机器学习系统的延展性和不可预测性,模仿的人提供了同意的风险(虽然Alive)的意义并不比在其潜在路径上进行空白的检查要多得多。

考虑到所有这些,似乎合理地得出结论是否与模仿者同意的情况相对应,应将其同意视为无效。此外,如果它清楚,有意地损害了他们的尊严,即使他们的同意也不足以认为这是道德的。

谁承担责任?

第三个问题是人工智能系统是否应该渴望模仿任何形式的人类行为(无论是否可能如何)。

这是AI领域的长期关注,与Rohrer和Openai之间的争议紧密相关。我们应该开发人造系统,例如照顾他人还是做出政治决定?这些技能中似乎有些东西使人类与其他动物和机器不同。因此,重要的是要注意诸如替换亲人之类的技术方面主义者的工具性AI可能会导致对我们作为人类的特征的贬值。第四个道德问题是谁负责对死者的成果,尤其是在有害影响的情况。

想象一下,杰西卡(Jessica)的死者自主学习以贬低她的记忆或不可逆转地损害巴尔巴(Barbeau)的心理健康的方式表演。谁会承担责任? AI专家通过两种主要方法回答了这个湿滑的问题:首先,责任属于系统的设计和开发人员,只要他们根据他们的特殊利益和世界观而做到这一点;其次,机器学习系统是上下文依赖性的,因此其输出的道德责任应分布在与它们相互作用的所有代理之间。

我将自己靠近第一个位置。在这种情况下,由于涉及Openai,Jason Rohrer和Joshua Barbeau的Deadbot有明确的共同创造,因此我认为分析每个方的责任水平是合乎逻辑的。

首先,在Openai明确禁止使用自己的系统出于性,多情,自我伤害或欺凌目的,很难使他们负责。

将重大的道德责任归因于罗勒似乎是合理的,因为他:(a)明确设计了使创造死者成为可能的系统; (b)在没有预期措施避免潜在不利后果的情况下做到了; (c)意识到它未能遵守OpenAI的准则; (d)从中获利。而且,由于巴尔(Barbeau)定制了杰西卡(Jessica)特定功能的僵局绘画,因此如果她降低了她的记忆力,则使他共同负责。

道德,在某些条件下

因此,回到我们的第一个总体问题,即发展机器学习的僵局是否是道德的问题,我们可以就以下条件给出肯定的答案:

模仿的人和一个自定义和与之互动的人都给予免费同意,以详细描述系统的设计,开发和用途;开发和用途,这些发展和用途不遵守模仿的人同意或禁止这种违背他们的尊严;参与其发展的人民和从中获利的人对其潜在的负面结果负责。两者都追溯,以解释发生的事件,并前景地积极阻止它们在将来发生。

这种情况说明了机器学习的道德规范为何重要。这也说明了为什么开展公开辩论至关重要,该辩论可以更好地告知公民并帮助我们制定政策措施,使AI系统更加开放,社会公平和符合基本权利。

本文根据Creative Commons许可从对话中重新发布。阅读原始文章。

原创文章,作者:生活会,如若转载,请注明出处:http://www.dsonekey.com/2862.html

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息