机器学习威胁社会正义的六种方式

当您利用机器学习的力量和潜力时,您还必须管理一些剧烈的弊端。部署机器学习,您面临歧视性的风险,

当您利用机器学习的力量和潜力时,您还必须管理一些剧烈的弊端。部署机器学习,您会面临歧视性,有偏见,不平等,剥削性或不透明的风险。在本文中,我介绍了机器学习威胁社会正义并得出敏锐的结论的六种方式:补救措施是将机器学习标准化作为社会行动主义的一种形式。

当您使用机器学习时,您不仅仅是优化模型和简化业务。您正在管理。从本质上讲,这些模型体现了控制许多人获得机会和资源的政策。他们提出了对谁进行调查,监禁,设置日期或药物的结果决定,或者向谁授予贷款,保险,住房或工作。

出于同样的原因,机器学习是有价值的,它可以更有效地推动运营决策 – 它还在其对数百万个人生活的影响方面发挥了力量。当模型系统地限制弱势群体或受保护群体的机会时,对社会正义的威胁就会出现。

信用:通过shutterstock metorworks

1)公然歧视的模型是部分基础决策的预测模型,部分或完全基于受保护的类别。受保护的阶级包括种族,宗教,国籍,性别,性别认同,性取向,怀孕和残疾状况。通过将这些特征之一作为输入,模型的输出以及模型驱动的决策至少部分基于受保护类的成员资格。尽管模型很少直接这样做,但有先例和支持。

这意味着模型可以明确阻碍,例如黑人被告人是黑人。因此,想象一下坐在一个被评估的人,贷款甚至假释的人对面。当他们问您决策过程如何工作时,您会告诉他们:“一方面,我们的算法会因为黑人而罚款7分。”这听起来可能令人震惊和轰动性,但是我只是从字面上描述了该模型将在机械上做什么,如果允许种族作为模型输入。2)机器偏置。即使没有作为直接模型输入提供受保护的类,我们也会发现,在某些情况下,模型预测仍然是不平等的。这是因为其他变量最终成为受保护类的代理。这有点复杂,因为事实证明,从某种意义上说是公平的模型在另一种意义上是不公平的。

例如,一些犯罪风险模型成功地以平等的精度标记黑人和白人被告人 – 每个旗帜都讲述了相同的概率故事,无论种族如何,但这些模型比白人更频繁地虚假旗帜。一个名为Compas的犯罪风险模型,该模型被出售给美国各地的执法部门,以23.5%的速度将白人被告旗帜旗帜,为44.9%的黑人被告。换句话说,不配得到的黑人被告被错误地标记了几乎是不应该得到的白人被告的两倍。

3)推断敏感属性 – 预测怀孕及以后。机器学习可以预测有关个人的敏感信息,例如性取向,是否怀孕,是否会辞职以及是否会死。研究人员表明,可以根据Facebook喜欢预测竞赛。这些预测模型提供了炸药。在一个特别的案例中,中国的官员使用面部认可来识别和跟踪维格尔人,维格尔人是政府系统地压迫的少数族裔群体。这是政府使用机器学习来按种族概况的第一个已知案例。一家价值超过10亿美元的中国初创公司表示,其软件可以承认“敏感人群”。它的网站说:“如果最初有一个Uighur居住在附近,并且在20天内出现了六个维格尔人,它立即向执法部门发出警报。”

人工智能中最大的问题?机器没有常识。 |加里·马库斯(Gary Marcus)| big thinkwww.youtube.com

4)缺乏透明度。一台计算机可以使您入狱,或拒绝您的工作,贷款,保险或住房 – 但您不能面对指控者。机器学习产生的预测模型通常被锁定为秘密,无法进行审核,检查或讯问。这样的模型,公众无法访问,因此缺乏正当程序和缺乏问责制。

两种道德标准反对以电子辅助决定的笼统:1)模型透明度,即可访问,可检查和可理解的预测模型的标准。 2)解释权,即预测模型驱动或告知的相应决策的标准始终达到该标准的透明度。例如,符合这些标准将意味着被告人被告知哪些因素导致其犯罪风险评分,其背景,情况或过去行为的哪些方面导致被告受到惩罚。这将使被告有机会对这些因素做出相应的反应,建立背景,解释或观点。5)掠夺性微目标。无能为力无能为力 – 当机器学习提高旨在最大化公司利润的活动的效率时,该周期可以放大消费者。改善营销的微目标以及保险和信贷的预测定价可以放大贫困周期。例如,高度目标的广告比以往任何时候都更加熟练,以利用脆弱的消费者并将其与金钱分开。

保险定价可能会导致相同的结果。有了保险,游戏的名称是为那些风险较高的人收取更多费用。剩下的未选中,此过程可以迅速进入掠夺性定价。例如,搅动模型可能会发现,老年保单持有人不会倾向于四处逛逛,并缺陷以获得更好的报价,因此减少了保险保费的动力。基于其他生命因素的定价保费也有助于贫困。例如,信用评级差的个人因汽车保险而收取更多费用。实际上,低信用评分可以提高您的保费,而不是拨号车祸。6)编码的目光。如果一组人在计算机学习的数据中的代表性不足,则最终模型对该组成员无法正常工作。这导致了排他性的经验和歧视性实践。面部图像处理和语音识别都可能发生这种现象。

为了解决这些问题,请将机器学习标准化作为社会行动主义的一种形式。我们必须建立超越听起来不错但模糊的陈词滥调的标准,例如“公平”,“避免偏见”和“确保问责制”。这些插条短语是主观的,并且无济于事,无法指导具体的作用。不幸的是,这种广泛的语言在许多公司发布的原则中相当普遍。这样一来,公司比保护公众更保护公众形象。

参与部署机器学习计划的人们具有强大的影响力。这些相对较少的人塑造了这些系统的轨迹,这些系统会自动决定大量消费者和公民获得访问权限的权利和资源。建立机器学习的领导者和教育工作者安德鲁·恩格(Andrew Ng)将其带回家:一支小团队影响许多人的生活……确保您所做的工作使社会变得更好。”

加拿大Post数据科学和审计分析总监Allan Sammy阐明了责任水平:“组织的分析模型做出的决定是该实体高级管理团队的决定。”

实施道德数据科学与确保自动驾驶汽车知道何时休息一样重要。

为机器学习建立良好的道德标准将是一个密集的,正在进行的过程。有关更多信息,请观看这​​个简短的视频,其中我提供了一些旨在启动该过程的细节。

埃里克·西格尔(Eric Siegel)博士是一名领先的顾问和前哥伦比亚大学教授,使机器学习易于理解和吸引人。他是长期运行的预测分析世界和深度学习世界会议系列的创始人,也是每个人的端到端,面向商业的Coursera专业化机器学习。在Twitter @predictAnalytic上与Eric保持联系。

原创文章,作者:新鲜事,如若转载,请注明出处:http://www.dsonekey.com/4811.html

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息