哈佛大学的卡斯太阳斯坦:算法可以纠正人类偏见

算法是驱动现代世界的引擎的一部分。当您在Google上搜索某些内容时,您将依靠由特定算法定义的搜索引擎。当您看到您看到的东西时

算法是驱动现代世界的引擎的一部分。当您在Google上搜索某些内容时,您将依靠由特定算法定义的搜索引擎。当您在Facebook上看到新闻提要上看到的内容时,您并不是在自然而然地看到您的东西;您正在查看特定算法定义的内容。

最近,关于算法使我们的世界变得更容易的功效的想法(这是讨论算法的一部分 – 使我们的世界更容易)。一些反向是哲学上的。某些推回来自一个立即实用的地方。

实用地方的回音以今年10月出现的一篇文章的形式指出,亚马逊摆脱了它使用的不喜欢女性的AI招聘工具。 ProPublica的另一篇文章指出,该算法用于确定美国的刑事被告是否有责任再次犯罪。

某些算法遇到麻烦的部分原因是因为有多种数学方法来定义“公平”的概念,也没有任何具有足够灵活性的系统来说明“公平”可以定义的所有不同方式。考虑一种一种系统在匹兹堡地区评估潜在的虐待儿童的方式,如自然界中的一篇文章中所标记的那样:“而且,出于尚不清楚的原因,白人儿童认为,算法得分为最高的虐待风险很小从他们的房屋中搬走的是,鉴于风险得分最高的黑人孩子。”

卡斯·晒太阳 – 轻推:改善有关健康,财富和幸福的决策

www.youtube.com

但这并不意味着所有这一切都没有积极的事情 – 还有哈佛大学肯尼迪学校教授卡斯·桑斯坦(Cass Sunstein)最近发表了一篇论文来证明这一事实,并认为“算法可以克服认知的有害影响话虽这么说,值得注意的是,在论文中,Sunstein写道:“……关于保释决定的人类法官的决定既不显示不同的待遇也没有表现出不同的影响。据我所知,没有任何证据。”正如《经济学季刊》上发表的一篇文章所述,有明显的证据。作者在文章中指出:“迈阿密和费城的估计表明,保释法官对黑人被告有种族歧视,在缺乏经验和兼职法官中,种族偏见更加多。”

《经济学季刊》的论文使人们的主张略有问题,即算法可以简单地基于仅仅基于犯罪的潜力,使本已种族盲的决策过程(“没有证据”)更有效。这也使算法或多或少地重现法官考虑保释产生的内容,但更有效地复制算法的观念有些问题,但犯罪等等。

但这并不一定会阻止Sunstein在国家经济研究局主持下提出的一份论文中指出的一些特定算法:

1.“使用该算法可以维持现在由人类法官产生的相同拘留率,并将犯罪降低多达24.7%。另外,使用该算法可以将目前的犯罪降低水平维持,并将监狱率降低多达41.9%…可以释放成千上万的人,待定审判,而不会增加犯罪率。” 2。 ”……法官释放了48.5%的被算法判断的被告,即最风险的1%。这些被告没有在56.3%的时间内重新出庭。他们以62.7%的速度重新占领。法官表现出对可能犯罪的人群的宽大处理,对待“高风险被告在当前的收费相对较小时都像低风险一样”,同时对待“低风险人的人,就好像他们是高风险的人时一样他们目前的收费尤其严重。”

3.“如果指示该算法产生与当前达到的犯罪率相同的犯罪率,则将监禁40.8%的非裔美国人,而西班牙裔则减少44.6%。之所以这样做,是因为它拘留了许多人,因为它是最风险的被告。”

这些看似清楚的结果证明了这一论点 – 有一个可以纠正的偏见以获得更好的结果。即使在迈阿密和费城经验不足和兼职法官中发现了复杂的结果,我们也可以看到一些法官将“噪音”解释为信号。算法可以帮助提供清晰的必要方面,并可能(可能)正义。

原创文章,作者:互联世界,如若转载,请注明出处:http://www.dsonekey.com/3418.html

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息