再次是犯罪前的时间。(请参阅少数民族报告。)当法官,惩教局和假释委员会正在做出判决,监督和释放决定时,他们实际上是在尝试相处
再次是犯罪前的时间。 (请参阅少数民族报告。)
当法官,惩教局和假释委员会正在做出判决,监督和释放决定时,他们实际上是在试图凝视罪犯的未来,以评估该人的累犯潜力。为了帮助指导这些决定 – 毫无疑问受到当代对人工智能的痴迷的影响 – 当局越来越多地转向风险评估工具(RAI),假设其AI可以更准确地确定那些可能是重复犯罪者的人。
一项新的科学研究更严格地证实,算法判断实际上可能比人类更准确。不过,令人担忧的是,鉴于涉及的股份 – 未来犯罪,被告的自由或持续监禁 – 他们仍然不够可靠,无法确保真正做到正义,并且可以避免悲惨的错误。
图像来源:Andrey Suslov/Shutterstock
Rais,NG?
由斯坦福大学的计算社会科学家莎拉德·戈尔(Sharad Goel)领导的这项新研究在某种意义上是对编程专家朱莉娅·德莱尔(Julia Dressel)和数字图像专家汉尼·法里德(Hany Farid)对最近作品的回答。在早期的研究中,参与者试图根据对案件历史的简短描述,在未来两年内是否有50个人中的任何人都会在未来两年内实施任何新犯罪。 (没有向参与者提供图像或种族/种族信息,以避免由于相关偏见而偏向结果。)平均准确性率参与者为62%。
还通过广泛使用的RAI来处理相同的犯罪分子和案件案件,用于“惩教罪犯管理替代制裁”。其预测的准确性大致相同:65%,领导着德莱德(Fressel)和法里德(Farid)得出结论:“比刑事司法专业知识的人做出的预测相比,compas“不准确……”。
戈尔认为,德莱尔和法里德使用的测试方法的两个方面并没有与人类在判刑期间预测累犯的情况紧密相关:
该研究的参与者学会了如何改善他们的预测,就像算法一样可能,因为他们得到了每种预测的准确性的反馈。但是,正如Goel指出的那样,“在正义环境中,这种反馈极为罕见。法官可能永远找不到他们判刑或为谁保释的个人。被呈现。在现实世界中,当手头上有太多信息时,很难确定哪些信息最相关。
这两个因素都使参与者与RAI的平等地位比现实生活更平等,这可能是遇到的相似准确性水平。
为此,戈尔和他的同事们进行了一些自己的几次试验。
第一个实验密切反映了Dressel和Farid的实验(带有反馈和简短的案例描述),并且确实发现人类和Compas的表现同样出色。另一项实验要求参与者预测暴力犯罪的未来发生,而不仅仅是任何犯罪,而且准确性率却相当得多,尽管要高得多。随着Compas的准确性达到89%,人类的得分为83%。当参与者的反馈被删除时,人类的准确性远远落后于Compas,而与Compas的89%相比,人类降至60%左右,因为Goel假设他们可能会。
最后,对人类进行了一种称为LSI-R的不同RAI工具的测试。在这种情况下,双方都必须尝试预测个人的未来,以大量的案例信息与法官可能必须涉足的信息相似。再次,RAI在预测未来犯罪方面的表现优于人类,62%至57%。当被要求预测谁将因未来的不当行为而回到监狱时,对于参与者而言,结果甚至更糟,他们的时间仅为58%,而LSI-R则为74%。
图像来源:KLSS/shutterstock
够好了?
戈尔总结说:“我们的结果支持算法风险评估通常可以超过人类重新犯罪的预测的说法。”当然,这不是唯一的重要问题。还有这样的:AI是否足够可靠,可以使其预测数量超过法官,惩教授权或假释委员会成员?
科学新闻问法里德,他说不。当被问及他对可以指望正确的80%的RAI的感觉时,他回答:“您必须问自己,如果您错了20%,您是否愿意容忍吗?”
原创文章,作者:乐观兔,如若转载,请注明出处:http://www.dsonekey.com/5237.html