可以在罢工之前检测到大众射击者?

8月3日,一名德克萨斯州埃尔帕索市的男子开枪杀死了22人,炸伤24人。几个小时后,俄亥俄州代顿的另一名男子开枪打死了九人,其中包括他自己的姐姐。即使在一个国家

8月3日,一名德克萨斯州埃尔帕索市的男子开枪杀死了22人,炸伤24人。几个小时后,俄亥俄州代顿的另一名男子开枪打死了九人,其中包括他自己的姐姐。即使在一个被无数大规模枪击事件留下的国家,这个消息令人痛苦和痛苦。

唐纳德·特朗普(Donald Trump)总统很快向美国讲话,概述了他的政府计划如何解决这个独特的美国问题。希望悲剧最终可能会激发更严格的枪支管制法律的动力,例如普遍背景调查或对大容量杂志的限制,这让听众感到失望。

特朗普的计划是典型的共和党谈话要点的杂乱无章:红旗法律,心理健康问题和暴力视频游戏的监管。他们中间藏在菲利普·K·迪克(Philip K. Dick)的小说中是一个想法。

特朗普说:“我们必须认识到,互联网为激进的思想激进并执行痴呆的行为提供了危险的途径。” “首先,我们必须更好地识别和采取预警信号和行动。我指示司法部与地方,州和联邦机构以及社交媒体公司合作,开发可以在大众射击者罢工之前检测到的工具。”

基本上,特朗普想要数字预盖。但是,人工智能是否达到了如此宏伟的高度?

抑郁是一个沉默的杀手。 A.I.正在增加卷。数字化的心态

值得注意的是在阅读和量化人的思想方面取得了令人印象深刻的进步。社交媒体是关于人们的感受和思维方式的广泛数据存储库。如果我们能够从表演者那里摆脱内部,我们可以改善美国和国外的心理保健。例如,2017年的一项研究发现A.I.可以阅读Instagram照片中抑郁症的预测标记。研究人员通过分析166名个人的数据来任务机器学习工具,其中一些人以前被诊断出患有抑郁症。该算法在超过43,950张照片中查看了过滤器选择,面部表情,元数据标签等。

结果? AI。在诊断抑郁症方面表现优于人类从业者。这些结果即使在分析患者诊断之前分析图像时也会得出。 (当然,Instagram也是最有可能使您沮丧和焦虑的社交媒体平台,但这是另一项研究。)

斯克里普斯分子医学系教授埃里克·托波尔(Eric Topol)与Big Think交谈,称其为“数字化我们的心态”的能力。除了Instagram的研究外,他还指出,患者将与人类的化身相比,与人类精神科医生分享更多。

“因此,当您采取这种能力来数字化心态并通过头像获得支持时,这可能是解决我们今天遇到的问题的一种非常好的方式,这是缺乏精神卫生专业人员抑郁症和其他心理健康状况的负担非常大。”托波尔说。

……。我是其中最大的第二修正案人,但是我们所有人都必须共同努力,以实现我们国家的良好和安全。常识可以做对每个人都有益的事情!twitter.com

检测大众射击者?

但是,它并不像转向AI.从“抑郁”到“大规模射击者”。机器学习工具在分析图像方面变得非常出色,但它们落后于思想阅读语言,语调和社交线索的能力。

正如Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)所说:“我们认为公平的批评之一是,我们能够更好地执行我们的裸体政策,例如,我们的仇恨言论。这样做的原因是,制作A.I.可以检测乳头的系统比确定什么是语言仇恨言论。”

特朗普应该知道这一点。在今年早些时候的房屋国土安全小组委员会听证会上,专家们作证了AI。不是治愈在线极端主义的灵丹妙药。 Facebook的前首席安全官Alex Stamos比喻了世界上最好的AI。对于“数百万的学龄前儿童的人群”,以及要求那些学龄前儿童“聚在一起建造泰姬陵”的任务。

这都不是说问题是不可能的,但这肯定是棘手的。

是的,我们可以创建一个A.I.播放比任何人都更好地分析股票绩效。那是因为我们有很多有关这些活动的数据,并且它们遵循可预测的输入输出模式。然而,即使这些“简单”算法都需要一些最聪明的思想才能发展。

大众射击者虽然在美国太普遍,但仍然很少见。我们玩了更多的GO游戏,分析了更多的股票,并诊断出更多的抑郁症患者,数以百万计的美国人挣扎。这为机器学习软件提供了有关这些活动的更多数据点,以创建准确,负责任的预测 – 仍然没有完美地执行。可以理解为什么专家是特朗普雇用AI的方向的保证。在与恐怖主义的战斗中。

“正如我们的心理科学家反复说的那样,绝大多数精神疾病的人并非暴力。而且,没有一个人格概况可以可靠地预测谁将诉诸枪支暴力。 “根据研究,我们只知道暴力历史是谁将实施未来暴力的最佳预测指标。获得更多的枪支和更致命的枪支,意味着更多的生命丧生。”

第一夫人梅拉尼亚·特朗普(Melania Trump)与德克萨斯州埃尔帕索(El Paso)的受害者访问。图像来源:Andrea Hanks / Flickr

社交媒体无法保护我们免受自己的侵害

有人可能想知道我们是否可以更积极地利用当前功能?不幸的是,社交媒体调节系统是在过去十年中零碎的杂物。他们依靠AI。,付费主持人和社区警务的混合物。结果是一个不一致的系统。

例如,《纽约时报》在2017年报道说,YouTube使用机器学习系统删除了数千个视频。这些视频显示出叙利亚战争的暴行,例如处决和吐口水伊斯兰国的宣传。该算法将其标记并将其删除为来自极端主义团体。事实上,这些视频来自人道主义组织,以记录侵犯人权的行为。机器无法分辨出区别。 YouTube在用户报告了这个问题后恢复了一些视频,但是规模上的错误并不希望当今的调节系统能够准确地识别出可能的大众射击者。

这就是合伙人对A.I.的报告中得出的结论。 (pai)。它认为使用A.I.存在“严重的缺点”。作为美国刑事司法的风险评估工具。它的作家引用了三个总体问题:准确性和偏见;透明度和问责制的问题;以及工具与人员之间的接口问题。

报告指出:“尽管使用这些工具的使用部分是由于渴望减轻刑事司法系统中现有的人犯错性的愿望,但仅仅因为它们是基于数据而将工具视为客观或中立的,这是一种严重的误解。” “尽管公式和统计模型提供了一定程度的一致性和可复制性,但它们仍然共享或扩大人类决策的许多弱点。”

除上述内容外,还有实用的障碍。执法的技术能力在位置之间有所不同。社交媒体平台处理大量流量和数据。即使当危险信号是不言而喻的(例如射击者发布宣言时),他们也提供了一个狭窄的窗口。图像来源:Gregory Varnum / Wikimedia Commons

减少大规模枪击的工具

人工智能今天提供了许多优势,将来将提供更多的优势。但是,作为对极端主义和大规模枪击事件的答案,专家们认为这只是错误的工具。那是坏消息。好消息是我们已经拥有所需的工具,并且可以使用随时可用的技术来实施。

“根据心理科学,我们知道我们需要采取的一些步骤。我们需要限制平民获得攻击武器和大容量杂志。我们需要建立通用背景调查。而且,我们应该制定危险法律,以将枪支从有暴力行为的高风险的人那里删除。”埃文斯写道。

埃文斯并不孤单。专家们认为,他建议的政策以及其他一些政策将减少大规模枪击事件的可能性。十分之一的美国人已经支持这些措施。

我们不需要高级AI。弄清楚这一点。世界上只有一个发达国家可以合法,轻松地购买枪支的军械库,这是唯一一个以如此规律的大规模枪击事件的发达国家。这是一个简单的算术。

原创文章,作者:新知会,如若转载,请注明出处:http://www.dsonekey.com/5728.html

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息