我们都看过电影:一个疯狂的天才创造了突破性的人工智能,只是为了打开它们和人类。电影中途,机器人接管了。到最后,人类
我们都看过电影:一个疯狂的天才创造了突破性的人工智能,只是为了打开它们和人类。电影中途,机器人接管了。到最后,人类几乎没有赢。像哥斯拉一样,AI从未真正消失。这是我们最黑暗的阴影总是潜伏的怪物,随时准备重新采取行动。
除了幻想之外,AI是一个真正的问题。正如理查德·克拉克(Richard Clarke)和埃迪(R.P.人工智能将“全球销售1.4亿全职知识工作者”。
大规模失业是危险的,尤其是在政府行动方面。目前的政府基本上忽略了AI,而即将上任的政府确实有一个研究平台。这些因素如何陷入失业仍然有待观察。克拉克(Clarke)和埃迪(Eddy)指出了对大萧条的各种反应:
“ 1932年,美国以新交易做出了回应。西欧以法西斯主义和纳粹主义的迫在眉睫的崛起做出反应,俄罗斯加深了斯大林主义和五年计划。”
还有疗效问题。我们如何真正知道AI何时按计划工作?统计数据依赖两个主要置信区间:95%和99%。尽管后者似乎激发了大型数据集的信心,但您是否希望AI医疗干预措施有1%的失败机会?
麻省理工学院计算机科学和人工智能实验室(CSAIL)的博士生,Alexander Amini,也是关于神经网络的新论文的第一作者,他说我们不必承担这种风险。
“避开研究人员的一件事是这些模型知道并告诉我们何时出错的能力。我们真的很关心这1%的时间,以及如何可靠,有效地检测这些情况。过滤社交媒体饲料的AI中有1%的风险似乎并不是一场赌博,但是在药物设计或医学图像分析方面,这种风险可能导致悲剧。
学分:scharsfinn86 / adobe股票
在道路上,1%可能是在交叉路口停止或赶紧穿过停车标志时的区别。 Amini及其同事想生成一个模型,该模型可以更好地检测巨型数据集中的模式。他们将解决方案命名为“深厚的证据回归”。
分类数十亿个参数并非易事。 Amini的模型利用了不确定的分析 – 了解模型中存在多少错误并提供丢失的数据。深度学习中的这种方法并不是新颖的,尽管通常需要大量时间和记忆。深度证据回归估计仅在神经网络的一次运行之后的不确定性。根据团队的说法,他们可以评估输入数据和最终决定的不确定性,之后他们可以解决神经网络或识别输入数据中的噪声。
用现实世界来说,这是信任初始医学诊断或寻求第二意见之间的区别。通过使用内置检测系统来武装AI,可以达到与数据的新诚实水平 – 在此模型中,用像素。在测试过程中,神经网络获得了新的图像。它能够检测到人眼无法察觉的变化。拉米尼(Ramini)认为,这项技术也可以用来查明深击,这是我们必须开始努力解决的一个严重问题。任何使用机器学习的领域都必须考虑不确定性意识,无论是药物,汽车还是其他方式。正如阿米尼所说的那样
“该方法的任何用户,无论是医生还是在车辆乘客座位上的人,都需要意识到与该决定相关的任何风险或不确定性。”
我们可能不必担心外星机器人正在转向我们,但是我们应该关注我们刚刚下载到电动汽车的新功能。在我们的世界和劳动力中,AI的出现还会面临许多其他问题。我们可以更安全地进行过渡,越好。
–
在Twitter和Facebook上与Derek保持联系。他的新书是“英雄的剂量:仪式和治疗中迷幻的案例”。
原创文章,作者:小彭山,如若转载,请注明出处:http://www.dsonekey.com/3269.html