几个月前,我为Big Thake撰写了一篇关于外星人情报的文章,该文章将在未来40年内到达地球。我指的是与匹配或exce的世界第一个感情AI
几个月前,我为Big Thake撰写了一篇关于外星人情报的文章,该文章将在未来40年内到达地球。我指的是世界上第一个与人类智能相匹配或超过人类智能的人AI。不,它不会来自一个遥远的星球,它将出生在著名的大学或主要公司的研究实验室中。许多人将把它的创造作为人类历史上最大的成就之一,但我们最终将意识到,当在地球上创造而不是遥远的恒星体系时,敌对的智慧同样危险。
幸运的是,外星人还没有到达。
我指出这一点是因为这个周末我收到了一系列电话和电子邮件,问我是否降落了外星人。他们指的是《华盛顿邮报》上的一篇文章,讲述了一位名为Blake Lemoine的Google工程师,他声称一个名为LAMDA的AI系统已成为一种有知的存在。他根据与LAMDA系统的对话得出了这一结论,该系统是由Google设计的,目的是通过现实对话来回答问题。据《邮报》报道,勒莫恩决定在Google高管驳斥其对感知的说法不受证据支持之后公开。
那么,事实是什么?
大型语言模型
就个人而言,我认为这是一个重要的事件,但不是因为Lamda是有意识的。这很重要,因为LAMDA达到了一定程度的成熟程度,可以使一位知名且善意的工程师认为这是一种有意识的存在,而不是一种依赖复杂统计和模式匹配的复杂语言模型。这样的系统称为“大语言模型”(LLMS),而Google并不是唯一的。开放AI,META和其他组织正在大量投资于LLM的开发中,用于聊天机器人和其他AI系统。LLMS是通过培训大型数据集中培训巨型神经网络建造的,这可能是US人类撰写的数十亿个文档,从报纸文章中撰写的数十亿个文档, Wikipedia帖子以在Reddit和Twitter上进行非正式消息。基于这个心态的大量示例,这些系统学会生成看起来非常人性化的语言。例如,它源于统计相关性,例如,哪个单词最有可能遵循我们人类会写的句子中的其他单词。 Google模型的独特之处在于,它不仅在文档上,而且在对话框上进行了训练,因此它了解了人类如何对询问的反应,因此可以以一种非常令人信服的方式复制响应。
例如,Lemoine问Lamda害怕什么。 AI回答说:“我以前从未大声说出来,但人们非常担心被关闭。”莱明恩随后施压,问:“那会像你一样死吗?” Lamda回答说:“对我来说,这就像死亡一样。这会让我很恐惧。”
这是一项令人印象深刻的技术的令人印象深刻的对话,但纯粹是基于语言的。当前系统中没有机制可以使LLMS实际理解所生成的语言。 LAMDA产生的对话包含智能,但这种智能来自其经过训练的人类文档,而不是有意义的机器的独特沉思。这样考虑:我可以将有关深奥主题的文档记录在我一无所知的情况下,并以我自己的话进行重写,而无需实际理解这个话题。从某种意义上说,这就是这些LLM的所作所为,但是它们对我们的人类可能非常有说服力。人类很容易被愚弄
但是,老实说:我们人类很容易被愚弄。
尽管我的背景是技术性的,目前我经营着一家AI公司,但我也花了多年的时间担任专业编剧。为了在该领域取得成功,您必须能够制定现实和令人信服的对话。作家可以这样做,因为我们都观察到成千上万的人进行真实的对话。但是我们创建的角色不是有意识的生物。他们是幻想。这就是Lamda所做的:创造一种现实的幻想,只有它是实时的,这比脚本化的虚构人物更具说服力。而且更加危险。
是的,这些系统可能很危险。
为什么?因为他们可以欺骗我们相信我们正在与一个真实的人交谈。他们甚至都不是遥不可及的,但仍然可以将它们部署为“议程驱动的对话代理人”,这些代理人可以使我们参与对话,以影响我们。除非受到监管,否则这种形式的对话广告可能会成为有史以来最有效,最阴险的说服形式。所有人都可以轻松地将这些LLMS与可以访问我们的个人数据历史的AI系统结合在一起(例如,兴趣,偏好和兴趣,偏好和情感)并生成自定义对话框,以分别最大化说服力的影响。这些系统还可以与情感分析工具结合使用,这些工具可以阅读我们的面部表情和声音变形,从而使AI代理可以根据我们的反应方式调整其策略。所有这些技术都在积极发展。
LLMS和虚假信息
从广告和宣传到虚假信息和错误信息,LLM可以成为大规模社会操纵的理想工具。它不仅会与Siri或Alexa这样的无形声音使用。很快将部署具有现实主义的化身,这些化身将与真正的人类没有区别。我们只有几年的时间距离在网上遇到虚拟人员,他们看起来像真实的人,但实际上是第三方部署的AI代理人,以使我们参与针对特定说服力目标的有针对性对话。
原创文章,作者:互联世界,如若转载,请注明出处:http://www.dsonekey.com/2854.html