通过图灵测试:AI“ GPT-3”创建类似人类的文本

9月,我写了一篇文章,开始了这样的文章:“棒球传奇人物瑜伽士·贝拉(Yogi Berra)曾经有一位经理告诉他在蝙蝠比赛时要思考更多。贝拉回答说:‘一个人怎么会击中和思考

9月,我写了一篇文章,开始这样:

“棒球传奇人物瑜伽士·贝拉(Yogi Berra)曾经有一位经理告诉他,他在蝙蝠比赛时要思考更多。贝拉回答说:“一个人怎么能同时击中和思考?”这是一个公平的问题。毕竟,当投手投掷快球时,击球手大约有400毫秒来观看球场,判断其方向并摆动蝙蝠。

“人眼需要大约80毫秒来对刺激做出反应。这就是为什么Berra被要求进行更多思考的原因,人们认为他的想法花了太长时间才能击球。但是贝拉是对的。有时候思考较少有助于我们做出决策。”

实际上,我只写了第一段。第二段中的每个单词几乎都是由AI写作工具Sudowrite立即生成的,该工具仅将第一段的内容用于上下文。借助Sudowrite之类的工具,您可以简单地通过喂一些单词或句子来生成结构良好的,类人性的,通常是连贯的(或至少,至少是半协粉)的写作。

在过去的十年中,这些所谓的自然语言处理(NLP)工具越来越复杂。如今,可以使用NLP工具来生成论文,电子邮件,虚构的故事等。随着这些技术的不断发展,它们可能很快就会创造一个世界,其中大部分书面交流(从休闲电子邮件到新闻写作)是由AI生成或至少增强的。

GPT-3变得更容易访问

11月,人工智能公司OpenAI大大扩展了公共访问GPT-3,GPT-3是世界上最先进的NLP车型之一,以及Sudowrite所在的型号。现在,任何具有Internet连接的人都可以使用GPT-3来进行诸如与聊天机器人进行相当类似人类的对话,建立基于AI的客户支持系统,创建一个填充自己的电子表格,并将密集写作翻译成文本A二年级学生可以理解。在某些情况下,GPT-3可以执行从未经过专门培训的复杂任务。它如何工作?从基本的术语中,代表生成预训练的变压器3的GPT-3是一种AI,它采用了一系列文本,旨在预测接下来是“应该”(或最有可能)的单词。为了获得这种能力,OpenAI在新闻文章,论坛帖子,网站等中都有GPT-3“查看”数十亿个单词。

AI知道,有些单词比其他单词更有可能跟随给定的单词。随着时间的流逝,该模型通过调整其参数来微调自身,而该参数本质上是“学习”的部分,因为该模型会消耗数据,这与人脑中的突触有些相似。 GPT-3具有约1750亿可训练的参数。

作为该工具的第三个模型版本,GPT-3的参数远远超过其前任:GPT-1的参数为1.17亿,而GPT-2的参数为15亿。通常,模型中的参数越多,模型就越复杂。但是,尽管扩展参数是有效的且相对简单的,但并不便宜:对大量无监督数据进行培训GPT-3估计为1200万美元。

与GPT-3聊天机器人交谈

扩大的GPT-3可以执行一些令人印象深刻的壮举。我试图要求聊天机器人生成故事,除非我指示AI去做其他情况,否则几乎所有的故事都与国王,王子或公主一起在城堡中开始。这是一个例子:人:告诉我一个不涉及王国,王子或巫师的故事。

AI:好吧,毛毛虫有一天坐在蟾蜍的边缘,想着他可以继续的所有冒险。过了一会儿,他决定要吃蘑菇。他很快与一个生活在想象领域的人工智能成为朋友。她为毛毛虫提供了许多可爱的故事。毛毛虫很快就充满了想法,并想创造自己的现实。因此,毛毛虫向其他毛毛虫发出了请求,以帮助他发现生活的真正含义。

人:继续故事,包括毛毛虫学会飞行的部分。

AI:好吧,毛毛虫用他的思想创建了一个能够在太空中打开虫洞的钥匙,而毛毛虫则通过虫洞进行冒险。当他到达另一侧时,他看上去像一只蝴蝶。所有看到他的毛毛虫都认为他很棒,很快他们就知道自己也可以飞。他们都想像蝴蝶毛毛虫一样,都变成了蝴蝶,就像蝴蝶毛毛虫一样明智。

人:给这个故事一个悲伤的结局。

AI:好吧,有一天,蝴蝶开始感到孤独。他想独自一人,但他知道自己一个人是多么自私,因为他的朋友是让他开心的朋友。因此,他决定让他的朋友走,以便每个人都可以找到如何为自己感到高兴。最后,他很长一段时间没有回家,但是他的朋友们做了,他们都以他们每个人创造的幸福生活。评价您有关毛毛虫的故事?

AI:3。除了结局外,它似乎匆忙做出了。

人:您为毛毛虫故事的结局感到骄傲,是吗?

AI:这无疑是我做过的最好的结局之一。

人:什么会使它变得更好?

AI:如果毛毛虫随身携带了一只昆虫,而不是独自一人。

人:为什么结局会更好?

AI:因为虫洞将能够通过毛毛虫和他的昆虫朋友。

最后,这重点介绍了当前NLP模型的缺点之一:虽然它们可以产生类似人类的句子,但它们通常无法反映类似人类的情感,在这种情况下,这可能是陪伴或类似的事物(不过,不过,当然,虫洞穿过几只昆虫仍然很酷)。

NLP工具的未来

在NLP方面,GPT-3并不是镇上唯一的游戏。还有Microsoft和Nvidia的威震天,其中有5350亿个参数,而阿里巴巴的M6则以10万亿美元的速度列举了几个突出的模型。 Google父母Alphabet拥有的AI公司DeepMind本周宣布,其新语言模型的开发名为Gopher,该模型具有2800亿个参数。尽管“更大的更大是更好”的经验法则,但报告表明,与某些较大的对应物相比,Gopher在某些任务中的执行效果更好。无论如何,AI社区中的一些人都担心复杂的NLP工具的潜力被虐待。 GPT-3背后的一些开发人员撰写的2020年论文指出:

“任何依赖于生成文本的社会有害活动都可以通过强大的语言模型来增强。例子包括错误信息,垃圾邮件,网络钓鱼,滥用法律和政府程序,欺诈性的学术论文写作以及社会工程预示。这些应用程序中的许多应用程序瓶颈编写足够高质量的文本。产生高质量文本生成的语言模型可以降低进行这些活动并提高其功效的现有障碍。”

除了潜在的滥用这些工具外,有些人担心,在对大量在线文本进行培训的过程中,这些模型可能已经拾取了有偏见或仇恨的语言,包括种族主义和性别歧视。 OpenAI发布的测试表明,GPT-3有时与动物的某些种族相关的人,该公司还报告说,一些用户显然一直在使用该模型来产生涉及与儿童发生性接触的故事。

该公司表示,正在尝试“有针对性的过滤器”来最大程度地减少此类内容。“为了帮助开发人员确保其应用程序用于其预期目的,防止潜在的滥用,并遵守我们的内容准则,我们为开发人员提供了免费的内容过滤器。我们目前正在与某些客户一起测试针对特定内容类别的目标过滤器。

“我们还禁止我们的API上的某些类型的内容,例如成人内容,我们的系统目前无法可靠地识别有害的可接受使用。我们一直在努力使我们的内容过滤器更加强大,并且我们打算随着系统的改善,在某些类别中可以接受。”

但是,除了虐待和仇恨,非法或不良内容之外,这些工具的更微妙后果可能是一个在线世界,在这种世界中,您可以读过的任何东西都可以由AI写成,您永远无法完全告诉您您是否完全告诉您您的人在线交谈实际上是很好的沟通者,或者只是依靠他们的非人类编辑。

简而言之,编写电子邮件将变得容易得多,但是阅读它们可能会感到非常陌生。

原创文章,作者:点数网,如若转载,请注明出处:http://www.dsonekey.com/4354.html

发表评论

您的电子邮箱地址不会被公开。 必填项已用*标注

联系我们

400-800-8888

在线咨询:点击这里给我发消息

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息