计算机科学家讨论 ChatGPT 的优缺点
凭借其模仿人类语言和推理的不可思议的能力,ChatGPT 似乎预示着人工智能的一场革命。灵活的聊天机器人可以变出诗歌和散文,分享食谱,翻译语言,分发建议和讲笑话,这是自硅谷研究实验室OpenAI于11月发布自然语言处理工具以来用户测试的无穷无尽的应用程序之一。
伴随着兴奋而来的是一些恐惧——这项技术可能会降低真实的人类写作和批判性思维,颠覆行业,并放大我们自己的偏见和偏见。
对于那些从事人工智能工作的人来说,ChatGPT不仅仅是一夜之间的轰动,而是经过多年实验的成就标志,约翰霍普金斯大学助理计算机科学教授Daniel Khashabi说,他专门研究语言处理并研究过类似的工具。
“ChatGPT看起来像是一场突然出现的革命,”他说。“但这项技术多年来一直在逐步发展,最近几年进展迅速。
然而,Khashabi承认ChatGPT似乎开创了一个前所未有的时代,一个充满人类进步潜力的时代。“这确实是我们修改我们对智能含义的理解的机会,”他说。“这是一个激动人心的时刻,因为我们有机会应对过去感觉遥不可及的新挑战和新视野。
随着微软对该工具的投资,OpenAI发布了付费版本,谷歌计划发布自己的实验性聊天机器人,Hub与Khashabi进行了联系,以了解该技术及其发展方向。
你能分解一下ChatGPT是如何工作的吗?
第一阶段不涉及直接的人工反馈。该模型通过从 Web 上反刍大量文本来学习语言的结构,例如,来自维基百科、Twitter、Reddit、纽约时报等以及所有不同语言的句子和段落。它还接受由程序员编写的代码训练,这些代码来自GitHub等平台。
在第二阶段,[通常称为“自我监督”学习],人类注释者参与训练模型以变得更加复杂。它们对 ChatGPT 收到的各种类型的查询编写响应,因此模型通过“写一篇关于此主题的文章”或“修改此段落”等命令学习执行任务。
因为OpenAI坐在金矿上,他们有能力聘请许多注释员,让他们注释大量高质量的数据。我通过小道消息听说,最初的系统被灌输了近100万轮人类反馈。所以这背后有很多人力劳动。
但OpenAI的秘密武器不是它的人工智能技术,而是使用其服务的人。每次有人查询他们的系统时,他们都会收集这些查询,以使 ChatGPT 适应用户正在寻找的内容并确定其系统的弱点。换句话说,OpenAI的成功赢得了数百万人使用其演示。
您个人是如何尝试使用ChatGPT的?
它可以是一个优秀的写作和头脑风暴工具。我可以写一个我想到的想法的摘要,让 ChatGPT 更复杂地扩展它,然后选择我喜欢的结果并自己进一步开发它们或继续使用 ChatGPT。这就是人机协作写作。正如Twitter上有人恰当地说的那样,“ChatGPT是你大脑的电动自行车!
您如何看待所有的关注和新闻?
这是人工智能进步的另一个里程碑,值得庆祝。令人兴奋的是,人工智能和自然语言处理越来越接近帮助人类完成他们关心的任务。
但是,我担心过度炒作AI的状态。已经取得了进展,但“通用情报”仍未出现。在过去的几十年里,我们不断修正我们对“聪明”的观念,每次进步。在 1960 年代和 70 年代,我们的目标是创建一个与人类下棋的系统。这样的例子很多。每次进步,我们都会想:“就是这样!但过了一段时间,炒作消失了,我们看到了问题并确定了新的需求。
“智能”一直是一个移动的目标,并且很可能仍然是一个目标,但我对我在解决类 ChatGPT 系统的缺点方面取得的进展感到兴奋。
这些缺点是什么?
ChatGPT很容易编造东西。如果你问 ChatGPT 一些它以前从未见过的小众问题,它会用流利和议论性的语言产生幻觉。例如,如果你要求它定义“维纳斯·威廉姆斯在哪场比赛中赢得了她的第八个大满贯?”它会为你提供一个答案,即使维纳斯·威廉姆斯赢得了七个大满贯。正如许多媒体报道的那样,她想赢得第八名,但她没有。该模型混淆了“想赢”和“赢”这两个概念。
问题是它做得如此流畅。它可以给你垃圾,但用如此流畅、连贯的语言,如果你不是该领域的专家,你可能会相信它所说的是真的。这让我很担心,我认为我们人类在面对看似清晰的输出时是容易上当受骗的。
另一方面,ChatGPT有什么令人兴奋的地方?
我们现在拥有这些工具,可以生成创造性和流畅的语言,这是我们花了数年时间解决的挑战。作为一名人工智能科学家,我对接下来的步骤感到兴奋,我们有新的问题需要人工智能解决。
我对人工智能的目标——对人类智能进行逆向工程——不那么兴奋,而对IA或智能增强更感兴趣。我认为使用人工智能使人类能够做更好的事情并增强人类的能力是一个有价值的目标。我对这类协作系统感到兴奋。
您如何看待技术的发展?
我们仍处于这种变化之中,但我们将继续使语言模型更高效,从而产生更紧凑但高质量的模型。因此,我们将在各地看到非常可靠的对话代理形式。未来的模型将成为您的网络导航助手,完成我们这些天自己做的各种平凡的基于 Web 的任务。
同样的技术也开始进入物理世界。目前的模型,如ChatGPT,无法感知他们的环境。例如,他们看不到我的手机在哪里或我有多累。很快我们就会看到ChatGPT的眼睛。这些模型将使用不同的数据模式(文本、视觉、听觉等),这对于它们每天为我们服务是必要的。
这将导致基于其物理环境数据的自我监督机器人,包括物理对象,人类及其交互。这里的影响将是巨大的。在不到10年的时间里,我们每天使用的任何物理设备——汽车、冰箱、洗衣机等——都将成为你将与之交谈的对话代理。我们还将看到机器人在解决当今不可能解决的问题方面非常强大。想象一下,即将与您的 Roomba 谈论您想做或不做的事情,就像您与 ChatGPT 交谈的方式一样。
同样重要的是,不要忽视这些技术将如何在社会层面上改变事物。未来的多模式模型——有眼睛和耳朵的ChatGPT——将无处不在,并将影响一切,包括公共安全。但现在令人担忧的是:在一个我们不断被人工智能模型监视的社会中,这些模型有眼睛和耳朵,并且随着他们的倾向而不断变得更好,我们的自由和隐私会是什么样子?
这听起来像是著名小说《1984》所描述的反乌托邦社会。像任何其他技术一样,自我监督模型是一把双刃剑。我们现在能做的最好的事情就是保持警惕,在应用程序增加之前预见和辩论这些问题。理想情况下,我们需要开发框架,通过从 ChatGPT 等示例推断到其未来的扩展来确保我们的自由和公平。我乐观地认为,我们会这样做。
- 分享
- 举报
-
浏览量:622次2023-08-29 10:58:29
-
浏览量:709次2023-10-31 09:55:26
-
浏览量:1647次2019-06-24 14:03:15
-
浏览量:1426次2023-02-01 13:48:03
-
浏览量:535次2023-11-02 16:24:23
-
浏览量:459次2023-09-06 11:02:23
-
浏览量:2146次2018-09-11 16:16:08
-
浏览量:2098次2018-09-20 14:00:47
-
浏览量:489次2023-08-16 09:42:47
-
浏览量:1362次2022-12-09 17:55:11
-
浏览量:1914次2018-09-05 18:57:48
-
浏览量:1112次2023-02-03 13:41:37
-
浏览量:2599次2018-01-29 17:20:29
-
浏览量:847次2023-03-06 09:36:47
-
浏览量:560次2023-04-21 10:46:52
-
浏览量:3403次2020-02-27 10:34:09
-
浏览量:1722次2020-05-06 09:55:45
-
浏览量:873次2024-03-14 18:20:47
-
浏览量:16269次2019-04-23 10:17:25
-
广告/SPAM
-
恶意灌水
-
违规内容
-
文不对题
-
重复发帖
艾
感谢您的打赏,如若您也想被打赏,可前往 发表专栏 哦~
举报类型
- 内容涉黄/赌/毒
- 内容侵权/抄袭
- 政治相关
- 涉嫌广告
- 侮辱谩骂
- 其他
详细说明