从神经科学的角度探讨人工意识的可行性
左图:描绘大型语言模型基本架构的示意图,该模型可以以前馈方式排列数十个甚至一百多个解码器块。右图:丘脑皮质系统的启发式图,它生成了被认为是意识基础的复杂活动模式。
人工智能(AI)系统能力的提高导致人们认为这些系统可能很快就会有意识。然而,我们可能低估了人类意识背后的神经生物学机制。
现代人工智能系统能够做出许多惊人的行为。例如,当一个人使用像ChatGPT这样的系统时,响应(有时)非常像人,而且很智能。当我们人类与ChatGPT交互时,我们有意识地感知语言模型生成的文本,就像你目前有意识地在这里感知文本一样。
问题是,当我们提示文本时,语言模型是否也能感知到它。或者它只是一个僵尸,基于巧妙的模式匹配算法工作?根据它生成的文本,很容易动摇系统可能是有意识的。
Jaan Aru、Matthew Larkum和Mac Shine在《神经科学趋势》杂志上发表的一项新研究从神经科学的角度回答了这个问题。
这三位神经科学家认为,尽管像ChatGPT这样的系统的反应似乎是有意识的,但它们很可能不是。首先,语言模型的输入缺乏我们与周围世界的感官接触所体现的、嵌入的信息内容特征。其次,当今人工智能算法的架构缺少与哺乳动物意识意识相关的丘脑皮层系统的关键特征。
最后,导致有意识生物出现的进化和发展轨迹可以说与今天设想的人工系统没有相似之处。生物体的存在取决于它们的行为,它们的生存与多层次的细胞、细胞间和生物体过程密切相关,最终形成能动性和意识。
因此,尽管人们很容易假设ChatGPT和类似的系统可能是有意识的,但这会严重低估我们大脑中产生意识的神经机制的复杂性。研究人员对我们大脑中意识是如何上升的还没有达成共识。我们所知道的,以及这篇新论文所指出的,这些机制可能比当前语言模型的基础机制复杂得多。
例如,正如这项工作所指出的,真实的神经元与人工神经网络中的神经元并不相似。生物神经元是真实的物理实体,可以生长和改变形状,而大型语言模型中的神经元只是毫无意义的代码片段。在我们理解意识之前,我们还有很长的路要走,因此,离有意识的机器还有很长一段路要走。
- 分享
- 举报
-
浏览量:1376次2020-03-02 10:40:13
-
浏览量:888次2023-03-20 15:23:45
-
浏览量:2546次2019-08-02 16:24:49
-
浏览量:1384次2022-12-07 09:13:23
-
浏览量:1845次2018-03-20 18:50:17
-
浏览量:1090次2022-12-15 14:05:42
-
浏览量:474次2023-09-16 11:22:02
-
浏览量:1065次2023-01-12 14:53:11
-
浏览量:3371次2022-03-10 09:00:42
-
浏览量:2474次2019-06-21 14:24:27
-
浏览量:1787次2018-03-24 14:01:32
-
浏览量:141次2023-08-31 08:46:00
-
浏览量:7501次2021-05-19 16:25:40
-
浏览量:1545次2019-01-22 16:58:22
-
浏览量:2125次2017-12-20 00:06:48
-
浏览量:616次2024-02-28 15:53:55
-
浏览量:197次2023-08-15 22:50:27
-
浏览量:5105次2018-05-19 15:01:24
-
浏览量:1914次2020-03-17 09:12:22
-
广告/SPAM
-
恶意灌水
-
违规内容
-
文不对题
-
重复发帖
thatk
感谢您的打赏,如若您也想被打赏,可前往 发表专栏 哦~
举报类型
- 内容涉黄/赌/毒
- 内容侵权/抄袭
- 政治相关
- 涉嫌广告
- 侮辱谩骂
- 其他
详细说明