从神经科学的角度探讨人工意识的可行性

从神经科学的角度探讨人工意识的可行性 thatk 2023-10-30 16:50:01 677

易百纳社区

左图:描绘大型语言模型基本架构的示意图,该模型可以以前馈方式排列数十个甚至一百多个解码器块。右图:丘脑皮质系统的启发式图,它生成了被认为是意识基础的复杂活动模式。

人工智能(AI)系统能力的提高导致人们认为这些系统可能很快就会有意识。然而,我们可能低估了人类意识背后的神经生物学机制。

现代人工智能系统能够做出许多惊人的行为。例如,当一个人使用像ChatGPT这样的系统时,响应(有时)非常像人,而且很智能。当我们人类与ChatGPT交互时,我们有意识地感知语言模型生成的文本,就像你目前有意识地在这里感知文本一样。

问题是,当我们提示文本时,语言模型是否也能感知到它。或者它只是一个僵尸,基于巧妙的模式匹配算法工作?根据它生成的文本,很容易动摇系统可能是有意识的。

Jaan Aru、Matthew Larkum和Mac Shine在《神经科学趋势》杂志上发表的一项新研究从神经科学的角度回答了这个问题。

这三位神经科学家认为,尽管像ChatGPT这样的系统的反应似乎是有意识的,但它们很可能不是。首先,语言模型的输入缺乏我们与周围世界的感官接触所体现的、嵌入的信息内容特征。其次,当今人工智能算法的架构缺少与哺乳动物意识意识相关的丘脑皮层系统的关键特征。

最后,导致有意识生物出现的进化和发展轨迹可以说与今天设想的人工系统没有相似之处。生物体的存在取决于它们的行为,它们的生存与多层次的细胞、细胞间和生物体过程密切相关,最终形成能动性和意识。

因此,尽管人们很容易假设ChatGPT和类似的系统可能是有意识的,但这会严重低估我们大脑中产生意识的神经机制的复杂性。研究人员对我们大脑中意识是如何上升的还没有达成共识。我们所知道的,以及这篇新论文所指出的,这些机制可能比当前语言模型的基础机制复杂得多。

例如,正如这项工作所指出的,真实的神经元与人工神经网络中的神经元并不相似。生物神经元是真实的物理实体,可以生长和改变形状,而大型语言模型中的神经元只是毫无意义的代码片段。在我们理解意识之前,我们还有很长的路要走,因此,离有意识的机器还有很长一段路要走。

声明:本文内容由易百纳平台入驻作者撰写,文章观点仅代表作者本人,不代表易百纳立场。如有内容侵权或者其他问题,请联系本站进行删除。
thatk
红包 点赞 收藏 评论 打赏
评论
0个
内容存在敏感词
手气红包
    易百纳技术社区暂无数据
相关专栏
置顶时间设置
结束时间
删除原因
  • 广告/SPAM
  • 恶意灌水
  • 违规内容
  • 文不对题
  • 重复发帖
打赏作者
易百纳技术社区
thatk
您的支持将鼓励我继续创作!
打赏金额:
¥1易百纳技术社区
¥5易百纳技术社区
¥10易百纳技术社区
¥50易百纳技术社区
¥100易百纳技术社区
支付方式:
微信支付
支付宝支付
易百纳技术社区微信支付
易百纳技术社区
打赏成功!

感谢您的打赏,如若您也想被打赏,可前往 发表专栏 哦~

举报反馈

举报类型

  • 内容涉黄/赌/毒
  • 内容侵权/抄袭
  • 政治相关
  • 涉嫌广告
  • 侮辱谩骂
  • 其他

详细说明

审核成功

发布时间设置
发布时间:
是否关联周任务-专栏模块

审核失败

失败原因
备注
拼手气红包 红包规则
祝福语
恭喜发财,大吉大利!
红包金额
红包最小金额不能低于5元
红包数量
红包数量范围10~50个
余额支付
当前余额:
可前往问答、专栏板块获取收益 去获取
取 消 确 定

小包子的红包

恭喜发财,大吉大利

已领取20/40,共1.6元 红包规则

    易百纳技术社区