在拥挤环境中改善机器人导航的新方法

在拥挤环境中改善机器人导航的新方法 2023-03-02 10:05:59 1210

易百纳社区

使用标准探索策略训练的机器人的碰撞轨迹(左)和在相同场景中使用内在奖励训练的机器人的成功轨迹

虽然机器人在过去几年中变得越来越先进,但它们中的大多数仍然无法可靠地导航非常拥挤的空间,例如城市环境中的公共区域或道路。然而,为了在未来的智能城市中大规模实施,机器人将需要能够可靠、安全地在这些环境中导航,而不会与人类或附近的物体发生碰撞。

萨拉戈萨大学和西班牙阿拉贡工程研究所的研究人员最近提出了一种新的基于机器学习的方法,可以改善室内和室外拥挤环境中的机器人导航。这种方法在arXiv服务器上预先发表的一篇论文中介绍,需要使用内在奖励,本质上是AI代理在执行与其尝试完成的任务不严格相关的行为时获得的“奖励”。

“自主机器人导航是一个悬而未决的问题,特别是在非结构化和动态环境中,机器人必须避免与动态障碍物发生碰撞并达到目标,”进行这项研究的研究人员之一Diego Martinez Baselga表示。“事实证明,深度强化学习算法在成功率和达到目标的时间方面具有很高的性能,但仍有很多需要改进的地方。

Martinez Baselga及其同事引入的方法使用内在奖励,旨在增加智能体探索新“状态”(即与其环境的交互)的动机或降低给定场景中的不确定性水平,以便智能体能够更好地预测其行为的后果。在他们的研究背景下,研究人员专门利用这些奖励来鼓励机器人访问其环境中的未知区域,并以不同的方式探索其环境,以便它能够随着时间的推移学会更有效地导航。

易百纳社区

与具有ICM(内在奖励)的相同算法相比,最先进算法的训练指标

“大多数用于人群导航的深度强化学习工作都集中在改进网络和机器人感知的处理上,”Martinez Baselga说。“我的方法研究如何在培训期间探索环境,以改善学习过程。在训练中,机器人不是尝试随机动作或最 佳动作,而是尝试做它认为可以从中学到更多的东西。

Martinez Baselga和他的同事评估了使用内在奖励使用两种不同方法解决拥挤空间中的机器人导航的潜力。其中第一个集成了所谓的“内在好奇心模块”(ICM),而第二个则基于一系列称为高效探索随机编码器(RE3)的算法。

研究人员在一系列模拟中评估了这些模型,这些模拟在CrowdNav模拟器上运行。他们发现,他们提出的两种整合内在奖励的方法都优于以前开发的最先进的拥挤空间机器人导航方法。

未来,这项研究可以鼓励其他机器人专家在训练机器人时使用内在奖励,以提高他们应对不可预见的情况并在高度动态的环境中安全移动的能力。此外,Martinez Baselga及其同事测试的两个基于内在奖励的模型很快就会在真实机器人中集成和测试,以进一步验证它们的潜力。

“结果表明,应用这些智能探索策略,机器人学习得更快,最终学习的策略更好;并且它们可以应用于现有算法之上以改进它们,“Martinez Baselga补充道。“在我的下一个研究中,我计划改进机器人导航中的深度强化学习,使其更安全、更可靠,这对于在现实世界中使用它非常重要。

声明:本文内容由易百纳平台入驻作者撰写,文章观点仅代表作者本人,不代表易百纳立场。如有内容侵权或者其他问题,请联系本站进行删除。
红包 点赞 收藏 评论 打赏
评论
0个
内容存在敏感词
手气红包
    易百纳技术社区暂无数据
相关专栏
置顶时间设置
结束时间
删除原因
  • 广告/SPAM
  • 恶意灌水
  • 违规内容
  • 文不对题
  • 重复发帖
打赏作者
易百纳技术社区
您的支持将鼓励我继续创作!
打赏金额:
¥1易百纳技术社区
¥5易百纳技术社区
¥10易百纳技术社区
¥50易百纳技术社区
¥100易百纳技术社区
支付方式:
微信支付
支付宝支付
易百纳技术社区微信支付
易百纳技术社区
打赏成功!

感谢您的打赏,如若您也想被打赏,可前往 发表专栏 哦~

举报反馈

举报类型

  • 内容涉黄/赌/毒
  • 内容侵权/抄袭
  • 政治相关
  • 涉嫌广告
  • 侮辱谩骂
  • 其他

详细说明

审核成功

发布时间设置
发布时间:
是否关联周任务-专栏模块

审核失败

失败原因
备注
拼手气红包 红包规则
祝福语
恭喜发财,大吉大利!
红包金额
红包最小金额不能低于5元
红包数量
红包数量范围10~50个
余额支付
当前余额:
可前往问答、专栏板块获取收益 去获取
取 消 确 定

小包子的红包

恭喜发财,大吉大利

已领取20/40,共1.6元 红包规则

    易百纳技术社区