资讯文章
在网络的帮助下,机器人现在可以更好地理解我们
科技巨头谷歌及其子公司人工智能研究实验室DeepMind创造了一种基本的人机翻译器。他们将其描述为“首创的视觉-语言-行动模型”。这两家公司周五分别在两份声明中表示,这个名为RT-2的模型接受了语言和视觉输入的训练,旨在将网络上的知识转化为机器人可以理解和响应的指令。
在一系列的试验中,这个机器人证明了它可以识别和区分不同国家的国旗、足球和篮球、像泰勒·斯威夫特这样的流行偶像,以及像一罐红牛这样的物品。
谷歌DeepMind机器人主管Vincent Vanhoucke在一篇博客文章中表示:“寻找有用的机器人一直是一项艰巨的努力,因为一个能够在世界上完成一般任务的机器人需要能够在高度可变的环境中处理复杂、抽象的任务,尤其是以前从未见过的任务。与聊天机器人不同,机器人需要在现实世界中‘扎根’。”
这意味着训练机器人传统上需要从头开始生成数十亿个数据点,以及特定的指令和命令。像告诉机器人扔掉垃圾这样的任务需要程序员明确训练机器人识别垃圾物体、垃圾桶,以及采取什么行动来捡起并扔掉垃圾。
在过去的几年里,谷歌一直在探索各种方法,教机器人像教人一样完成任务。去年,谷歌展示了一种机器人,它可以根据人类的自然语言指令编写自己的代码。谷歌的另一个子公司Everyday Robots试图使用一个名为SayCan的模型将用户输入与预测反应配对。
声明:本文内容由易百纳平台入驻作者撰写,文章观点仅代表作者本人,不代表易百纳立场。如有内容侵权或者其他问题,请联系本站进行删除。
红包
点赞
收藏
评论
打赏
- 分享
- 举报
评论
0个
手气红包
暂无数据
相关专栏
-
浏览量:1083次2023-02-21 10:31:50
-
浏览量:629次2023-07-19 15:33:34
-
浏览量:720次2023-07-27 11:16:16
-
浏览量:1276次2023-03-13 13:49:39
-
浏览量:1932次2018-12-17 11:04:37
-
浏览量:638次2023-09-21 11:25:23
-
浏览量:903次2023-02-03 09:34:05
-
浏览量:2989次2020-02-25 18:18:11
-
浏览量:544次2023-08-31 09:47:55
-
浏览量:985次2023-02-16 19:01:03
-
浏览量:530次2023-07-19 16:06:32
-
浏览量:1348次2023-02-07 15:17:57
-
浏览量:3431次2018-01-16 12:27:50
-
浏览量:1008次2023-03-13 14:06:09
-
浏览量:1321次2023-03-23 10:43:10
-
浏览量:1951次2020-02-29 09:35:15
-
浏览量:603次2023-11-07 15:27:03
-
浏览量:1785次2020-04-24 10:38:46
-
浏览量:473次2023-10-07 10:21:44
置顶时间设置
结束时间
删除原因
-
广告/SPAM
-
恶意灌水
-
违规内容
-
文不对题
-
重复发帖
打赏作者
hei-boy
您的支持将鼓励我继续创作!
打赏金额:
¥1
¥5
¥10
¥50
¥100
支付方式:
微信支付
打赏成功!
感谢您的打赏,如若您也想被打赏,可前往 发表专栏 哦~
举报反馈
举报类型
- 内容涉黄/赌/毒
- 内容侵权/抄袭
- 政治相关
- 涉嫌广告
- 侮辱谩骂
- 其他
详细说明
审核成功
发布时间设置
发布时间:
请选择发布时间设置
是否关联周任务-专栏模块
审核失败
失败原因
请选择失败原因
备注
请输入备注