Meta 公布机器人触觉感知能力研究成果:利用手指传感器结合“AI 大脑”理解 / 操作外界物体
最新 11 月 4 日消息,Meta 发布新闻稿,介绍了旗下 FAIR(基础人工智能研究)团队对于机器人触觉感知能力的研究情况,这项研究旨在让机器人通过触觉方式进一步理解和操作外界物体。
Meta 表示,打造相应 AI 机器人的核心在于让机器人的传感器感知理解物理世界,同时利用“AI 大脑”精确控制机器人对物理世界进行反应,而团队目前开发的机器人触觉感知能力主要就是为了让机器人检测其交互的物体的材质与触感,以便于让 AI 判断机器人应当如何操作这些设备(例如拿起鸡蛋等场景)。
最新参考 Meta 公布的文献获悉,Meta 目前一共公布了 Meta Sparsh、Digit 360 和 Meta Digit Plexus 等多项研究成果,其中 Meta Sparsh 是一种基于 AI 的触觉编码器,主要利用 AI 的自我监督学习能力实现跨场景的触觉感知,让机器人的 AI 大脑在学习对于某种物体的“触感”后,即可在各种场景灵活“感知”相关物品的特性。
而 Digit 360 则是一种高精度传感器,该传感器主要部署在机器人手指上,号称具备多模态感知能力,能够捕捉细微的触觉变化。Meta 声称,该传感器可以模拟人类的触觉,支持振动、温度等多重感知能力。
Meta Digit Plexus 则是一个开放性的平台,号称能够整合多种传感器,使机器人能够更全面地通过传感器感知周围环境,并通过统一标准实时对接 AI 大脑进行反应。
此外, Meta 还开发了 PARTNR 基准,这是一项用于评估人机协作能力的测试框架,旨在测试机器人 AI 系统在实际生活场景中的计划和推理能力,该测试框架内置 10 万个自然语言任务,能够模拟居家环境中的各种情境,帮助开发者测试机器人对于自然语言的理解能力及执行能力。
Meta 现已对外公开这些技术和数据供研究者使用,包括论文、开源代码和模型等,鼓励更多研究社区参与触觉技术的创新研究,最新附相关项目地址如下(点此访问)。
相关文章
- 2024 胡润中国人工智能企业 50 强公布:寒武纪 2380 亿
- 阿里通义万相 2.1 模型宣布升级:首次实现中文文字视频
- 开源媒体播放器 VLC 下载破 60 亿次,预览本地 AI 字幕
- 英伟达迷你超算遭友商嘲讽:宣传 FP4 算力,实际“不如买
- 银河通用发布全球首个端到端具身抓取基础大模型 Grasp
- 雷蛇推出“AI 游戏伴侣”Project AVA:支持实时指导 +
- 京东方 CES 2025 发布行业首款 65 英寸 4K 超高清“AI
- 微软开源 140 亿参数小语言 AI 模型 Phi-4,性能比肩 GP
- 微软承认必应 AI 图像生成器 PR16“开倒车”,现回滚至
- 西藏地震期间“小孩被埋”等 AI 图大量传播,严重可追责