根据英国《自然》杂志30日发表的一项工程学论文,美国麻省理工学院团队报告研发出一种装配了传感器的“人工智能手套”,可以学习识别单个物体、估算重量和应用触觉反馈。这一成果有助于未来设计假体、机械工具和人机交互系统。 人类能够以适当的力度抓握和感受物体,但是这种感觉反馈却很难在机器人身上实现。近年来,基于计算机视觉的抓握策略,在新兴机器学习工具的帮助下,取得了长足进步,但是目前依然缺少依赖于触觉信息的平台。 此次,麻省理工学院科学家萨博拉马伊安·桑德拉姆及其同事,设计了一种实用且简易廉价的可伸缩触觉手套,其仅需10美元,手套上面布置了548个传感器和64个导电线电极。 这种触觉手套相当于由一张力敏薄膜和导电线网络组成的传感器阵列。电极与薄膜之间的每一个重合点都对垂直力敏感,并会记录通过薄膜的电阻。研究人员带上手套单手操控物体,由此记录了一个大规模的触觉图谱数据集。数据集包含手指区域的空间关联和对应,它们代表了人类抓握的触觉特征。 研究团队使用手套,单手与26个物体进行互动,时间超过5个小时,并录下了触觉视频。之后,他们利用记录下来的数据训练一种深度学习网络来识别这些图片,发现该深度学习网络能够通过持握方式鉴定出不同的物体。 这一技术的未来应用将非常广泛,譬如可用于机器人手术。这一领域此前最大的局限之一就是机器人缺乏人类外科医生操作的“手感”,增加了手术的不确定性和风险性,但通过力触觉反馈机制,可以让手术机器人将触觉实时传递给主刀医生以及处理器,进一步将人工智能医疗精准化。 总编辑圈点 当你轻轻拿起一颗鸡蛋,既不会用力过度捏爆它,也不会力道过轻把它摔地上,这种人类与生俱来的本领,对机器人来说却是个大挑战。触觉并非简单的系统,我们随随便便一个抓取动作,可以组合运用到各种感知能力,但对机器人来说,再多的算法叠加,它仍然如同盲人摸象。现在,深度学习赋予了机器人更好的触觉表现,开始让低等的数据转换为高等的信息,或许不久的未来,机器人将能真正拥有皮肤一般的感知功能。 |
Powered by Discuz! X3.4
© 2001-2013 Comsenz Inc.