一个算法让机器人依靠触觉实现多个控制任务

2019年03月29日 作者:satoll

加州大学伯克利分校的新研究提出基于触觉的控制算法-触觉MPC,结合定制的触觉传感器,让机器人能够依靠触觉实现多个控制任务。

打字时用手指盲打,将钥匙插入钥匙孔,这些都依赖我们的触觉。已有研究表明,触觉对于人类的灵巧操作非常重要。

同样,对于许多机器人操作任务来说,只有视觉可能是不够的 —— 视觉很难处理微妙的细节问题,如边缘的精确位置,剪切力度或接触点处的表面纹理,而且机器人的手臂和手指可能阻挡相机与其目标物之间的视线。然而,用这种至关重要的感官能力来增强机器人,仍然是一项有挑战性的任务。

我们的目标是提供一个学习如何执行触觉伺服的框架,这意味着要基于触觉信息精确地重新定位一个物体。

为了给我们的机器人提供触觉反馈,我们使用了一个定制的触觉传感器,其原理与 MIT 开发的 GelSight 传感器类似。传感器由一种可变形的弹性体凝胶组成,有三个彩色 LED 背光,并在凝胶表面提供高分辨率 RGB 接触图像。与其他传感器相比,这种触觉传感器以丰富的视觉信息的形式自然地提供几何信息,从而可以推断出力等属性。使用类似传感器的先前工作已经利用这种触觉传感器来完成诸如学习如何抓取的任务,提高了抓取各种物品的成功率。

下面是一个笔帽在凝胶表面滚动时,传感器的实时输出:

硬件设置和任务定义

在实验中,我们使用了一个改进的 3 轴数控路由器,在路由器的末端执行器上安装了一个面朝下的触觉传感器。机器人通过改变传感器相对于其工作阶段的 X、Y 和 Z 位置来移动,每个轴由一个单独的步进电机驱动。由于这些电机可以精确控制,我们的设置可以达到约 0.04 毫米的分辨率,有助于在精细的操作任务中细致地移动。

机器人的设置。触觉传感器安装在图像左上角的末端执行器上,面朝下方。

 

我们通过 3 个代表性的操作任务演示了这一方法:

  • 小球重新定位任务:机器人将一个小金属球轴承移动到传感器表面的目标位置。这个任务是很困难的,因为粗糙的控制往往会对球轴承施加过大的力,导致其滑动从而远离了传感器。
  • 模拟摇杆偏转任务:在玩电子游戏时,我们经常只依靠触觉来操纵游戏控制器上的模拟摇杆。这个任务特别令人感兴趣,因为偏转模拟摇杆通常需要有意断开和返回接触,从而创建一个部分可观测性情况。
  • 模具滚动任务:在这个任务中,机器人将一个 20 面模具从一个面滚到另一个面。在这项任务中,物体从传感器下滑出的风险更大,因此这项任务是三项任务中最难的。另外这个任务的一个优点是,它提供了一个直观的成功指标 —— 当机器人完成操作时,正确的数字应该正面朝上显示。

 

从左到右:小球重新定位,模拟摇杆和模具滚动的任务。

 

每一个控制任务都是直接在触觉空间中根据目标图像指定的;也就是说,机器人的目标是操纵物体,使它们在凝胶表面产生特定的印记。这些目标触觉图像可以比诸如物体的 3D 姿势规范或期望的力的方向提供更多信息,也能更自然地指定。

 

深度触觉模型 —— 预测控制

如何利用我们的高维感官信息来完成这些控制任务?这三个操作任务都可以使用相同的基于模型的强化学习算法来解决,我们称之为触觉模型预测控制 (tactile model-predictive control,tactile MPC),建立在视觉预见 (visual foresight) 之上。

需要注意的是,我们可以为每个任务使用相同的超参数集,从而消除了手动超参数调优。

深度触觉模型预测控制的概览

 

触觉 MPC 算法的工作原理是在自主采集的数据上训练一个动作条件的视觉动态或视频预测模型。该模型从原始的感官数据 (如图像像素) 中学习,并且能够直接对未来图像进行预测,并将其作为输入,作为机器人未来采取的假设动作以及我们称为上下文帧的起始触觉图像。没有指定其他信息,例如末端执行器的绝对位置。

视频预测模型的架构

1 2

相关文章

tracer