一种基于示教学习的五指灵巧臂-手机器人抓取方法

专利2025-07-25  40


本发明涉及智能机器人领域,特别涉及一种基于示教学习的五指灵巧臂-手机器人抓取方法。


背景技术:

1、随着信息化智能时代的崛起,机器人不仅仅在工业生产领域发挥了重要作用,还逐渐渗透到人们日常生活的各个方面。机器人通过示教学习模仿人类臂-手的操作,可以完成较为复杂的抓取任务,为人们带来更便捷的服务。

2、目前主流的臂-手机器人示教学习方法依据所使用的示教设备可大致分为:基于视觉的、基于遥操作的和基于人机物理交互的示教学习等。基于视觉和基于遥操作的示教学习将人类示者的手和手臂的动作数据作为学习对象,但由于人类示教者与臂-手机器人之间存在一定的尺寸结构、运动范围等差异,直接使用人类示教者的数据控制机器人运动,会导致机器人出现动作变形、物体抓取不稳等问题。基于遥操作的示教学习采取人类示教者拖动机器人进行运动,并通过记录机器人的运动数据来复现任务,但此种示教方式较为繁杂,生成的示教轨迹单一,泛化能力较差。

3、为解决上述臂-手机器人示教学习过程中遇到的问题,在本次项发明中,引入一种基于示教学习的五指灵巧臂-手机器人抓取方法,不仅可以提高机器人示教学习的精度,还能使机器人操作具有一定的泛化能力,实现对不同位置不同大小的物体的抓取。


技术实现思路

1、本发明提供了一种基于示教学习的五指灵巧臂-手机器人的抓取方法,旨在提高机器人的示教学习精度,同时使机器人具备一定的泛化能力,在面对未知物体时也可以实现自然稳定的抓取。

2、为实现上述目的,本发明采用如下技术方案:一种基于示教学习的五指灵巧臂-手机器人的抓取方法,具体步骤如下:

3、步骤s1:搭建一个机器人抓取任务场景,然后针对该场景将机器人的抓取任务流程进行分割,将其划分为可单独执行的机械臂和灵巧手任务;

4、步骤s2:基于步骤s1划分的子任务,先对机械臂的运行轨迹进行示教,采用人机物理交互的方式获取机械臂末端轨迹示教数据后,再基于动态运动原语方法对示教轨迹的路径形状进行学习,并结合rgb-d相机感知的抓取点位置,生成此时机械臂末端到达抓取点目标位置的运行轨迹,机器人按照生成的不同轨迹高效的接近不同位置的抓取物体;

5、步骤s3:机械臂通过步骤s2到达抓取目标位置后,先利用mediapipe hands算法获取代表当前示教者手部的动作姿态的关键点三维坐标数据,然后搭建一个动作重定向神经网络,对采集的手部示教数据进行处理,将当前的示教者手部动作映射到灵巧手机器人上,从而实现臂手机器人对物体的抓取;

6、步骤s4:依据步骤s1划分的任务流程,再将步骤s2和步骤s3进行组合,组建一个完整的臂-手机器人抓取任务流程,机器人按照流程分步执行操作,成功接近和抓取目标物体,最终成功完成整个抓取任务。

7、进一步地,步骤s1具体步骤如下:

8、步骤s1-1:在gazebo仿真环境中搭建一个包含臂-手机器人、深度相机、抓取物体的仿真场景;

9、步骤s1-2:将该任务场景中臂-手机器人的物体抓取流程按机械臂和灵巧手的动作流程进行划分;。

10、进一步地,步骤s2具体步骤如下:

11、步骤s2-1:采用人机物理交互的示教方式,在示教模式下拖动机械臂机器人以一种自然的方式接近抓取物体,记录下机械臂末端运行过程中的轨迹三维坐标数据;

12、步骤s2-2:基于如下dmp动态系统方程,对示教数据特征进行学习;

13、

14、

15、其中τ为总时间,k为弹性系数,d为阻尼系数,ωi为是待学习的权重参数,是均值为μi、宽度为hi的高斯核函数,g是期望的终点位置,y0是起点位置,α是调整系统收敛速度的系数变量,x充当内部时钟,调整新生成轨迹运动的快慢;已知机械臂末端的示教轨迹位置、速度、加速度ydemo(m)、m=1,2,3,...,m;可通过求解方程:求得系统方程非线性项f(x)的权重ωi;

16、步骤s2-3:利用深度相机识别并获取抓取物体相对于机械臂基坐标系的三维坐标;

17、步骤s2-4:结合任务环境中的机器人末端初始位置和目标抓取点的位置,通过学习得到的dmp权重参数ωi,生成机械臂新的抓取运动轨迹,机械臂末端按照生成的轨迹运行,实现对不同位置的物体的抓取。

18、进一步地,步骤s3具体步骤如下:

19、步骤s3-1:使用rgb相机采集示教者手部演示视频,再通过mediapipe hands算法识别并获取图像中手部关键点三维坐标数据;

20、步骤s3-2:搭建一个神经网络模型,网络主体部分为类似于变分自编码器的编码解码结构,首先从输入图像ih中提取姿态信息dh,然后经过编码、解码重构以及范围修正后得灵巧手机器人对应的关节参数θr;引入损失函数来优化神经网络的主体部分参数;利用fk层将关节参数θr转换为机器人姿态dr,fk层为基于d-h参数法的机器人正运动学计算公式:

21、

22、

23、其中,q(0)表示在第n个坐标系下的关节坐标,an和θn代表的是相邻两个参考坐标系之间的绕x轴和z轴的旋转角,an和dn是两个相邻参考坐标系之间沿x轴和z轴的平移量,通过d-h矩阵可以将各个子坐标系下的关节坐标转换到灵巧手机器人基于手腕的坐标系下;机器人姿态与示教者手部的姿态差异通过损失函数计算,损失函数如下:

24、l=λwelwe+λwjlwj+λcollcol

25、其中,lwe、lwj、lcol分表表示手指末端、手指关节以及手指自碰撞损失,λwe、λwj、λcol与之对应的权重参数。

26、进一步地,步骤s3具体步骤如下:

27、步骤s4-1:按照步骤1划分的任务流程,将步骤s2和步骤s3的示教学习过程进行结结合,在对应的步骤单独执行机械臂和灵巧手的在线示教学习,生成机器人的运动参数;步骤s4-2:将生成的运动参数应用于s1搭建的臂-手机器人抓取任务场景,实现gazebo仿真环境中臂-手机器人的抓取任务。

28、相对于现有技术,本发明至少具有如下优点:

29、其一,臂-手机器人的示教学习框架可使机器人学习的动作更加合理、自然。其二,对示教数据做进一步的映射处理,使机器人的示教学习不仅局限于对示教任务的复现,还具备一定的泛化能力,能够抓取不同位置的不同物体,提高了臂-手机器人的智能性,使机器人的抓取效率更高。



技术特征:

1.一种基于示教学习的五指灵巧臂-手机器人的抓取方法,其特征在于,具体步骤如下:

2.如权利要求1所述的一种基于示教学习的五指灵巧臂-手机器人的抓取方法,步骤s1具体步骤如下:

3.如权利要求1所述的一种基于示教学习的五指灵巧臂-手机器人的抓取方法,步骤s2具体步骤如下:

4.如权利要求1所述的一种基于示教学习的五指灵巧臂-手机器人的抓取方法,步骤s3具体步骤如下:

5.如权利要求1所述的一种基于示教学习的五指灵巧臂-手机器人的抓取方法,步骤s3具体步骤如下:


技术总结
本发明公开了一种基于示教学习的五指灵巧臂‑手机器人抓取方法,属于智能机器人领域。该方法包含机械臂末端轨迹的示教,灵巧手的示教、抓取任务演示三个部分。机械臂的示教先基于动态运动原语学习离线采集的示教路径特征,结合深度相机在线感知的抓取物体位置生成新的机械臂末端轨迹;灵巧手的动作示教基于一个动作重定向神经网络,提取示教者手部动作姿态信息,生成适用于灵巧手抓取任务的关节参数抓取不同物体;仿真演示将臂和手两部分单独示教的方法按照臂‑手机器人的抓取任务流程进行组合,生成运动参数并传入仿真场景中,臂‑手机器人按照生成的参数分步执行操作,成功接近和抓取目标物体,最终实现基于示教学习的臂‑手机器人的抓取任务。

技术研发人员:黄秀财,郑焜,宋永端,刘盼
受保护的技术使用者:重庆大学
技术研发日:
技术公布日:2024/6/26
转载请注明原文地址:https://doc.8miu.com/read-1823001.html

最新回复(0)