一种基于单RGB图像的手部抓取对象握力预测方法
基本信息

| 申请号 | CN202010810526.1 | 申请日 | - |
| 公开(公告)号 | CN111897436A | 公开(公告)日 | 2020-11-06 |
| 申请公布号 | CN111897436A | 申请公布日 | 2020-11-06 |
| 分类号 | G06F3/01;G06K9/00;G06K9/62 | 分类 | 计算;推算;计数; |
| 发明人 | 李梦成;戴翘楚;于涛 | 申请(专利权)人 | 北京未澜科技有限公司 |
| 代理机构 | - | 代理人 | - |
| 地址 | 100086 北京市海淀区成府路45号中关村智造大街A座四层419 | ||
| 法律状态 | - | ||
摘要

| 摘要 | 本发明提供了一种基于单RGB图像的手部抓取对象握力预测方法,包括以下步骤:S1:利用握力视觉联合采集系统进行人手姿态与握力的联合测量,获取握力数据和视觉数据;S2:利用压力分析算法,对握力数据进行握力解耦,提取人手由于与物体接触所引起的压力;S3:利用深度学习算法,分析压力和视觉数据,提取特征,构建握力预测模型;S4:利用构建的握力预测模型,输入单张人手与物体交互的RGB图片,输出人手握力的预测。本发明通过实现视觉和触觉的联合数据采集和分析,最终实现了基于单色或彩色人手的姿态图片作为输入而能输出人手抓取物体的握力预测。本发明可以应用于VR人机交互算法、仿生机器人手臂的设计等方向。 |





