English 日本語 Русский

Scientific Reports:人类拥抱行为分类法及其在人形机器人中的应用研究

Scientific Reports:人类拥抱行为分类法及其在人形机器人中的应用研究

客 户
同济大学
动捕区域
6.5m ×6.5m ×2.5m
应用领域
人机交互、人形机器人、人机拥抱、HUG分类法、人类演示、机器人控制策略
设    备
NOKOV动作捕捉系统等

本文对人机拥抱互动进行了探索性研究,基于对NOKOV动作捕捉系统中人类拥抱行为演示的分析,提出了一个包含16种不同拥抱类型的HUG分类法。该分类法通过简化拥抱行为,为人形机器人控制策略提供有用信息,促进人形机器人拥抱行为的拟人化,以优化人机拥抱的体验。

 

引用:

Yan, Zheng, et al. "A HUG taxonomy of humans with potential in human–robot hugs." Scientific Reports 14.1 (2024): 14212.

 

研究背景

拥抱是一种重要的社会行为,它能促进人的心理健康并加固社会纽带。然而,随着现代生活方式的普及和人口老龄化趋势的加剧,人们进行有意义拥抱的机会正在减少,孤独感和压力随之增加。越来越多被应用于社交场景的人形机器人出现,为这一问题的解决提供了潜在方案。然而,现有的机器人系统难以还原人类拥抱的灵活性和复杂性。

本研究旨在通过提出HUG分类法这一系统化的人类拥抱分类体系来解决上述挑战。该分类法基于NOKOV动作捕捉数据与机器人、行为科学和心理学相关先验知识,用于支持机器人学习人类行为中的拥抱模式。

图片1.png

HUG分类法提出的概述。HUG分类法(右)是基于人类演示(左)和先验知识(中)提出的。

 

研究贡献

  1. HUG分类法:本研究首次提出了一种定义明确的拥抱分类法,基于拥抱紧密度(身体拥抱、空气拥抱)、拥抱风格(交叉拥抱、颈腰拥抱)和双边协调性(水平平行拥抱、竖直平行拥抱、垂直拥抱)三个维度。该分类法考虑了人类拥抱行为研究的相关物理方面,所提供具体的分类框架,填补了该研究领域没有具体分类的空白。

  2. 人类拥抱行为演示数据集:研究利用NOKOV动作捕捉系统实时记录,共收集379个来自社交场合、情感表达等不同场景的拥抱演示样本。该数据集验证了分类法的完整性,能够区分人类演示中出现的所有拥抱。

    图片2.png

人体演示的动作捕捉实验。(a)动作捕捉系统。(b)参与者信息。

  1. 基于分类法的机器人拥抱模式识别:研究将机器人手臂的3D姿态和配置以及机器人胸部上的E皮肤信号作为输入,应用了一种基于规则的分类系统,来识别和执行特定的拥抱类型,实现对HUG分类法的数据验证。

    图片3.png

基于规则的分类系统。(a)该图显示了与E-皮肤信号(显示为六边形)的映射示例,以及检测到的B-C-H拥抱类别。(b)用于区分拥抱类型的决策树。

 

  1. 推动亲密人机拥抱交互研究进展:HUG分类法将人类拥抱迁移到人类机器人拥抱,通过解释拥抱机器人的行为增强人类对拥抱机器人的信任感,并为人机拥抱的适应性和情境感知控制策略的设计提供了有用信息。

 

 

实验

研究的“人类演示”部分使用NOKOV动作捕捉系统分析人类的拥抱行为。数据收集在一个配备了20个红外摄像头的房间中进行,参与者穿着动作捕捉服,在社交场合、情绪表达和运动功能等不同情境下完成各种拥抱动作。该实验设置可提供高精度的动作数据,共计捕捉拥抱样本379个。

每对参与者轮流扮演发起者和接受者,以确保演示的多样性。拥抱行为不限动机,包括有计划的拥抱和惊喜拥抱,以反映真实的拥抱行为。收集得到的数据揭示了拥抱的物理属性,用于构建分类法中的拥抱类型。人类演示收集的数据样本为人类拥抱模式在机器人系统的应用提供了基础。

图片4.pngHUG分类法将所有拥抱类型排列在矩阵中。棕色木偶(而不是蓝色木偶)的姿势是被关注的拥抱类型。为了清楚地显示拥抱类型的细节,蓝色的木偶是透明的且没有手臂。这些照片来自不同3D模型的同一视图,这是基于Blender处理的运动捕捉数据建模的结果。

 

结论

本研究介绍了HUG分类法,该分类法根据拥抱紧密度、拥抱风格和双边协调性等维度将人类拥抱分为16种类型。HUG分类法基于NOKOV动作捕捉系统收集的演示数据构建,可以简化拥抱意图识别和人机拥抱中的复杂操作。基于HUG分类法设计的基于规则的分类系统,验证了HUG分类法在具有触觉E皮肤的人形机器人上的潜力。实验结果表明,HUG分类法可以区分机器人和人类的不同拥抱类型,可能用于帮助机器人预测拥抱类型、执行灵活的类人拥抱行为模式,并使其更值得信赖。将HUG分类法应用于自适应拥抱机器人是未来研究的中心,拥抱机器人的安全性、舒适性、外观和柔软性也是需要考虑的因素。

 

作者信息:

闫铮1,2,3、王志鹏2,3,4、任若晨1,2,3、王成金1,2,3、蒋烁2,3,4、周艳敏2,3,4、何斌2,3,4

1上海自主智能系统研究中心,同济大学,上海,201210,中国。

2自主智能系统国家重点实验室,上海,201210,中国。

3自主智能系统前沿科学中心,上海,201210,中国。

4同济大学电子与信息工程学院,上海201804,中国。


IROS 2025 多智能体深度强化学习算法实现Crazyflie无人机在复杂环境中协同追逐

国防科大周晗老师团队在IROS 2025上发表多智能体追逃的知识增强DRL方法,度量动捕提供多架Crazyflie无人机的位置和速度数据,助力验证本文算法。

多飞行器集联平台的控制与状态估计框架研究

北京理工大学俞玉树老师团队在IEEE RAL,IEEE TRO和IEEE TASE上分别发表关于多飞行器集联平台(Integrated Aerial Platforms, IAPs)的论文,提出IAP的控制和状态估计框架,为飞行操作机器人执行多功能空中操作任务奠定坚实基础。NOKOV度量动作捕捉系统为IAP提供高精度位姿真值数据,助力评估本文方法。

平衡步兵户外日光下轨迹获取

清华大学类脑计算中心使用度量动捕抗日光镜头过滤强光干扰,准确识别平衡步兵(轮足机器人)表面的反光标记点,实时获取高精度运动轨迹。

矿山开采用液压平台的控制分析数据采集演示

追踪定位应用 | 山东科技大学机械电子工程学院,利用光学动作捕捉系统 的亚毫米级精度定位 ,实时捕捉多个液压平台 联动时的位姿数据,以及相互间的位置关系,用于液压平台的控制分析研究。
联系我们
如需更多应用、案例信息或产品报价,请致电 010-64922321,或在下方留言:
机器人/无人机 VR/AR/XR 运动康复 传媒娱乐
北京度量科技有限公司(总部)
Location 北京市朝阳区安慧里四区15号五矿大厦8层820室
Email info@nokov.com
Phone 010-64922321
提交成功!请您耐心等待!
欢迎关注公众号,获取更多信息
关闭