English 日本語 Русский

无人车位姿数据获取

无人车位姿数据获取

客      户
北京工业大学
关  键 词
动捕技术、协作控制、无人车

追踪定位应用|北京工业大学利用光学动作捕捉系统,追踪记录和分析两辆无人车的位姿数据,实现无人系统的集群协同控制与规划

   



IEEE TRO 双无人机协同远距离稠密建图

上交董伟老师、MBZUAI左星星老师IEEE TRO上发表飞行协同立体视觉系统,通过两架无人机的宽基线协同配置,实现了最远70米的稠密三维建图,相对误差为2.3%至9.7%。度量动捕提供无人机高精度位姿数据,助力验证本文提出的相对位姿估计算法精度。

惯性式上肢动作捕捉系统开发

西安交通大学机械工程学院陕西省智能机器人重点实验室施虎老师团队利用惯性传感器开发了一套低成本、高灵活性的上肢动作捕捉系统,为机械臂遥操作任务提供了更自然、更高效的人机交互方案。NOKOV度量光学动作捕捉系统提供了人体上肢运动的高精度位置和姿态数据,助力惯性动捕系统性能评估。

IEEE RAL 足式机器人鲁棒状态估计 精度较基线提升40%以上

山东大学研究团队发表面向绳驱动连续体机器人的融合非线性扩展状态观测器的自适应滑模跟踪控制方法,度量动捕为实验提供机器人末端执行器位姿数据,助力验证控制方法有效性。

室外环境无人车动作捕捉

清华大学李翔老师团队在室外环境下对无人车进行动作捕捉。NOKOV度量抗日光版本动捕镜头过滤日光干扰,准确识别无人车表面的反光标记点,获取高精度运动轨迹。
联系我们
如需更多应用、案例信息或产品报价,请致电 010-64922321,或在下方留言:
机器人/无人机 VR/AR/XR 运动康复 传媒娱乐
北京度量科技有限公司(总部)
Location 北京市朝阳区安慧里四区15号五矿大厦8层820室
Email info@nokov.com
Phone 010-64922321
提交成功!请您耐心等待!
欢迎关注公众号,获取更多信息
关闭