English 日本語 Русский

基于动作捕捉系统的多智能体协同控制

多智能体集群与编队、多智能体动作跟随、多智能体自主避障、天地一体化网络协同控制

解决方案

多智能体协同控制实验平台

北京理工大学在NOKOV(度量)光学动作捕捉系统的基础上搭建了一套以无人机、地面移动机器人/无人车为控制对象的异构多智能体协同/地空协同/无人机集群控制实验平台,该平台可实现对多种异构智能体控制算法进行验证,并模拟出空地协同巡逻、无人车围捕和探测围捕等多种军事场景。

北京理工大学多智能体协同控制实验平台功能

无人机姿态控制

根据用户需求,自定义需要捕捉的部位,利用NOKOV精确捕捉运动物体的位置及姿态等三维数据。

无人机/无人车动态角色分配

根据NOKOV实时反馈的位置信息,使出现在随机位置的多智能体,以最短路径形成理想编队队形,为其他多智能体协同控制实验提供了基础。

空地协同编队、自主避障与跟随

由于设备的可拓展性,用户可随意增减目标数量,通过在软件内对目标进行命名等操作,来完成对大批量运动体的同时捕捉。


NOKOV(度量)光学三维动作捕捉系统功能

六自由度动作捕捉数据

采集三维空间XYZ坐标、六自由度(6Dof)、偏航角(Yaw)、横摇角(Roll)、俯仰角(Pitch)、欧拉角等数据,为无人机的位姿控制、运动规划提供连贯、流畅的动作数据基础。

亚毫米的定位精度

与采用GPS、航迹推算、全局摄像头、UWB等定位方法的实验平台相比,该平台的精度大大提高,可达亚毫米级。

丰富的二次开发接口

采集到的数据可以以VRPN形式传输,或通过SDK(C++语言)端口广播与ROS、Labview、Matlab(包含Simulink)等软件通信进行二次开发。

软件具有一键建立刚体功能,大幅提高工作效率


案例详解:多智能体协同控制实验平台研发

更多资讯:多智能体协同控制研究中光学动作捕捉与UWB定位技术比较


经典案例

多场协同无人机自主建造的实现

同济大学建筑系

无人机的6DoF的数据,通过实时的方式由控制系统中飞控程序所获取,用自带的传感器数据进行LPE(Local Position Estimate)计算,用于实时更新无人机相对于全局坐标系的位置估计。之后再通过轨迹规划,协调多台无人机执行砌筑、 搬运等任务时在多个航点间的移动方式,确保在操作过程中飞行器的安全以及砌筑顺序的正确。

相关论文:同济大学建筑与城市规划学院-基于无人机的离散结构自主建造技术初探.郭喆,陆明,王祥. 建筑技艺,2019.09



了解更多

多场协同无人机自主建造的实现

推荐方案

MARS系列动作捕捉相机

MARS系列动作捕捉相机 MARS系列动作捕捉相机

    满足客户全方位需求。分辨率从220万至2600万像素,频率从180Hz至340Hz全面覆盖。
    高精度,低延时,专为科学研究领域设计,是目前极具性价比的光学动作捕捉解决方案。
    适用型号:Mars 2H,Mars 4H,Mars 26H
联系我们
如需更多应用、案例信息或产品报价,请致电 010-64922321,或在下方留言:
机器人/无人机 VR/AR/XR 运动康复 传媒娱乐
北京度量科技有限公司(总部)
Location 北京市朝阳区安慧里四区15号五矿大厦8层820室
Email info@nokov.com
Phone 010-64922321
提交成功!请您耐心等待!
欢迎关注公众号,获取更多信息
关闭