北京理工大学:无人车群的协同控制的实现

发布时间:2018-10-15 00:00

       多智能体协同控制是大规模机器人系统实现实际任务与操作的理论基础。多智能体系统的群集、编队、轨迹跟踪、避障、一致性、拓扑结构的连通性等方面的研究更是无人机机器人领域的重要课题。其中,所有协同任务的实现,都是建立在安全有效实时的多智能体之间的协调运动基础之上。北京理工大学自动化学院一直走在多智能体协同控制研究的前列。

       自动化学院无人车协同控制实验项目中对无人车的定位子系统精度要求较高。定位子系统的主要任务是实现对每个无人车实时位置的计算。对方先后使用了两种定位方法:航迹推算定位方法和基于摄像头的全局定位技术(动作捕捉技术)。在总结了这两种方法的优劣以及适用程度的基础上,最终引入了Nokov(度量)光学三维动作捕捉系统作为定位系统并最终采用了该系统进行定位。

       该实验是通过Nokov(度量)光学三维动作捕捉系统通过捕捉光学反光点(marker)所获取的实时位置信息利用WiFi通信模块发送至每个无人车中去,单个无人车通过WiFi获取到本体的信息以及邻居的位置信息,然后通过所设置好的控制算法,完成无人车的协同控制。

      在实验平台中,架设了8个Nokov高清动作捕捉镜头,通过操作Seeker2.0软件并使用高清动作捕捉镜头来完成系统的标定和数据采集及传输。

       Nokov(度量)光学三维动作捕捉系统通过坐标原点的确定(L型标杆标定)、扫场(T型标杆标定)、误差计算对整个系统进行标定。标定完成后,Nokov光学动作捕捉系统就可以用来采集数据,提供无人车精确的位置数据。

       本实验所使用的无人车上的光学反光球设置,每个车上安装有四个反光球,其中有三个球相对位置保持不变,一个球绕着圆周一圈分别放置,来区别不同无人车的ID。

        通过高清动作捕捉镜头识别贴在无人车上的光学反光球(marker)来获取无人车的高精度的三维位置定位信息,并通过Seeker软件解析后,将获得的数据经由SDK传输协议传给主机。在无人车实时协同控制场景下,Nokov光学三维动作捕捉系统不间断的将位置信息传回主机,再由主机发送给无人车,以达到无人车协同控制及编队。Nokov光学三维动作捕捉系统可以分别显示每个摄像头下的二维图像以及整个系统的三维立体图,在使用过程中可以通过观察二维图像或是三维立体图来更好的观测无人车的实时移动位置以及移动形态。

        通过Nokov光学动作捕捉系统提供的高精度位置数据,无人车协同控制无论是在静态情况下还是动态行进状态下,都能很好地完场自主编队、跟随等协同任务。在静态情况下,偏移无人车会在位置数据更新后自动归队,完成自动列队任务。在运动情景下,当其中一辆无人车偏离预定的轨迹,不在编队内,Nokov光学动作捕捉系统会传回位置信息,然后在位置信息更新后,偏离路径的无人车会自动回归编队。

        Nokov光学动作捕捉系统不仅为北京理工大学无人车协同控制提供了高精度的定位数据,也为实验解决使用航迹推算误差累计的问题,也避免了全局摄像头受光照环境因素而受限制的问题。提高了无人车协同控制精度,高质量的保证了实验的顺利进行。

       在以后的合作项目中,我们Nokov(度量)光学三维动作捕捉系统将在无人机、无人车的控制领域继续提供有效的技术保障和良好的技术服务。