上汽AI LAB视觉团队自动驾驶检测跟踪算法让自动驾驶车辆更“聪明”

网友投稿 394 2024-02-15


9月7日,上汽AI LAB视觉团队自动驾驶检测跟踪算法在国际榜单nuScenes上斩获全球第一,将跟踪算法关键指标AMOTA(Average Multiple Object Tracking Accuracy)在现有最高记录上提升3个百分点。此前,团队已凭借纯视觉BEV目标检测算法的全新突破在nuScenes上夺得全球第三的成绩,实现感知数据从后融合至前融合模型的跨越式提升,并验证了优异的算法表现。

上汽AI LAB视觉团队自动驾驶检测跟踪算法让自动驾驶车辆更“聪明”

上汽AI LAB检测跟踪算法在国际榜单nuScenes上位列全球第一(Camera only without map data or external data)

目标跟踪(Multiple Object Tracking)是自动驾驶领域感知技术中的重要一环。首先需要通过传感器检测自车周围目标,并为其赋予唯一ID,在追踪过程中,算法必须实现运动中目标物ID不能发生跳变,由此得到目标物当前与历史运动状态,预估之后的可能位置。目标跟踪为下游的融合与规划控制提供了重要的运动状态数据,自动驾驶过程中的决策,例如避让、变道,便需要基于以上数据。

算法作为智驾核心所在,技术能力与技术表现成为自动驾驶企业关注的热点,在nuScenes榜单上,目标检测(Detection)、目标跟踪(Tracking)等热门赛道竞争激烈,不断发生突破创新。众多企业与高校学术团队投入技术研发与提升,其中包括了广汽集团、DeepMotion、地平线、理想汽车等企业团队,以及清华大学、华中科技大学等高校。

nuScenes数据集

nuScenes是一个全球公认的用于自动驾驶的权威大规模数据集。数据集由Motional(前身为nuTonomy)团队开发,在波士顿和新加坡收集了1000个驾驶场景。nuScenes于2019年发布的完整数据集包括大约140万个相机图像、39万个激光雷达扫描、140万个雷达扫描和4万个关键帧中的140万个对象边界框。同时,它是第一个提供来自自动驾驶汽车的整个传感器套件(6个摄像头、1个激光雷达、5个雷达、GPS、IMU)的数据的大规模数据集。

上汽AI LAB跟踪算法DAMEN-T是自主研发的BEV目标检测方法 DAMEN(Depth-Augmented CaMEra FusioN)的扩展。在BEV空间下,传统后融合方案存在的问题得到有效解决,覆盖车身360°视野范围的6个相机获取的感知信息由一个模型统一处理,共享同一视野,显著提升了处理速度与准确性。

团队在BEV目标检测的基础上,增加*来完成跟踪任务,并优化了每个类别的3D IoU和运动模型以获得更好的关联。值得一提的是,上汽AI LAB团队的跟踪算法DAMEN-T引入了在落地项目中设计的*优化技巧,与目标检测算法相结合,在现有方案中脱颖而出、摘得桂冠。相比于尚处于学术研究阶段的方案,DAMEN-T工程化程度更高,已经过实际项目的不断迭代,可以与落地量产高度适配。

在下一个阶段,一方面,上汽AI LAB团队会将现有纯视觉方案进一步拓展至多传感融合,包括Lidar与Radar。另一方面,根据目标检测及跟踪得到的目标物准确运动状态信息,在BEV空间下还可以探索对目标物轨迹的预测,让自动驾驶车辆更“聪明”。

未来,上汽AI LAB将继续走在智驾技术自主研发的前沿一线,同时推动Robotaxi的量产应用,落实上汽集团“新四化”战略,促进共享出行领域的智能化、网联化发展。  

      审核编辑:彭静

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:机器视觉油水检测案例,图像质量对整个视觉系统非常关键
下一篇:机器视觉注塑塑料产品质量检测
相关文章

 发表评论

暂时没有评论,来抢沙发吧~