高精度双目视觉3D点云推动高阶智驾规模化量产落地收藏

网友投稿 256 2024-01-11


第一性原理指的是:回归事物最基本的条件,将其拆分成各要素进行解构分析,从而找到实现目标最优路径的方法也就是说,撕开事物一层层复杂的表象,从本质出发而不是从陈旧的或者来自于他人的经验去思考,才能找到最简洁的答案。

高精度双目视觉3D点云推动高阶智驾规模化量产落地收藏

智驾安全正在用户心智中占领高位,政策法规为行业未来划定上层纲要智能驾驶已经经历了一段较长时间的发展,从刚开始的概念与技术萌芽,到如今大算力、大数据平台涌现,感知、预测、决策、规控等领域百花齐放,车已经做的越来越像一个机器人,智能化程度大大提高。

前段时间业内很大的一个热点是“AEB之争”,争议漩涡中心的“AEB”是指自动紧急刹车(Autonomous Emergency Breaking),它并不是一个新鲜的概念,起源最早可以追溯到20世纪50年代。

那为什么会在这样一个时间点引发广泛的讨论和关注,我们认为这与行业的发展与消费者认知的转变息息相关,因为AEB等智驾技术已经更普遍地进入我们的生活,消费者也更愿意为提升驾乘安全与体验的产品与服务买单与此同时,相关法规不断落地,评价标准也日渐完善。

近期,中国汽车技术研究中心发布了中国新车评价规程(C-NCAP)2024版征求意见稿,意见稿在2021版的基础上,对乘员保护版块、VRU保护版块、主动安全版块都进行了优化完善,其中主动安全版块增添了有关AEB误触发项目。

我们除了关注车辆在哪些场景能刹停之外,也必须关注它们在哪些场景下不应误刹车,更低的泛化场景AEB误触发率是评价AEB刹停指标的重要前提而就在11月,工业和信息化部、公安部、住房和城乡建设部、交通运输部等四部门联合印发通知,部署开展智能网联汽车准入和上路通行试点工作,对未来L3、L4汽车上路所涉及到的责任做出界定,从政策角度制定上层纲要,为自动驾驶的下一步铺平道路。

可以预见,在市场需求和政策引导下,人类驾驶员的手脚将逐步可以从驾驶活动中脱离从简单封闭走向复杂开放场景,智能驾驶需要破解感知难题业内预测,到2024、2025年智能驾驶渗透率将有一个很大的增长智能驾驶功能场景会从简单封闭走向复杂开放。

那么,应对真实环境中高频出现的诸多复杂场景,就要求感知系统更精准、更全面,既要关注误报,也要关注漏检,要从部分类型目标/场景的检测延伸到全类型目标/场景的理解车辆不断“修炼升级”,从原有的减负作用进化为能够帮助人类驾驶员提前预防和提高通行效率,车企也需从之前的“军备竞赛”切换到“降本增效”,从而真正积蓄好规模化落地的能力。

从用户的角度来说,获得的智驾性能体验应该是跟用车成本成正比的,但现实情况往往是,多付出的成本无法带来相应的体验提升,智驾功能在很多场景下受限怎样给用户体验带来超预期的改善,这是车企以及供应商共同面对的挑战。

我们需要更合理的硬件、算力、算法、部署,需要有更强的工程化能力,将各个方面打通来做好平衡与优化,让自动驾驶既面向宏大的未来,也能在当下落地,带来实际的消费体验提升在解答这道行业综合大题时,最基础的一个步骤一定是先做好感知。

如上所述,智驾的场景逐渐走向复杂开放,那具体来看,智能汽车要建立什么样的感知能力?

现实驾驶场景的特点就是:永远有各种出乎意料的情况。无论是特色的道路场景还是非常规的交通参与者,如果感知系统无法识别,那就会对决策和控制造成影响。

如上图所示,如果我们把这两张图直接丢给现有的一些AI系统,它很可能无法分辨这到底是矗立在地面上的物体还是平面的艺术作品在交通新闻中,因为感知缺陷而发生的一些触目惊心的事故包括:“鬼探头”事故、极限加塞事故以及自动驾驶撞上侧翻车辆事故等。

另一方面,我们也会在媒体评测的一些视频中发现,在城区智驾体验中,车辆已经能够识别到前方的目标和车道线而可以自己去开了,但是对地面的坑洼情况却感知不到,也就是说缺少了整车坐标系中Z轴方向的感知和控制面对这些问题和挑战,我们需要解决:3D感知的准确和完备性;地图更新的鲜度和准确性;预测决策的合理性和执行闭环响应延迟;端到端神经网络的黑盒问题/可解释性;动态博弈的道德伦理和责任归属。

所以说,在城市NOA的复杂场景下,我们始终坚信并极力推荐的感知方案就是立体视觉

元橡智驾品牌-MetoAuto Pilot元橡科技基于车载双目领域多年的研发和量产经验,打造MetoAuto Pilot 智驾方案方案以双目为核心配置,Plus/Pro/Max版本可搭配不同传感器,通过灵活部署满足不同客户需求,面向汽车行业行泊一体进阶趋势,提高感知与智驾的“眼脑协同”能力,实现主动安全、舒适辅助和效率智能,并提供一般障碍物GOD检测与应对、限高/限宽预警、车辆近距离Cut-in应对、魔毯底盘、主动避障、P2P通行泊车等双目视觉特色功能。

双目高精稠密3D点云,XYZ三向融合体验提升双目立体视觉是一项非常简洁的原理,即通过三角测量来测距,但是它的难点在于怎样获得非常高精度的视差车辆快速行驶过程中,要去推断百米开外的一个目标的距离,那就要得到亚像素级别的视差。

元橡一直坚持在走立体视觉路线,也已经把立体视觉精度做到了一个非常好的水准元橡车载双目相机在100米距离处测量精度高于95%,在150米距离处测量误差小于7%,这个数字可能相比于激光雷达是偏大的,但是从性价比和整体执行层面来说是合适的。

有了高精稠密的3D点云信息,我们就可以在此基础上去做应用开发,比如:增强型LCC——单前视相机的极限Cut-in场景,双目方案能在车身完整出现前就可以更早检测出加塞车辆,能精准判断对方车辆姿态、距离从而更好判断对方意图,使LCC控制更安全、更舒适。

增强型主动安全——暗夜逆光儿童“鬼探头”等场景下,立体视觉可以在目标仅露出一点点,汽车“大脑”还无法脑补识别的时候,帮助快速感知和响应;侧翻异形车识别场景下,立体视觉也有非常好的轮廓捕获能力。

双目高精稠密3D点云之前,Tesla推出Occupancy的技术路线引起了很大关注,其实它达到的效果就是类似的,从立体视觉来讲,我们很早就能看到这样的点云信息,精度可达厘米级乃至毫米级,实现极佳的空间分辨能力。

概括地说,我们就是把立体视觉和AI像人的大脑和眼睛一样结合,安装到车上,去辅助整个驾驶过程。

L2+实车测试在我们进行的MetoAuto Pilot – Plus(Stereo-based) L2+实车测试中(算力平台小于3TOPS @ INT8),测试车可以在城区的不同道路、白天夜晚的不同交通场景下,做出很好的反应。

高速NOA匝道精准4D重建在高速NOA上下匝道场景以及城区NOA的乡村路等场景中,不依赖高精地图和激光雷达,立体视觉也可以通过精准4D重建帮助车辆理解环境信息,即使没有车道线和规则化道路,也能让车看得更清,开的更好。

城区NOA乡村路精准4D重建而这两年元橡一直在做的魔毯项目,就是在XYZ三向融合方面提升智驾水平和驾乘体验通过复用双目模组,获取高精度3D点云,准确提取车辆前方40m道路类型和15m高程目标,将路面类型、高程目标高度/波长/纵向距离发送给主动悬架系统,实时调节CDC阻尼和悬架高度,抵消车辆的垂向冲击。

目前,搭载元橡魔毯产品的部分量产车型已经上市,在激烈的乘用车市场竞争中,能够高性价比地增强车辆性能、显著提升用户体验的产品,才能为赢得竞争终局增加筹码从底层芯片到全栈方案,向更广阔的未来不断探索元橡科技成立以来,很重要的一个里程碑就是自研Meto Simor芯片,它是国内首颗双目车规级芯片,能够使产品实现高性能、低功耗、低延迟。

车载行业之外,机器人也是我们触达更广泛的用户群体的一个重要探索方向未来,汽车和机器人一定会越来越像,越来越通用,所以我们其实也是用一套技术方案同时去支撑两大业务市场,可以起到四两拨千斤的效果元橡依靠底层芯片技术,打造高性能模组/相机以及AI+D智能软件架构,提供算法+芯片+模组+相机系统+软件的全栈解决方案。

自动驾驶的进程日益加深,人类驾驶员的作用正在从汽车的“控制者”逐渐向智驾系统的“托底者”转换,机器人也正以更智慧灵巧的形态走进我们的生活在行业面临“拐点”的关键时刻,我们既要有看向未来的理想主义,也要有毫厘必争的实用主义,朝乾夕惕,深耕不息,当所有人的目光看向同一个方向,高阶智驾的规模化量产落地终将到来,人与智能共融共生的图景也终将呈现。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:机器视觉光学基础——放大率 视场角收藏
下一篇:西安远望ez1288相机DC暗电流测试基本原则与FAQ收藏
相关文章

 发表评论

暂时没有评论,来抢沙发吧~