欢迎您!
当前位置:首页 > 视觉本地 > 正文
百度Apollo披露纯视觉L4无人车方案:10摄像头 对标Mobileye
更新时间:2019-06-28 13:25:26

      Apollo Lite,一套城市道路L4级视觉感知解决方案,能够支持对10路摄像头、200帧/秒数据量的并行处理,单视觉链路最高丢帧率能够控制在5‰以下,实现全方位360°实时环境感知,前向障碍物的稳定检测视距达到240米。

      王亮还说,经过前期的技术研发投入和半年的路测迭代,依靠这套10相机的感知系统,百度无人车已经可以在城市道路上实现不依赖高线数旋转式激光雷达的端到端闭环自动驾驶。

      2019年上半年,Apollo Lite已经在北京稻香湖等多地多路段落地测试。在路测过程中,测试车辆数目、累计测试里程和车辆在城市道路上的闭环自动驾驶表现优异。

      Apollo方面“优异”的对标参照是Mobileye,全球最大的ADAS(高级辅助驾驶技术)供应商,2016年被英特尔以153亿美元收入麾下,并整合成为英特尔自动驾驶部门。

      Mobileye此前最知名的方案是特斯拉,后来特斯拉自研AutoPilot,依然沿袭了纯视觉方案。

      Mobileye最新的纯视觉自动驾驶方案,除了自研芯片EyeQ4处理器外,主要依靠12路摄像头。

      这套低成本近车规级环视感知方案也能够降级支持ADAS辅助驾驶应用,创造更多有价值的应用场景,将ADAS产品的能力提升到一个新的高度,为企业、开发者们提供了一个低价、优质的自动驾驶解决方案。

      摄像头是相对成熟的传感器,除具备轻巧低成本和符合车规的优势外,高分辨率高帧率(成像频率)的成像技术发展趋势意味着图像内蕴含的环境信息更丰富,同时视频数据也和人眼感知的真实世界最为相似,但和三维点云数据相比,二维图像中的信息更难挖掘,需要设计更强大的算法、大量数据的积累和更长期的研发投入。

      百度Apollo技术委员会主席说,现今很多传感器融合的方案设计较为复杂,技术人员往往从快速解决问题的角度出发设计算法,这个过程中难免避重就轻的利用异构数据各自的优势进行缺陷互补从而绕过困难的问题。

      长远看,数据和策略间深度耦合的设计不利于为环境感知系统提供真正意义上的冗余(true redundancy)。

      传感器融合意味着多套能够独立支撑全自动驾驶的感知系统强强联手,独立工作相互校验,最大概率的保证感知结果的准确性和完备性。

      王亮强调,百度下决心投入资源研发纯视觉感知解决方案并不意味着放弃现有基于激光雷达的技术路线,而是在技术实践过程中充分意识到无人驾驶系统true redundancy的必要性,决定通过压强环视视觉技术来夯实多传感器融合感知框架。

      在传统激光雷达为主,视觉为辅的传统融合策略中,视觉感知自身的问题和缺陷在雷达感知的掩盖下暴露不够充分。

      所以现在通过Apollo Lite打磨迭代的纯视觉技术,正在持续反哺百度坚持的多传感器融合解决方案,提升无人驾驶系统的鲁棒性和安全性。

      始终坚持多传感器融合的技术路线级自动驾驶传感器选型上,激光雷达和摄像头不是排它的的也不是单纯的从属和互补关系。从安全性考虑,二者具备相同的重要性和不可替代性,缺一不可。

客服QQ:6028347 香格里拉主管 优盈平台 超越平台主管
本网站所刊载信息,不代表的观点。 刊用本网站稿件,务经书面授权。
未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。
Powerd by 版权所有