深度学习加持,ADAS双目感知“起势”

时间:2021-09-15 13:45

ADAS双目感知,正在进入AI时代。

 

过去,传统双目相机不区分障碍物类型,仅仅是将前方障碍物检测或测量出来。这使得其在实际的应用中存在一些需求的不匹配。

 

一般情况下,立体相机通过左右摄像头分别拍摄的两幅图像之间的视差来探测具有所需形状的物体,并将其定位在用户车辆前方。利用模式识别等方法来判断被检测对象是否是行人。

 

而日立、中科慧眼等国内外双目相机头部企业,目前的主要工作就是使双目相机同样能够具备较好的障碍物分类能力。

 

日前,日立汽车宣布,该公司已将人工智能应用于为AEB功能设计的立体摄像机。这意味着双目相机的应用正在不断挖掘新的机会,从而在与传统主流单目相机的竞争中,匹配下游OEM对于感知的高要求。

 

日立的双目摄像头利用数十万条数据作为训练库,实现了夜间行人检测功能。而其他该领域企业,比如中科慧眼也正在开发支持人工智能的双目感知系统。

 

按照计划,日立汽车将向铃木供应这种新型传感器,性能测试结果显示,实现的夜间行人自动刹车的性能比搭载Mobileye EyeQ3的性能更高。

 

之前的双目摄像头“基于规则”识别物体,这意味着开发人员需要手动设置条件,而且条件会变得越来越复杂,并且很难支持夜间的对象检测。

 

此次日立汽车立体摄像机采用机器学习的方法进行图像识别。成千上万的数据存储在图像处理芯片中,用相机拍摄的图像与本地数据进行比较,判断一个物体是否是行人。

 

因为双目相机的优势就是能够对一切类型的障碍物进行检测,而并非仅仅是针对标准障碍物(车辆与行人)的检测,且距离数据更加精准。

 

而之前的传统立体相机使用的大多是常规的模式识别方法,支持人工智能的双目感知系统在很多方面大幅提升性能,比如,即使行人只有下半身被车头灯照亮,或者身体各个部位的亮度不同,也能容易被检测。

 

为了配合机器学习,日立汽车通过集成用于图像处理和图像识别的处理芯片,将用于图像识别的核数从1个增加到2个。通过增加核的数量,不仅可以应用机器学习,而且可以提高图像识别处理的速度。

 

此外,日立汽车增加了CMOS传感器的动态范围,降低了镜头的F值,使相机灵敏度提高了100%。随着更大的动态范围,捕捉明亮和黑暗的物体成为可能。理论而言,F值越小,越容易在黑暗中发现行人。

 

考虑到传统双目识别不依赖样本库,距离目前可达近100米,再加上类似单目的深度学习能力,无疑是为AEB等主动安全功能增加了“双保险”。

 

目前,国内双目相机研发与制造的领头企业中科慧眼,其双目传感器已经应用于很多典型的自动驾驶车辆以及商用车的高端AEB系统。

 

以典型的城市公交为例,双目应用的优势在于,识别距离满足要求,精度高,不易受到复杂障碍物影响而产生干扰信息,同时对于不规则障碍物没有识别盲区。

 

中科慧眼COO孟然表示,城市公交车单独使用双目识别,不使用毫米波雷达传感器,就可以在城市道路环境下,达到既定要求和目标。

 

尽管单目方案在单一硬件成本方面拥有着天然的优势,但综合来看,在成本和效果上,比之单目+毫米波融合方案,双目具备一定的优势。

 

目前,中科慧眼的双目产品在商用车前后装市场的出货比例为3:7,前装的配装车辆在增加,后装车辆则围绕城市公交,在全国年底预计要覆盖30多个城市。

 

随着更高等级自动驾驶系统的技术成熟和市场应用,双目天然的测量精度优势,干扰较少,会促使其在未来的发展中生命周期更长。