软件同步与时间同步:通过统一的主机为各个传感器提供基准时间,各传感器根据已校准的各自时间为独立采集的数据加上时间戳信息,实现时间戳的同步。然而,由于各传感器采集周期相互独立,无法保证在同一时刻采集到相同的信息。空间同步:将不同传感器坐标系的测量值转换到同一个坐标系中。
术语信息融合(Information Fusion)、数据融合(Data Fusion)以及多传感器数据融合(Multi-sensor Data Fusion)在定义上有所重叠,但侧重点不同。信息融合可以视为Fusion技术的总称,而数据融合则更侧重于对原始数据的整合,尤其是在图像数据处理中,它是一个标准化术语。
传感器融合已成为无人驾驶感知模块的标配,融合层次包括硬件、数据和任务等不同层面。在多传感器系统中,面对复杂多变的环境信息,融合算法需要具备鲁棒性和并行处理能力。算法性能考察包括运算速度、识别精度、前端预处理系统接口稳定性、技术兼容性、信息样本和信息质量需求等。
感器融合是将来自多个雷达,激光雷达和摄像机的输入汇集在一起以形成车辆周围环境的单个模型或图像的能力。生成的模型更加精确,因为它可以平衡不同传感器的强度。车辆系统然后可以使用通过传感器融合提供的信息来支持更智能的动作。每种传感器类型或“模态”都有其固有的优点和缺点。
选择算法示意图中,车辆行驶前向目标选择依据车道线、预测轨迹线与目标车横向偏移量,精准计算前车与车道线距离,筛选潜在风险碰撞目标。总结,多传感器融合与目标筛选技术在自动驾驶感知周围环境信息中至关重要,融合处理不同传感器数据,提供多视角环境感知能力。
单阶段融合:易理解且实现简单。以 PointPainting 和 LaserNet++ 为例。PointPainting:算法分为两阶段,首先对图像做语义分割,接着结合激光雷达点云与语义信息,完成3D目标检测。特征投影将阶段连接,包括建立点云与图像像素关系,并将语义分割输出与点云特征结合。
多传感器信息融合可以分为数据级、特征级和决策级融合,不同级别的融合针对的数据类型和处理深度各不相同,但它们都是实现自动驾驶技术不可或缺的部分。总体而言,多传感器融合在硬件实现上相对容易,算法的优化和整合才是决定能否成功实现自动驾驶的关键。
除了车端之外,石建萍团队也在着手进行路端感知技术的推进工作——将传感器集成在路端,同时通过5G信号低时延地将海量感知数据传输给自动驾驶车辆,这相当于在路上的自动驾驶车辆可以“共享”传感器,对于自动驾驶车型而言也会降低单车成本,同时作为传感器的冗余,也可以提升车辆自身的安全性。
Visual SLAM是自动驾驶的核心,包括特征匹配、直接方法和深度学习驱动的方案。特征SLAM如MonoSLAM,直接SLAM如DTAM,而深度学习的潜力还未完全释放。高精度地图虽然能提供定位,但成本高昂。在复杂环境中,冗余传感器和多种视觉算法的集成至关重要,如相机与激光雷达的互补,以确保系统的稳定和安全。
在自动驾驶领域,传感器融合是关键步骤,旨在整合来自多种传感器的数据,以提高可靠性、冗余性和安全性。本文探讨了传感器融合的不同分类和算法,包括按抽象级别、中心化级别和竞争级别的融合。抽象级别的融合分为早期(EARLY)和后期(LATE)融合,分别涉及融合原始数据和检测数据。
1、融合架构 融合架构大致分为前融合与后融合两大类。前融合通过中心融合模块集中处理来自各传感器的原始信息,如点云、图像等,实现跟踪、关联与估计。此方法可借助深度学习实现,或对原始数据关联与融合,要求时间同步性高。后融合则每个传感器使用内部滤波与跟踪算法,融合模块负责整合多个传感器的滤波结果。
2、自动驾驶的核心在于传感器信息的有效整合。目前市面上的ADAS系统大多各自独立运作,缺乏信息共享的功能。真正的自动驾驶需要将所有传感器收集到的信息进行融合,这样在遇到复杂情况时,例如同时接收到刹车和加速的指令时,车辆才能做出正确的决策,避免混淆导致危险。
3、近几年兴起的基于深度学习的多传感器信息融合算法,如多视图标记的目标检测器、完整关联网络等,用于融合激光雷达和摄像头数据,提高检测准确性。这些算法利用深度学习技术,解决不同传感器数据融合的挑战,实现对环境的更准确感知。