网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于红外双目视觉的同步目标检测与匹配网络  PDF

  • 曾长紊 1,2,3
  • 杨支羽 1,2,3
  • 代作晓 1
  • 顾明剑 1,3
1. 中国科学院上海技术物理研究所,上海 200083; 2. 中国科学院大学,北京 100049; 3. 上海市空间光电感知融合创新中心,上海 200083

中图分类号: TP722.5

最近更新:2025-02-27

DOI:10.11972/j.issn.1001-9014.2025.01.016

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

特殊环境下道路目标的三维感知对汽车的全天时、全气候自动驾驶具有重要意义,红外双目视觉模仿人眼实现微光/无光等特殊环境下目标的立体感知,目标检测与匹配是双目视觉立体感知的关键技术。针对当前分步实现目标检测与目标匹配的过程冗杂问题,提出了一个可以同步检测与匹配红外目标的深度学习网络——SODMNet(Synchronous Object Detection and Matching Network)。SODMNet融合了目标检测网络和目标匹配模块,以目标检测网络为主要架构,取其分类与回归分支深层特征为目标匹配模块的输入,与特征图相对位置编码拼接后通过卷积网络输出左右图像特征描述子,根据特征描述子之间的欧氏距离得到目标匹配结果,实现双目视觉目标检测与匹配。与此同时,采集并制作了一个包含人、车辆等标注目标的夜间红外双目数据集。实验结果表明,SODMNet在该红外双目数据集上的目标检测精度mAP(Mean Average Precision)提升84.9%以上,同时目标匹配精度AP(Average Precision)达到0.5777。结果证明,SODMNet能够高精度地同步实现红外双目目标检测与匹配。

引言

可见光相机因其出色的成像能力,成为目标检

1领域最常见、最受欢迎的传感器,也是自动驾驶汽2最主要的传感器之一。作为当前的热门研究方向,单目相机三维目标检3能够给自动驾驶汽车或移动机器4提供重要的三维目标信息。但是在一些特殊环境条件下,可见光相机的探测能力被严重限制,例如夜间微光/无光等环境。有不少研究者对低光照条件下的可见光图像增强进行了研5,包括利用传统方法和基于深度学习的方法。这些方法可以有效改善图像质量,但是对无光等极端环境下的可见光图像却也无能为力。红外相机因其独特的热成像优势,不受环境光照影响,在无光等特殊环境下依旧能清晰成像。人和车辆是道路环境中最主要的动态目标,也是自动驾驶汽车最关心的目标。特别地,人和移动的车辆都是比较显著的热源,在红外相机中成像明显,这有助于对特殊道路环境下人和车辆的准确检测。因此,红外相机既可以在白天作为辅助感知,也可以在夜间作为可见光相机等传感器的互补,是自动驾驶汽车实现全天候目标检测的重要传感器之一。而红外双目相机可以在目标检测的基础上,通过三角测距原理实现目标的立体感6,为自动驾驶汽车提供更全面的道路环境信息。

目标检测与目标匹

7是实现红外双目视觉立体感知的关键技术,也是计算机视觉领域重要的研究方向。目标检测的目的是在图像中识别和定位特定目标,目标匹配的目的是在不同图像或图像序列之间识别和对应相同的目标或特征。早期的方法依赖于手工设计的特征提取器。目标检测方法主要有Haar8、FAST(Features from accelerated segment test9、HOG(Histogram of oriented gradients10、DPM(Deformable Part Model11等,这些方法往往需要复杂的机器学习分类器,如支持向量机(Support Vector Machine,SVM12或AdaBoost13。目标匹配通常基于特征匹配实现,传统特征匹配方法包括SIFT(Scale-invariant feature transform14、SURF(Speeded Up Robust Features15、ORB(Oriented FAST and Rotated BRIEF16等。

基于CNN(Convolutional Neural Networks)的深度学习因其对空间特征的强大提取能力成为目标检测与匹配的主流方法之一,内部稀疏连接和参数共享使其对比基于Transformer

17的网络模型需要更少的计算成本。代表性的深度学习目标检测模型包括R-CNN(Region CNN)系18、YOLO(You Only Look Once)系19、SSD(Single Shot MultiBox Detector20、FCOS(Fully Convolutional One-Stage Object Detection21等,这些深度学习方法在红外图像目标检测领域也取得不错的成就。Krišto22比较了几种标准的最先进的目标检测器(如Faster R-CNN23、SSD、Cascade R-CNN24、FCOS和YOLOv325)在热图像数据集上的性能,在性能相当的前提下,FCOS和YOLOv3是其中最快的。Yao26在标准的FCOS网络基础上,提出了一个轻量级网络模型,结合传统滤波方法,增强了对小红外目标的响应,同时抑制了背景响应。此外,部分目标检测网2728针对小目标红外成像特点进行改进,实现红外小目标的有效识别。可见光图像特征匹配领域涌现了一大批诸如Superglue29、LoFTR(Local Feature Transformer30、CREStereo(Cascaded Recurrent Stereo matching network31等优秀方法,但是这些匹配方法都是针对像素级特征提出的,对于分辨率较低的红外图像难以达到好的效果。

目标检测与目标匹配是两个独立的步骤,在目标匹配过程中缺乏信息的相互交流,深度学习网络特征提取过程中往往伴随冗余操作和冗余信息的生成。本文针对红外双目视觉提出一个同步目标检测与匹配网络(SODMNet),在目标检测的同时对目标进行实例级的匹配。本文的主要贡献包括:1)设计了一个同步目标检测与匹配的深度学习网络;2)采集并制作了一个包含1 593组红外双目图片的数据集,该数据集为搭载在汽车上的红外双目相机在夜间采集的城市道路数据,并对数据集中的人和车辆目标进行了标注;3)实现了红外双目图像目标高精度匹配,并大大提升了红外图像行人车辆检测精度。

本文的结构如下:第1节详细描述网络架构,包括各网络部分和模块,以及损失函数设计;第2节详细介绍了红外双目数据集及其制作过程,并在该数据集上进行不同对比实验及结果分析;第3节对本文工作进行总结及展望。

1 网络架构

SODMNet由目标检测网络主架构和目标匹配模块组成,如图1所示。对输入的图像进行预处理得到标准化数据,骨干网络对数据的基本特征进行提取,通过颈部网络的进一步处理和优化,头部网络根据优化特征图实现目标的识别分类以及定位,目标匹配模块(如图1紫色虚线框所示)实现左右相机图像相同目标的匹配。接下来对各部分进行详细介绍。

图1  SODMNet架构

Fig. 1  Architecture of the SODMNet

1.1 图像预处理

图像预处理包括数据增

32、归一33及数据组合。数据增强可以增加网络训练的数据量,提高模型泛化能力,考虑到道路真实数据的特征,本文采用的数据增强方法主要包括图像缩放和图像水平翻转。归一化操作能够消除不同特征之间的尺度差异,使得模型能够更好地学习到数据的内在规律。最后,将处理好的左右图像进行叠加组合。

1.2 目标检测网络架构

SODMNet的目标检测主架构采用FCOS网络,它是一个高准确度且高效率的端到端全卷积网络,主要包括骨干网络、颈部网络和头部网络三个部分。

1.2.1 骨干网络

骨干网络从输入数据中提取高层次、语义丰富的特征,它决定了网络模型的基本性能。ResNet50(Residual Neural Network

34是本文采用的主要骨干网络,如图2所示,它分为5个阶段,第1个阶段包含卷积层、BN(Batch Normalization)层、ReLU(Rectified Linear Unit)激活函数和最大池化层,剩余4个阶段均由多个Bottleneck结构(如图3)组成,残差连接结构的使用可以很好地解决深层网络训练时梯度消失的问题。

图 2  ResNet50骨干网络

Fig. 2  ResNet50 backbone network

图3  Bottleneck结构

Fig. 3  Bottleneck structure

此外,其他主流骨干网络也被采用并进行对比验证。MobileNetv2

35利用深度可分离卷积(Depthwise separable convolution)结构替代传统卷积结构,大大减少模型参数和运算量,其中深度可分离卷积由深度卷积(Depthwise convolution)和逐点卷积(Pointwise convolution)组成,如图4。ShuffleNetv236利用逐点群卷积(Pointwise group convolution)以降低卷积的计算复杂度(如图5),并通过通道混洗实现特征通道之间的信息流动。EfficientNetv237通过自动化搜索网络结构的方法来提高模型的效率,结合模型复合缩放方法,综合考虑网络的深度、宽度和输入分辨率进行扩展,它的主要结构是MBConv(Mobile inverted bottleneck convolution),如图6

图4  深度卷积和逐点卷积与传统卷积对比

Fig. 4  Comparison of depthwise convolution and pointwise convolution with traditional convolution

图5  逐点群卷积与传统卷积对比

Fig. 5  Comparison of pointwise group convolution with traditional convolution

图6  MBConv结构

Fig. 6  MBConv structure

1.2.2 颈部网络

颈部网络在骨干网络提取的特征上进一步进行不同尺度特征的融合,通过上下文增强帮助网络感知不同大小的目标。FPN(Feature Pyramid Network

38是最常见的一种目标检测颈部网络,如图7,它将生成的金字塔特征图与对应的上采样特征图进行加和,融合特征层浅层的细节信息和深层的语义信息以区分不同特征的目标,融合特征层浅层低感受野信息和深层高感受野信息以区分不同尺寸的目标。

图7  FPN结构

Fig. 7  Structure of FPN

1.2.3 头部网络

头部网络是负责任务预测的输出部分。FCOS目标检测网络包括用于预测目标类别的分类头部和用于预测目标框位置的回归头部,同时在回归分支增加了一个中心度约束,将离标注框中心很远的低质量预测框筛除。分类头部和回归头部分别对颈部网络输出的特征图进行4组卷积,最后通过卷积输出分类标签和回归位置。SODMNet在此基础上增加了一个目标匹配模块,将在1.3节详细介绍。

1.3 目标匹配模块

在红外双目相机的左右图像内,同一个目标通常存在相似特征。图8为红外双目相机同步采集的道路环境图片,视场内未遮挡目标car1、car4和部分遮挡目标car3的相似特征较多,视场内遮挡目标car2、car5和视场边缘目标car6、car7存在部分相似特征。目标检测网络深层特征包含更丰富的信息,因此分别取分类和回归分支输出前一层特征图作为目标匹配模块的输入。同时,左右图像内的目标存在某种相对位置关系,因此,对特征图进行位置编码并输入模块。

图8  红外双目标注图片

Fig. 8  Annotated infrared stereo images

目标匹配模块主要包括目标描述子生成和匹配子模块。输入经过两组卷积,每组卷积包含3×3卷积层、BN层和ReLU激活函数,最后输出特征图对应的128维描述子。匹配子模块根据左右图像输出描述子之间的欧氏距离,得到目标匹配对。平行式双目相机目标成像俯视图如图9,无论左相机与右相机基线距离远或近,同一目标在左相机成像位置比在右相机成像位置靠右。图10描述了左右特征图对应行描述子距离计算,本文红外双目相机采用平行式结构,故只需要考虑右上角黄色区域欧氏距离值。由于目标框内的特征都可以作为正样本预测目标,如图10中红色框内部分,而左右特征图中的最优预测可能不在同一行特征,甚至可能因为遮挡导致预测目标框有差异(如图8中的car5)。为了建立不同行之间的联系,增加右特征图与左特征图对应的前后行特征描述子欧氏距离进行匹配,如图11。对于右特征图首行特征,只考虑与左特征图对应行及下一行特征描述子之间的欧氏距离;对于右特征图末行特征,只考虑与左特征图对应行及上一行特征描述子之间的欧氏距离。

图9  平行式双目相机目标成像俯视图

Fig. 9  Top-down view of object imaging with a parallel stereo camera setup

图10  特征图描述子欧氏距离计算

Fig. 10  Euclidean distance calculation for feature map descriptors

图11  右特征图与左特征图对应行及前后行描述子欧氏距离计算

Fig. 11  Euclidean distance calculation between right and left feature map descriptors for corresponding and adjacent rows

1.4 损失函数

损失函数是用来衡量模型对输入图像的预测值与真实值之间的接近程度,预测值与真实值越接近则损失越小,反之损失越大。然后通过反向传播和梯度下降更新参数并重复训练,使得模型输出与样本真值之间的差距越来越小,即模型的预测能力越来越强。SODMNet的损失函数主要包括分类损失、回归损失、中心度损失和匹配损失。

1.4.1 分类损失

分类损失函数采用的是Floss

39,它能够解决端到端目标检测网络中正负样本数量极不平衡的问题,公式如下:

Floss=-a(1-p^)γlogpif y=1-(1-a)p^γlog(1-p)if y=0 , (1)

其中,表示预测概率,y=0表示预测与真实标签不一致,y=1表示预测与真实标签一致,γα为可调节因子,γ可以控制难易区分样本数量失衡,α可以抑制正负样本数量失衡。本文取Floss参数经验值,即γ=2,α=0.25。

1.4.2 回归损失

IoU(Intersection over Union)损

40作为回归损失将预测框的所有位置信息作为一个整体进行回归,实现高效、准确的定位,具有很好的尺度不变性。IoU公式如下:

LIoU=1-SIntersectionSUnion (2)

其中,SIntersection表示目标真实框和目标预测框交集的面积,SUnion表示目标真实框和目标预测框并集的面积,如图12

图12  目标框的交集与并集

Fig. 12  Intersection and union of the object bounding boxes

1.4.3 中心度损失

中心度损失通过二元交叉熵损失函数(Binary Cross Entropy Loss,BCE Loss

41计算,公式如下:

LBCE=1Ni=1Nyi·log[p(yi)]-(1-yi)·log[1-p(yi)] (3)

其中,pyi)表示预测值,yi为真值,liritibi表示预测位置中心与目标框之间的距离,如图13

. (4)

图13  预测位置中心与目标框之间的距离

Fig. 13  Distance from predicted center to object bounding box

1.4.4 匹配损失

目标匹配损失是评价左右图像预测目标之间的相似程度,借鉴siamese网

42中评价两幅图像相似程度的对比损失,改进公式如下:

LMatching=1Zij(Zij·Dij2)+1[(1-Zij)·Mij][(1-Zij)max(T-Dij,0)2] , (5)

其中XiYj分别表示左右特征图不同位置描述子,Zij表示对应位置真实匹配值,取值为1(匹配)和0(不匹配),T为给定阈值,DijMij如下:

Dij=Xi-Yj2,Mij=0  if T-Dij<01  if T-Dij>0 .

2 实验结果与分析

在本节中,首先介绍实验平台、数据准备和评估指标。然后,将不同骨干网络的实验结果进行比较,以证明该网络的有效性。最后展示了对网络匹配模块的输入和结构的消融研究,以验证网络的设计。

2.1 实验平台

本文的网络模型基于Pytorch框架实现,实验平台CPU为Intel i9-10900k,显卡为NVIDIA TITAN RTX,操作系统为Ubuntu 20.04。

2.2 数据准备

实验采用了公开数据集FLIR(FLIR Thermal Starter Dataset),由于目前没有公开的红外双目标注数据集,因此,基于搭建的红外双目系统采集并制作数据集。

2.2.1 FLIR数据集

FLIR数据集是通过安装在车辆上的可见光相机和红外相机采集的城市/高速道路环境数据,它一共包含人、自行车、汽车和狗4个标注类别,一共有14 452张标注的红外图片,训练集包含8 862张标注图片,验证集包含1 366张标注图片,训练集和验证集数据均从不同的短视频中采样得到。

2.2.2 红外双目数据集

红外双目数据集是通过安装在汽车车顶的红外双目相机采集的夜间市区道路环境数据,从多段视频中采样得到1 593组图片,每组包含时间同步的左右相机图像。采样数据标注类别标签包括人和车辆,其中车辆标签包括各种三轮及以上机动车辆,人标签包括行人及骑行的人。同时对每组标注图片内的目标进行匹配编号,将标号标签加在类别标签后面,如图8

首先从红外双目相机采集的12个短视频中以每秒一帧的频率抽取视频帧组成了一个1 315组图片的数据集,图片分辨率为1 280×1 024个像素,并对每组图片中的人和车辆目标进行手动匹配标注,对于遮挡目标不进行脑补,标注框为该目标未遮挡部分的最大外接矩形框,如图8中的car2、car3、car4和car5。其中人标注框最小边长不小于12像素,车辆标注框最小边长不小于30像素。对所有图片目标数量的统计结果如图14(a),由于选择的市区道路不够合理,且车辆行驶在道路上时红外双目相机的视场相对集中在机动车道上,采集的数据包含大量车辆目标,非机动车或行人目标相对偏少。为了使数据平衡,在一条机动车辆相对较少的道路采集了一段视频,并从中抽取278组图片,标注后加入数据集,其目标统计结果如图14(b),最终获得红外双目数据集。

图14  数据集统计结果:(a)首次采集数据;(b)补充数据

Fig. 14  Statistical results for dataset objects:(a) initially acquired dataset; (b) supplement dataset

2.3 评价指标

混淆矩阵是后续评价指标的基础,它是对预测结果的一个粗略评价。如图15所示:NTP表示实际为positive、模型预测为positive的样本数;NTN表示实际为negtive、模型预测为negtive的样本数;NFP表示实际为negtive、模型预测为positive的样本数;NFN表示实际为positive、模型预测为negtive的样本数。

图15  混淆矩阵

Fig. 15  Confusion matrix

2.3.1 目标检测评价指标

精准率(P)和召回率(R)是目标检测领域常用的评价指标,其计算公式如式(6)所示。精准率能够反映模型对负样本的区分能力,召回率能够反映模型对正样本的识别能力。F1 score(F1)综合了精准率和召回率,公式如式(7),越稳健的模型F1 score越高。mAP(Mean Average Precision,PmAP)用于综合考虑模型在不同类别上的精准率和召回率,公式如式(8),其中AP(Average Precision,PAP)是对一个类别所有预测框精准率和召回率曲线下面积的积分。

P=NTP/(NTP+NFP)
R=NTP/(NTP+NFN) , (6)
F1=2PR/(P+R) , (7)
PmAP=i=1CPAP,iC . (8)

2.3.2 目标匹配评价指标

模型的目标匹配能力评价指标也可以用精准率(M_precision)、召回率(M_recall)、M_F1 score和M_AP,其计算方法与目标检测评价指标精准率、召回率、F1 score、AP相同,此时NTP表示实际匹配预测为匹配的样本数,NFP表示实际不匹配预测为匹配的样本数,NFN表示实际匹配预测为不匹配的样本数,NTN表示实际不匹配预测为不匹配的样本数。

2.4 实验结果

为了证明SODMNet的有效性,本文在不同骨干网络条件下进行了对比实验,并与一些主流目标检测方法进行了对比。同时本文设计了消融实验以对比匹配模块不同输入及不同结构对模型的影响。最后分析了实验结果的可能原因。

2.4.1 不同骨干网络实验结果

为了提升SODMNet在小数据集训练中能得到较好的泛化能力,FCOS目标检测网络首先针对FLIR数据集的人和车目标进行训练,将训练好的模型参数作为SODMNet中目标检测网络初始参数。随机提取红外双目数据集中393组图像作为测试集,剩下1 200组图像在每次训练时按8∶2随机分配为训练集和验证集。FCOS和SODMNet在红外双目数据集中进行训练,改变骨干网络分得到模型稳定参数。

测试时设置IoU阈值为0.5,即预测框与真实目标框的交并比大于等于0.5时,认为预测框是对真实目标框的正确预测,最终得到不同骨干网络下的测试集目标检测结果对比,如表1。SODMNet的目标匹配结果如表2所示。在ResNet、MobileNet、ShuffleNet和EfficientNet 4个主流骨干网络下,SODMNet的mAP较FCOS分别提升了106.3%、84.9%、89.0%和87.3%,大大提升了目标检测性能。同时SODMNet的M_precision均大于0.84,M_AP最高为0.577 7。

表1  不同骨干网络下SODMNet预测结果
Table 1  Prediction results of SODMNet under different backbone networks
BackboneclassrecallprecisionF1 scoreAPmAP
ResNet FCOS person 0.772 7 0.034 1 0.065 3 0.349 2 0.363 0
car 0.688 7 0.047 8 0.089 4 0.376 7
SODMNet person 0.668 3 0.916 4 0.772 9 0.656 3 0.748 9
car 0.849 5 0.934 0 0.889 8 0.841 5
MobileNet FCOS person 0.818 2 0.030 9 0.059 5 0.371 6 0.389 0
car 0.722 6 0.051 3 0.095 8 0.406 4
SODMNet person 0.632 1 0.914 4 0.747 5 0.621 3 0.719 4
car 0.826 1 0.932 2 0.875 9 0.817 5
ShuffleNet FCOS person 0.812 8 0.041 2 0.078 5 0.320 3 0.358 3
car 0.704 0 0.055 2 0.102 3 0.396 3
SODMNet person 0.593 2 0.909 3 0.718 0 0.577 1 0.677 3
car 0.787 8 0.923 5 0.850 3 0.777 6
EfficientNet FCOS person 0.778 1 0.053 2 0.099 5 0.383 3 0.404 0
car 0.708 2 0.038 3 0.072 7 0.424 7
SODMNet person 0.671 8 0.909 7 0.772 9 0.660 7 0.756 8
car 0.859 6 0.939 4 0.897 7 0.852 9
表 2  SODMNet目标匹配结果
Table 2  Object matching results of SODMNet
BackboneM_recallM_precisionM_F1 scoreM_AP
ResNet 0.666 0 0.860 6 0.750 9 0.577 7
MobileNet 0.626 2 0.875 1 0.730 0 0.553 8
ShuffleNet 0.582 7 0.846 0 0.696 0 0.506 3
EfficientNet 0.645 5 0.863 8 0.738 8 0.561 6

图16为SODMNet在ResNet骨干网络下的预测实验结果,实验设置置信度阈值为0.55,即置信度小于阈值的目标被忽略,反之则被保留。目标框上面的标签表示目标类别、标签序号以及目标框置信度。场景①中的car1为几乎占满整个视场的近距离大目标,SODMNet也有能力检测出来。场景①中的car0和场景②中的car2匹配结果显示,对于左右相机成像存在明显差异的视场边缘目标,SODMNet依然能够根据部分相似区域将其很好地匹配。因视角差异,场景③中person0被树干部分遮挡不同区域,场景④中car7被更近距离的车辆遮挡不同部位,SODMNet能准确地进行识别和匹配。

图16  不同场景SODMNet预测结果

Fig. 16  Predition results of SODMNet in different scenarios

2.4.2 与主流方法结果对比

YOLOv5和Swin Transformer分别是基于CNN和基于Transformer的主流目标检测网络,表3对比了YOLOv5、Swin Transformer与SODMNet(骨干网络为ResNet)在红外双目数据集上的目标检测性能。结果显示,虽然YOLOv5和Swin Transformer在该红外双目数据集上的目标检测性能都比较出色,mAP分别达到了0.710 2和0.721 1,但总体上还是略逊于SODMNet的0.748 9。此外,YOLOv5和Swin Transformer无法实现双目图像间的目标匹配。

表3  SODMNet与其他方法目标检测性能对比
Table 3  Performance comparison of object detection between SODMNet and other methods
NetworkclassAPmAP
YOLOv5 person 0.623 9 0.710 2
car 0.796 5
Swin Transformer person 0.633 4 0.721 1
car 0.808 7
SODMNet person 0.656 3 0.748 9
car 0.841 5

2.4.3 消融实验

分类信息和回归信息是影响目标匹配能力的最关键信息,在此基础上,本文设计消融实验验证特征图相对位置编码输入、浅层特征输入以及不同卷积层结构对SODMNet目标检测与匹配能力的影响。实验结果如表4所示。结果对比显示,缺少相对位置编码输入会使模型预测能力小幅下降,增加浅层特征会使模型预测能力进一步下降,增加或减少卷积层结构都无法提升模型预测能力。结果证明SODMNet的匹配模块对目标检测和匹配是最有效的。

表 4  消融实验结果
Table 4  Results of ablation experiment
InputLayersperson_APcar_APM_AP
cls&reglocationfeats1 conv2 conv4 conv
🗹 🗹 0.651 7 0.834 1 0.569 5
🗹 🗹 🗹 0.656 3 0.841 5 0.577 7
🗹 🗹 🗹 0.644 6 0.837 0 0.539 5
🗹 🗹 🗹 🗹 0.638 3 0.828 4 0.535 5
🗹 🗹 🗹 0.643 9 0.836 6 0.561 6
🗹 🗹 🗹 0.636 2 0.831 8 0.569 7

2.4.4 实验结果分析

SODMNet增加的目标匹配模块从双目相机左右图像中学习到额外的信息,损失函数增加了匹配损失,训练阶段经过损失函数的反向传播对目标检测网络参数持续优化,这可能是其在目标检测精度上有较大提升的主要原因。同时,一个可靠的目标匹配标注的红外双目数据集对SODMNet的优越性能也至关重要。

双目图像的目标匹配主要是通过目标的特征信息进行,目标与周围目标的相对位置关系成为一个辅助判断依据,在目标特征信息缺乏时发挥重要作用。因此,相对位置编码的有无会使模型预测能力小幅变化。由于SODMNet颈部网络已经融合了浅层特征与深层特征,增加浅层特征输入可能导致匹配模块浅层特征权重占比过大,而增加或减少卷积结构可能使模型容易出现过拟合或欠拟合,这些原因都会影响模型性能。

3 结论

针对分步式实现目标检测与目标匹配效率低的问题,本文在目标检测网络的基础上增加目标匹配模块,增强模块间信息交流,提出SODMNet实现红外双目视觉同步目标检测与匹配。目标检测网络分类分支输出目标类别信息,回归分支输出目标位置信息。目标匹配模块由描述子生成子模块和匹配子模块组成,输入包括目标检测网络两个分支包含丰富信息的深层特征,同时增加特征图相对位置编码作为输入,经过卷积网络生成特征描述子,根据左右图像特征描述子之间的欧氏距离得到目标匹配结果。此外,本文采集并制作了一个夜间道路双目红外图像数据集,该数据集包含1 593组标注图片,标签类别包含人和车两类。SODMNet的目标检测网络初始参数经过FLIR公开数据集训练得到,然后对SODMNet在红外双目数据集上进行训练和优化。不同骨干网络的对比实验结果显示,SODMNet在实现准确目标匹配(AP达到0.577 7)的同时有效提升了目标检测的精度(mAP提升84.9%以上)。结果表明SODMNet可以为红外双目视觉目标立体感知提供高精度的目标检测与匹配,对实现全天候、全气候的自动驾驶提供重要基础。根据深度学习网络的通用性,SODMNet可以应用于任何双目视觉目标的同步检测与匹配。对于任务相似的目标跟踪领域视频前后帧图像之间的目标匹配也有一定适用性。由于本文红外双目数据集标注类别相对简单,训练模型无法对目标实现细分类别的检测,因此后续将深入研究SODMNet对于细分多类型目标检测与匹配的准确率,进一步分析细分目标类型对准确率的影响。

References

1

Zou ZChen KShi Zet al. Object detection in 20 years: A survey [J]. Proceedings of the IEEE20231113): 257-276. [百度学术] 

2

Badue CGuidolini RCarneiro R Vet al. Self-driving cars: A survey [J]. Expert Systems with Applications2021165113816. [百度学术] 

3

Wu XMa DQu Xet al. Depth dynamic center difference convolutions for monocular 3D object detection [J]. Neurocomputing202352073-81. [百度学术] 

4

Loganathan AAhmad N S. A systematic review on recent advances in autonomous mobile robot navigation [J]. Engineering Science and Technology202340101343. [百度学术] 

5

Wang WWu XYuan Xet al. An experiment-based review of low-light image enhancement methods [J]. IEEE Access2020887884-87917. [百度学术] 

6

Blake RWilson H. Binocular vision [J]. Vision Research2011517): 754-770. [百度学术] 

7

Verma N KGoyal AVardhan A Het al. Object matching using speeded up robust features[C]//Intelligent and Evolutionary Systems: The 19th Asia Pacific SymposiumIES 2015, Bangkok, Thailand,November 2015Proceedings. Springer International Publishing2016415-427. [百度学术] 

8

Pavani S KDelgado DFrangi A F. Haar-like features with optimally weighted rectangles for rapid object detection [J]. Pattern Recognition2010431): 160-172. [百度学术] 

9

Li YZheng WLiu Xet al. Research and improvement of feature detection algorithm based on fast [J]. Rendiconti Lincei Scienze Fisiche e Naturali2021324): 775-789. [百度学术] 

10

Chen P YHuang C CLien C Yet al. An efficient hardware implementation of hog feature extraction for human detection [J]. IEEE Transactions on Intelligent Transportation Systems2013152): 656-662. [百度学术] 

11

Yebes J JBergasa L MArroyo Ret al. Supervised learning and evaluation of KITTI's cars detector with DPM[C]//2014 IEEE Intelligent Vehicles Symposium Proceedings. IEEE2014768-773. [百度学术] 

12

Wang HHu D. Comparison of SVM and LS-SVM for regression[C]//2005 International Conference on Neural Networks and Brain. IEEE20051279-283. [百度学术] 

13

Hastie TRosset SZhu Jet al. Multi-class adaboost [J]. Statistics and its Interface200923): 349-360. [百度学术] 

14

Ng P CHenikoff S. Sift: Predicting amino acid changes that affect protein function [J]. Nucleic Acids Research20033113): 3812-3814. [百度学术] 

15

Bay HEss ATuytelaars Tet al. Speeded-up robust features (surf) [J]. Computer Vision and Image Understanding20081103): 346-359. [百度学术] 

16

Rublee ERabaud VKonolige Ket al. ORB: An efficient alternative to SIFT or SURF[C]//2011 International Conference on Computer Vision. IEEE20112564-2571. [百度学术] 

17

Han KXiao AWu Eet al. Transformer in transformer [J]. Advances in Neural Information Processing Systems20213415908-15919. [百度学术] 

18

Bharati PPramanik A. Deep learning techniques—R-CNN to mask R-CNN: A survey [J]. Computational Intelligence in Pattern Recognition: Proceedings of CIPR 20192020657-668. [百度学术] 

19

Cong XLi SChen Fet al. A review of YOLO object detection algorithms based on deep learning[J]. Frontiers in Computing and Intelligent Systems202342): 17-20. [百度学术] 

20

Liu WAnguelov DErhan Det al. Ssd: Single shot multibox detector[C]//Computer Vision–ECCV 2016: 14th European ConferenceAmsterdam, The Netherlands, October 11-142016Proceedings, Part I 14. Springer International Publishing, 2016: 21-37. [百度学术] 

21

Tian ZShen CChen Het al. FCOS: A simple and strong anchor-free object detector [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence2020444): 1922-1933. [百度学术] 

22

Krišto MIvasic-Kos MPobar M. Thermal object detection in difficult weather conditions using yolo [J]. IEEE Access20208125459-125476. [百度学术] 

23

Ren SHe KGirshick Ret al. Faster R-CNN: Towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis & Machine Intelligence20173916):1139-1149. [百度学术] 

24

Cai ZVasconcelos N. Cascade r-cnn: Delving into high quality object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 20186154-6162. [百度学术] 

25

Redmon JFarhadi A. Yolov3: An incremental improvement [J]. arXiv preprint arXiv:1804027672018. [百度学术] 

26

Yao SZhu QZhang Tet al. Infrared image small-target detection based on improved FCOS and spatio-temporal features [J]. Electronics2022116): 933. [百度学术] 

27

Lin FBao KLi Yet al. Learning contrast-enhanced shape-biased representations for infrared small target detection [J]. IEEE Transactions on Image Processing202433. [百度学术] 

28

Lin FGe SBao Ket al. Learning shape-biased representations for infrared small target detection [J]. IEEE Transactions on Multimedia2023264681-4692. [百度学术] 

29

Sarlin P EDeTone DMalisiewicz Tet al. SuperglueLearning feature matching with graph neural networks[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020: 4938-4947.. [百度学术] 

30

Sun JShen ZWang Yet al. LoFTR: Detector-free local feature matching with transformers[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 20218922-8931. [百度学术] 

31

Li JWang PXiong Pet al. Practical stereo matching via cascaded recurrent network with adaptive correlation[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 202216263-16272. [百度学术] 

32

Shorten CKhoshgoftaar T M. A survey on image data augmentation for deep learning [J]. Journal of Big Data201961): 1-48. [百度学术] 

33

Patro SSahu K K. Normalization: A preprocessing stage [J]. arXiv preprint arXiv:1503064622015. [百度学术] 

34

Koonce BKoonce B. Resnet 50 [J]. Convolutional Neural Networks with Swift for Tensorflow: Image Recognition and Dataset Categorization202163-72. [百度学术] 

35

Sandler MHoward AZhu Met al. Mobilenetv2: Inverted residuals and linear bottlenecks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 20184510-4520. [百度学术] 

36

Ma NZhang XZheng H Tet al. Shufflenet v2: Practical guidelines for efficient cnn architecture design[C]//Proceedings of the European Conference on Computer Vision(ECCV). 2018116-131. [百度学术] 

37

Tan MLe Q. Efficientnetv2: Smaller models and faster training; proceedings of the International conference on machine learning, F, 2021 [C]. PMLR. [百度学术] 

38

Lin T YDollár PGirshick Ret al. Feature pyramid networks for object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 20172117-2125. [百度学术] 

39

Ross T YDollár G. Focal loss for dense object detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 20172980-2988. [百度学术] 

40

Zheng ZWang PLiu Wet al. Distance-IoU loss: Faster and better learning for bounding box regression[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 20203407): 12993-13000. [百度学术] 

41

Su JLiu ZZhang Jet al. DV-Net: Accurate liver vessel segmentation via dense connection model with D-BCE loss function [J]. Knowledge-Based Systems2021232107471. [百度学术] 

42

Chicco D. Siamese neural networks: An overview [J]. Artificial Neural Networks2021219073-94. [百度学术]