网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于回归模型与注意力的轻量化SAR舰船检测模型  PDF

  • 李丽圆 1,3
  • 李潇雁 2
  • 胡琸悦 1
  • 苏晓锋 1
  • 陈凡胜 1,2
1. 中国科学院智能红外感知重点实验室 中国科学院上海技术物理研究所,上海 200083; 2. 国科大杭州高等研究院,浙江 杭州 310024; 3. 中国科学院大学,北京 100049

中图分类号: TP751.1

最近更新:2022-07-01

DOI:10.11972/j.issn.1001-9014.2022.03.013

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

合成孔径雷达(SAR)具有不受云层干扰、可全天时、全天候对地观测的特点,基于SAR图像的舰船检测已广泛用于海洋搜救、港口侦察、领海防御等民用或军用领域。然而,与大型舰船相比,像素点少、对比度低的小型舰船存在漏检率高的问题,并且速度和精度之间的平衡成为舰船检测算法天基应用的难点。针对以上问题,本文提出了一种基于YOLOv5s模型改进的舰船检测轻量化模型(ImShips)。首先,针对船体大小差异导致的漏检问题,采取在网络底部使用感受野较小的标准卷积,提升了模型对小规模舰船空间信息的获取能力。同时,在网络顶部设计了放大感受野的扩张卷积,保留了更多的语义特征,有利于大目标的特征提取。接着,提出将轻量级的通道注意力机制应用于YOLOv5的骨干网络和特征融合网络,通过对提取到的特征按重要性分配权重,实现纹理信息的筛选。最后,在下采样时采取深度可分离卷积代替标准卷积,减少了模型参数的数量,进一步提高了模型的推理速度。实验结果表明,在SAR舰船检测SSDD和ISSID数据集中,改进后的ImShips模型在保证精度的同时,所需的浮点计算数比YOLOv5s模型减少了45.61%,检测速度提高了8.31%。ImShips模型网络规模小、检测速度快,在实时天基舰船检测中具有较大的应用潜力。

引言

随着空间遥感技术的飞速发展,从星载传感器获取的高分辨率和大规模遥感图像不断丰富,促进了遥感图像广泛的应用,例如自然灾害评估,城市规划,交通管理,环境监测,和海上目标的探测和识别。其中,舰船检测在民用领域,例如航行安全、渔业管理、船舶救助、海洋监测等,和军事领域,例如国防建设、航行安全、港口监视等具有重要价值,遥感图像中的自动舰船检测已经引起了越来越多的兴趣。

舰船检测包括船体检测和尾流检测。在某些卫星图像中,尾迹比船体更明显。但是,当舰船停泊在港口,或者船只尾迹被云遮挡时,尾迹并非一直存在,因此船体检测应用场景更广。早在2002欧盟海洋变换空间的检测与分类(Detection and Classification of Marine Transform Space, DECLIMS)和法国研究与发展研究所(Institute for Research and Development, IRD)合作利用光学图像进行舰船目标检测,自此,基于卫星图像的舰船目标检测和分类应用系统开始出现。现有船体目标检测技术主要依赖于可见光、红外和合成孔径雷达(SAR)成像技术。其中,可见光拥有高图像分辨率,在遥感舰船检测方面有丰富的研究成果,但可见光成像基于光线的反射,在光照不足情况下,难以看清并识别目标,在全天候检测能力方面存在不足。红外热成像通过接收目标本身和背景之间的红外辐射差而工作,被动接收辐射,隐蔽性好,安全性更强。但是红外热成像的数据集较少,且分辨率低。合成孔径雷达可以在不同的光照条件和天气下全天时、全天候工作,探测距离远,可远距离作业去提供高分辨率图像。由于光学图像和 SAR 图像的成像机制不同,基于SAR图像的舰船检测易受海浪、岛屿、陆地等回波、射频及大气噪声等海面杂波虚警干扰。

传统的基于先验知识的SAR舰船检测方法首先采用二值化、阈值分割或形态学等方法分割目标与背景区域,接着提取与识别几何和纹理特征。在船只目标几何特征明显的场景下,基于几何特征例如:面积、长宽比、紧凑度、船头形状等的分割方法效果很好。但当舰船被云雾遮挡或靠岸时,基于几何特征的分割方法并不适用,需要加入纹理特征。利用统计、几何方法、模型法和信号处理法等提取能量、惯量、熵、相关性等纹理特征,可以表达图像整体特征,具有旋转不变性以及抗干扰能力。但是,纹理特征受分辨率影响大,不同分辨率情况下,纹理特征偏差大。基于经典算子的方法主要包括目标候选区域提取和目标精细判别两部分,需要手工设计特征并分类。候选区域提取的方法通过使用描述纹理的局部二进制模式,描述特征的方向梯度直方图(Histogram of Oriented Gradients, HOG)、尺度不变特征变换(Scale-Invariant Feature Transform, SIFT)或角点提取(Harris)等手动提取特征,以降低背景对检测的干扰。接着使用支持向量机、极端学习机、K最邻近法、线性判别分析或自适应增强等算法对目标精细分类。上述传统算法针对简单场景下的目标背景分割取得了成功。但是,由于其手工特征的建立过分依赖专家经验,因此其泛化能力较弱,当舰船处于复杂的天气条件下时会遇到瓶颈。

自2014年深度学习技术火热发展,目标检测算法也从基于手工特征的传统方法转向了基于深度神经网络的检测技术,深度学习凭借强大的自动提取特征能力被广泛应用于SAR影像中的舰船检测。Zou等

1提出了改进地生成对抗网络从而生成多尺度高分辨率SAR舰船图像,与原始小样本结合训练YOLOv3模2,实现小样本下的高精度舰船检测。Chen等3提出了一种将特征金字塔模型(Feature Pyramid Networks, FPN4嵌入到传统的区域提议网络中,并映射到新的特征空间以进行对象识别。随后,基于形状相似距离度量的K均值聚类算法用于优化FPN。上述两阶段方法通常可以达到更高的检测精度,但它们的检测计算速度往往比一阶段方法慢。

You Only Look Once (YOLO)系列是经典的一阶段目标检测算法,将图像划分为网格系统的端到端的目标检测算法,可将目标检测问题转化为回归问题。Wang等

5提出了一种基于 YOLOv3 的新型检测模型,在主干网中添加了扩张卷积和残差连接以增强感受野和浅层信息,并融合了改进的FPN以获取更多层级信息,该模型对SAR图像检测的平均精准度(Average Precision, AP)提高了6.5%。Zhao等6提出了结合空间和通道注意力的金字塔模型,模型的AP相比YOLOv3提高了5.6%。但是特征金字塔网络使用金字塔来表示不同尺度的语义信息,提高了目标检测的准确性,但是网络模型复杂,参数量巨大,不能满足检测实时性的要求。Tang等7首先使用噪声级分类器和SAR目标潜在区域提取模块,然后基于YOLOv5(暂无论文,利用公开的代码进行研究)进行识别。虽然取得了不错的检测精度,但是上述方法由多个独立的模块组成,存在人工预处理和后续处理。

基于YOLO系列的目标检测算法可分为基于锚(Anchor based)、无锚(Anchor free)和两者融合类。基于Anchor based检测算法会在特征图上密集生成大量的锚框,在特征图中每个节点存储的是以该节点为中心的数个子图的特征,根据节点周围预设的子图的特征计算分类,该方法适用于密集目标的检测。而Anchor free 检测算法通过在图片中检测关键点的方法来设定锚框,根据锚框网格特征计算分类,大大减少了计算量。考虑到检测实时性的要求,我们的模型基于Anchor free的YOLOv5算法。

当SAR图像中舰船实际尺寸较小时,仅将舰船显示一个亮点,导致像素点少、对比度低的小型舰船存在漏检率高的问题。并且速度和精度之间的平衡成为舰船检测算法天基应用的难点。为了获得更高的检测精度和更快的识别速度,本文提出了一种改进的SAR舰船检测模型(ImShips)。针对船体大小差异导致的漏检问题,使用了不同大小感受野的扩张卷积(Dilated Conv)和轻量化的通道注意力机制(SElayer)去筛选更重要的舰船特征。为了满足星载实时性检测的要求,结合了深度可分离卷积(DWConv)对模型进行压缩,大大减少了模型复杂度与推测时间。

1 海面舰船检测轻量化模型

1.1 回归模型概述

由卷积神经网络的性能优良的驱动,基于深度学习的检测模型已经成为解决舰船检测问题的新方法。根据是否生成提议区域进行分类,基于深度学习的检测方法可以大致分为:一阶段和两阶段的检测方法。两阶段的经典检测方法包括:R-CNN

8,Fast R-CNN9和Faster R-CNN10。一阶段的经典检测方法包括:SSD11,RetinaNet12和YOLO系列。两阶段检测模型可提供较高的定位精度,而一阶段检测模型在速度方面具有绝对优势。因此,为了保证识别的实时效果,我们采用一阶段法对舰船进行检测。

YOLO系列模型在深度学习目标检测领域的准确率和速度综合表现最好。YOLOv5在YOLOv4

13的基础上,结合EfficientDet14中的复合模型缩放方法,可以动态平衡模型参数的精度、速度和数量。在实时海洋观察和及时舰船救援的一些实际应用中,提高舰船检测速度与提高检测精度同等重要。为了保证模型在边缘计算设备上部署时的实时推理速度,我们的模型基于计算机视觉实时应用首选YOLO系列,实现了针对SAR图像快速多尺度舰船目标检测。所提出的总体框架如图1所示。首先输入端采取了Mosaic数据增强、自适应锚框计算、自适应图片缩放,丰富了数据集,使网络的鲁棒性更好。骨干网(Backbone)中使用了Focus结构、GhostBottleneck结构和CSP结15,以及针对不同尺度目标设计的Dilated Conv模块和SElayer模块,在第1.2和1.3节中进行了详细介绍。Focus结构中,首先对640×640×3的输入图片采用切片操作,输出320×320×12的特征图,再经过一次32个卷积核的卷积操作,最终变成320×320×32的特征图。特征融合网络(Neck)中,利用FPN4、PAN13和改进的上采用结构DWConv模块在修改后的网络不同阶段提取多尺度信息,轻量化处理的DWConv模块在1.4节中进行了详细介绍。

图1  轻量化回归模型ImShips

Fig. 1  Lightweight regression ImShips model

1.2 扩张卷积Dilated Conv模块

池化操作增大了感受野但是降低了分辨率,导致检测精度低。而扩张卷

16在不降低空间维度的前提下增大了相应的感受野指数,提高感受野,即空间上融合更多特征融合,可以提取多尺度空间信息。因此,在网络顶部,原YOLOv5s模型中的标准卷积被替换为扩张卷积层。扩张卷积公式如(1), 其中,F为离散函数,*l为扩张卷积,K为离散滤波器,s为步长,l为空洞因子,t为自变量,F(s)为步长为s的离散卷积,K(t)为自变量为t的离散滤波器。扩张卷积感受野公式如(2), 其中,RFi-1为上一层的感受野,k为卷积尺寸。膨胀的卷积核将原卷积核不占用的位置填充为0,膨胀后的卷积核尺寸计算公式如(3)。

我们的骨干网络由各种膨胀率的卷积层的几个分支组成,有利于提取具有大纵横比的舰船特征并通过其全局依赖性增强局部特征。骨干网络底部感受野小,可以保留更多的图像细节,有利于小目标的特征提取。网络顶部感受野大,保留了较多的语义特征,有利于大目标的特征提取,有效提高了ImShips模型对不同尺度舰船的特征提取效果。

(F*lK)(s+lt)=s+lt=pF(s)K(t) (1)
RFi=RFi-1+(k-1)×s (2)
kernel_dilation=dilation*kernel-1+1 . (3)

1.3 通道注意力SElayer模块

图2hh+1层卷积神经网络所示,每个神经元可以被看作一个滤波器,前一层输入的特征图wiwj通过滤波器和窗口滑动,计算输出的新特征图FiFj。卷积是对局部区域进行空间和通道间的特征融合,而普通的卷积操作默认对输入特征图的所有通道进行相加融合,并没有考虑通道间的关系。如公式(4)*表示标准卷积操作,Ftr:XU为卷积映射,X为输入,输出为U=[u1,u1,...,uc]RH×W×C,卷积核为V=[v1,v1,...,vc]vc表示第c个卷积核,vcs表示s个通道的2-D卷积核。

图2  SElayer模块

Fig. 2  SElayer module

软注意机

17起源于人类视觉系统,用于定位目标最显著的特征,消除计算机视觉任务的冗余,包含空间注18、通道注意和混合模19。在空间注意模块中,将图像中的空间信息转化为掩模,然后对其进行评分,提取关键信息。但是,空间注意模块对每个通道中的图像特征的利用是均等的,因此忽略了通道信息,仅局限于原始图像特征提取阶段。在混合模块同时对通道注意和空间注意进行评分,但是所需计算量较大。2017年,SENet20关注了通道之间的关系,可以自动学习到不同通道特征的重要程度,该模型赢得了ImageNet大型视觉识别挑战赛 (ILSVRC2017)的冠军。我们考虑到YOLOv5s不能很好地解决小型舰船的物体检测问题,尤其是在场景有干扰或阴天有雾的情况下。受注意力机制可以增强重要信息的启发,我们利用SElayer模块改进骨干网络,从而抑制环境引起的干扰,进一步提高网络对小目标的检测能力。第一步,利用全局平均池化操作将某个通道的空间特征压缩为全局特征,得到向量Z,如公式(5)。值得一提的是第二步,为了降低模型复杂度,在选择不同通道的权重值时,首先使用一个全连接层以降维系数r对向量W1降维,然后使用ReLU函数激活,接着使用全连接层恢复原始的维度,最后利用sigmoid函数σ激活,如公式(6)。第三步将权重值与原始输入U相乘,如公式(7)。轻量级的SElayer模块提升了模型对通道特征的敏感性,应用在ImShips的骨干网络和特征融合网络中,在只增加了较少的计算量的情况下,增强了对小规模舰船空间信息的获取和检测性能。

uc=vc*X=s=1C'vcs*xs,XRH'×W'×C' (4)
zc=Fsq(uc)=1H×Wi=1Hj=1Wuc(i,j),zRc (5)
s=Fex(z,W)=σ(g(z,W))=σ(W2ReLu(W1z))W1RCr×CW2RC×Cr (6)
χ˜c=Fscale(uc,sc)=scuc. (7)

1.4 深度可分离卷积DWConv模块

为了应对地面基站数量、存储空间和计算资源有限,平衡星载舰船检测的精度和速度,我们提出了一种基于轻量级回归算法的星载图像舰船检测的框架。基于MobileNet网

21中的组卷积和深度可分离卷积对通道进行分组,有效减少了卷积计算量,我们利用深度可分离卷积代替标准卷积去减少参数。假设输入特征图尺寸为Cin×H×W,卷积核大小为Cin×K×K,输出通道数为Cout。DWConv模块的第一步是:保持输入输出特征图通道数不变的情况下,对于输入特征图的每个通道,通过一个尺寸为K×K的逐深度卷积核,这一过程所需的计算量为Cin×K×K。第二步是:通过尺寸为Cin×1×1的逐点卷积核实现通道数改变,所需计算量为Cin×1×1×Cout。因此,深度可分离卷积与标准卷积的计算量比值如公式(8),本文使用的卷积核大小为3×3,因此深度可分离卷积的计算量约为标准卷积的九分之一到八分之一。随着要提取的特征越来越多,使用DWConv模块代替标准卷积(Conv)大大节省了计算资源,有利于提高检测速度。

Param_DWConvParam_Conv=Cin×K×K+Cin×1×1×CoutCin×K×K×Cout=1Cout+1K×K. (8)

图3  DWConv模块

Fig. 3  DWConv module

2 实验分析与讨论

2.1 数据

该实验采用了公开的SAR图像舰船目标检测数据集(SAR Ship Detection Dataset, SSDD

22)和高分辨率SAR图像ISSID23数据集。SSDD数据集包含2456个舰船,舰船目标长或者宽度所占图像尺寸的比例在0.04~0.24范围内,比模式分析、统计建模和计算学习(Pattern Analysis, Statistical Modelling and Computational Learning, PASCAL VOC)竞赛数据集的0.2~0.9要小很多,包含小型船只。ISSID数据集包含5498张1m、3m、5m和7m分辨率的SAR图像和15136艘舰船。

2.2 评价函数

准确率(Pr.)和召回率(Re.)是模型性能两个不同维度的度量,所需的混淆矩阵如表1。准确率表示预测结果中,预测为正样本的样本中,正确预测为正样本的概率,如公式(9)。召回率表示在原始样本的正样本中,最后被正确预测为正样本的概率,如公式(10)。平均精准度(AP)是P-R曲线下围成的面积,使用积分来进行计算,如公式(11)。参数量(Para.)、浮点计算数(FLOPs)衡量卷积网络的复杂度,无偏差时如公式(12-13)。帧频(Frame)、推测时间(Tmean)衡量网络速度。综上,准确率、召回率、平均精准度和帧频越高,参数量、浮点计算数和推测时间越低,模型性能越好。

表1  混淆矩阵
Table 1  Confusion matrix
真实分类实验预测分类
船体背景
船体 TP FN
背景 FP TN

其中,TP(True Positive)为真阳性,TN(True Negative)为真阴性,FP(False Positive)为假阳性,FN(False Negative)为假阴性。kH×kW×Cin为卷积核大小,Cout为输出通道数,g为分组卷积组数,Cout×Hout×Wout为输出数据点。

Precision=TPTP+FP (9)
Recall=TPTP+FN (10)
AP=01p(r)dr (11)
Para.=kH×kW×Cin/g×Cout (12)
FLOPs=(2×kH×kW×Cin/g-1)×Cout×Hout×Wout. (13)

2.3 实验结果与分析

我们的实验基于台式计算机,使用NVIDIA- smi 470.57.02,驱动版本为470.57.02,CUDA版本为11.4,NVIDIA RTX 3070 GPU,Pytorch框架。我们利用SGD优化器来更新网络权重。网络的初始学习率设置为前100次迭代的0.01,后100次迭代的0.001。优化器的重量衰减为0.001,动量为0.98。

表2所示,ImShips模型的网络层数为390,网络参数为414万,每秒可处理帧数为119.18帧。我们的模型虽然加入了一些网络层数,但是网络参数比YOLOv5s减小了43.13%,比YOLOv5x减小了95.28%。如表3所示,通过比较,我们发现YOLOv5m、YOLOv5l和YOLOv5x随着网络参数加深,准确率、召回率和平均精准度都在下降,我们分析其检测效果并不理想的原因如下。首先,训练YOLOv5模型时,图片尺寸设置为S并不会影响任意尺寸图像的检测,这个数值设置的目的是使输入图像先被重新调整成大小为S×S的特征图,满足检测网络结构,最后再重新调整成原始图像尺寸进行显示。我们综合考虑了YOLOv5m、YOLOv5l和YOLOv5x所需算力与GPU运算能力的限制,训练上述模型时,图片尺寸(IS)被设置为320,批处理大小(BS)为8。而针对轻量化模型ImShips和YOLOv5s训练时,在台式计算机运算能力可以保证训练的情况下,我们设置图片尺寸为640,批处理大小为32。随着图片尺寸增大,纹理和上下文信息等判别性特征会被更好地捕捉。其次,在一定范围内,批处理大小越大,其确定的下降方向越准,引起训练震荡越小,可能也对模型训练产生了影响。最后,当 SAR 图像中舰船实际尺寸较小时,可能仅将舰船显示为 SAR 图像中的一个亮点,在通过CNN模型时,深度卷积层可能会丢失小船有用的特征信息,从而导致漏检和误报。因此,YOLOv5m、YOLOv5l和YOLOv5x并不适用于SAR舰船检测。

表2  模型参数
Table 2  Model parameter
ModelLayersPara. /MillionFrame
ImShips

390

283

4.14 119.18
YOLOv5s 7.28 109.27
YOLOv5m

391

499

607

21.38 85.10
YOLOv5l 47.06 74.77
YOLOv5x 87.78 54.07
表3  模型评价
Table 3  Model evaluation
ModelISBSPr. (%)Re. (%)AP (%)GFLOPsTmean
ImShips 640 32 97.18 98.94 98.68 9.3 8.39
YOLOv5s 96.55 97.91 97.46 17.1 9.15
YOLOv5m 320 8 89.10 93.35 91.70 51.4 11.75
YOLOv5l 86.44 93.90 91.54 115.6 13.37
YOLOv5x 84.07 92.48 89.60 219.0 18.49

我们的模型和YOLOv5s模型表现出了针对SAR图像舰船检测的优越性。与YOLOv5s相比,ImShips模型的准确率提高了0.65%,召回率提高了1.05%,AP提高了1.25%,所需的浮点计算数减少了45.61%,推断时间减少了8.31%,平均推断时间检测的图片大小大约为400×300,如表3所示。ImShips模型有效提高了海面物体检测任务的速度和准确度。

图4(a),我们的模型在对比度高的简单背景影像中,检测效果非常好,不受较大的海面杂波影响。如图4(b-j),ImShips模型可以解决针对复杂背景SAR图像中,包括靠岸区域、河道、港口小目标和多目标舰船检测。如图4(k)体现出了我们的模型针对舰船目标尺寸差异过大的问题,检测性能表现良好。针对复杂背景目标检测,传统方法要进行海陆分割才能进行检测,而ImShips模型针对SAR图像中多个小型舰船目标的检测,在简单场景和复杂场景中,包括舰船处于大片海域、靠岸区域、河道、港口,检测性能依旧优越。但是我们的模型也存在少量的虚警,我们分析了图4(g)右上角的陆地虚警,考虑到是图像输入尺寸太小,限制了网络检测的能力。图4(k)最上方置信度为0.30的框中,包含了两个紧邻的船只被检测为一个船只,我们分析可能的原因有数据集包含的舰船类型不够丰富,以及网络特征提取能力还需增强,我们的模型还需要提高针对紧邻目标的分辨能力。

图4  针对简单背景:(a)大片海域,和针对复杂背景:(b-g)靠岸区域,(h)河道,(i,j)港口,(k)多尺度船体大小的SAR图像回归预测结果

Fig. 4  Regression prediction results of SAR images with simple background: (a) wide sea, and complex background: (b-g) shoreside, (h) river channel, (i, j)port, (k) different hull sizes

3 结语

实验结果表明,我们的模型针对SAR舰船检测SSDD和ISSID数据集具有优越性,改进后的ImShips模型在比YOLOv5s模型的权重数减少了45.61%,检测速度提高了8.31%,平均精准度提高了1.25%。ImShips模型网络规模更小,实时性更好,有效提高了海面物体检测任务的速度和准确度。通过大量文献调研,我们对星载SAR舰船探测所面临的挑战做了以下总结:1)陆海分割不正确,在陆海交界处容易产生过多的误报。2)SAR图像中复杂的背景,例如噪声,云层和礁石等,很容易干扰大小不同的舰船目标。3)船只的外观和大小各异,小型船只难以被准确地定位和检测。4)在资源有限的星载实时应用中,算法的检测性能和计算复杂度难以平衡硬件资源的存储空间。5)数据集较少,标注工作量巨大,尤其是被旋转边框标注的图像。由此,我们接下来的工作将会着重于制作旋转框数据集,或者标注所需工作量更大的语义分割数据集,并合理部署轻量化模型到硬件平台。

References

1

Zou LZhang HWang Cet al. MW-ACGAN: Generating Multiscale High-Resolution SAR Images for Ship Detection[J]. Sensors2020206673. 10.3390/s20226673 [百度学术] 

2

Redmon JosephFarhadi Ali. YOLOv3: An Incremental Improvement[C]. Computer Vision and Pattern RecognitionApril 2018. 10.1109/cvpr.2018.00430 [百度学术] 

3

Chen PLi YZhou Het al. Detection of Small Ship Objects Using Anchor Boxes Cluster and Feature Pyramid Network Model for SAR Imagery[J]. Mar. Sci. Eng. 20208112. 10.3390/jmse8020112 [百度学术] 

4

Lin TDollár PGirshick Ret al. Feature Pyramid Networks for Object Detection[C]. Computer Vision and Pattern Recognition2017, . 936-944. 10.1109/cvpr.2017.106 [百度学术] 

5

Wang JingpuLin YouquanGuo Jieet al. SSS-YOLO: towards more accurate detection for small ships in SAR image[J], Remote Sensing Letters2021, 12:293-102 [百度学术] 

6

Zhao YZhao LXiong Bet al. Attention Receptive Pyramid Network for Ship Detection in SAR Images[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing202013 2738-2756. 10.1109/JSTARS.2020.2997081 [百度学术] 

7

Tang GZhuge YClaramunt Cet al. N-YOLO: A SAR Ship Detection Using Noise-Classifying and Complete-Target Extraction[J]. Remote Sens. 2021, 13, 871,. 10.3390/rs13050871 [百度学术] 

8

Girshick RDonahue JDarrell Tet al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]. Computer Vision and Pattern Recognition2014580-587. 10.1109/cvpr.2014.81 [百度学术] 

9

Girshick R. Fast R-CNN[C]. IEEE International Conference on Computer Vision (ICCV)20151440-1448. 10.1109/iccv.2015.169 [百度学术] 

10

Ren SHe KGirshick Ret al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence2017, 39(61137-1149. 10.1109/TPAMI.2016.2577031 [百度学术] 

11

Liu WAnguelov DErhan Det al. SSD: Single Shot MultiBox Detector[C]. Computer Vision (ECCV) Lecture Notes in Computer Science2016,. 9905,. 10.1007/978-3-319-46448-0_2 [百度学术] 

12

Lin TGoyal PGirshick Ret al. Focal Loss for Dense Object Detection[C]. IEEE International Conference on Computer Vision (ICCV)20172999-3007,. 10.1109/iccv.2017.324 [百度学术] 

13

Bochkovskiy AWang CLiao H. YOLOv4: Optimal Speed and Accuracy of Object Detection[C]. Computer Vision and Pattern Recognition2020,. 10.1109/cvpr46437.2021.01283 [百度学术] 

14

Tan MingxingPang RuomingQuoc V. Le. EfficientDet: Scalable and Efficient Object Detection[C]. Computer Vision and Pattern Recognition27 Jul 2020. [百度学术] 

15

Han KWang YTian Qet al. GhostNet: More Features From Cheap Operations[C]. Computer Vision and Pattern Recognition20201577-1586,. 10.1109/cvpr42600.2020.00165 [百度学术] 

16

Yu FKoltun V. Multi-Scale Context Aggregation by Dilated Convolutions[C]. International Conference on Learning Representations (ICLR)2016. 10.1109/cvpr.2017.75 [百度学术] 

17

Li LXu MLiu Het al. A Large-Scale Database and a CNN Model for Attention-Based Glaucoma Detection[J]. IEEE Trans. Med. Imaging201939413424, . 10.1109/tmi.2019.2927226 [百度学术] 

18

Woo SPark JLee Jet al. CBAM: Convolutional Block Attention Module[C]. the European Conference on Computer Vision (ECCV)2018. 10.1007/978-3-030-01234-2_1 [百度学术] 

19

Li XWang WHu Xet al. Selective Kernel Networks[C]. Conference on Computer Vision and Pattern Recognition2019. 10.1109/cvpr.2019.00060 [百度学术] 

20

Hu JShen LAlbanie Set al. Squeeze-and-Excitation Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence2020. 42, (8):2011-2023, ,. 10.1109/tpami.2019.2913372 [百度学术] 

21

Howard ASandler MChu Get al. Searching for MobileNetV3[C]. IEEE/CVF International Conference on Computer Vision (ICCV)2019,,1314-1324,. 10.1109/iccv.2019.00140 [百度学术] 

22

Yang XSun HFu Ket al. Automatic Ship Detection in Remote Sensing Images from Google Earth of Complex Scenes Based on Multiscale Rotation Dense Feature Pyramid Networks[J]. Remote Sens. 201810132. 10.3390/rs10010132 [百度学术] 

23

Wei SZeng XQu Qet al. HRSID: A High-Resolution SAR Images Dataset for Ship Detection and Instance Segmentation[J]. IEEE Access2020,,8120234-120254,. 10.1109/access.2020.3005861 [百度学术]