《基于卷积神经网络的星图弱小目标检测》论文精读
Dim small target detection based on convolutinal neural network in star image
摘要
由于低信噪比目标和复杂背景,星图中弱小目标的检测是一项具有挑战性的任务。本文提出了一种深度学习方法,用于在背景不均匀和不同类型的噪声下检测单帧星图中的弱小目标。我们提出了一种完全卷积神经网络来实现像素级分类,可以在一个阶段快速完成目标与背景的分离。为了训练这个网络,我们还构建了一个合成的星图数据集,该数据集涵盖了各种噪声和背景分布。该数据集提供的目标区域和质心位置的精确注释使监督学习方法成为可能。实验结果表明,所提出的方法在更高的检测率和更少的噪声引起的误报方面优于最先进的方法。
1 简介
超过一亿块太空垃圾或“太空垃圾”正在绕地球运行,但只有大约 50 万块被追踪到 [23]。其中一些碎片的速度高达 17,500 英里/小时,足够小的轨道碎片损坏航天器。越来越多的太空垃圾对许多重要的航天器构成威胁。为了降低太空垃圾的风险,科学家使用地面[16, 17]和卫星望远镜[15]拍摄的视频或图像来分析碎片,推断它们的大小、轨道和其他有用信息。然而,相当远的距离和小尺寸的碎片使传感器检测到的信号相当微弱。
与一般的物体或显着性检测任务不同,开发强大的碎片检测的主要挑战是将暗淡的小目标与星图的其他元素区分开来。首先,碎片仅占用整个图像中的少量像素。如图 1a 所示,中心的 9 像素暗目标甚至比周围的噪声更暗。此外,光学系统的过采样会导致成像过程中的信息丢失,而这些信息无法完全恢复。其次,目标的亮度从极暗到非常亮不等,有些甚至饱和。较大的碎片总是更亮,可以通过适当的阈值或基于滤波器的方法 [16, 18] 轻松地与背景区分开来,而暗小碎片的信号总是被明亮的星星或背景噪声淹没。第三,太空环境和设备引入的各种噪声降低了碎片的信噪比,例如,传感器噪声(图 1b)和不均匀的背景照明(图 1c)。其他尖峰噪声,如热像素(图 1d)和宇宙射线(图 1e)总是导致误报。
星空背景下的运动目标检测方法主要分为两个阶段:单帧中的潜在目标检测[6]和连续帧中的数据关联[2, 38]。连续检测方法基于每帧中潜在目标和背景的先验信息进行处理。这意味着连续方法的能力通常取决于单帧检测的结果。然而,低信噪比目标总是在第一阶段丢失。因此,本文重点研究单帧中低信噪比的潜在目标检测问题。潜在目标包括星星和移动碎片,需要通过连续帧中的
不同运动特征来区分它们。
与使用边界框勾勒目标区域的一般物体检测任务[11, 30]不同,我们需要更精确的目标位置来计算其天文位置,以便进一步预测其轨道。因此,在我们的工作中,我们通过每帧的分割图来检测暗淡的目标,该图给出了目标的更精确的轮廓,这有助于提高质心定位的精度。
到目前为止,该领域的大部分工作都集中在去噪[24,34]和背景去除[16]上。经过复杂的预处理后,可以通过设计的滤波器[5,16]、阈值[8,18,27]或低秩表示[4,13,40]来检测目标。尽管进行了这些研究,但在星图中检测极暗的小目标仍然是一项具有挑战性的任务。我们的方法借鉴了深度网络在语义分割方面的最新成功经验。我们在本文中做出了以下贡献:
– 我们构建了一个带标签的合成星图像数据集,其中包含不同类型的噪声和背景分布。合成星图像提供了目标区域和质心位置的精确注释,作为评估的参考。我们在仅由合成数据集训练的真实图像上测试了网络,证明了合成图像具有与真实星图像相似的特征。
– 我们设计并训练了一个轻量级的全卷积神经网络,以获得单帧的像素级分割结果。该方法利用不同尺度的图像特征快速实现端到端的目标-背景分离。
– 在不同星图像数据集上对所提出的网络模型进行了实验验证。与最先进的方法相比,我们提出的模型实现了更好的背景抑制和目标检测性能,尤其是更高的检测率和更少的噪声引起的误报。
本文的其余部分组织如下。首先,第 2 节介绍了单帧小目标检测的相关工作。其次,第 3 节介绍了我们提出的方法,包括网络架构、训练和数据集生成。最后,第 4 节阐述了实验结果和结论。
图 1 小目标及不同噪声对弱目标检测的影响示例
2 相关工作
单帧小目标检测 先前提出的单帧小空间目标检测方法大致可分为两类:包括一系列预处理的多阶段目标检测和直接从图像中分离目标的单阶段目标检测。
在第一类中,为了消除噪声的干扰并提高弱小目标的信噪比,根据不同类型噪声的特点设计了各种去噪方法。这些方法逐步执行以消除各种噪声的干扰。噪声尖峰(例如热像素)的共同特征是单个像素具有远高于背景噪声主分布的异常亮度,因此可以识别和去除它们[9, 16]。宇宙射线通过其锐利的边缘[24, 34]和它们在不同图像中出现的随机位置[35]来去除。由于图像背景非常平滑,可以用多项式拟合建模,因此对不均匀的背景光照进行拟合并从原始图像中减去[16]。得益于去噪过程,目标得到增强,然后可以通过不同尺度的匹配滤波技术[5, 16]或其他基于阈值的方法[8, 18, 27]更容易地检测目标。虽然多阶段过程在每一步都取得了最优结果,但噪声的错误检测可能会导致后续步骤中的伪影,特别是当噪声尖峰靠近目标时。当所有这些噪声一起出现时,单帧的处理速度也会变慢。
第二类单帧小目标检测方法侧重于单阶段目标-背景分离,这还没有得到广泛的探索。一些方法利用背景斑块的非局部自相关特性,假设所有背景斑块来自单个子空间或低秩子空间聚类的混合,因此可以通过低秩矩阵恢复实现目标与背景分离 [4,40]。为了正确检测位于高度异构背景中的小目标,何等人 [13] 在多子空间聚类假设下提出了一种低秩稀疏表示模型。本质上,这类方法试图将小目标建模为输入数据中的异常值,但在许多情况下无法将尖峰噪声与目标区分开来。此外,受到基于提取可区分特征的语义分割方法的启发,我们将 texton-boost [28] 应用于小目标检测任务。由包含不同尺度和方向的高斯滤波器、LoG 滤波器和 Gabor 滤波器的滤波器组提取的特征用于训练 SVM 以实现像素级分类 [33]。然而,人工设计的滤波器有一些局限性,例如,当漫画射线的形状和分布与目标相似时,它会失效。
全卷积网络:近年来,卷积神经网络(CNN)在高级视觉任务上取得了显著成果,例如行人识别或场景标记[31]。深度网络也被证明在较低级别的视觉任务中表现同样出色,例如图像去模糊[10]或边缘检测[1,25]。深度卷积网络通过具有不同接收场的滤波器提取局部和全局特征,滤波器的参数经过训练以学习物体的可区分特征,这些特征比人工特征更好。Sheldhamer等人[20]提出了端到端的全卷积网络(FCN),在自然图像上实现了逐像素分类。FCN仅使用较高层中的特征,因此由于下采样而丢失了小物体和细节。在我们的任务中,挑战在于如何通过CNN可靠地检测非常低SNR的小斑点。
类别平衡:在我们的任务中,背景和目标的像素数量差异很大。通常,采用两种方法来处理不平衡数据。基于数据的方法旨在改变训练数据分布,以为每个类别学习同样好的分类器,通常通过随机欠采样[12]或过采样技术,例如SMOTE [3, 21]。随机欠采样会大大减少训练数据的数量,并可能导致欠拟合,而过采样可能导致过拟合。基于权重的方法通过调整错误分类成本在算法级别运行[12, 20, 25]。训练示例根据其频率被赋予更高的权重,迫使网络学习困难示例。
3 提出的 StarNet
3.1 网络架构
我们的网络架构如图 2 所示。与大多数用于语义分割的深度网络一样,我们提出的网络由一条收缩路径(左侧)和一条扩展路径(右侧)组成 [1, 19, 25],收缩路径中的层提取不同尺度的图像特征,而扩展路径中的层将特征组合在一起并输入到 Softmax 分类器进行像素级分类。我们的网络是一个端到端模型,其输入和输出是相同大小的原始星图及其分割图。不需要额外的操作。
图 2 所提出的 StarNet 架构图
收缩路径遵循卷积网络的典型架构。由于光学系统的点扩展函数旨在将光斑的能量限制在相对较小的区域内 [7],大多数移动目标和星星的范围至少为 9 个像素到 100 个像素左右。过多的池化层会导致目标的微弱小特征丢失,因此我们仅使用 VGG16 [29] 中的前三个卷积层单元、整流线性单元 (ReLU) 和最大池化层。它包括重复应用 3 × 3 卷积,每个卷积后跟一个 ReLU 和一个 2×2 最大池化操作,步长为 2,用于下采样。在每个下采样步骤中,特征通道数加倍。然后我们使用 7 × 7 × 1024 卷积和 1 × 1 × 1024 卷积,每个卷积后跟一个 ReLU、一个批归一化层和一个 Dropout 层。仅在输入层应用填充以保留图像边缘的小目标,其中大小为 30。
在扩展路径中,不同尺度的特征图融合在一起,并通过反卷积和裁剪恢复到与输入图像相同的大小。在扩展路径中的每一步,都使用 1×1 卷积将每个特征向量映射到所需的类别数。然后对得分图进行上采样,然后进行 2×2 反卷积(上卷积),由于我们在输入层中添加了填充,因此需要进行裁剪。我们在每个训练阶段通过逐步将三个尺度的得分图相加来融合它们。在每个阶段,我们使用先前训练模型的参数来初始化模型并对其进行调整以优化细节。在实验中,我们仅展示网络在第二阶段(StarNet-2)和第三阶段(StarNet-3)的结果。在最后一层,融合的得分图被上采样并裁剪为与输入图像相同的大小。网络没有任何完全连接的层。
与 FCN 相比,我们架构中的一个重要修改是我们使用低级特征并降低网络深度,这对于暗化小目标非常重要。在上采样部分,我们只有很少的特征通道,这减少了模型的参数数量。在三个训练阶段,逐像素细节,特别是低级特征得到了加强,因为我们的问题的主要困难是检测极暗和小目标。此外,3×3 卷积滤波器仅计算每个中心像素相邻的 8 个像素,因此它不仅降低了计算复杂度和参数数量,而且还适应小目标。
3.2 星图数据集
3.2.1 真实星图标注
星图可以在 NASA [22] 和 SuperCOS MOS [26] 等在线开源资源中获取。然而,这些星图没有标注,SuperCOSMOS 数据库中的图像(图 3a)由于图像压缩而丢失了一些信息。一些星图,例如图 3b 中哈勃望远镜拍摄的图像,通过专业的天文图像处理软件进行了手动增强,使其更适合人眼。此外,很大一部分图像是关于特定天文现象的,例如星云。如图 3c 所示,朱诺号航天器拍摄的图像中的亮带是土星环。这类图像的特征各不相同,并不总是包含空间碎片。因此它们不能反映原始图像的真实特征。
对于真实的原始星空图像,我们通过星空识别算法[27]检测真实星空图像中的星星,然后通过(1)定义的二维高斯函数拟合星点,标记每个目标的区域。
其中系数 A 为振幅。(xc, yc) 表示星斑的中心位置,σx , σy 为斑点的扩展,σx = σy = σ。然后我们标记距离中心位置 (xc, yc) 为 2σ 范围内的星斑区域。
图 3 来自在线数据库的真实星图
3.2.2 合成图像生成
为了解决标记图像数量有限的问题,我们还模拟了星像来扩大训练集。合成图像中的目标由(1)中定义的二维高斯函数生成。我们将质心位置(xc,yc),振幅A和σ限制在适当的范围内。然后加入几种噪声,包括传感器噪声,热像素,漫画射线和不均匀的背景照明。
传感器噪声主要由CCD暗电流噪声(几乎是高斯噪声),读出系统在采集时产生,部分由光子噪声(泊松噪声)产生[17]。这类噪声分布在整个图像上,并剪辑到大约±2σn,其中σn表示传感器噪声的标准偏差。此外,热像素是亮度远高于传感器噪声主要分布的单个像素。信号通常在 3σn 以上被大幅削减,通常高达 10σn 以上。
漫画射线噪声是由空间中的粒子引起的。在星像中,它们表现为亮点或条带,看起来与明亮目标相似。不同图像中的位置、数量和强度是随机分布的。比较捕捉天空同一区域的多帧是去除漫画射线最可靠的方法 [24]。即使有同一区域的连续帧,移动目标也可能被错误地视为漫画射线。漫画射线独特的空间分布使得很难通过数学分析模型来制定漫画射线。因此,我们通过多帧匹配从真实星像中提取漫画射线,并将它们随机添加到合成图像中。
此外,还应用随机镜像、随机调整大小(0.5-1.5)和随机旋转(0-180 度)来增加漫画射线的数量。
背景不均匀的主要原因是杂散光。根据 [17],Levesque 等人分别应用迭代多项式拟合来模拟行轴和列轴上的背景分布。在我们的工作中,我们使用三阶多项式来模拟背景。
其中 (xb, yb) 为星图像素的坐标,P0 至 P3 为决定梯度变化及像素灰度的参数。
合成图像(图 4a、c)的真值由与合成图像大小相同的注释(图 4b、d)和记录每个目标的质心坐标、SNR 的文件组成。我们标记从 nσ 到中心位置 (xc, yc) 的距离内的目标区域。在我们的实验中,n = 2 可获得最佳结果。2σ 内的区域包含斑点的约 95.4% 能量,当目标非常小且微弱时,注释将保留一个以上的像素。除了可以灵活地添加不同类型的噪声外,合成图像的另一个优点是我们可以得到目标斑点的准确质心位置,这在评估目标的定位精度时更具说服力。我们的合成数据集包含具有多重噪声和非线性背景的图像(图 4a)以及没有尖峰噪声的相对平坦的图像(图 4c)
3.3 starNet 的训练
本文提出的网络经过训练,可对图像进行分割。给定一个输入图像,我们应用训练好的网络直接获取图像的二值分割图。0 表示背景,1 表示目标,所有噪声均视为背景。每个连通区域均视为一个目标。
3.3.1 处理不平衡
我们的任务中的分类是一个极不平衡的问题,因为属于目标和背景的像素数之比约为 0.5% 到 2%。受 U-net [25] 的启发,我们为训练数据集中的每幅图像生成一个权重图,以补偿每个类别中像素的不同频率,并迫使网络学习暗淡目标的特征。权重图的计算方式如下
其中像素位置x∈⊂Z2,表示图像空间,xc是目标点的中心位置。wf(x)是平衡类频的权重图,而G(x)=exp−(x−xc)2/2σ2w表示每个目标的分布。σw=σ的值取决于目标的尺度。对于合成图像,每个目标的σ是已知的,而对于真实图像,我们用(1)中的高斯函数拟合斑点得到σ。在我们的实验中,我们设置w0=50,信噪比较低的目标比明亮的目标损失更大。
图 4 合成星图及其注释
3.3.2 损失函数
我们使用逐像素的 softmax 分类器来预测具有交叉熵损失的类标签 [25]。损失是对小批量中的所有像素求和。交叉熵使用 Ci 的偏差惩罚每个像素
其中 Ci = ezi / cezi,c 是每个阶段融合得分图下像素 i 处的类别预测,C∗ 表示每个像素的标签。wi 是权重图中像素 i 的权重,我们引入该权重图来平衡训练中不同频率的类别
3.3.3 训练细节和实施
我们基于 Caffe 库 [14] 实现了所提出的网络。采用高动量 (0.99) 的标准随机梯度下降 (SGD) 进行优化,使得大量先前看到的训练样本决定当前优化步骤中的更新。我们使用在 ILSVRC [29] 数据集上预训练的 VGG16 层网络初始化分类网络的权重。训练集包含 600 张合成图像 (256×256 像素)。当我们使用完整注释和权重图训练深度网络时,在第一阶段训练网络时,网络在大约 30K 次 SGD 迭代后收敛,批处理大小为一个示例。在单个 NVIDIA Tesla K80 GPU 上训练大约需要 12 个小时。平均每个训练阶段需要 4 个小时,第二和第三阶段需要更短的时间。在每个阶段,我们融合下层的得分图,并利用前一阶段的模型参数初始化网络进行训练。
4 实验
我们在大量合成和真实星图上测试了所提出的模型,以覆盖不同程度的噪声,从具有突出目标的平坦背景到具有极其暗淡目标的复杂背景。测试图像选自上一节中提到的数据集。所有目标均在像素级上标记。当前小目标检测的最大困难是如何检测出那些具有强烈杂波的非常暗淡的目标,以及如何提高质心位置的精度。在那些极其复杂的图像上获得良好的检测性能比在相对简单的图像上获得令人满意的结果更有说服力。因此,在接下来的实验中,我们的主要重点是图 6 和图 7 所属的具有不同类型噪声的图像。
4.1 指标
我们采用两种标准来评估准确度,包括像素级和目标级。我们报告了常见的像素级语义分割评估指标,包括每类准确度、平均准确度和区域交并比平均值(IU)[20]。设 nij 为预测属于类 j 的类 i 的像素数,其中有 k 个不同的类。
在目标级评估方面,我们计算检测率和误报率,其中nd 、 nf 、 nr 分别为正确检测到的目标、误报和真实目标的像素数。令 (xp, yp)、(xr, yr) 分别为目标的预测和真实质心位置。
我们用信噪比(SNR)来表示目标的暗淡程度,其中μT,μB分别为星区和邻近背景区域的平均灰度,σB表示邻近背景区域灰度的标准差,如图5所示。目标区域相邻矩形和较大矩形之间的阴影区域被视为背景。在图像中,SNR与目标的大小呈线性关系。在我们的实验中,我们通过注释中标记的区域计算每个目标的SNR,并设置r = 5以获得μT,μB和σB。
我们还计算了弱小目标的结果。Pd dim,Ec dim分别表示弱小目标(SNR<3)的检测率和质心定位误差。
图 5 目标信噪比计算示意图
4.2 实验结果
在本小节中,我们将通过验证其对不均匀背景和噪声情况的鲁棒性来仔细研究所提出的方法。我们比较了两种基于阈值的方法,包括 Otsu 方法 [36] 和自适应局部阈值分割 (ALTS) [32, 37]。Otsu 算法计算将两个类分开的全局最优阈值,以使它们的类间方差最大。ALTS 将图像划分为几个矩形窗口,并计算局部阈值,这可以对不均匀的背景更具鲁棒性。我们说明了两种网络:所谓的 StarNet-2 结合了第二和第三个卷积组的特征图,而 StarNet-3 结合了所有三个卷积组的特征图。
基于阈值的方法算法在 NVIDIA Tesla K80 GPU 服务器上的 MATLAB 2016b 中实现。 StarNet 的平均计算时间约为每帧(256 × 256 像素)9 毫秒,由于卷积运算,这比基于阈值的方法要慢。但是,当该算法用于地面系统时,它是值得的,因为它强调准确性而不是实时性。此外,较少的误报有助于在后续过程中节省更多时间。
我们使用由 400 张合成图像(256 × 256 像素)和 30 张真实图像(1024 × 1024 像素)组成的测试集,这些图像具有不同类型的噪声和不同的背景照明分布,以测试所提出的方法。像素级和目标级的结果分别在表 1 和表 2 中说明。这些表中的指标和比率以百分比显示,最佳结果以粗体突出显示。对于目标级别的指标,我们使用 [39] 中提出的匹配方法来匹配质心点位置及其注释。
表 1 中的结果表明,StarNet-3 在未经任何预处理或后处理的情况下,在测试集上实现了 94.9% 的平均准确率和 89.8% 的平均 IU。与 StarNet-2 的结果相比,StarNet-3 的目标准确率更高。“无 wmap”表示我们仅通过 (3) 中的 wf (x) 部分平衡两个不同类别的数量,但我们没有给低 SNR 目标更多权重。如表所示,权重图帮助我们的网络学习弱目标的特征。StarNet-2 和 StarNet-3 的目标准确率分别提高了约 0.3% 和 0.2%。
表2显示了评价目标准确率的检测率和误报率。这表明StarNet-3在训练集中的检测率为92.7%,低于ALTS的92.9%,但其对弱目标的检测率高于ALTS。误报率为26.3%,是最低的。虽然StarNet-2的检测率低于StarNet-3,但其误报率低于基于阈值的方法的结果。这表明低级特征有助于弱目标检测和尖峰噪声。StarNet-3的整体检测率低于ALTS的原因是,在我们的案例中,一些目标的某些区域合并在一起,因此两个或三个相邻目标可能被视为一个目标,从而降低了检测率。StarNet在不采用额外权重的情况下对弱目标的检测率证明了权重图有助于检测弱目标的像素。
表1 像素级不同方法比较
表2 不同方法在目标层面的比较
4.2.1 质心定位
在空间成像系统中,目标一般被视为一个理想的点源,通过设计离焦光学系统,将星像分散在若干个CCD像素上,再通过细分定位算法确定星像中心位置,使星像定位达到亚像素级甚至更高精度。目标质心位置的精度非常重要,因为误差传递到目标的空间位置时可能被放大到几百米。因此,从分割图中获得的星像区域决定了在计算质心时要考虑哪些像素。这里我们使用原始星像与其分割图的点积,并测试了两种最先进的质心估计方法,以获得连通分量的中心位置。
所有检测到的目标的平均误差如表3所示。我们使用[6]中提出的高斯曲线拟合和[32]中的平方加权质心估计。结果表明,我们的检测结果对这两种质心估计方法具有鲁棒性,高斯曲线拟合策略取得了更好的结果,但比平方加权方法花费的时间更长。虽然Otsu的方法取得了最小的误差,但实际上丢失了大量的小目标。我们提出的方法比Otsu多检测出大约6%的目标,而平均质心误差之间的差异小于0.03像素。
对于图6所示的真实图像,具有条纹或射线形状的明亮星星可以得到很好的分割,StarNet-3的结果(图6d)比其他方法可以检测到更多的小目标。StarNet-3获得更精确的质心位置主要是因为分割图中每个目标区域的边缘都很平滑。由于我们将注释区域限制在距质心2σ的范围内,因此暗目标的注释边缘比亮目标的注释边缘模糊得多。因为对于弱小目标,大部分像素都被噪声淹没,而亮目标周围像素的灰度仍然高于背景灰度。在Otsu和ALTS(图6b,c)中,目标的边缘受到噪声的影响,一些弱小目标只能被分割成1或2个像素,导致位置估计的精度较低。
表3 目标级质心定位误差比较
图 6 SuperCOSMOS 真实图像检测结果
4.2.2 对复杂背景和噪声的鲁棒性
对不均匀光照的鲁棒性
不均匀背景是导致目标丢失的最重要原因之一。当背景从图像的一侧到另一侧发生极端变化时,背景较亮一侧的暗淡目标会被淹没。在图7中,我们展示了具有强烈不均匀背景的图像(图7a)和图7f中的地面实况(GT)。可以清楚地看到,由于亮度变化,ALTS和Otsu方法都将大量背景噪声像素错误地归类为目标,并且当背景对比度强时,Otsu无法检测到任何目标。虽然ALTS在窗口边缘犯了一些错误,但它仍然可以在极端条件下提取出大多数暗淡目标。在StarNet-2和StarNet-3中,背景光照对暗淡目标的影响很小。
图7 不均匀背景影响下的检测结果
图8 漫画射线影响下的检测结果
对尖峰噪声的鲁棒性:尖峰噪声(例如漫画射线和热像素)特别明亮,并且具有与明亮目标相似的灰度值。基于阈值的方法在这些情况下都失败了(图 8b,c)。根据图 8 第一行所示的结果,子图像中的所有亮点都是尖峰噪声。StarNet-2 将明亮的漫画射线误分类为目标,而 StarNet-3 的结果没有发出任何误报。在漫画射线和目标合并的情况下,StarNet-3 的分割图保留了相对平滑的边缘和圆形。我们比较了不同检测方法对抗尖峰噪声的能力(表 4),ALTS 只能准确区分 26.9% 的漫画射线和 20.7% 的热像素,因此超过 70% 的尖峰噪声像素会导致误报。即使采用 Levesque 等人提出的预处理方法[17],漫画射线的检测仍然是一个难题。我们提出的StarNet-3可以检测到大约83.6%的漫画射线和93.5%的热像素。这表明我们提出的方法可以减少由尖峰噪声和目标位置误差引起的误报。StarNet-2和StarNet-3的比较表明,低级特征有助于区分尖峰噪声像素和目标。
表4 漫画射线与热像素检测结果比较
图9 不同信噪比下目标检测结果
对传感器噪声的鲁棒性:传感器噪声是另一个关键影响因素。由设备引起的背景噪声是高斯噪声、泊松噪声和其他随机噪声的组合。为了分析噪声的影响,我们创建了具有不同级别暗电流噪声的合成图像。暗电流噪声的标准差约为 10 到 30,并且热像素和漫画射线在不同图像中有所不同。在图 9 中,我们通过合成具有不同 SNR 目标的图像来说明所提出方法的性能,其中图像中目标的 SNR 约为 400 到 1。右列的 SNR 分别为 5.35、3.18、1.82 和 1.15,groundtruth 中的标记像素数分别为 21、21、21、13。当目标信噪比接近1时,目标非常暗淡,几乎淹没在背景中。自适应局部阈值分割可以检测到目标,但误报率很高,目标边缘不平滑。我们提出的StarNet-3对低信噪比目标的检测更稳健,尽管存在一些误报。
5 结论
在这项工作中,我们构建了一个带有注释的真实和合成星图的数据集,并使用它来训练我们提出的 StarNet,这是一种采用语义分割全卷积神经网络来检测星图中的暗小目标的架构。设计的网络适合生成密集而精确的分割掩模,因为通过结合较低层的特征,可以逐步重建目标的粗到细结构。我们的网络在暗小目标检测方面表现出了最先进的性能。该方法对噪声和不均匀背景更具有鲁棒性,并且检测率更高,误报更少。
原文地址:https://blog.csdn.net/qq_45471661/article/details/145141791
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!