YOLOv9改进策略【注意力机制篇】| PSA极化自我关注: 实现高质量像素回归
一、本文介绍
本文记录的是基于PSA注意力模块的YOLOv9目标检测方法研究。PSA模块
通过极化滤波和增强设计,提高了内部分辨率,并增强非线性拟合,从而能够提升像素级回归任务的性能。本文将其应用到YOLOv9的检测任务中,使模型能够更好地捕捉图像中的细节信息,以实现目标检测任务中准确识别和定位。
文章目录
二、PSA注意力原理
极化自我关注: 实现高质量像素回归
PSA(Polarized Self - Attention)
模块是一种用于高质量像素级回归的注意力模块,其设计原理和优势主要包括以下几个方面:
2.1、设计原理
- 极化滤波(Polarized filtering):PSA在通道和空间注意力计算中保持高内部分辨率,同时在输入张量的对应维度上完全折叠。具体来说,通过通道 - 只关注分支(Channel - only branch)和空间 - 只关注分支(Spatial - only branch)来实现。
- 通道 - 只关注分支: A c h ( X ) = F S G [ W z ∣ θ 1 ( ( σ 1 ( W v ( X ) ) × F S M ( σ 2 ( W q ( X ) ) ) ) ) ] A^{ch}(X)=F_{SG}[W_{z|\theta_{1}}((\sigma_{1}(W_{v}(X)) \times F_{SM}(\sigma_{2}(W_{q}(X)))))] Ach(X)=FSG[Wz∣θ1((σ1(Wv(X))×FSM(σ2(Wq(X)))))],其中 W q W_{q} Wq、 W v W_{v} Wv和 w z w_{z} wz是 1 × 1 1\times1 1×1卷积层, σ 1 \sigma_{1} σ1和 σ 2 \sigma_{2} σ2是张量重塑操作, F S M F_{SM} FSM是SoftMax算子,内部通道数在 W v W_{v} Wv、 W q W_{q} Wq和 w z w_{z} wz之间为 C / 2 C/2 C/2。输出为 Z c h = A c h ( X ) ⊙ c h X Z^{ch}=A^{ch}(X)\odot^{ch}X Zch=Ach(X)⊙chX,其中 ⊙ c h \odot^{ch} ⊙ch是通道乘法运算符。
- 空间 - 只关注分支: A s p ( X ) = F S G [ σ 3 ( F S M ( σ 1 ( F G P ( W q ( X ) ) ) ) × σ 2 ( W v ( X ) ) ) ] A^{sp}(X)=F_{SG}[\sigma_{3}(F_{SM}(\sigma_{1}(F_{GP}(W_{q}(X)))) \times \sigma_{2}(W_{v}(X)))] Asp(X)=FSG[σ3(FSM(σ1(FGP(Wq(X))))×σ2(Wv(X)))],其中 w q w_{q} wq和 w v w_{v} wv是标准 1 × 1 1\times1 1×1卷积层, θ 2 \theta_{2} θ2是中间参数, σ 1 \sigma_{1} σ1、 σ 2 \sigma_{2} σ2和 σ 3 \sigma_{3} σ3是张量重塑操作, F S M F_{SM} FSM是SoftMax算子, F G P F_{GP} FGP是全局池化算子。输出为 Z s p = A s p ( X ) ⊙ s p X Z^{sp}=A^{sp}(X)\odot^{sp}X Zsp=Asp(X)⊙spX,其中 ⊙ s p \odot^{sp} ⊙sp是空间乘法运算符。
- 增强(Enhancement):在通道 - 只关注和空间 - 只关注分支中融合了非线性,以直接拟合典型细粒度回归的输出分布,例如2D高斯分布(关键点热图)或2D二项分布(二值分割掩码)。具体来说,使用了Softmax-Sigmoid组合。
- 组合(Composition):两个分支的输出可以在并行布局 P S A p ( X ) = Z c h + Z s p = A c h ( X ) ⊙ c h X + A s p ( X ) ⊙ s p X PSA_{p}(X)=Z^{ch} + Z^{sp}=A^{ch}(X)\odot^{ch}X + A^{sp}(X)\odot^{sp}X PSAp(X)=Zch+Zsp=Ach(X)⊙chX+Asp(X)⊙spX或顺序布局 P S A s ( X ) = Z s p ( Z c h ) = A s p ( A c h ( X ) ⊙ c h X ) ⊙ s p A c h ( X ) ⊙ c h X PSA_{s}(X)=Z^{sp}(Z^{ch})=A^{sp}(A^{ch}(X)\odot^{ch}X)\odot^{sp}A^{ch}(X)\odot^{ch}X PSAs(X)=Zsp(Zch)=Asp(Ach(X)⊙chX)⊙spAch(X)⊙chX下进行组合。
2.2、优势
- 保持高内部分辨率:与现有注意力模块在其最佳配置下相比,
PSA
在通道( C / 2 C/2 C/2)和空间( [ W , H ] [W, H] [W,H])维度上保留了最高的注意力分辨率,有助于保留高分辨率信息。 - 高效的参数利用:
- 通道 - 只关注分支:在通道 - 只关注注意力中,
Softmax
重加权与挤压 - 激励相结合,利用Softmax
作为大小为 C / 2 × W × H C/2\times W\times H C/2×W×H的瓶颈张量的非线性激活,遵循了受益于GC
和SE
块的挤压 - 激励模式,在可比的GC
块计算复杂度下进行更高分辨率的挤压 - 激励。 - 空间 - 只关注分支:不仅保持了完整的 [ W , H ] [W, H] [W,H]空间分辨率,而且在内部为非线性Softmax重加权保留了 2 × C × C / 2 2\times C\times C/2 2×C×C/2个可学习参数,比现有模块更强大。
- 通道 - 只关注分支:在通道 - 只关注注意力中,
- 拟合输出分布:
PSA
的通道 - 只关注和空间 - 只关注分支都使用Softmax - Sigmoid
组合,能够近似多模式高斯图(关键点热图)和分段二项图(分割掩码),充分利用PSA
注意力分支中保留的高分辨率信息。 - 表示能力强:
PSA
的并行和顺序布局之间的指标差异较小,这表明其通道 - 只关注和空间 - 只关注注意力块的设计可能已经充分利用了沿通道和空间维度的表示能力。
论文:https://arxiv.org/pdf/2107.00782
源码:https://github.com/DeLightCMU/PSA
三、PSA的实现代码
PSA模块
的实现代码如下:
class PSA_Channel(nn.Module):
def __init__(self, c1) -> None:
super().__init__()
c_ = c1 // 2 # hidden channels
self.cv1 = nn.Conv2d(c1, c_, 1)
self.cv2 = nn.Conv2d(c1, 1, 1)
self.cv3 = nn.Conv2d(c_, c1, 1)
self.reshape1 = nn.Flatten(start_dim=-2, end_dim=-1)
self.reshape2 = nn.Flatten()
self.sigmoid = nn.Sigmoid()
self.softmax = nn.Softmax(1)
self.layernorm = nn.LayerNorm([c1, 1, 1])
def forward(self, x): # shape(batch, channel, height, width)
x1 = self.reshape1(self.cv1(x)) # shape(batch, channel/2, height*width)
x2 = self.softmax(self.reshape2(self.cv2(x))) # shape(batch, height*width)
y = torch.matmul(x1, x2.unsqueeze(-1)).unsqueeze(-1) # 高维度下的矩阵乘法(最后两个维度相乘)
return self.sigmoid(self.layernorm(self.cv3(y))) * x
class PSA_Spatial(nn.Module):
def __init__(self, c1) -> None:
super().__init__()
c_ = c1 // 2 # hidden channels
self.cv1 = nn.Conv2d(c1, c_, 1)
self.cv2 = nn.Conv2d(c1, c_, 1)
self.reshape1 = nn.Flatten(start_dim=-2, end_dim=-1)
self.globalPooling = nn.AdaptiveAvgPool2d(1)
self.softmax = nn.Softmax(1)
self.sigmoid = nn.Sigmoid()
def forward(self, x): # shape(batch, channel, height, width)
x1 = self.reshape1(self.cv1(x)) # shape(batch, channel/2, height*width)
x2 = self.softmax(self.globalPooling(self.cv2(x)).squeeze(-1)) # shape(batch, channel/2, 1)
y = torch.bmm(x2.permute(0,2,1), x1) # shape(batch, 1, height*width)
return self.sigmoid(y.view(x.shape[0], 1, x.shape[2], x.shape[3])) * x
class PSA(nn.Module):
def __init__(self, in_channel, parallel=True) -> None:
super().__init__()
self.parallel = parallel
self.channel = PSA_Channel(in_channel)
self.spatial = PSA_Spatial(in_channel)
def forward(self, x):
if(self.parallel):
return self.channel(x) + self.spatial(x)
return self.spatial(self.channel(x))
四、添加步骤
4.1 修改common.py
此处需要修改的文件是models/common.py
common.py中定义了网络结构的通用模块
,我们想要加入新的模块就只需要将模块代码放到这个文件内即可。
4.1.1 基础模块1
模块改进方法1️⃣:直接加入ParallelPolarizedSelfAttention模块
。
ParallelPolarizedSelfAttention模块
添加后如下:
注意❗:在4.2小节
中的yolo.py
文件中需要声明的模块名称为:ParallelPolarizedSelfAttention
。
4.1.2 创新模块2⭐
模块改进方法2️⃣:基于ParallelPolarizedSelfAttention模块
的RepNCSPELAN4
。
相较方法一中的直接插入注意力模块,利用注意力模块对卷积等其他模块进行改进,其新颖程度会更高一些,训练精度可能会表现的更高。
第二种改进方法是对YOLOv9
中的RepNCSPELAN4模块
进行改进。将PSA注意力模块
替换RepNCSPELAN4
中的卷积模块,目的是通过PSA
的像素级回归能力,提高RepNCSPELAN4模块
的特征提取性能,使模型能够更好地捕捉图像中的细节信息,以实现目标检测任务中准确识别和定位。
改进代码如下:
class PSARepNCSPELAN4(nn.Module):
# csp-elan
def __init__(self, c1, c2, c3, c4, c5=1): # ch_in, ch_out, number, shortcut, groups, expansion
super().__init__()
self.c = c3//2
self.cv1 = Conv(c1, c3, 1, 1)
self.cv2 = nn.Sequential(RepNCSP(c3//2, c4, c5), ParallelPolarizedSelfAttention(c4))
self.cv3 = nn.Sequential(RepNCSP(c4, c4, c5), ParallelPolarizedSelfAttention(c4))
self.cv4 = Conv(c3+(2*c4), c2, 1, 1)
def forward(self, x):
y = list(self.cv1(x).chunk(2, 1))
y.extend((m(y[-1])) for m in [self.cv2, self.cv3])
return self.cv4(torch.cat(y, 1))
def forward_split(self, x):
y = list(self.cv1(x).split((self.c, self.c), 1))
y.extend(m(y[-1]) for m in [self.cv2, self.cv3])
return self.cv4(torch.cat(y, 1))
注意❗:在4.2小节
中的yolo.py
文件中需要声明的模块名称为:PSARepNCSPELAN4
。
4.2 修改yolo.py
此处需要修改的文件是models/yolo.py
yolo.py用于函数调用
,我们只需要将common.py
中定义的新的模块名添加到parse_model函数
下即可。
ParallelPolarizedSelfAttention模块
以及PSARepNCSPELAN4模块
添加后如下:
五、yaml模型文件
5.1 模型改进版本一
在代码配置完成后,配置模型的YAML文件。
此处以models/detect/yolov9-c.yaml
为例,在同目录下创建一个用于自己数据集训练的模型文件yolov9-c-psa.yaml
。
将yolov9-c.yaml
中的内容复制到yolov9-c-psa.yaml
文件下,修改nc
数量等于自己数据中目标的数量。
在骨干网络的最后一层添加psa模块
,即下方代码中的第45行,只需要填入一个参数,通道数,和前一层通道数一致。
📌 放在此处的目的是让网络能够学习到更深层的语义信息,因为此时特征图尺寸小,包含全局信息。
# YOLOv9
# parameters
nc: 1 # number of classes
depth_multiple: 1.0 # model depth multiple
width_multiple: 1.0 # layer channel multiple
#activation: nn.LeakyReLU(0.1)
#activation: nn.ReLU()
# anchors
anchors: 3
# YOLOv9 backbone
backbone:
[
[-1, 1, Silence, []],
# conv down
[-1, 1, Conv, [64, 3, 2]], # 1-P1/2
# conv down
[-1, 1, Conv, [128, 3, 2]], # 2-P2/4
# elan-1 block
[-1, 1, RepNCSPELAN4, [256, 128, 64, 1]], # 3
# avg-conv down
[-1, 1, ADown, [256]], # 4-P3/8
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 256, 128, 1]], # 5
# avg-conv down
[-1, 1, ADown, [512]], # 6-P4/16
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 7
# avg-conv down
[-1, 1, ADown, [512]], # 8-P5/32
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 9
[-1, 1, ParallelPolarizedSelfAttention, [512]], # 10 # 注意力添加在此处
]
# YOLOv9 head
head:
[
# elan-spp block
[-1, 1, SPPELAN, [512, 256]], # 10
# up-concat merge
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 7], 1, Concat, [1]], # cat backbone P4
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 13
# up-concat merge
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 5], 1, Concat, [1]], # cat backbone P3
# elan-2 block
[-1, 1, RepNCSPELAN4, [256, 256, 128, 1]], # 16 (P3/8-small)
# avg-conv-down merge
[-1, 1, ADown, [256]],
[[-1, 14], 1, Concat, [1]], # cat head P4
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 19 (P4/16-medium)
# avg-conv-down merge
[-1, 1, ADown, [512]],
[[-1, 11], 1, Concat, [1]], # cat head P5
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 22 (P5/32-large)
# multi-level reversible auxiliary branch
# routing
[5, 1, CBLinear, [[256]]], # 23
[7, 1, CBLinear, [[256, 512]]], # 24
[9, 1, CBLinear, [[256, 512, 512]]], # 25
# conv down
[0, 1, Conv, [64, 3, 2]], # 26-P1/2
# conv down
[-1, 1, Conv, [128, 3, 2]], # 27-P2/4
# elan-1 block
[-1, 1, RepNCSPELAN4, [256, 128, 64, 1]], # 28
# avg-conv down fuse
[-1, 1, ADown, [256]], # 29-P3/8
[[24, 25, 26, -1], 1, CBFuse, [[0, 0, 0]]], # 30
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 256, 128, 1]], # 31
# avg-conv down fuse
[-1, 1, ADown, [512]], # 32-P4/16
[[25, 26, -1], 1, CBFuse, [[1, 1]]], # 33
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 34
# avg-conv down fuse
[-1, 1, ADown, [512]], # 35-P5/32
[[26, -1], 1, CBFuse, [[2]]], # 36
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 37
# detection head
# detect
[[32, 35, 38, 17, 20, 23], 1, DualDDetect, [nc]], # DualDDetect(A3, A4, A5, P3, P4, P5)
]
5.2 模型改进版本二⭐
此处同样以models/detect/yolov9-c.yaml
为例,在同目录下创建一个用于自己数据集训练的模型文件yolov9-c-PSARepNCSPELAN4.yaml
。
将yolov9-c.yaml
中的内容复制到yolov9-c-PSARepNCSPELAN4.yaml
文件下,修改nc
数量等于自己数据中目标的数量。
📌 模型的修改方法是将骨干网络中的所有RepNCSPELAN4模块
替换成PSARepNCSPELAN4模块
。
# YOLOv9
# parameters
nc: 1 # number of classes
depth_multiple: 1.0 # model depth multiple
width_multiple: 1.0 # layer channel multiple
#activation: nn.LeakyReLU(0.1)
#activation: nn.ReLU()
# anchors
anchors: 3
# YOLOv9 backbone
backbone:
[
[-1, 1, Silence, []],
# conv down
[-1, 1, Conv, [64, 3, 2]], # 1-P1/2
# conv down
[-1, 1, Conv, [128, 3, 2]], # 2-P2/4
# elan-1 block
[-1, 1, PSARepNCSPELAN4, [256, 128, 64, 1]], # 3
# avg-conv down
[-1, 1, ADown, [256]], # 4-P3/8
# elan-2 block
[-1, 1, PSARepNCSPELAN4, [512, 256, 128, 1]], # 5
# avg-conv down
[-1, 1, ADown, [512]], # 6-P4/16
# elan-2 block
[-1, 1, PSARepNCSPELAN4, [512, 512, 256, 1]], # 7(可替换)
# avg-conv down
[-1, 1, ADown, [512]], # 8-P5/32
# elan-2 block
[-1, 1, PSARepNCSPELAN4, [512, 512, 256, 1]], # 9(可替换)
]
# YOLOv9 head
head:
[
# elan-spp block
[-1, 1, SPPELAN, [512, 256]], # 10
# up-concat merge
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 7], 1, Concat, [1]], # cat backbone P4
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 13
# up-concat merge
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 5], 1, Concat, [1]], # cat backbone P3
# elan-2 block
[-1, 1, RepNCSPELAN4, [256, 256, 128, 1]], # 16 (P3/8-small)
# avg-conv-down merge
[-1, 1, ADown, [256]],
[[-1, 13], 1, Concat, [1]], # cat head P4
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 19 (P4/16-medium)
# avg-conv-down merge
[-1, 1, ADown, [512]],
[[-1, 10], 1, Concat, [1]], # cat head P5
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 22 (P5/32-large)
# multi-level reversible auxiliary branch
# routing
[5, 1, CBLinear, [[256]]], # 23
[7, 1, CBLinear, [[256, 512]]], # 24
[9, 1, CBLinear, [[256, 512, 512]]], # 25
# conv down
[0, 1, Conv, [64, 3, 2]], # 26-P1/2
# conv down
[-1, 1, Conv, [128, 3, 2]], # 27-P2/4
# elan-1 block
[-1, 1, RepNCSPELAN4, [256, 128, 64, 1]], # 28
# avg-conv down fuse
[-1, 1, ADown, [256]], # 29-P3/8
[[23, 24, 25, -1], 1, CBFuse, [[0, 0, 0]]], # 30
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 256, 128, 1]], # 31
# avg-conv down fuse
[-1, 1, ADown, [512]], # 32-P4/16
[[24, 25, -1], 1, CBFuse, [[1, 1]]], # 33
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 34
# avg-conv down fuse
[-1, 1, ADown, [512]], # 35-P5/32
[[25, -1], 1, CBFuse, [[2]]], # 36
# elan-2 block
[-1, 1, RepNCSPELAN4, [512, 512, 256, 1]], # 37
# detection head
# detect
[[31, 34, 37, 16, 19, 22], 1, DualDDetect, [nc]], # DualDDetect(A3, A4, A5, P3, P4, P5)
]
六、成功运行结果
分别打印网络模型可以看到ParallelPolarizedSelfAttention模块
和PSARepNCSPELAN4
已经加入到模型中,并可以进行训练了。
yolov9-c-psa:
from n params module arguments
0 -1 1 0 models.common.Silence []
1 -1 1 1856 models.common.Conv [3, 64, 3, 2]
2 -1 1 73984 models.common.Conv [64, 128, 3, 2]
3 -1 1 212864 models.common.RepNCSPELAN4 [128, 256, 128, 64, 1]
4 -1 1 164352 models.common.ADown [256, 256]
5 -1 1 847616 models.common.RepNCSPELAN4 [256, 512, 256, 128, 1]
6 -1 1 656384 models.common.ADown [512, 512]
7 -1 1 2857472 models.common.RepNCSPELAN4 [512, 512, 512, 256, 1]
8 -1 1 656384 models.common.ADown [512, 512]
9 -1 1 2857472 models.common.RepNCSPELAN4 [512, 512, 512, 256, 1]
10 -1 1 527105 models.common.ParallelPolarizedSelfAttention[512, 512]
11 -1 1 656896 models.common.SPPELAN [512, 512, 256]
12 -1 1 0 torch.nn.modules.upsampling.Upsample [None, 2, 'nearest']
13 [-1, 7] 1 0 models.common.Concat [1]
14 -1 1 3119616 models.common.RepNCSPELAN4 [1024, 512, 512, 256, 1]
15 -1 1 0 torch.nn.modules.upsampling.Upsample [None, 2, 'nearest']
16 [-1, 5] 1 0 models.common.Concat [1]
17 -1 1 912640 models.common.RepNCSPELAN4 [1024, 256, 256, 128, 1]
18 -1 1 164352 models.common.ADown [256, 256]
19 [-1, 14] 1 0 models.common.Concat [1]
20 -1 1 2988544 models.common.RepNCSPELAN4 [768, 512, 512, 256, 1]
21 -1 1 656384 models.common.ADown [512, 512]
22 [-1, 11] 1 0 models.common.Concat [1]
23 -1 1 3119616 models.common.RepNCSPELAN4 [1024, 512, 512, 256, 1]
24 5 1 131328 models.common.CBLinear [512, [256]]
25 7 1 393984 models.common.CBLinear [512, [256, 512]]
26 9 1 656640 models.common.CBLinear [512, [256, 512, 512]]
27 0 1 1856 models.common.Conv [3, 64, 3, 2]
28 -1 1 73984 models.common.Conv [64, 128, 3, 2]
29 -1 1 212864 models.common.RepNCSPELAN4 [128, 256, 128, 64, 1]
30 -1 1 164352 models.common.ADown [256, 256]
31 [24, 25, 26, -1] 1 0 models.common.CBFuse [[0, 0, 0]]
32 -1 1 847616 models.common.RepNCSPELAN4 [256, 512, 256, 128, 1]
33 -1 1 656384 models.common.ADown [512, 512]
34 [25, 26, -1] 1 0 models.common.CBFuse [[1, 1]]
35 -1 1 2857472 models.common.RepNCSPELAN4 [512, 512, 512, 256, 1]
36 -1 1 656384 models.common.ADown [512, 512]
37 [26, -1] 1 0 models.common.CBFuse [[2]]
38 -1 1 2857472 models.common.RepNCSPELAN4 [512, 512, 512, 256, 1]
39[32, 35, 38, 17, 20, 23] 1 21542822 DualDDetect [1, [512, 512, 512, 256, 512, 512]]
yolov9-c-psa summary: 979 layers, 51526695 parameters, 51526663 gradients, 239.3 GFLOPs
yolov9-c-PSARepNCSPELAN4:
from n params module arguments
0 -1 1 0 models.common.Silence []
1 -1 1 1856 models.common.Conv [3, 64, 3, 2]
2 -1 1 73984 models.common.Conv [64, 128, 3, 2]
3 -1 1 155970 models.common.PSARepNCSPELAN4 [128, 256, 128, 64, 1]
4 -1 1 164352 models.common.ADown [256, 256]
5 -1 1 619138 models.common.PSARepNCSPELAN4 [256, 512, 256, 128, 1]
6 -1 1 656384 models.common.ADown [512, 512]
7 -1 1 1941762 models.common.PSARepNCSPELAN4 [512, 512, 512, 256, 1]
8 -1 1 656384 models.common.ADown [512, 512]
9 -1 1 1941762 models.common.PSARepNCSPELAN4 [512, 512, 512, 256, 1]
10 -1 1 656896 models.common.SPPELAN [512, 512, 256]
11 -1 1 0 torch.nn.modules.upsampling.Upsample [None, 2, 'nearest']
12 [-1, 7] 1 0 models.common.Concat [1]
13 -1 1 3119616 models.common.RepNCSPELAN4 [1024, 512, 512, 256, 1]
14 -1 1 0 torch.nn.modules.upsampling.Upsample [None, 2, 'nearest']
15 [-1, 5] 1 0 models.common.Concat [1]
16 -1 1 912640 models.common.RepNCSPELAN4 [1024, 256, 256, 128, 1]
17 -1 1 164352 models.common.ADown [256, 256]
18 [-1, 13] 1 0 models.common.Concat [1]
19 -1 1 2988544 models.common.RepNCSPELAN4 [768, 512, 512, 256, 1]
20 -1 1 656384 models.common.ADown [512, 512]
21 [-1, 10] 1 0 models.common.Concat [1]
22 -1 1 3119616 models.common.RepNCSPELAN4 [1024, 512, 512, 256, 1]
23 5 1 131328 models.common.CBLinear [512, [256]]
24 7 1 393984 models.common.CBLinear [512, [256, 512]]
25 9 1 656640 models.common.CBLinear [512, [256, 512, 512]]
26 0 1 1856 models.common.Conv [3, 64, 3, 2]
27 -1 1 73984 models.common.Conv [64, 128, 3, 2]
28 -1 1 212864 models.common.RepNCSPELAN4 [128, 256, 128, 64, 1]
29 -1 1 164352 models.common.ADown [256, 256]
30 [23, 24, 25, -1] 1 0 models.common.CBFuse [[0, 0, 0]]
31 -1 1 847616 models.common.RepNCSPELAN4 [256, 512, 256, 128, 1]
32 -1 1 656384 models.common.ADown [512, 512]
33 [24, 25, -1] 1 0 models.common.CBFuse [[1, 1]]
34 -1 1 2857472 models.common.RepNCSPELAN4 [512, 512, 512, 256, 1]
35 -1 1 656384 models.common.ADown [512, 512]
36 [25, -1] 1 0 models.common.CBFuse [[2]]
37 -1 1 2857472 models.common.RepNCSPELAN4 [512, 512, 512, 256, 1]
38[31, 34, 37, 16, 19, 22] 1 21542822 DualDDetect [1, [512, 512, 512, 256, 512, 512]]
yolov9-c-PSARepNCSPELAN4 summary: 1026 layers, 48882798 parameters, 48882766 gradients, 228.7 GFLOPs
原文地址:https://blog.csdn.net/qq_42591591/article/details/141864252
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!