自学内容网 自学内容网

深度学习知识点3-CBAM轻量的注意力模块


论文:(2018)包含空间注意力通道注意力两部分1807.06521icon-default.png?t=O83Ahttps://arxiv.org/pdf/1807.06521

 通道注意力:对input feature maps每个feature map做全局平均池化和全局最大池化,得到两个1d向量,再经过conv,ReLU,1x1conv,sigmoid进行归一化后对input feature maps加权。

空间注意力:对feature map的每个位置的所有通道上做最大池化和平均池化,得到两个feature map,再对这两个feature map进行7x7 Conv,再使BN和sigmoid归一化。

局限性:CBAM是通过对每个位置的多个通道取最大值和平均值来作为加权系数,因此这种加权只考虑了局部范围的信息。

参考:CVPR2021|| Coordinate Attention注意力机制_位置注意力机制-CSDN博客


原文地址:https://blog.csdn.net/weixin_43899239/article/details/143712379

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!