YOLOv10改进策略【注意力机制篇】| 引入SimAM注意力模块(一个简单的,无参数的卷积神经网络注意模块,含二次创新)
一、本文介绍
本文记录的是基于SimAM注意力模块的YOLOv10目标检测方法研究。SimAM注意力模块
通过优化能量函数来获得每个神经元的三维权重,而无需引入额外的参数或增加计算复杂度。若是有轻量化需求的小伙伴,无参的注意力模块也许是一个不错的选择。
文章目录
二、SimAM注意力原理
SimAM(A Simple, Parameter-Free Attention Module for Convolutional Neural Networks)
是一种简单且无参数的注意力模块,主要用于卷积神经网络。
2.1、原理
- 基于神经科学理论定义能量函数:
- 在视觉神经科学中,最具信息量的神经元通常是那些与周围神经元具有不同激发模式的神经元。并且,一个活跃的神经元可能会抑制周围神经元的活动,这种现象被称为空间抑制。
- 基于此,
SimAM
为每个神经元定义了如下能量函数:
原文地址:https://blog.csdn.net/qq_42591591/article/details/142584047
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!