自学内容网 自学内容网

YOLOv11改进策略【损失函数篇】| 将激活函数替换为带有注意力机制的激活函数 ARelu

一、本文介绍

本文记录的是利用带有注意力机制的激活函数ARelu改进YOLOv11的方法研究v11默认的激活函数是Silu,通过引入了非线性因素,使网络能够学习和拟合更复杂的函数关系,但在处理梯度消失问题上能力相对较弱,且稳定性会受到输入值和网络参数的较大影响。而ARelu激活函数,通过注意力模块学习元素级别的残差,对于激活的输入能够有效放大从下游传播的梯度,从而缓解梯度消失问题。在面对复杂多样的数据时,能够灵活地调整激活效果。


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进

专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!


原文地址:https://blog.csdn.net/qq_42591591/article/details/143054189

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!