自学内容网 自学内容网

YOLOv11改进策略【Conv和Transformer】| Conv2Former 通过卷积调制操作简化自注意力机制,利用简单高效的大核卷积提高网络性能

一、本文介绍

本文记录的是利用Conv2Former优化YOLOv11的目标检测网络模型Transformer通过自注意力机制能够获取全局信息,但资源占用较大。卷积操作资源占用较少,但只能根据卷积核的大小获取局部信息。Conv2Former通过卷积调制操作简化了自注意力机制,更有效地利用了大核卷积,在视觉识别任务中表现出较好的性能。


专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进

专栏地址:YOLOv11改进专栏——以发表论文的角度,快速准确的找到有效涨点的创新点!


原文地址:https://blog.csdn.net/qq_42591591/article/details/142818550

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!