YOLOv11改进策略【Conv和Transformer】| Conv2Former 通过卷积调制操作简化自注意力机制,利用简单高效的大核卷积提高网络性能
一、本文介绍
本文记录的是利用Conv2Former
优化YOLOv11
的目标检测网络模型。Transformer
通过自注意力机制能够获取全局信息,但资源占用较大。卷积操作资源占用较少,但只能根据卷积核的大小获取局部信息。Conv2Former
通过卷积调制操作简化了自注意力机制,更有效地利用了大核卷积,在视觉识别任务中表现出较好的性能。
专栏目录:YOLOv11改进目录一览 | 涉及卷积层、轻量化、注意力、损失函数、Backbone、SPPF、Neck、检测头等全方位改进
文章目录
原文地址:https://blog.csdn.net/qq_42591591/article/details/142818550
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!