注意力机制是一个非常有效的trick,它的核心重点就是让网络关注到它更需要关注的地方。当我们使用卷积神经网络去处理的时候,我们会更希望卷积神经网络去注意应该注意的地方,而不是什么都关注,如何让卷积神经网络去自适应的注意重要的物体变得极为重要。 源码地址:https://github.com/bubbliiiing/yolov4-tiny-pytorch 博客地址:https://blog.csdn.net/weixin_44791964/article/details/121371986
www.bilibili.com