添加FReLU激活函数 在YOLOv7中修改
  1YQZUCUR1XeB 2023年11月02日 98 0

1.找到yolov7的utils中的activation.py,在最后面输入以下代码

# 原理:对局部卷积后的输出与原始数据进行一个max的比对
class FReLU(nn.Module):
    def __init__(self, c1, k=3):  # ch_in, kernel
        super().__init__()
        # 可分离卷积,不改变hw与channels
        self.conv = nn.Conv2d(c1, c1, k, 1, 1, groups=c1, bias=False)  
        self.bn = nn.BatchNorm2d(c1)
 
    def forward(self, x):
        # 卷积处理后的特征图与原来的x是相同的shape的
        return torch.max(x, self.bn(self.conv(x)))   

2.在modules中的common.py中将Conv模块改为以下代码

class Conv(nn.Module):
    # Standard convolution
    def __init__(self, c1, c2, k=1, s=1, p=None, g=1, act=True):  # ch_in, ch_out, kernel, stride, padding, groups
        super(Conv, self).__init__()
        self.conv = nn.Conv2d(c1, c2, k, s, autopad(k, p), groups=g, bias=False)
        self.bn = nn.BatchNorm2d(c2)
        self.act = FReLU(c2) if act is True else (act if isinstance(act, nn.Module) else nn.Identity())
 
    def forward(self, x):
        return self.act(self.bn(self.conv(x)))
 
    def fuseforward(self, x):
        return self.act(self.conv(x))

3.把原来的Conv模块注释掉

 4.再train就可以了

【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2023年11月08日 0

暂无评论

推荐阅读
1YQZUCUR1XeB