从nn.Conv2d的groups参数到MobileNet的深度可分离卷积_神经网络的参数groups-程序员宅基地

技术标签: python  卷积  深度学习  神经网络  Python  

在整理经典卷积神经网络时,才注意到这个group参数,因为它可以很方便地实现深度可分离卷积,所以在此记录一下。

nn.Conv2d的groups参数

官方文档对该参数的解释为:

groups: 控制输入和输出之间的连接: group=1,输出是所有的输入的卷积;group=2,此时相当于有并排的两个卷积层,每个卷积层计算输入通道的一半,并且产生的输出是输出通道的一半,随后将这两个输出连接起来。

即当group=1时,输出特征图的某个通道是卷了所有输入特征图,当group=2,输入和输出都被划为两组,输出的某组的某个特征图只卷一半的输入特征图,因此也要求group必须为输入和输出通道数整除。实际测试一下:

# 输入全为1
X = torch.ones(1, 2, 4, 4)
# net1 groups为1, 权重参数初始化为1
net1 = nn.Conv2d(2, 4, 3, 1, 1, groups=1, bias=False)
nn.init.constant_(net1.weight, val=1)
print('net1_output', net1(X))
# net2 groups为2, 权重参数初始化为1
net2 = nn.Conv2d(2, 4, 3, 1, 1, groups=2, bias=False)
nn.init.constant_(net2.weight, val=1)
print('net2_output', net2(X))

观察输出,可以验证上述描述:

net1_output tensor([[[[ 8., 12., 12.,  8.],
          [12., 18., 18., 12.],
          [12., 18., 18., 12.],
          [ 8., 12., 12.,  8.]],

         [[ 8., 12., 12.,  8.],
          [12., 18., 18., 12.],
          [12., 18., 18., 12.],
          [ 8., 12., 12.,  8.]],

         [[ 8., 12., 12.,  8.],
          [12., 18., 18., 12.],
          [12., 18., 18., 12.],
          [ 8., 12., 12.,  8.]],

         [[ 8., 12., 12.,  8.],
          [12., 18., 18., 12.],
          [12., 18., 18., 12.],
          [ 8., 12., 12.,  8.]]]], grad_fn=<MkldnnConvolutionBackward>)
net2_output tensor([[[[4., 6., 6., 4.],
          [6., 9., 9., 6.],
          [6., 9., 9., 6.],
          [4., 6., 6., 4.]],

         [[4., 6., 6., 4.],
          [6., 9., 9., 6.],
          [6., 9., 9., 6.],
          [4., 6., 6., 4.]],

         [[4., 6., 6., 4.],
          [6., 9., 9., 6.],
          [6., 9., 9., 6.],
          [4., 6., 6., 4.]],

         [[4., 6., 6., 4.],
          [6., 9., 9., 6.],
          [6., 9., 9., 6.],
          [4., 6., 6., 4.]]]], grad_fn=<MkldnnConvolutionBackward>)

MobileNet的深度可分离卷积

mobilenet实现了网络的轻量化,其核心的深度可分离卷积将传统的卷积分解为一个深度卷积(depthwise convolution)+ 一个 1×1的卷积(pointwise convolution。

传统卷积

N × C i n × H × W N \times C_{in} \times H \times W N×Cin×H×W的特征输入经过 i n _ c h a n n e l × o u t _ c h a n n e l in\_channel \times out\_channel in_channel×out_channel的卷积核 k × k k \times k k×k之后变为 N × C o u t × H ′ × W ′ N \times C_{out} \times H^{'} \times W^{'} N×Cout×H×W的特征图,图示如下:

在这里插入图片描述

途中输入的灰色部分为padding,输出的每个特征图都是由输入与 i n c h a n n e l in_channel inchannel个卷积核卷积之后相加得到的,即可以拆分成如下形式

在这里插入图片描述

深度可分离卷积

对上述过程不再赘述,深度可分离卷积将第二图中的kernel部分与add部分做了改动,先放图如下

在这里插入图片描述

传统卷积操作每个输出特征图都来自于in_channel个卷积核对每个输入特征图做卷积操作,然后将每个输出相加得到;而深度可分离卷积则首先将每个输入特征图用in_channel个卷积核进行操作,然后将每个卷积后的in_channel个特征图用out_channel个1X1卷积按不同权重相加。

  • 优点

最大的优点就是大大减少参数量(毕竟为移动端而生)
以上图的2X4X4输入(输入为2个通道),卷积核3X3, 输出4X4X4(输出4个通道)为例,第一个图中的传统卷积操作需要参数量为 3 × 3 × 2 × 4 3\times 3 \times 2 \times 4 3×3×2×4,使用深度可分离卷积后的参数量为 3 × 3 × 2 + 1 × 1 × 4 3\times 3 \times 2 + 1\times 1\times 4 3×3×2+1×1×4,当实际网络中大量通道运算时,可想而知网络的参数量大大减少。

深度可分离卷积是如何减少参数量的

那参数量是怎么减少的呢,或者说从哪里刨除的参数呢?

传统卷积计算某个输出通道上的某点时,先使用in_channel个卷积核对输入特征图进行卷积可得到in_channel个值,然后按权重为1相加即为某输出特征图上某点的值,当计算另外一个输出通道上的某点时,则需使用新的in_channel个卷积核对输入特征图进行卷积得到in_channel个值,然后按权重为1相加,也就是说每个输出特征图都是被不同组的in_channel个卷积核处理的。

而深度可分离卷积上计算某输出通道上的某点时,先使用in_channel个卷积核对输入特征图进行卷积可得到in_channel个值,然后按不同权重相加即为某输出特征图上某点的值,当计算另外一个输出通道上的某点时,还是使用那IN_channel个卷积核先处理,然后按新的权重相加。

  • 缺点

减少的那部分参数是不值真的没用呢?深度可分离卷积不同输出通道上某点,在输入特征图上感受野范围内的像素的权重分布是相同的(因为所有输出通道都是被相同卷积核处理的),而传统卷积则可以有着更多的变化。

Pytorch的 MobileNetV2 实现(含深度可分离卷积)

arch = ((1, 16, 1, 1),
        (6, 24, 2, 2),
        (6, 32, 3, 2),
        (6, 64, 4, 2),
        (6, 96, 3, 1),
        (6, 160, 3, 2),
        (6, 320, 1, 1))
        
class ConvBNReLU(nn.Sequential):
    def __init__(self, in_channel, out_channel, kernel_size=3, stride=1, groups=1):
        padding = (kernel_size - 1) // 2
        super(ConvBNReLU, self).__init__(
            nn.Conv2d(in_channel, out_channel, kernel_size, stride, padding, groups=groups, bias=False),
            nn.BatchNorm2d(out_channel),
            nn.ReLU6(inplace=True)
        )

class InvertedResidual(nn.Module):
    def __init__(self, in_channel, out_channel, stride, expand_ratio):
        super(InvertedResidual, self).__init__()
        self.use_res_connect = stride == 1 and in_channel == out_channel
        blk = []
        if expand_ratio != 1:
            blk.append(ConvBNReLU(in_channel, in_channel*expand_ratio, 1, 1))
            
        # 这里设置group为输入通道大小,下面紧接着是输出通道数的1X1卷积
        blk.append(ConvBNReLU(in_channel*expand_ratio, in_channel*expand_ratio, 3, stride, groups=in_channel*expand_ratio))
        blk.append(nn.Conv2d(in_channel*expand_ratio, out_channel, 1, 1, bias=False))
        blk.append(nn.BatchNorm2d(out_channel))
        self.conv = nn.Sequential(*blk)
    def forward(self, X):
        if self.use_res_connect:
            return X + self.conv(X)
        else:
            return self.conv(X)
    
class MobileNetV2(nn.Module):
    def __init__(self, arch=arch):
        super(MobileNetV2, self).__init__()
        block = []
        block.append(ConvBNReLU(3, 32, 3, 2))
        in_channel = 32
        for i, (t, c, n, s) in enumerate(arch):
            for j in range(n):
                stride = s if j == 0 else 1
                block.append(InvertedResidual(in_channel, c, stride, t))
                in_channel = c
        block.append(ConvBNReLU(320, 1280, 1, 1))
        self.features = nn.Sequential(*block)
        self.classifier = nn.Sequential(nn.Dropout(),
                                        nn.Linear(1280, 1000))
        
    def forward(self, X):
        X = self.features(X)
        X = F.adaptive_avg_pool2d(X, 1)
        X = self.classifier(X.view(X.shape[0], -1))
        return X

参考:

[1] pytorch中文文档
[2] pytorch源码
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/ly18846826264/article/details/105144998

智能推荐

c# 调用c++ lib静态库_c#调用lib-程序员宅基地

文章浏览阅读2w次,点赞7次,收藏51次。四个步骤1.创建C++ Win32项目动态库dll 2.在Win32项目动态库中添加 外部依赖项 lib头文件和lib库3.导出C接口4.c#调用c++动态库开始你的表演...①创建一个空白的解决方案,在解决方案中添加 Visual C++ , Win32 项目空白解决方案的创建:添加Visual C++ , Win32 项目这......_c#调用lib

deepin/ubuntu安装苹方字体-程序员宅基地

文章浏览阅读4.6k次。苹方字体是苹果系统上的黑体,挺好看的。注重颜值的网站都会使用,例如知乎:font-family: -apple-system, BlinkMacSystemFont, Helvetica Neue, PingFang SC, Microsoft YaHei, Source Han Sans SC, Noto Sans CJK SC, W..._ubuntu pingfang

html表单常见操作汇总_html表单的处理程序有那些-程序员宅基地

文章浏览阅读159次。表单表单概述表单标签表单域按钮控件demo表单标签表单标签基本语法结构<form action="处理数据程序的url地址“ method=”get|post“ name="表单名称”></form><!--action,当提交表单时,向何处发送表单中的数据,地址可以是相对地址也可以是绝对地址--><!--method将表单中的数据传送给服务器处理,get方式直接显示在url地址中,数据可以被缓存,且长度有限制;而post方式数据隐藏传输,_html表单的处理程序有那些

PHP设置谷歌验证器(Google Authenticator)实现操作二步验证_php otp 验证器-程序员宅基地

文章浏览阅读1.2k次。使用说明:开启Google的登陆二步验证(即Google Authenticator服务)后用户登陆时需要输入额外由手机客户端生成的一次性密码。实现Google Authenticator功能需要服务器端和客户端的支持。服务器端负责密钥的生成、验证一次性密码是否正确。客户端记录密钥后生成一次性密码。下载谷歌验证类库文件放到项目合适位置(我这边放在项目Vender下面)https://github.com/PHPGangsta/GoogleAuthenticatorPHP代码示例://引入谷_php otp 验证器

【Python】matplotlib.plot画图横坐标混乱及间隔处理_matplotlib更改横轴间距-程序员宅基地

文章浏览阅读4.3k次,点赞5次,收藏11次。matplotlib.plot画图横坐标混乱及间隔处理_matplotlib更改横轴间距

docker — 容器存储_docker 保存容器-程序员宅基地

文章浏览阅读2.2k次。①Storage driver 处理各镜像层及容器层的处理细节,实现了多层数据的堆叠,为用户 提供了多层数据合并后的统一视图②所有 Storage driver 都使用可堆叠图像层和写时复制(CoW)策略③docker info 命令可查看当系统上的 storage driver主要用于测试目的,不建议用于生成环境。_docker 保存容器

随便推点

网络拓扑结构_网络拓扑csdn-程序员宅基地

文章浏览阅读834次,点赞27次,收藏13次。网络拓扑结构是指计算机网络中各组件(如计算机、服务器、打印机、路由器、交换机等设备)及其连接线路在物理布局或逻辑构型上的排列形式。这种布局不仅描述了设备间的实际物理连接方式,也决定了数据在网络中流动的路径和方式。不同的网络拓扑结构影响着网络的性能、可靠性、可扩展性及管理维护的难易程度。_网络拓扑csdn

JS重写Date函数,兼容IOS系统_date.prototype 将所有 ios-程序员宅基地

文章浏览阅读1.8k次,点赞5次,收藏8次。IOS系统Date的坑要创建一个指定时间的new Date对象时,通常的做法是:new Date("2020-09-21 11:11:00")这行代码在 PC 端和安卓端都是正常的,而在 iOS 端则会提示 Invalid Date 无效日期。在IOS年月日中间的横岗许换成斜杠,也就是new Date("2020/09/21 11:11:00")通常为了兼容IOS的这个坑,需要做一些额外的特殊处理,笔者在开发的时候经常会忘了兼容IOS系统。所以就想试着重写Date函数,一劳永逸,避免每次ne_date.prototype 将所有 ios

如何将EXCEL表导入plsql数据库中-程序员宅基地

文章浏览阅读5.3k次。方法一:用PLSQL Developer工具。 1 在PLSQL Developer的sql window里输入select * from test for update; 2 按F8执行 3 打开锁, 再按一下加号. 鼠标点到第一列的列头,使全列成选中状态,然后粘贴,最后commit提交即可。(前提..._excel导入pl/sql

Git常用命令速查手册-程序员宅基地

文章浏览阅读83次。Git常用命令速查手册1、初始化仓库git init2、将文件添加到仓库git add 文件名 # 将工作区的某个文件添加到暂存区 git add -u # 添加所有被tracked文件中被修改或删除的文件信息到暂存区,不处理untracked的文件git add -A # 添加所有被tracked文件中被修改或删除的文件信息到暂存区,包括untracked的文件...

分享119个ASP.NET源码总有一个是你想要的_千博二手车源码v2023 build 1120-程序员宅基地

文章浏览阅读202次。分享119个ASP.NET源码总有一个是你想要的_千博二手车源码v2023 build 1120

【C++缺省函数】 空类默认产生的6个类成员函数_空类默认产生哪些类成员函数-程序员宅基地

文章浏览阅读1.8k次。版权声明:转载请注明出处 http://blog.csdn.net/irean_lau。目录(?)[+]1、缺省构造函数。2、缺省拷贝构造函数。3、 缺省析构函数。4、缺省赋值运算符。5、缺省取址运算符。6、 缺省取址运算符 const。[cpp] view plain copy_空类默认产生哪些类成员函数

推荐文章

热门文章

相关标签