DLA:Deep Layer Aggregation论文和代码学习_dla 34论文-程序员宅基地

技术标签: python  计算机视觉  人工智能  代码实现  论文学习  

本研究是有由UC Berkeley的Trevor Darrell组发表于2018年CVPR。因为,工作中应用到CenterNet,文章中使用了DLA作为backbone,能够以较高的速度完成推理并维持较高的AP。因此再回顾一下DLA这篇文章。

DLA文章:cvf open access
DLA代码:官方代码
CenterNet代码

论文学习

网络结构如,LeNet,AlexNet和ResNet都是层层堆叠的网络结构,更注重网络的深度,但依然无法确保多深的网络是足以在一个任务上提取到最具代表性的特征表示。

在Deep Layer Aggregation这篇文章中,探讨的是如何aggregate整合不同层级以实现语义和空间信息的聚合。

文章中提出了两种Deep Layer Aggregation(DLA)结构:

  • iterative deep aggregation (IDA),用于聚合不同分辨率和尺度
  • hierarchical deep aggregation (HDA),用于聚合各个模块和通道的特征。

Iterative Deep Aggregation

在这里插入图片描述现有的聚合方式(skip connection)是通过将较浅和较深层达到不同尺度和分辨率的聚合。这种方式通常是线性且最浅层的层级的聚合程度是最少的。

因此,文中提出了IDA方式实现逐步聚合且不断深化特征表示。
在这里插入图片描述上图为IDA示意图。可见,聚合过程是从最浅层开始,逐步与跟深层合并,浅层级的特征能在不同stage的聚合中进行传播。

Hierarchical Deep Aggregation

在这里插入图片描述基础的HDA是一个树状结构,通过合并blocks和stages的特征达到对特征的保留和结合,如(d)所示。
进一步,作者又改进了这个结构,形成如(e)的结构。可以看到,下一个子树的输入由上一个block的输出变为了上一个子树聚合节点的输出。这样,之前所有blocks的信息就都能够被传播和保留。(f)是在(e)的基础上,进一步将同一深度的节点合并以提升效率。

网络结构

在这里插入图片描述
IDA和HDA的结构中都包含了聚合节点(Aggregation Node),即结构图中的绿色方块。聚合节点的结构为conv+BN+非线性激活函数。在分类网络中,所有聚合节点使用的是1x1conv;语义分割的上采样蹭,会额外加入一个包含3x3 conv的IDA。

应用DLA

在面向不同visual recognition的网络中应用DLA。

分类网络

分类网络如ResNet和ResNeXT一般以分辨率下降一半为一个stage结束标志,总共分为6个stages。stages之间通过IDA和HDA进行连接,stage内同时通过HDA进行连接。

分割网络

在这里插入图片描述通过DLA对分割网络的增强与分类网络的增强主要却别在上采样部分,如上图所示。

结果对比

仅展示ImageNet的结果,详细的结果对比请参照原文。从结果对比,作者想要说明的是,DLA能够以更少的参数、更少的memory消耗达到与SOTA一致甚至更佳的精度。

在ImageNet 分类结果上的对比

与ResNet、ResNeXT比较
在这里插入图片描述与SqueezeNet的对比
在这里插入图片描述

代码学习

此处援引的是作者提供的官方代码。
在这里插入图片描述网络组成如上图所示,我们以DLA-34为例进行学习。
DLA的block是简单的Basic Residual Block,每个stage的通道数都列在表格中了,及16,32,64,128,256,512分别代表stage1-6的通道数,而-前的数字代表的是聚合深度 。
定义如下图所示:

class BasicBlock(nn.Module):
    def __init__(self, inplanes, planes, stride=1, dilation=1):
        super(BasicBlock, self).__init__()
        self.conv1 = nn.Conv2d(inplanes, planes, kernel_size=3,
                               stride=stride, padding=dilation,
                               bias=False, dilation=dilation)
        self.bn1 = BatchNorm(planes)
        self.relu = nn.ReLU(inplace=True)
        self.conv2 = nn.Conv2d(planes, planes, kernel_size=3,
                               stride=1, padding=dilation,
                               bias=False, dilation=dilation)
        self.bn2 = BatchNorm(planes)
        self.stride = stride

    def forward(self, x, residual=None):
        if residual is None:
            residual = x

        out = self.conv1(x)
        out = self.bn1(out)
        out = self.relu(out)

        out = self.conv2(out)
        out = self.bn2(out)

        out += residual
        out = self.relu(out)

        return out

我们先看一下DLA-34的基本定义:

def dla34(pretrained=None, **kwargs):  # DLA-34
    model = DLA([1, 1, 1, 2, 2, 1],
                [16, 32, 64, 128, 256, 512],
                block=BasicBlock, **kwargs)
    if pretrained is not None:
        model.load_pretrained_model(pretrained, 'dla34')
    return model

DLA的第一个参数代表每一个Stage的聚合深度,第二个参数是每一个Stage的通道数,第三个参数表示block采用的是Basic Residual Block。

那我们下面看一下DLA是如何定义的

class DLA(nn.Module):
    def __init__(self, levels, channels, num_classes=1000,
                 block=BasicBlock, residual_root=False, return_levels=False,
                 pool_size=7, linear_root=False):
        super(DLA, self).__init__()
        self.channels = channels
        self.return_levels = return_levels
        self.num_classes = num_classes
        self.base_layer = nn.Sequential(
            nn.Conv2d(3, channels[0], kernel_size=7, stride=1,
                      padding=3, bias=False),
            BatchNorm(channels[0]),
            nn.ReLU(inplace=True))
        self.level0 = self._make_conv_level(
            channels[0], channels[0], levels[0])
        self.level1 = self._make_conv_level(
            channels[0], channels[1], levels[1], stride=2)
        self.level2 = Tree(levels[2], block, channels[1], channels[2], 2,
                           level_root=False,
                           root_residual=residual_root)
        self.level3 = Tree(levels[3], block, channels[2], channels[3], 2,
                           level_root=True, root_residual=residual_root)
        self.level4 = Tree(levels[4], block, channels[3], channels[4], 2,
                           level_root=True, root_residual=residual_root)
        self.level5 = Tree(levels[5], block, channels[4], channels[5], 2,
                           level_root=True, root_residual=residual_root)

        self.avgpool = nn.AvgPool2d(pool_size)
        self.fc = nn.Conv2d(channels[-1], num_classes, kernel_size=1,
                            stride=1, padding=0, bias=True)

        for m in self.modules():
            if isinstance(m, nn.Conv2d):
                n = m.kernel_size[0] * m.kernel_size[1] * m.out_channels
                m.weight.data.normal_(0, math.sqrt(2. / n))
            elif isinstance(m, BatchNorm):
                m.weight.data.fill_(1)
                m.bias.data.zero_()

    def _make_level(self, block, inplanes, planes, blocks, stride=1):
        downsample = None
        if stride != 1 or inplanes != planes:
            downsample = nn.Sequential(
                nn.MaxPool2d(stride, stride=stride),
                nn.Conv2d(inplanes, planes,
                          kernel_size=1, stride=1, bias=False),
                BatchNorm(planes),
            )

        layers = []
        layers.append(block(inplanes, planes, stride, downsample=downsample))
        for i in range(1, blocks):
            layers.append(block(inplanes, planes))

        return nn.Sequential(*layers)

    def _make_conv_level(self, inplanes, planes, convs, stride=1, dilation=1):
        modules = []
        for i in range(convs):
            modules.extend([
                nn.Conv2d(inplanes, planes, kernel_size=3,
                          stride=stride if i == 0 else 1,
                          padding=dilation, bias=False, dilation=dilation),
                BatchNorm(planes),
                nn.ReLU(inplace=True)])
            inplanes = planes
        return nn.Sequential(*modules)

    def forward(self, x):
        y = []
        x = self.base_layer(x)
        for i in range(6):
            x = getattr(self, 'level{}'.format(i))(x)
            y.append(x)
        if self.return_levels:
            return y
        else:
            x = self.avgpool(x)
            x = self.fc(x)
            x = x.view(x.size(0), -1)

            return x

    def load_pretrained_model(self, data_name, name):
        assert data_name in dataset.__dict__, \
            'No pretrained model for {}'.format(data_name)
        data = dataset.__dict__[data_name]
        fc = self.fc
        if self.num_classes != data.classes:
            self.fc = nn.Conv2d(
                self.channels[-1], data.classes,
                kernel_size=1, stride=1, padding=0, bias=True)
        try:
            model_url = get_model_url(data, name)
        except KeyError:
            raise ValueError(
                '{} trained on {} does not exist.'.format(data.name, name))
        self.load_state_dict(model_zoo.load_url(model_url))
        self.fc = fc

解读一下:

  • _make_level函数是一个带MaxPool下采样的Stage层,代码中未搜索到调用,此处略过
  • _make_conv_level从代码中可以看出是Stage1和Stage2的组成部分,Conv+BN+ReLU,较基础,也略过不说
  • 重点看一下Stage3-6调用的函数Tree
class Tree(nn.Module):
   def __init__(self, levels, block, in_channels, out_channels, stride=1,
                level_root=False, root_dim=0, root_kernel_size=1,
                dilation=1, root_residual=False):
       super(Tree, self).__init__()
       if root_dim == 0:
           root_dim = 2 * out_channels
       if level_root:
           root_dim += in_channels
       if levels == 1:
           self.tree1 = block(in_channels, out_channels, stride,
                              dilation=dilation)
           self.tree2 = block(out_channels, out_channels, 1,
                              dilation=dilation)
       else:
           self.tree1 = Tree(levels - 1, block, in_channels, out_channels,
                             stride, root_dim=0,
                             root_kernel_size=root_kernel_size,
                             dilation=dilation, root_residual=root_residual)
           self.tree2 = Tree(levels - 1, block, out_channels, out_channels,
                             root_dim=root_dim + out_channels,
                             root_kernel_size=root_kernel_size,
                             dilation=dilation, root_residual=root_residual)
       if levels == 1:
           self.root = Root(root_dim, out_channels, root_kernel_size,
                            root_residual)
       self.level_root = level_root
       self.root_dim = root_dim
       self.downsample = None
       self.project = None
       self.levels = levels
       if stride > 1:
           self.downsample = nn.MaxPool2d(stride, stride=stride)
       if in_channels != out_channels:
           self.project = nn.Sequential(
               nn.Conv2d(in_channels, out_channels,
                         kernel_size=1, stride=1, bias=False),
               BatchNorm(out_channels)
           )

   def forward(self, x, residual=None, children=None):
       children = [] if children is None else children
       bottom = self.downsample(x) if self.downsample else x
       residual = self.project(bottom) if self.project else bottom
       if self.level_root:
           children.append(bottom)
       x1 = self.tree1(x, residual)
       if self.levels == 1:
           x2 = self.tree2(x1)
           x = self.root(x2, x1, *children)
       else:
           children.append(x1)
           x = self.tree2(x1, children=children)
       return x

可以看到,当levels大于1时,是通过递归对该模块进行定义。看完代码下来,我理解IDA和HDA虽然具有不同的含义,但从实际从代码实现上是二者实际上都是通过Tree这个模块实现的。

我们就拿level2,也就是Stage3来详细分析:

self.level2 = Tree(levels[2], block, channels[1], channels[2], 2,
                           level_root=False,
                           root_residual=residual_root)

也就是:

  • levels为2
  • block为Basic Block
  • in_channels为32
  • out_channels为64
  • stride为2
  • level_root为False
  • root_dim为0
  • root_kernel_size为1
  • dilation为1
  • root_residual为False

基本实现的就是下图这样的结构:
在这里插入图片描述
x会先过Tree(1,BasicBlock,32,64,stride=2,root_dim=0)和Tree(1,BasicBlock,64,64,stride=1,root_dim=192); 每一个Tree会根据输入参数经过前一个Tree为block(32,64,stride=2)和block(64,64,stride=1)经过Root(128,64),后一个Tree为block(64,64,stride=2)和block(64,64,stride=1)经过Root(192,64)。链接顺序还是要回归到代码中,此处仅整理一下大致思路。

对照这张图看整个结构还是比较清晰的。

Tree里面还调用了Root函数,定义也贴一下:

class Root(nn.Module):
    def __init__(self, in_channels, out_channels, kernel_size, residual):
        super(Root, self).__init__()
        self.conv = nn.Conv2d(
            in_channels, out_channels, kernel_size,
            stride=1, bias=False, padding=(kernel_size - 1) // 2)
        self.bn = BatchNorm(out_channels)
        self.relu = nn.ReLU(inplace=True)
        self.residual = residual

    def forward(self, *x):
        children = x
        x = self.conv(torch.cat(x, 1))
        x = self.bn(x)
        if self.residual:
            x += children[0]
        x = self.relu(x)

        return x
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/lavinia_chen007/article/details/121633607

智能推荐

使用nginx解决浏览器跨域问题_nginx不停的xhr-程序员宅基地

文章浏览阅读1k次。通过使用ajax方法跨域请求是浏览器所不允许的,浏览器出于安全考虑是禁止的。警告信息如下:不过jQuery对跨域问题也有解决方案,使用jsonp的方式解决,方法如下:$.ajax({ async:false, url: 'http://www.mysite.com/demo.do', // 跨域URL ty..._nginx不停的xhr

在 Oracle 中配置 extproc 以访问 ST_Geometry-程序员宅基地

文章浏览阅读2k次。关于在 Oracle 中配置 extproc 以访问 ST_Geometry,也就是我们所说的 使用空间SQL 的方法,官方文档链接如下。http://desktop.arcgis.com/zh-cn/arcmap/latest/manage-data/gdbs-in-oracle/configure-oracle-extproc.htm其实简单总结一下,主要就分为以下几个步骤。..._extproc

Linux C++ gbk转为utf-8_linux c++ gbk->utf8-程序员宅基地

文章浏览阅读1.5w次。linux下没有上面的两个函数,需要使用函数 mbstowcs和wcstombsmbstowcs将多字节编码转换为宽字节编码wcstombs将宽字节编码转换为多字节编码这两个函数,转换过程中受到系统编码类型的影响,需要通过设置来设定转换前和转换后的编码类型。通过函数setlocale进行系统编码的设置。linux下输入命名locale -a查看系统支持的编码_linux c++ gbk->utf8

IMP-00009: 导出文件异常结束-程序员宅基地

文章浏览阅读750次。今天准备从生产库向测试库进行数据导入,结果在imp导入的时候遇到“ IMP-00009:导出文件异常结束” 错误,google一下,发现可能有如下原因导致imp的数据太大,没有写buffer和commit两个数据库字符集不同从低版本exp的dmp文件,向高版本imp导出的dmp文件出错传输dmp文件时,文件损坏解决办法:imp时指定..._imp-00009导出文件异常结束

python程序员需要深入掌握的技能_Python用数据说明程序员需要掌握的技能-程序员宅基地

文章浏览阅读143次。当下是一个大数据的时代,各个行业都离不开数据的支持。因此,网络爬虫就应运而生。网络爬虫当下最为火热的是Python,Python开发爬虫相对简单,而且功能库相当完善,力压众多开发语言。本次教程我们爬取前程无忧的招聘信息来分析Python程序员需要掌握那些编程技术。首先在谷歌浏览器打开前程无忧的首页,按F12打开浏览器的开发者工具。浏览器开发者工具是用于捕捉网站的请求信息,通过分析请求信息可以了解请..._初级python程序员能力要求

Spring @Service生成bean名称的规则(当类的名字是以两个或以上的大写字母开头的话,bean的名字会与类名保持一致)_@service beanname-程序员宅基地

文章浏览阅读7.6k次,点赞2次,收藏6次。@Service标注的bean,类名:ABDemoService查看源码后发现,原来是经过一个特殊处理:当类的名字是以两个或以上的大写字母开头的话,bean的名字会与类名保持一致public class AnnotationBeanNameGenerator implements BeanNameGenerator { private static final String C..._@service beanname

随便推点

二叉树的各种创建方法_二叉树的建立-程序员宅基地

文章浏览阅读6.9w次,点赞73次,收藏463次。1.前序创建#include<stdio.h>#include<string.h>#include<stdlib.h>#include<malloc.h>#include<iostream>#include<stack>#include<queue>using namespace std;typed_二叉树的建立

解决asp.net导出excel时中文文件名乱码_asp.net utf8 导出中文字符乱码-程序员宅基地

文章浏览阅读7.1k次。在Asp.net上使用Excel导出功能,如果文件名出现中文,便会以乱码视之。 解决方法: fileName = HttpUtility.UrlEncode(fileName, System.Text.Encoding.UTF8);_asp.net utf8 导出中文字符乱码

笔记-编译原理-实验一-词法分析器设计_对pl/0作以下修改扩充。增加单词-程序员宅基地

文章浏览阅读2.1k次,点赞4次,收藏23次。第一次实验 词法分析实验报告设计思想词法分析的主要任务是根据文法的词汇表以及对应约定的编码进行一定的识别,找出文件中所有的合法的单词,并给出一定的信息作为最后的结果,用于后续语法分析程序的使用;本实验针对 PL/0 语言 的文法、词汇表编写一个词法分析程序,对于每个单词根据词汇表输出: (单词种类, 单词的值) 二元对。词汇表:种别编码单词符号助记符0beginb..._对pl/0作以下修改扩充。增加单词

android adb shell 权限,android adb shell权限被拒绝-程序员宅基地

文章浏览阅读773次。我在使用adb.exe时遇到了麻烦.我想使用与bash相同的adb.exe shell提示符,所以我决定更改默认的bash二进制文件(当然二进制文件是交叉编译的,一切都很完美)更改bash二进制文件遵循以下顺序> adb remount> adb push bash / system / bin /> adb shell> cd / system / bin> chm..._adb shell mv 权限

投影仪-相机标定_相机-投影仪标定-程序员宅基地

文章浏览阅读6.8k次,点赞12次,收藏125次。1. 单目相机标定引言相机标定已经研究多年,标定的算法可以分为基于摄影测量的标定和自标定。其中,应用最为广泛的还是张正友标定法。这是一种简单灵活、高鲁棒性、低成本的相机标定算法。仅需要一台相机和一块平面标定板构建相机标定系统,在标定过程中,相机拍摄多个角度下(至少两个角度,推荐10~20个角度)的标定板图像(相机和标定板都可以移动),即可对相机的内外参数进行标定。下面介绍张氏标定法(以下也这么称呼)的原理。原理相机模型和单应矩阵相机标定,就是对相机的内外参数进行计算的过程,从而得到物体到图像的投影_相机-投影仪标定

Wayland架构、渲染、硬件支持-程序员宅基地

文章浏览阅读2.2k次。文章目录Wayland 架构Wayland 渲染Wayland的 硬件支持简 述: 翻译一篇关于和 wayland 有关的技术文章, 其英文标题为Wayland Architecture .Wayland 架构若是想要更好的理解 Wayland 架构及其与 X (X11 or X Window System) 结构;一种很好的方法是将事件从输入设备就开始跟踪, 查看期间所有的屏幕上出现的变化。这就是我们现在对 X 的理解。 内核是从一个输入设备中获取一个事件,并通过 evdev 输入_wayland

推荐文章

热门文章

相关标签