【图像分类】【深度学习】【轻量级网络】【Pytorch版本】ShuffleNet_V1模型算法详解
文章目录
- 【图像分类】【深度学习】【轻量级网络】【Pytorch版本】ShuffleNet_V1模型算法详解
- 前言
- ShuffleNet_V1讲解
- group convolution(分组卷积)
- Channel Shuffle(通道混洗)
- ShuffleNet Uint(ShuffleNet基础单元)
- ShuffleNet_V1模型结构
- ShuffleNet_V1 Pytorch代码
- 完整代码
- 总结
前言
ShuffleNet_V1是由旷视科技的Zhang, Xiangyu等人在《ShuffleNet: An Extremely Efficient Convolutional Neural Network for Mobile Devices【CVPR-2018】》【论文地址】一文中提出的模型,是一种采用了逐点组卷积和通道混洗的轻量级CNN网络,在保持精度的同时大大降低了计算成本。
ShuffleNet_V1讲解
一般的卷积是全通道卷积,即在所有输入特征图上进行卷积,这是一种通道密集连接方式(channel dense connection),而组卷积(group convolution)相比则是一种通道稀疏连接方式(channel sparse connection)。组卷积将输入层的不同特征图进行分组,然后采用不同的卷积核再对各个组进行组内卷积,这样会降低卷积的计算量。ShuffleNet_V1的核心设计理念是对不同的通道进行随机组合重排(shuffle)来解决组卷积带来的弊端。
group convolution(分组卷积)
组卷积在ResNeXt【参考】中已经有效地证明了其有效性。组卷积是一种将输入特征图分成多个组,并对每个组进行独立卷积的技术,这种方法可以增加模型的非线性能力和表示能力,同时减少了计算量。
最近,MobileNet【参考】利用了深度可分离卷积获得轻量级模型,并在轻量级模型中获得了显著的效果。ShuffleNet_V1将组卷积和深度可分卷积以一种新的形式进行了推广。
Channel Shuffle(通道混洗)
分组卷积存在缺点:当前网络层的某个输出通道只与某几个输入通道相关,也就是某个通道的输出只来自一小部分的输入通道,这阻碍了通道组之间的信息交流。
下图是ShuffleNet_V1论文中普通分组卷积和通道混洗的分组卷积之间的详细示意图:
图(a)中不同颜色代表不同的分组,每个分组的输入的没有掺杂其他分组的特征,这就相当于各自管各自的,导致了分组之间信息的闭塞。如果允许每个分组卷积获取不同组的特征,如图(b)所示,将GConv1所有分组的输出特征Feature都根据组数均匀分发,作为GConv2每个分组的输入,那么输出(Output)和输入(Input)通道就完全相关了。这种混洗操作可以通过图(c)的通道混洗高效优雅地实现。
ShuffleNet Uint(ShuffleNet基础单元)
基于ResNet【参考】的残差模块,新增了了通道混洗操作和深度可分离卷积操作。
下图是ShuffleNet_V1论文中ShuffleNet单元的详细示意图:
图(a)是一个典型的带有深度可分离卷积【参考】的残差结构,ShuffleNet_V1在此基础上设计出ShuffleNet单元。图(b)则是stride=1时的ShuffleNet单元,使用1x1分组卷积代替密集的1x1卷积,降低原1x1卷积的开销,同时加入Channel Shuffle实现跨通道信息交流。图(c)则是stride=2时的ShuffleNet单元,因为需要对特征图进行下采样,因此在图(b)结构基础上对残差连接分支采用stride=2的3x3全局平局池化,然后将主干输出特征和分支特征进行concat,而不再是add,大大的降低计算量与参数大小。
ShuffleNet_V1模型结构
下图是原论文给出的关于ShuffleNet_V1模型结构的详细示意图:
ShuffleNet_V1在图像分类中分为两部分:backbone部分: 主要由ShuffleNet基础单元、卷积层和池化层(汇聚层)组成,分类器部分:由全局池化层和全连接层组成 。
在ShuffleNet_V1基础单元中,组数g控制1×1卷积的连接稀疏性,在给定相同的参数量限制下,如果分组数g更大,那么网络的通道数可以更大,即分组数越大,则允许输出通道数越大,而网络参数可以大致不变。
ShuffleNet_V1 Pytorch代码
ShuffleNet Uint的组成部分: 首先使用1×1分组卷积进行降维,然后通道混洗后使用3×3深度卷积进行特征提取,最后在使用1×1分组卷积进行升维。
# 1×1卷积(降维/升维)
def conv1x1(in_chans, out_chans, n_groups=1):return nn.Conv2d(in_chans, out_chans, kernel_size=1, stride=1, groups=n_groups)# 3×3深度卷积
def conv3x3(in_chans, out_chans, stride, n_groups=1):# Attention: no matter what the stride is, the padding will always be 1.return nn.Conv2d(in_chans, out_chans, kernel_size=3, padding=1, stride=stride, groups=n_groups)
通道混洗: 更强的特征交互性和表达能力。
def channel_shuffle(x, n_groups):# 获得特征图的所以维度的数据batch_size, chans, height, width = x.shape# 对特征通道进行分组chans_group = chans // n_groups# reshape新增特征图的维度x = x.view(batch_size, n_groups, chans_group, height, width)# 通道混洗(将输入张量的指定维度进行交换)x = torch.transpose(x, 1, 2).contiguous()# reshape降低特征图的维度x = x.view(batch_size, -1, height, width)return x
通道混洗的代码示意图如下图所示:
ShuffleNet Uint基础单元): 分组卷积层和深度可分离卷积层+BN层+激活函数
class ShuffleUnit(nn.Module):def __init__(self, in_chans, out_chans, stride, n_groups=1):super(ShuffleUnit, self).__init__()# 1×1分组卷积降维后的维度self.bottle_chans = out_chans // 4# 分组卷积的分组数self.n_groups = n_groups# 是否进行下采样()if stride == 1:# 不进行下采样,分支和主干特征形状完全一致,直接执行add相加self.end_op = 'Add'self.out_chans = out_chanselif stride == 2:# 进行下采样,分支和主干特征形状不一致,分支也需进行下采样,而后再进行concat拼接self.end_op = 'Concat'self.out_chans = out_chans - in_chans# 1×1卷积进行降维self.unit_1 = nn.Sequential(conv1x1(in_chans, self.bottle_chans, n_groups=n_groups),nn.BatchNorm2d(self.bottle_chans),nn.ReLU())# 3×3深度卷积进行特征提取self.unit_2 = nn.Sequential(conv3x3(self.bottle_chans, self.bottle_chans, stride, n_groups=n_groups),nn.BatchNorm2d(self.bottle_chans))# 1×1卷积进行升维self.unit_3 = nn.Sequential(conv1x1(self.bottle_chans, self.out_chans, n_groups=n_groups),nn.BatchNorm2d(self.out_chans))self.relu = nn.ReLU(inplace=True)def forward(self, inp):# 分支的处理方式(是否需要下采样)if self.end_op == 'Add':residual = inpelse:residual = F.avg_pool2d(inp, kernel_size=3, stride=2, padding=1)x = self.unit_1(inp)x = channel_shuffle(x, self.n_groups)x = self.unit_2(x)x = self.unit_3(x)# 分支与主干的融合方式if self.end_op == 'Add':return self.relu(residual + x)else:return self.relu(torch.cat((residual, x), 1))
完整代码
import torch
import torch.nn as nn
import torch.nn.functional as F
from torch.nn import init
from collections import OrderedDict
from torchsummary import summary# 1×1卷积(降维/升维)
def conv1x1(in_chans, out_chans, n_groups=1):return nn.Conv2d(in_chans, out_chans, kernel_size=1, stride=1, groups=n_groups)# 3×3深度卷积
def conv3x3(in_chans, out_chans, stride, n_groups=1):# Attention: no matter what the stride is, the padding will always be 1.return nn.Conv2d(in_chans, out_chans, kernel_size=3, padding=1, stride=stride, groups=n_groups)def channel_shuffle(x, n_groups):# 获得特征图的所以维度的数据batch_size, chans, height, width = x.shape# 对特征通道进行分组chans_group = chans // n_groups# reshape新增特征图的维度x = x.view(batch_size, n_groups, chans_group, height, width)# 通道混洗(将输入张量的指定维度进行交换)x = torch.transpose(x, 1, 2).contiguous()# reshape降低特征图的维度x = x.view(batch_size, -1, height, width)return xclass ShuffleUnit(nn.Module):def __init__(self, in_chans, out_chans, stride, n_groups=1):super(ShuffleUnit, self).__init__()# 1×1分组卷积降维后的维度self.bottle_chans = out_chans // 4# 分组卷积的分组数self.n_groups = n_groups# 是否进行下采样()if stride == 1:# 不进行下采样,分支和主干特征形状完全一致,直接执行add相加self.end_op = 'Add'self.out_chans = out_chanselif stride == 2:# 进行下采样,分支和主干特征形状不一致,分支也需进行下采样,而后再进行concat拼接self.end_op = 'Concat'self.out_chans = out_chans - in_chans# 1×1卷积进行降维self.unit_1 = nn.Sequential(conv1x1(in_chans, self.bottle_chans, n_groups=n_groups),nn.BatchNorm2d(self.bottle_chans),nn.ReLU())# 3×3深度卷积进行特征提取self.unit_2 = nn.Sequential(conv3x3(self.bottle_chans, self.bottle_chans, stride, n_groups=n_groups),nn.BatchNorm2d(self.bottle_chans))# 1×1卷积进行升维self.unit_3 = nn.Sequential(conv1x1(self.bottle_chans, self.out_chans, n_groups=n_groups),nn.BatchNorm2d(self.out_chans))self.relu = nn.ReLU(inplace=True)def forward(self, inp):# 分支的处理方式(是否需要下采样)if self.end_op == 'Add':residual = inpelse:residual = F.avg_pool2d(inp, kernel_size=3, stride=2, padding=1)x = self.unit_1(inp)x = channel_shuffle(x, self.n_groups)x = self.unit_2(x)x = self.unit_3(x)# 分支与主干的融合方式if self.end_op == 'Add':return self.relu(residual + x)else:return self.relu(torch.cat((residual, x), 1))class ShuffleNetV1(nn.Module):def __init__(self, n_groups, n_classes, stage_out_chans):super(ShuffleNetV1, self).__init__()# 输入通道self.in_chans = 3# 分组组数self.n_groups = n_groups# 分类个数self.n_classes = n_classesself.conv1 = conv3x3(self.in_chans, 24, 2)self.maxpool = nn.MaxPool2d(3, 2, 1)# Stage 2op = OrderedDict()unit_prefix = 'stage_2_unit_'# 每个Stage的首个基础单元都需要进行下采样,其他单元不需要op[unit_prefix+'0'] = ShuffleUnit(24, stage_out_chans[0], 2, self.n_groups)for i in range(3):op[unit_prefix+str(i+1)] = ShuffleUnit(stage_out_chans[0], stage_out_chans[0], 1, self.n_groups)self.stage2 = nn.Sequential(op)# Stage 3op = OrderedDict()unit_prefix = 'stage_3_unit_'op[unit_prefix+'0'] = ShuffleUnit(stage_out_chans[0], stage_out_chans[1], 2, self.n_groups)for i in range(7):op[unit_prefix+str(i+1)] = ShuffleUnit(stage_out_chans[1], stage_out_chans[1], 1, self.n_groups)self.stage3 = nn.Sequential(op)# Stage 4op = OrderedDict()unit_prefix = 'stage_4_unit_'op[unit_prefix+'0'] = ShuffleUnit(stage_out_chans[1], stage_out_chans[2], 2, self.n_groups)for i in range(3):op[unit_prefix+str(i+1)] = ShuffleUnit(stage_out_chans[2], stage_out_chans[2], 1, self.n_groups)self.stage4 = nn.Sequential(op)# 全局平局池化self.global_pool =nn.AdaptiveAvgPool2d((1, 1))# 全连接层self.fc = nn.Linear(stage_out_chans[-1], self.n_classes)# 权重初始化self.init_params()# 权重初始化def init_params(self):for m in self.modules():if isinstance(m, nn.Conv2d):nn.init.kaiming_normal_(m.weight, mode='fan_out')if m.bias is not None:nn.init.zeros_(m.bias)elif isinstance(m, nn.BatchNorm2d):nn.init.ones_(m.weight)nn.init.zeros_(m.bias)elif isinstance(m, nn.Linear):nn.init.normal_(m.weight, 0, 0.01)nn.init.zeros_(m.bias)def forward(self, x):x = self.conv1(x)x = self.maxpool(x)x = self.stage2(x)x = self.stage3(x)x = self.stage4(x)x = self.global_pool(x)x = x.view(x.size(0), -1)x = self.fc(x)return x# 不同分组数对应的通道数也不同
stage_out_chans_list = [[144, 288, 576], [200, 400, 800], [240, 480, 960],[272, 544, 1088], [384, 768, 1536]]
def shufflenet_v1_groups1(n_groups=1, n_classes=1000):model = ShuffleNetV1(n_groups=n_groups, n_classes=n_classes, stage_out_chans=stage_out_chans_list[n_groups-1])return modeldef shufflenet_v1_groups2(n_groups=2, n_classes=1000):model = ShuffleNetV1(n_groups=n_groups, n_classes=n_classes, stage_out_chans=stage_out_chans_list[n_groups-1])return modeldef shufflenet_v1_groups3(n_groups=3, n_classes=1000):model = ShuffleNetV1(n_groups=n_groups, n_classes=n_classes, stage_out_chans=stage_out_chans_list[n_groups-1])return modeldef shufflenet_v1_groups4(n_groups=4, n_classes=1000):model = ShuffleNetV1(n_groups=n_groups, n_classes=n_classes, stage_out_chans=stage_out_chans_list[n_groups-1])return modeldef shufflenet_v1_groupsother(n_groups=5, n_classes=1000):# groups>4model = ShuffleNetV1(n_groups=n_groups, n_classes=n_classes, stage_out_chans=stage_out_chans_list[-1])return modelif __name__ == '__main__':device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")model = shufflenet_v1_groups1().to(device)summary(model, input_size=(3, 224, 224))
summary可以打印网络结构和参数,方便查看搭建好的网络结构。
总结
尽可能简单、详细的介绍了分组卷积通道混洗的原理和过程,讲解了ShuffleNet_V1模型的结构和pytorch代码。