部分卷积与FasterNet模型详解

简介

论文原址:2023CVPR:https://arxiv.org/pdf/2303.03667.pdf

代码仓库:GitHub - JierunChen/FasterNet: [CVPR 2023] Code for PConv and FasterNet

为了设计快速神经网络,很多工作都集中于减少浮点运算(FLOPs)的数量上面,但是作者发现FLOPs的减少不一定会带来延迟的类似程度的减少。这源于每秒低浮点运算(FLOPs)的效率低下,而这源于FLOPs的运算符频繁访问内存,尤其是深度卷积,因此,提出了Partial Convolution,通过同时减少冗余计算和内存访问可以更有效地提取空间特征。并以此提出了FasterNet。

部分卷积

DWConv是Conv的一种流行变体,已被广泛用作许多神经网络的关键构建块,虽然DWConv(通常后跟逐点卷积或PWConv)可以有效地减少FLOPs,但不能简单地用于取代常规Conv,因为它会导致严重的精度下降。

在计算效率方面,PConv的FLOPs(浮点运算数)仅为常规卷积的一小部分,具体来说,当部分比例(partial ratio)为1/4时,FLOPs仅为常规卷积的1/16。内存访问量也显著减少,尤其在部分比例为1/4时,仅为常规卷积的1/4。

class PartialConv(nn.Module):def __init__(self, dim, n_div=4, kernel_size=3, forward='split_cat'):"""PartialConv 模块Args:dim (int): 输入张量的通道数。n_div (int): 分割通道数的分母,用于确定部分卷积的通道数。forward (str): 使用的前向传播方法,可选 'slicing' 或 'split_cat'。"""super().__init__()self.dim_conv3 = dim // n_divself.dim_untouched = dim - self.dim_conv3self.partial_conv3 = nn.Conv2d(self.dim_conv3, self.dim_conv3, kernel_size, 1, 1, bias=False)if forward == 'slicing':self.forward = self.forward_slicingelif forward == 'split_cat':self.forward = self.forward_split_catelse:raise NotImplementedErrordef forward_slicing(self, x):# only for inferencex = x.clone()   # !!! Keep the original input intact for the residual connection laterx[:, :self.dim_conv3, :, :] = self.partial_conv3(x[:, :self.dim_conv3, :, :])return xdef forward_split_cat(self, x):# for training/inferencex1, x2 = torch.split(x, [self.dim_conv3, self.dim_untouched], dim=1)x1 = self.partial_conv3(x1)x = torch.cat((x1, x2), 1)return x

在代码当中设计了两种前向传播方式:

"forward_slicing" 主要用于推理阶段,在推理时,复制输入张量,然后仅在部分通道上进行卷积操作,保持其余通道不变。避免了对原始输入张量的修改,使得原始输入张量可以在后续的计算中被保留,如用于残差连接。

"forward_split_cat" 可用于训练和推理阶段, 在训练和推理时,该方法将输入张量分割成两部分,对第一部分进行卷积操作,然后将结果与原始未修改的第二部分拼接回来。对于训练过程,通过在部分通道上进行卷积,模型可以学到更适应当前任务的特征。同时,保留了原始未修改的通道,以用于后续的计算。

FasterNet作为Backbone

它分为四个阶段(Stage),每个阶段包含一系列的FasterNet块(FasterNet Block),并在每个阶段之前有一个嵌入(Embedding)或合并(Merging)层。最后的三个层用于特征分类。

在每个FasterNet块内部,采用了Partial Convolution (PConv) 操作,其后接两个Pointwise Convolution (PWConv) 操作。这一结构有效利用了所有通道的信息,形成一个T形的卷积结构,使得模型更加关注中心位置的特征。在PConv操作后,只在中间层之后加入归一化和激活层,以保持特征的多样性和降低计算延迟。

对于激活函数的选择,根据计算预算的大小,选择了GELU(对于较小的FasterNet变体)和ReLU(对于较大的FasterNet变体)。最后三层,即全局平均池化、Conv 1x1和全连接层,用于进行特征变换和分类。

为了满足不同的计算预算,提供了四个不同大小的FasterNet变体,分别为FasterNet-T0/1/2、FasterNet-S、FasterNet-M和FasterNet-L。这些变体在深度和宽度上略有差异,但整体架构相似。详细的架构规格可在附录中找到。

下面的网络复现是参考的原作者以及下面paddle版本的实现:

"""
Paper address: <https://arxiv.org/pdf/2303.03667.pdf>
Reference from: https://github.com/JierunChen/FasterNet/blob/master/models/fasternet.py
Blog records: https://blog.csdn.net/m0_62919535/article/details/136334105
"""
import torch
import torch.nn as nn
from pyzjr.Models.bricks import DropPath__all__=["FasterNet", "FasterNetBlock", "fasternet_t0", "fasternet_t1", "fasternet_t2","fasternet_s", "fasternet_m", "fasternet_l"]class PartialConv(nn.Module):def __init__(self, dim, n_div=4, kernel_size=3, forward='split_cat'):"""PartialConv 模块Args:dim (int): 输入张量的通道数。n_div (int): 分割通道数的分母,用于确定部分卷积的通道数。forward (str): 使用的前向传播方法,可选 'slicing' 或 'split_cat'。"""super().__init__()self.dim_conv3 = dim // n_divself.dim_untouched = dim - self.dim_conv3self.partial_conv3 = nn.Conv2d(self.dim_conv3, self.dim_conv3, kernel_size, 1, 1, bias=False)if forward == 'slicing':self.forward = self.forward_slicingelif forward == 'split_cat':self.forward = self.forward_split_catelse:raise NotImplementedErrordef forward_slicing(self, x):# only for inferencex = x.clone()   # !!! Keep the original input intact for the residual connection laterx[:, :self.dim_conv3, :, :] = self.partial_conv3(x[:, :self.dim_conv3, :, :])return xdef forward_split_cat(self, x):# for training/inferencex1, x2 = torch.split(x, [self.dim_conv3, self.dim_untouched], dim=1)x1 = self.partial_conv3(x1)x = torch.cat((x1, x2), 1)return xclass FasterNetBlock(nn.Module):def __init__(self, dim, expand_ratio=2, act_layer=nn.ReLU, drop_path_rate=0.0, forward='split_cat'):super().__init__()self.pconv = PartialConv(dim, forward=forward)self.conv1 = nn.Conv2d(dim, dim * expand_ratio, 1, bias=False)self.bn = nn.BatchNorm2d(dim * expand_ratio)self.act_layer = act_layer()self.conv2 = nn.Conv2d(dim * expand_ratio, dim, 1, bias=False)self.drop_path = DropPath(drop_path_rate) if drop_path_rate > 0.0 else nn.Identity()def forward(self, x):residual = xx = self.pconv(x)x = self.conv1(x)x = self.bn(x)x = self.act_layer(x)x = self.conv2(x)x = residual + self.drop_path(x)return xclass FasterNet(nn.Module):def __init__(self, in_channel=3, embed_dim=40, act_layer=None,num_classes=1000, depths=None, drop_rate=0.0):super().__init__()# Embeddingself.stem = nn.Sequential(nn.Conv2d(in_channel, embed_dim, 4, stride=4, bias=False),nn.BatchNorm2d(embed_dim),act_layer())drop_path_list = [x.item() for x in torch.linspace(0, drop_rate, sum(depths))]self.feature = []embed_dim = embed_dimfor idx, depth in enumerate(depths):self.feature.append(nn.Sequential(*[FasterNetBlock(embed_dim, act_layer=act_layer, drop_path_rate=drop_path_list[sum(depths[:idx]) + i]) for i in range(depth)]))if idx < len(depths) - 1:# Mergingself.feature.append(nn.Sequential(nn.Conv2d(embed_dim, embed_dim * 2, 2, stride=2, bias=False),nn.BatchNorm2d(embed_dim * 2),act_layer()))embed_dim = embed_dim * 2self.feature = nn.Sequential(*self.feature)self.avg_pool = nn.AdaptiveAvgPool2d(1)self.conv1 = nn.Conv2d(embed_dim, 1280, 1, bias=False)self.act_layer = act_layer()self.fc = nn.Linear(1280, num_classes)for m in self.modules():if isinstance(m, nn.Conv2d):nn.init.kaiming_normal_(m.weight)elif isinstance(m, nn.BatchNorm2d):nn.init.constant_(m.weight, 1)nn.init.constant_(m.bias, 0)elif isinstance(m, nn.Linear):nn.init.constant_(m.bias, 0)def forward(self, x):x = self.stem(x)x = self.feature(x)x = self.avg_pool(x)x = self.conv1(x)x = self.act_layer(x)x = self.fc(x.flatten(1))return xdef fasternet_t0(num_classes, drop_path_rate=0.0):return FasterNet(embed_dim=40,act_layer=nn.GELU,num_classes=num_classes,depths=[1, 2, 8, 2],drop_rate=drop_path_rate)def fasternet_t1(num_classes, drop_path_rate=0.02):return FasterNet(embed_dim=64,act_layer=nn.GELU,num_classes=num_classes,depths=[1, 2, 8, 2],drop_rate=drop_path_rate)def fasternet_t2(num_classes, drop_path_rate = 0.05):return FasterNet(embed_dim=96,act_layer=nn.ReLU,num_classes=num_classes,depths=[1, 2, 8, 2],drop_rate=drop_path_rate)def fasternet_s(num_classes, drop_path_rate = 0.03):return FasterNet(embed_dim=128,act_layer=nn.ReLU,num_classes=num_classes,depths=[1, 2, 13, 2],drop_rate=drop_path_rate)def fasternet_m(num_classes, drop_path_rate = 0.05):return FasterNet(embed_dim=144,act_layer=nn.ReLU,num_classes=num_classes,depths=[3, 4, 18, 3],drop_rate=drop_path_rate)def fasternet_l(num_classes, drop_path_rate = 0.05):return FasterNet(embed_dim=192,act_layer=nn.ReLU,num_classes=num_classes,depths=[3, 4, 18, 3],drop_rate=drop_path_rate)if __name__=="__main__":import torchsummarydevice = 'cuda' if torch.cuda.is_available() else 'cpu'input = torch.ones(2, 3, 224, 224).to(device)net = fasternet_t2(num_classes=4)net = net.to(device)out = net(input)print(out)print(out.shape)torchsummary.summary(net, input_size=(3, 224, 224))# t0 Total params: 2,629,624 Estimated Total Size (MB): 57.70# t1 Total params: 6,319,492 Estimated Total Size (MB): 100.02# t2 Total params: 13,707,012 Estimated Total Size (MB): 165.87# s Total params: 29,905,156 Estimated Total Size (MB): 304.56# m Total params: 52,245,588 Estimated Total Size (MB): 568.01# l Total params: 92,189,316 Estimated Total Size (MB): 843.09

参考文章

CVPR 2023 | 最新主干FasterNet!远超MobileViT等模型-CSDN博客

【CVPR2023】FasterNet:追逐更高FLOPS、更快的神经网络-CSDN博客

FasterNet实战:使用FasterNet实现图像分类任务(二)_fasternet代码实现-CSDN博客

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/496966.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【蓝桥杯】快读|min和max值的设置|小明和完美序列|​顺子日期​|星期计算|山

目录 一、输入的三种方式 1.最常见的Scanner的输入方法 2.数据多的时候常用BufferedReader快读 3.较麻烦的StreamTokenizer快读&#xff08;用的不多&#xff09; StreamTokenizer常见错误&#xff1a; 二、min和max值的设置 三、妮妮的翻转游戏 四、小明和完美序列 五…

flink学习之旅(二)

目前flink中的资源管理主要是使用的hadoop圈里的yarn&#xff0c;故此需要先搭建hadoop环境并启动yarn和hdfs&#xff0c;由于看到的教程都是集群版&#xff0c;现实是只有1台机器&#xff0c;故此都是使用这台机器安装。 1.下载对应hadoop安装包 https://dlcdn.apache.org/h…

3D图像与表格的结合MICCAI2021

先前从大脑MRI诊断阿尔茨海默病的工作表明&#xff0c;卷积神经网络&#xff08;CNNs&#xff09;可以利用图像信息进行分类。然而&#xff0c;很少有研究关注这些模型如何利用表格信息&#xff0c;如患者统计数据或实验测量数据。这里介绍了动态仿射特征图变换&#xff08;DAF…

springboot之jdbc、druid、mybatis

springboot整合jdbc spring:datasource:driver-class-name: com.mysql.cj.jdbc.Driverurl: jdbc:mysql://192.168.52.3:3306/mybatis?useUnicodetrue&characterEncodingutf-8&serverTimezoneUTCusername: rootpassword: root<?xml version"1.0" encodi…

虚拟机中window7界面太小解决办法

1.在虚拟机中的桌面的空白处右击&#xff0c;然后点击屏幕分辨率 2.根据自己电脑屏幕的大小来选择对应分辨率

【数据结构】从链表到LinkedList类

&#x1f9e7;&#x1f9e7;&#x1f9e7;&#x1f9e7;&#x1f9e7;个人主页&#x1f388;&#x1f388;&#x1f388;&#x1f388;&#x1f388; &#x1f9e7;&#x1f9e7;&#x1f9e7;&#x1f9e7;&#x1f9e7;数据结构专栏&#x1f388;&#x1f388;&#x1f388;&…

猫头虎分享已解决Bug || 依赖问题:DependencyNotFoundException: Module ‘xyz‘ was not found

博主猫头虎的技术世界 &#x1f31f; 欢迎来到猫头虎的博客 — 探索技术的无限可能&#xff01; 专栏链接&#xff1a; &#x1f517; 精选专栏&#xff1a; 《面试题大全》 — 面试准备的宝典&#xff01;《IDEA开发秘籍》 — 提升你的IDEA技能&#xff01;《100天精通鸿蒙》 …

如何使用 Pandas 删除 DataFrame 中的非数字类型数据?

目录 前言 识别非数字类型数据 删除非数字类型数据 1. 使用 drop() 方法删除非数字类型的列 2. 使用布尔索引删除非数字类型的行 3. 使用 applymap() 方法转换非数字类型数据 4. 使用 to_numeric() 函数转换非数字类型数据 应用实例&#xff1a;处理销售数据 总结 前言 在…

【踩坑】修复xrdp无法关闭Authentication Required验证窗口

转载请注明出处&#xff1a;小锋学长生活大爆炸[xfxuezhang.cn] 问题如下&#xff0c;时不时出现&#xff0c;有时还怎么都关不掉&#xff0c;很烦&#xff1a; 解决方法一&#xff1a;命令行输入 dbus-send --typemethod_call --destorg.gnome.Shell /org/gnome/Shell org.gn…

LabVIEW光伏逆变器低电压穿越能力测试

LabVIEW光伏逆变器低电压穿越能力测试 随着光伏发电技术的迅速发展&#xff0c;光伏逆变器的低电压穿越&#xff08;LVRT&#xff09;能力日益成为影响电网稳定性的关键因素。为了提升光伏逆变器的并网性能&#xff0c;开发了一套基于LabVIEW的光伏逆变器LVRT测试系统。该系统…

C++:模版初阶 | STL简介

创作不易&#xff0c;感谢支持&#xff01;&#xff01; 一、泛型编程思想 如何实现一个通用的交换函数呢&#xff1f; 注&#xff1a;其实swap函数在C的标准库提供了&#xff0c;不需要自己写&#xff0c;这边只是举个例子 void Swap(int& left, int& right) { in…

浅谈 Linux fork 函数

文章目录 前言fork 基本概念代码演示示例1&#xff1a;体会 fork 函数返回值的作用示例2&#xff1a;创建多进程&#xff0c;加深对 fork 函数的理解 前言 本篇介绍 fork 函数。 fork 基本概念 pid_t fork(void) fork 的英文含义是"分叉"&#xff0c;在这里就是 …