使用Pytorch从零开始构建Conditional PixelCNN

条件 PixelCNN

PixelCNN 是 PixelRNN 的卷积版本,它将图像中的像素视为一个序列,并在看到前面的像素后预测每个像素(定义如上和左,尽管这是任意的)。PixelRNN 是图像联合先验分布的自回归模型:
p ( x ) = p ( x 0 ) ∏ p ( x i ∣ x 0 , ⋯ , x i − 1 ) p(x) = p(x_0 ) ∏ p(x_i | x_0, \cdots,x_{i-1} ) p(x)=p(x0)p(xix0,,xi1)
PixelRNN 的训练速度很慢,因为循环无法并行化——即使是小图像也有数百或数千个像素,这对于 RNN 来说是一个相对较长的序列。用掩码卷积替换循环,使卷积滤波器仅看到上方和左侧的像素,从而实现更快的训练(图来自条件 PixelCNN 论文)。
在这里插入图片描述

然而,值得注意的是,最初的 PixelCNN 实现产生的结果比 PixelRNN 更差。在后续论文(使用 PixelCNN 解码器生成条件图像)中推测,结果降级的一个可能原因是 PixelCNN 中的 ReLU 激活与 LSTM 中的门控连接相比相对简单。Conditional PixelCNN 论文随后用门控激活取代了 ReLU:
y = t a n h ( W f ∗ x ) • σ ( W g ∗ x ) y = tanh (W f * x) • σ(W g * x) y=tanh(Wfx)σ(Wgx)
后续论文中提供的另一个可能的原因是,堆叠掩模卷积滤波器会导致盲点,无法捕获预测像素之上的所有像素(论文中的图):
在这里插入图片描述

PixelCNN 与 GAN

PixelCNN 和 GAN 是目前用于生成图像的两种深度学习模型。GAN 最近受到了很多关注,但在很多方面我发现它们的流行是没有根据的。

目前尚不清楚 GAN 实际上试图优化什么目标,因为训练目标的最小值(即愚弄鉴别器)将导致生成器重新创建所有训练图像和/或生成不一定类似于自然图像的对抗性示例。这反映在训练 GAN 的众所周知的困难以及无数的对其进行正则化的技巧上。让两个网络相互对抗以产生训练信号的想法很有趣,并且已经产生了许多好的论文(尤其是 CycleGAN),但我仍然不相信它们除了在社交媒体上发布华丽的帖子之外还有其他用途。

另一方面,PixelCNN 有很好的概率基础。这使得它们不仅可以通过对分布进行采样(从左到右,从上到下,遵循自回归定义)来生成图像,而且还意味着它们可以用于其他任务。例如:作为预筛选网络来检测域外或对抗性示例;用于检测训练集中的异常值;或估计测试中的不确定性。我将在下一篇文章中详细介绍其中一些扩展。

我很想知道是否有人尝试过将 PixelCNN 和 GAN 结合起来。也许 PixelCNN 可以用作解码器的前级或最后阶段(以一些更高级别的学习表示为条件),以避免 GAN 的一些训练困难。

实现

我的实现使用门控块,但为了快速实现,我决定放弃针对盲点问题的双流解决方案(将滤波器分为水平和垂直组件)。有代码可用于解决 Tensorflow 中的盲点问题,并且在 PyTorch 中重写它相当简单。这样,掩蔽就很简单:当前像素下方和右侧的所有内容在滤波器中都被清零,并且在第一层中,当前像素也在滤波器中设置为零。

class MaskedConv(nn.Conv2d):def __init__(self,mask_type,in_channels,out_channels,kernel_size,stride=1):"""mask_type: 'A' for first layer of network, 'B' for all others"""super(MaskedConv,self).__init__(in_channels,out_channels,kernel_size,stride,padding=kernel_size//2)assert mask_type in ('A','B')mask = torch.ones(1,1,kernel_size,kernel_size)mask[:,:,kernel_size//2,kernel_size//2+(mask_type=='B'):] = 0mask[:,:,kernel_size//2+1:] = 0self.register_buffer('mask',mask)def forward(self,x):self.weight.data *= self.maskreturn super(MaskedConv,self).forward(x)

门控 ResNet 块的实现稍微复杂一些:PixelCNN 在网络的两半之间有快捷连接,就像 U-Net 一样;PyTorch 允许模块的前向方法仅在输入是变量时才接受多个输入;由于网络前半部分的特征图不是变量,因此它们必须与其他输入(前一层的特征)连接起来。使用条件向量可以避免这种情况,因为它是一个变量(在本例中为类标签)。

class GatedRes(nn.Module):def __init__(self,in_channels,out_channels,n_classes,kernel_size=3,stride=1,aux_channels=0):super(GatedRes,self).__init__()self.conv = MaskedConv('B',in_channels,2*out_channels,kernel_size,stride)self.y_embed = nn.Linear(n_classes,2*out_channels)self.out_channels = out_channelsif aux_channels!=2*out_channels and aux_channels!=0:self.aux_shortcut = nn.Sequential(nn.Conv2d(aux_channels,2*out_channels,1),nn.BatchNorm2d(2*out_channels,momentum=0.1))if in_channels!=out_channels:self.shortcut = nn.Sequential(nn.Conv2d(in_channels,out_channels,1),nn.BatchNorm2d(out_channels,momentum=0.1))self.batchnorm = nn.BatchNorm2d(out_channels,momentum=0.1)def forward(self,x,y):# check for aux input from first half of net stacked into xif x.dim()==5:x,aux = torch.split(x,1,dim=0)x = torch.squeeze(x,0)aux = torch.squeeze(x,0)else:aux = Nonex1 = self.conv(x)y = torch.unsqueeze(torch.unsqueeze(self.y_embed(y),-1),-1)if aux is not None:if hasattr(self,'aux_shortcut'):aux = self.aux_shortcut(aux)x1 = (x1+aux)/2# split for gate (note: pytorch dims are [n,c,h,w])xf,xg = torch.split(x1,self.out_channels,dim=1)yf,yg = torch.split(y,self.out_channels,dim=1)f = torch.tanh(xf+yf)g = torch.sigmoid(xg+yg)if hasattr(self,'shortcut'):x = self.shortcut(x)return x+self.batchnorm(g*f)

我不确定在阅读原始论文时将批量归一化放在哪里,所以我将它放在我认为有意义的地方:在添加剩余连接之前。

实现这两个类后,整个网络就相对容易了。PyTorch 方案将所有内容定义为 的子类nn.Module,初始化所有层/操作/等。在构造函数中,然后在forward方法中将它们连接在一起可能会很混乱。如果您有大量快捷连接并且想要使用任意深度的循环对模型进行编码,则尤其如此。

注意:为了能够保存/恢复模型,您必须将图层存储在一个ModuleList而不是常规列表中。不过,附加和索引此列表在其他方面是相同的。

class PixelCNN(nn.Module):def __init__(self,in_channels,n_classes,n_features,n_layers,n_bins,dropout=0.5):super(PixelCNN,self).__init__()self.layers = nn.ModuleList()self.n_layers = n_layers# Up passself.input_batchnorm = nn.BatchNorm2d(in_channels,momentum=0.1)for l in range(n_layers):if l==0:  # start with normal convblock = nn.Sequential(MaskedConv('A',in_channels+1,n_features,kernel_size=7),nn.BatchNorm2d(n_features,momentum=0.1),nn.ReLU())else:block = GatedRes(n_features, n_features, n_classes)self.layers.append(block)# Down passfor _ in range(n_layers):block = GatedRes(n_features, n_features,n_classes,aux_channels=n_features)self.layers.append(block)# Last layer: project to n_bins (output is [-1, n_bins, h, w])self.layers.append(nn.Sequential(nn.Dropout2d(dropout),nn.Conv2d(n_features,n_bins,1),nn.LogSoftmax(dim=1)))def forward(self,x,y):# Add channel of ones so network can tell where padding isx = nn.functional.pad(x,(0,0,0,0,0,1,0,0),mode='constant',value=1)# Up passfeatures = []i = -1for _ in range(self.n_layers):i += 1if i>0:x = self.layers[i](x,y)else:x = self.layers[i](x)features.append(x)# Down passfor _ in range(self.n_layers):i += 1x = self.layers[i](torch.stack((x,features.pop())),y)# Last layeri += 1x = self.layers[i](x)assert i==len(self.layers)-1assert len(features)==0return x

MNIST 实际上是黑白的,因此我将标签离散为仅 4 个灰度级,以便计算交叉熵损失。在自然图像上,输出级别的数量显然需要更高。网络中的所有层都有 200 个特征。对于数据增强,我使用了 +/-5 度的随机旋转和最近邻采样。对于训练,我使用 Adam,学习率为 10 -4,dropout 率为 0.9。

更高的特征数量(比 MNIST 所需的特征数量更多)和更高的 dropout 是训练时间与正则化之间的权衡。这是一个在论文中很少提及的技巧,但有助于避免过度拟合——我只在一篇关于视频中动作识别训练的论文中看到过它,其中由于高维度与当前数据集大小,过度拟合是一个问题可用的。

我有一个 GTX1070 GPU,所以我没有运行任何类型的超参数优化:猜测合理的超参数并使模型工作的能力很大程度上说明了 Adam + 批量归一化 + dropout 的稳健性。学习率肯定可以更高,但这会产生更有趣的 GIF。

结果

在这里插入图片描述

上面的 gif 显示了整个训练过程中每个epochs后生成的一批 50 张图像(每类 5 个示例),从看似随机的涂鸦到类似于实际数字的东西。这是最佳epochs的结果:
在这里插入图片描述
这项工作的动机是看看条件 PixelCNN 是否也可以在类之间生成合理的示例。这是通过调节软标签而不是单热编码标签来完成的。

让我们尝试一下我所期望的容易混淆的数字对:(1,7), (3,8), (4,9), (5,6)
在这里插入图片描述
生成的类间示例并不像正常示例那样真实。模型可能需要一些额外的训练信号(例如来自分类器网络的教师强制)才能沿着图像流形进行插值。这有点令人失望,因为我曾希望生成类间示例可能允许使用学习的混合形式(而不是平均图像)。显然,进一步测试这个想法将需要更多的 GPU 来生成批量输入,所以无论如何,它目前超出了我的范围。

本文的完整代码可在Github代码库中查看。

本博文译自 jrbtaylor 的博客。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/218790.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【UCAS自然语言处理作业二】训练FFN, RNN, Attention机制的语言模型,并计算测试集上的PPL

文章目录 前言前馈神经网络数据组织Dataset网络结构训练超参设置 RNN数据组织&Dataset网络结构训练超参设置 注意力网络数据组织&Dataset网络结构Attention部分完整模型 训练部分超参设置 结果与分析训练集Loss测试集PPL 前言 本次实验主要针对前馈神经网络&#xff0…

C++类与对象(中)

🎉个人名片: 🐼作者简介:一名乐于分享在学习道路上收获的大二在校生🐻‍❄个人主页🎉:GOTXX🐼个人WeChat:ILXOXVJE🐼本文由GOTXX原创,首发CSDN&am…

使用ETLCloud实现CDC实时数据集成:从MySQL到ClickHouse的实时数据同步

背景 在上一篇文章中体验了 ETLCloud 的离线数据迁移功能,就像大数据领域里有离线计算和实时计算, ETLCloud 还提供了基于 CDC (Change Data Capture)的实时数据集成功能:实时数据集成是指通过变化数据捕获技术&#…

Nginx反向代理实现负载均衡webshell

目录 本实验所用的环境: 问题一:由于nginx采用的反向代理是轮询的方式,所以上传文件必须在两台后端服务器的相同位置上传相同的文件 问题二:我们在执行命令时,无法知道下次的请求交给哪台机器去执行我们在执行hostn…

Linux:创建进程 -- fork,到底是什么?

相信大家在初学进程时,对fork函数创建进程一定会有很多的困惑,比如: 1.fork做了什么事情?? 2.为什么fork函数会有两个返回值?3.为什么fork的两个返回值,会给父进程谅回子进程pid,给子进程返回0?4.fork之后:父子进…

使用Python的turtle库绘制随机生成的雪花

1.1引言 在这篇文章中,我们将使用Python的turtle库来绘制一个具有分支结构的雪花。该程序使用循环和随机颜色选择来绘制20个不同大小和颜色的雪花。turtle库是一个流行的绘图库,常用于创建图形用户界面和简单的动画。这个代码实现了一个有趣的应用&…

Jmeter性能综合实战——签到及批量签到

提取性能测试的三个方面:核心、高频、基础功能 签 到 请 求 步 骤 1、准备工作: 签到线程组 n HTTP请求默认值 n HTTP cookie 管理器 n 首页访问请求 n 登录请求 n 查看结果树 n 调试取样器 l HTTP代理服务器 (1)创建线…

[多线程】线程安全问题

目录 1.举个栗子 2.线程安全的概念 3.线程不安全的原因 3.1原子性 3.2Java内存模型(jvm) 3.3代码重排序 4.解决线程的不安全问题-(synchronized) ​编辑 4.1sychronized的特性 4.2刷新内存 4.3可重入 5.synchornized使…

Scrapy爬虫异步框架(一篇文章齐全)

1、Scrapy框架初识 2、Scrapy框架持久化存储(点击前往查阅) 3、Scrapy框架内置管道(点击前往查阅) 4、Scrapy框架中间件(点击前往查阅) Scrapy 是一个开源的、基于Python的爬虫框架,它提供了…

MySQL数据库——存储函数(介绍、案例)

目录 介绍 案例 介绍 存储函数是有返回值的存储过程,存储函数的参数只能是IN类型的。具体语法如下: CREATE FUNCTION 存储函数名称 ([ 参数列表 ]) RETURNS type [characteristic ...] BEGIN-- SQL语句RETURN ...;END ; characteristic说明&#xf…

CleanMyMac X4.14.5Crack最新Mac电脑清理优化最佳应用

CleanMyMac X 4.14.5是用于清理和优化Mac的最佳应用程序和强大工具。它看起来很棒而且很容易理解。该软件可以清理、保护、优化、稳定和维护您的 Mac 系统。您可以立即删除不必要的、不寻常的、无用的垃圾文件、损坏的文件垃圾,并释放大量内存空间。此外&#xff0c…

异常与包的导入

1.什么是异常 异常就是程序运行的过程中出现了错误 2.捕获异常 如果遇到了bug,可能会出现两种情况: 整个程序停止运行对bug进行提醒,继续运行 在可能发生异常的地方,进行捕获,当出现异常的时候提供解决方案 try:可…