【没有哪个港口是永远的停留~论文解读】Both Style and Fog Matter

Both Style and Fog Matter

原文:https://arxiv.org/pdf/2112.00484.pdf

解决问题:大雾、下雨、下雪天模糊场景

其他人做法:

1-去雾算法,人工干扰

2-合成的雾图像,不像真实的雾图像那样真实,也会扩大清晰图像和雾图像之间的域差距,产生不令人满意的性能。此外,我们认为这些方法过多地考虑了雾的因素,而忽略了其他因素,这可能会影响SFSU问题中的域差距。

我们做法:

开箱即用,我们建议明确研究SFSU中的域间隙

  • 1)以避免直接处理总域间隙;
  • 2)不使用合成雾数据或脱雾知识。

我们假设域间隙是由混合雾的影响和风格变化引起的,这两者对SFSU都很重要。

Q:风格和雾因素如何影响分割模型的性能?

利用均方差值(MVV)衡量分割模型在特 定领域的整体性能,即领域性能。

具体来说,在图 2 中,我们训练了一个具有 s 域数据的分割模型

s、m 和 t 域计算 MVV,分别产生 Vss、Vsm 和 Vst。

        训练:s 域

        测试:s、m 和 t 域   计算 MVV。

首先,我们用 s 域数据训练一个分割模型

这个模型已经学习了领域知识。然后,我们在 s \ m \ t 域数据上进行测试,三个域的性能分别为显示为不同的黄色条。

两个不同的条可以代表性能差距,即域间隙(灰色虚线箭头),例如样式间隙、雾间隙和对偶差距。

        训练:我们用 m 域数据调整 Model (s) 以获得Model(s+m)

        测试:s、m 和 t 域   计算 MVV。

接下来,我们使用 m 域数据调整分割模型。即,该模型可以学习领域知识(与风格有关因子)在域 s 和 m 之间

这次改编后,风格差距变小(从 0.089 到 0.067),而雾间隙仍然存在(只有 0.004 的微不足道的变化)

因此,我们假设style gap 和fog gap 可以分别划分和关闭,双重差距是两个差距的累积。

CuDA-Net

Feature Disentanglement Networks(FDN)

 

给定图像x1 和 x2 来自两个不同的域s\m

域不变内容特征 c1 和 c2

特定领域的特征 z1 和 z2

因此,通过特征解开,我们可以从 x1 域到 x2 域传递分割知识

先看图a

 

【左1】我们首先使用共享内容编码器 Ec(黑线)提取 c1 和 c2 ,以及两个私有编码器分别提取特定领域的特征 z1 和 z2(红色和蓝线)。

【左2】跨域转换,c1-z2\c2-z1,执行域内重建和跨域转换以监督解缠结学习

【左3】此外,我们使用分割头 S 从内容特征 c 生成分割热图 h,其中标签 y1 用作监督信号。

损失选择

我们只设计了四个必要的损失来训练我们的 FDN,旨在使 FDN 能够关闭三个不同的差距(风格差距,雾差距和双重差距)。

而DISE[4]利用7个损失来缩小合成清晰数据和真实清晰数据之间的一个差距,训练耗时且难以收敛

域内重建( Within-domain reconstruction )。我们期望使用内容特征 c 和提取的私有特征 z 完美地重建原图

因此,我们将重建损失定义为:

 L_{rec}=L_{pixel}(x_1,\widehat{x_1})+L_{pixel}(x_2,\widehat{x_2})

其中:逐像素损失 Lpixel()

跨域转换( Cross-domain translation)

L_{trans}=L_{con}(x_1,x_{1\rightarrow 2})+L_{con}(x_2,x_{2\rightarrow 1})

密集像素预测( Dense pixel prediction)

特征解耦损失( Feature disentanglement loss)

L_{1\rightarrow 2}=\lambda _{rec}L_{rec}+\lambda _{trans}L_{trans}+\lambda _{seg}(L_{seg}^{1}-L_{seg}^{1\rightarrow 2})+\lambda _{segadv}L_{segadv}

其中:

  • L1->2 可以是 Ls->m、Lm->t 或 Ls->t
  • 解缠结和权重 λrec、λtrans、λseg 和λsegadv 根据经验设置为 0:5、0:1、1 和 1

风格和雾分解

看图b

通过引入中间域 m,我们可以得到三个不同的输入域组合,(Xs; Xm)、(Xm; Xt) 和 (Xs; Xt),用于三个 FDN,Fs-m、Fm-t 和 Fs-t,三个 FDN 被一一训练,共享领域不变的知识。因为

域 m 和 t 都没有标签,我们使用 Fs-m 来标记域 m 以训练 Fm-t。

累积域适应

累计损失。正如我们的动机所验证的那样,三种领域之间存在累积关系因素(私人特征)。如图 3c 所示:

如果我们

        采取Δ(zm; zs) 作为域 m 和s,

        取Δ(zt;zm)作为域t和 m之间的雾差异,

        并取 Δ(zt;zs) 作为域 t 和 s,

可以合理地假设双重差异是样式和雾差异的累积,

即,Δ(zm; zs) + Δ(zt; zm) = Δ(zt; zs)。因此,我们将累积关系损失函数设计为:

训练pipeline。图 3d 描绘了整个训练过程过程。三个经过训练的子网络 Fs->m、Fm->t 和Fs->t 用作累积域自适应的初始化。

图 3d 中:

共享内容编码器始终可以通过三个步骤进行训练,

我们使用内容编码器来更新伪标签训练雾编码器。

此外,我们以循环的方式训练整个网络

根据经验,我们将 T 设置为 3,这意味着我们进行周期性训练,累计训练3次。

最后,我们使用经过训练的Fs-t 中的内容编码器和分割头 S 以生成用于测试的分割热图。

实验

Datasets

  • Cityscapes
  • Foggy Cityscapes
  • Foggy Zurich
  • Foggy Driving
  • Clear Zurich

实验1:性能比较。进行了实验,在Foggy Zurich(FZ) 和Foggy Driving (FD) 上,用所有类的平均 IoU (mIoU %)。

实验2:与 CMAda3+ 的训练数据比较。

我们的 CuDA-Net 和 CuDA-Net+ 两个都优于 CMAda3+,使用更少合成雾数据和较少真实的雾数据。 “轻”、“中”表中的“dense”表示不同的雾密度

实验3:ACDC数据集

它包含四个不利条件类别(雾、雨、雪和夜间)带有像素级注释。

它们每个都包含 1000 张图像,并被分成训练集,验证集和测试集的比例大致为 4:1:5。测试集被保留用于在线测试

 性能比较

下图 5. 等式中 λcum 的消融研究。 (6) 在 Foggy Zurichtest 数据集上。结果表明我们的模型对 λcum 不敏感。

 图 6.消融研究的定性结果。这些实验是在 Foggy Zurich 测试数据集上进行的。每列显示所提出的方法的结果与不同的组件。结果显示,随着使用的组件越多,空间结构越清晰

图 7. 除雾能力。我们比较我们的除雾由 CuDA-Net 中的 Fm-t 生成的图像与来自传统的除雾方法GFN [24]。输入图像是从Foggy Zurich随机选择。

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/305212.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Android中_Service生命周期和AMS流程的创建

Service生命周期可以结合Android生命周期分析。 Service生命周期可以从两种启动Service的模式开始讲起,分别是context.startService()和context.bindService()。 Service的生命周期与启动和绑定状态相关。当调用startService()方法启动服务时,会执行onS…

nginx报错upstream sent invalid header

nginx报错upstream sent invalid header 1.报错背景 最近由于nginx 1.20的某个漏洞需要升级到nginx1.25的版本。在测试环境升级完nginx后,发现应用直接报错502 bad gateway了。 然后查看nginx的errlog,发现: upstream sent invalid head…

java itext5 生成PDF并填充数据导出

java itext5 生成PDF并填充数据导出 依赖**文本勾选框****页眉**&#xff0c;**页脚****图片**实际图 主要功能有文本勾选框&#xff0c;页眉&#xff0c;页脚&#xff0c;图片等功能。肯定没有专业软件画的好看&#xff0c;只是一点儿方法。仅供参考。 依赖 <!--pdf-->&…

Google Ad帐号被封?代理IP和电子邮件可能是原因

海外广告投放工作中&#xff0c;账号是非常重要的环节。与在Facebook上运行广告相比&#xff0c;运行Google Ads在代理选择方面通常没有那么严格&#xff0c;因为 Google 对 IP 使用并不那么严格。但是&#xff0c;这并不意味着您可以不加考虑地使用任何代理IP。在本文中&#…

Vulnhub-Al-Web-1.0 靶机复现完整过程

一、信息收集 1.主机发现 arp-scan -l2.端口扫描 nmap -sV -p- 192.168.200.16PORTSTATESERVICEVERSIONMAC Address80/TCPOpenhttpApache httpd00:0C:29:C4:1B:78 (VMware) 3.目录扫描 python dirsearch.py -u http://192.168.200.16扫描出来这两个文件&#xff0c;首先先…

【算法刷题】Day25

文章目录 1. 粉刷房子题干&#xff1a;算法原理&#xff1a;1. 状态表示&#xff1a;2. 状态转移方程3. 初始化4. 填表顺序5. 返回值 代码&#xff1a; 2. 判定字符是否唯一题干&#xff1a;算法原理&#xff1a;1. 哈希表2. 位图思想 代码&#xff1a; 3. 丢失的数字题干&…

【Java系列】多线程案例学习——基于阻塞队列实现生产者消费者模型

个人主页&#xff1a;兜里有颗棉花糖 欢迎 点赞&#x1f44d; 收藏✨ 留言✉ 加关注&#x1f493;本文由 兜里有颗棉花糖 原创 收录于专栏【Java系列专栏】【JaveEE学习专栏】 本专栏旨在分享学习JavaEE的一点学习心得&#xff0c;欢迎大家在评论区交流讨论&#x1f48c; 目录…

百度飞桨文心生态成果最新披露:开发者达1070万 模型数超86万

前言 12月28日&#xff0c;由深度学习技术及应用国家工程研究中心主办的WAVE SUMMIT深度学习开发者大会2023在北京召开。百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰现场公布了飞桨文心五载十届最新生态成果&#xff0c;文心一言最新用户规模破1亿&#xf…

基于Docker的软件环境部署脚本,持续更新~

使用时CtrlF搜索你想要的环境&#xff0c;如果没有你想要的环境&#xff0c;可以评论留言&#xff0c;会尽力补充。 本文提供的部署脚本默认参数仅适合开发测试&#xff0c;请根据实际情况调节参数。 数据库 MySQL version: 3.9 services:mysql:image: mysql:8.0.35container…

win32 WM_MENUSELECT消息学习

之前写了一些win32的程序&#xff0c;处理菜单单击都是处理WM_COMMAND消息&#xff0c;通过 LOWORD(wParam) 获取菜单ID&#xff0c;判断单击的是哪个菜单项&#xff1b; 还有一些其他菜单消息&#xff1b; 当在菜单项中移动光标或鼠标&#xff0c;程序会收到许多WM_MENUSELEC…

JavaScript练习题第(四)部分

大家好关于JavaScript基础知识点已经发布&#xff1a;需要的大家可以去我的主要查看 &#xff08;当然了有任何不会的&#xff0c;可以私信我&#xff01;&#xff01;&#xff01;&#xff01;&#xff09; 为了巩固大家学习知识点给大家准备几道练习题&#xff1a; 当然&…

基于ChatGpt,Java,SpringBoot,Vue,Milvus向量数据库的定制化聊天Web demo

customized chat GitHub - bigcyy/customized-chatgpt: 基于ChatGpt&#xff0c;Java&#xff0c;SpringBoot&#xff0c;Vue&#xff0c;Milvus向量数据库的定制化聊天Web demo 简介 基于ChatGpt&#xff0c;Java&#xff0c;SpringBoot&#xff0c;Vue&#xff0c;Milvus向…