Generalized Focal Loss V1论文解读

摘要

单级检测器基本上将物体检测表述为密集分类和定位(即边界框回归)。分类通常通过Focal Loss进行优化,而边界框的定位通常根据Dirac delta分布进行学习。单级检测器的最新趋势是引入一个单独的预测分支来估计定位质量,预测质量有助于分类,从而提高检测性能。本文深入探讨了上述三个基本要素:质量估计、分类和定位的表示方法。在现有实践中发现了两个问题,包括:(1) 质量估计和分类在训练和推理中的使用不一致(即单独训练但在测试中合成使用);(2) 当存在模糊性和不确定性时,用于定位的Dirac delta分布不灵活,而在复杂场景中经常出现这种情况。为了解决这些问题,我们为这些元素设计了新的表示方法。具体来说,我们将质量估计合并到类别预测向量中,形成定位质量和分类的联合表示,并使用一个向量来表示方框位置的任意分布。改进后的表示消除了不一致性风险,并准确地描述了真实数据中的可变分布,但其中包含连续标签,这超出了 Focal Loss 的范围。我们随后提出了Generalized Focal Loss(GFL),它将Focal Loss从离散形式广义化为连续版本,从而成功实现优化。在 COCO test-dev 上,使用 ResNet-101 主干网,GFL 实现了 45.0% 的 AP,超过了最先进的 SAPD(43.5%)和 ATSS(43.6%),而且在相同的主干网和训练设置下,GFL的推理速度更高,甚至不相上下。值得注意的是,我们的最佳模型在单个2080Ti GPU上以10 FPS的速度实现了48.2%的单模型单规模AP。代码和预训练模型可在https://github.com/implus/GFocal上获取。

引言

近年来,高密集检测器逐渐引领了物体检测的潮流,而对边界框的表示及其定位质量估计的关注则推动了编码技术的发展。具体来说,边界框表示被建模为简单的Dirac delta分布,在过去几年中得到了广泛应用。正如FCOS所推广的那样预测额外的定位质量(如IoU(交并比)分数和centerness(中心)分数)可持续提高检测准确率,在推理过程中,质量估计与分类置信度相结合(通常是相乘)作为非最大抑制(NMS)算法过程的最终分数。尽管取得了成功,但我们在现有实践中发现了以下问题:
请添加图片描述

图1:现有分类和定位质量估算的单独表示与联合表示法的比较。(a):目前的做法是在训练和测试期间分别使用质量分数(IoU或中心度分数)。(b):我们对分类和定位质量的联合表征使训练和推理具有高度一致性。
**在训练和推理过程中对定位质量估计和分类分数的使用不一致:**(1)在最近的高密度检测器中,定位质量估计和分类分数通常是独立训练的,但在推理过程中却被综合利用(如乘法)(图1(a));(2)定位质量估计的监督目前只分配给正样本,这是不可靠的,因为负样本可能有机会获得不可控的更高质量预测(图2(a))。这两个因素导致了训练和测试之间的差距,并有可能降低检测性能,利润在NMS过程中,具有随机高质量分数的负实例可能会排在预测质量较低的正实例前面。 ![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/e67f3137492848e39371f777582fcf3e.png#pic_center)
图2:使用IoU分数的现有密集检测器的不可靠IoU预测。(a):根据图1(a)中的优化IoU分数模型,我们展示了一些预测质量分数极高(例如IoU分数大于0.9)的背景块(A和B)。(b)中的散点图表示随机抽样的实例及其预测分数,其中蓝色点清楚地说明了预测分类分数和预测IoU分数之间的弱相关性。红圈部分包含许多可能的阴性样本,其定位质量预测值较大,有可能排在真正的阳性样本之前,从而影响性能。相反,我们的联合表示法(绿点)迫使它们相等,从而避免了此类风险
**不灵活的边界框表示法:**广泛使用的边界框表示法可视为Dirac delta三角分布的目标方框坐标。然而,它没有考虑到数据集的模糊性和不确定性(见图3中边界不清晰的部分)。虽然最近的一些研究将方框建模为高斯分布,但这一方法过于简单,无法捕捉到边界方法内基数的真实分布。事实上,真实分布可以更加任意和灵活,而不必像高斯函数那样对称。

为了解决上述问题,我们为边界框及其定位质量设计了新的表示方法。对于定位质量表示法,我们建议将其与分类分数合并为一个统一的表示法:分类向量,其在真实类别指数上的值指的是其相应的定位质量(本文中通常指预测框与相应真实框之间的IoU分数)。通过这种方式,我们将分类得分和IoU分数统一为一个联合变量(称为“分类-IoU联合表示”),该变量可以端到端方式进行训练,并在推理过程中直接使用(图1(b))。因此,它消除了训练与测试的不一致性(图1(b)),并使定位质量与分类之间具有最强的相关性(图2(b))。此外,质量分数为0的负值将受到监督,从而使整体质量预测更加保密和可靠。这对高密度物体检测尤其有利,因为它们会对整个图像中定期采样的所有候选物体进行排序。对于边界框表示,我们建议通过直接学习其连续空间上的离散概率分布来表示边界框位置的任意分布,而不引入任何其他更强的先验(如高斯)。因此,我们可以获得更可靠、更准确的边界框估计,同时还能了解其各种基本分布(见图3和补充材料中的预测分布)。
在这里插入图片描述

图3:由于遮挡、阴影、模糊等原因,很多物体的边界都不够清晰,因此真实标签(白色方框)有时并不可信,而Dirac delta分布在表示此类问题时也会受到限制。相反,我们提出的边界框一般分布的学习表示法可以通过其形状反映潜在信息,其中扁平分布表示不清晰和模糊的边界(见红圈),尖锐分布代表清晰的情况。我们的模型预测出的方框用绿色标记。

改进后的表征为优化带来了挑战。传统上,对于高密度检测器,分类分支的优化采用Focal Loss。FL可以通过重塑标准交叉熵损失来成功处理类别不平衡问题。然而,对于所提出的分类-IoU联合表示法,除了仍然存在的不平衡风险外,我们还面临着一个以连续IoU标签(0~1)作为监督的新问题,因为原始FL目前只支持离散的{1,0}类别标签。我们通过将FL从{1,0}离散版本到其连续变体,称为Generalized Focal Loss(GFL)。与FL不同,GFL考虑的是一种更普遍的情况,即全局优化解能够以任何所需的连续值为目标,而不仅是离散值。更具体地说,本文将GFL细分为质量焦距损失(Quality Focal Loss,QFL)和分布焦距损失(Distribution Focal Loss,DFL),分别用于优化改进后的两种表示方法:QFL专注与一组稀疏的示例,并同时生成它们在相应类别上的连续0~1质量估计;DFL网络在任意灵活的分布下,快速专注于学习目标边界框连续位置周围值的概率。

我们展示了GFL的三个优势:(1)当单级检测器需要额外的质量估计时,GFL可以弥合训练和测试之间的差距,从而更简单、联合和有效地表示分类和定位质量;(2)GFL可以很好地模拟边界框的灵活底层分布,从而提供更多信息和更准确的框位置;(3)在不引入额外开销的情况下,可以持续提升单级检测器的性能。在COCO test-dev上,GFL利用ResNet-101主干网实现了45.0%的AP,超过了最先进的SAPD(43.5%)和ATSS(43.6%)。我们的最佳模型在单个2080Ti GPU上以10FPS运行时,单模型单规模AP可达到48.2%。

相关工作

定位质量的表示。现有的做法,如Fitness NMS、IoU-Net、MS R-CNN、FCOS和IoU-aware,都是利用单独的分支以IoU或中心度分数的形式进行定位质量估计。如第1节所述,这种单独的表述方式会导致训练和测试之间的不一致性以及不可靠的质量预测。PISA和IoU-balance没有引入额外的分支,而是根据定位质量在分类损失中分配不同的权重,旨在增强分类得分与定位精度之间的相关性。然而,由于权重策略不会改变分类损失目标的最佳值,因此它的好处是隐形的,也是有限的。

边界框的表示。Dirac delta分布在过去几年中一直用于边界框的表示。最近,高斯假设被采用,通过引入预测方差来学习不确定性。遗憾的是,现有的表征要么过去僵化,要么过于简化,无法反映真实数据中复杂的底层分布。在本文中,我们进一步放宽了假设,直接学习更任意、更灵活的边界框一般分布,同时信息量更大、更准确。

方法

在本节中,我们首先回顾了用于学习单级检测器密集分类分数的原始Focal Loss(FL)。接下来,我们将详细介绍定位质量估计和边界框的改进表示方法,并分别通过所提出的Quality Focal Loss(QFL)和Distribution Focal Loss(DFL)对其进行成功优化。最后,我们将QFL和DFL的表述整合为一个统一的视角,称为Generalized Focal Loss(GFL),作为FL的灵活扩展,以促进今后的进一步推广和理解。
在这里插入图片描述

图5:(a):质量标签$y=0.5$下的QFL图示。(b):根据公式,不同的灵活分布可获得相同的积分目标,因此我们需要重点学习目标值附近的值概率,以获得更合理、更有把握的预测(如(3))。(c):COCO trainval135k上所有训练样本的ATSS边框回归目标直方图。
Focal Loss(FL)。最初的FL是为了解决在训练过程中经常出现前景类和背景类极度不平衡的单阶段物体检测问题而提出的。FL的典型形式如下(为简单起见,我们忽略原论文中的$\alpha_t$) $$ FL(p) = -(1-p_t)^{\gamma}log(p_t),p_t = \begin{cases} p,\ \ \ when\ y=1\\ 1-p,\ \ \ when\ y=0\\ \end{cases} $$ 其中,$y \in \{1,0\}$表示真实标签,$p \in [0,1]$表示标签为$y=1$的类别估计概率。$\gamma$是是可调的聚焦参数。具体来说,FL包括一个标准交叉熵部分$-log(p_t)$和一个动态缩放因子部分$(1-p_t)^{\gamma}$,其中缩放因子$(1-p_t)^{\gamma}$,在训练过程中自动降低容易分辨样本的贡献权重,并快速将模型集中在困难例子上。

Quality Focal Loss(QFL)。为了解决上述训练和测试阶段不一致性问题,我们提出了一种定位质量(即IoU分数)和分类分数的联合表示法(简称“分类-IoU”),其监督软化了标准的单级类别标签,并导致相应类别上可能的浮动目标 y ∈ [ 0 , 1 ] y \in [0,1] y[0,1](间图4中的分类分支)。具体来说, y = 0 y = 0 y=0表示质量分数为0的负样本, 0 < y ≤ 1 0 < y \leq 1 0<y1表示目标IoU分数为 y y y的正样本。根据文献,我们采用多重二元分类法,并使用sigmoid算子 σ ( ⋅ ) \sigma(\cdot) σ()来实现多类分类。为简单起见,将sigmoid的输出标记为 σ \sigma σ

由于所提出的“分类-IoU”联合表示法需要对整幅图像进行密集的监督,而类不平衡问题仍然存在,因此必须继承 FL 的思想。然而,当前形式的 FL 只支持 {1, 0} 离散标签,而我们的新标签包含小数。因此,我们建议扩展 FL 的两个部分,以便在联合表示的情况下进行成功的训练:(1) 交叉熵部分 − l o g ( p t ) -log(p_t) log(pt)扩展为完整版本 − ( ( 1 − y ) l o g ( 1 − σ ) + y l o g ( σ ) ) -((1-y)log(1-\sigma) + ylog(\sigma)) ((1y)log(1σ)+ylog(σ));(2)缩放因子 ( 1 − p t ) γ (1-p_t)^\gamma (1pt)γ部分被概括为估计值 σ \sigma σ与其连续标签 y y y之间的绝对距离,即, ∣ y − σ ∣ β ( β ≥ 0 ) |y-\sigma|^\beta\ (\beta \geq 0) yσβ (β0)此处 y y y保证了非负性。随后,我们将上述两个扩展部分结合起来,制定出完整的损失函数,即Quality Focal Loss(QFL):
Q F L ( σ ) = − ∣ y − σ ∣ β ( ( 1 − y ) l o g ( 1 − σ ) + y l o g ( σ ) ) QFL(\sigma) = -|y - \sigma|^\beta((1-y)log(1-\sigma) + ylog(\sigma)) QFL(σ)=yσβ((1y)log(1σ)+ylog(σ))
请注意, σ = y \sigma = y σ=y是QFL的全局最小解。 图 5 展示了几个 β \beta β下的 QFL。(a)与 FL 类似,QFL 中的 ∣ y − σ ∣ β |y - \sigma|^{\beta} yσβ项也起着调节因子的作用:当对某个样本的质量估计不准确并偏离标签 y y y时,调节因子相对较大,因此它更关注于学习这个困难的例子。 当质量估计变得准确时(即 σ → y \sigma \rightarrow y σy),系数变为 0,估计良好样本的损失将被降权,其中参数 β \beta β可以平滑地控制降权率(在我们的实验中, b e t a = 2 beta = 2 beta=2 对 QFL 效果最好)。
在这里插入图片描述

图6:单独和联合表示的修改版本图示。图中还提供了无质量分支的基线图

Distribution Focal Loss(DFL)。按照文献,我们采用从位置到边界框四边的相对偏移量作为回归目标(见图4中的回归分支)。边界框回归的传统操作将回归标签y建模为Dirac delta分布 δ ( x − y ) \delta(x-y) δ(xy)。它满足 ∫ − ∞ + ∞ δ ( x − y ) d x = 1 \int^{+\infty}_{-\infty}\delta(x-y)dx=1 +δ(xy)dx=1通常通过全连接层实现。更正式的说,恢复 y y y的积分形式如下:
y = ∫ − ∞ + ∞ δ ( x − y ) x d x y = \int^{+\infty}_{-\infty}\delta(x-y)xdx y=+δ(xy)xdx
根据第1节的分析,我们建议不采用Dirac delta或高斯假设,而是直接学习底层一般分布 P ( x ) P(x) P(x),而不引入任何其他先验。给定标签 y y y的范围,最小 y 0 y_0 y0,最大 y n y_n yn y 0 ≥ y ≥ y n , n ∈ N + y_0 \geq y \geq y_n,\ n \in N^{+} y0yyn, nN+,我们可以从模型中得到估计值 y ^ \hat{y} y^( y ^ \hat{y} y^也符合 y 0 ≥ y ^ ≥ y n y_0 \geq \hat{y} \geq y_n y0y^yn):
y ^ = ∫ − ∞ + ∞ P ( x ) x d x = ∫ y 0 y n P ( x ) x d x \hat{y} = \int^{+\infty}_{-\infty}P(x)xdx = \int^{y_n}_{y_0}P(x)xdx y^=+P(x)xdx=y0ynP(x)xdx
为了与卷积神经网络保持一致,我们将连续域上的积分转换为离散表示,具体方法是将范围 [ y 0 , y n ] [y_0,y_n] [y0,yn]离散为一个集合 { y 0 , y 1 , ⋯ , y i , y i + 1 , ⋯ , y n − 1 , y n } \{y_0,y_1,\cdots,y_i,y_{i+1},\cdots,y_{n-1},y_n\} {y0,y1,,yi,yi+1,,yn1,yn},偶数区间为 Δ \Delta Δ(简单起见,我们使用 Δ = 1 \Delta = 1 Δ=1)。因此,给定离散分布属性 ∑ i = 0 n P ( y i ) = 1 \sum^n_{i=0}P(y_i)=1 i=0nP(yi)=1,估计回归值 y y y可表示为:
y ^ = ∑ i = 0 n P ( y i ) y i \hat{y} = \sum_{i=0}^{n}P(y_i)y_i y^=i=0nP(yi)yi
因此, P ( x ) P(x) P(x)可以通过由 n + 1 n+1 n+1个单元组成的softmax S ( ⋅ ) S(\cdot) S()层轻松实现,为简单起见, P ( y i ) P(y_i) P(yi) S i S_i Si表示。请注意, y ^ \hat{y} y^可以使用传统的损失目标(如SmoothL1、IoU损失或GIoU损失)以端到端的方式进行训练。然而,如图5(b)所示, P ( x ) P(x) P(x)的值有无数种组合,会使最终积分结果为 y y y,这可能会降低学习效率。直观上,与(1)和(2)相比,分布(3)更为紧凑,在边界框估算上也更为精确,这促使我们通过明确鼓励接近目标值 y y y的高概率值来优化 P ( x ) P(x) P(x)的形状。此外,最合适的基础位置(如果存在)往往不会远离标签。因此,我们引入了分布聚焦损失(DFL),通过明显扩大 y i y_i yi y i + 1 y_{i+1} yi+1(距离 y y y最近的两个标签, y i ≤ y ≤ y i + 1 y_i \leq y \leq y_{i+1} yiyyi+1)的概率,迫使网络快速聚焦于标签 y 附近的值。由于边界框的学习只针对正样本,不存在类不平衡问题,因此我们只需将 QFL 中的完全交叉熵部分用于 DFL 的定义:
D F L ( S I , S i + 1 ) = − ( ( y i + 1 − y ) l o g ( s i ) + ( y − y i ) l o g ( S i + 1 ) ) DFL(S_I,S_{i+1}) = -((y_{i+1} - y)log(s_i) + (y-y_i)log(S_{i+1})) DFL(SI,Si+1)=((yi+1y)log(si)+(yyi)log(Si+1))
直观地说,DFL的目的是集中扩大目标 y y y周围值(即 y i y_i yi y i + 1 y_{i+1} yi+1)的概率。DFL 的全局最小解,即 S i = y i + 1 − y y i + 1 − y i S_i = \frac{y_{i+1} - y}{y_{i+1} - y_i} Si=yi+1yiyi+1y S i + 1 = y − y i y i + 1 − y i S_{i+1} = \frac{y-y_i}{y_{i+1} - y_i} Si+1=yi+1yiyyi(见补充材料),可以保证估计的回归目标 y ^ \hat{y} y^无限接近于相应的标签 y y y,即, y ^ = ∑ j = 0 n P ( y i ) y i = S i y i + S i + 1 y i + 1 = y i + 1 − y y i + 1 − y i y i + y − y i y i + 1 − y i y i + 1 = y \hat{y} = \sum^{n}_{j=0}P(y_i)y_i = S_iy_i + S_{i+1}y_{i+1}=\frac{y_{i+1}-y}{y_{i+1} - y_i}y_i + \frac{y - y_i}{y_{i+1} - y_{i}}y_{i+1} = y y^=j=0nP(yi)yi=Siyi+Si+1yi+1=yi+1yiyi+1yyi+yi+1yiyyiyi+1=y,这也确保了其作为损失函数的正确性。
在这里插入图片描述

表1:QFL研究(ResNet-50主干网)。所有实验均转载于mmdetection,并在COCO minival进行了验证。
![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/f26434fc875e4441ae2ad79c788689af.png#pic_center)
图7:基于ATSS,对COCO minival进行边界框回归时,Dirac delta分布(a)、高斯分布(b)和我们提出的一般分布(c)之间的定性比较。白色方框表示实际标签,绿色方框表示预测标签。

广义焦距损失(GFL)。请注意,QFL 和 DFL 可以统一为一种一般形式,本文称之为广义焦点损失(GFL)。假设一个模型估计了两个变量 y l , y r ( y l < y r ) y_l,\ \ y_r\ \ (y_l < y_r) yl,  yr  (yl<yr)的概率为 p y l , p y r ( p y l ≥ 0 , p y r ≥ 0 , p y i + p y r = 1 ) p_{yl},\ \ p_{yr}\ \ (p_{yl} \geq 0,\ \ p_{yr} \geq 0,\ \ p_{y_i} + p_{y_r} = 1) pyl,  pyr  (pyl0,  pyr0,  pyi+pyr=1),其线性组合的最终预测结果为 y ^ = y l p y l + y r p y r ( y l ≤ y ^ ≤ y r ) \hat{y} = y_lp_{yl} + y_rp_{yr}\ (y_l \leq \hat{y} \leq y_{r}) y^=ylpyl+yrpyr (yly^yr)。预测结果 y ^ \hat{y} y^的相应连续标签 y y y也满足 y l ≤ y ≤ y r y_l \leq y \leq y_{r} ylyyr 。以绝对距离 ∣ y − y ^ ∣ β ( β ≤ 0 ) |y - \hat{y}|^\beta\ (\beta \leq 0) yy^β (β0)作为调节因子,GFL 的具体公式可写成:
G F L ( p y l , p y r ) = − ∣ y − ( y l p y l + y r p y r ) ∣ β ( ( y r − y ) l o g ( p y l ) + ( y − y l ) l o g ( p y r ) ) GFL(p_{yl},p_{yr}) = -|y - (y_lp_{yl} + y_rp_{yr})|^\beta((y_r - y)log(p_{yl}) + (y - y_l)log(p_{yr})) GFL(pyl,pyr)=y(ylpyl+yrpyr)β((yry)log(pyl)+(yyl)log(pyr))

GFL的特性 G F L ( p y l , p y r ) GFL(p_{yl},p_{yr}) GFL(pyl,pyr)达到全局最小值的条件是 p y l ∗ = y r − y y r − y l , p y r ∗ = y − y l y r − y l p^{*}_{yl} = \frac{y_r - y}{y_r - y_l},\ \ p^{*}_{yr} = \frac{y - y_l}{y_r - y_l} pyl=yrylyry,  pyr=yrylyyl这也意味着估计值 y ^ \hat{y} y^与连续标签 y y y完全匹配,即, y ^ = y l p y l ∗ + y r p y r ∗ = y \hat{y} = y_lp^{*}_{yl} + y_rp^{*}_{yr} = y y^=ylpyl+yrpyr=y。显然,原FL和提出的QFL和DFL都是GFL的特例。请注意,GFL可以应用于任何单级探测器。修改后的检测器在两个方面与原始检测器不同。首先,在推理过程中,我们直接将分类得分与质量估计的联合表示作为NMS分数输入,而无需乘以任何单独的质量分数(如FCOS和ATSS中的centerness)。其次,用于预测每个边界框位置的回归分支的最后一次现在有 n + 1 n+1 n+1个输出,而不是1个输出,这带来的额外计算成本可以忽略不计,如表3所示。

使用GFL训练密集检测器。我们用GFL来定义训练损失 L L L
L = 1 N p o s ∑ z L Q + 1 N p o s ∑ z 1 c z ∗ > 0 ( λ 0 l B + l a m b d a 1 L D ) , L = \frac{1}{N_{pos}}\sum_{z}L_Q + \frac{1}{N_{pos}}\sum_z1_{c_z^* > 0}(\lambda_0l_B + lambda_1L_D), L=Npos1zLQ+Npos1z1cz>0(λ0lB+lambda1LD),
其中 L Q L_Q LQ表示QFL, L D L_D LD表示DFL。通常,L_B表示GIoU损失。 N p o s N_{pos} Npos表示代表正样本的数量。 λ 0 \lambda_0 λ0 λ 1 \lambda_1 λ1分别为 L Q L_Q LQ L D L_D LD的平衡权重。 ∑ \sum 是对金字塔特征图上所有位置 z z z的计算。 1 c z ∗ > 0 1_{c^*_z>0} 1cz>0是指标函数,如果为 c z ∗ > 0 c_z^* > 0 cz>0,则开始为1,否则为0。按照官方规范的做法,在训练过程中,我们还利用质量得分来加权 L Q L_Q LQ L D L_D LD
在这里插入图片描述

表2:DFL研究(ResNet-50主干网)。所有实验均转载于mmdetection,并在COCO minival进行了验证。

实验

我们的实验是在COCO基准上进行的,其中trainval135k(115k幅图像)用于训练,我们使用minival(5k幅图像)作为消融研究的验证。主要结果在test-dev(20k幅图像)上报告,可从验证集上获取。为了进行公平比较,所有结果都是在mmdetection条件下得出,其中采用了默认的超参数。除非另有说明,否则在接下来的研究中,我们基于ResNet-50主干网,采用1X学习计划(12个epoch),不进行多尺度训练。更多训练/测试详情请见补充材料。
在这里插入图片描述

图8:最先进方法在COCO test-dev上的单模型单尺度速度(毫秒)与准确度(AP)对比。与许多同类方法相比,GFL实现了更好的速度-精度权衡。

我们首先研究了QFL的有效性(表1)。在表1(a)中,我们将拟议的联合表示法与其独立或隐含的对应部分进行了比较。表 1(a)中,我们比较了建议的联合表示法与单独或隐含的对应部分: 实验中还采用了 IoU 和中心度。总的来说,我们构建了4个使用独立或隐式表示的变体,如图6所示。根据实验结果,我们发现由QFL优化的联合表示法的性能始终优于所有对应的表示法,而IoU的性能始终优于所有对应的表示法。表1(b)显示,QFL也能提高其他常用单级检测器的性能。表1(c)显示, β = 2 \beta=2 β=2是QFL的最佳设置。如图2(b)所示,我们通过对实例进行采样,并预测IoU分支模型和我们的模型的分类和IoU分数,来说明联合表示法的有效性。这表明,使用QFL训练的联合表示法因其更可靠的质量估计而有利于检测,并根据其定义在分类和质量得分之间产生最强的相关性。事实上,在我们的联合表示中,预测的分类得分与估计的质量得分完全相等。
在这里插入图片描述

表3:QFL和DFL对ATSS的影响:QFL和DFL的效果是正交的,利用这两种方法可以在不引入额外开销的情况下,在强ATSS基线上将AP提升1%。

其次,我们研究了DFL的有效性(表2)。为了快速选择一个合理的 n n n值,我们首先在图5(c)中说明回归目标的分布情况。我们将在后面的实验中说明,ATSS推荐的 n n n值为14或16。在表2(a)中,我们比较了不同数据表示的有效性用于边界框回归。我们发现,一般分布假设取得了更优或至少相当的结果,而DFL可以进一步提高其性能。定性比较见图(7)可以看出与高斯分布和一般分布相比,一般分布假设能提供更精确的边界框位置。特别是在有大量遮挡物的情况下(更多讨论见补充材料)。表2(b)和(c)列出了基于GFL训练的改进ATSS的 n n n Δ \Delta Δ在DFL中的影响。结果表面,在实际应用中, n n n的选择并不敏感,而 Δ \Delta Δ建议选取较小值(如1)。为了说明一般分布的效果,我们在图3中绘制了几个具有代表性的实例及其在四个方向上的分布式边界框,在这些实例中,一般分布式表示法可以通过其形状有效地反映边界框的不确定性(更多示例请参见补充材料)。
请添加图片描述
表4:最先进检测器在COCO test-dev上的比较(单一模型和单一尺度结果)。 M S t r a i n MS_{train} MStrain表示多尺度训练。带有 ∗ * 的FPS值来自文献,其他数值是在同一机器上使用单个GeForce RTX 2080Ti GPU在相同的mmdetection框架下测量的,尽可能使用1的batch size。n/a表示没有原始论文中训练的模型和结果。R:ResNet,X:ResNeXt,HG:Hourglass,DCN:Deformable Convolutional Network

我们在带有ResNet-50主干网的ATSS上进行了消融研究,以显示QFL和DFL的相对贡献(表3)。FPS(每秒帧数)是在同一台机器上用单个GeForce RTX 2080Ti GPU测量的,在相同的mmdetection框架下,batch-size为1。我们观察到,DFL与QFL的改进是正交的,而两者的联合使用(即GFL)可将强ATTS基线的AP分数绝对值提高1%。此外,根据推理速度,GFL带来的额外开销可以忽略不计,因此非常实用。

最后,我们在表4中比较了GFL(基于ATSS)和COCO test-dev上的先进方法。根据之前的研究,在训练过程中采用了多尺度训练策略和2x学习计划(24个epoch)。为了进行公平比较,我们展示了所有方法的单模型单尺度测试结果以及相应的推理速度(FPS)。使用ResNet-101的GFL在14.6FPS速度下实现了45.0%的AP,优于所有采用相同骨干网的现有检测器,包括SAPD(43.5%)和ATSS(43.6%)。此外可变形卷积模型使用ResNeXt-101-32x4d-DCN的GFL在10FPS时获得了最先进的48.2%AP,而使用ResNeXt-101-32x4d-DCN的GFL在10FPS时获得了最先进的48.2%AP。图8展示了精确度-速度权衡的可视化效果,可以看到,我们提出的GFL将精确度-速度边界推到了一个很高的水平。

结论

为了有效地为密集物体检测器学习合格的分布式边界框,我们提出了Generalized Focal Loss(GFL),它将原来的Focal损失从 { 1 , 0 } \{1, 0\} {1,0}离散变为连续。GFL可分为Quality Focal Loss(QFL)和Distribution Focal Loss(DFL),其中QFL鼓励学习更好的分类和定位质量联合表示法,而DFL则通过将它们的位置建模为一般分布,提供信息更丰富、更精确的边界框估计。大量实验验证了GFL的有效性。我们希望GFL可以作为社区的一个简单而有效的基准。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/311508.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

万字长文谈自动驾驶occupancy感知

文章目录 prologuepaper listVision-based occupancy :1. [MonoScene: Monocular 3D Semantic Scene Completion [CVPR 2022]](https://arxiv.org/pdf/2112.00726.pdf)2. [Tri-Perspective View for Vision-Based 3D Semantic Occupancy Prediction [CVPR 2023]](https://arxiv…

小信跳房子的题解

原题描述&#xff1a; 时间&#xff1a;1s 空间&#xff1a;256M 题目描述&#xff1a; 小信在玩跳房子游戏&#xff0c;已知跳房子游戏的图表现为一颗完美的具有个节点的二叉树。从根节点依次编号为。节点的左子节点编号为&#xff0c;右子节点编号为。 小信从从节点出发&…

立体匹配算法(Stereo correspondence)SGM

SGM(Semi-Global Matching)原理&#xff1a; SGM的原理在wiki百科和matlab官网上有比较详细的解释&#xff1a; wiki matlab 如果想完全了解原理还是建议看原论文 paper&#xff08;我就不看了&#xff0c;懒癌犯了。&#xff09; 优质论文解读和代码实现 一位大神自己用c实现…

【算法】数论---约数

约数里面的一个重要性质&#xff1a;一个数的约数都是成对存在的(以sqrt(x)为分界线) 一、求一个数的所有约数---试除法 int x; cin>>x; int yue[10000]{0},idx0; for(int i1;i<x/i;i) {if(x%i0){yue[idx]i;cout<<i<<" ";} }for(int iidx-1;i&…

Java 8 中的 Stream 轻松遍历树形结构!

可能平常会遇到一些需求&#xff0c;比如构建菜单&#xff0c;构建树形结构&#xff0c;数据库一般就使用父id来表示&#xff0c;为了降低数据库的查询压力&#xff0c;我们可以使用Java8中的Stream流一次性把数据查出来&#xff0c;然后通过流式处理&#xff0c;我们一起来看看…

八个理由:从java8升级到Java17

目录 前言 1. 局部变量类型推断 2.switch表达式 3.文本块 4.Records 5.模式匹配instanceof 6. 密封类 7. HttpClient 8.性能和内存管理能力提高 前言 从Java 8 到 Java 20&#xff0c;Java 已经走过了漫长的道路&#xff0c;自 Java 8 以来&#xff0c;Java 生态系统…

基于JAVA的独居老人物资配送系统 开源项目

目录 一、摘要1.1 项目介绍1.2 项目录屏 二、功能模块三、系统展示四、核心代码4.1 查询社区4.2 新增物资4.3 查询物资4.4 查询物资配送4.5 新增物资配送 五、免责说明 一、摘要 1.1 项目介绍 基于JAVAVueSpringBootMySQL的独居老人物资配送系统&#xff0c;包含了社区档案、…

GitHub的2FA验证问题解决工具

文章目录 前言认识2FA开源工具使用&#xff1a;AuthenticatorPro获取AuthenticatorPro的安卓APK如何使用 参考文章 前言 打开GitHub跳出来这个提示&#xff0c;需要进行验证&#xff1a; 如何解决呢&#xff1f;方案有很多&#xff0c;我们可以使用开源的一个工具&#xff1a;…

穿越时光的镜头:2023回顾与2024展望

前言 2023 年就像一本充满着惊喜和挑战的书籍&#xff0c;它的每一页都留下了我生活中不同的痕迹。回顾过去&#xff0c;我发现了许多意想不到的成长和启示&#xff0c;也体验了生活的起起伏伏。 这篇文章是对 2023 年的一个小小总结&#xff0c;也是对未来的一点期许。在这里…

大数据HCIE成神之路之数据预处理(5)——偏态数据处理

偏态数据处理 1.1 偏态数据三种处理方案1.1.1 实验背景1.1.2 实验目标1.1.3 实验数据解析1.1.4 实验思路1.1.5 实验操作步骤步骤1 导入相关模块和 Data_to_Transform.csv 数据集步骤2 平方根法步骤3 对数转换步骤4 Box-Cox转换 1.1 偏态数据三种处理方案 1.1.1 实验背景 许多…

Apollo自动驾驶:从概念到现实的里程碑

前言 「作者主页」&#xff1a;雪碧有白泡泡 「个人网站」&#xff1a;雪碧的个人网站 ChatGPT体验地址 文章目录 前言1. Apollo Client2. Apollo Server3. Apollo Federation4. Apollo Tracing5. Apollo Codegen6. Apollo Link7. 其他工具和框架结论 &#x1f680;&#x1f…

uni-app新建页面

新建页面 一、右键点击 pages 文件夹&#xff0c;点击新建页面。 二、输入页面名称、选择创建 vue 文件、勾选创建同名目录、选择默认模板、勾选在 pages.json 中注册、点击创建即可。 原创作者&#xff1a;吴小糖 创作时间&#xff1a;2023.12.28