地平线静态目标检测 MapTR 参考算法-V1.0

1.简介

高清地图是自动驾驶系统的重要组件,提供精确的驾驶环境信息和道路语义信息。传统离线地图构建方法成本高,维护复杂,使得依赖车载传感器的实时感知建图成为新趋势。早期实时建图方法存在局限性,如处理复杂地图元素的能力不足、缺乏实例级信息等,在实时性和后处理复杂度上存在挑战。

为了解决这些问题,基于 Transformer 的 MapTR 模型被提出,它采用端到端结构,仅使用图像数据就能实现高精度建图,同时保证实时性和鲁棒性。MapTRv2 在此基础上增加了新特性,进一步提升了建图精度和性能。

地平线面向智驾场景推出的 征程6 系列(J6)芯片,在提供强大算力的同时带来了极致的性价比,征程6 芯片对于 Transformer 模型的高效支持助力了 MapTR 系列模型的端侧部署。本文将详细介绍地平线算法工具链在 征程6 芯片部署 MapTR 系列模型所做的优化以及模型端侧的表现。

2.性能精度指标

模型配置:

image

性能精度表现:

image

  1. 预测的地图元素:“divider”,“ped_crossing”,“boundary”;
  2. 默认使用 Lidar 坐标系,和公版保持一致。同时适配 ego 坐标系;
  3. 量化配置 TopK:前 K 个量化敏感的算子。

3.公版模型介绍

3.1 MapTR

image

MapTR 模型的默认输入是车载摄像头采集到的 6 张相同分辨率的环视图像,使用 nuScenes 数据集,同时也支持拓展为多模态输入例如雷达点云。模型输出是矢量化的地图元素信息,其中地图元素为人行横道、车道分隔线和道路边界 3 种。模型主体采用 encoder-decoder 的端到端结构:

  • Map Encoder 通过 CNN Backbone+BEV Encoder 负责提取 2D 图像特征并转换到统一的 BEV 视角。MapTR-nano 默认使用 ResNet18 作为 Backbone,MapTR-tiny 默认使用 ResNet50。MapTR 兼容多种 BEV Encoder 实现方式例如 GKT、LSS 和 IPM 等并且表现稳定,鉴于 GKT 的部署高效性以及在消融实验中的精度表现更好,公版 MapTR 使用 GKT 作为默认 BEV Encoder 实现方式。
  • Map Decoder 采用 Hierarchical Query Embedding Scheme,即从 point-level(位置)和 instance-level(轮廓)显式地编码地图元素,point-level queries 被所有 instances 共享并融合进 instance-level queries 从而生成 hierarchical queries,hierarchical queries 经过级联的 decoder layers(默认是 6 层)不断更新。每个 decoder layer 首先使用多头自注意力(MHSA)做 inter-instance 和 intra-instance 的信息交互,接着会使用 Deformable Attention 来与 Map Encoder 输出的 BEV 特征做信息交互。point-level 的信息被所有 instance 共享,所以对于每个 instance 而言,映射到 BEV 空间的多个参考点 reference points 是灵活且动态分布的,这对于提取 long-range context information 预测随机形状的地图元素是有益的。
  • MapTR Head 由分类分支和回归分支构成。分类分支预测 instances 的类别,回归分支预测 points 集合的位置。Head 输出的预测值和真值 GT 之间采用 Hierarchical Bipartite Matching 实现监督学习,分为 Instance-level Matching 和 Point-level Matching,因此损失函数为三个部分的加权和:分类 Classification Loss、点对点位置 Point2point Loss 和连接边方向 Edge Direction Loss。

3.2 MapTRv2

image

MapTRv2 在 MapTR 的基础上增加了新的特性:

  1. 针对层次化 query,引入解耦自注意力,极大地减少了计算量和显存消耗;对于和输入特征交互的 cross-attention 部分,则引入了 BEV、PV 和 BEV+PV 三种变体;
  2. 引入辅助 one-to-many 集合预测分支,增加了正样本数,加速了训练收敛;
  3. 引入辅助 dense supervision,引入深度估计预测头、PV 和 BEV 视角下的分割头,进一步提升模型精度。由于引入深度信息做监督学习,为了显式地提取深度信息,公版 MapTRv2 选择基于 LSS 的 BEVPoolv2 来作为 BEV 视角转换方式;
  4. 引入新的地图元素车道中心线(centerline);
  5. 增加 3D 地图元素预测能力,并提供 Argoverse2 数据集上的指标。

4.地平线部署说明

地平线参考算法使用流程请参考附录《TCJ6007-J6 参考算法使用指南》;对应高效模型设计建议请参考附录《TCJ6005-J6 平台算法设计建议》

模型对应的代码路径:

模块 代码路径
Config {oe_path}/samples/ai_toolchain/horizon_model_train_sample/scripts/configs/map/maptrv2_resnet50_bevformer_nuscenes.py
Model Structure /usr/local/lib/python3.10/dist-packages/hat/models/structures/maptr/maptrv2.py: class MapTRv2(nn.Module)
Backbone /usr/local/lib/python3.10/dist-packages/hat/models/backbones/resnet.py: class ResNet50(ResNet)
Neck /usr/local/lib/python3.10/dist-packages/hat/models/necks/fpn.py: class FPN(nn.Module)
View Transformer /usr/local/lib/python3.10/dist-packages/hat/models/task_modules/bevformer/view_transformer.py: class SingleBevFormerViewTransformer(BevFormerViewTransformer)其中包含的BEV Encoder模块:/usr/local/lib/python3.10/dist-packages/hat/models/task_modules/bevformer/encoder.py: class SingleBEVFormerEncoder(BEVFormerEncoder)
BEV Decoder /usr/local/lib/python3.10/dist-packages/hat/models/task_modules/maptr/decoderv2.py: class MapTRPerceptionDecoderv2(nn.Module)其中具体包含的BEV Decoder模块:/usr/local/lib/python3.10/dist-packages/hat/models/task_modules/maptr/decoder.py: class MapTRDecoder(nn.Module)
Criterion /usr/local/lib/python3.10/dist-packages/hat/models/task_modules/maptr/criterion.py: class MapTRCriterion(nn.Module)其中的Assigner模块:/usr/local/lib/python3.10/dist-packages/hat/models/task_modules/maptr/assigner.py: class MapTRAssigner(nn.Module)
Post Process /usr/local/lib/python3.10/dist-packages/hat/models/task_modules/maptr/postprocess.py: class MapTRPostProcess(nn.Module)

4.1 性能优化

Neck

Neck 部分采用了地平线内部实现的 FPN,相比公版 FPN 实现,在 征程6 平台上性能更加友好。

View Transformer

地平线参考算法版本将基于 LSS 的视角转换方式替换为 Bevformer 的 View Transformer 部分。

  1. BEV Grid 尺寸:对于 Dense BEV 而言,BEV Grid 的尺寸大小实际地影响模型性能。征程6 平台增强了带宽能力,但仍需注意 BEV 网格过大导致访存压力过大而对性能带来负面影响,建议考虑实际部署情况选择合适的 BEV 网格大小来设计模型。相比公版 MapTRv2 模型使用 200x100 的网格,地平线部署模型使用 100x50 的网格来实现性能和精度的平衡。
  2. BEV 特征编码:
    1. 默认 prev_bev 由 cur_bev 改为全 0;
    2. 取消 can_bus 信息的使用,前一帧 bev 特征 prev_bev 和当前帧 cur_bev 的对齐方式由使用 can_bus 信息正向校准改为使用 GridSample 算子反向采样校准;
    3. 取消了 bev_query 初始化部分和 can_bus 的融合;
    4. 取消了公版的 TemporalSelfAttention,改为 HorizonMSDeformableAttention,提升速度。
公版模型
class MapTRPerceptionTransformer(BaseModule):...def attn_bev_encode(...):...if prev_bev is not None:if prev_bev.shape[1] == bev_h * bev_w:prev_bev = prev_bev.permute(1, 0, 2)if self.rotate_prev_bev:for i in range(bs):# num_prev_bev = prev_bev.size(1)rotation_angle = kwargs['img_metas'][i]['can_bus'][-1]tmp_prev_bev = prev_bev[:, i].reshape(bev_h, bev_w, -1).permute(2, 0, 1)tmp_prev_bev = rotate(tmp_prev_bev, rotation_angle,center=self.rotate_center)tmp_prev_bev = tmp_prev_bev.permute(1, 2, 0).reshape(bev_h * bev_w, 1, -1)prev_bev[:, i] = tmp_prev_bev[:, 0]# add can bus signalscan_bus = bev_queries.new_tensor([each['can_bus'] for each in kwargs['img_metas']])  # [:, :]can_bus = self.can_bus_mlp(can_bus[:, :self.len_can_bus])[None, :, :]bev_queries = bev_queries + can_bus * self.use_can_bus...
地平线参考算法
class BevFormerViewTransformer(nn.Module):...def 
__init__
(...):...self.prev_frame_info = {"prev_bev": None,"scene_token": None,"ego2global": None,}...def get_prev_bev(...):if idx == self.queue_length - 1 and self.queue_length != 1:prev_bev = torch.zeros((bs, self.bev_h * self.bev_w, self.embed_dims),dtype=torch.float32,device=device,)...else:prev_bev = self.prev_frame_info["prev_bev"]if prev_bev is None:prev_bev = torch.zeros((bs, self.bev_h * self.bev_w, self.embed_dims),dtype=torch.float32,device=device,) # 对应改动 2.a...def bev_encoder(...):...tmp_prev_bev = prev_bev.reshape(bs, self.bev_h, self.bev_w, self.embed_dims).permute(0, 3, 1, 2)prev_bev = F.grid_sample(tmp_prev_bev, norm_coords, "bilinear", "zeros", True) # 对应改动 2.b...
class SingleBevFormerViewTransformer(BevFormerViewTransformer):...def get_bev_embed(...):...bev_query = self.bev_embedding.weightbev_query = bev_query.unsqueeze(1).repeat(1, bs, 1) # 对应改动 2.c...
公版模型 Config
model = dict(...pts_bbox_head=dict(type='MapTRHead',...transformer=dict(type='MapTRPerceptionTransformer',...encoder=dict(type='BEVFormerEncoder',...transformerlayers=dict(type='BEVFormerLayer',attn_cfgs=[dict(type='TemporalSelfAttention',embed_dims=
_dim_
,num_levels=1),...]))))
)
地平线参考算法 Config
model = dict(...view_transformer=dict(type="SingleBevFormerViewTransformer",...encoder=dict(type="SingleBEVFormerEncoder",...encoder_layer=dict(type="SingleBEVFormerEncoderLayer",...selfattention=dict(type="HorizonMSDeformableAttention", # 对应改动 2.d...),)))
)

Attention

模型中用到的 attention 操作均使用地平线提供的算子,相比 PyTorch 提供的公版算子,地平线 attention 算子在保持算子逻辑等价的同时在效率上进行了优化

from hat.models.task_modules.bevformer.attention import (HorizonMSDeformableAttention,HorizonMSDeformableAttention3D,HorizonSpatialCrossAttention,
)

4.2 精度优化

量化精度

  1. 对模型中量化敏感的 Top30 个算子采用 Int16 精度量化:
Config 文件
if os.path.exists(pts_path):pts_table = torch.load(pts_path)cali_qconfig_setter = (sensitive_op_calibration_8bit_weight_16bit_act_qconfig_setter(pts_table,topk=30,ratio=None,),default_calibration_qconfig_setter,)qat_qconfig_setter = (sensitive_op_qat_8bit_weight_16bit_fixed_act_qconfig_setter(pts_table,topk=30,ratio=None,),default_qat_fixed_act_qconfig_setter,)
  1. QAT 训练采用固定较小的 learning rate 来 fine-tune,这里固定也即取消 LrUpdater Callback 的使用,配置如下:
Config 文件
float_lr = 6e-4
qat_lr = 1e-6
  1. 取消了公版模型 MapTRHead 中对于量化不友好的 inverse_sigmoid 操作;此外部署模型取消了 MapTRHead 中 reg_branches 输出和 reference 相加后再 sigmoid 的操作(该操作可以转移到部署后处理中完成):
公版模型
class MapTRHead(DETRHead):...def forward(...):...for lvl in range(hs.shape[0]):if lvl == 0:# import pdb;pdb.set_trace()reference = init_referenceelse:reference = inter_references[lvl - 1]reference = inverse_sigmoid(reference)...tmp = self.reg_branches
[lvl](...)tmp[..., 0:2] += reference[..., 0:2]tmp = tmp.sigmoid() # cx,cy,w,h地平线参考算法
class MapTRPerceptionDecoderv2(nn.Module):...def get_outputs(...):...for lvl in range(len(outputs_classes)):reference = reference_out[lvl].float()# reference = inverse_sigmoid(reference)...tmp = bbox_outputs[lvl].float()tmp[..., 0:2] += reference[..., 0:2]tmp = tmp.sigmoid()...def forward(...):outputs = self.bev_decoder(...)if self.is_deploy:return outputs...outputs = self.get_outputs(...)...return self._post_process(data, outputs)

4.3 其他优化

设计优化

  1. 在 View Transformer,使用 Bevformer 替换地平线支持不友好的公版 MapTRv2 基于 LSS 的 BEVPoolv2 来作为 PV 视角转 BEV 视角的方式;
  2. 在 View Transformer 的 BEV Encoder 模块取消了 BEV 特征的时序融合,也取消了 Bevformer 时序自注意力模块,模型整体精度不低于公版基于 Bevformer 的精度。

5.总结与建议

5.1 部署建议

  1. 遵循硬件对齐规则,一般的 tensor shape 对齐到 2 的幂次,conv-like 的算子 H 维度对齐到 8、W 维度对齐到 16、C 维度对齐到 32,若设计尺寸不满足对齐规则时会对 tensor 自动进行 padding,造成无效的算力浪费;
  2. 合理选择 BEV Grid 尺寸,征程6 平台的带宽得到增强,但仍需考虑 BEV Grid 尺寸对模型性能的影响,并且综合衡量模型精度预期,选择合适的 BEV Grid 尺寸以获得模型性能和精度的平衡;
  3. 优先选择 征程6 平台高效 Backbone 来搭建模型,高效 Backbone 经过在 征程6 平台的反复优化和验证,相比其他 Backbone 的选择,在性能和精度上可以同时取得出众的效果,因此选取 征程6 平台高效 Backbone 来搭建模型可以对整个场景模型带来性能和精度的增益。

5.2 总结

本文通过对 MapTRv2 进行地平线量化部署的优化,使得模型在 征程 6 计算平台上用较低的量化精度损失,获得单核 26.66 FPS 的部署性能。同时,MapTRv2 的部署经验可以推广到其他相似结构或相似使用场景模型的部署中。

对于地平线 MapTR 参考算法模型,Backbone 和 BEV 中融合方式等的优化仍在探索和实践中,Stay Tuned!

6.附录

  1. 公版论文:MapTR;
  2. 公版模型源码:GitHub-MapTR。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/804738.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

20240927 随机训练

GYM 105350 E 题目描述 给定一个大小为 \(N\) 的数组 \(A\)。 我们定义一个大小为 \(N\) 的数组 \(B\) 是有效的当且仅当:对于 \(\forall 1\le i\le N,1\le B_i \le N\),如果从 \(B\) 中移除 \(B_i\),则数组 \(B\) 恰好有 \(A_i\) 个不同的数。求有多少个不同的由有效数组 \…

apisix实现四层转发

背景 来水一篇文章,其实官网都有,论如何在apisix上实现四层转发 什么是apisix apisix是动态、实时、高性能的 API 网关,构建于 OpenResty 之上,支持热加载配置、灰度发布、蓝绿部署等功能,同时具有良好的可扩展性和易用性。 管理接口参考 参考:(以2.4版本为例) https:/…

windows环境下的 MySQL 安装与启动

参考网址:菜鸟教程:https://www.runoob.com/mysql/mysql-install.html报错博文:https://blog.csdn.net/weixin_72700368/article/details/1397846961. 下载 MySQLWindows 上安装 MySQL 相对来说会较为简单,最新版本可以在 MySQL 下载 中下载中查看(更详细安装:Windows 上…

山海鲸可视化 VS PowerBI,中外免费报表软件对比

在数据分析与可视化的时代,选择合适的报表工具显得尤为重要。山海鲸可视化和PowerBI是市场上颇受欢迎的两款免费报表软件,各有特色。接下来,我们将从功能、优缺点等方面进行对比,帮助你找到最适合的工具。 山海鲸可视化 山海鲸可视化是一款国内自主研发的报表工具,专注于用…

Crypto工具与算法

参考博客: https://lazzzaro.github.io/2020/05/10/crypto-crypto常用工具/ https://bbs.kanxue.com/thread-266504.htm https://lazzzaro.github.io/2020/05/10/crypto-crypto常用算法/工具 以windows为主python中import gmpy2与from gmpy2 import *的区别 import gmpy2 gmpy…

记录一次Apache2.4启动PHP的Curl扩展不成功的问题

引用该文 常规办法都用了,无效! 我使用的apache和php都是解压缩版,平常都直接配置使用了,今天换了台电脑突然不行了。 最后,将php.exe加入path解决。日!hello,world~~~

9460-8i raid卡 固件升级指导

1、上传压缩包到目标服务器(RAID-9460-8i-3508-FW-5.220.00-3710.zip)2、unzip解压压缩包(如果服务器没有unzip命令需要自行在笔记本解压后上传整个目录) 实现如下命令进行升级,耗时大概2-3分钟 sh install.sh upgrade 重启服务器即可; reboot 3、检验是否升级成功 可以通…

CF1919E

给定长度为 \(n\) 的数列 \(p\),求有多少个长度为 \(n\) 的数列 \(a\) 满足:\(\forall i\in[1,n],|a_i|=1\);其前缀和数组排序后恰为数列 \(p\)。\(\sum n\leq 5000\)。这个题真的抽象,还是先不管了。Conclusion用折线图观察操作。自定义统一操作生成最终答案。题外话:感觉…

信息学奥赛复赛复习05-CSP-J2020-01优秀的拆分-对数函数、自然对数、以2为底的对数、幂函数、打表

PDF文档公众号回复关键字:202409271 2020 CSP-J 题目1 优秀的拆分 [题目描述] 一般来说,一个正整数可以拆分成若干个正整数的和 例如,1=1,10=1+2+3+4 等。对于正整数 n的一种特定拆分,我们称它为“优秀的”,当且仅当在这种拆分下,n被分解为了若干个不同的 2 的正整数次幂…

【蓝桥杯】“萌新首秀”全国高校新生编程排位赛2

1.世上有10种人 题目 世上有10种人 代码#include using namespace std; int main() {cout<<2;return 0; }2.01切换 题目 01切换 题目分析 直接判断字符串最后一个字符是0还是1就好了 代码#include using namespace std; int main() {string str;cin>>str;int l =…

Avalonia如何与通用主机Host集成实现MsDI

如果想在Aavalonia使用IOC,目前我能想到的就是使用Prism或者是MsDI,Prism内部使用的是DryIoc,这个和WPF几乎没什么差别,那如果我想使用微软实现的Ioc呢,也是可以的,实现方式其实很简单,就是使用IHost,其中依赖有两个库 Microsoft.Extensions.DependencyInjectionMicros…

软工第一次结对作业

这个作业属于哪个课程 https://edu.cnblogs.com/campus/fzu/SE2024这个作业要求在哪里 https://edu.cnblogs.com/campus/fzu/SE2024/homework/13261这个作业的目标 学习使用原型软件,辅助完成软件工程的前期任务学号 102201137结对成员学号 102201137 102201237原型链接 https…