目前已实现基于稀疏卷积的centerpoint部署,精度不丢失,在3080ti 下,nuscenes数据集 fp32 一帧耗时32ms左右,比pytorch推理速度快3倍!
centerpoint推理网络分3部分:
1.backbone前面部分用tensorRT实现定义算子,包含5个TensorRT算子
voxel信息voxel计算均值scatter转为[N,C,H,W]形式该自定义算子部分调用TensorRT API搭建网络,导出用于TensoRT推理的pfe.trt文件
2.backbone 2D卷积 ,该部分经过pytorch-->onnx-->Trt的的形式转换出TensoRT的rpn.trt推理文件,方便后续做int8的感知训练量化
c++/cuda实现fp32下 rpn部分耗时11.5ms左右,后处理部分耗时1ms多点,rpn部分调用TensoRT的2D卷积,耗时固定的,接下来主要针对自定义算子的前处理+pfe + 后处理速度进行优化
耗时优化记录如下:
pfe 3d conv:216ms malloc、free太耗时,改为手动分配显存,合并内存分配,并保持内存对齐pfe 3d conv:200ms pfe 3d conv 120ms pfe 3d conv 48ms 8*8 个数,同时解决M,N不能整除BM,BN的边缘问题,但结果有部分数据异常,需进一步排查 pfe 3d conv 45ms pfe 3d conv:45ms20230308 共享内存存在bank冲突,将矩阵A在共享内存中按列缓存,解决共享内存将结果写入全局变量的bank冲突问题,同时使用向量化float4增大全局数据读写的带宽利用率pfe 3d conv:24mspfe 3d conv:22.8mspfe 3d conv:21.8ms pfe 3d conv:20.6mspfe 3d conv:20.3msadd_bias_kernel核函数改为二维grid和二维block,同时使用float4读写数据pfe 3d conv:19.9ms下一步:
orin芯片上测试基于稀疏卷积centerpoint耗时fp16的TensorRT算子,预估fp16 x86下的耗时可以到20ms内nms耗时1ms多,耗时过长,将head部分都统计改为cuda实现
上一篇:VirtualBox的克隆与复制
下一篇:C++——继承