自动驾驶核心技术:BEV 特征 + Transformer 解码器

张开发
2026/4/14 22:31:27 15 分钟阅读

分享文章

自动驾驶核心技术:BEV 特征 + Transformer 解码器
一. 前言在自动驾驶系统中高精地图HD Map是定位、感知、预测、规划的核心基础设施。近几年端到端矢量化地图构建成为主流方向而它的核心范式只有一句话BEV 特征 Transformer 解码器几乎所有顶尖方法MapTR、MapTRv2、MapQR、CAFMap都基于这套架构。这篇博客用最通俗、最直观、最工程化的方式把它彻底讲清楚。1. 什么是矢量化地图为什么它重要传统栅格地图raster map是图片占空间、难更新、不适合规划。矢量化地图用点、线、多边形表示道路元素车道线人行横道道路边界停止线、减速带等优点体积小精度高可直接用于路径规划支持在线实时更新所以矢量化地图 自动驾驶的 “数字道路”。2. 核心基础什么是BEV特征BEV Bird’s-Eye View鸟瞰视角简单理解BEV 特征 自动驾驶的上帝视角环境图它把多目相机的透视图像通过投影与变换转换成统一坐标系无透视形变真实物理距离自车周围 100m×100m 的全局特征图在 MapQR / CAFMap 中BEV 特征形状为[B, 256, 200, 200]200×200空间网格每个网格对应真实世界 0.5m×0.5m256 通道存储语义、位置、形状、方向信息一句话BEV 特征是模型 “看到的世界”。3. 核心模块Transformer 解码器到底在干嘛Transformer 解码器是端到端生成矢量化地图的大脑。更详细的解释它的工作方式非常简单拿着一组 “查询Query”去 BEV 特征里 “查找信息”逐步生成地图元素。可以理解为BEV 特征 一本完整的环境百科全书Transformer 解码器 绘图专家Query 专家手里的 “待画元素”专家不断询问 BEV → 获取信息 → 画出车道线、人行道、道路边界。二. BEV Transformer 解码器完整流程步骤 1图像 → 2D 图像特征输入6 目环视图像BackboneResNet-50 FPN输出多尺度图像特征步骤 22D 特征 → BEV 特征视图转换使用 GKT 技术将图像特征投影到鸟瞰视角图像特征 → BEV 特征 [B,256,200,200]步骤 3初始化查询Query模型初始化900 个实例查询代表900 个待生成的地图元素步骤 4Transformer 解码器6 层每一层做三件关键事情1自注意力Self-Attention让 900 个查询互相通信避免重复预测结构冲突道路不连续2交叉注意力Cross-Attention查询 ↔ BEV 特征查询从 BEV 中 “读取” 该位置的道路信息逐渐变成真实地图元素。自注意力机制就是让查询和查询对话而交叉注意力机制是让查询和外部对话3FFN 前馈网络进一步提纯特征让形状更精准。步骤 5输出预测经过 6 层解码器900 个查询变成类别预测车道线 / 人行道 / 路边界点集坐标x,y方向信息最终组合成完整的矢量化高精地图。三. 改进MapQR 的 “分散 - 聚合查询”传统方法一个点 → 一个查询缺点查询爆炸、显存占用大、点之间信息不一致。MapQR 提出创新范式Scatter - Gather Query分散 - 聚合查询流程一个实例 → 一个查询Scatter分散1 个实例 → 拆成 18 个点提取细节Gather聚合18 个点 → 合并回 1 个实例最终输出完整、一致、光滑的地图元素优势显存大幅降低速度提升 2~3 倍预测更稳定、更连续达到 SOTA 精度四. 个人研究CAFMapCNN Transformer 融合BEV Transformer 虽强但有短板Transformer擅长全局结构道路走向CNN擅长局部细节拐角、边缘、纹理CAFMap 提出CAFM 卷积注意力融合模块局部分支CNN 捕捉精细纹理全局分支Attention 捕捉长程依赖双分支融合精度再提升最终BEV Transformer CAFM 最强矢量化地图构建

更多文章