論文の概要: AMap: Distilling Future Priors for Ahead-Aware Online HD Map Construction
- arxiv url: http://arxiv.org/abs/2512.19150v1
- Date: Mon, 22 Dec 2025 08:46:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.676515
- Title: AMap: Distilling Future Priors for Ahead-Aware Online HD Map Construction
- Title(参考訳): AMap: Ahead-AwareオンラインHDマップ構築の先駆け
- Authors: Ruikai Li, Xinrun Li, Mengwei Xie, Hao Shan, Shoumeng Qiu, Xinyuan Chang, Yizhe Fan, Feng Xiong, Han Jiang, Yilong Ren, Haiyang Yu, Mu Xu, Yang Long, Varun Ojha, Zhiyong Cui,
- Abstract要約: AMapは、Ahead-awareオンラインHDマッピングのための新しいフレームワークである。
将来的な時間的文脈への特権的アクセスを持つ教師モデルは,現行の枠組みに制限された軽量な学生モデルを導出する「未来からの蒸留」パラダイムを導入する。
nuScenesとArgoverse 2ベンチマークの実験では、AMapが現在のフレーム認識を大幅に向上することが示された。
- 参考スコア(独自算出の注目度): 19.48718865487366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online High-Definition (HD) map construction is pivotal for autonomous driving. While recent approaches leverage historical temporal fusion to improve performance, we identify a critical safety flaw in this paradigm: it is inherently ``spatially backward-looking." These methods predominantly enhance map reconstruction in traversed areas, offering minimal improvement for the unseen road ahead. Crucially, our analysis of downstream planning tasks reveals a severe asymmetry: while rearward perception errors are often tolerable, inaccuracies in the forward region directly precipitate hazardous driving maneuvers. To bridge this safety gap, we propose AMap, a novel framework for Ahead-aware online HD Mapping. We pioneer a ``distill-from-future" paradigm, where a teacher model with privileged access to future temporal contexts guides a lightweight student model restricted to the current frame. This process implicitly compresses prospective knowledge into the student model, endowing it with ``look-ahead" capabilities at zero inference-time cost. Technically, we introduce a Multi-Level BEV Distillation strategy with spatial masking and an Asymmetric Query Adaptation module to effectively transfer future-aware representations to the student's static queries. Extensive experiments on the nuScenes and Argoverse 2 benchmark demonstrate that AMap significantly enhances current-frame perception. Most notably, it outperforms state-of-the-art temporal models in critical forward regions while maintaining the efficiency of single current frame inference.
- Abstract(参考訳): オンラインハイディフィニション(HD)マップの構築は、自動運転において重要である。
最近のアプローチでは、過去の時間的融合を利用してパフォーマンスを向上させるが、このパラダイムにおける重要な安全性上の欠陥を特定している。
「これらの手法は主に、先進路の地図再構築を最小限にし、かつ、下流計画課題の分析では、後進の認識誤りがしばしば許容される一方で、前進地域の不正確さが直接、危険運転操作を早めるという、深刻な非対称性を呈している。この安全性のギャップを埋めるために、先進的なオンラインHDマッピングのための新しいフレームワークであるAMapを提案する。我々は、「未来から未来へ」パラダイムを開拓し、将来的な時間的文脈に特権を付与する教師モデルが、現在の枠組みに制限された軽量の学生モデルを導く。
このプロセスは、予想される知識を学生モデルに暗黙的に圧縮し、推論時間ゼロのコストで 'look-ahead' 機能を付与する。
技術的には、空間マスキングを用いたマルチレベルBEV蒸留戦略と、将来の認識表現を学生の静的クエリに効果的に転送する非対称クエリ適応モジュールを導入する。
nuScenesとArgoverse 2ベンチマークに関する大規模な実験は、AMapが現在のフレームの認識を大幅に向上することを示している。
最も注目すべきは、単一の電流フレーム推論の効率を維持しながら、重要な前方領域における最先端の時間モデルより優れていることである。
関連論文リスト
- Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - MambaMap: Online Vectorized HD Map Construction using State Space Model [11.15033113060733]
MambaMapは、オンラインベクター化されたHDマップを構築するために、状態空間の長い時間的特徴を効率的に融合する新しいフレームワークである。
具体的には、MambaMapにはメモリバンクが組み込まれており、過去のフレームから情報を保存して活用している。
さらに,BEVとインスタンスレベルの特徴抽出を強化するために,革新的な多方向・時空間走査方式を設計する。
論文 参考訳(メタデータ) (2025-07-27T11:09:27Z) - Delving into Mapping Uncertainty for Mapless Trajectory Prediction [41.70949328930293]
自動運転の最近の進歩は、地図のないアプローチに向かっている。
高精細(HD)マップは、センサーデータから直接オンラインで生成され、高価なラベリングとメンテナンスの必要性が軽減される。
本研究では,地図の不確実性が軌道予測に最も影響を与える運転シナリオを解析する。
本稿では,地図の不確かさを軌跡予測に適応的に組み込む新しいプロプライオセプティブシナリオゲーティングを提案する。
論文 参考訳(メタデータ) (2025-07-24T15:13:11Z) - Coherent Online Road Topology Estimation and Reasoning with Standard-Definition Maps [26.036008442130587]
ほとんどの自動運転車はHD(High-Definition)マップの可用性に依存している。
現在の研究は、搭載センサーからHDマップ要素を直接予測することで、この制約に対処することを目的としている。
本稿では,道路境界だけでなく,レーンセグメントとその対応するトポロジを予測するためのコヒーレントなアプローチを提案する。
論文 参考訳(メタデータ) (2025-07-02T06:26:17Z) - An Efficient Occupancy World Model via Decoupled Dynamic Flow and Image-assisted Training [50.71892161377806]
DFIT-OccWorldは、分離されたダイナミックフローとイメージアシストトレーニング戦略を活用する、効率的な3D占有世界モデルである。
提案モデルでは, 静止ボクセルはポーズ変換により容易に得られるのに対し, 既存のボクセルフローを用いて既存の観測を歪曲することで, 将来のダイナミックボクセルを予測できる。
論文 参考訳(メタデータ) (2024-12-18T12:10:33Z) - TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - StreamMapNet: Streaming Mapping Network for Vectorized Online HD Map
Construction [36.1596833523566]
本稿では,ビデオの時系列時間的モデリングに適応した新しいオンラインマッピングパイプラインであるStreamMapNetを紹介する。
StreamMapNetは、高安定性の大規模ローカルHDマップの構築を支援するマルチポイントアテンションと時間情報を利用する。
論文 参考訳(メタデータ) (2023-08-24T05:22:43Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。