論文の概要: NavMapFusion: Diffusion-based Fusion of Navigation Maps for Online Vectorized HD Map Construction
- arxiv url: http://arxiv.org/abs/2512.03317v1
- Date: Wed, 03 Dec 2025 00:10:47 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:13:56.483102
- Title: NavMapFusion: Diffusion-based Fusion of Navigation Maps for Online Vectorized HD Map Construction
- Title(参考訳): NavMapFusion:オンラインベクトル化HDマップ構築のための拡散に基づくナビゲーションマップの融合
- Authors: Thomas Monninger, Zihan Zhang, Steffen Staab, Sihao Ding,
- Abstract要約: ハイデフィニション(HD)マップは、静的道路インフラのこの表現を自律システムに優先して提供しています。
現実の世界は常に変化しているので、そのような地図はオンボードセンサーのデータからオンラインで構築されなければならない。
本研究では,高忠実度センサデータに基づく反復的 denoising condition を実現する拡散型フレームワークである NavMapFusion を提案する。
- 参考スコア(独自算出の注目度): 25.415588243514904
- License:
- Abstract: Accurate environmental representations are essential for autonomous driving, providing the foundation for safe and efficient navigation. Traditionally, high-definition (HD) maps are providing this representation of the static road infrastructure to the autonomous system a priori. However, because the real world is constantly changing, such maps must be constructed online from on-board sensor data. Navigation-grade standard-definition (SD) maps are widely available, but their resolution is insufficient for direct deployment. Instead, they can be used as coarse prior to guide the online map construction process. We propose NavMapFusion, a diffusion-based framework that performs iterative denoising conditioned on high-fidelity sensor data and on low-fidelity navigation maps. This paper strives to answer: (1) How can coarse, potentially outdated navigation maps guide online map construction? (2) What advantages do diffusion models offer for map fusion? We demonstrate that diffusion-based map construction provides a robust framework for map fusion. Our key insight is that discrepancies between the prior map and online perception naturally correspond to noise within the diffusion process; consistent regions reinforce the map construction, whereas outdated segments are suppressed. On the nuScenes benchmark, NavMapFusion conditioned on coarse road lines from OpenStreetMap data reaches a 21.4% relative improvement on 100 m, and even stronger improvements on larger perception ranges, while maintaining real-time capabilities. By fusing low-fidelity priors with high-fidelity sensor data, the proposed method generates accurate and up-to-date environment representations, guiding towards safer and more reliable autonomous driving. The code is available at https://github.com/tmonnin/navmapfusion
- Abstract(参考訳): 正確な環境表現は自動運転に不可欠であり、安全で効率的なナビゲーションの基礎を提供する。
伝統的に、ハイデフィニション(HD)マップは、静的道路インフラのこの表現を自律システムに優先して提供しています。
しかし、現実の世界は常に変化しているため、そのような地図はオンボードセンサーのデータからオンラインで構築されなければならない。
ナビゲーショングレードの標準定義(SD)マップは広く利用可能であるが、その解像度は直接配置するには不十分である。
代わりに、オンラインマップ構築プロセスのガイドの前に粗いものとして使用できる。
NavMapFusionは,高忠実度センサデータと低忠実度ナビゲーションマップ上で反復的復調処理を行う拡散型フレームワークである。
この論文は,(1) 網羅的で時代遅れのナビゲーションマップがオンライン地図構築をガイドするにはどうすればいいのか,という疑問に答えようとしている。
(2)拡散モデルがマップ融合にどのような利点をもたらすか?
拡散に基づく地図構築が地図融合のための堅牢なフレームワークを提供することを示す。
我々の重要な洞察は、先行地図とオンライン知覚の相違は自然に拡散過程内のノイズに対応し、一貫した領域は地図構築を補強する一方、時代遅れのセグメントは抑制されるということである。
nuScenesベンチマークでは、OpenStreetMapのデータから粗い道路線に条件付けされたNavMapFusionは、100mで21.4%の相対的な改善を達成し、さらに大きな知覚範囲でのより強力な改善を実現し、リアルタイムな機能を維持している。
高忠実度センサデータと高忠実度センサデータとを融合することにより、より安全で信頼性の高い自動運転を目指して、高精度で最新の環境表現を生成する。
コードはhttps://github.com/tmonnin/navmapfusionで入手できる。
関連論文リスト
- DiffSemanticFusion: Semantic Raster BEV Fusion for Autonomous Driving via Online HD Map Diffusion [14.872416661028144]
軌道予測と計画のための融合フレームワークであるDiffSemanticFusionを提案する。
提案手法は, マップ拡散モジュールにより拡張された意味融合型BEV空間に起因する。
実世界の自動運転ベンチマークであるnuScenesとNAVSIMの実験では、最先端のいくつかの手法よりも性能が向上した。
論文 参考訳(メタデータ) (2025-08-03T14:32:05Z) - TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Driving with Prior Maps: Unified Vector Prior Encoding for Autonomous Vehicle Mapping [18.97422977086127]
高精細マップ(HDマップ)は、自動運転車の正確なナビゲーションと意思決定に不可欠である。
オンボードセンサーを用いたHDマップのオンライン構築が有望なソリューションとして浮上した。
本稿では,事前マップのパワーを活用して,これらの制約に対処するPresidedDriveフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-09T06:17:46Z) - Augmenting Lane Perception and Topology Understanding with Standard
Definition Navigation Maps [51.24861159115138]
Standard Definition (SD) マップは、より安価で、世界中でカバーでき、スケーラブルな代替手段を提供する。
本稿では,オンライン地図予測にSDマップを統合する新しいフレームワークを提案し,Transformer を用いたエンコーダ SD Map Representations を提案する。
この拡張は、現在の最先端のオンラインマップ予測手法におけるレーン検出とトポロジー予測を一貫して(最大60%まで)大幅に向上させる。
論文 参考訳(メタデータ) (2023-11-07T15:42:22Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - Online Map Vectorization for Autonomous Driving: A Rasterization
Perspective [58.71769343511168]
より優れた感度を有し,現実の自律運転シナリオに適した,新化に基づく評価指標を提案する。
また、精度の高い出力に微分可能化を適用し、HDマップの幾何学的監視を行う新しいフレームワークであるMapVR(Map Vectorization via Rasterization)を提案する。
論文 参考訳(メタデータ) (2023-06-18T08:51:14Z) - HDMapNet: An Online HD Map Construction and Evaluation Framework [23.19001503634617]
HDマップの構築は自動運転にとって重要な問題である。
従来のHDマップは、多くのシナリオでは信頼性の低いセンチメートルレベルの正確な位置決めと結合している。
オンライン地図学習は、自動運転車に先立って意味と幾何学を提供するための、よりスケーラブルな方法である。
論文 参考訳(メタデータ) (2021-07-13T18:06:46Z) - MP3: A Unified Model to Map, Perceive, Predict and Plan [84.07678019017644]
MP3は、入力が生のセンサーデータと高レベルのコマンドであるマップレス運転に対するエンドツーエンドのアプローチである。
提案手法は, より安全で, 快適であり, 長期クローズループシミュレーションにおいて, ベースラインよりもコマンドを追従できることを示す。
論文 参考訳(メタデータ) (2021-01-18T00:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。