論文の概要: SafeMap: Robust HD Map Construction from Incomplete Observations
- arxiv url: http://arxiv.org/abs/2507.00861v1
- Date: Tue, 01 Jul 2025 15:28:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.697023
- Title: SafeMap: Robust HD Map Construction from Incomplete Observations
- Title(参考訳): SafeMap: 不完全観測によるロバストHDマップの構築
- Authors: Xiaoshuai Hao, Lingdong Kong, Rong Yin, Pengwei Wang, Jing Zhang, Yunfeng Diao, Shu Zhao,
- Abstract要約: SafeMapは、特定のカメラビューが欠けている場合でも精度を確保するように設計された、新しいフレームワークである。
パースペクティブビューレコンストラクション(G-PVR)モジュールと、蒸留をベースとしたBird's-Eye-View(BEV)補正(D-BEVC)モジュールの2つの重要なコンポーネントを統合している。
実験の結果、SafeMapは、完全なシナリオと不完全なシナリオの両方において、従来のメソッドよりも大幅に優れています。
- 参考スコア(独自算出の注目度): 17.40525259453908
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Robust high-definition (HD) map construction is vital for autonomous driving, yet existing methods often struggle with incomplete multi-view camera data. This paper presents SafeMap, a novel framework specifically designed to secure accuracy even when certain camera views are missing. SafeMap integrates two key components: the Gaussian-based Perspective View Reconstruction (G-PVR) module and the Distillation-based Bird's-Eye-View (BEV) Correction (D-BEVC) module. G-PVR leverages prior knowledge of view importance to dynamically prioritize the most informative regions based on the relationships among available camera views. Furthermore, D-BEVC utilizes panoramic BEV features to correct the BEV representations derived from incomplete observations. Together, these components facilitate the end-to-end map reconstruction and robust HD map generation. SafeMap is easy to implement and integrates seamlessly into existing systems, offering a plug-and-play solution for enhanced robustness. Experimental results demonstrate that SafeMap significantly outperforms previous methods in both complete and incomplete scenarios, highlighting its superior performance and reliability.
- Abstract(参考訳): 頑強なHDマップ構築は自動運転には不可欠であるが、既存の手法では不完全なマルチビューカメラデータに悩まされることが多い。
本稿では,特定のカメラビューが欠落している場合でも,その精度を確保するための新しいフレームワークであるSafeMapを提案する。
SafeMapは2つの重要なコンポーネントを統合している。ガウスベースのパースペクティブビューコンストラクション(G-PVR)モジュールと、蒸留ベースのBird's-Eye-View(BEV)補正(D-BEVC)モジュールである。
G-PVRは、ビューの重要性に関する事前の知識を活用し、利用可能なカメラビュー間の関係に基づいて、最も情報性の高い領域を動的に優先順位付けする。
さらに、D-BEVCはパノラマBEV特徴を利用して、不完全な観測から得られたBEV表現を補正する。
これらのコンポーネントは、エンドツーエンドのマップ再構築と堅牢なHDマップ生成を促進する。
SafeMapは実装が容易で、既存のシステムとシームレスに統合され、堅牢性を高めるプラグイン・アンド・プレイのソリューションを提供する。
実験の結果、SafeMapは、完全なシナリオと不完全なシナリオの両方において、従来のメソッドよりも大幅に優れており、その優れたパフォーマンスと信頼性を強調しています。
関連論文リスト
- RaCFormer: Towards High-Quality 3D Object Detection via Query-based Radar-Camera Fusion [58.77329237533034]
本稿では3次元物体検出の精度を高めるために,Raar-Camera fusion transformer (RaCFormer)を提案する。
RaCFormerは、nuScenesデータセット上で64.9% mAPと70.2%の優れた結果を得る。
論文 参考訳(メタデータ) (2024-12-17T09:47:48Z) - TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - VQ-Map: Bird's-Eye-View Map Layout Estimation in Tokenized Discrete Space via Vector Quantization [108.68014173017583]
Bird's-eye-view (BEV) マップのレイアウト推定には、エゴ車の周囲の環境要素のセマンティクスを正確に完全に理解する必要がある。
本稿では,Vector Quantized-Variational AutoEncoder (VQ-VAE) に似た生成モデルを用いて,トークン化された離散空間における高レベルのBEVセマンティクスの事前知識を取得することを提案する。
得られたBEVトークンには,異なるBEV要素のセマンティクスを包含したコードブックが組み込まれているため,スパースバックボーン画像特徴と得られたBEVトークンとを直接一致させることができる。
論文 参考訳(メタデータ) (2024-11-03T16:09:47Z) - Map It Anywhere (MIA): Empowering Bird's Eye View Mapping using Large-scale Public Data [3.1968751101341173]
トップダウンのBird's Eye View (BEV)マップは地上ロボットナビゲーションの一般的な表現である。
最近の手法では、ファーストパーソンビュー(FPV)画像からBEVマップを予測することが約束されているが、その一般化可能性は、現在の自動運転車ベースのデータセットによってキャプチャされた小さな領域に限られている。
2つの大規模クラウドソースマッピングプラットフォームを利用することで,よりスケーラブルなマップ予測手法が実現可能であることを示す。
論文 参考訳(メタデータ) (2024-07-11T17:57:22Z) - ADMap: Anti-disturbance framework for reconstructing online vectorized
HD map [9.218463154577616]
本稿では, 反ゆらぎマップ再構築フレームワーク (ADMap) を提案する。
点次ジッタを緩和するため、このフレームワークは、マルチスケール知覚ネック、インスタンスインタラクティブアテンション(IIA)、ベクトル方向差損失(VDDL)の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2024-01-24T01:37:27Z) - MV-Map: Offboard HD-Map Generation with Multi-view Consistency [29.797769409113105]
Bird's-eye-view (BEV) の知覚モデルは、人間の労働力が少ない高精細地図(HD-Maps)を構築するのに有用である。
これらの結果は、しばしば信頼できないものであり、異なる視点から予測されたHD-Mapに顕著な矛盾を示す。
本稿では,計算制約を解消する,より実用的な「オフボード」なHDマップ生成機構を提案する。
論文 参考訳(メタデータ) (2023-05-15T17:59:15Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - HDNET: Exploiting HD Maps for 3D Object Detection [99.49035895393934]
高精細度(hd)マップは、現代の3dオブジェクト検出器の性能と頑健性を高める強力な事前情報を提供する。
我々はHDマップから幾何学的特徴と意味的特徴を抽出する単一ステージ検出器を設計する。
地図は至る所では利用できないため、生のLiDARデータからフライ時の地図を推定するマップ予測モジュールも提案する。
論文 参考訳(メタデータ) (2020-12-21T21:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。