論文の概要: MV-Map: Offboard HD-Map Generation with Multi-view Consistency
- arxiv url: http://arxiv.org/abs/2305.08851v2
- Date: Mon, 9 Oct 2023 01:15:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 12:45:01.303075
- Title: MV-Map: Offboard HD-Map Generation with Multi-view Consistency
- Title(参考訳): MVマップ:マルチビュー一貫性を持つオフボードHDマップ生成
- Authors: Ziyang Xie and Ziqi Pang and Yu-Xiong Wang
- Abstract要約: Bird's-eye-view (BEV) の知覚モデルは、人間の労働力が少ない高精細地図(HD-Maps)を構築するのに有用である。
これらの結果は、しばしば信頼できないものであり、異なる視点から予測されたHD-Mapに顕著な矛盾を示す。
本稿では,計算制約を解消する,より実用的な「オフボード」なHDマップ生成機構を提案する。
- 参考スコア(独自算出の注目度): 29.797769409113105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While bird's-eye-view (BEV) perception models can be useful for building
high-definition maps (HD-Maps) with less human labor, their results are often
unreliable and demonstrate noticeable inconsistencies in the predicted HD-Maps
from different viewpoints. This is because BEV perception is typically set up
in an 'onboard' manner, which restricts the computation and consequently
prevents algorithms from reasoning multiple views simultaneously. This paper
overcomes these limitations and advocates a more practical 'offboard' HD-Map
generation setup that removes the computation constraints, based on the fact
that HD-Maps are commonly reusable infrastructures built offline in data
centers. To this end, we propose a novel offboard pipeline called MV-Map that
capitalizes multi-view consistency and can handle an arbitrary number of frames
with the key design of a 'region-centric' framework. In MV-Map, the target
HD-Maps are created by aggregating all the frames of onboard predictions,
weighted by the confidence scores assigned by an 'uncertainty network'. To
further enhance multi-view consistency, we augment the uncertainty network with
the global 3D structure optimized by a voxelized neural radiance field
(Voxel-NeRF). Extensive experiments on nuScenes show that our MV-Map
significantly improves the quality of HD-Maps, further highlighting the
importance of offboard methods for HD-Map generation.
- Abstract(参考訳): 鳥の目視(BEV)知覚モデルは、人間の労働力が少ない高精細地図(HD-Maps)を構築するのに有用であるが、それらの結果は信頼できないことが多く、異なる視点から予測されたHD-Mapsに顕著な矛盾を示す。
これは、BEVの知覚が一般に「オンボード」な方法で設定されるためであり、計算を制限し、アルゴリズムが複数のビューを同時に推論することを防ぐ。
本稿では,これらの制約を克服し,hd-mapが一般的にデータセンタにオフラインで構築される再利用可能なインフラストラクチャであるという事実に基づいて,計算制約を解消する,より実用的な'オフボード'なhd-map生成設定を提唱する。
そこで本研究では,マルチビューの一貫性を活かし,任意のフレーム数を扱うことのできるmv-mapと呼ばれる新しいオフボードパイプラインを提案する。
MV-Mapでは、対象のHD-Mapは、"不確実性ネットワーク"によって割り当てられた信頼スコアによって重み付けられた、オンボード予測のすべてのフレームを集約することによって作成される。
マルチビューの整合性を高めるため,ボクセル化ニューラルラジアンス場(Voxel-NeRF)によって最適化されたグローバルな3次元構造を持つ不確実性ネットワークを構築した。
nuScenesの大規模な実験により,我々のMV-MapはHD-Mapsの品質を大幅に改善し,HD-Maps生成のためのオフボード手法の重要性を強調した。
関連論文リスト
- TopoSD: Topology-Enhanced Lane Segment Perception with SDMap Prior [70.84644266024571]
我々は、標準定義地図(SDMaps)を見るために知覚モデルを訓練することを提案する。
我々はSDMap要素をニューラル空間マップ表現やインスタンストークンにエンコードし、先行情報のような補完的な特徴を組み込む。
レーンセグメント表現フレームワークに基づいて、モデルはレーン、中心線、およびそれらのトポロジを同時に予測する。
論文 参考訳(メタデータ) (2024-11-22T06:13:42Z) - GenMapping: Unleashing the Potential of Inverse Perspective Mapping for Robust Online HD Map Construction [20.1127163541618]
我々はGenMappingというユニバーサルマップ生成フレームワークを設計した。
このフレームワークは、主および二重補助枝を含む三進的なシナジーアーキテクチャで構築されている。
実験結果の網羅的な配列から,提案手法はセマンティックマッピングとベクトル化マッピングの両方において最先端の手法を超越し,高速な推論速度を維持した。
論文 参考訳(メタデータ) (2024-09-13T10:15:28Z) - Enhancing Online Road Network Perception and Reasoning with Standard Definition Maps [14.535963852751635]
我々は,オンラインベクトル化HDマップ表現の開発において,軽量でスケーラブルな事前規格定義(SD)マップを活用することに注力する。
重要な発見は、SDマップエンコーダがモデル非依存であり、鳥の目視(BEV)エンコーダを利用する新しいアーキテクチャに迅速に適応できることである。
この結果から,オンライン地図作成タスクの先行作業としてSDマップを使用すると,コンバージェンスが大幅に向上し,オンラインセンターライン認識タスクの性能が30%向上する可能性が示唆された。
論文 参考訳(メタデータ) (2024-08-01T19:39:55Z) - ADMap: Anti-disturbance framework for reconstructing online vectorized
HD map [9.218463154577616]
本稿では, 反ゆらぎマップ再構築フレームワーク (ADMap) を提案する。
点次ジッタを緩和するため、このフレームワークは、マルチスケール知覚ネック、インスタンスインタラクティブアテンション(IIA)、ベクトル方向差損失(VDDL)の3つのモジュールで構成されている。
論文 参考訳(メタデータ) (2024-01-24T01:37:27Z) - NeMO: Neural Map Growing System for Spatiotemporal Fusion in
Bird's-Eye-View and BDD-Map Benchmark [9.430779563669908]
視覚中心のBird's-Eye View表現は自律運転システムに不可欠である。
この研究は、読みやすく、説明可能なビッグマップを利用してローカルマップを生成するための、NeMOという新しいパラダイムを概説する。
すべてのBEVグリッドの特徴分布が同じパターンに従うと仮定して、すべてのグリッドに対して共有重み付きニューラルネットワークを採用して、ビッグマップを更新する。
論文 参考訳(メタデータ) (2023-06-07T15:46:15Z) - BEVBert: Multimodal Map Pre-training for Language-guided Navigation [75.23388288113817]
視覚・言語ナビゲーション(VLN)における空間認識型マップベース事前学習パラダイムを提案する。
我々は,グローバルなトポロジカルマップにおけるナビゲーション依存性をモデル化しながら,不完全な観測を明示的に集約し,重複を取り除くための局所距離マップを構築した。
ハイブリッドマップをベースとして,マルチモーダルマップ表現を学習するための事前学習フレームワークを考案し,空間認識型クロスモーダル推論を強化し,言語誘導ナビゲーションの目標を導出する。
論文 参考訳(メタデータ) (2022-12-08T16:27:54Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - HDMapNet: An Online HD Map Construction and Evaluation Framework [23.19001503634617]
HDマップの構築は自動運転にとって重要な問題である。
従来のHDマップは、多くのシナリオでは信頼性の低いセンチメートルレベルの正確な位置決めと結合している。
オンライン地図学習は、自動運転車に先立って意味と幾何学を提供するための、よりスケーラブルな方法である。
論文 参考訳(メタデータ) (2021-07-13T18:06:46Z) - HDMapGen: A Hierarchical Graph Generative Model of High Definition Maps [81.86923212296863]
HDマップは道路路面の正確な定義と交通ルールの豊富な意味を持つ地図である。
実際の道路トポロジやジオメトリはごくわずかで、自動運転スタックをテストする能力は著しく制限されています。
高品質で多様なHDマップを生成可能な階層グラフ生成モデルであるHDMapGenを提案する。
論文 参考訳(メタデータ) (2021-06-28T17:59:30Z) - HDNET: Exploiting HD Maps for 3D Object Detection [99.49035895393934]
高精細度(hd)マップは、現代の3dオブジェクト検出器の性能と頑健性を高める強力な事前情報を提供する。
我々はHDマップから幾何学的特徴と意味的特徴を抽出する単一ステージ検出器を設計する。
地図は至る所では利用できないため、生のLiDARデータからフライ時の地図を推定するマップ予測モジュールも提案する。
論文 参考訳(メタデータ) (2020-12-21T21:59:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。