論文の概要: CAMAv2: A Vision-Centric Approach for Static Map Element Annotation
- arxiv url: http://arxiv.org/abs/2407.21331v1
- Date: Wed, 31 Jul 2024 04:41:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-01 18:41:45.460993
- Title: CAMAv2: A Vision-Centric Approach for Static Map Element Annotation
- Title(参考訳): CAMAv2: 静的マップ要素アノテーションに対するビジョン中心アプローチ
- Authors: Shiyuan Chen, Jiaxin Zhang, Ruohong Mei, Yingfeng Cai, Haoran Yin, Tao Chen, Wei Sui, Cong Yang,
- Abstract要約: 本稿では、一貫性と高精度マップのためのビジョン中心のアプローチであるCAMAv2を提案する。
提案するフレームワークを一般的なnuScenesデータセットに適用して,効率的かつ高精度なアノテーションを提供する。
元のnuScenesの静的マップエレメントと比較すると、CAMAv2アノテーションは低いリジェクションエラーを達成する。
- 参考スコア(独自算出の注目度): 15.764785952277931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent development of online static map element (a.k.a. HD map) construction algorithms has raised a vast demand for data with ground truth annotations. However, available public datasets currently cannot provide high-quality training data regarding consistency and accuracy. For instance, the manual labelled (low efficiency) nuScenes still contains misalignment and inconsistency between the HD maps and images (e.g., around 8.03 pixels reprojection error on average). To this end, we present CAMAv2: a vision-centric approach for Consistent and Accurate Map Annotation. Without LiDAR inputs, our proposed framework can still generate high-quality 3D annotations of static map elements. Specifically, the annotation can achieve high reprojection accuracy across all surrounding cameras and is spatial-temporal consistent across the whole sequence. We apply our proposed framework to the popular nuScenes dataset to provide efficient and highly accurate annotations. Compared with the original nuScenes static map element, our CAMAv2 annotations achieve lower reprojection errors (e.g., 4.96 vs. 8.03 pixels). Models trained with annotations from CAMAv2 also achieve lower reprojection errors (e.g., 5.62 vs. 8.43 pixels).
- Abstract(参考訳): オンライン静的マップ要素(すなわちHDマップ)構築アルゴリズムの最近の開発により、地上の真理アノテーションを持つデータに対する膨大な需要が高まっている。
しかし、現在利用可能な公開データセットは、一貫性と正確性に関する高品質なトレーニングデータを提供できない。
例えば、手動でラベル付けされた(低効率) nuScenes には、HDマップと画像(例えば、平均8.03ピクセルの再投影誤差)の間の不一致と不整合が含まれている。
そこで我々は、一貫性と正確なマップアノテーションのためのビジョン中心のアプローチであるCAMAv2を提案する。
提案するフレームワークは,LiDAR入力がなければ,静的マップ要素の高品質な3Dアノテーションを生成することができる。
具体的には、このアノテーションは周囲のすべてのカメラに対して高い再投影精度を達成でき、全シーケンスにわたって空間的・時間的整合性を持つ。
提案するフレームワークを一般的なnuScenesデータセットに適用して,効率的かつ高精度なアノテーションを提供する。
元のnuScenesの静的マップエレメントと比較すると、CAMAv2アノテーションは低い再投影エラー(例:4.96対8.03ピクセル)を達成する。
CAMAv2からのアノテーションで訓練されたモデルは、低い再投影エラー(例: 5.62 vs. 8.43 ピクセル)も達成している。
関連論文リスト
- Unveiling the Hidden: Online Vectorized HD Map Construction with Clip-Level Token Interaction and Propagation [14.480713752871521]
MapUnveilerは、クリップレベルのベクトル化HDマップ構築の新しいパラダイムである。
これは、高密度の画像表現と効率的なクリップトークンを関連付けることで、クリップ入力内の隠蔽マップ要素を公開する。
MapUnveilerはクリップトークンの伝搬を通じてクリップ間の情報を関連付け、長期の時間マップ情報を有効に活用する。
論文 参考訳(メタデータ) (2024-11-17T08:38:18Z) - GenMapping: Unleashing the Potential of Inverse Perspective Mapping for Robust Online HD Map Construction [20.1127163541618]
我々はGenMappingというユニバーサルマップ生成フレームワークを設計した。
このフレームワークは、主および二重補助枝を含む三進的なシナジーアーキテクチャで構築されている。
実験結果の網羅的な配列から,提案手法はセマンティックマッピングとベクトル化マッピングの両方において最先端の手法を超越し,高速な推論速度を維持した。
論文 参考訳(メタデータ) (2024-09-13T10:15:28Z) - 3D LiDAR Mapping in Dynamic Environments Using a 4D Implicit Neural Representation [33.92758288570465]
正確な地図の構築は、自動運転車の信頼性の高いローカライゼーション、計画、ナビゲーションを可能にする重要なビルディングブロックである。
我々は、4Dシーンを新しい暗黙的ニューラルマップ表現に符号化する。
提案手法は, 高精度で完全な3次元地図を再構成しながら, 入力点雲の動的部分を除去することができる。
論文 参考訳(メタデータ) (2024-05-06T11:46:04Z) - Are Dense Labels Always Necessary for 3D Object Detection from Point
Cloud? [72.40353149833109]
現在のSOTA(State-of-the-art)3Dオブジェクト検出法は、トレーニングのために大量の3Dバウンディングボックスアノテーションを必要とすることが多い。
シーン毎に1つの3Dオブジェクトにアノテートするだけでよい,スプリスアノテートされた新しいフレームワークを提案する。
SS3D++法は、代わりに3D検出器のトレーニングを改善し、完全に注釈付けされたシーン生成を確実にする。
論文 参考訳(メタデータ) (2024-03-05T09:38:11Z) - PACE: A Large-Scale Dataset with Pose Annotations in Cluttered Environments [50.79058028754952]
PACE(Pose s in Cluttered Environments)は、散在シナリオにおけるポーズ推定手法の大規模ベンチマークである。
ベンチマークは55Kフレームで構成され、300の動画に258Kのアノテーションがあり、43のカテゴリから238のオブジェクトをカバーしている。
PACE-Simには、931オブジェクトにわたる2.4Mアノテーションを備えた100Kのフォトリアリスティックシミュレートフレームが含まれている。
論文 参考訳(メタデータ) (2023-12-23T01:38:41Z) - A Vision-Centric Approach for Static Map Element Annotation [9.905900964784564]
本稿では、一貫性マップと精度のためのビジョン中心のアプローチであるCAMAを提案する。
提案するフレームワークは,LiDAR入力がなければ,静的マップ要素の高品質な3Dアノテーションを生成することができる。
提案するフレームワークを一般的なnuScenesデータセットに適用して,効率的かつ高精度なアノテーションを提供する。
論文 参考訳(メタデータ) (2023-09-21T03:30:00Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - Weakly Supervised 3D Object Detection with Multi-Stage Generalization [62.96670547848691]
擬似ラベル生成と多段階一般化を含むBA$2$-Detを導入する。
一般化の3つの段階、完全から部分へ、静的から動的へ、そして遠い距離へ進む。
BA$2$-Detは、KITTIデータセットの20%の相対的な改善を達成できる。
論文 参考訳(メタデータ) (2023-06-08T17:58:57Z) - NeuMap: Neural Coordinate Mapping by Auto-Transdecoder for Camera
Localization [60.73541222862195]
NeuMapは、カメラのローカライゼーションのためのエンドツーエンドのニューラルマッピング手法である。
シーン全体を遅延コードグリッドにエンコードし、Transformerベースのオートデコーダがクエリピクセルの3D座標を回帰する。
論文 参考訳(メタデータ) (2022-11-21T04:46:22Z) - Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps [78.2581910688094]
本研究は, カテゴリーラベルのみを監督として, 正確な対象位置分布マップと対象境界を抽出する, 新たな自己強調手法を提案する。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。