論文の概要: A Vision-Centric Approach for Static Map Element Annotation
- arxiv url: http://arxiv.org/abs/2309.11754v2
- Date: Sat, 17 Feb 2024 04:37:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 05:44:37.068847
- Title: A Vision-Centric Approach for Static Map Element Annotation
- Title(参考訳): 静的マップ要素アノテーションに対する視覚中心的アプローチ
- Authors: Jiaxin Zhang, Shiyuan Chen, Haoran Yin, Ruohong Mei, Xuan Liu, Cong
Yang, Qian Zhang and Wei Sui
- Abstract要約: 本稿では、一貫性マップと精度のためのビジョン中心のアプローチであるCAMAを提案する。
提案するフレームワークは,LiDAR入力がなければ,静的マップ要素の高品質な3Dアノテーションを生成することができる。
提案するフレームワークを一般的なnuScenesデータセットに適用して,効率的かつ高精度なアノテーションを提供する。
- 参考スコア(独自算出の注目度): 9.905900964784564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent development of online static map element (a.k.a. HD Map)
construction algorithms has raised a vast demand for data with ground truth
annotations. However, available public datasets currently cannot provide
high-quality training data regarding consistency and accuracy. To this end, we
present CAMA: a vision-centric approach for Consistent and Accurate Map
Annotation. Without LiDAR inputs, our proposed framework can still generate
high-quality 3D annotations of static map elements. Specifically, the
annotation can achieve high reprojection accuracy across all surrounding
cameras and is spatial-temporal consistent across the whole sequence. We apply
our proposed framework to the popular nuScenes dataset to provide efficient and
highly accurate annotations. Compared with the original nuScenes static map
element, models trained with annotations from CAMA achieve lower reprojection
errors (e.g., 4.73 vs. 8.03 pixels).
- Abstract(参考訳): オンライン静的マップ要素(別名hdマップ)の構築アルゴリズムが最近開発され、基礎的真理アノテーションを持つデータに対する需要が高まっている。
しかし、現在利用可能な公開データセットは、一貫性と正確性に関する高品質なトレーニングデータを提供できない。
そこで我々は,一貫性と正確なマップアノテーションのための視覚中心のアプローチであるCAMAを提案する。
提案するフレームワークは,LiDAR入力がなければ,静的マップ要素の高品質な3Dアノテーションを生成することができる。
特に、アノテーションは周囲の全てのカメラで高い再投影精度を達成でき、全シーケンスにわたって空間的時間的一貫性を持つ。
提案フレームワークを人気のあるnuscenesデータセットに適用し,効率的な高精度なアノテーションを提供する。
オリジナルの nuScenes の静的マップエレメントと比較すると、CAMA のアノテーションで訓練されたモデルは低い再射誤差(例えば 4.73 対 8.03 ピクセル)を達成する。
関連論文リスト
- Unveiling the Hidden: Online Vectorized HD Map Construction with Clip-Level Token Interaction and Propagation [14.480713752871521]
MapUnveilerは、クリップレベルのベクトル化HDマップ構築の新しいパラダイムである。
これは、高密度の画像表現と効率的なクリップトークンを関連付けることで、クリップ入力内の隠蔽マップ要素を公開する。
MapUnveilerはクリップトークンの伝搬を通じてクリップ間の情報を関連付け、長期の時間マップ情報を有効に活用する。
論文 参考訳(メタデータ) (2024-11-17T08:38:18Z) - SCRREAM : SCan, Register, REnder And Map:A Framework for Annotating Accurate and Dense 3D Indoor Scenes with a Benchmark [43.88114765730359]
SCRREAMは、シーン内のオブジェクトの完全な高密度メッシュのアノテーションを可能にし、実際の画像シーケンスにカメラのポーズを登録する。
データセットのアノテーションパイプラインの詳細を示し、可能なデータセットの4つのバリエーションを示す。
最近の屋内再建とSLAMのためのパイプラインは、新しいベンチマークとして機能している。
論文 参考訳(メタデータ) (2024-10-30T05:53:07Z) - CAMAv2: A Vision-Centric Approach for Static Map Element Annotation [15.764785952277931]
本稿では、一貫性と高精度マップのためのビジョン中心のアプローチであるCAMAv2を提案する。
提案するフレームワークを一般的なnuScenesデータセットに適用して,効率的かつ高精度なアノテーションを提供する。
元のnuScenesの静的マップエレメントと比較すると、CAMAv2アノテーションは低いリジェクションエラーを達成する。
論文 参考訳(メタデータ) (2024-07-31T04:41:49Z) - 3D LiDAR Mapping in Dynamic Environments Using a 4D Implicit Neural Representation [33.92758288570465]
正確な地図の構築は、自動運転車の信頼性の高いローカライゼーション、計画、ナビゲーションを可能にする重要なビルディングブロックである。
我々は、4Dシーンを新しい暗黙的ニューラルマップ表現に符号化する。
提案手法は, 高精度で完全な3次元地図を再構成しながら, 入力点雲の動的部分を除去することができる。
論文 参考訳(メタデータ) (2024-05-06T11:46:04Z) - Are Dense Labels Always Necessary for 3D Object Detection from Point
Cloud? [72.40353149833109]
現在のSOTA(State-of-the-art)3Dオブジェクト検出法は、トレーニングのために大量の3Dバウンディングボックスアノテーションを必要とすることが多い。
シーン毎に1つの3Dオブジェクトにアノテートするだけでよい,スプリスアノテートされた新しいフレームワークを提案する。
SS3D++法は、代わりに3D検出器のトレーニングを改善し、完全に注釈付けされたシーン生成を確実にする。
論文 参考訳(メタデータ) (2024-03-05T09:38:11Z) - Volumetric Semantically Consistent 3D Panoptic Mapping [77.13446499924977]
非構造環境における自律エージェントに適したセマンティック3Dマップを生成することを目的としたオンライン2次元から3次元のセマンティック・インスタンスマッピングアルゴリズムを提案する。
マッピング中にセマンティック予測の信頼性を統合し、セマンティックおよびインスタンス一貫性のある3D領域を生成する新しい方法を導入する。
提案手法は,パブリックな大規模データセット上での最先端の精度を実現し,多くの広く使用されているメトリクスを改善した。
論文 参考訳(メタデータ) (2023-09-26T08:03:10Z) - Neural Semantic Surface Maps [52.61017226479506]
本稿では,2つの属とゼロの形状の地図を自動計算する手法を提案する。
提案手法は,手動のアノテーションや3Dトレーニングデータ要求を排除し,意味的表面-表面マップを生成する。
論文 参考訳(メタデータ) (2023-09-09T16:21:56Z) - MapTRv2: An End-to-End Framework for Online Vectorized HD Map Construction [40.07726377230152]
High-definition (HD) マップは、運転シーンの豊富な正確な静的環境情報を提供する。
オンラインベクトル化HDマップ構築のためのエンドツーエンドフレームワークである textbfMap textbfTRansformer を提案する。
論文 参考訳(メタデータ) (2023-08-10T17:56:53Z) - PointOdyssey: A Large-Scale Synthetic Dataset for Long-Term Point
Tracking [90.29143475328506]
本稿では,大規模合成データセットとデータ生成フレームワークであるPointOdysseyを紹介する。
私たちのゴールは、自然主義的な動きを持つ長いビデオに重点を置いて、最先端の技術を推し進めることです。
実世界のモーションキャプチャーデータを用いて変形可能なキャラクタをアニメーション化し、モーションキャプチャー環境に合わせて3Dシーンを構築し、リアルビデオ上で構造から抽出したトラジェクトリを用いてカメラ視点を描画する。
論文 参考訳(メタデータ) (2023-07-27T17:58:11Z) - Weakly Supervised 3D Object Detection with Multi-Stage Generalization [62.96670547848691]
擬似ラベル生成と多段階一般化を含むBA$2$-Detを導入する。
一般化の3つの段階、完全から部分へ、静的から動的へ、そして遠い距離へ進む。
BA$2$-Detは、KITTIデータセットの20%の相対的な改善を達成できる。
論文 参考訳(メタデータ) (2023-06-08T17:58:57Z) - SCFusion: Real-time Incremental Scene Reconstruction with Semantic
Completion [86.77318031029404]
本研究では,シーン再構成とセマンティックシーン補完を段階的かつリアルタイムに共同で行うフレームワークを提案する。
我々のフレームワークは、3Dグローバルモデルでセマンティックコンプリートを正確かつ効率的に融合させるために、占有マップを処理し、ボクセル状態を活用するように設計された新しいニューラルアーキテクチャに依存している。
論文 参考訳(メタデータ) (2020-10-26T15:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。