論文の概要: Real-Aug: Realistic Scene Synthesis for LiDAR Augmentation in 3D Object
Detection
- arxiv url: http://arxiv.org/abs/2305.12853v1
- Date: Mon, 22 May 2023 09:24:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 17:11:17.120247
- Title: Real-Aug: Realistic Scene Synthesis for LiDAR Augmentation in 3D Object
Detection
- Title(参考訳): real-aug:3次元物体検出におけるライダー強調のための現実的なシーン合成
- Authors: Jinglin Zhan, Tiejun Liu, Rengang Li, Jingwei Zhang, Zhaoxiang Zhang,
Yuntao Chen
- Abstract要約: 生成したデータに対して最大制御性を提供する合成ベースLiDARデータ拡張手法(いわゆるGT-Aug)について検討する。
本稿では,現実的なLiDARスキャンの生成を優先する合成に基づく拡張手法であるReal-Augを提案する。
nuScenes テストセット上で, 最先端の 0.744 NDS と 0.702 mAP を達成する。
- 参考スコア(独自算出の注目度): 45.102312149413855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data and model are the undoubtable two supporting pillars for LiDAR object
detection. However, data-centric works have fallen far behind compared with the
ever-growing list of fancy new models. In this work, we systematically study
the synthesis-based LiDAR data augmentation approach (so-called GT-Aug) which
offers maxium controllability over generated data samples. We pinpoint the main
shortcoming of existing works is introducing unrealistic LiDAR scan patterns
during GT-Aug. In light of this finding, we propose Real-Aug, a synthesis-based
augmentation method which prioritizes on generating realistic LiDAR scans. Our
method consists a reality-conforming scene composition module which handles the
details of the composition and a real-synthesis mixing up training strategy
which gradually adapts the data distribution from synthetic data to the real
one. To verify the effectiveness of our methods, we conduct extensive ablation
studies and validate the proposed Real-Aug on a wide combination of detectors
and datasets. We achieve a state-of-the-art 0.744 NDS and 0.702 mAP on nuScenes
test set. The code shall be released soon.
- Abstract(参考訳): データとモデルは、LiDARオブジェクト検出のための疑わしい2つの支持柱である。
しかし、データ中心の作業は、人気の高い新しいモデルのリストと比べてはるかに遅れている。
本研究では,生成したデータに対して最大制御性を提供する合成ベースLiDARデータ拡張手法(いわゆるGT-Aug)を体系的に研究する。
GT-Aug中に非現実的なLiDARスキャンパターンを導入することで、既存の作業の主な欠点を指摘します。
そこで本研究では,現実的なLiDARスキャンの生成を優先する合成法であるReal-Augを提案する。
本手法は,構成の詳細を扱う現実合成シーン合成モジュールと,合成データから実データへのデータ分布を徐々に適応させる実合成混合トレーニング戦略からなる。
提案手法の有効性を検証するため,提案したReal-Augを検出器とデータセットの広範囲な組み合わせで検証する。
nuScenes テストセット上で, 最先端の 0.744 NDS と 0.702 mAP を達成する。
コードはすぐに解放される。
関連論文リスト
- Approaching Outside: Scaling Unsupervised 3D Object Detection from 2D Scene [22.297964850282177]
教師なし3次元検出のためのLiDAR-2D Self-paced Learning (LiSe)を提案する。
RGB画像は、正確な2Dローカライゼーションキューを提供するLiDARデータの貴重な補完となる。
本フレームワークでは,適応型サンプリングと弱いモデルアグリゲーション戦略を組み込んだ自己評価学習パイプラインを考案する。
論文 参考訳(メタデータ) (2024-07-11T14:58:49Z) - 4D Contrastive Superflows are Dense 3D Representation Learners [62.433137130087445]
我々は,LiDARとカメラのペアを連続的に利用して事前学習の目的を確立するための,新しいフレームワークであるSuperFlowを紹介する。
学習効率をさらに向上するため,カメラビューから抽出した知識の整合性を高めるプラグイン・アンド・プレイ・ビュー・一貫性モジュールを組み込んだ。
論文 参考訳(メタデータ) (2024-07-08T17:59:54Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Just Add $100 More: Augmenting NeRF-based Pseudo-LiDAR Point Cloud for Resolving Class-imbalance Problem [12.26293873825084]
本稿では,小クラスのミニチュアや現実世界のオブジェクトのサラウンドビューをキャプチャしたビデオから生成された擬似LiDAR点雲を活用することを提案する。
Pseudo Ground Truth Aug (PGT-Aug) と呼ばれるこの手法は, (i) 2D-to-3Dビュー合成モデルを用いたボリューム3Dインスタンス再構成, (ii)LiDAR強度推定によるオブジェクトレベルドメインアライメント, (iii) 地上情報と地図情報からのコンテキスト認識配置のハイブリッド化という3つのステップから構成される。
論文 参考訳(メタデータ) (2024-03-18T08:50:04Z) - LiDAR Data Synthesis with Denoising Diffusion Probabilistic Models [1.1965844936801797]
3D LiDARデータの生成モデリングは、自律移動ロボットに有望な応用をもたらす新たな課題である。
我々は,多種多様かつ高忠実な3Dシーンポイント雲を生成可能な,LiDARデータのための新しい生成モデルR2DMを提案する。
本手法は拡散確率モデル (DDPM) を用いて構築され, 生成モデルフレームワークにおいて顕著な結果が得られた。
論文 参考訳(メタデータ) (2023-09-17T12:26:57Z) - Neural LiDAR Fields for Novel View Synthesis [80.45307792404685]
本稿では,LiDAR計測からニューラルネットワークシーンの表現を最適化する手法であるLiDAR(NFL)について述べる。
NFLは、ニューラルネットワークのレンダリングパワーと、LiDARセンシングプロセスの詳細な物理的動機付けモデルを組み合わせる。
合成されたビューの改良されたリアリズムは、ドメインギャップを実際のスキャンに狭め、より良い登録とセマンティックセグメンテーション性能に変換することを示す。
論文 参考訳(メタデータ) (2023-05-02T17:55:38Z) - A New Benchmark: On the Utility of Synthetic Data with Blender for Bare
Supervised Learning and Downstream Domain Adaptation [42.2398858786125]
コンピュータビジョンにおけるディープラーニングは、大規模ラベル付きトレーニングデータの価格で大きな成功を収めた。
制御不能なデータ収集プロセスは、望ましくない重複が存在する可能性のある非IIDトレーニングおよびテストデータを生成する。
これを回避するために、ドメインランダム化による3Dレンダリングによる合成データを生成する方法がある。
論文 参考訳(メタデータ) (2023-03-16T09:03:52Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。