論文の概要: D-Aug: Enhancing Data Augmentation for Dynamic LiDAR Scenes
- arxiv url: http://arxiv.org/abs/2404.11127v1
- Date: Wed, 17 Apr 2024 07:17:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 14:55:00.612383
- Title: D-Aug: Enhancing Data Augmentation for Dynamic LiDAR Scenes
- Title(参考訳): D-Aug: 動的LiDARシーンのためのデータ拡張
- Authors: Jiaxing Zhao, Peng Zheng, Rui Ma,
- Abstract要約: 動的シーンの拡大に適したLiDARデータ拡張手法であるD-Augを提案する。
動的シーンにシームレスに挿入するために,動的衝突検出と回転アライメントを含む参照誘導手法を提案する。
我々は, nuScenesデータセットを用いて, 様々な3次元検出・追跡手法を用いて本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 6.9123758223550045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating large LiDAR datasets with pixel-level labeling poses significant challenges. While numerous data augmentation methods have been developed to reduce the reliance on manual labeling, these methods predominantly focus on static scenes and they overlook the importance of data augmentation for dynamic scenes, which is critical for autonomous driving. To address this issue, we propose D-Aug, a LiDAR data augmentation method tailored for augmenting dynamic scenes. D-Aug extracts objects and inserts them into dynamic scenes, considering the continuity of these objects across consecutive frames. For seamless insertion into dynamic scenes, we propose a reference-guided method that involves dynamic collision detection and rotation alignment. Additionally, we present a pixel-level road identification strategy to efficiently determine suitable insertion positions. We validated our method using the nuScenes dataset with various 3D detection and tracking methods. Comparative experiments demonstrate the superiority of D-Aug.
- Abstract(参考訳): ピクセルレベルのラベル付けで大きなLiDARデータセットを作成することは、大きな課題となる。
手動ラベリングへの依存を減らすために、多くのデータ拡張手法が開発されているが、これらの手法は主に静的なシーンに焦点を当てており、自律運転にとって重要なダイナミックなシーンに対するデータ拡張の重要性を見落としている。
この問題に対処するために,動的シーンの拡張に適したLiDARデータ拡張手法であるD-Augを提案する。
D-Augはオブジェクトを抽出し、それらを動的シーンに挿入する。
動的シーンにシームレスに挿入するために,動的衝突検出と回転アライメントを含む参照誘導手法を提案する。
さらに,適切な挿入位置を効率的に決定するための画素レベルの道路識別戦略を提案する。
我々は, nuScenesデータセットを用いて, 様々な3次元検出・追跡手法を用いて本手法の有効性を検証した。
比較実験はD-Augの優位性を示す。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - 3D-Aware Instance Segmentation and Tracking in Egocentric Videos [107.10661490652822]
エゴセントリックなビデオは、3Dシーンの理解にユニークな課題を提示する。
本稿では,一対一のビデオにおけるインスタンスのセグメンテーションとトラッキングに対する新しいアプローチを提案する。
空間的および時間的手がかりを取り入れることで、最先端の2D手法と比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-08-19T10:08:25Z) - Hardness-Aware Scene Synthesis for Semi-Supervised 3D Object Detection [59.33188668341604]
3次元物体検出は、自律運転知覚の基本的なタスクとして機能する。
ポイントクラウドデータのための高品質なアノテーションを得るためには、コストがかかる。
本稿では,適応型合成シーンを生成するために,ハードネス対応シーン合成(HASS)手法を提案する。
論文 参考訳(メタデータ) (2024-05-27T17:59:23Z) - VirtualPainting: Addressing Sparsity with Virtual Points and
Distance-Aware Data Augmentation for 3D Object Detection [3.5259183508202976]
本稿では,カメラ画像を用いた仮想LiDAR点の生成を含む革新的なアプローチを提案する。
また、画像ベースセグメンテーションネットワークから得られる意味ラベルを用いて、これらの仮想点を強化する。
このアプローチは、様々な3Dフレームワークと2Dセマンティックセグメンテーションメソッドにシームレスに統合できる汎用的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-26T18:03:05Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。