論文の概要: D-Aug: Enhancing Data Augmentation for Dynamic LiDAR Scenes
- arxiv url: http://arxiv.org/abs/2404.11127v1
- Date: Wed, 17 Apr 2024 07:17:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 14:55:00.612383
- Title: D-Aug: Enhancing Data Augmentation for Dynamic LiDAR Scenes
- Title(参考訳): D-Aug: 動的LiDARシーンのためのデータ拡張
- Authors: Jiaxing Zhao, Peng Zheng, Rui Ma,
- Abstract要約: 動的シーンの拡大に適したLiDARデータ拡張手法であるD-Augを提案する。
動的シーンにシームレスに挿入するために,動的衝突検出と回転アライメントを含む参照誘導手法を提案する。
我々は, nuScenesデータセットを用いて, 様々な3次元検出・追跡手法を用いて本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 6.9123758223550045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating large LiDAR datasets with pixel-level labeling poses significant challenges. While numerous data augmentation methods have been developed to reduce the reliance on manual labeling, these methods predominantly focus on static scenes and they overlook the importance of data augmentation for dynamic scenes, which is critical for autonomous driving. To address this issue, we propose D-Aug, a LiDAR data augmentation method tailored for augmenting dynamic scenes. D-Aug extracts objects and inserts them into dynamic scenes, considering the continuity of these objects across consecutive frames. For seamless insertion into dynamic scenes, we propose a reference-guided method that involves dynamic collision detection and rotation alignment. Additionally, we present a pixel-level road identification strategy to efficiently determine suitable insertion positions. We validated our method using the nuScenes dataset with various 3D detection and tracking methods. Comparative experiments demonstrate the superiority of D-Aug.
- Abstract(参考訳): ピクセルレベルのラベル付けで大きなLiDARデータセットを作成することは、大きな課題となる。
手動ラベリングへの依存を減らすために、多くのデータ拡張手法が開発されているが、これらの手法は主に静的なシーンに焦点を当てており、自律運転にとって重要なダイナミックなシーンに対するデータ拡張の重要性を見落としている。
この問題に対処するために,動的シーンの拡張に適したLiDARデータ拡張手法であるD-Augを提案する。
D-Augはオブジェクトを抽出し、それらを動的シーンに挿入する。
動的シーンにシームレスに挿入するために,動的衝突検出と回転アライメントを含む参照誘導手法を提案する。
さらに,適切な挿入位置を効率的に決定するための画素レベルの道路識別戦略を提案する。
我々は, nuScenesデータセットを用いて, 様々な3次元検出・追跡手法を用いて本手法の有効性を検証した。
比較実験はD-Augの優位性を示す。
関連論文リスト
- TK-Planes: Tiered K-Planes with High Dimensional Feature Vectors for Dynamic UAV-based Scenes [58.180556221044235]
本研究では,無人航空機(UAV)の認識における合成と実世界の領域間ギャップを埋める新しい手法を提案する。
我々のformu-lationは、動いた物体や人間の行動からなる動的シーン用に設計されている。
我々は,Okutama ActionやUG2など,挑戦的なデータセットの性能を評価する。
論文 参考訳(メタデータ) (2024-05-04T21:55:33Z) - VirtualPainting: Addressing Sparsity with Virtual Points and
Distance-Aware Data Augmentation for 3D Object Detection [3.5259183508202976]
本稿では,カメラ画像を用いた仮想LiDAR点の生成を含む革新的なアプローチを提案する。
また、画像ベースセグメンテーションネットワークから得られる意味ラベルを用いて、これらの仮想点を強化する。
このアプローチは、様々な3Dフレームワークと2Dセマンティックセグメンテーションメソッドにシームレスに統合できる汎用的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-12-26T18:03:05Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - DSLR: Dynamic to Static LiDAR Scan Reconstruction Using Adversarially
Trained Autoencoder [13.410761642763847]
そこで本研究では,LiDARスキャンに適用した場合に,視覚領域向けに開発された手法の現状について述べる。
我々は,動的スキャンと静的スキャンのマッピングを,対向的に訓練されたオートエンコーダを用いて学習する,深層生成モデルDSLRを開発した。
我々のモデルは、明示的なセグメンテーションラベルを使わずに静的スキャンを生成するLiDAR上のDSTの最初の解を得る。
論文 参考訳(メタデータ) (2021-05-26T18:19:21Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。