論文の概要: OLiDM: Object-aware LiDAR Diffusion Models for Autonomous Driving
- arxiv url: http://arxiv.org/abs/2412.17226v1
- Date: Mon, 23 Dec 2024 02:43:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:56:35.880799
- Title: OLiDM: Object-aware LiDAR Diffusion Models for Autonomous Driving
- Title(参考訳): OLiDM:自律運転のためのオブジェクト指向LiDAR拡散モデル
- Authors: Tianyi Yan, Junbo Yin, Xianpeng Lang, Ruigang Yang, Cheng-Zhong Xu, Jianbing Shen,
- Abstract要約: OLiDMはオブジェクトとシーンレベルの両方で高忠実度LiDARデータを生成できる新しいフレームワークである。
OLiDMは、Object-Scene Progressive Generation (OPG) モジュールとObject Semantic Alignment (OSA) モジュールの2つの重要なコンポーネントで構成されている。
OPGは、ユーザ固有のプロンプトに適応して、望まれる前景オブジェクトを生成し、その後、シーン生成の条件として使用される。
OSAは、前景のオブジェクトと背景のシーンとの不一致を是正し、生成されたオブジェクトの全体的な品質を高めることを目的としている。
- 参考スコア(独自算出の注目度): 74.06413946934002
- License:
- Abstract: To enhance autonomous driving safety in complex scenarios, various methods have been proposed to simulate LiDAR point cloud data. Nevertheless, these methods often face challenges in producing high-quality, diverse, and controllable foreground objects. To address the needs of object-aware tasks in 3D perception, we introduce OLiDM, a novel framework capable of generating high-fidelity LiDAR data at both the object and the scene levels. OLiDM consists of two pivotal components: the Object-Scene Progressive Generation (OPG) module and the Object Semantic Alignment (OSA) module. OPG adapts to user-specific prompts to generate desired foreground objects, which are subsequently employed as conditions in scene generation, ensuring controllable outputs at both the object and scene levels. This also facilitates the association of user-defined object-level annotations with the generated LiDAR scenes. Moreover, OSA aims to rectify the misalignment between foreground objects and background scenes, enhancing the overall quality of the generated objects. The broad effectiveness of OLiDM is demonstrated across various LiDAR generation tasks, as well as in 3D perception tasks. Specifically, on the KITTI-360 dataset, OLiDM surpasses prior state-of-the-art methods such as UltraLiDAR by 17.5 in FPD. Additionally, in sparse-to-dense LiDAR completion, OLiDM achieves a significant improvement over LiDARGen, with a 57.47\% increase in semantic IoU. Moreover, OLiDM enhances the performance of mainstream 3D detectors by 2.4\% in mAP and 1.9\% in NDS, underscoring its potential in advancing object-aware 3D tasks. Code is available at: https://yanty123.github.io/OLiDM.
- Abstract(参考訳): 複雑なシナリオにおける自律運転安全性を高めるため、LiDARポイントクラウドデータをシミュレートする様々な手法が提案されている。
しかしながら、これらの手法は、高品質で多様性があり、制御可能な前景オブジェクトを作成する上で、しばしば課題に直面している。
OLiDMはオブジェクトとシーンの両方で高忠実度LiDARデータを生成できる新しいフレームワークである。
OLiDMは、Object-Scene Progressive Generation (OPG) モジュールとObject Semantic Alignment (OSA) モジュールの2つの重要なコンポーネントで構成されている。
OPGは、ユーザ固有のプロンプトに適応して、望まれる前景オブジェクトを生成し、その後、シーン生成の条件として使用され、オブジェクトとシーンのレベルで制御可能な出力を確保する。
これにより、ユーザ定義のオブジェクトレベルのアノテーションと生成されたLiDARシーンの関連も容易になる。
さらに、OSAは、前景オブジェクトと背景シーンのミスアライメントを是正し、生成されたオブジェクトの全体的な品質を向上させることを目的としている。
OLiDMの幅広い効果は、様々なLiDAR生成タスク、および3D知覚タスクで示される。
具体的には、KITTI-360データセットにおいて、OLiDMはUltraLiDARのような最先端の手法を17.5倍に超える。
さらに、疎密なLiDARコンプリートにおいて、OLiDMはLiDARGenを大幅に改善し、セマンティックIoUは57.47\%増加した。
さらに、OLiDMは、メインストリームの3D検出器の性能をmAP 2.4 %、NDS 1.9 %向上させ、オブジェクト認識3D タスクの進行の可能性を強調している。
コードは、https://yanty123.github.io/OLiDM.comで入手できる。
関連論文リスト
- Open-Set 3D object detection in LiDAR data as an Out-of-Distribution problem [6.131026007721572]
LiDARデータからの3Dオブジェクト検出は,制御環境下での産業対応性能を実現している。
我々は,LiDARデータにおけるオープンセット3Dオブジェクト検出問題を,外部分布(OOD)問題として再定義し,外乱オブジェクトを検出する。
論文 参考訳(メタデータ) (2024-10-31T09:29:55Z) - MV2DFusion: Leveraging Modality-Specific Object Semantics for Multi-Modal 3D Detection [28.319440934322728]
MV2DFusionは、高度なクエリベースの融合機構を通じて両方の世界の強みを統合するマルチモーダル検出フレームワークである。
私たちのフレームワークの柔軟性は、任意のイメージとポイントクラウドベースの検出器との統合を可能にし、その適応性と将来の進歩の可能性を示しています。
論文 参考訳(メタデータ) (2024-08-12T06:46:05Z) - VFMM3D: Releasing the Potential of Image by Vision Foundation Model for Monocular 3D Object Detection [80.62052650370416]
モノクル3Dオブジェクト検出は、自律運転やロボティクスなど、さまざまなアプリケーションにおいて重要な役割を担っている。
本稿では,VFMM3Dを提案する。VFMM3Dは,ビジョンファウンデーションモデル(VFM)の機能を利用して,単一ビュー画像を正確にLiDARポイントクラウド表現に変換する,革新的なフレームワークである。
論文 参考訳(メタデータ) (2024-04-15T03:12:12Z) - Weak-to-Strong 3D Object Detection with X-Ray Distillation [75.47580744933724]
本稿では,既存の任意の3Dオブジェクト検出フレームワークにシームレスに統合する多目的手法を提案する。
オブジェクト・コンプリートフレームを用いたX線蒸留は、教師付き設定と半教師付き設定の両方に適している。
提案手法は,半教師あり学習における最先端の手法を1-1.5mAPで超越する。
論文 参考訳(メタデータ) (2024-03-31T13:09:06Z) - LiDAR Data Synthesis with Denoising Diffusion Probabilistic Models [1.1965844936801797]
3D LiDARデータの生成モデリングは、自律移動ロボットに有望な応用をもたらす新たな課題である。
我々は,多種多様かつ高忠実な3Dシーンポイント雲を生成可能な,LiDARデータのための新しい生成モデルR2DMを提案する。
本手法は拡散確率モデル (DDPM) を用いて構築され, 生成モデルフレームワークにおいて顕著な結果が得られた。
論文 参考訳(メタデータ) (2023-09-17T12:26:57Z) - LiDARFormer: A Unified Transformer-based Multi-task Network for LiDAR
Perception [15.919789515451615]
変換器に基づく新しいLiDARマルチタスク学習パラダイムを提案する。
LiDARFormerはクロスタスクのシナジーを利用して、LiDAR知覚タスクのパフォーマンスを向上させる。
LiDARFormerは3D検出とセマンティックセグメンテーションの両方のために、大規模なnuScenesとOpenデータセットで評価されている。
論文 参考訳(メタデータ) (2023-03-21T20:52:02Z) - Learning Object-level Point Augmentor for Semi-supervised 3D Object
Detection [85.170578641966]
半教師付き3次元オブジェクト検出のための局所変換を行うオブジェクトレベルポイント拡張器(OPA)を提案する。
このようにして、結果のオーグメンタは、無関係なバックグラウンドではなく、オブジェクトインスタンスを強調するように導出されます。
ScanNetとSUN RGB-Dデータセットの実験は、提案したOPAが最先端の手法に対して好適に動作することを示している。
論文 参考訳(メタデータ) (2022-12-19T06:56:14Z) - SSDA3D: Semi-supervised Domain Adaptation for 3D Object Detection from
Point Cloud [125.9472454212909]
本稿では,3次元物体検出(SSDA3D)のための半改良型領域適応法を提案する。
SSDA3Dはドメイン間適応ステージとドメイン内一般化ステージを含む。
実験の結果,10%のラベル付きターゲットデータしか持たないSSDA3Dは,100%のターゲットラベルを持つ完全教師付きオラクルモデルを上回ることができることがわかった。
論文 参考訳(メタデータ) (2022-12-06T09:32:44Z) - Weighted Bayesian Gaussian Mixture Model for Roadside LiDAR Object
Detection [0.5156484100374059]
背景モデリングは、静的な背景成分を減じることで移動目標を検出するインテリジェントな監視システムに広く利用されている。
多くの道路沿いのLiDARオブジェクト検出手法は、新しいデータポイントと事前訓練されたバックグラウンド参照を比較して前景点をフィルタリングする。
本稿では,各LiDAR点の標高と方位値に基づいて,生のLiDARデータを構造化表現に変換する。
提案手法は,2つの最先端の道路背景モデル,コンピュータビジョンベンチマーク,深層学習ベースラインを比較し,交通量と難易度で評価された点,対象,経路レベルを比較した。
論文 参考訳(メタデータ) (2022-04-20T22:48:05Z) - The Devil is in the Task: Exploiting Reciprocal Appearance-Localization
Features for Monocular 3D Object Detection [62.1185839286255]
低コストのモノクル3D物体検出は、自律運転において基本的な役割を果たす。
DFR-Netという動的特徴反射ネットワークを導入する。
我々は、KITTIテストセットの全ての単分子3D物体検出器の中で、第1位にランク付けする。
論文 参考訳(メタデータ) (2021-12-28T07:31:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。