論文の概要: LiDAR Data Synthesis with Denoising Diffusion Probabilistic Models
- arxiv url: http://arxiv.org/abs/2309.09256v2
- Date: Mon, 4 Mar 2024 07:37:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 02:39:35.771179
- Title: LiDAR Data Synthesis with Denoising Diffusion Probabilistic Models
- Title(参考訳): 拡散確率モデルを用いたLiDARデータ合成
- Authors: Kazuto Nakashima, Ryo Kurazume
- Abstract要約: 3D LiDARデータの生成モデリングは、自律移動ロボットに有望な応用をもたらす新たな課題である。
我々は,多種多様かつ高忠実な3Dシーンポイント雲を生成可能な,LiDARデータのための新しい生成モデルR2DMを提案する。
本手法は拡散確率モデル (DDPM) を用いて構築され, 生成モデルフレームワークにおいて顕著な結果が得られた。
- 参考スコア(独自算出の注目度): 1.1965844936801797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative modeling of 3D LiDAR data is an emerging task with promising
applications for autonomous mobile robots, such as scalable simulation, scene
manipulation, and sparse-to-dense completion of LiDAR point clouds. While
existing approaches have demonstrated the feasibility of image-based LiDAR data
generation using deep generative models, they still struggle with fidelity and
training stability. In this work, we present R2DM, a novel generative model for
LiDAR data that can generate diverse and high-fidelity 3D scene point clouds
based on the image representation of range and reflectance intensity. Our
method is built upon denoising diffusion probabilistic models (DDPMs), which
have shown impressive results among generative model frameworks in recent
years. To effectively train DDPMs in the LiDAR domain, we first conduct an
in-depth analysis of data representation, loss functions, and spatial inductive
biases. Leveraging our R2DM model, we also introduce a flexible LiDAR
completion pipeline based on the powerful capabilities of DDPMs. We demonstrate
that our method surpasses existing methods in generating tasks on the KITTI-360
and KITTI-Raw datasets, as well as in the completion task on the KITTI-360
dataset. Our project page can be found at https://kazuto1011.github.io/r2dm.
- Abstract(参考訳): 3D LiDARデータの生成モデリングは、スケーラブルなシミュレーション、シーン操作、LiDARポイントクラウドのスパース・トゥ・ディエンス・コンプリートといった自律移動ロボットのための有望なアプリケーションにおいて、新たな課題である。
既存のアプローチは、深層生成モデルを用いた画像ベースのLiDARデータ生成の実現可能性を示しているが、彼らは依然として忠実さとトレーニング安定性に苦慮している。
本研究では,LDARデータのための新しい生成モデルであるR2DMを提案する。R2DMは,距離と反射強度のイメージ表現に基づいて,多種多様で高忠実な3Dシーンポイント雲を生成できる。
提案手法は拡散確率モデル(ddpms)を用いており,近年,生成モデルフレームワークにおいて印象的な結果が得られた。
DDPMをLiDAR領域で効果的に訓練するために、まずデータ表現、損失関数、空間帰納バイアスの詳細な分析を行う。
R2DMモデルを活用することで、DDPMの強力な機能に基づいた柔軟なLiDAR補完パイプラインも導入します。
提案手法は,KITTI-360データセットとKITTI-Rawデータセットのタスク生成において,既存の手法を超えていることを示す。
プロジェクトページはhttps://kazuto1011.github.io/r2dm.com/で閲覧できます。
関連論文リスト
- LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
LiDARシミュレーションは、自動運転におけるクローズドループシミュレーションにおいて重要な役割を果たす。
都市景観におけるLiDARセンサスキャンをリアルタイムに再現するために,最初のLiDARガウス法であるLiDAR-GSを提案する。
我々の手法は、深度、強度、レイドロップチャンネルを同時に再現することに成功し、公開可能な大規模シーンデータセットにおけるフレームレートと品質の両方のレンダリング結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Fast LiDAR Upsampling using Conditional Diffusion Models [1.3709133749179265]
既存の手法は拡散モデルを用いて高忠実度で洗練されたLiDARデータを生成する可能性を示している。
高速かつ高品質な3次元シーンポイント雲のスパース・ツー・デンスアップサンプリングのための条件拡散モデルに基づく新しいアプローチを提案する。
本手法では,条件付き塗装マスクを用いて訓練した拡散確率モデルを用いて,画像補完タスクの性能向上を図っている。
論文 参考訳(メタデータ) (2024-05-08T08:38:28Z) - LidarDM: Generative LiDAR Simulation in a Generated World [21.343346521878864]
LidarDMは、リアルでレイアウト対応で、物理的に可視で、時間的に一貫性のあるLiDARビデオを生成することができる、新しいLiDAR生成モデルである。
我々は3次元シーンを生成するために潜時拡散モデルを使用し、それを動的アクターと組み合わせて基礎となる4次元世界を形成し、この仮想環境内で現実的な感覚観察を生成する。
提案手法は,現実性,時間的コヒーレンシ,レイアウト整合性において,競合するアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-03T17:59:28Z) - NeRF-LiDAR: Generating Realistic LiDAR Point Clouds with Neural Radiance
Fields [20.887421720818892]
実世界の情報を利用してリアルなLIDAR点雲を生成する新しいLiDARシミュレーション手法であるNeRF-LIDARを提案する。
我々は,生成したLiDAR点雲上で異なる3次元セグメンテーションモデルをトレーニングすることにより,NeRF-LiDARの有効性を検証する。
論文 参考訳(メタデータ) (2023-04-28T12:41:28Z) - MV-JAR: Masked Voxel Jigsaw and Reconstruction for LiDAR-Based
Self-Supervised Pre-Training [58.07391711548269]
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
Masked Voxel Jigsaw and Reconstruction (MV-JAR) method for LiDAR-based self-supervised pre-training
論文 参考訳(メタデータ) (2023-03-23T17:59:02Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - Learning to Generate Realistic LiDAR Point Clouds [15.976199637414886]
LiDARGenは、現実的なLiDARポイントクラウドセンサ読み取りを生成する、新しく、効果的で、制御可能な生成モデルである。
我々は,KITTI-360とNuScenesのデータセットに挑戦する手法を検証する。
論文 参考訳(メタデータ) (2022-09-08T17:58:04Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Weighted Bayesian Gaussian Mixture Model for Roadside LiDAR Object
Detection [0.5156484100374059]
背景モデリングは、静的な背景成分を減じることで移動目標を検出するインテリジェントな監視システムに広く利用されている。
多くの道路沿いのLiDARオブジェクト検出手法は、新しいデータポイントと事前訓練されたバックグラウンド参照を比較して前景点をフィルタリングする。
本稿では,各LiDAR点の標高と方位値に基づいて,生のLiDARデータを構造化表現に変換する。
提案手法は,2つの最先端の道路背景モデル,コンピュータビジョンベンチマーク,深層学習ベースラインを比較し,交通量と難易度で評価された点,対象,経路レベルを比較した。
論文 参考訳(メタデータ) (2022-04-20T22:48:05Z) - SelfVoxeLO: Self-supervised LiDAR Odometry with Voxel-based Deep Neural
Networks [81.64530401885476]
本稿では,これら2つの課題に対処するために,自己教師型LiDARオドメトリー法(SelfVoxeLO)を提案する。
具体的には、生のLiDARデータを直接処理する3D畳み込みネットワークを提案し、3D幾何パターンをよりよく符号化する特徴を抽出する。
我々は,KITTIとApollo-SouthBayという2つの大規模データセット上での手法の性能を評価する。
論文 参考訳(メタデータ) (2020-10-19T09:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。