論文の概要: SPIRAL: Semantic-Aware Progressive LiDAR Scene Generation
- arxiv url: http://arxiv.org/abs/2505.22643v1
- Date: Wed, 28 May 2025 17:55:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.783718
- Title: SPIRAL: Semantic-Aware Progressive LiDAR Scene Generation
- Title(参考訳): SPIRAL: セマンティックなプログレッシブなLiDARシーン生成
- Authors: Dekai Zhu, Yixuan Hu, Youquan Liu, Dongyue Lu, Lingdong Kong, Slobodan Ilic,
- Abstract要約: Spiralは、深度、反射率の画像、セマンティックマップを同時に生成する新しいレンジビューLiDAR拡散モデルである。
Semantic KITTIとnuScenesデータセットの実験は、Spralが最小のパラメータサイズで最先端のパフォーマンスを達成することを示した。
- 参考スコア(独自算出の注目度): 10.77777607732642
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Leveraging recent diffusion models, LiDAR-based large-scale 3D scene generation has achieved great success. While recent voxel-based approaches can generate both geometric structures and semantic labels, existing range-view methods are limited to producing unlabeled LiDAR scenes. Relying on pretrained segmentation models to predict the semantic maps often results in suboptimal cross-modal consistency. To address this limitation while preserving the advantages of range-view representations, such as computational efficiency and simplified network design, we propose Spiral, a novel range-view LiDAR diffusion model that simultaneously generates depth, reflectance images, and semantic maps. Furthermore, we introduce novel semantic-aware metrics to evaluate the quality of the generated labeled range-view data. Experiments on the SemanticKITTI and nuScenes datasets demonstrate that Spiral achieves state-of-the-art performance with the smallest parameter size, outperforming two-step methods that combine the generative and segmentation models. Additionally, we validate that range images generated by Spiral can be effectively used for synthetic data augmentation in the downstream segmentation training, significantly reducing the labeling effort on LiDAR data.
- Abstract(参考訳): 近年の拡散モデルを活用するLiDARベースの大規模3Dシーン生成は大きな成功を収めている。
最近のボクセルベースのアプローチは幾何学的構造と意味的ラベルの両方を生成することができるが、既存のレンジビュー手法はラベルのないLiDARシーンの生成に限られている。
セグメンテーションモデルを用いてセグメンテーションマップを予測すると、しばしば最適部分の相互整合が生じる。
計算効率や単純化されたネットワーク設計などのレンジビュー表現の利点を保ちながら、この制限に対処するため、深度、反射率画像、セマンティックマップを同時に生成する新しいレンジビューLiDAR拡散モデルであるSpiralを提案する。
さらに,生成したラベル付きレンジビューデータの品質を評価するために,新しいセマンティック・アウェア・メトリクスを導入する。
SemanticKITTIとnuScenesデータセットの実験により、Spralは最小のパラメータサイズで最先端のパフォーマンスを実現し、生成モデルとセグメンテーションモデルを組み合わせた2段階の手法より優れていることが示された。
さらに、下流セグメンテーショントレーニングにおいて、Spralによって生成されたレンジ画像が合成データ拡張に効果的に利用でき、LiDARデータのラベル付け作業を大幅に削減できることを確認した。
関連論文リスト
- SN-LiDAR: Semantic Neural Fields for Novel Space-time View LiDAR Synthesis [11.615282010184917]
SN-LiDARは,高精度なセマンティックセグメンテーション,高品質な幾何再構成,リアルなLiDAR合成を共同で行う手法である。
具体的には,多フレーム点群からグローバルな特徴を抽出するために,粗い平面グリッド特徴表現を用いる。
セマンティックKITTIとKITTI-360の実験は、意味的および幾何学的再構成におけるSN-LiDARの優位性を実証している。
論文 参考訳(メタデータ) (2025-04-11T08:51:23Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - LiDAR Data Synthesis with Denoising Diffusion Probabilistic Models [1.1965844936801797]
3D LiDARデータの生成モデリングは、自律移動ロボットに有望な応用をもたらす新たな課題である。
我々は,多種多様かつ高忠実な3Dシーンポイント雲を生成可能な,LiDARデータのための新しい生成モデルR2DMを提案する。
本手法は拡散確率モデル (DDPM) を用いて構築され, 生成モデルフレームワークにおいて顕著な結果が得られた。
論文 参考訳(メタデータ) (2023-09-17T12:26:57Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Rethinking Range View Representation for LiDAR Segmentation [66.73116059734788]
「多対一」マッピング、意味的不整合、形状変形は、射程射影からの効果的な学習に対する障害となる可能性がある。
RangeFormerは、ネットワークアーキテクチャ、データ拡張、後処理を含む新しい設計を含む、フルサイクルのフレームワークである。
比較対象のLiDARセマンティックスとパノプティックスセグメンテーションのベンチマークにおいて,初めてレンジビュー法が点,ボクセル,マルチビューフュージョンを越えられることを示す。
論文 参考訳(メタデータ) (2023-03-09T16:13:27Z) - EfficientLPS: Efficient LiDAR Panoptic Segmentation [30.249379810530165]
我々は、LiDARポイントクラウドのセグメント化における複数の課題に対処する新しい効率的なLiDARパンオプティクスアーキテクチャを紹介します。
効率的なLPSは、拡張された幾何変換モデリング能力で符号化される新しい共有バックボーンからなる。
提案したモデルを2つの大規模LiDARデータセットでベンチマークする。
論文 参考訳(メタデータ) (2021-02-16T08:14:52Z) - Scan-based Semantic Segmentation of LiDAR Point Clouds: An Experimental
Study [2.6205925938720833]
最先端の手法では、深いニューラルネットワークを使用して、LiDARスキャンの各点のセマンティッククラスを予測する。
LiDAR測定を処理するための強力で効率的な方法は、2次元の画像のような投影を使うことである。
メモリの制約だけでなく、パフォーマンスの向上やランタイムの改善など、さまざまなテクニックを実証する。
論文 参考訳(メタデータ) (2020-04-06T11:08:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。