論文の概要: La La LiDAR: Large-Scale Layout Generation from LiDAR Data
- arxiv url: http://arxiv.org/abs/2508.03691v1
- Date: Tue, 05 Aug 2025 17:59:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:56.115684
- Title: La La LiDAR: Large-Scale Layout Generation from LiDAR Data
- Title(参考訳): La La LiDAR: LiDARデータから大規模レイアウト生成
- Authors: Youquan Liu, Lingdong Kong, Weidong Yang, Xin Li, Ao Liang, Runnan Chen, Ben Fei, Tongliang Liu,
- Abstract要約: 現実的なLiDARシーンの制御可能な生成は、自律運転やロボット工学といった応用に不可欠である。
レイアウト誘導型大規模LiDAR生成モデル(La La LiDAR)を提案する。
La La LiDARは、LiDAR生成と下流認識の両方で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 45.5317990948996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Controllable generation of realistic LiDAR scenes is crucial for applications such as autonomous driving and robotics. While recent diffusion-based models achieve high-fidelity LiDAR generation, they lack explicit control over foreground objects and spatial relationships, limiting their usefulness for scenario simulation and safety validation. To address these limitations, we propose Large-scale Layout-guided LiDAR generation model ("La La LiDAR"), a novel layout-guided generative framework that introduces semantic-enhanced scene graph diffusion with relation-aware contextual conditioning for structured LiDAR layout generation, followed by foreground-aware control injection for complete scene generation. This enables customizable control over object placement while ensuring spatial and semantic consistency. To support our structured LiDAR generation, we introduce Waymo-SG and nuScenes-SG, two large-scale LiDAR scene graph datasets, along with new evaluation metrics for layout synthesis. Extensive experiments demonstrate that La La LiDAR achieves state-of-the-art performance in both LiDAR generation and downstream perception tasks, establishing a new benchmark for controllable 3D scene generation.
- Abstract(参考訳): 現実的なLiDARシーンの制御可能な生成は、自律運転やロボット工学といった応用に不可欠である。
近年の拡散モデルでは,高忠実度LiDAR生成が実現されているが,前景オブジェクトや空間的関係の明示的な制御が欠如しており,シナリオシミュレーションや安全性検証に有用性が制限されている。
この制限に対処するため,LDARレイアウト生成のためのコンテキスト条件付きセマンティック・エンハンスド・シーングラフ拡散を導入したレイアウト誘導型大規模LiDAR生成モデル(La La LiDAR)を提案し,その後,全シーン生成のためのフォアグラウンド・アウェア・コントロール・インジェクション(フォアグラウンド・アウェア・コントロール・インジェクション)を提案する。
これにより、空間的および意味的な一貫性を確保しながら、オブジェクトの配置をカスタマイズできる。
構造化されたLiDAR生成をサポートするため、レイアウト合成のための新しい評価指標とともに、Waymo-SGとnuScenes-SGという2つの大規模LiDARシーングラフデータセットを導入した。
大規模な実験により、La La LiDARは、LiDAR生成と下流認識タスクの両方で最先端のパフォーマンスを実現し、制御可能な3Dシーン生成のための新しいベンチマークを確立した。
関連論文リスト
- LiDARCrafter: Dynamic 4D World Modeling from LiDAR Sequences [10.426609103049572]
LiDARCrafterは、4D LiDARの生成と編集のための統一されたフレームワークである。
あらゆるレベルの忠実さ、可制御性、時間的一貫性において、最先端のパフォーマンスを達成する。
コードとベンチマークはコミュニティにリリースされている。
論文 参考訳(メタデータ) (2025-08-05T17:59:56Z) - SPIRAL: Semantic-Aware Progressive LiDAR Scene Generation [10.77777607732642]
Spiralは、深度、反射率の画像、セマンティックマップを同時に生成する新しいレンジビューLiDAR拡散モデルである。
Semantic KITTIとnuScenesデータセットの実験は、Spralが最小のパラメータサイズで最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-05-28T17:55:35Z) - OLiDM: Object-aware LiDAR Diffusion Models for Autonomous Driving [74.06413946934002]
OLiDMはオブジェクトとシーンレベルの両方で高忠実度LiDARデータを生成できる新しいフレームワークである。
OLiDMは、Object-Scene Progressive Generation (OPG) モジュールとObject Semantic Alignment (OSA) モジュールの2つの重要なコンポーネントで構成されている。
OPGは、ユーザ固有のプロンプトに適応して、望まれる前景オブジェクトを生成し、その後、シーン生成の条件として使用される。
OSAは、前景のオブジェクトと背景のシーンとの不一致を是正し、生成されたオブジェクトの全体的な品質を高めることを目的としている。
論文 参考訳(メタデータ) (2024-12-23T02:43:29Z) - LiDAR-EDIT: LiDAR Data Generation by Editing the Object Layouts in Real-World Scenes [1.249418440326334]
我々は、自動運転のための合成LiDARデータを生成するための新しいパラダイムであるLiDAR-EDITを提案する。
本フレームワークは,背景環境の現実性を維持しつつ,新たなオブジェクトレイアウトを導入することで,現実のLiDARスキャンを編集する。
LiDARのポイントクラウドをゼロから生成するエンドツーエンドフレームワークと比較して、LiDAR-EDITはオブジェクトレイアウトを完全に制御する。
論文 参考訳(メタデータ) (2024-11-30T21:39:51Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [50.808933338389686]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - SSMG: Spatial-Semantic Map Guided Diffusion Model for Free-form
Layout-to-Image Generation [68.42476385214785]
本稿では,レイアウトから派生した特徴写像を用いた空間意味マップガイド(SSMG)拡散モデルを提案する。
SSMGは,従来の研究に比べて空間的,意味的な制御性に優れた生成品質を実現する。
また,RSA(Relation-Sensitive Attention)機構とLSA(Location-Sensitive Attention)機構を提案する。
論文 参考訳(メタデータ) (2023-08-20T04:09:12Z) - LiDAR-NeRF: Novel LiDAR View Synthesis via Neural Radiance Fields [112.62936571539232]
本稿では,LiDARセンサのための新しいビュー合成手法を提案する。
スタイルトランスファーニューラルネットワークを用いた従来のモデルベースLiDARシミュレータは、新しいビューのレンダリングに応用できる。
ニューラル放射場(NeRF)を用いて幾何学と3D点の属性の連成学習を容易にする。
論文 参考訳(メタデータ) (2023-04-20T15:44:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。