論文の概要: LaGen: Towards Autoregressive LiDAR Scene Generation
- arxiv url: http://arxiv.org/abs/2511.21256v1
- Date: Wed, 26 Nov 2025 10:39:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.062061
- Title: LaGen: Towards Autoregressive LiDAR Scene Generation
- Title(参考訳): LaGen: 自動回帰LiDARシーン生成を目指して
- Authors: Sizhuo Zhou, Xiaosong Jia, Fanrui Zhang, Junjie Li, Juyong Zhang, Yukang Feng, Jianwen Sun, Songbur Wong, Junqi You, Junchi Yan,
- Abstract要約: 私たちはLaGenを紹介します。これは私たちの知る限り、長い水平LiDARシーンのフレーム・バイ・フレームの自動回帰生成が可能な最初のフレームワークです。
LaGenは、単一フレームのLiDAR入力を出発点として、バウンディングボックス情報を条件として有効活用して、高忠実な4Dシーンポイントクラウドを生成することができる。
- 参考スコア(独自算出の注目度): 66.95324368583536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative world models for autonomous driving (AD) have become a trending topic. Unlike the widely studied image modality, in this work we explore generative world models for LiDAR data. Existing generation methods for LiDAR data only support single frame generation, while existing prediction approaches require multiple frames of historical input and can only deterministically predict multiple frames at once, lacking interactivity. Both paradigms fail to support long-horizon interactive generation. To this end, we introduce LaGen, which to the best of our knowledge is the first framework capable of frame-by-frame autoregressive generation of long-horizon LiDAR scenes. LaGen is able to take a single-frame LiDAR input as a starting point and effectively utilize bounding box information as conditions to generate high-fidelity 4D scene point clouds. In addition, we introduce a scene decoupling estimation module to enhance the model's interactive generation capability for object-level content, as well as a noise modulation module to mitigate error accumulation during long-horizon generation. We construct a protocol based on nuScenes for evaluating long-horizon LiDAR scene generation. Experimental results comprehensively demonstrate LaGen outperforms state-of-the-art LiDAR generation and prediction models, especially on the later frames.
- Abstract(参考訳): 自律運転のための生成的世界モデル(AD)がトレンドとなっている。
広範に研究されている画像モダリティとは異なり、この研究では、LiDARデータの生成世界モデルについて検討する。
既存のLiDARデータ生成方法は単一のフレーム生成しかサポートしていないが、既存の予測手法では複数フレームの履歴入力が必要であり、対話性を欠いた複数のフレームを一度に決定的に予測できる。
どちらのパラダイムも、長期の対話型生成をサポートしない。
この目的のために、LaGenを紹介します。これは私たちの知る限り、長い水平LiDARシーンのフレーム単位の自己回帰生成が可能な最初のフレームワークです。
LaGenは、単一フレームのLiDAR入力を出発点として、バウンディングボックス情報を条件として有効活用して、高忠実な4Dシーンポイントクラウドを生成することができる。
さらに,オブジェクトレベルコンテンツの対話的生成能力を向上するシーンデカップリング推定モジュールや,長軸生成時のエラー蓄積を軽減するノイズ変調モジュールも導入する。
我々は,長軸LiDARシーン生成評価のためのnuScenesに基づくプロトコルを構築した。
LaGenは、特に後期フレームにおいて、最先端のLiDAR生成および予測モデルよりも優れた性能を示す。
関連論文リスト
- LiDAR-GS++:Improving LiDAR Gaussian Reconstruction via Diffusion Priors [51.724649822336346]
実時間および高忠実度再シミュレーションのための拡散前処理により強化された再構成手法であるLiDAR-GS++を提案する。
具体的には、粗い外挿レンダリングを条件とした制御可能なLiDAR生成モデルを導入し、余分な幾何整合性スキャンを生成する。
再構成を未適合領域にまで拡張することにより,外挿的視点に対するグローバルな幾何整合性を確保することができる。
論文 参考訳(メタデータ) (2025-11-15T17:33:12Z) - Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - Learning to Generate 4D LiDAR Sequences [28.411253849111755]
本稿では,自由形式言語を編集可能なLiDARシーケンスに変換する統一フレームワークLiDARCrafterを提案する。
LiDARCrafterは最先端の忠実さ、コントロール可能性、時間的一貫性を実現し、LiDARベースのシミュレーションとデータ拡張の基礎を提供する。
論文 参考訳(メタデータ) (2025-09-15T14:14:48Z) - La La LiDAR: Large-Scale Layout Generation from LiDAR Data [45.5317990948996]
現実的なLiDARシーンの制御可能な生成は、自律運転やロボット工学といった応用に不可欠である。
レイアウト誘導型大規模LiDAR生成モデル(La La LiDAR)を提案する。
La La LiDARは、LiDAR生成と下流認識の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-08-05T17:59:55Z) - TopoLiDM: Topology-Aware LiDAR Diffusion Models for Interpretable and Realistic LiDAR Point Cloud Generation [15.223634903890863]
TopoLiDMは、高忠実度LiDAR生成のためのトポロジカル正規化の下で、グラフニューラルネットワークと拡散モデルを統合する新しいフレームワークである。
我々のアプローチはまず、グラフ構造と複数のグラフ畳み込み層によって潜在グラフ表現を抽出するために、位相保存型VAEを訓練する。
KITTI-360データセットの大規模な実験は、最先端の手法よりもTopoLiDMの方が優れていることを示している。
論文 参考訳(メタデータ) (2025-07-30T08:02:42Z) - LOGen: Toward Lidar Object Generation by Point Diffusion [12.984380275928752]
我々は、LiDARスキャンで見るように、3Dオブジェクトを生成するモデルを必要とする、LiDARオブジェクト生成の課題について考察する。
本稿では,LDAR 点雲を生成するための拡散モデルを提案する。
nuScenes と KITTI-360 を用いた実験により,LiDAR オブジェクトに適合する新しい3次元計測値が得られた。
論文 参考訳(メタデータ) (2024-12-10T10:30:27Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Generative Visual Prompt: Unifying Distributional Control of Pre-Trained
Generative Models [77.47505141269035]
Generative Visual Prompt (PromptGen) は、事前訓練された生成モデルの分散制御のためのフレームワークである。
PromptGenはエネルギーベースモデル(EBM)を近似し、フィードフォワード方式で画像をサンプリングする。
コードはhttps://github.com/ChenWu98/Generative-Visual-Prompt.comで入手できる。
論文 参考訳(メタデータ) (2022-09-14T22:55:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。