論文の概要: LiSTAR: Ray-Centric World Models for 4D LiDAR Sequences in Autonomous Driving
- arxiv url: http://arxiv.org/abs/2511.16049v1
- Date: Thu, 20 Nov 2025 05:11:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.476424
- Title: LiSTAR: Ray-Centric World Models for 4D LiDAR Sequences in Autonomous Driving
- Title(参考訳): LiSTAR: 自動運転における4次元LiDAR系列の光中心世界モデル
- Authors: Pei Liu, Songtao Wang, Lang Zhang, Xingyue Peng, Yuandong Lyu, Jiaxin Deng, Songxin Lu, Weiliang Ma, Xueyang Zhang, Yifei Zhan, XianPeng Lang, Jun Ma,
- Abstract要約: LiSTARは、センサーのネイティブジオメトリを直接操作する、新しい生成的世界モデルである。
LiSTARはスパース時間データから複雑なダイナミクスをキャプチャする。
4次元LiDAR再構成、予測、条件生成におけるLiSTARの性能を検証する実験。
- 参考スコア(独自算出の注目度): 8.465161411966761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing high-fidelity and controllable 4D LiDAR data is crucial for creating scalable simulation environments for autonomous driving. This task is inherently challenging due to the sensor's unique spherical geometry, the temporal sparsity of point clouds, and the complexity of dynamic scenes. To address these challenges, we present LiSTAR, a novel generative world model that operates directly on the sensor's native geometry. LiSTAR introduces a Hybrid-Cylindrical-Spherical (HCS) representation to preserve data fidelity by mitigating quantization artifacts common in Cartesian grids. To capture complex dynamics from sparse temporal data, it utilizes a Spatio-Temporal Attention with Ray-Centric Transformer (START) that explicitly models feature evolution along individual sensor rays for robust temporal coherence. Furthermore, for controllable synthesis, we propose a novel 4D point cloud-aligned voxel layout for conditioning and a corresponding discrete Masked Generative START (MaskSTART) framework, which learns a compact, tokenized representation of the scene, enabling efficient, high-resolution, and layout-guided compositional generation. Comprehensive experiments validate LiSTAR's state-of-the-art performance across 4D LiDAR reconstruction, prediction, and conditional generation, with substantial quantitative gains: reducing generation MMD by a massive 76%, improving reconstruction IoU by 32%, and lowering prediction L1 Med by 50%. This level of performance provides a powerful new foundation for creating realistic and controllable autonomous systems simulations. Project link: https://ocean-luna.github.io/LiSTAR.gitub.io.
- Abstract(参考訳): 高忠実で制御可能な4D LiDARデータを合成することは、自動運転のためのスケーラブルなシミュレーション環境を作成する上で重要である。
このタスクは、センサーのユニークな球面形状、点雲の時間的間隔、ダイナミックなシーンの複雑さによって本質的に困難である。
これらの課題に対処するために,センサのネイティブジオメトリを直接操作する,新たな生成世界モデルLiSTARを提案する。
LiSTARは、カルト格子に共通する量子化アーティファクトを緩和することにより、データの忠実性を維持するために、Hybrid-Cylindrical-Spherical (HCS)表現を導入している。
スパース時間データから複雑なダイナミクスを捉えるために、レイ中央変換器(英語版) (START) を用いた時空間アテンション(英語版)を用いて、個々のセンサ線に沿って特徴の進化をモデル化し、堅牢な時空間コヒーレンスを実現する。
さらに,コンディショニングのための新しい4Dポイントクラウド整列ボクセルレイアウトと,シーンのコンパクトでトークン化された表現を学習し,効率的で高解像度でレイアウト誘導型合成生成を可能にするMasked Generative START(MaskSTART)フレームワークを提案する。
4次元LiDAR再構成、予測、条件生成におけるLiSTARの最先端性能を、大規模なMDDを76%削減し、IoUを32%改善し、L1 Medを50%低減するなど、かなり定量的に評価した。
このレベルのパフォーマンスは、現実的で制御可能な自律システムのシミュレーションを作成するための強力な新しい基盤を提供する。
プロジェクトリンク:https://ocean-luna.github.io/LiSTAR.gitub.io
関連論文リスト
- Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - Learning to Generate 4D LiDAR Sequences [28.411253849111755]
本稿では,自由形式言語を編集可能なLiDARシーケンスに変換する統一フレームワークLiDARCrafterを提案する。
LiDARCrafterは最先端の忠実さ、コントロール可能性、時間的一貫性を実現し、LiDARベースのシミュレーションとデータ拡張の基礎を提供する。
論文 参考訳(メタデータ) (2025-09-15T14:14:48Z) - LiDARCrafter: Dynamic 4D World Modeling from LiDAR Sequences [28.411253849111755]
LiDARCrafterは、4D LiDARの生成と編集のための統一されたフレームワークである。
あらゆるレベルの忠実さ、可制御性、時間的一貫性において、最先端のパフォーマンスを達成する。
コードとベンチマークはコミュニティにリリースされている。
論文 参考訳(メタデータ) (2025-08-05T17:59:56Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Outdoor Scene Extrapolation with Hierarchical Generative Cellular Automata [70.9375320609781]
我々は,自律走行車(AV)で多量に捕獲された大規模LiDARスキャンから微細な3次元形状を生成することを目指している。
本稿では,空間的にスケーラブルな3次元生成モデルである階層型生成セルオートマトン (hGCA) を提案する。
論文 参考訳(メタデータ) (2024-06-12T14:56:56Z) - LidarDM: Generative LiDAR Simulation in a Generated World [21.343346521878864]
LidarDMは、リアルでレイアウト対応で、物理的に可視で、時間的に一貫性のあるLiDARビデオを生成することができる、新しいLiDAR生成モデルである。
我々は3次元シーンを生成するために潜時拡散モデルを使用し、それを動的アクターと組み合わせて基礎となる4次元世界を形成し、この仮想環境内で現実的な感覚観察を生成する。
提案手法は,現実性,時間的コヒーレンシ,レイアウト整合性において,競合するアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-03T17:59:28Z) - LiDAR4D: Dynamic Neural Fields for Novel Space-time View LiDAR Synthesis [11.395101473757443]
我々は,新しい時空LiDARビュー合成のための微分可能なLiDAR専用フレームワークLiDAR4Dを提案する。
空間幅と大規模特性を考慮した4次元ハイブリッド表現を多平面・格子特徴と組み合わせて設計する。
LiDAR点雲の現実的な合成のために、領域横断パターンを保存するために、レイドロップ確率のグローバル最適化を取り入れる。
論文 参考訳(メタデータ) (2024-04-03T13:39:29Z) - StarNet: Style-Aware 3D Point Cloud Generation [82.30389817015877]
StarNetは、マッピングネットワークを使用して高忠実度および3Dポイントクラウドを再構築し、生成することができる。
我々のフレームワークは、クラウドの再構築と生成タスクにおいて、様々なメトリクスで同等の最先端のパフォーマンスを達成します。
論文 参考訳(メタデータ) (2023-03-28T08:21:44Z) - Learning to Simulate Realistic LiDARs [66.7519667383175]
リアルLiDARセンサのデータ駆動シミュレーションのためのパイプラインを提案する。
本モデルでは, 透明表面上の落下点などの現実的な効果を符号化できることが示される。
我々は2つの異なるLiDARセンサのモデルを学習し、それに従ってシミュレーションされたLiDARデータを改善する。
論文 参考訳(メタデータ) (2022-09-22T13:12:54Z) - LiDAR-based 4D Panoptic Segmentation via Dynamic Shifting Network [56.71765153629892]
本稿では,ポイントクラウド領域における効果的な単視分割フレームワークとして機能する動的シフトネットワーク(DS-Net)を提案する。
提案するDS-Netは,両タスクの現在の最先端手法よりも優れた精度を実現する。
DS-Netを4次元パノプティカルLiDARセグメンテーションに拡張し、一列のLiDARフレーム上で時間的に統一されたインスタンスクラスタリングを行う。
論文 参考訳(メタデータ) (2022-03-14T15:25:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。