論文の概要: LiDAR-GS++:Improving LiDAR Gaussian Reconstruction via Diffusion Priors
- arxiv url: http://arxiv.org/abs/2511.12304v1
- Date: Sat, 15 Nov 2025 17:33:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.877035
- Title: LiDAR-GS++:Improving LiDAR Gaussian Reconstruction via Diffusion Priors
- Title(参考訳): LiDAR-GS++:拡散前処理によるLiDARガウス再構成の改良
- Authors: Qifeng Chen, Jiarun Liu, Rengan Xie, Tao Tang, Sicong Du, Yiru Zhao, Yuchi Huo, Sheng Yang,
- Abstract要約: 実時間および高忠実度再シミュレーションのための拡散前処理により強化された再構成手法であるLiDAR-GS++を提案する。
具体的には、粗い外挿レンダリングを条件とした制御可能なLiDAR生成モデルを導入し、余分な幾何整合性スキャンを生成する。
再構成を未適合領域にまで拡張することにより,外挿的視点に対するグローバルな幾何整合性を確保することができる。
- 参考スコア(独自算出の注目度): 51.724649822336346
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent GS-based rendering has made significant progress for LiDAR, surpassing Neural Radiance Fields (NeRF) in both quality and speed. However, these methods exhibit artifacts in extrapolated novel view synthesis due to the incomplete reconstruction from single traversal scans. To address this limitation, we present LiDAR-GS++, a LiDAR Gaussian Splatting reconstruction method enhanced by diffusion priors for real-time and high-fidelity re-simulation on public urban roads. Specifically, we introduce a controllable LiDAR generation model conditioned on coarsely extrapolated rendering to produce extra geometry-consistent scans and employ an effective distillation mechanism for expansive reconstruction. By extending reconstruction to under-fitted regions, our approach ensures global geometric consistency for extrapolative novel views while preserving detailed scene surfaces captured by sensors. Experiments on multiple public datasets demonstrate that LiDAR-GS++ achieves state-of-the-art performance for both interpolated and extrapolated viewpoints, surpassing existing GS and NeRF-based methods.
- Abstract(参考訳): 最近のGSベースのレンダリングは、品質と速度の両方でNeural Radiance Fields (NeRF)を上回り、LiDARに大きな進歩を遂げている。
しかし, これらの手法は, 単一トラバーサルスキャンによる不完全な再構成による外挿された新規なビュー合成の成果を示す。
この制限に対処するため,都市道路上でのリアルタイムおよび高忠実度再シミュレーションにおいて,拡散前処理により強化されたLiDAR-GS++を提案する。
具体的には、粗大な外挿レンダリングを条件とした制御可能なLiDAR生成モデルを導入し、余剰な幾何一貫性のスキャンを生成し、拡張的再構成に有効な蒸留機構を用いる。
提案手法は, 未適合領域への再構成を拡張することにより, センサが捉えた詳細な景観面を保ちながら, 外挿的新規ビューのグローバルな幾何的整合性を確保する。
複数の公開データセットの実験により、LiDAR-GS++は、既存のGSとNeRFベースのメソッドを越え、補間された視点と外挿された視点の両方で最先端のパフォーマンスを達成することが示された。
関連論文リスト
- TopoLiDM: Topology-Aware LiDAR Diffusion Models for Interpretable and Realistic LiDAR Point Cloud Generation [15.223634903890863]
TopoLiDMは、高忠実度LiDAR生成のためのトポロジカル正規化の下で、グラフニューラルネットワークと拡散モデルを統合する新しいフレームワークである。
我々のアプローチはまず、グラフ構造と複数のグラフ畳み込み層によって潜在グラフ表現を抽出するために、位相保存型VAEを訓練する。
KITTI-360データセットの大規模な実験は、最先端の手法よりもTopoLiDMの方が優れていることを示している。
論文 参考訳(メタデータ) (2025-07-30T08:02:42Z) - GS-SDF: LiDAR-Augmented Gaussian Splatting and Neural SDF for Geometrically Consistent Rendering and Reconstruction [12.293953058837653]
デジタル双生児は、自律運転と具現化された人工知能の開発に基礎を成している。
ニューラルサインされた距離場とガウススプラッティングを相乗化する統合LiDAR視覚システムを提案する。
実験では、様々な軌道にまたがる再現精度とレンダリング品質が向上した。
論文 参考訳(メタデータ) (2025-03-13T08:53:38Z) - MonoGSDF: Exploring Monocular Geometric Cues for Gaussian Splatting-Guided Implicit Surface Reconstruction [86.87464903285208]
高品質な再構成のための神経信号距離場(SDF)とプリミティブを結合する新しい手法であるMonoGSDFを紹介する。
任意のスケールのシーンを扱うために,ロバストな一般化のためのスケーリング戦略を提案する。
実世界のデータセットの実験は、効率を保ちながら、以前の方法よりも優れています。
論文 参考訳(メタデータ) (2024-11-25T20:07:07Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。