論文の概要: LR-SGS: Robust LiDAR-Reflectance-Guided Salient Gaussian Splatting for Self-Driving Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2603.12647v1
- Date: Fri, 13 Mar 2026 04:35:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:11.906237
- Title: LR-SGS: Robust LiDAR-Reflectance-Guided Salient Gaussian Splatting for Self-Driving Scene Reconstruction
- Title(参考訳): LR-SGS:ロバストLiDAR-reflectance-Guided Salient Gaussian Splattingによる自動運転シーン再構築
- Authors: Ziyu Chen, Fan Zhu, Hui Zhu, Deyi Kong, Xinkai Kuang, Yujia Zhang, Chunmao Jiang,
- Abstract要約: 本稿では, 自律走行シーンに対する頑健かつ効率的なLiDAR-reflectance-guided Salient Gaussian Splatting法(LR-SGS)を提案する。
LR-SGSはより少ないガウスと短い訓練時間でより優れた再構成性能を達成する。
特に、複雑な照明シーンでは、OmniReを1.18dBPSNRで上回ります。
- 参考スコア(独自算出の注目度): 13.07185750862275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent 3D Gaussian Splatting (3DGS) methods have demonstrated the feasibility of self-driving scene reconstruction and novel view synthesis. However, most existing methods either rely solely on cameras or use LiDAR only for Gaussian initialization or depth supervision, while the rich scene information contained in point clouds, such as reflectance, and the complementarity between LiDAR and RGB have not been fully exploited, leading to degradation in challenging self-driving scenes, such as those with high ego-motion and complex lighting. To address these issues, we propose a robust and efficient LiDAR-reflectance-guided Salient Gaussian Splatting method (LR-SGS) for self-driving scenes, which introduces a structure-aware Salient Gaussian representation, initialized from geometric and reflectance feature points extracted from LiDAR and refined through a salient transform and improved density control to capture edge and planar structures. Furthermore, we calibrate LiDAR intensity into reflectance and attach it to each Gaussian as a lighting-invariant material channel, jointly aligned with RGB to enforce boundary consistency. Extensive experiments on the Waymo Open Dataset demonstrate that LR-SGS achieves superior reconstruction performance with fewer Gaussians and shorter training time. In particular, on Complex Lighting scenes, our method surpasses OmniRe by 1.18 dB PSNR.
- Abstract(参考訳): 近年の3次元ガウス散乱(3DGS)法は、自動運転シーンの再構築と新しいビュー合成の実現可能性を示している。
しかし、既存のほとんどの手法はカメラのみに頼っているか、ガウスの初期化や奥行き監視にのみLiDARを使っているが、リフレクタンスのような点雲に含まれるリッチなシーン情報や、LiDARとRGBの相補性は十分に活用されていないため、エゴモーションや複雑な照明など、困難な自動運転シーンの劣化につながっている。
これらの問題に対処するため,我々は,LiDARから抽出した幾何学的・反射的特徴点から初期化され,サリアン変換により洗練され,エッジと平面構造を捕捉するための密度制御を改善した,構造認識されたサリアン・ガウス表現を導入した,自律シーンのためのロバストかつ効率的なLiDAR反射率誘導型サリアン・ガウス・スプレイティング法(LR-SGS)を提案する。
さらに、LiDAR強度をリフレクタンスに調整し、各ガウスアンに光不変物質チャネルとしてアタッチし、RGBと協調して境界整合を強制する。
Waymo Open Dataset での大規模な実験により、LR-SGS はガウシアンを減らし、訓練時間を短縮し、より優れた再構築性能を発揮することが示された。
特に、複雑な照明シーンでは、OmniReを1.18dBPSNRで上回ります。
関連論文リスト
- Ref-DGS: Reflective Dual Gaussian Splatting [51.77181103979343]
反射的な外観、特に強く、典型的には近接場スペクトル反射は、正確な表面再構成と新しい見方に根本的な課題をもたらす。
本稿では,このトレードオフに対処する反射型二重ガウススプレイティングフレームワークRef-DGSを提案する。
実験により、Ref-DGSは反射シーンにおける最先端のパフォーマンスを達成しつつ、レイベースガウス法よりもかなり高速なトレーニングを行うことが示された。
論文 参考訳(メタデータ) (2026-03-08T14:54:15Z) - LiDAR-GS++:Improving LiDAR Gaussian Reconstruction via Diffusion Priors [51.724649822336346]
実時間および高忠実度再シミュレーションのための拡散前処理により強化された再構成手法であるLiDAR-GS++を提案する。
具体的には、粗い外挿レンダリングを条件とした制御可能なLiDAR生成モデルを導入し、余分な幾何整合性スキャンを生成する。
再構成を未適合領域にまで拡張することにより,外挿的視点に対するグローバルな幾何整合性を確保することができる。
論文 参考訳(メタデータ) (2025-11-15T17:33:12Z) - GS-LiDAR: Generating Realistic LiDAR Point Clouds with Panoramic Gaussian Splatting [3.376357029373187]
GS-LiDARは、パノラマガウススプラッティングで現実的なLiDAR点雲を生成するための新しいフレームワークである。
我々は,パノラマLiDAR監督によって導かれる光線スプラット交差を明示する新しいパノラマレンダリング手法を提案する。
論文 参考訳(メタデータ) (2025-01-22T11:21:20Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。