論文の概要: D$^2$GS: Dense Depth Regularization for LiDAR-free Urban Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2510.25173v2
- Date: Sun, 02 Nov 2025 05:42:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 14:12:28.001194
- Title: D$^2$GS: Dense Depth Regularization for LiDAR-free Urban Scene Reconstruction
- Title(参考訳): D$^2$GS:LiDARのない都市シーン再構築のためのDense Depth Regularization
- Authors: Kejing Xia, Jidong Jia, Ke Jin, Yucai Bai, Li Sun, Dacheng Tao, Youjian Zhang,
- Abstract要約: 我々は,LiDARのない都市景観再構築フレームワークであるD$2$GSを提案する。
我々は、より密度が高く、より正確なLiDARと同等の有効性を持つ幾何学的先行値を得る。
我々の手法は一貫して最先端の手法より優れています。
- 参考スコア(独自算出の注目度): 42.71951611524765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Gaussian Splatting (GS) has shown great potential for urban scene reconstruction in the field of autonomous driving. However, current urban scene reconstruction methods often depend on multimodal sensors as inputs, \textit{i.e.} LiDAR and images. Though the geometry prior provided by LiDAR point clouds can largely mitigate ill-posedness in reconstruction, acquiring such accurate LiDAR data is still challenging in practice: i) precise spatiotemporal calibration between LiDAR and other sensors is required, as they may not capture data simultaneously; ii) reprojection errors arise from spatial misalignment when LiDAR and cameras are mounted at different locations. To avoid the difficulty of acquiring accurate LiDAR depth, we propose D$^2$GS, a LiDAR-free urban scene reconstruction framework. In this work, we obtain geometry priors that are as effective as LiDAR while being denser and more accurate. $\textbf{First}$, we initialize a dense point cloud by back-projecting multi-view metric depth predictions. This point cloud is then optimized by a Progressive Pruning strategy to improve the global consistency. $\textbf{Second}$, we jointly refine Gaussian geometry and predicted dense metric depth via a Depth Enhancer. Specifically, we leverage diffusion priors from a depth foundation model to enhance the depth maps rendered by Gaussians. In turn, the enhanced depths provide stronger geometric constraints during Gaussian training. $\textbf{Finally}$, we improve the accuracy of ground geometry by constraining the shape and normal attributes of Gaussians within road regions. Extensive experiments on the Waymo dataset demonstrate that our method consistently outperforms state-of-the-art methods, producing more accurate geometry even when compared with those using ground-truth LiDAR data.
- Abstract(参考訳): 近年,ガウシアン・スプラッティング (GS) は自動運転の分野で都市景観の再構築に大きな可能性を示している。
しかし、現在の都市景観復元手法は、入力としてマルチモーダルセンサ、 \textit{i.e.} LiDAR、画像に依存していることが多い。
LiDARの点雲が提供していた幾何は、復元において不適切な姿勢を緩和することができるが、そのような正確なLiDARデータを取得することは、実際はまだ難しい。
一 データの同時取得ができないため、LiDARと他のセンサとの正確な時空間校正が必要である。
二 異なる場所にLiDAR及びカメラを設置したときの空間的不整合による再投射誤差。
正確なLiDAR深度を取得することの難しさを回避するため,LDARのない都市景観再構築フレームワークであるD$^2$GSを提案する。
本研究では,より密度が高く,精度が高く,LiDARと同等の有効性を持つ幾何先行値を得る。
$\textbf{First}$ では、多視点距離深度予測をバックプロジェクションすることで、高密度点雲を初期化する。
このポイントクラウドは、グローバルな一貫性を改善するためのプログレッシブ・プルーニング戦略によって最適化されます。
$\textbf{Second}$ では、ガウス幾何学を共同で洗練し、Depth Enhancer を通して密度計量の深さを予測する。
具体的には、奥行き基礎モデルからの拡散先行を利用して、ガウスによる深度マップを強化する。
逆に、強化された深さはガウスの訓練中により強い幾何学的制約を与える。
$\textbf{Finally}$ では、道路領域内のガウスの形状と正規属性を制約することにより、地上形状の精度を向上させる。
Waymoデータセットの大規模な実験により、我々の手法は最先端の手法より一貫して優れており、地上のLDARデータと比較した場合よりも正確な形状が得られます。
関連論文リスト
- Splat-LOAM: Gaussian Splatting LiDAR Odometry and Mapping [13.068061145084707]
我々は、新しいLiDARオドメトリーとマッピングパイプラインを開発するために、ガウススプラッティング法の最近の進歩の上に構築する。
提案手法は現在の登録性能と一致し,最小限のGPU要求でタスクをマッピングするためのSOTA結果が得られた。
論文 参考訳(メタデータ) (2025-03-21T19:00:30Z) - GS-SDF: LiDAR-Augmented Gaussian Splatting and Neural SDF for Geometrically Consistent Rendering and Reconstruction [12.293953058837653]
デジタル双生児は、自律運転と具現化された人工知能の開発に基礎を成している。
ニューラルサインされた距離場とガウススプラッティングを相乗化する統合LiDAR視覚システムを提案する。
実験では、様々な軌道にまたがる再現精度とレンダリング品質が向上した。
論文 参考訳(メタデータ) (2025-03-13T08:53:38Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - UltraLiDAR: Learning Compact Representations for LiDAR Completion and
Generation [51.443788294845845]
我々は、シーンレベルのLiDAR補完、LiDAR生成、LiDAR操作のためのデータ駆動フレームワークであるUltraLiDARを提案する。
スパース点雲の表現を高密度点雲の表現に合わせることで、スパース点雲を密度化できることが示される。
個別のコードブック上で事前学習を行うことで、多種多様な現実的なLiDARポイントクラウドを自動走行のために生成できます。
論文 参考訳(メタデータ) (2023-11-02T17:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。