論文の概要: Leveraging 2D Priors and SDF Guidance for Dynamic Urban Scene Rendering
- arxiv url: http://arxiv.org/abs/2510.13381v1
- Date: Wed, 15 Oct 2025 10:21:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.620535
- Title: Leveraging 2D Priors and SDF Guidance for Dynamic Urban Scene Rendering
- Title(参考訳): 動的都市シーンレンダリングにおける2次元先行手法の活用とSDFガイダンス
- Authors: Siddharth Tourani, Jayaram Reddy, Akash Kumbar, Satyajit Tourani, Nishant Goyal, Madhava Krishna, N. Dinesh Reddy, Muhammad Haris Khan,
- Abstract要約: より堅牢なオブジェクト表現を生成するために,サイン付き距離関数(SDF)と3次元ガウス分割(DGS)を統合する新しい手法を提案する。
都市景観におけるLiDARデータを使用しなくても,レンダリング指標の最先端性能を実現する。
- 参考スコア(独自算出の注目度): 23.15241977092541
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic scene rendering and reconstruction play a crucial role in computer vision and augmented reality. Recent methods based on 3D Gaussian Splatting (3DGS), have enabled accurate modeling of dynamic urban scenes, but for urban scenes they require both camera and LiDAR data, ground-truth 3D segmentations and motion data in the form of tracklets or pre-defined object templates such as SMPL. In this work, we explore whether a combination of 2D object agnostic priors in the form of depth and point tracking coupled with a signed distance function (SDF) representation for dynamic objects can be used to relax some of these requirements. We present a novel approach that integrates Signed Distance Functions (SDFs) with 3D Gaussian Splatting (3DGS) to create a more robust object representation by harnessing the strengths of both methods. Our unified optimization framework enhances the geometric accuracy of 3D Gaussian splatting and improves deformation modeling within the SDF, resulting in a more adaptable and precise representation. We demonstrate that our method achieves state-of-the-art performance in rendering metrics even without LiDAR data on urban scenes. When incorporating LiDAR, our approach improved further in reconstructing and generating novel views across diverse object categories, without ground-truth 3D motion annotation. Additionally, our method enables various scene editing tasks, including scene decomposition, and scene composition.
- Abstract(参考訳): 動的シーンレンダリングと再構成は、コンピュータビジョンと拡張現実において重要な役割を果たす。
近年の3Dガウス・スプレイティング(3DGS)に基づく手法により、ダイナミックな都市シーンの正確なモデリングが可能となっているが、都市シーンにはカメラとLiDARデータ、地上3Dセグメンテーション、トラックレットの形でのモーションデータ、SMPLなどの事前定義されたオブジェクトテンプレートが必要である。
本研究では,動的物体に対する符号付き距離関数 (SDF) 表現と組み合わさった深度と点追跡の2次元物体非依存の先行値の組み合わせが,これらの要件の緩和に有効かどうかを考察する。
本稿では,SDF(Signed Distance Function)と3D Gaussian Splatting (3DGS)を統合した新しい手法を提案する。
我々の統合最適化フレームワークは3次元ガウススプラッティングの幾何精度を高め、SDF内の変形モデリングを改善し、より適応的で正確な表現をもたらす。
本稿では,都市部におけるLiDARデータを用いなくても,画像のレンダリング性能が向上できることを実証する。
提案手法は,LiDARを取り入れた場合,地中3次元モーションアノテーションを使わずに,多様なオブジェクトカテゴリにまたがる新たなビューを再構築し,生成する上でさらに改善された。
さらに,シーン分解やシーン構成など,様々なシーン編集作業を可能にする。
関連論文リスト
- DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - SpectroMotion: Dynamic 3D Reconstruction of Specular Scenes [7.590932716513324]
本稿では,3次元ガウス散乱(3DGS)と物理ベースレンダリング(PBR)と変形場を組み合わせた動的特異シーンの再構成手法を提案する。
フォトリアリスティック・リアルワールド・ダイナミック・スペキュラ・シーンを合成できる3DGS法は、現存する唯一のものである。
論文 参考訳(メタデータ) (2024-10-22T17:59:56Z) - DENSER: 3D Gaussians Splatting for Scene Reconstruction of Dynamic Urban Environments [0.0]
動的オブジェクトの表現を大幅に強化するフレームワークであるDENSERを提案する。
提案手法は最先端の手法を広いマージンで大幅に上回る。
論文 参考訳(メタデータ) (2024-09-16T07:11:58Z) - Dynamic Scene Understanding through Object-Centric Voxelization and Neural Rendering [57.895846642868904]
オブジェクト中心学習が可能な動的シーンのための3次元生成モデルDynaVol-Sを提案する。
ボキセル化は、個々の空間的位置において、物体ごとの占有確率を推定する。
提案手法は2次元セマンティックな特徴を統合して3次元セマンティック・グリッドを作成し,複数の不整合ボクセル・グリッドを通してシーンを表現する。
論文 参考訳(メタデータ) (2024-07-30T15:33:58Z) - HUGS: Holistic Urban 3D Scene Understanding via Gaussian Splatting [53.6394928681237]
RGB画像に基づく都市景観の全体的理解は、難しいが重要な問題である。
我々の主な考え方は、静的な3Dガウスと動的なガウスの組合せを用いた幾何学、外観、意味論、運動の合同最適化である。
提案手法は,2次元および3次元のセマンティック情報を高精度に生成し,新たな視点をリアルタイムに描画する機能を提供する。
論文 参考訳(メタデータ) (2024-03-19T13:39:05Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。