論文の概要: Geometry-Consistent 4D Gaussian Splatting for Sparse-Input Dynamic View Synthesis
- arxiv url: http://arxiv.org/abs/2511.23044v1
- Date: Fri, 28 Nov 2025 10:11:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.853075
- Title: Geometry-Consistent 4D Gaussian Splatting for Sparse-Input Dynamic View Synthesis
- Title(参考訳): 疎入力動的ビュー合成のための幾何一貫性4次元ガウス平滑化
- Authors: Yiwei Li, Jiannong Cao, Penghui Ruan, Divya Saxena, Songye Zhu, Yinfeng Cao,
- Abstract要約: GC-4DGSは幾何学的整合性を4次元ガウススプラッティング(4DGS)に注入する新しいフレームワークである
幾何学的整合性を4次元ガウススプラッティング(4DGS)に注入する新しいフレームワークであるGC-4DGSを提案する。
- 参考スコア(独自算出の注目度): 17.560425604804305
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian Splatting has been considered as a novel way for view synthesis of dynamic scenes, which shows great potential in AIoT applications such as digital twins. However, recent dynamic Gaussian Splatting methods significantly degrade when only sparse input views are available, limiting their applicability in practice. The issue arises from the incoherent learning of 4D geometry as input views decrease. This paper presents GC-4DGS, a novel framework that infuses geometric consistency into 4D Gaussian Splatting (4DGS), offering real-time and high-quality dynamic scene rendering from sparse input views. While learning-based Multi-View Stereo (MVS) and monocular depth estimators (MDEs) provide geometry priors, directly integrating these with 4DGS yields suboptimal results due to the ill-posed nature of sparse-input 4D geometric optimization. To address these problems, we introduce a dynamic consistency checking strategy to reduce estimation uncertainties of MVS across spacetime. Furthermore, we propose a global-local depth regularization approach to distill spatiotemporal-consistent geometric information from monocular depths, thereby enhancing the coherent geometry and appearance learning within the 4D volume. Extensive experiments on the popular N3DV and Technicolor datasets validate the effectiveness of GC-4DGS in rendering quality without sacrificing efficiency. Notably, our method outperforms RF-DeRF, the latest dynamic radiance field tailored for sparse-input dynamic view synthesis, and the original 4DGS by 2.62dB and 1.58dB in PSNR, respectively, with seamless deployability on resource-constrained IoT edge devices.
- Abstract(参考訳): Gaussian Splattingは動的シーンのビュー生成の斬新な方法として考えられており、デジタルツインのようなAIoTアプリケーションに大きな可能性を示している。
しかし、最近の動的ガウススティング法は、スパース・インプット・ビューのみが利用可能である場合に著しく劣化し、実際は適用性が制限されている。
この問題は、入力ビューが減少するにつれて、4次元幾何学の不整合学習から生じる。
本稿では,4次元ガウススプラッティング(4DGS)に幾何学的整合性を注入する新しいフレームワークであるGC-4DGSについて述べる。
学習ベースMulti-View Stereo (MVS) と単眼深度推定器 (MDEs) は幾何学的先行性を提供するが、これらを4DGSと直接統合すると、スパースインプット4Dの幾何学的最適化が不適切であるため、最適以下の結果が得られる。
これらの問題に対処するために、時空におけるMVSの推定不確実性を低減するために、動的整合性チェック戦略を導入する。
さらに, 単分子深度から時空間整合幾何情報を抽出し, 4次元体積内におけるコヒーレント幾何および外観学習の高度化を図るため, 局所的深度正規化手法を提案する。
一般的なN3DVとTechnicolorデータセットの大規模な実験は、GC-4DGSのレンダリング品質が効率を犠牲にすることなく有効であることを検証する。
特に,本手法は,スパース・インプット・ダイナミックビュー合成に適した最新の動的放射場RF-DeRF,PSNRにおける2.62dBと1.58dBの4DGS,資源制約のIoTエッジデバイスへのシームレスなデプロイ性に優れる。
関連論文リスト
- Endo-G$^{2}$T: Geometry-Guided & Temporally Aware Time-Embedded 4DGS For Endoscopic Scenes [3.1445273839174095]
Endo-G$2$Tは、時間埋め込み4DGSのための幾何学的および時間的に認識されたトレーニングスキームである。
これは、EndoNeRFとStereoMIS-P1データセットにおける単分子再構成ベースラインの最先端の結果を達成する。
論文 参考訳(メタデータ) (2025-11-26T13:12:21Z) - Diff4Splat: Controllable 4D Scene Generation with Latent Dynamic Reconstruction Models [79.06910348413861]
Diff4Splatは、単一の画像から制御可能で明示的な4Dシーンを合成するフィードフォワード方式である。
単一の入力画像、カメラ軌跡、オプションのテキストプロンプトが与えられた場合、Diff4Splatは外見、幾何学、動きを符号化する変形可能な3Dガウス場を直接予測する。
論文 参考訳(メタデータ) (2025-11-01T11:16:25Z) - P-4DGS: Predictive 4D Gaussian Splatting with 90$\times$ Compression [26.130131551764077]
3D Gaussian Splatting (3DGS) は、シーン表現の忠実さとリアルタイムレンダリング性能が優れており、注目されている。
有望な結果を得たにもかかわらず、既存のアルゴリズムのほとんどは、動的シーンに固有の時間的および空間的冗長性を見落としている。
コンパクトな4次元シーンモデリングのための新しい動的3DGS表現であるP-4DGSを提案する。
論文 参考訳(メタデータ) (2025-10-11T05:19:41Z) - 4D Driving Scene Generation With Stereo Forcing [62.47705572424127]
現在の生成モデルは、時間外挿と空間的新規ビュー合成(NVS)をシーンごとの最適化なしで同時にサポートする動的4D駆動シーンの合成に苦慮している。
PhiGenesisは、幾何学的・時間的整合性を持った映像生成技術を拡張する4次元シーン生成のための統合フレームワークである。
論文 参考訳(メタデータ) (2025-09-24T15:37:17Z) - Diffusion-Guided Gaussian Splatting for Large-Scale Unconstrained 3D Reconstruction and Novel View Synthesis [22.767866875051013]
本稿では,現行手法の限界に対処する多視点拡散モデルを用いて,新しい3DGSフレームワークであるGS-Diffを提案する。
マルチビュー入力に条件付き擬似観測を生成することにより、制約の少ない3次元再構成問題をよく表されたものに変換する。
4つのベンチマークの実験では、GS-Diffは最先端のベースラインをかなりのマージンで一貫して上回っている。
論文 参考訳(メタデータ) (2025-04-02T17:59:46Z) - DiST-4D: Disentangled Spatiotemporal Diffusion with Metric Depth for 4D Driving Scene Generation [50.01520547454224]
現在の生成モデルは、時空間外挿と空間新規ビュー合成(NVS)を同時にサポートする4次元駆動シーンの合成に苦慮している
本研究では,2つの拡散過程に分散するDiST-4Dを提案する。DST-Tは過去の観測結果から直接,将来の距離深度と多視点RGBシーケンスを予測し,DST-Sは,既存の視点でのみ空間的NVSを訓練し,サイクル整合性を実現する。
実験により、DiST-4Dは時間的予測とNVSタスクの両方において最先端のパフォーマンスを達成し、同時に計画関連評価において競合性能を提供することが示された。
論文 参考訳(メタデータ) (2025-03-19T13:49:48Z) - 4D Gaussian Splatting: Modeling Dynamic Scenes with Native 4D Primitives [115.67081491747943]
動的3Dシーン表現と新しいビュー合成はAR/VRおよびメタバースアプリケーションの実現に不可欠である。
我々は,その基礎となる4次元体積を近似として,時間変化の異なる3次元シーンの再構成を再構成する。
ストレージのボトルネックに対処するため、メモリフットプリントを効果的に削減するいくつかのコンパクトなバリエーションを導出する。
論文 参考訳(メタデータ) (2024-12-30T05:30:26Z) - SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer [57.506654943449796]
動作と外観を分離するSC4Dという,効率的でスパース制御されたビデオ・ツー・4Dフレームワークを提案する。
我々の手法は、品質と効率の両面で既存の手法を超越している。
動作を多種多様な4Dエンティティにシームレスに転送する新しいアプリケーションを考案する。
論文 参考訳(メタデータ) (2024-04-04T18:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。