論文の概要: HGS: Hybrid Gaussian Splatting with Static-Dynamic Decomposition for Compact Dynamic View Synthesis
- arxiv url: http://arxiv.org/abs/2512.14352v1
- Date: Tue, 16 Dec 2025 12:29:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.711626
- Title: HGS: Hybrid Gaussian Splatting with Static-Dynamic Decomposition for Compact Dynamic View Synthesis
- Title(参考訳): HGS:小型ダイナミックビュー合成のための静的動的分解によるハイブリッドガウス平滑化
- Authors: Kaizhe Zhang, Yijie Zhou, Weizhan Zhang, Caixia Yan, Haipeng Du, yugui xie, Yu-Hui Wen, Yong-Jin Liu,
- Abstract要約: 本稿では,シーンの静的領域と動的領域を統一表現内で分離する,コンパクトで効率的なフレームワークを提案する。
実験により, モデルサイズを最大98%削減し, 4K解像度で最大125FPSのリアルタイムレンダリングを実現することを確認した。
- 参考スコア(独自算出の注目度): 28.010228209648293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dynamic novel view synthesis (NVS) is essential for creating immersive experiences. Existing approaches have advanced dynamic NVS by introducing 3D Gaussian Splatting (3DGS) with implicit deformation fields or indiscriminately assigned time-varying parameters, surpassing NeRF-based methods. However, due to excessive model complexity and parameter redundancy, they incur large model sizes and slow rendering speeds, making them inefficient for real-time applications, particularly on resource-constrained devices. To obtain a more efficient model with fewer redundant parameters, in this paper, we propose Hybrid Gaussian Splatting (HGS), a compact and efficient framework explicitly designed to disentangle static and dynamic regions of a scene within a unified representation. The core innovation of HGS lies in our Static-Dynamic Decomposition (SDD) strategy, which leverages Radial Basis Function (RBF) modeling for Gaussian primitives. Specifically, for dynamic regions, we employ time-dependent RBFs to effectively capture temporal variations and handle abrupt scene changes, while for static regions, we reduce redundancy by sharing temporally invariant parameters. Additionally, we introduce a two-stage training strategy tailored for explicit models to enhance temporal coherence at static-dynamic boundaries. Experimental results demonstrate that our method reduces model size by up to 98% and achieves real-time rendering at up to 125 FPS at 4K resolution on a single RTX 3090 GPU. It further sustains 160 FPS at 1352 * 1014 on an RTX 3050 and has been integrated into the VR system. Moreover, HGS achieves comparable rendering quality to state-of-the-art methods while providing significantly improved visual fidelity for high-frequency details and abrupt scene changes.
- Abstract(参考訳): ダイナミックノベルビュー合成(NVS)は没入感のある体験を生み出すのに不可欠である。
既存のアプローチでは、暗黙の変形場を持つ3Dガウススプラッティング(3DGS)を導入し、NeRF法を超越した時間変化パラメータを無差別に割り当てることにより、動的NVSが進歩している。
しかし、過剰なモデル複雑性とパラメータの冗長性のため、大きなモデルサイズとレンダリング速度が遅くなり、特にリソース制約のあるデバイスにおいてリアルタイムアプリケーションでは非効率になる。
冗長パラメータの少ないより効率的なモデルを得るため,本論文では,シーンの静的領域と動的領域を統一表現内で切り離すように設計された,コンパクトかつ効率的なフレームワークであるHybrid Gaussian Splatting (HGS)を提案する。
HGSの中核となる革新は、ガウス原始体に対する放射基底関数(RBF)モデリングを利用する静的動的分解(SDD)戦略にある。
具体的には、動的領域では時間依存RBFを用いて時間変化を効果的に捉え、突然のシーン変化を処理しますが、静的領域では時間的不変パラメータを共有することで冗長性を低減します。
さらに,静的境界における時間的コヒーレンスを高めるために,明示的なモデルに適した2段階のトレーニング戦略を導入する。
実験により,RTX 3090 GPUの4K解像度において,モデルサイズを最大98%削減し,最大125FPSのリアルタイムレンダリングを実現することを確認した。
さらにRTX 3050で160 FPSを1352 * 1014で維持し、VRシステムに統合されている。
さらに、HGSは最先端の手法と同等のレンダリング品質を実現し、高周波の詳細や突然のシーン変更に対して、視覚的忠実度を大幅に改善した。
関連論文リスト
- MAPo : Motion-Aware Partitioning of Deformable 3D Gaussian Splatting for High-Fidelity Dynamic Scene Reconstruction [13.28997490352807]
変形可能な3次元ガウス平板(MAPo)の運動認識分割について紹介する。
MAPoは高忠実度動的シーン再構築のための新しいフレームワークである。
これは、同等の計算コストを維持しながら、ベースラインよりも優れたレンダリング品質を実現する。
論文 参考訳(メタデータ) (2025-08-27T11:10:46Z) - Laplacian Analysis Meets Dynamics Modelling: Gaussian Splatting for 4D Reconstruction [9.911802466255653]
本稿では,ハイブリッドな明示的関数を持つ動的3DGSフレームワークを提案する。
本手法は, 複雑な動的シーンを再構築する際の最先端性能を実証し, 再現精度を向上する。
論文 参考訳(メタデータ) (2025-08-07T01:39:29Z) - VDEGaussian: Video Diffusion Enhanced 4D Gaussian Splatting for Dynamic Urban Scenes Modeling [68.65587507038539]
本稿では,動的都市景観モデリングのための拡散強調4次元ガウス平滑化フレームワークを提案する。
我々の重要な洞察は、テスト時間に適応したビデオ拡散モデルから頑健で時間的に一貫した事前情報を抽出することである。
提案手法は, 高速移動物体の動的モデリングを著しく向上させ, 2dBのPSNRゲインを近似的に達成する。
論文 参考訳(メタデータ) (2025-08-04T07:24:05Z) - SD-GS: Structured Deformable 3D Gaussians for Efficient Dynamic Scene Reconstruction [5.818188539758898]
複雑な動的シーン再構成のためのコンパクトで効率的な動的スプレイティングフレームワークSD-GSを提案する。
また,過度に再構成された高流動領域のアンカーを適応的に成長させる変形認識型密度化戦略を提案する。
実験の結果,SD-GSはモデルサイズを60%削減し,FPSを100%改善することがわかった。
論文 参考訳(メタデータ) (2025-07-10T06:35:03Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z) - Dynamic 3D Gaussian Fields for Urban Areas [60.64840836584623]
大規模でダイナミックな都市部における新規ビュー合成(NVS)のための効率的なニューラル3Dシーン表現法を提案する。
本研究では,大規模都市にスケールするニューラルネットワークシーン表現である4DGFを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:07:39Z) - Spacetime Gaussian Feature Splatting for Real-Time Dynamic View Synthesis [28.455719771979876]
本研究では,新しい動的シーン表現として時空間ガウス特徴分割法を提案する。
本手法は,小型ストレージを維持しながら,最先端のレンダリング品質と高速化を実現する。
論文 参考訳(メタデータ) (2023-12-28T04:14:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。