論文の概要: 4D-MoDe: Towards Editable and Scalable Volumetric Streaming via Motion-Decoupled 4D Gaussian Compression
- arxiv url: http://arxiv.org/abs/2509.17506v1
- Date: Mon, 22 Sep 2025 08:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.301336
- Title: 4D-MoDe: Towards Editable and Scalable Volumetric Streaming via Motion-Decoupled 4D Gaussian Compression
- Title(参考訳): 4D-MoDe:Motion-Decoupled 4D Gaussian Compressionによる編集可能かつスケーラブルなボリュームストリーミングを目指して
- Authors: Houqiang Zhong, Zihan Zheng, Qiang Hu, Yuan Tian, Ning Cao, Lan Xu, Xiaoyun Zhang, Zhengxue Cheng, Li Song, Wenjun Zhang,
- Abstract要約: スケーラブルで編集可能なビデオストリーミング用に設計された4Dガウス圧縮フレームワークである4D-MoDeを提案する。
本手法では,静的な背景を動的フォアグラウンドから明示的に分離する階層表現を導入する。
複数のデータセットの実験では、4D-MoDeは、ストレージコストの桁違いで競争力のある再構築品質を一貫して達成している。
- 参考スコア(独自算出の注目度): 45.0749499664284
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Volumetric video has emerged as a key medium for immersive telepresence and augmented/virtual reality, enabling six-degrees-of-freedom (6DoF) navigation and realistic spatial interactions. However, delivering high-quality dynamic volumetric content at scale remains challenging due to massive data volume, complex motion, and limited editability of existing representations. In this paper, we present 4D-MoDe, a motion-decoupled 4D Gaussian compression framework designed for scalable and editable volumetric video streaming. Our method introduces a layered representation that explicitly separates static backgrounds from dynamic foregrounds using a lookahead-based motion decomposition strategy, significantly reducing temporal redundancy and enabling selective background/foreground streaming. To capture continuous motion trajectories, we employ a multi-resolution motion estimation grid and a lightweight shared MLP, complemented by a dynamic Gaussian compensation mechanism to model emergent content. An adaptive grouping scheme dynamically inserts background keyframes to balance temporal consistency and compression efficiency. Furthermore, an entropy-aware training pipeline jointly optimizes the motion fields and Gaussian parameters under a rate-distortion (RD) objective, while employing range-based and KD-tree compression to minimize storage overhead. Extensive experiments on multiple datasets demonstrate that 4D-MoDe consistently achieves competitive reconstruction quality with an order of magnitude lower storage cost (e.g., as low as \textbf{11.4} KB/frame) compared to state-of-the-art methods, while supporting practical applications such as background replacement and foreground-only streaming.
- Abstract(参考訳): ボリュームビデオは没入型テレプレゼンスと拡張現実/仮想現実のための重要な媒体として登場し、6自由度(6DoF)ナビゲーションと現実的な空間的相互作用を可能にしている。
しかし、大量のデータボリューム、複雑な動き、既存の表現の編集性に制限があるため、高品質なダイナミックボリュームコンテンツを大規模に提供することは依然として困難である。
本稿では、スケーラブルで編集可能なボリュームビデオストリーミング用に設計された4Dガウス圧縮フレームワークである4D-MoDeを提案する。
本手法では,動的前景から動的前景を明示的に分離する階層表現を導入し,時間的冗長性を著しく低減し,背景・背景の選択的ストリーミングを可能にする。
連続的な動きの軌跡を捉えるために,多分解能な動き推定格子と,動的ガウス補正機構によって補完される軽量共有MLPを用いて創発的コンテンツをモデル化する。
適応的なグルーピングスキームは、背景キーフレームを動的に挿入し、時間的一貫性と圧縮効率のバランスをとる。
さらに、エントロピー対応トレーニングパイプラインは、ストレージオーバーヘッドを最小限に抑えるために範囲ベースおよびKD木圧縮を使用しながら、レート歪み(RD)目標の下で運動場とガウスパラメータを共同で最適化する。
複数のデータセットに対する大規模な実験により、4D-MoDeは、背景置換やフォアグラウンドのみのストリーミングといった実践的な応用をサポートしながら、最先端の手法と比較して、ストレージコストの桁違い(例えば、‘textbf{11.4} KB/frame’)で競争力のある再構築品質を実現している。
関連論文リスト
- 4DGCPro: Efficient Hierarchical 4D Gaussian Compression for Progressive Volumetric Video Streaming [52.76837132019501]
本稿では,新しい階層型4D圧縮フレームワークである4DGCProを紹介する。
4DGCProは、プログレッシブボリュームビデオストリーミングによるリアルタイムモバイルデコーディングと高品質なレンダリングを容易にする。
エンドツーエンドのエントロピー最適化トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2025-09-22T08:38:17Z) - 4DGC: Rate-Aware 4D Gaussian Compression for Efficient Streamable Free-Viewpoint Video [56.04182926886754]
3D Gaussian Splatting (3DGS)は、フォトリアリスティック・フリー・ビューポイント・ビデオ(FVV)体験を可能にする大きな可能性を秘めている。
既存の方法は、動的3DGS表現と圧縮を別々に扱うのが一般的である。
本稿では,FVVのRD性能を向上しつつ,ストレージサイズを大幅に削減するレート対応4Dガウス圧縮フレームワークである4DGCを提案する。
論文 参考訳(メタデータ) (2025-03-24T08:05:27Z) - Event-boosted Deformable 3D Gaussians for Dynamic Scene Reconstruction [50.873820265165975]
本稿では,高時間分解能連続運動データと動的シーン再構成のための変形可能な3D-GSを併用したイベントカメラについて紹介する。
本稿では、3次元再構成としきい値モデリングの両方を大幅に改善する相互強化プロセスを作成するGS-Thresholdジョイントモデリング戦略を提案する。
提案手法は,合成および実世界の動的シーンを用いた最初のイベント包摂型4Dベンチマークであり,その上で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-11-25T08:23:38Z) - SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer [57.506654943449796]
動作と外観を分離するSC4Dという,効率的でスパース制御されたビデオ・ツー・4Dフレームワークを提案する。
我々の手法は、品質と効率の両面で既存の手法を超越している。
動作を多種多様な4Dエンティティにシームレスに転送する新しいアプリケーションを考案する。
論文 参考訳(メタデータ) (2024-04-04T18:05:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。