論文の概要: Light4GS: Lightweight Compact 4D Gaussian Splatting Generation via Context Model
- arxiv url: http://arxiv.org/abs/2503.13948v1
- Date: Tue, 18 Mar 2025 06:28:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:16:03.621477
- Title: Light4GS: Lightweight Compact 4D Gaussian Splatting Generation via Context Model
- Title(参考訳): Light4GS: コンテキストモデルによる軽量コンパクト4Dガウス平滑化
- Authors: Mufan Liu, Qi Yang, He Huang, Wenjie Huang, Zhenlong Yuan, Zhu Li, Yiling Xu,
- Abstract要約: 3次元ビュー合成技術(3DGS)は,新規・新規コンテンツのための効率的な高忠実度パラダイムとして登場している。
3DGSを動的コンテンツに適用するために、変形可能な3DGSは、時間的に変形可能なプリミティブと学習可能な遅延埋め込みを組み込んで複雑な動きをキャプチャする。
優れた性能にもかかわらず、高次元の埋め込みと大量のプリミティブは、かなりのストレージ要件をもたらす。
- 参考スコア(独自算出の注目度): 21.375070073632944
- License:
- Abstract: 3D Gaussian Splatting (3DGS) has emerged as an efficient and high-fidelity paradigm for novel view synthesis. To adapt 3DGS for dynamic content, deformable 3DGS incorporates temporally deformable primitives with learnable latent embeddings to capture complex motions. Despite its impressive performance, the high-dimensional embeddings and vast number of primitives lead to substantial storage requirements. In this paper, we introduce a \textbf{Light}weight \textbf{4}D\textbf{GS} framework, called Light4GS, that employs significance pruning with a deep context model to provide a lightweight storage-efficient dynamic 3DGS representation. The proposed Light4GS is based on 4DGS that is a typical representation of deformable 3DGS. Specifically, our framework is built upon two core components: (1) a spatio-temporal significance pruning strategy that eliminates over 64\% of the deformable primitives, followed by an entropy-constrained spherical harmonics compression applied to the remainder; and (2) a deep context model that integrates intra- and inter-prediction with hyperprior into a coarse-to-fine context structure to enable efficient multiscale latent embedding compression. Our approach achieves over 120x compression and increases rendering FPS up to 20\% compared to the baseline 4DGS, and also superior to frame-wise state-of-the-art 3DGS compression methods, revealing the effectiveness of our Light4GS in terms of both intra- and inter-prediction methods without sacrificing rendering quality.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は、新規なビュー合成のための効率的で高忠実なパラダイムとして登場した。
3DGSを動的コンテンツに適用するために、変形可能な3DGSは、時間的に変形可能なプリミティブと学習可能な遅延埋め込みを組み込んで複雑な動きをキャプチャする。
優れた性能にもかかわらず、高次元の埋め込みと大量のプリミティブは、かなりのストレージ要件をもたらす。
本稿では,Light4GSと呼ばれる軽量ストレージ効率の動的3DGS表現を実現するために,深層文脈モデルによる重要プルーニングを利用する,軽量なbf{Light}weight \textbf{4}D\textbf{GS}フレームワークを提案する。
提案されたLight4GSは、変形可能な3DGSの典型的な表現である4DGSに基づいている。
具体的には,(1)変形可能なプリミティブの64 %以上を除去する時空間的重要プルーニング戦略,次に残りの部分に適用したエントロピー制約球面高調波圧縮,(2)ハイパープライアによる予測とインタープレディションを統合した深部文脈モデル,の2つのコアコンポーネントを基盤として構築し,効率的なマルチスケールラテント埋め込み圧縮を実現する。
提案手法は,120倍以上の圧縮を実現し,ベースラインの4DGSに比べてFPSを最大20倍に向上させるとともに,フレームワイドの3DGS圧縮法に優れ,レンダリング品質を犠牲にすることなく,Light4GSとイントラプレディクション法の両方の有効性を明らかにした。
関連論文リスト
- Locality-aware Gaussian Compression for Fast and High-quality Rendering [37.16956462469969]
局所性を考慮した3Dガウススティング(3DGS)フレームワークであるLocoGSを紹介し,3Dガウスアンの空間コヒーレンスを利用してシーンのコンパクトなモデリングを行う。
まず,3次元ガウス属性の局所的コヒーレンスを解析し,局所的コヒーレントなガウス属性を効果的に符号化する3次元ガウス表現を提案する。
論文 参考訳(メタデータ) (2025-01-10T07:19:41Z) - HEMGS: A Hybrid Entropy Model for 3D Gaussian Splatting Data Compression [23.015728369640136]
3D Gaussian Splatting (3DGS)は3Dモデリングと画像レンダリングに人気があるが、これはデータストレージと伝送において大きな課題を生み出している。
本稿では3DGSデータ圧縮のためのハイブリッドエントロピーモデルを提案する。
本手法は,ベースライン法よりもレンダリング品質を保ちながら,平均40%程度のサイズ削減を実現し,最先端の圧縮結果を実現する。
論文 参考訳(メタデータ) (2024-11-27T16:08:59Z) - MEGA: Memory-Efficient 4D Gaussian Splatting for Dynamic Scenes [49.36091070642661]
本稿では,4DGSのためのメモリ効率フレームワークを提案する。
TechnicolorとNeural 3D Videoのデータセットで約190$times$と125$times$のストレージ削減を実現している。
レンダリング速度とシーン表現の品質を維持し、フィールドに新しい標準を設定する。
論文 参考訳(メタデータ) (2024-10-17T14:47:08Z) - Fast Feedforward 3D Gaussian Splatting Compression [55.149325473447384]
3D Gaussian Splatting (FCGS) は、1つのフィードフォワードパスで3DGS表現を高速に圧縮できる最適化フリーモデルである。
FCGSは圧縮比を20倍以上に向上し、高精細度を維持しながら、ほとんどのシーン毎のSOTA最適化手法を上回ります。
論文 参考訳(メタデータ) (2024-10-10T15:13:08Z) - GS-Net: Generalizable Plug-and-Play 3D Gaussian Splatting Module [19.97023389064118]
粗いSfM点雲からガウス楕円体を密度化する3DGSモジュールであるGS-Netを提案する。
実験により、GS-Netを3DGSに適用すると、従来の視点では2.08dB、新しい視点では1.86dBのPSNR改善が得られることが示された。
論文 参考訳(メタデータ) (2024-09-17T16:03:19Z) - ContextGS: Compact 3D Gaussian Splatting with Anchor Level Context Model [77.71796503321632]
我々は3DGS表現のアンカーレベルにコンテキストモデルを導入し,バニラ3DGSと比較して100倍以上のサイズの縮小を実現した。
我々の研究は3DGS表現のためのアンカーレベルのコンテキストモデルを開拓し、バニラ3DGSに比べて100倍以上、そして最新の最先端のScaffold-GSに比べて15倍の大幅なサイズ縮小を実現した。
論文 参考訳(メタデータ) (2024-05-31T09:23:39Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - HAC: Hash-grid Assisted Context for 3D Gaussian Splatting Compression [55.6351304553003]
3D Gaussian Splatting (3DGS) は、新しいビュー合成のための有望なフレームワークとして登場した。
高速な3DGS表現のためのHash-grid Assisted Context (HAC) フレームワークを提案する。
私たちの研究は、コンテキストベースの3DGS表現の圧縮を探求するパイオニアです。
論文 参考訳(メタデータ) (2024-03-21T16:28:58Z) - DreamGaussian4D: Generative 4D Gaussian Splatting [56.49043443452339]
DG4D(DreamGaussian 4D:DreamGaussian 4D)はGaussian Splatting(GS)をベースとした効率的な4D生成フレームワークである。
我々の重要な洞察は、空間変換の明示的なモデリングと静的GSを組み合わせることで、4次元生成の効率的かつ強力な表現ができるということである。
ビデオ生成手法は、高画質の4D生成を向上し、価値ある時空間前兆を提供する可能性がある。
論文 参考訳(メタデータ) (2023-12-28T17:16:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。