論文の概要: CompGS++: Compressed Gaussian Splatting for Static and Dynamic Scene Representation
- arxiv url: http://arxiv.org/abs/2504.13022v1
- Date: Thu, 17 Apr 2025 15:33:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:35:41.287184
- Title: CompGS++: Compressed Gaussian Splatting for Static and Dynamic Scene Representation
- Title(参考訳): CompGS++: 静的および動的シーン表現のための圧縮ガウススプレイティング
- Authors: Xiangrui Liu, Xinju Wu, Shiqi Wang, Zhu Li, Sam Kwong,
- Abstract要約: CompGS++はコンパクトガウスプリミティブを活用して正確な3Dモデリングを実現する新しいフレームワークである。
私たちの設計は、プリミティブ間の冗長性をなくすという原則に基づいている。
私たちの実装は、さらなる研究を促進するためにGitHubで公開されます。
- 参考スコア(独自算出の注目度): 60.712165339762116
- License:
- Abstract: Gaussian splatting demonstrates proficiency for 3D scene modeling but suffers from substantial data volume due to inherent primitive redundancy. To enable future photorealistic 3D immersive visual communication applications, significant compression is essential for transmission over the existing Internet infrastructure. Hence, we propose Compressed Gaussian Splatting (CompGS++), a novel framework that leverages compact Gaussian primitives to achieve accurate 3D modeling with substantial size reduction for both static and dynamic scenes. Our design is based on the principle of eliminating redundancy both between and within primitives. Specifically, we develop a comprehensive prediction paradigm to address inter-primitive redundancy through spatial and temporal primitive prediction modules. The spatial primitive prediction module establishes predictive relationships for scene primitives and enables most primitives to be encoded as compact residuals, substantially reducing the spatial redundancy. We further devise a temporal primitive prediction module to handle dynamic scenes, which exploits primitive correlations across timestamps to effectively reduce temporal redundancy. Moreover, we devise a rate-constrained optimization module that jointly minimizes reconstruction error and rate consumption. This module effectively eliminates parameter redundancy within primitives and enhances the overall compactness of scene representations. Comprehensive evaluations across multiple benchmark datasets demonstrate that CompGS++ significantly outperforms existing methods, achieving superior compression performance while preserving accurate scene modeling. Our implementation will be made publicly available on GitHub to facilitate further research.
- Abstract(参考訳): ガウススプラッティングは3次元シーンモデリングの習熟度を示すが、本質的に原始的冗長性のためにかなりのデータ量に悩まされている。
将来の光リアルな3D没入型視覚通信アプリケーションを実現するため、既存のインターネットインフラ上での伝送には重要な圧縮が不可欠である。
そこで我々は,コンパクトなガウス的プリミティブを生かした新しいフレームワークである圧縮ガウススティング(CompGS++)を提案する。
私たちの設計は、プリミティブ間の冗長性をなくすという原則に基づいている。
具体的には、空間的および時間的原始的予測モジュールを通して、原始的冗長性に対処する包括的予測パラダイムを開発する。
空間的プリミティブ予測モジュールはシーンプリミティブの予測関係を確立し、ほとんどのプリミティブをコンパクトな残差としてエンコードできるようにし、空間的冗長性を著しく低減する。
さらに、動的シーンを扱うための時間的原始予測モジュールを考案し、タイムスタンプ間の原始的相関を利用して時間的冗長性を効果的に低減する。
さらに、再構成誤差とレート消費を両立させるレート制約最適化モジュールを考案した。
このモジュールは、プリミティブ内のパラメータの冗長性を効果的に排除し、シーン表現の全体的なコンパクト性を高める。
複数のベンチマークデータセットの包括的な評価は、CompGS++が既存のメソッドよりも大幅に優れており、正確なシーンモデリングを保ちながら、圧縮性能が優れていることを示している。
私たちの実装は、さらなる研究を促進するためにGitHubで公開されます。
関連論文リスト
- Temporally Compressed 3D Gaussian Splatting for Dynamic Scenes [46.64784407920817]
時間圧縮3Dガウススティング(TC3DGS)は動的3Dガウス表現を圧縮する新しい技術である。
複数のデータセットにまたがる実験により、T3DGSは最大67$times$圧縮を実現し、視覚的品質の劣化を最小限に抑えることができた。
論文 参考訳(メタデータ) (2024-12-07T17:03:09Z) - HEMGS: A Hybrid Entropy Model for 3D Gaussian Splatting Data Compression [23.015728369640136]
3D Gaussian Splatting (3DGS)は3Dモデリングと画像レンダリングに人気があるが、これはデータストレージと伝送において大きな課題を生み出している。
本稿では3DGSデータ圧縮のためのハイブリッドエントロピーモデルを提案する。
本手法は,ベースライン法よりもレンダリング品質を保ちながら,平均40%程度のサイズ削減を実現し,最先端の圧縮結果を実現する。
論文 参考訳(メタデータ) (2024-11-27T16:08:59Z) - Fast Feedforward 3D Gaussian Splatting Compression [55.149325473447384]
3D Gaussian Splatting (FCGS) は、1つのフィードフォワードパスで3DGS表現を高速に圧縮できる最適化フリーモデルである。
FCGSは圧縮比を20倍以上に向上し、高精細度を維持しながら、ほとんどのシーン毎のSOTA最適化手法を上回ります。
論文 参考訳(メタデータ) (2024-10-10T15:13:08Z) - OPUS: Occupancy Prediction Using a Sparse Set [64.60854562502523]
学習可能なクエリの集合を用いて、占有された場所とクラスを同時に予測するフレームワークを提案する。
OPUSには、モデルパフォーマンスを高めるための非自明な戦略が組み込まれている。
最も軽量なモデルではOcc3D-nuScenesデータセットの2倍 FPS に優れたRayIoUが得られる一方、最も重いモデルは6.1 RayIoUを上回ります。
論文 参考訳(メタデータ) (2024-09-14T07:44:22Z) - MoDeGPT: Modular Decomposition for Large Language Model Compression [59.361006801465344]
本稿では,新しい構造化圧縮フレームワークである textbfModular bfDecomposition (MoDeGPT) を紹介する。
MoDeGPTはTransformerブロックを行列対からなるモジュールに分割し、隠れた次元を減らす。
本実験では, 後方伝播を伴わないMoDeGPTが, 従来の圧縮手法と一致するか, あるいは超えていることを示す。
論文 参考訳(メタデータ) (2024-08-19T01:30:14Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - InstantSplat: Sparse-view Gaussian Splatting in Seconds [91.77050739918037]
InstantSplatは,光速でスパークビュー3Dシーンを再現する新しい手法である。
InstantSplatでは,3Dシーン表現とカメラポーズを最適化する,自己管理フレームワークを採用している。
3D-GSの従来のSfMと比較して、30倍以上の再現を達成し、視覚的品質(SSIM)を0.3755から0.7624に改善する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - Spatial-Temporal Transformer based Video Compression Framework [44.723459144708286]
本稿では,STT-VC(Spatial-Temporal Transformer based Video Compression)フレームワークを提案する。
動作推定と補償のためのオフセット推定のためのUformerベースのオフセット推定を備えたRelaxed Deformable Transformer (RDT)と、予測改善のためのマルチ参照フレームに基づくMulti-Granularity Prediction (MGP)モジュールと、時間空間的継手残留圧縮を効率的に行うSpatial Feature Distribution prior based Transformer (SFD-T)を含む。
実験の結果,VTMよりも13.5%のBD-Rateを節約できることがわかった。
論文 参考訳(メタデータ) (2023-09-21T09:23:13Z) - Spatiotemporal Entropy Model is All You Need for Learned Video
Compression [9.227865598115024]
生のピクセルフレーム(残像ではなく)を圧縮する枠組みを提案する。
エントロピーモデルはピクセルレベルではなく潜在空間における時間的冗長性を推定するために用いられる。
実験の結果,提案手法は最先端(SOTA)性能より優れていた。
論文 参考訳(メタデータ) (2021-04-13T10:38:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。