論文の概要: 3D Gaussian Splatting Data Compression with Mixture of Priors
- arxiv url: http://arxiv.org/abs/2505.03310v1
- Date: Tue, 06 May 2025 08:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.272179
- Title: 3D Gaussian Splatting Data Compression with Mixture of Priors
- Title(参考訳): プリミティブを混合した3次元ガウス平滑化データ圧縮
- Authors: Lei Liu, Zhenghao Chen, Dong Xu,
- Abstract要約: 3DGSデータ圧縮は、3Dシーンモデリングにおける効率的なストレージと伝送を実現するために重要である。
本稿では,これら2つの課題に対処する新たなMixture of Priors(MoP)戦略を提案する。
提案する3DGSデータ圧縮フレームワークは,複数のベンチマークにまたがって最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 23.015728369640136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) data compression is crucial for enabling efficient storage and transmission in 3D scene modeling. However, its development remains limited due to inadequate entropy models and suboptimal quantization strategies for both lossless and lossy compression scenarios, where existing methods have yet to 1) fully leverage hyperprior information to construct robust conditional entropy models, and 2) apply fine-grained, element-wise quantization strategies for improved compression granularity. In this work, we propose a novel Mixture of Priors (MoP) strategy to simultaneously address these two challenges. Specifically, inspired by the Mixture-of-Experts (MoE) paradigm, our MoP approach processes hyperprior information through multiple lightweight MLPs to generate diverse prior features, which are subsequently integrated into the MoP feature via a gating mechanism. To enhance lossless compression, the resulting MoP feature is utilized as a hyperprior to improve conditional entropy modeling. Meanwhile, for lossy compression, we employ the MoP feature as guidance information in an element-wise quantization procedure, leveraging a prior-guided Coarse-to-Fine Quantization (C2FQ) strategy with a predefined quantization step value. Specifically, we expand the quantization step value into a matrix and adaptively refine it from coarse to fine granularity, guided by the MoP feature, thereby obtaining a quantization step matrix that facilitates element-wise quantization. Extensive experiments demonstrate that our proposed 3DGS data compression framework achieves state-of-the-art performance across multiple benchmarks, including Mip-NeRF360, BungeeNeRF, DeepBlending, and Tank&Temples.
- Abstract(参考訳): 3次元ガウススプラッティング(3DGS)データ圧縮は、3次元シーンモデリングにおける効率的な記憶と伝送を可能にするために重要である。
しかし、その発展は、既存の方法がまだない無損失圧縮シナリオと無損失圧縮シナリオの両方において、不適切なエントロピーモデルと準最適量子化戦略のために制限されている。
1)高次情報を十分に活用して堅牢な条件エントロピーモデルを構築し、
2) 圧縮粒度改善のための粒度, 元素量定量化戦略を適用した。
本研究では,これら2つの課題を同時に解決する新しいMixture of Priors(MoP)戦略を提案する。
具体的には、Mixture-of-Experts(MoE)パラダイムにインスパイアされたMoPアプローチは、複数の軽量MPPを介してハイパープライオリ情報を処理し、様々な先行機能を生成し、その後、ゲーティング機構を介してMoP機能に統合します。
ロスレス圧縮を向上させるために、条件エントロピーモデリングを改善するために、結果のMoP特徴をハイパープライアとして利用する。
一方、損失圧縮では、あらかじめ定義された量子化ステップ値を持つC2FQ戦略を利用して、要素単位の量子化手順のガイダンス情報としてMoP特徴を用いる。
具体的には、量子化ステップ値を行列に拡張し、MoP特徴によって導かれる粗い粒度から微粒化に適応的に洗練し、要素量化を容易にする量子化ステップ行列を得る。
提案した3DGSデータ圧縮フレームワークは,Mip-NeRF360, BungeeNeRF, DeepBlending, Tank&Templesなど,複数のベンチマークで最先端のパフォーマンスを実現している。
関連論文リスト
- PCGS: Progressive Compression of 3D Gaussian Splatting [55.149325473447384]
ガウスの量と品質を適応的に制御するPCGS(Progressive Compression of 3D Gaussian Splatting)を提案する。
全体として、PCGSは、SoTA非プログレッシブ手法に匹敵する圧縮性能を維持しながら、進行性を達成する。
論文 参考訳(メタデータ) (2025-03-11T15:01:11Z) - RSQ: Learning from Important Tokens Leads to Better Quantized LLMs [65.5558181902098]
レイヤーワイド量子化は、高価なリトレーニングなしで大きなモデルを効率的に圧縮するための重要な技術である。
モデルに回転を適用して外乱を緩和するRSQ(Rotate, Scale, then Quantize)を提案する。
RSQは、複数の下流タスクと3つのモデルファミリーで、ベースラインメソッドを一貫して上回っていることを実証する。
論文 参考訳(メタデータ) (2025-03-03T18:46:33Z) - GoDe: Gaussians on Demand for Progressive Level of Detail and Scalable Compression [13.616981296093932]
本稿では,ガウスを複数の階層構造に整理する,新しいモデルに依存しない手法を提案する。
この手法は最近の3DGSの圧縮手法と組み合わせて、単一のモデルで複数の圧縮比を瞬時にスケールすることができる。
典型的なデータセットやベンチマークに対するアプローチを検証し、スケーラビリティと適応性の観点から、低歪みと実質的な利得を示す。
論文 参考訳(メタデータ) (2025-01-23T11:05:45Z) - HEMGS: A Hybrid Entropy Model for 3D Gaussian Splatting Data Compression [25.820461699307042]
本稿では,3次元ガウススプラッティング(HEMGS)のためのハイブリッドエントロピーモデルを提案する。
変数レート予測器、ハイパープライアネットワーク、自動回帰ネットワークの3つの主要コンポーネントで構成されている。
HEMGSは、ベースラインメソッドのレンダリング品質を維持しながら、約40%のサイズ削減を実現している。
論文 参考訳(メタデータ) (2024-11-27T16:08:59Z) - Retraining-free Model Quantization via One-Shot Weight-Coupling Learning [41.299675080384]
混合精度量子化(MPQ)は、層に不均一なビット幅を割り当てることで、モデルを効果的に圧縮することを提唱する。
MPQは典型的には、探索訓練された2段階のプロセスに編成される。
本稿では,混合精度モデル圧縮のためのワンショットトレーニング探索パラダイムを考案する。
論文 参考訳(メタデータ) (2024-01-03T05:26:57Z) - SqueezeLLM: Dense-and-Sparse Quantization [80.32162537942138]
LLMにおける生成推論の主なボトルネックは、単一のバッチ推論のための計算ではなく、メモリ帯域幅である。
学習後量子化フレームワークであるSqueezeLLMを導入し、最大3ビットの超低精度でのロスレス圧縮を実現する。
本フレームワークは,2次情報に基づく最適ビット精度割当を探索する感度ベース非一様量子化法と,2次情報に基づくDense-and-Sparse分解法と,2次情報量割当値と感度重み値を効率的にスパース形式で格納するDense-and-Sparse分解法である。
論文 参考訳(メタデータ) (2023-06-13T08:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。