論文の概要: SCAR-GS: Spatial Context Attention for Residuals in Progressive Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2601.04348v1
- Date: Wed, 07 Jan 2026 19:34:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:52.886832
- Title: SCAR-GS: Spatial Context Attention for Residuals in Progressive Gaussian Splatting
- Title(参考訳): SCAR-GS:プログレッシブガウススメッティングにおける残留物に対する空間的コンテキストアテンション
- Authors: Diego Revilla, Pooja Suresh, Anand Bhojan, Ooi Wei Tsang,
- Abstract要約: 従来の手法を、より強力な残留ベクトル量子化アプローチで置き換える3次元ガウススプラッティングのための新しいプログレッシブ合成を導入する。
我々の重要な貢献は、連続した送信インデックスの条件確率を正確に予測する多分解能ハッシュグリッドによって導かれる自己回帰エントロピーモデルである。
- 参考スコア(独自算出の注目度): 0.37515646463759694
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in 3D Gaussian Splatting have allowed for real-time, high-fidelity novel view synthesis. Nonetheless, these models have significant storage requirements for large and medium-sized scenes, hindering their deployment over cloud and streaming services. Some of the most recent progressive compression techniques for these models rely on progressive masking and scalar quantization techniques to reduce the bitrate of Gaussian attributes using spatial context models. While effective, scalar quantization may not optimally capture the correlations of high-dimensional feature vectors, which can potentially limit the rate-distortion performance. In this work, we introduce a novel progressive codec for 3D Gaussian Splatting that replaces traditional methods with a more powerful Residual Vector Quantization approach to compress the primitive features. Our key contribution is an auto-regressive entropy model, guided by a multi-resolution hash grid, that accurately predicts the conditional probability of each successive transmitted index, allowing for coarse and refinement layers to be compressed with high efficiency.
- Abstract(参考訳): 近年の3次元ガウス平滑化は, リアルタイムかつ高忠実な新規なビュー合成を可能にしている。
それでも、これらのモデルには、大規模および中規模のシーンに対する大きなストレージ要件があり、クラウドやストリーミングサービスへのデプロイメントを妨げている。
これらのモデルに対する最新のプログレッシブ圧縮技術は、空間文脈モデルを用いてガウス属性のビットレートを減らすためにプログレッシブマスキングとスカラー量子化技術に依存している。
有効ではあるが、スカラー量子化は高次元特徴ベクトルの相関を最適に捉えてはならない。
本研究では,従来の手法を,より強力な残留ベクトル量子化手法で置き換え,プリミティブな特徴を圧縮する3次元ガウススプラッティングのプログレッシブコーデックを提案する。
我々の重要な貢献は、多分解能ハッシュグリッドで導かれる自己回帰エントロピーモデルであり、逐次送信された各指標の条件確率を正確に予測し、粗い層と精細層を高効率で圧縮することができる。
関連論文リスト
- PCGS: Progressive Compression of 3D Gaussian Splatting [55.149325473447384]
ガウスの量と品質を適応的に制御するPCGS(Progressive Compression of 3D Gaussian Splatting)を提案する。
全体として、PCGSは、SoTA非プログレッシブ手法に匹敵する圧縮性能を維持しながら、進行性を達成する。
論文 参考訳(メタデータ) (2025-03-11T15:01:11Z) - GoDe: Gaussians on Demand for Progressive Level of Detail and Scalable Compression [13.616981296093932]
本稿では,ガウスを複数の階層構造に整理する,新しいモデルに依存しない手法を提案する。
この手法は最近の3DGSの圧縮手法と組み合わせて、単一のモデルで複数の圧縮比を瞬時にスケールすることができる。
典型的なデータセットやベンチマークに対するアプローチを検証し、スケーラビリティと適応性の観点から、低歪みと実質的な利得を示す。
論文 参考訳(メタデータ) (2025-01-23T11:05:45Z) - Temporally Compressed 3D Gaussian Splatting for Dynamic Scenes [46.64784407920817]
時間圧縮3Dガウススティング(TC3DGS)は動的3Dガウス表現を圧縮する新しい技術である。
複数のデータセットにまたがる実験により、T3DGSは最大67$times$圧縮を実現し、視覚的品質の劣化を最小限に抑えることができた。
論文 参考訳(メタデータ) (2024-12-07T17:03:09Z) - ContextGS: Compact 3D Gaussian Splatting with Anchor Level Context Model [77.71796503321632]
我々は3DGS表現のアンカーレベルにコンテキストモデルを導入し,バニラ3DGSと比較して100倍以上のサイズの縮小を実現した。
我々の研究は3DGS表現のためのアンカーレベルのコンテキストモデルを開拓し、バニラ3DGSに比べて100倍以上、そして最新の最先端のScaffold-GSに比べて15倍の大幅なサイズ縮小を実現した。
論文 参考訳(メタデータ) (2024-05-31T09:23:39Z) - latentSplat: Autoencoding Variational Gaussians for Fast Generalizable 3D Reconstruction [48.86083272054711]
latentSplatは3D潜在空間における意味ガウスを予測し、軽量な生成型2Dアーキテクチャで切り落としてデコードする手法である。
latentSplatは、高速でスケーラブルで高解像度なデータでありながら、復元品質と一般化におけるこれまでの成果よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-24T20:48:36Z) - HAC: Hash-grid Assisted Context for 3D Gaussian Splatting Compression [55.6351304553003]
3D Gaussian Splatting (3DGS) は、新しいビュー合成のための有望なフレームワークとして登場した。
高速な3DGS表現のためのHash-grid Assisted Context (HAC) フレームワークを提案する。
私たちの研究は、コンテキストベースの3DGS表現の圧縮を探求するパイオニアです。
論文 参考訳(メタデータ) (2024-03-21T16:28:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。