論文の概要: Structure-Guided Allocation of 2D Gaussians for Image Representation and Compression
- arxiv url: http://arxiv.org/abs/2512.24018v1
- Date: Tue, 30 Dec 2025 06:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.302079
- Title: Structure-Guided Allocation of 2D Gaussians for Image Representation and Compression
- Title(参考訳): 画像表現と圧縮のための2次元ガウシアンの構造誘導配置
- Authors: Huanxiong Liang, Yunuo Chen, Yicheng Pan, Sixian Wang, Jincheng Dai, Guo Lu, Wenjun Zhang,
- Abstract要約: 本稿では,2DGS に対して,画像構造を表現能力と量子化精度の両方で明示的に結合する構造誘導配置原理を提案する。
提案手法は,1000FPS以上のデコードを維持しながら,2DGSの表現力と勾配性能を大幅に向上することを示す。
- 参考スコア(独自算出の注目度): 26.855464287699366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in 2D Gaussian Splatting (2DGS) have demonstrated its potential as a compact image representation with millisecond-level decoding. However, existing 2DGS-based pipelines allocate representation capacity and parameter precision largely oblivious to image structure, limiting their rate-distortion (RD) efficiency at low bitrates. To address this, we propose a structure-guided allocation principle for 2DGS, which explicitly couples image structure with both representation capacity and quantization precision, while preserving native decoding speed. First, we introduce a structure-guided initialization that assigns 2D Gaussians according to spatial structural priors inherent in natural images, yielding a localized and semantically meaningful distribution. Second, during quantization-aware fine-tuning, we propose adaptive bitwidth quantization of covariance parameters, which grants higher precision to small-scale Gaussians in complex regions and lower precision elsewhere, enabling RD-aware optimization, thereby reducing redundancy without degrading edge quality. Third, we impose a geometry-consistent regularization that aligns Gaussian orientations with local gradient directions to better preserve structural details. Extensive experiments demonstrate that our approach substantially improves both the representational power and the RD performance of 2DGS while maintaining over 1000 FPS decoding. Compared with the baseline GSImage, we reduce BD-rate by 43.44% on Kodak and 29.91% on DIV2K.
- Abstract(参考訳): 2次元ガウス格子(2DGS)の最近の進歩は、ミリ秒レベルのデコードを持つコンパクトな画像表現としての可能性を示している。
しかし、既存の2DGSベースのパイプラインは、画像構造に大きく依存する表現能力とパラメータ精度を割り当て、レート歪み(RD)効率を低ビットレートで制限している。
そこで本研究では,ネイティブデコード速度を保ちながら,画像構造を表現能力と量子化精度の両方で明示的に結合する2DGSのための構造誘導アロケーション原理を提案する。
まず、自然画像に固有の空間的構造的前提に従って2次元ガウスを割り当て、局所的かつ意味論的に意味のある分布を与える構造誘導初期化を提案する。
第二に、量子化対応の微調整において、共分散パラメータの適応ビット幅量子化を提案し、これは複雑な領域における小規模ガウスに高い精度を付与し、他の領域での精度を下げ、RD対応の最適化を可能にし、エッジ品質を劣化させることなく冗長性を低減させる。
第三に、構造的詳細をよりよく保存するために、ガウス方向と局所勾配方向を整列する幾何整列化を課す。
大規模な実験により,1000FPS以上のデコードを維持しながら2DGSの表現力とRD性能を大幅に向上することが示された。
ベースラインのGSImageと比較すると、コダックでは43.44%、DIV2Kでは29.91%のBDレートが減少している。
関連論文リスト
- Fast 2DGS: Efficient Image Representation with Deep Gaussian Prior [21.89104780995278]
Fast-2DGSは効率的なガウス画像表現のための軽量なフレームワークである。
本稿では,ガウスプリミティブの空間分布を捉えるための条件付きネットワークとして実装されたDeep Gaussian Priorを紹介する。
実験により、この非絡み合ったアーキテクチャは、1つの前方通過で高品質な再構築を実現し、次いで最小限の微調整を行うことが示された。
論文 参考訳(メタデータ) (2025-12-14T17:23:28Z) - 2D Gaussian Splatting with Semantic Alignment for Image Inpainting [46.266955851252504]
2次元ガウススプラッティングに基づく最初の画像インペイントフレームワークを提案する。
グローバルなセマンティック一貫性のために、事前訓練されたDINOモデルの特徴を取り入れる。
本手法は,定量的指標と知覚的品質の両面での競合性能を実現する。
論文 参考訳(メタデータ) (2025-09-02T05:12:52Z) - ADC-GS: Anchor-Driven Deformable and Compressed Gaussian Splatting for Dynamic Scene Reconstruction [22.24139713363786]
既存の4Dガウス散乱法は、標準空間からターゲットフレームへのガウス毎の変形に依存している。
動的シーン再構成のためのコンパクトで効率的なADC-GSを提案する。
その結果, ADC-GS はレンダリング速度300%-800% でガウス変形法よりも優れていた。
論文 参考訳(メタデータ) (2025-05-13T03:13:40Z) - Steepest Descent Density Control for Compact 3D Gaussian Splatting [72.54055499344052]
3D Gaussian Splatting (3DGS)は、強力なリアルタイム高解像度ノベルビューとして登場した。
本稿では,3DGSの密度制御をデミストし,改良する理論的枠組みを提案する。
我々はSteepGSを導入し、コンパクトな点雲を維持しながら損失を最小限に抑える原則的戦略である、最も急な密度制御を取り入れた。
論文 参考訳(メタデータ) (2025-05-08T18:41:38Z) - Parallel Sequence Modeling via Generalized Spatial Propagation Network [80.66202109995726]
Generalized Spatial Propagation Network (GSPN)は、2次元空間構造を本質的にキャプチャする最適化された視覚タスクのための新しいアテンションメカニズムである。
GSPNは、空間的コヒーレントな画像データを直接操作し、ラインスキャンアプローチを通じて高密度なペアワイズ接続を形成することにより、制限を克服する。
GSPNは、ImageNet分類、クラス誘導画像生成、テキスト・ツー・イメージ生成などの視覚タスクにおいて、より優れた空間忠実性と最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T18:56:19Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - CoherentGS: Sparse Novel View Synthesis with Coherent 3D Gaussians [18.42203035154126]
2次元画像空間で制御できる構造付きガウス表現を導入する。
次に、ガウス群、特にその位置を制約し、最適化中に独立に動くのを防ぐ。
我々は,様々な場面における最先端のスパースビュー NeRF ベースのアプローチと比較して,顕著な改善を示した。
論文 参考訳(メタデータ) (2024-03-28T15:27:13Z) - LightGaussian: Unbounded 3D Gaussian Compression with 15x Reduction and 200+ FPS [55.85673901231235]
光ガウシアン(LightGaussian)は、3次元ガウシアンをよりコンパクトなフォーマットに変換する方法である。
ネットワーク・プルーニングにインスパイアされたLightGaussianは、ガウシアンをシーン再構築において最小限のグローバルな重要性で特定した。
LightGaussian は 3D-GS フレームワークで FPS を 144 から 237 に上げながら,平均 15 倍の圧縮率を達成する。
論文 参考訳(メタデータ) (2023-11-28T21:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。