論文の概要: SGI: Structured 2D Gaussians for Efficient and Compact Large Image Representation
- arxiv url: http://arxiv.org/abs/2603.07789v2
- Date: Tue, 10 Mar 2026 16:21:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 14:12:44.066209
- Title: SGI: Structured 2D Gaussians for Efficient and Compact Large Image Representation
- Title(参考訳): SGI:高効率でコンパクトな画像表現のための構造化2次元ガウス
- Authors: Zixuan Pan, Kaiyuan Tang, Jun Xia, Yifan Qin, Lin Gu, Chaoli Wang, Jianxu Chen, Yiyu Shi,
- Abstract要約: 2D Gaussian Splattingは、ローエンドデバイスでの効率的なレンダリングをサポートする新しい画像表現技術として登場した。
高解像度画像を表現するためのコンパクトで効率的なフレームワークであるStructured Gaussian Image (SGI)を提案する。
SGIは複雑な画像を、種子の集合によって定義された複数スケールの局所空間に分解する。
- 参考スコア(独自算出の注目度): 15.343904266924445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 2D Gaussian Splatting has emerged as a novel image representation technique that can support efficient rendering on low-end devices. However, scaling to high-resolution images requires optimizing and storing millions of unstructured Gaussian primitives independently, leading to slow convergence and redundant parameters. To address this, we propose Structured Gaussian Image (SGI), a compact and efficient framework for representing high-resolution images. SGI decomposes a complex image into multi-scale local spaces defined by a set of seeds. Each seed corresponds to a spatially coherent region and, together with lightweight multi-layer perceptrons (MLPs), generates structured implicit 2D neural Gaussians. This seed-based formulation imposes structural regularity on otherwise unstructured Gaussian primitives, which facilitates entropy-based compression at the seed level to reduce the total storage. However, optimizing seed parameters directly on high-resolution images is a challenging and non-trivial task. Therefore, we designed a multi-scale fitting strategy that refines the seed representation in a coarse-to-fine manner, substantially accelerating convergence. Quantitative and qualitative evaluations demonstrate that SGI achieves up to 7.5x compression over prior non-quantized 2D Gaussian methods and 1.6x over quantized ones, while also delivering 1.6x and 6.5x faster optimization, respectively, without degrading, and often improving, image fidelity. Code is available at https://github.com/zx-pan/SGI.
- Abstract(参考訳): 2D Gaussian Splattingは、ローエンドデバイスでの効率的なレンダリングをサポートする新しい画像表現技術として登場した。
しかし、高解像度画像へのスケーリングには、数百万の非構造ガウスプリミティブを独立に最適化し、保存する必要があるため、収束が遅く、冗長なパラメータが生じる。
そこで我々は,高解像度画像を表現するためのコンパクトで効率的なフレームワークであるStructured Gaussian Image (SGI)を提案する。
SGIは複雑な画像を、種子の集合によって定義された複数スケールの局所空間に分解する。
それぞれの種子は空間的コヒーレントな領域に対応し、軽量な多層パーセプトロン(MLP)とともに、暗黙的に2Dニューラルガウスを生成する。
このシードベースの定式化は、他の非構造ガウス原始体に構造規則性を課し、種子レベルでエントロピーベースの圧縮を促進し、総貯蔵量を減少させる。
しかし、高解像度画像上で直接シードパラメータを最適化することは困難で非自明な作業である。
そこで我々は, 種子表現を粗い粒度で洗練し, 収束を著しく加速する多スケールフィッティング戦略を考案した。
定量的および定性的な評価は、SGIが従来の非量子化2次元ガウス法よりも7.5倍の圧縮を達成し、量子化2次元法より1.6倍、より高速な最適化が1.6倍と6.5倍の圧縮を、劣化することなく達成し、しばしば画像の忠実度を向上することを示した。
コードはhttps://github.com/zx-pan/SGIで入手できる。
関連論文リスト
- Structure-Guided Allocation of 2D Gaussians for Image Representation and Compression [26.855464287699366]
本稿では,2DGS に対して,画像構造を表現能力と量子化精度の両方で明示的に結合する構造誘導配置原理を提案する。
提案手法は,1000FPS以上のデコードを維持しながら,2DGSの表現力と勾配性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-12-30T06:35:46Z) - Contour Information Aware 2D Gaussian Splatting for Image Representation [0.0]
本稿では,Contour Information-Aware 2D Gaussian Splattingフレームワークを提案する。
提案手法は,既存の2DGS法と比較して,オブジェクトエッジ周辺の再現性が高い。
論文 参考訳(メタデータ) (2025-12-29T07:24:36Z) - Fast 2DGS: Efficient Image Representation with Deep Gaussian Prior [21.89104780995278]
Fast-2DGSは効率的なガウス画像表現のための軽量なフレームワークである。
本稿では,ガウスプリミティブの空間分布を捉えるための条件付きネットワークとして実装されたDeep Gaussian Priorを紹介する。
実験により、この非絡み合ったアーキテクチャは、1つの前方通過で高品質な再構築を実現し、次いで最小限の微調整を行うことが示された。
論文 参考訳(メタデータ) (2025-12-14T17:23:28Z) - EigenGS Representation: From Eigenspace to Gaussian Image Space [20.454762899389358]
EigenGSは、固有空間と画像空間のガウス表現を接続する効率的な変換パイプラインである。
EigenGSは直接2次元ガウスフィッティングよりも優れた再現性が得られることを示す。
結果は,様々な解像度と多様なカテゴリを持つ画像に対して,EigenGSの有効性と一般化能力を強調した。
論文 参考訳(メタデータ) (2025-03-10T15:27:03Z) - Parallel Sequence Modeling via Generalized Spatial Propagation Network [80.66202109995726]
Generalized Spatial Propagation Network (GSPN)は、2次元空間構造を本質的にキャプチャする最適化された視覚タスクのための新しいアテンションメカニズムである。
GSPNは、空間的コヒーレントな画像データを直接操作し、ラインスキャンアプローチを通じて高密度なペアワイズ接続を形成することにより、制限を克服する。
GSPNは、ImageNet分類、クラス誘導画像生成、テキスト・ツー・イメージ生成などの視覚タスクにおいて、より優れた空間忠実性と最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-21T18:56:19Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [100.90743697473232]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
スパースビューからのシーン再構成が可能な3次元ガウススプラッティングに基づくビュー合成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - Image-GS: Content-Adaptive Image Representation via 2D Gaussians [52.598772767324036]
本稿では,2次元ガウス放射率に基づくコンテンツ適応型画像表現であるImage-GSを紹介する。
リアルタイム使用のためにハードウェアフレンドリーな高速アクセスをサポートし、ピクセルをデコードするためには0.3KのMACしか必要としない。
テクスチャ圧縮、セマンティクス対応圧縮、共同画像圧縮と復元など、いくつかのアプリケーションでその汎用性を実証する。
論文 参考訳(メタデータ) (2024-07-02T00:45:21Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - LightGaussian: Unbounded 3D Gaussian Compression with 15x Reduction and 200+ FPS [55.85673901231235]
光ガウシアン(LightGaussian)は、3次元ガウシアンをよりコンパクトなフォーマットに変換する方法である。
ネットワーク・プルーニングにインスパイアされたLightGaussianは、ガウシアンをシーン再構築において最小限のグローバルな重要性で特定した。
LightGaussian は 3D-GS フレームワークで FPS を 144 から 237 に上げながら,平均 15 倍の圧縮率を達成する。
論文 参考訳(メタデータ) (2023-11-28T21:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。