論文の概要: Fast 2DGS: Efficient Image Representation with Deep Gaussian Prior
- arxiv url: http://arxiv.org/abs/2512.12774v1
- Date: Sun, 14 Dec 2025 17:23:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.431799
- Title: Fast 2DGS: Efficient Image Representation with Deep Gaussian Prior
- Title(参考訳): Fast 2DGS:Deep Gaussian Priorによる効率的な画像表現
- Authors: Hao Wang, Ashish Bastola, Chaoyi Zhou, Wenhui Zhu, Xiwen Chen, Xuanzhao Dong, Siyu Huang, Abolfazl Razi,
- Abstract要約: Fast-2DGSは効率的なガウス画像表現のための軽量なフレームワークである。
本稿では,ガウスプリミティブの空間分布を捉えるための条件付きネットワークとして実装されたDeep Gaussian Priorを紹介する。
実験により、この非絡み合ったアーキテクチャは、1つの前方通過で高品質な再構築を実現し、次いで最小限の微調整を行うことが示された。
- 参考スコア(独自算出の注目度): 21.89104780995278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As generative models become increasingly capable of producing high-fidelity visual content, the demand for efficient, interpretable, and editable image representations has grown substantially. Recent advances in 2D Gaussian Splatting (2DGS) have emerged as a promising solution, offering explicit control, high interpretability, and real-time rendering capabilities (>1000 FPS). However, high-quality 2DGS typically requires post-optimization. Existing methods adopt random or heuristics (e.g., gradient maps), which are often insensitive to image complexity and lead to slow convergence (>10s). More recent approaches introduce learnable networks to predict initial Gaussian configurations, but at the cost of increased computational and architectural complexity. To bridge this gap, we present Fast-2DGS, a lightweight framework for efficient Gaussian image representation. Specifically, we introduce Deep Gaussian Prior, implemented as a conditional network to capture the spatial distribution of Gaussian primitives under different complexities. In addition, we propose an attribute regression network to predict dense Gaussian properties. Experiments demonstrate that this disentangled architecture achieves high-quality reconstruction in a single forward pass, followed by minimal fine-tuning. More importantly, our approach significantly reduces computational cost without compromising visual quality, bringing 2DGS closer to industry-ready deployment.
- Abstract(参考訳): 生成モデルが高忠実度映像コンテンツを作成できるようになり、効率、解釈可能、編集可能な画像表現の需要が大幅に増大している。
2D Gaussian Splatting (2DGS)の最近の進歩は、明確な制御、高い解釈可能性、リアルタイムレンダリング機能(>1000 FPS)を提供する、有望なソリューションとして現れている。
しかし、高品質な2DGSは通常、後最適化を必要とする。
既存の手法ではランダムあるいはヒューリスティック(例えば勾配写像)を採用しており、画像の複雑さに敏感であり、収束が遅い(>10s)。
近年のアプローチでは学習可能なネットワークを導入し、初期ガウス構成を予測するが、計算量やアーキテクチャの複雑さが増大する。
このギャップを埋めるため,効率的なガウス画像表現のための軽量なフレームワークであるFast-2DGSを提案する。
具体的には、異なる複雑さ下でのガウス原始体の空間分布を捉えるための条件付きネットワークとして実装されたディープガウス優先法を紹介する。
さらに,高密度ガウス特性を予測する属性回帰ネットワークを提案する。
実験により、この非絡み合ったアーキテクチャは、1つの前方通過で高品質な再構築を実現し、次いで最小限の微調整を行うことが示された。
さらに重要なのは、2DGSを業界対応のデプロイメントに近づけることで、視覚的品質を損なうことなく計算コストを大幅に削減することです。
関連論文リスト
- EigenGS Representation: From Eigenspace to Gaussian Image Space [20.454762899389358]
EigenGSは、固有空間と画像空間のガウス表現を接続する効率的な変換パイプラインである。
EigenGSは直接2次元ガウスフィッティングよりも優れた再現性が得られることを示す。
結果は,様々な解像度と多様なカテゴリを持つ画像に対して,EigenGSの有効性と一般化能力を強調した。
論文 参考訳(メタデータ) (2025-03-10T15:27:03Z) - Generalized and Efficient 2D Gaussian Splatting for Arbitrary-scale Super-Resolution [10.074968164380314]
Inlicit Neural Representations (INR) は任意スケール超解法 (ASR) に成功している
しかし、INRベースのモデルは多層パーセプトロンモジュールを何度もクエリし、各クエリにピクセルを描画する必要がある。
GSは、3Dタスクの視覚的品質とレンダリング速度の両方においてINRよりも利点を示しており、GSがASRタスクに使えるかどうかを探求する動機となっている。
論文 参考訳(メタデータ) (2025-01-12T15:14:58Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [100.90743697473232]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
スパースビューからのシーン再構成が可能な3次元ガウススプラッティングに基づくビュー合成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - Image-GS: Content-Adaptive Image Representation via 2D Gaussians [52.598772767324036]
本稿では,2次元ガウス放射率に基づくコンテンツ適応型画像表現であるImage-GSを紹介する。
リアルタイム使用のためにハードウェアフレンドリーな高速アクセスをサポートし、ピクセルをデコードするためには0.3KのMACしか必要としない。
テクスチャ圧縮、セマンティクス対応圧縮、共同画像圧縮と復元など、いくつかのアプリケーションでその汎用性を実証する。
論文 参考訳(メタデータ) (2024-07-02T00:45:21Z) - CoherentGS: Sparse Novel View Synthesis with Coherent 3D Gaussians [18.42203035154126]
2次元画像空間で制御できる構造付きガウス表現を導入する。
次に、ガウス群、特にその位置を制約し、最適化中に独立に動くのを防ぐ。
我々は,様々な場面における最先端のスパースビュー NeRF ベースのアプローチと比較して,顕著な改善を示した。
論文 参考訳(メタデータ) (2024-03-28T15:27:13Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。