論文の概要: ProtoGS: Efficient and High-Quality Rendering with 3D Gaussian Prototypes
- arxiv url: http://arxiv.org/abs/2503.17486v2
- Date: Tue, 25 Mar 2025 13:03:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 10:44:08.734113
- Title: ProtoGS: Efficient and High-Quality Rendering with 3D Gaussian Prototypes
- Title(参考訳): ProtoGS: 3次元ガウスプロトタイプによる効率的かつ高品質なレンダリング
- Authors: Zhengqing Gao, Dongting Hu, Jia-Wang Bian, Huan Fu, Yan Li, Tongliang Liu, Mingming Gong, Kun Zhang,
- Abstract要約: 3D Gaussian Splatting (3DGS) は、新しいビュー合成において大きな進歩を遂げてきたが、ガウスプリミティブのかなりの数によって制限されている。
近年の手法では、密度の高いガウスの記憶容量を圧縮することでこの問題に対処しているが、レンダリングの品質と効率の維持には失敗している。
本稿では,ガウスの原始体を表現するためにガウスのプロトタイプを学習するProtoGSを提案し,視覚的品質を犠牲にすることなくガウスの総量を大幅に削減する。
- 参考スコア(独自算出の注目度): 81.48624894781257
- License:
- Abstract: 3D Gaussian Splatting (3DGS) has made significant strides in novel view synthesis but is limited by the substantial number of Gaussian primitives required, posing challenges for deployment on lightweight devices. Recent methods address this issue by compressing the storage size of densified Gaussians, yet fail to preserve rendering quality and efficiency. To overcome these limitations, we propose ProtoGS to learn Gaussian prototypes to represent Gaussian primitives, significantly reducing the total Gaussian amount without sacrificing visual quality. Our method directly uses Gaussian prototypes to enable efficient rendering and leverage the resulting reconstruction loss to guide prototype learning. To further optimize memory efficiency during training, we incorporate structure-from-motion (SfM) points as anchor points to group Gaussian primitives. Gaussian prototypes are derived within each group by clustering of K-means, and both the anchor points and the prototypes are optimized jointly. Our experiments on real-world and synthetic datasets prove that we outperform existing methods, achieving a substantial reduction in the number of Gaussians, and enabling high rendering speed while maintaining or even enhancing rendering fidelity.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、新しいビュー合成において大きな進歩を遂げてきたが、要求されるガウスプリミティブのかなりの数によって制限されており、軽量デバイスに展開する上での課題となっている。
近年の手法では、密度の高いガウスの記憶容量を圧縮することでこの問題に対処しているが、レンダリングの品質と効率の維持には失敗している。
これらの制限を克服するため,我々はガウスの原始体を表現するためにガウスのプロトタイプを学習するProtoGSを提案し,視覚的品質を犠牲にすることなくガウスの総量を大幅に削減した。
提案手法では,ガウスプロトタイプを直接使用して効率的なレンダリングを実現し,その結果の再構成損失を利用してプロトタイプ学習を指導する。
トレーニング中のメモリ効率をさらに最適化するために, グループガウスプリミティブのアンカーポイントとしてStructure-from-motion (SfM) ポイントを組み込んだ。
ガウスのプロトタイプはK平均のクラスタリングによって各グループ内で導出され、アンカー点とプロトタイプは共に最適化される。
実世界のデータセットと合成データセットに関する実験により、既存の手法よりも優れており、ガウス数の大幅な削減を実現し、レンダリングの忠実さを維持したり、強化したりしながら高いレンダリング速度を実現することができた。
関連論文リスト
- Generative Densification: Learning to Densify Gaussians for High-Fidelity Generalizable 3D Reconstruction [6.273357335397336]
本稿では,フィードフォワードモデルにより生成されたガウスを高効率で一般化可能な手法であるジェネレーティブ・デンシフィケーションを提案する。
提案手法は, モデルサイズが同等あるいは小さく, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-12-09T06:20:51Z) - Efficient Density Control for 3D Gaussian Splatting [3.6379656024631215]
3D Gaussian Splatting (3DGS) は新規なビュー合成において優れた性能を示した。
本研究では,(1)ガウシアンの位置,形状,不透明度を正確に制御するLong-Axis Split,(2)ガウシアンに対する不完全性の再設定後の回復速度の差を利用したリカバリ・アウェア・プルーニングを提案する。
論文 参考訳(メタデータ) (2024-11-15T12:12:56Z) - Structure Consistent Gaussian Splatting with Matching Prior for Few-shot Novel View Synthesis [28.3325478008559]
SCGaussian, structure Consistent Gaussian Splatting method using matching priors to learn 3D consistent scene structure。
シーン構造を2つの折り畳みで最適化する: 幾何学の描画とより重要なのは、ガウス原始体の位置である。
前方, 周囲, 複雑な大規模シーンにおける実験により, 最先端性能と高効率性によるアプローチの有効性が示された。
論文 参考訳(メタデータ) (2024-11-06T03:28:06Z) - Mipmap-GS: Let Gaussians Deform with Scale-specific Mipmap for Anti-aliasing Rendering [81.88246351984908]
任意のスケールでガウスを適応させる統一最適化法を提案する。
ミップマップ技術に触発されて、ターゲットスケールのための擬似基底構造を設計し、3次元ガウスアンにスケール情報を注入するスケール一貫性誘導損失を提案する。
本手法は,PSNRの3DGSを,ズームインで平均9.25dB,ズームアウトで平均10.40dBで上回っている。
論文 参考訳(メタデータ) (2024-08-12T16:49:22Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - LightGaussian: Unbounded 3D Gaussian Compression with 15x Reduction and 200+ FPS [55.85673901231235]
光ガウシアン(LightGaussian)は、3次元ガウシアンをよりコンパクトなフォーマットに変換する方法である。
ネットワーク・プルーニングにインスパイアされたLightGaussianは、ガウシアンをシーン再構築において最小限のグローバルな重要性で特定した。
LightGaussian は 3D-GS フレームワークで FPS を 144 から 237 に上げながら,平均 15 倍の圧縮率を達成する。
論文 参考訳(メタデータ) (2023-11-28T21:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。