論文の概要: Decomposing Densification in Gaussian Splatting for Faster 3D Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2507.20239v1
- Date: Sun, 27 Jul 2025 11:47:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:57.282852
- Title: Decomposing Densification in Gaussian Splatting for Faster 3D Scene Reconstruction
- Title(参考訳): より高速な3次元シーン再構成のためのガウススプレイティングのデコンプリート化
- Authors: Binxiao Huang, Zhengwu Liu, Ngai Wong,
- Abstract要約: 3D Gaussian Splatting (GS)は、高品質なシーン再構築のための強力な表現として登場し、魅力的なレンダリング品質を提供している。
本稿では, 細部保存と計算効率のバランスをとる上でのそれらの役割を明らかにするとともに, デンシフィケーションフェーズにおける分割・クローン操作の包括的解析について述べる。
本稿では2次元画像のエネルギー密度に基づいて徐々に解像度を向上するエネルギー誘導型粗度多分解能トレーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.929129351088044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (GS) has emerged as a powerful representation for high-quality scene reconstruction, offering compelling rendering quality. However, the training process of GS often suffers from slow convergence due to inefficient densification and suboptimal spatial distribution of Gaussian primitives. In this work, we present a comprehensive analysis of the split and clone operations during the densification phase, revealing their distinct roles in balancing detail preservation and computational efficiency. Building upon this analysis, we propose a global-to-local densification strategy, which facilitates more efficient growth of Gaussians across the scene space, promoting both global coverage and local refinement. To cooperate with the proposed densification strategy and promote sufficient diffusion of Gaussian primitives in space, we introduce an energy-guided coarse-to-fine multi-resolution training framework, which gradually increases resolution based on energy density in 2D images. Additionally, we dynamically prune unnecessary Gaussian primitives to speed up the training. Extensive experiments on MipNeRF-360, Deep Blending, and Tanks & Temples datasets demonstrate that our approach significantly accelerates training,achieving over 2x speedup with fewer Gaussian primitives and superior reconstruction performance.
- Abstract(参考訳): 3D Gaussian Splatting (GS)は、高品質なシーン再構築のための強力な表現として登場し、魅力的なレンダリング品質を提供している。
しかし、GSの訓練過程は、非効率な密度化とガウス原始体の最適空間分布による緩やかな収束に悩まされることが多い。
本研究では, 密度化段階における分割・クローン操作の包括的解析を行い, 詳細保存と計算効率のバランスをとる上で, それらの役割を明らかにした。
そこで本研究では,グローバル・ローカル・デンシフィケーション・ストラテジーを提案し,現場空間におけるガウシアンのより効率的な成長を促進するとともに,グローバル・カバーとローカル・リファインメントの両立を促進する。
宇宙空間におけるガウス原始体の十分な拡散を促進するため、2次元画像のエネルギー密度に基づいて徐々に解像度を向上するエネルギー誘導型粗度多分解能トレーニングフレームワークを導入する。
さらに、トレーニングをスピードアップするために、不要なガウス的プリミティブを動的にプルークする。
MipNeRF-360, Deep Blending, および Tanks & Temples データセットの大規模な実験により、我々のアプローチはトレーニングを著しく加速し、ガウス的プリミティブを少なくして2倍以上のスピードアップを実現し、再構築性能が優れていることが示された。
関連論文リスト
- Perceive-Sample-Compress: Towards Real-Time 3D Gaussian Splatting [7.421996491601524]
本稿では,3次元ガウス平滑化のための新しい知覚・サンプル圧縮フレームワークを提案する。
提案手法は,リアルタイムレンダリング速度を維持しながら,メモリ効率と視覚的品質を大幅に向上することを示す。
論文 参考訳(メタデータ) (2025-08-07T01:34:38Z) - Duplex-GS: Proxy-Guided Weighted Blending for Real-Time Order-Independent Gaussian Splatting [37.17972426764452]
本稿では、プロキシガウス表現と順序に依存しないレンダリング技術を統合する二重階層フレームワークを提案する。
我々は、我々のフレームワークとオーダー独立透明性(OIT)をシームレスに組み合わせることで、物理的にインスパイアされた重み付けされた和レンダリング技術を開発し、同時に「ポーピング」と「透明性」アーティファクトを除去する。
提案手法は,既存のOITをベースとしたガウス版よりも1.5~4倍高速で高品質なレンダリングを実現し,ガウス版におけるOITレンダリングの利点を検証した。
論文 参考訳(メタデータ) (2025-08-05T07:44:30Z) - SD-GS: Structured Deformable 3D Gaussians for Efficient Dynamic Scene Reconstruction [5.818188539758898]
複雑な動的シーン再構成のためのコンパクトで効率的な動的スプレイティングフレームワークSD-GSを提案する。
また,過度に再構成された高流動領域のアンカーを適応的に成長させる変形認識型密度化戦略を提案する。
実験の結果,SD-GSはモデルサイズを60%削減し,FPSを100%改善することがわかった。
論文 参考訳(メタデータ) (2025-07-10T06:35:03Z) - Steepest Descent Density Control for Compact 3D Gaussian Splatting [72.54055499344052]
3D Gaussian Splatting (3DGS)は、強力なリアルタイム高解像度ノベルビューとして登場した。
本稿では,3DGSの密度制御をデミストし,改良する理論的枠組みを提案する。
我々はSteepGSを導入し、コンパクトな点雲を維持しながら損失を最小限に抑える原則的戦略である、最も急な密度制御を取り入れた。
論文 参考訳(メタデータ) (2025-05-08T18:41:38Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - ProtoGS: Efficient and High-Quality Rendering with 3D Gaussian Prototypes [81.48624894781257]
3D Gaussian Splatting (3DGS) は、新しいビュー合成において大きな進歩を遂げてきたが、ガウスプリミティブのかなりの数によって制限されている。
近年の手法では、密度の高いガウスの記憶容量を圧縮することでこの問題に対処しているが、レンダリングの品質と効率の維持には失敗している。
本稿では,ガウスの原始体を表現するためにガウスのプロトタイプを学習するProtoGSを提案し,視覚的品質を犠牲にすることなくガウスの総量を大幅に削減する。
論文 参考訳(メタデータ) (2025-03-21T18:55:14Z) - Mini-Splatting2: Building 360 Scenes within Minutes via Aggressive Gaussian Densification [4.733612131945549]
Mini-Splatting2は最適化時間、ガウス数、レンダリング品質のバランスの取れたトレードオフを実現する。
我々の研究は、現実世界のアプリケーションにおいて、より効率的で高品質な3Dシーンモデリングのステージを定めている。
論文 参考訳(メタデータ) (2024-11-19T11:47:40Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - Efficient Density Control for 3D Gaussian Splatting [3.6379656024631215]
3D Gaussian Splatting (3DGS) は新規なビュー合成において優れた性能を示した。
本研究では,(1)ガウシアンの位置,形状,不透明度を正確に制御するLong-Axis Split,(2)ガウシアンに対する不完全性の再設定後の回復速度の差を利用したリカバリ・アウェア・プルーニングを提案する。
論文 参考訳(メタデータ) (2024-11-15T12:12:56Z) - DyGASR: Dynamic Generalized Exponential Splatting with Surface Alignment for Accelerated 3D Mesh Reconstruction [1.2891210250935148]
従来の3次元ガウス関数の代わりに一般化指数関数を用いて粒子数を減少させるDyGASRを提案する。
また,GSR(Generalized Surface Regularization)を導入し,各点雲の最小のスケーリングベクトルをゼロにする。
提案手法は既存の3DGSベースのメッシュ再構成手法を超越し,25%の高速化,30%のメモリ使用量の削減を実現している。
論文 参考訳(メタデータ) (2024-11-14T03:19:57Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。