論文の概要: Mini-Splatting2: Building 360 Scenes within Minutes via Aggressive Gaussian Densification
- arxiv url: http://arxiv.org/abs/2411.12788v1
- Date: Tue, 19 Nov 2024 11:47:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:12:26.169773
- Title: Mini-Splatting2: Building 360 Scenes within Minutes via Aggressive Gaussian Densification
- Title(参考訳): Mini-Splatting2:攻撃的なガウス密度化による数分で360度撮影
- Authors: Guangchi Fang, Bing Wang,
- Abstract要約: Mini-Splatting2は最適化時間、ガウス数、レンダリング品質のバランスの取れたトレードオフを実現する。
我々の研究は、現実世界のアプリケーションにおいて、より効率的で高品質な3Dシーンモデリングのステージを定めている。
- 参考スコア(独自算出の注目度): 4.733612131945549
- License:
- Abstract: In this study, we explore the essential challenge of fast scene optimization for Gaussian Splatting. Through a thorough analysis of the geometry modeling process, we reveal that dense point clouds can be effectively reconstructed early in optimization through Gaussian representations. This insight leads to our approach of aggressive Gaussian densification, which provides a more efficient alternative to conventional progressive densification methods. By significantly increasing the number of critical Gaussians, we enhance the model capacity to capture dense scene geometry at the early stage of optimization. This strategy is seamlessly integrated into the Mini-Splatting densification and simplification framework, enabling rapid convergence without compromising quality. Additionally, we introduce visibility culling within Gaussian Splatting, leveraging per-view Gaussian importance as precomputed visibility to accelerate the optimization process. Our Mini-Splatting2 achieves a balanced trade-off among optimization time, the number of Gaussians, and rendering quality, establishing a strong baseline for future Gaussian-Splatting-based works. Our work sets the stage for more efficient, high-quality 3D scene modeling in real-world applications, and the code will be made available no matter acceptance.
- Abstract(参考訳): 本研究では,ガウススプラッティングにおける高速シーン最適化の課題について検討する。
幾何モデリングプロセスの徹底的な解析を通して、高密度点雲はガウス表現を通して最適化の早い段階で効果的に再構成できることを明らかにする。
この知見は、従来のプログレッシブ・デシフィケーション・デシフィケーション法よりも効率的な代替手段を提供するアグレッシブ・ガウス・デシフィケーション(英語版)のアプローチにつながる。
臨界ガウスの数を著しく増やすことにより、最適化の初期段階において、密集した風景形状を捉えるためのモデル容量を増大させる。
この戦略はMini-Splattingdensification and Simplification frameworkにシームレスに統合され、品質を損なうことなく迅速に収束することができる。
さらに、ガウス分割における可視性カリングを導入し、ビューごとの重要性を事前計算された可視性として活用し、最適化プロセスの高速化を図る。
我々のMini-Splatting2は最適化時間、ガウス数、レンダリング品質のバランスの取れたトレードオフを実現し、将来のガウス・スティングベースワークの強力なベースラインを確立する。
私たちの研究は、現実世界のアプリケーションにおいて、より効率的で高品質な3Dシーンモデリングのステージを設定します。
関連論文リスト
- MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - MVGS: Multi-view-regulated Gaussian Splatting for Novel View Synthesis [22.80370814838661]
ボリュームレンダリングにおける最近の研究、例えばNeRFや3D Gaussian Splatting (3DGS)は、レンダリング品質と効率を大幅に向上させた。
4つの重要な貢献を具現化した新しい3DGS最適化手法を提案する。
論文 参考訳(メタデータ) (2024-10-02T23:48:31Z) - GaussianForest: Hierarchical-Hybrid 3D Gaussian Splatting for Compressed Scene Modeling [40.743135560583816]
本稿では,ハイブリッド3Dガウスの森として景観を階層的に表現するガウス・フォレスト・モデリング・フレームワークを紹介する。
実験により、ガウス・フォレストは同等の速度と品質を維持するだけでなく、圧縮速度が10倍を超えることが示されている。
論文 参考訳(メタデータ) (2024-06-13T02:41:11Z) - AtomGS: Atomizing Gaussian Splatting for High-Fidelity Radiance Field [12.025400772749913]
3D Gaussian Splatting (3DGS) は、新しいビュー合成とリアルタイムレンダリング速度の優れた機能を提供することにより、近年、放射界再構成が進んでいる。
AtomGSはAtomized ProliferationとGeometry-Guided Optimizationで構成されています。
評価の結果、AtomGSはレンダリング品質において既存の最先端手法よりも優れています。
論文 参考訳(メタデータ) (2024-05-20T20:38:22Z) - MVSGaussian: Fast Generalizable Gaussian Splatting Reconstruction from Multi-View Stereo [54.00987996368157]
MVSGaussianは、Multi-View Stereo(MVS)から導かれる新しい一般化可能な3次元ガウス表現手法である。
MVSGaussianは、シーンごとにより良い合成品質でリアルタイムレンダリングを実現する。
論文 参考訳(メタデータ) (2024-05-20T17:59:30Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。