論文の概要: BlockGaussian: Efficient Large-Scale Scene Novel View Synthesis via Adaptive Block-Based Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2504.09048v2
- Date: Tue, 15 Apr 2025 08:25:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:10:20.217312
- Title: BlockGaussian: Efficient Large-Scale Scene Novel View Synthesis via Adaptive Block-Based Gaussian Splatting
- Title(参考訳): BlockGaussian:Adaptive Block-based Gaussian Splattingによる効率的な大規模景観新規合成
- Authors: Yongchang Wu, Zipeng Qi, Zhenwei Shi, Zhengxia Zou,
- Abstract要約: BlockGaussianは、コンテンツ対応シーン分割戦略と可視性対応ブロック最適化を取り入れた、新しいフレームワークである。
提案手法は,複数ベンチマークで5倍の高速化とPSNR平均1.21dBの改善を実現し,再現効率とレンダリング品質の両面において最先端の性能を実現する。
特に、BlockGaussianは計算要求を大幅に削減し、24GBのVRAMデバイスで大規模なシーン再構成を可能にする。
- 参考スコア(独自算出の注目度): 23.190361456894816
- License:
- Abstract: The recent advancements in 3D Gaussian Splatting (3DGS) have demonstrated remarkable potential in novel view synthesis tasks. The divide-and-conquer paradigm has enabled large-scale scene reconstruction, but significant challenges remain in scene partitioning, optimization, and merging processes. This paper introduces BlockGaussian, a novel framework incorporating a content-aware scene partition strategy and visibility-aware block optimization to achieve efficient and high-quality large-scale scene reconstruction. Specifically, our approach considers the content-complexity variation across different regions and balances computational load during scene partitioning, enabling efficient scene reconstruction. To tackle the supervision mismatch issue during independent block optimization, we introduce auxiliary points during individual block optimization to align the ground-truth supervision, which enhances the reconstruction quality. Furthermore, we propose a pseudo-view geometry constraint that effectively mitigates rendering degradation caused by airspace floaters during block merging. Extensive experiments on large-scale scenes demonstrate that our approach achieves state-of-the-art performance in both reconstruction efficiency and rendering quality, with a 5x speedup in optimization and an average PSNR improvement of 1.21 dB on multiple benchmarks. Notably, BlockGaussian significantly reduces computational requirements, enabling large-scale scene reconstruction on a single 24GB VRAM device. The project page is available at https://github.com/SunshineWYC/BlockGaussian
- Abstract(参考訳): 近年の3Dガウススプラッティング(3DGS)の進歩は、新しいビュー合成タスクにおいて顕著な可能性を示している。
パーティション・アンド・コンカーのパラダイムは大規模なシーン再構築を可能にしたが、シーン分割、最適化、マージプロセスにおいて大きな課題が残っている。
本稿では、コンテンツ対応シーン分割戦略と可視性対応ブロック最適化を取り入れた新しいフレームワークであるBlockGaussianを紹介し、効率的で高品質な大規模シーン再構築を実現する。
具体的には,各領域におけるコンテント・複雑度の変化を考慮し,シーン分割時の計算負荷のバランスをとり,効率的なシーン再構成を実現する。
独立ブロック最適化における監督ミスマッチ問題に対処するため,各ブロック最適化時の補助点を導入し,その調整精度を向上させる。
さらに,ブロックマージ時の空域フローターによるレンダリング劣化を効果的に軽減する擬似ビュー幾何制約を提案する。
大規模シーンにおける大規模な実験により,複数ベンチマークでのPSNR平均1.21dBの最適化と5倍の高速化により,再現効率とレンダリング品質の両面での最先端性能が得られた。
特に、BlockGaussianは計算要求を大幅に削減し、24GBのVRAMデバイスで大規模なシーン再構成を可能にする。
プロジェクトページはhttps://github.com/SunshineWYC/BlockGaussianで公開されている。
関連論文リスト
- PG-SAG: Parallel Gaussian Splatting for Fine-Grained Large-Scale Urban Buildings Reconstruction via Semantic-Aware Grouping [6.160345720038265]
本稿では,分割処理とカーネル最適化の両方にセマンティックキューをフル活用した並列ガウス分割手法PG-SAGを提案する。
その結果, 建物表面の再構成におけるPG-SAGの優れた性能を示すことができた。
論文 参考訳(メタデータ) (2025-01-03T07:40:16Z) - DGTR: Distributed Gaussian Turbo-Reconstruction for Sparse-View Vast Scenes [81.56206845824572]
新規ビュー合成(NVS)アプローチは、広大なシーン再構築において重要な役割を担っている。
大規模な環境下では、復元の質が悪くなる場合が少なくない。
本稿では,スパース・ビュー・ワイド・シーンのための効率的なガウス再構成のための分散フレームワークであるDGTRを提案する。
論文 参考訳(メタデータ) (2024-11-19T07:51:44Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [73.49548565633123]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
本稿では,3次元ガウス・スプレイティング(MCGS)に基づくビュー・フレームワークを提案し,スパークス・インプット・ビューからシーンを再構築する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - GaRField++: Reinforced Gaussian Radiance Fields for Large-Scale 3D Scene Reconstruction [1.7624442706463355]
本稿では,3次元ガウススプラッティングに基づく大規模シーン再構築のための新しい枠組みを提案する(3DGS)。
スケーラビリティ問題に対処するため,大規模シーンを複数のセルに分割し,各セルの候補ポイントクラウドとカメラビューとを相関させる。
本研究では,大規模シーン再構成の最先端手法よりも連続的に高忠実度レンダリング結果を生成することを示す。
論文 参考訳(メタデータ) (2024-09-19T13:43:31Z) - SAGS: Structure-Aware 3D Gaussian Splatting [53.6730827668389]
本研究では,シーンの形状を暗黙的に符号化する構造認識型ガウス散乱法(SAGS)を提案する。
SAGSは、最先端のレンダリング性能と、ベンチマークノベルビュー合成データセットのストレージ要件の削減を反映している。
論文 参考訳(メタデータ) (2024-04-29T23:26:30Z) - VastGaussian: Vast 3D Gaussians for Large Scene Reconstruction [59.40711222096875]
VastGaussianは3次元ガウススティングに基づく大規模シーンにおける高品質な再構成とリアルタイムレンダリングのための最初の方法である。
提案手法は既存のNeRF手法より優れており,複数の大規模シーンデータセットの最先端結果が得られる。
論文 参考訳(メタデータ) (2024-02-27T11:40:50Z) - FSGS: Real-Time Few-shot View Synthesis using Gaussian Splatting [58.41056963451056]
本稿では,3次元ガウススプラッティングに基づく数ショットビュー合成フレームワークを提案する。
このフレームワークは3つのトレーニングビューでリアルタイムおよびフォトリアリスティックなビュー合成を可能にする。
FSGSは、さまざまなデータセットの精度とレンダリング効率の両方で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-12-01T09:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。