論文の概要: DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus
- arxiv url: http://arxiv.org/abs/2405.13943v2
- Date: Tue, 29 Oct 2024 13:42:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:36:58.584888
- Title: DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus
- Title(参考訳): DOGS:Gaussian Consensusを用いた大規模3次元再構成のための分散配向ガウススプラッティング
- Authors: Yu Chen, Gim Hee Lee,
- Abstract要約: 3DGSを分散訓練するDoGaussianを提案する。
大規模シーンで評価すると,3DGSのトレーニングを6回以上高速化する。
- 参考スコア(独自算出の注目度): 56.45194233357833
- License:
- Abstract: The recent advances in 3D Gaussian Splatting (3DGS) show promising results on the novel view synthesis (NVS) task. With its superior rendering performance and high-fidelity rendering quality, 3DGS is excelling at its previous NeRF counterparts. The most recent 3DGS method focuses either on improving the instability of rendering efficiency or reducing the model size. On the other hand, the training efficiency of 3DGS on large-scale scenes has not gained much attention. In this work, we propose DoGaussian, a method that trains 3DGS distributedly. Our method first decomposes a scene into K blocks and then introduces the Alternating Direction Method of Multipliers (ADMM) into the training procedure of 3DGS. During training, our DOGS maintains one global 3DGS model on the master node and K local 3DGS models on the slave nodes. The K local 3DGS models are dropped after training and we only query the global 3DGS model during inference. The training time is reduced by scene decomposition, and the training convergence and stability are guaranteed through the consensus on the shared 3D Gaussians. Our method accelerates the training of 3DGS by 6+ times when evaluated on large-scale scenes while concurrently achieving state-of-the-art rendering quality. Our code is publicly available at https://github.com/AIBluefisher/DOGS.
- Abstract(参考訳): 最近の3D Gaussian Splatting (3DGS)の進歩は、新しいビュー合成(NVS)タスクにおいて有望な結果を示している。
3DGSは優れたレンダリング性能と高精細なレンダリング性能を備えており、これまでのNeRFよりも優れている。
最新の3DGS法は、レンダリング効率の不安定性を改善するか、またはモデルサイズを減らすことに焦点を当てている。
一方,大規模シーンにおける3DGSのトレーニング効率はあまり注目されていない。
本研究では,3DGSを分散訓練するDoGaussianを提案する。
提案手法は,まずシーンをKブロックに分解し,次に3DGSのトレーニング手順に Alternating Direction Method of Multipliers (ADMM) を導入する。
トレーニング中、我々のDOGSはマスターノード上のグローバル3DGSモデルとスレーブノード上のKローカル3DGSモデルを維持している。
K ローカル 3DGS モデルをトレーニング後にドロップし,推論中にグローバル 3DGS モデルに問い合わせるのみである。
シーン分解によりトレーニング時間を短縮し、共有された3Dガウスのコンセンサスを通じてトレーニング収束と安定性を保証する。
本手法は,3DGSを大規模シーンで評価した場合に,最先端のレンダリング品質を同時に達成しながら,3DGSのトレーニングを6回以上高速化する。
私たちのコードはhttps://github.com/AIBluefisher/DOGS.comで公開されています。
関連論文リスト
- 3DGS$^2$: Near Second-order Converging 3D Gaussian Splatting [26.94968605302451]
3D Gaussian Splatting (3DGS)は、新しいビュー合成と3D再構成の主流のソリューションとして登場した。
本稿では,3DGSの2次収束学習アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2025-01-22T22:28:11Z) - ResGS: Residual Densification of 3D Gaussian for Efficient Detail Recovery [11.706262924395768]
3D-GSは、しばしば豊富な詳細と完全な幾何学を捉えるのに苦労する。
本稿では, 残留分断法を新たに導入し, 残留分断法としてガウシアンを付加した。
提案手法は, 詳細を適応的に検索し, 欠落した幾何を補うとともに, 進歩的な洗練を可能にする。
論文 参考訳(メタデータ) (2024-12-10T13:19:27Z) - WildGaussians: 3D Gaussian Splatting in the Wild [80.5209105383932]
3DGSによる閉塞や外見の変化に対処する新しいアプローチであるWildGaussiansを紹介した。
我々はWildGaussianが3DGSとNeRFのベースラインを越えながら3DGSのリアルタイムレンダリング速度と一致していることを示す。
論文 参考訳(メタデータ) (2024-07-11T12:41:32Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - Bootstrap 3D Reconstructed Scenes from 3D Gaussian Splatting [10.06208115191838]
トレーニングされた3D-GSを用いて,新しいビューのレンダリングを強化するブートストラップ手法を提案する。
以上の結果から,ブートストレッピングはアーティファクトを効果的に削減し,評価指標の明確化を図っている。
論文 参考訳(メタデータ) (2024-04-29T12:57:05Z) - CityGaussian: Real-time High-quality Large-Scale Scene Rendering with Gaussians [64.6687065215713]
CityGaussianは、大規模な3DGSのトレーニングとレンダリングを効率化するために、新しい分別/分別トレーニングアプローチとLevel-of-Detail(LoD)戦略を採用している。
我々のアプローチは最先端のレンダリング品質を実現し、大規模なシーンを全く異なるスケールで一貫したリアルタイムレンダリングを可能にする。
論文 参考訳(メタデータ) (2024-04-01T14:24:40Z) - GaussianPro: 3D Gaussian Splatting with Progressive Propagation [49.918797726059545]
3DGSはStructure-from-Motion (SfM)技術によって生成されるポイントクラウドに大きく依存している。
本稿では, 3次元ガウスの密度化を導くために, プログレッシブ・プログレッシブ・プログレッシブ・ストラテジーを適用した新しい手法を提案する。
提案手法はデータセット上の3DGSを大幅に上回り,PSNRでは1.15dBの改善が見られた。
論文 参考訳(メタデータ) (2024-02-22T16:00:20Z) - SAGD: Boundary-Enhanced Segment Anything in 3D Gaussian via Gaussian Decomposition [66.56357905500512]
3Dガウススプラッティングは、新しいビュー合成のための代替の3D表現として登場した。
SAGDは3D-GSのための概念的にシンプルで効果的な境界拡張パイプラインである。
提案手法は粗い境界問題なく高品質な3Dセグメンテーションを実現し,他のシーン編集作業にも容易に適用できる。
論文 参考訳(メタデータ) (2024-01-31T14:19:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。