論文の概要: FastGS: Training 3D Gaussian Splatting in 100 Seconds
- arxiv url: http://arxiv.org/abs/2511.04283v1
- Date: Thu, 06 Nov 2025 11:21:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.403119
- Title: FastGS: Training 3D Gaussian Splatting in 100 Seconds
- Title(参考訳): FastGS:100秒で3Dガウス撮影を訓練
- Authors: Shiwei Ren, Tianci Wen, Yongchun Fang, Biao Lu,
- Abstract要約: 我々は,新しい,シンプルで汎用的なアクセラレーションフレームワークであるFastGSを提案する。
多視点整合性に基づく各ガウスの重要性を十分に考慮する。
トレーニング時間とレンダリング品質のトレードオフを効率よく解決します。
- 参考スコア(独自算出の注目度): 15.1354395071878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The dominant 3D Gaussian splatting (3DGS) acceleration methods fail to properly regulate the number of Gaussians during training, causing redundant computational time overhead. In this paper, we propose FastGS, a novel, simple, and general acceleration framework that fully considers the importance of each Gaussian based on multi-view consistency, efficiently solving the trade-off between training time and rendering quality. We innovatively design a densification and pruning strategy based on multi-view consistency, dispensing with the budgeting mechanism. Extensive experiments on Mip-NeRF 360, Tanks & Temples, and Deep Blending datasets demonstrate that our method significantly outperforms the state-of-the-art methods in training speed, achieving a 3.32$\times$ training acceleration and comparable rendering quality compared with DashGaussian on the Mip-NeRF 360 dataset and a 15.45$\times$ acceleration compared with vanilla 3DGS on the Deep Blending dataset. We demonstrate that FastGS exhibits strong generality, delivering 2-7$\times$ training acceleration across various tasks, including dynamic scene reconstruction, surface reconstruction, sparse-view reconstruction, large-scale reconstruction, and simultaneous localization and mapping. The project page is available at https://fastgs.github.io/
- Abstract(参考訳): 支配的な3Dガウススプラッティング(3DGS)加速度法は、訓練中にガウスの数を適切に調節できず、冗長な計算時間オーバーヘッドを引き起こす。
本稿では,複数視点の整合性に基づいて各ガウスの重要性を完全に考慮し,学習時間とレンダリング品質のトレードオフを効率的に解決する,新しい,単純で汎用的なアクセラレーションフレームワークであるFastGSを提案する。
我々は,多視点整合性に基づくデシフィケーション・プルーニング戦略を革新的に設計し,予算化機構を不要とした。
Mip-NeRF 360データセットのDashGaussianとDeep-NeRF 360データセットのDashGaussianと、Deep Blendingデータセットのバニラ3DGSと比較して15.45$\times$アクセラレーションと同等のレンダリング品質が得られる。
我々はFastGSが強い汎用性を示し、ダイナミックシーン再構築、表面再構成、スパースビュー再構築、大規模再構築、同時ローカライゼーションとマッピングなど、様々なタスクで2-7ドル以上のトレーニング加速を提供することを示した。
プロジェクトページはhttps://fastgs.github.io/で公開されている。
関連論文リスト
- Speedy Deformable 3D Gaussian Splatting: Fast Rendering and Compression of Dynamic Scenes [57.69608119350651]
動的シーンへの3次元ガウススティング(3DGS)の最近の拡張は、ニューラルネットワークを用いて各ガウスの時間変化変形を予測することによって、高品質な新規ビュー合成を実現する。
しかしながら、ガウス毎のニューラルネットワークを各フレームで実行することは、レンダリング速度を制限し、メモリと計算要求を増大させる、重大なボトルネックとなる。
動的3DGSおよび4DGS表現のレンダリング速度を2つの相補的手法により低減し,高速化する汎用パイプラインであるSpeedy Deformable 3D Gaussian Splatting(SpeeDe3DGS)を提案する。
論文 参考訳(メタデータ) (2025-06-09T16:30:48Z) - GSta: Efficient Training Scheme with Siestaed Gaussians for Monocular 3D Scene Reconstruction [4.865050337780373]
Gaussian Splatting (GS)は3D再構成の一般的なアプローチである。
大規模なストレージとメモリの要求に悩まされる。
本稿では,訓練中によく収束したガウスを同定するGStaを提案する。
論文 参考訳(メタデータ) (2025-04-09T09:17:56Z) - Speedy-Splat: Fast 3D Gaussian Splatting with Sparse Pixels and Sparse Primitives [60.217580865237835]
3D Gaussian Splatting (3D-GS)は、3D Gaussian のパラメトリック点雲としてシーンをモデル化することで、新しいビューをリアルタイムにレンダリングすることのできる最近の3Dシーン再構築技術である。
レンダリング速度を大幅に向上させるために、3D-GSにおける2つの重要な非効率を同定し、対処する。
われわれのSpeedy-Splatアプローチはこれらの技術を組み合わせて、Mip-NeRF 360、Turps & Temples、Deep Blendingのデータセットから得られる、劇的な$mathit6.71timesで平均レンダリング速度を加速する。
論文 参考訳(メタデータ) (2024-11-30T20:25:56Z) - HiCoM: Hierarchical Coherent Motion for Streamable Dynamic Scene with 3D Gaussian Splatting [7.507657419706855]
本稿では,HiCoMと呼ばれる3つの重要なコンポーネントを持つ効率的なフレームワークを提案する。
まず、摂動平滑化戦略を用いて、コンパクトで頑健な初期3DGS表現を構築する。
次に、3次元ガウスの固有非一様分布と局所的一貫性を利用する階層的コヒーレント運動機構を導入する。
2つの広く利用されているデータセットを用いて行った実験により、我々のフレームワークは最先端の手法の学習効率を約20%向上することが示された。
論文 参考訳(メタデータ) (2024-11-12T04:40:27Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - MVSplat: Efficient 3D Gaussian Splatting from Sparse Multi-View Images [102.7646120414055]
入力としてスパースなマルチビュー画像を与えられたMVSplatは、クリーンなフィードフォワード3Dガウスを予測できる。
大規模RealEstate10KとACIDベンチマークでは、MVSplatは高速フィードフォワード推論速度(22fps)で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-03-21T17:59:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。