論文の概要: GSta: Efficient Training Scheme with Siestaed Gaussians for Monocular 3D Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2504.06716v1
- Date: Wed, 09 Apr 2025 09:17:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:06:20.528886
- Title: GSta: Efficient Training Scheme with Siestaed Gaussians for Monocular 3D Scene Reconstruction
- Title(参考訳): GSta: 単眼3次元シーン再構成のためのセシテートガウシアンを用いた効率的なトレーニング手法
- Authors: Anil Armagan, Albert Saà-Garriga, Bruno Manganelli, Kyuwon Kim, M. Kerim Yucel,
- Abstract要約: Gaussian Splatting (GS)は3D再構成の一般的なアプローチである。
大規模なストレージとメモリの要求に悩まされる。
本稿では,訓練中によく収束したガウスを同定するGStaを提案する。
- 参考スコア(独自算出の注目度): 4.865050337780373
- License:
- Abstract: Gaussian Splatting (GS) is a popular approach for 3D reconstruction, mostly due to its ability to converge reasonably fast, faithfully represent the scene and render (novel) views in a fast fashion. However, it suffers from large storage and memory requirements, and its training speed still lags behind the hash-grid based radiance field approaches (e.g. Instant-NGP), which makes it especially difficult to deploy them in robotics scenarios, where 3D reconstruction is crucial for accurate operation. In this paper, we propose GSta that dynamically identifies Gaussians that have converged well during training, based on their positional and color gradient norms. By forcing such Gaussians into a siesta and stopping their updates (freezing) during training, we improve training speed with competitive accuracy compared to state of the art. We also propose an early stopping mechanism based on the PSNR values computed on a subset of training images. Combined with other improvements, such as integrating a learning rate scheduler, GSta achieves an improved Pareto front in convergence speed, memory and storage requirements, while preserving quality. We also show that GSta can improve other methods and complement orthogonal approaches in efficiency improvement; once combined with Trick-GS, GSta achieves up to 5x faster training, 16x smaller disk size compared to vanilla GS, while having comparable accuracy and consuming only half the peak memory. More visualisations are available at https://anilarmagan.github.io/SRUK-GSta.
- Abstract(参考訳): Gaussian Splatting (GS) は3D再構成の一般的なアプローチであり、多くの場合、合理的に高速に収束し、シーンを忠実に表現し、(ノーベルな)ビューを高速にレンダリングする能力があるためである。
しかし、それは大きなストレージとメモリ要件に悩まされており、そのトレーニング速度は、ハッシュグリッドベースの放射界アプローチ(例えばInstant-NGP)よりも遅れているため、正確な操作には3D再構成が不可欠であるロボットシナリオへの展開が特に困難である。
本稿では,トレーニング中に収束したガウスを,位置勾配と色勾配の基準に基づいて動的に同定するGStaを提案する。
このようなガウスをシエスタに強制し、トレーニング中に更新(凍結)を停止させることで、最先端技術と比較して、競争精度でトレーニング速度を向上させる。
また,トレーニング画像のサブセットに基づいて計算されたPSNR値に基づく早期停止機構を提案する。
学習率スケジューラの統合などの他の改善と組み合わせて、GStaは品質を保ちながら収束速度、メモリ、ストレージ要件を改善したParetoフロントを実現している。
Trick-GSと組み合わせると、GStaは最大5倍の高速トレーニング、バニラGSの16倍のディスクサイズを達成できますが、精度は同等で、ピークメモリの半分しか消費していません。
詳細はhttps://anilarmagan.github.io/SRUK-GSta.comで確認できる。
関連論文リスト
- Trick-GS: A Balanced Bag of Tricks for Efficient Gaussian Splatting [4.11274012475378]
3次元再構成のためのガウススプラッティング (GS) は, 高速な訓練, 推論速度, 高品質な再構成により, 非常に人気がある。
しかし、GSベースの再構築は一般的に何百万人ものガウシアンで構成されており、スマートフォンのような計算に制約のあるデバイスでの使用は困難である。
Trick-GSは、より高速で、より小さく、より高速なモデルの収束が最大の懸念事項である、リソース制約付きGSに向けて大きな一歩を踏み出した。
論文 参考訳(メタデータ) (2025-01-24T14:40:40Z) - Turbo-GS: Accelerating 3D Gaussian Fitting for High-Quality Radiance Fields [28.047692891923585]
新規ビュー合成はコンピュータビジョンにおいて重要な問題であり、3次元再構成、混合現実、ロボット工学への応用がある。
近年, 3D Gaussian Splatting (3DGS) などの手法が好まれている。
私たちの目標は、高いレンダリング品質を維持しながら、少ないステップでトレーニングすることで最適化時間を短縮することにあります。
論文 参考訳(メタデータ) (2024-12-18T06:46:40Z) - Speedy-Splat: Fast 3D Gaussian Splatting with Sparse Pixels and Sparse Primitives [60.217580865237835]
3D Gaussian Splatting (3D-GS)は、3D Gaussian のパラメトリック点雲としてシーンをモデル化することで、新しいビューをリアルタイムにレンダリングすることのできる最近の3Dシーン再構築技術である。
レンダリング速度を大幅に向上させるために、3D-GSにおける2つの重要な非効率を同定し、対処する。
われわれのSpeedy-Splatアプローチはこれらの技術を組み合わせて、Mip-NeRF 360、Turps & Temples、Deep Blendingのデータセットから得られる、劇的な$mathit6.71timesで平均レンダリング速度を加速する。
論文 参考訳(メタデータ) (2024-11-30T20:25:56Z) - CityGaussianV2: Efficient and Geometrically Accurate Reconstruction for Large-Scale Scenes [53.107474952492396]
CityGaussianV2は大規模なシーン再構築のための新しいアプローチである。
分解段階の密度化・深さ回帰手法を実装し, ぼやけたアーチファクトを除去し, 収束を加速する。
本手法は, 視覚的品質, 幾何学的精度, ストレージ, トレーニングコストの両立を図っている。
論文 参考訳(メタデータ) (2024-11-01T17:59:31Z) - Taming 3DGS: High-Quality Radiance Fields with Limited Resources [50.92437599516609]
3D Gaussian Splatting (3DGS)は、高速で解釈可能で高忠実なレンダリングで新規ビュー合成を変換した。
予算で3DGSモデルをトレーニングし、レンダリングするという課題に取り組みます。
我々は、勾配計算と属性更新のための高速で数値的に等価な解を導出する。
論文 参考訳(メタデータ) (2024-06-21T20:44:23Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus [56.45194233357833]
3DGSを分散訓練するDoGaussianを提案する。
大規模シーンで評価すると,3DGSのトレーニングを6回以上高速化する。
論文 参考訳(メタデータ) (2024-05-22T19:17:58Z) - EAGLES: Efficient Accelerated 3D Gaussians with Lightweight EncodingS [40.94643885302646]
3Dガウシアンスプラッティング(3D-GS)は、ノベルビューシーンの合成で人気がある。
レイディアンス・ニューラル・フィールド(NeRF)に関連する長いトレーニング時間と遅いレンダリング速度の課題に対処する。
本稿では,メモリ単位の記憶容量を大幅に削減するために,量子化埋め込みを利用する手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。