論文の概要: SkipGS: Post-Densification Backward Skipping for Efficient 3DGS Training
- arxiv url: http://arxiv.org/abs/2603.08997v1
- Date: Mon, 09 Mar 2026 22:32:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:23.859034
- Title: SkipGS: Post-Densification Backward Skipping for Efficient 3DGS Training
- Title(参考訳): SkipGS: 効率的な3DGSトレーニングのための後方スキッピング
- Authors: Jingxing Li, Yongjae Leeand, Deliang Fan,
- Abstract要約: 3D Gaussian Splatting (3DGS) は、数百万の異方性ガウスを最適化することにより、リアルタイムのノベルビュー合成を実現する。
本研究では,視覚適応型後方ゲーティング機構を備えたSkipGSを提案する。
Mip-NeRF 360では、3DGSと比較して、SkipGSは、デンシフィケーション後の42.0%の短縮により、エンドツーエンドのトレーニング時間を23.1%短縮する。
- 参考スコア(独自算出の注目度): 40.28141759111142
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) achieves real-time novel-view synthesis by optimizing millions of anisotropic Gaussians, yet its training remains expensive, with the backward pass dominating runtime in the post-densification refinement phase. We observe substantial update redundancy in this phase: many sampled views have near-plateaued losses and provide diminishing gradient benefits, but standard training still runs full backpropagation. We propose SkipGS with a novel view-adaptive backward gating mechanism for efficient post-densification training. SkipGS always performs the forward pass to update per-view loss statistics, and selectively skips backward passes when the sampled view's loss is consistent with its recent per-view baseline, while enforcing a minimum backward budget for stable optimization. On Mip-NeRF 360, compared to 3DGS, SkipGS reduces end-to-end training time by 23.1%, driven by a 42.0% reduction in post-densification time, with comparable reconstruction quality. Because it only changes when to backpropagate -- without modifying the renderer, representation, or loss -- SkipGS is plug-and-play and compatible with other complementary efficiency strategies for additive speedups.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、数百万の異方性ガウスを最適化することで、リアルタイムのノベルビュー合成を実現する。
多くのサンプルビューは、ほぼ平坦な損失を持ち、グラデーションのメリットは減少するが、標準トレーニングは依然として完全なバックプロパゲーションを実行している。
本研究では,視覚適応型後方ゲーティング機構を備えたSkipGSを提案する。
SkipGSは、常にビュー毎の損失統計を更新するためにフォワードパスを実行し、サンプルビューの損失が最近のビュー毎のベースラインと一致している場合に、下位パスを選択的にスキップする。
Mip-NeRF 360では、3DGSと比較して、SkipGSはエンドツーエンドのトレーニング時間を23.1%削減している。
レンダラ、表現、損失を変更することなく、バックプロパゲートする時間だけを変えるので、SkipGSはプラグ&プレイで、追加のスピードアップのための他の補完的な効率戦略と互換性がある。
関連論文リスト
- GIFSplat: Generative Prior-Guided Iterative Feed-Forward 3D Gaussian Splatting from Sparse Views [44.787835922271135]
GIFSplatは、純粋なフィードフォワード・イテレーティブ・リファインメント・フレームワークで、3Dガウシアン・リファインティングをスパース・アンポーズ・ビューから行う。
DL3DV、RealEstate10K、DTUで、最先端のフィードフォワードベースラインを一貫して上回る。
カメラのポーズやテスト時間勾配の最適化を必要とせずに、第2スケールの推論時間を維持する。
論文 参考訳(メタデータ) (2026-02-26T03:25:18Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - Gaussian On-the-Fly Splatting: A Progressive Framework for Robust Near Real-Time 3DGS Optimization [8.422116335889163]
3D Gaussian Splatting (3DGS) は高速なリアルタイム性能で高忠実なレンダリングを実現する。
既存の方法は、完全なStructure-from-Motion (SfM)処理後のオフライントレーニングに依存している。
画像キャプチャ中にほぼリアルタイムで3DGSを最適化できるプログレッシブフレームワークであるOn-the-Fly GSを紹介する。
論文 参考訳(メタデータ) (2025-03-17T11:47:58Z) - LiteGS: A High-performance Framework to Train 3DGS in Subminutes via System and Algorithm Codesign [6.7123686385076615]
3D Gaussian Splatting (3DGS)は、3D表現において有望な代替手段として登場したが、それでも高いトレーニングコストに悩まされている。
本稿では、3DGSトレーニングパイプラインを体系的に最適化する高性能計算フレームワークであるLiteGSを紹介する。
実験の結果、LiteGSはオリジナルの3DGSトレーニングを最大13.4倍、同等または優れた品質で加速した。
論文 参考訳(メタデータ) (2025-03-03T05:52:02Z) - Taming 3DGS: High-Quality Radiance Fields with Limited Resources [50.92437599516609]
3D Gaussian Splatting (3DGS)は、高速で解釈可能で高忠実なレンダリングで新規ビュー合成を変換した。
予算で3DGSモデルをトレーニングし、レンダリングするという課題に取り組みます。
我々は、勾配計算と属性更新のための高速で数値的に等価な解を導出する。
論文 参考訳(メタデータ) (2024-06-21T20:44:23Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus [56.45194233357833]
3DGSを分散訓練するDoGaussianを提案する。
大規模シーンで評価すると,3DGSのトレーニングを6回以上高速化する。
論文 参考訳(メタデータ) (2024-05-22T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。