論文の概要: GS-Scale: Unlocking Large-Scale 3D Gaussian Splatting Training via Host Offloading
- arxiv url: http://arxiv.org/abs/2509.15645v1
- Date: Fri, 19 Sep 2025 06:13:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.023453
- Title: GS-Scale: Unlocking Large-Scale 3D Gaussian Splatting Training via Host Offloading
- Title(参考訳): GS-Scale:大規模3Dガウスプラッティングトレーニングをホストオフロードで開始
- Authors: Donghyun Lee, Dawoon Jeong, Jae W. Lee, Hongil Yoon,
- Abstract要約: 3D Gaussian Splattingは、高画質と高速なレンダリング速度を提供することによって、グラフィックレンダリングに革命をもたらした。
大規模なシーンを高品質でトレーニングすることは、かなりのメモリ需要のため、依然として困難である。
本稿では,3次元ガウス平滑化のための高速かつメモリ効率のトレーニングシステムであるGS-Scaleを提案する。
- 参考スコア(独自算出の注目度): 9.776813771006358
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The advent of 3D Gaussian Splatting has revolutionized graphics rendering by delivering high visual quality and fast rendering speeds. However, training large-scale scenes at high quality remains challenging due to the substantial memory demands required to store parameters, gradients, and optimizer states, which can quickly overwhelm GPU memory. To address these limitations, we propose GS-Scale, a fast and memory-efficient training system for 3D Gaussian Splatting. GS-Scale stores all Gaussians in host memory, transferring only a subset to the GPU on demand for each forward and backward pass. While this dramatically reduces GPU memory usage, it requires frustum culling and optimizer updates to be executed on the CPU, introducing slowdowns due to CPU's limited compute and memory bandwidth. To mitigate this, GS-Scale employs three system-level optimizations: (1) selective offloading of geometric parameters for fast frustum culling, (2) parameter forwarding to pipeline CPU optimizer updates with GPU computation, and (3) deferred optimizer update to minimize unnecessary memory accesses for Gaussians with zero gradients. Our extensive evaluations on large-scale datasets demonstrate that GS-Scale significantly lowers GPU memory demands by 3.3-5.6x, while achieving training speeds comparable to GPU without host offloading. This enables large-scale 3D Gaussian Splatting training on consumer-grade GPUs; for instance, GS-Scale can scale the number of Gaussians from 4 million to 18 million on an RTX 4070 Mobile GPU, leading to 23-35% LPIPS (learned perceptual image patch similarity) improvement.
- Abstract(参考訳): 3D Gaussian Splattingの出現は、高画質と高速なレンダリング速度を提供することによって、グラフィックレンダリングに革命をもたらした。
しかし、パラメータ、勾配、オプティマイザ状態を保存するために必要なメモリ要求がかなりあるため、高品質で大規模なシーンをトレーニングすることは依然として難しい。
これらの制約に対処するために,3次元ガウススプラッティングのための高速かつメモリ効率のトレーニングシステムであるGS-Scaleを提案する。
GS-Scaleはすべてのガウシアンをホストメモリに格納し、フォワードパスとバックパスの要求に応じてサブセットだけGPUに転送する。
これはGPUメモリの使用を劇的に削減するが、CPU上で実行するためにフラストタルカリングとオプティマイザの更新が必要である。
これを軽減するため、GS-Scaleでは、(1)高速フラストタルカリングのための幾何パラメータの選択的オフロード、(2)GPU計算によるCPUオプティマイザ更新のためのパラメータフォワード、(3)グラデーションゼロガウスの不要メモリアクセスを最小限に抑えるための遅延オプティマイザ更新の3つのシステムレベル最適化を採用している。
大規模データセットに対する我々の広範な評価は、GS-ScaleがGPUメモリの要求を3.3-5.6倍削減し、ホストオフロードなしでGPUに匹敵するトレーニング速度を達成することを示した。
例えば、GS-Scaleは、RTX 4070 Mobile GPU上で、ガウスの数を400万から1800万に拡張することができ、23-35%のLPIPS(知覚的イメージパッチ類似性)が改善される。
関連論文リスト
- ContraGS: Codebook-Condensed and Trainable Gaussian Splatting for Fast, Memory-Efficient Reconstruction [9.155819295255212]
3D Gaussian Splatting (3DGS)は、高品質でリアルタイムなレンダリングで現実世界のシーンをモデル化する技術である。
ガウス数を減らすことなく,圧縮された3DGS表現を直接トレーニングする手法であるContraGSを紹介する。
ContraGSはトレーニング中のピークメモリ(平均3.49X)とトレーニングとレンダリングの高速化(平均1.36Xと1.88X)を著しく低減し、最先端品質に近いトレーニングを行う。
論文 参考訳(メタデータ) (2025-09-03T23:40:17Z) - FlexGS: Train Once, Deploy Everywhere with Many-in-One Flexible 3D Gaussian Splatting [57.97160965244424]
3Dガウススプラッティング(3DGS)は、3Dシーン表現や新しいビュー合成に様々な応用を可能にしている。
従来のアプローチでは、重要でないガウス人を刈り取ることに重点を置いており、3DGSを効果的に圧縮している。
本稿では3DGSの弾性推論手法を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:17:57Z) - APOLLO: SGD-like Memory, AdamW-level Performance [61.53444035835778]
大規模言語モデル(LLM)は、トレーニング中にメモリ集約的であることで知られている。
メモリ使用量を減らすために、様々なメモリ効率のScalが提案されている。
i)コストのかかるSVDオペレーション、(ii)AdamWと比較して大きなパフォーマンストレードオフ、(iii)競争性能を維持する上でのメモリオーバーヘッド、などです。
論文 参考訳(メタデータ) (2024-12-06T18:55:34Z) - Speedy-Splat: Fast 3D Gaussian Splatting with Sparse Pixels and Sparse Primitives [60.217580865237835]
3D Gaussian Splatting (3D-GS)は、3D Gaussian のパラメトリック点雲としてシーンをモデル化することで、新しいビューをリアルタイムにレンダリングすることのできる最近の3Dシーン再構築技術である。
レンダリング速度を大幅に向上させるために、3D-GSにおける2つの重要な非効率を同定し、対処する。
われわれのSpeedy-Splatアプローチはこれらの技術を組み合わせて、Mip-NeRF 360、Turps & Temples、Deep Blendingのデータセットから得られる、劇的な$mathit6.71timesで平均レンダリング速度を加速する。
論文 参考訳(メタデータ) (2024-11-30T20:25:56Z) - On Scaling Up 3D Gaussian Splatting Training [25.143831267916422]
3DGSは、視覚的品質とレンダリング速度が優れているため、3D再構成でますます人気がある。
現在、3DGSトレーニングは1つのGPU上で行われ、高解像度で大規模な3D再構成タスクを処理する能力を制限する。
Grendelは3DGSパラメータを分割し、複数のGPUを並列化するように設計された分散システムである。
論文 参考訳(メタデータ) (2024-06-26T17:59:28Z) - EAGLES: Efficient Accelerated 3D Gaussians with Lightweight EncodingS [40.94643885302646]
3Dガウシアンスプラッティング(3D-GS)は、ノベルビューシーンの合成で人気がある。
レイディアンス・ニューラル・フィールド(NeRF)に関連する長いトレーニング時間と遅いレンダリング速度の課題に対処する。
本稿では,メモリ単位の記憶容量を大幅に削減するために,量子化埋め込みを利用する手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。