論文の概要: CLM: Removing the GPU Memory Barrier for 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2511.04951v1
- Date: Fri, 07 Nov 2025 03:30:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.662192
- Title: CLM: Removing the GPU Memory Barrier for 3D Gaussian Splatting
- Title(参考訳): CLM:3Dガウス平滑化のためのGPUメモリバリアの除去
- Authors: Hexu Zhao, Xiwen Min, Xiaoteng Liu, Moonjun Gong, Yiming Li, Ang Li, Saining Xie, Jinyang Li, Aurojit Panda,
- Abstract要約: CLMは、3DGSが1つのコンシューマグレードのGPUを使用して大きなシーンをレンダリングできるシステムである。
ガウスアンをCPUメモリにオフロードし、必要であればGPUメモリにロードする。
性能と通信のオーバーヘッドを軽減するため、CLMは新たなオフロード戦略を採用している。
- 参考スコア(独自算出の注目度): 34.933663925174635
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) is an increasingly popular novel view synthesis approach due to its fast rendering time, and high-quality output. However, scaling 3DGS to large (or intricate) scenes is challenging due to its large memory requirement, which exceed most GPU's memory capacity. In this paper, we describe CLM, a system that allows 3DGS to render large scenes using a single consumer-grade GPU, e.g., RTX4090. It does so by offloading Gaussians to CPU memory, and loading them into GPU memory only when necessary. To reduce performance and communication overheads, CLM uses a novel offloading strategy that exploits observations about 3DGS's memory access pattern for pipelining, and thus overlap GPU-to-CPU communication, GPU computation and CPU computation. Furthermore, we also exploit observation about the access pattern to reduce communication volume. Our evaluation shows that the resulting implementation can render a large scene that requires 100 million Gaussians on a single RTX4090 and achieve state-of-the-art reconstruction quality.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、高速なレンダリング時間と高品質な出力のため、新しいビュー合成手法として人気が高まっている。
しかし、大きな(あるいは複雑な)シーンに3DGSをスケールすることは、ほとんどのGPUのメモリ容量を超える大きなメモリ要件のために困難である。
本稿では,1つのコンシューマグレードGPU,例えばRTX4090を用いて3DGSで大きなシーンをレンダリングするシステムであるCLMについて述べる。
ガウスアンをCPUメモリにオフロードし、必要であればGPUメモリにロードする。
パフォーマンスと通信のオーバーヘッドを軽減するため、CLMは3DGSのメモリアクセスパターンに関する観測をパイプライニングに利用し、GPU間通信、GPU計算、CPU計算を重複させる新しいオフロード戦略を採用している。
さらに、アクセスパターンの観察を利用して通信量を削減する。
提案手法は,RTX4090の1億ガウスを1つのRTX4090上にレンダリングし,最先端の再現性を実現する。
関連論文リスト
- GS-Scale: Unlocking Large-Scale 3D Gaussian Splatting Training via Host Offloading [9.776813771006358]
3D Gaussian Splattingは、高画質と高速なレンダリング速度を提供することによって、グラフィックレンダリングに革命をもたらした。
大規模なシーンを高品質でトレーニングすることは、かなりのメモリ需要のため、依然として困難である。
本稿では,3次元ガウス平滑化のための高速かつメモリ効率のトレーニングシステムであるGS-Scaleを提案する。
論文 参考訳(メタデータ) (2025-09-19T06:13:28Z) - ContraGS: Codebook-Condensed and Trainable Gaussian Splatting for Fast, Memory-Efficient Reconstruction [9.155819295255212]
3D Gaussian Splatting (3DGS)は、高品質でリアルタイムなレンダリングで現実世界のシーンをモデル化する技術である。
ガウス数を減らすことなく,圧縮された3DGS表現を直接トレーニングする手法であるContraGSを紹介する。
ContraGSはトレーニング中のピークメモリ(平均3.49X)とトレーニングとレンダリングの高速化(平均1.36Xと1.88X)を著しく低減し、最先端品質に近いトレーニングを行う。
論文 参考訳(メタデータ) (2025-09-03T23:40:17Z) - FlexGS: Train Once, Deploy Everywhere with Many-in-One Flexible 3D Gaussian Splatting [57.97160965244424]
3Dガウススプラッティング(3DGS)は、3Dシーン表現や新しいビュー合成に様々な応用を可能にしている。
従来のアプローチでは、重要でないガウス人を刈り取ることに重点を置いており、3DGSを効果的に圧縮している。
本稿では3DGSの弾性推論手法を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:17:57Z) - LODGE: Level-of-Detail Large-Scale Gaussian Splatting with Efficient Rendering [75.67501939005119]
メモリ制約デバイス上での3次元ガウススプラッティングのための新しいレベル・オブ・ディーテール(LOD)法を提案する。
カメラ距離に基づいてガウスの最適部分集合を反復的に選択する。
本手法は,屋外(階層型3DGS)と屋内(Zip-NeRF)の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-05-29T06:50:57Z) - MEGA: Memory-Efficient 4D Gaussian Splatting for Dynamic Scenes [49.36091070642661]
本稿では,4DGSのためのメモリ効率フレームワークを提案する。
TechnicolorとNeural 3D Videoのデータセットで約190$times$と125$times$のストレージ削減を実現している。
レンダリング速度とシーン表現の品質を維持し、フィールドに新しい標準を設定する。
論文 参考訳(メタデータ) (2024-10-17T14:47:08Z) - On Scaling Up 3D Gaussian Splatting Training [31.161086345038424]
3DGSは、視覚的品質とレンダリング速度が優れているため、3D再構成でますます人気がある。
現在、3DGSトレーニングは1つのGPU上で行われ、高解像度で大規模な3D再構成タスクを処理する能力を制限する。
Grendelは3DGSパラメータを分割し、複数のGPUを並列化するように設計された分散システムである。
論文 参考訳(メタデータ) (2024-06-26T17:59:28Z) - Practical offloading for fine-tuning LLM on commodity GPU via learned sparse projectors [11.127604539303373]
微調整の大型言語モデル(LLM)は大きなメモリを必要とし、1つのGPUの容量を超えることが多い。
このメモリ課題の一般的な解決策は、計算とデータをGPUからCPUにオフロードすることだ。
本稿では,コモディティハードウェア上でのLLMの微調整を可能にするオフロードフレームワーク LSP-Offload を提案する。
論文 参考訳(メタデータ) (2024-06-14T16:59:11Z) - EAGLES: Efficient Accelerated 3D Gaussians with Lightweight EncodingS [40.94643885302646]
3Dガウシアンスプラッティング(3D-GS)は、ノベルビューシーンの合成で人気がある。
レイディアンス・ニューラル・フィールド(NeRF)に関連する長いトレーニング時間と遅いレンダリング速度の課題に対処する。
本稿では,メモリ単位の記憶容量を大幅に削減するために,量子化埋め込みを利用する手法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。