論文の概要: PocketGS: On-Device Training of 3D Gaussian Splatting for High Perceptual Modeling
- arxiv url: http://arxiv.org/abs/2601.17354v1
- Date: Sat, 24 Jan 2026 07:58:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.62163
- Title: PocketGS: On-Device Training of 3D Gaussian Splatting for High Perceptual Modeling
- Title(参考訳): PocketGS:高知覚モデリングのための3次元ガウススプレイティングのオンデバイストレーニング
- Authors: Wenzhi Guo, Guangchi Fang, Shu Yang, Bing Wang,
- Abstract要約: 本稿では,デバイス上での3DGSトレーニングを厳密に結合した制約下で実現するモバイルシーンモデリングパラダイムであるPocketGSを紹介する。
提案手法は,3つの共設計演算子による標準3DGSの基本的な矛盾を解消する。
- 参考スコア(独自算出の注目度): 11.717108464366616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Efficient and high-fidelity 3D scene modeling is a long-standing pursuit in computer graphics. While recent 3D Gaussian Splatting (3DGS) methods achieve impressive real-time modeling performance, they rely on resource-unconstrained training assumptions that fail on mobile devices, which are limited by minute-scale training budgets and hardware-available peak-memory. We present PocketGS, a mobile scene modeling paradigm that enables on-device 3DGS training under these tightly coupled constraints while preserving high perceptual fidelity. Our method resolves the fundamental contradictions of standard 3DGS through three co-designed operators: G builds geometry-faithful point-cloud priors; I injects local surface statistics to seed anisotropic Gaussians, thereby reducing early conditioning gaps; and T unrolls alpha compositing with cached intermediates and index-mapped gradient scattering for stable mobile backpropagation. Collectively, these operators satisfy the competing requirements of training efficiency, memory compactness, and modeling fidelity. Extensive experiments demonstrate that PocketGS is able to outperform the powerful mainstream workstation 3DGS baseline to deliver high-quality reconstructions, enabling a fully on-device, practical capture-to-rendering workflow.
- Abstract(参考訳): 効率的かつ高忠実な3Dシーンモデリングは、コンピュータグラフィックスにおける長年の追求である。
最近の3D Gaussian Splatting(3DGS)メソッドは、リアルタイムモデリングのパフォーマンスを著しく向上させるが、モバイルデバイスで失敗するリソース制約のないトレーニング仮定に依存しており、これは、マイクロスケールのトレーニング予算とハードウェアで利用可能なピークメモリによって制限される。
本稿では,PocketGSについて述べる。PocketGSはデバイス上での3DGSのトレーニングを,高知覚の忠実さを維持しながら厳密に結合した制約下で行うことのできる,モバイルシーンモデリングパラダイムである。
提案手法は,3つの共設計演算子による標準3DGSの基本的な矛盾を解消する。G は幾何学に富んだ点クラウド先行値を構築し,I は局所表面統計データを種異方性ガウスに注入し,初期条件のギャップを小さくし,T はキャッシュされた中間体とインデックスマップされた勾配散乱を解き,安定な移動バックプロパゲーションのためにα をアンロールする。
これらの演算子は、トレーニング効率、メモリコンパクト性、モデリング忠実性の競合する要件を満たす。
大規模な実験により、PocketGSは強力なメインストリームのワークステーション3DGSベースラインを上回り、高品質な再構築を実現している。
関連論文リスト
- Taming 3DGS: High-Quality Radiance Fields with Limited Resources [50.92437599516609]
3D Gaussian Splatting (3DGS)は、高速で解釈可能で高忠実なレンダリングで新規ビュー合成を変換した。
予算で3DGSモデルをトレーニングし、レンダリングするという課題に取り組みます。
我々は、勾配計算と属性更新のための高速で数値的に等価な解を導出する。
論文 参考訳(メタデータ) (2024-06-21T20:44:23Z) - RetinaGS: Scalable Training for Dense Scene Rendering with Billion-Scale 3D Gaussians [12.461531097629857]
我々は、適切なレンダリング方程式を用いた3DGSの一般的なモデル並列トレーニング手法であるRetinaGSを設計する。
本手法により,原始的な数を増やすと,視覚的品質が向上する傾向が明らかになる。
また、完全なMatrixCityデータセット上に10億以上のプリミティブを持つ3DGSモデルをトレーニングする最初の試みを実演する。
論文 参考訳(メタデータ) (2024-06-17T17:59:56Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - DOGS: Distributed-Oriented Gaussian Splatting for Large-Scale 3D Reconstruction Via Gaussian Consensus [56.45194233357833]
3DGSを分散訓練するDoGaussianを提案する。
大規模シーンで評価すると,3DGSのトレーニングを6回以上高速化する。
論文 参考訳(メタデータ) (2024-05-22T19:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。