論文の概要: Improving Continual Learning for Gaussian Splatting based Environments Reconstruction on Commercial Off-the-Shelf Edge Devices
- arxiv url: http://arxiv.org/abs/2603.08499v1
- Date: Mon, 09 Mar 2026 15:32:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.306952
- Title: Improving Continual Learning for Gaussian Splatting based Environments Reconstruction on Commercial Off-the-Shelf Edge Devices
- Title(参考訳): 市販オフザシェルフエッジデバイスを用いたガウス平滑化環境再構築のための継続的学習の改善
- Authors: Ivan Zaino, Matteo Risso, Daniele Jahier Pagliari, Miguel de Prado, Toon Van de Maele, Alessio Burrello,
- Abstract要約: 新しいビュー合成(NVS)は、コンパクトで漸進的にアップグレード可能な3Dシーンモデルを必要とするエッジロボティクスにますます関係している。
本稿では,リソース制約のあるハードウェア上でのVBGSトレーニングを,変分定式を変更することなく実現できる高精度適応フレームワークを提案する。
また、商用組み込みプラットフォームであるJetson Orin Nanoで初めてNVSトレーニングを可能にしました。
- 参考スコア(独自算出の注目度): 2.48245150714679
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Novel view synthesis (NVS) is increasingly relevant for edge robotics, where compact and incrementally updatable 3D scene models are needed for SLAM, navigation, and inspection under tight memory and latency budgets. Variational Bayesian Gaussian Splatting (VBGS) enables replay-free continual updates for the 3DGS algorithm by maintaining a probabilistic scene model, but its high-precision computations and large intermediate tensors make on-device training impractical. We present a precision-adaptive optimization framework that enables VBGS training on resource-constrained hardware without altering its variational formulation. We (i) profile VBGS to identify memory/latency hotspots, (ii) fuse memory-dominant kernels to reduce materialized intermediate tensors, and (iii) automatically assign operation-level precisions via a mixed-precision search with bounded relative error. Across the Blender, Habitat, and Replica datasets, our optimised pipeline reduces peak memory from 9.44 GB to 1.11 GB and training time from ~234 min to ~61 min on an A5000 GPU, while preserving (and in some cases improving) reconstruction quality of the state-of-the-art VBGS baseline. We also enable for the first time NVS training on a commercial embedded platform, the Jetson Orin Nano, reducing per-frame latency by 19x compared to 3DGS.
- Abstract(参考訳): 新しいビュー合成(NVS)はエッジロボティクスにおいてますます重要になってきており、SLAM、ナビゲーション、検査にコンパクトで漸進的にアップグレード可能な3Dシーンモデルが必要である。
変分ベイジアン・ガウス・スプラッティング(VBGS)は確率的なシーンモデルを維持することで3DGSアルゴリズムの再生不要な連続的な更新を可能にするが、その高精度な計算と大きな中間テンソルはデバイス上でのトレーニングを非現実的にする。
本稿では,リソース制約のあるハードウェア上でのVBGSトレーニングを,変分定式を変更することなく実現できる高精度適応最適化フレームワークを提案する。
我が家
(i) メモリ/遅延ホットスポットを識別するためのVBGSプロファイル
二 メモリ支配カーネルを融合させ、物質化中間テンソルを減少させ、
三 有界相対誤差の混合精度探索により、演算レベル精度を自動的に割り当てる。
Blender、Habitat、Replicaのデータセット全体で、最適化されたパイプラインはピークメモリを9.44GBから1.11GBに削減し、トレーニング時間はA5000 GPUで234分から61分に短縮します。
また、商用組み込みプラットフォームであるJetson Orin Nanoで初めてNVSトレーニングを可能にしました。
関連論文リスト
- ImprovedGS+: A High-Performance C++/CUDA Re-Implementation Strategy for 3D Gaussian Splatting [0.0]
ImprovedGS 戦略の高性能かつ低レベルな再発明である ImprovedGS+ を提案する。
高レベルのPythonロジックからハードウェア最適化のC++/CUDAカーネルに移行することで、ホストデバイス同期とトレーニングレイテンシを大幅に削減できる。
論文 参考訳(メタデータ) (2026-03-09T17:38:27Z) - Speedy Deformable 3D Gaussian Splatting: Fast Rendering and Compression of Dynamic Scenes [57.69608119350651]
動的シーンへの3次元ガウススティング(3DGS)の最近の拡張は、ニューラルネットワークを用いて各ガウスの時間変化変形を予測することによって、高品質な新規ビュー合成を実現する。
しかしながら、ガウス毎のニューラルネットワークを各フレームで実行することは、レンダリング速度を制限し、メモリと計算要求を増大させる、重大なボトルネックとなる。
動的3DGSおよび4DGS表現のレンダリング速度を2つの相補的手法により低減し,高速化する汎用パイプラインであるSpeedy Deformable 3D Gaussian Splatting(SpeeDe3DGS)を提案する。
論文 参考訳(メタデータ) (2025-06-09T16:30:48Z) - Optimized 3D Gaussian Splatting using Coarse-to-Fine Image Frequency Modulation [22.041183774936144]
本稿では,新しい周波数変調粗粒度最適化フレームワークOpti3DGSを提案する。
本手法は多くの3DGS技術とシームレスに統合可能であることを示す。
また、Opti3DGSは本質的に余分なコストを伴わずに詳細シーン表現を生成できることを示す。
論文 参考訳(メタデータ) (2025-03-18T17:49:01Z) - LiteGS: A High-performance Framework to Train 3DGS in Subminutes via System and Algorithm Codesign [6.7123686385076615]
3D Gaussian Splatting (3DGS)は、3D表現において有望な代替手段として登場したが、それでも高いトレーニングコストに悩まされている。
本稿では、3DGSトレーニングパイプラインを体系的に最適化する高性能計算フレームワークであるLiteGSを紹介する。
実験の結果、LiteGSはオリジナルの3DGSトレーニングを最大13.4倍、同等または優れた品質で加速した。
論文 参考訳(メタデータ) (2025-03-03T05:52:02Z) - Taming 3DGS: High-Quality Radiance Fields with Limited Resources [50.92437599516609]
3D Gaussian Splatting (3DGS)は、高速で解釈可能で高忠実なレンダリングで新規ビュー合成を変換した。
予算で3DGSモデルをトレーニングし、レンダリングするという課題に取り組みます。
我々は、勾配計算と属性更新のための高速で数値的に等価な解を導出する。
論文 参考訳(メタデータ) (2024-06-21T20:44:23Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。