論文の概要: GDGS: Gradient Domain Gaussian Splatting for Sparse Representation of Radiance Fields
- arxiv url: http://arxiv.org/abs/2405.05446v1
- Date: Wed, 8 May 2024 22:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-10 14:32:26.025638
- Title: GDGS: Gradient Domain Gaussian Splatting for Sparse Representation of Radiance Fields
- Title(参考訳): GDGS: 放射場スパース表現のためのグラディエント・ドメイン・ガウス・スプレイティング
- Authors: Yuanhao Gong,
- Abstract要約: 本稿では,元の信号の勾配をモデル化する。
勾配は元の信号よりも遥かに小さい。
スパーシティのおかげで、ビュー合成の間は、少量のピクセルしか必要とせず、計算性能が大幅に向上した。
- 参考スコア(独自算出の注目度): 3.156444853783626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The 3D Gaussian splatting methods are getting popular. However, they work directly on the signal, leading to a dense representation of the signal. Even with some techniques such as pruning or distillation, the results are still dense. In this paper, we propose to model the gradient of the original signal. The gradients are much sparser than the original signal. Therefore, the gradients use much less Gaussian splats, leading to the more efficient storage and thus higher computational performance during both training and rendering. Thanks to the sparsity, during the view synthesis, only a small mount of pixels are needed, leading to much higher computational performance ($100\sim 1000\times$ faster). And the 2D image can be recovered from the gradients via solving a Poisson equation with linear computation complexity. Several experiments are performed to confirm the sparseness of the gradients and the computation performance of the proposed method. The method can be applied various applications, such as human body modeling and indoor environment modeling.
- Abstract(参考訳): 3Dガウスのスプラッティング法が人気を集めている。
しかし、それらは直接信号に作用し、信号の密度の高い表現に繋がる。
プルーニングや蒸留などいくつかの技術があるにもかかわらず、結果はいまだに密集している。
本稿では,元の信号の勾配をモデル化する。
勾配は元の信号よりも遥かに小さい。
したがって、勾配はガウススプラットよりもはるかに少ないため、より効率的な記憶が可能となり、トレーニングとレンダリングの両方における計算性能が向上する。
スパーシリティのおかげで、ビュー合成の間、少量のピクセルしか必要とせず、計算性能が大幅に向上する(100\sim 1000\times$ faster)。
2次元画像は、線形計算複雑性を持つポアソン方程式を解くことによって勾配から復元することができる。
提案手法の勾配の疎度と計算性能を確認するために,いくつかの実験を行った。
この方法は、人体モデリングや屋内環境モデリングなど、様々な応用に応用できる。
関連論文リスト
- Gradient-Driven 3D Segmentation and Affordance Transfer in Gaussian Splatting Using 2D Masks [6.647959476396794]
3Dガウススプラッティングは強力な3Dシーン表現技術として登場し、高効率で細部を捉えている。
本稿では,2次元分割モデルを3次元ガウススプラットに拡張する投票方式を提案する。
このアプローチの根底にある頑健だが単純な数学的定式化は、多くの下流アプリケーションにとって非常に効果的なツールである。
論文 参考訳(メタデータ) (2024-09-18T03:45:44Z) - Isotropic Gaussian Splatting for Real-Time Radiance Field Rendering [15.498640737050412]
提案手法は, 3次元再構成, ビュー合成, 動的オブジェクトモデリングなど, 広範囲の応用に適用できる。
提案手法は, 幾何表現精度を損なうことなく, 約bf100倍高速であることを確認した。
論文 参考訳(メタデータ) (2024-03-21T09:02:31Z) - How to guess a gradient [68.98681202222664]
我々は、勾配が以前考えられていたよりもより構造化されていることを示す。
この構造をエクスプロイトすると、勾配のない最適化スキームが大幅に改善される。
厳密な勾配の最適化と勾配の推測の間に大きなギャップを克服する上での新たな課題を強調した。
論文 参考訳(メタデータ) (2023-12-07T21:40:44Z) - HumanGaussian: Text-Driven 3D Human Generation with Gaussian Splatting [113.37908093915837]
既存の方法は、スコア蒸留サンプリング(SDS)を通じてメッシュやニューラルフィールドのような3D表現を最適化する。
本稿では,高精細な形状とリアルな外観を持つ高品質な3D人間を創出する,効率的かつ効果的な枠組みであるHumanGaussianを提案する。
論文 参考訳(メタデータ) (2023-11-28T18:59:58Z) - Neural Gradient Learning and Optimization for Oriented Point Normal
Estimation [53.611206368815125]
本研究では,3次元点雲から勾配ベクトルを一貫した向きで学習し,正規推定を行うためのディープラーニング手法を提案する。
局所平面幾何に基づいて角距離場を学習し、粗勾配ベクトルを洗練する。
本手法は,局所特徴記述の精度と能力の一般化を図りながら,グローバル勾配近似を効率的に行う。
論文 参考訳(メタデータ) (2023-09-17T08:35:11Z) - On Training Implicit Models [75.20173180996501]
ファントム勾配(ファントム勾配)と呼ばれる暗黙モデルに対する新しい勾配推定法を提案し、正確な勾配の計算コストを抑える。
大規模タスクの実験では、これらの軽量ファントム勾配が暗黙の訓練モデルの後方通過を約1.7倍加速することを示した。
論文 参考訳(メタデータ) (2021-11-09T14:40:24Z) - Adapting Stepsizes by Momentumized Gradients Improves Optimization and
Generalization [89.66571637204012]
textscAdaMomentum on vision, and achieves state-the-art results on other task including language processing。
textscAdaMomentum on vision, and achieves state-the-art results on other task including language processing。
textscAdaMomentum on vision, and achieves state-the-art results on other task including language processing。
論文 参考訳(メタデータ) (2021-06-22T03:13:23Z) - Neural gradients are near-lognormal: improved quantized and sparse
training [35.28451407313548]
神経勾配の分布は概ね対数正規である。
神経勾配の計算と記憶の負担を軽減するための2つの閉形式解析法を提案する。
我々の知る限り,本論文は,(1)6ビット浮動小数点形式への勾配の定量化,あるいは(2)精度の低い場合において,最大85%の勾配間隔を達成した最初の論文である。
論文 参考訳(メタデータ) (2020-06-15T07:00:15Z) - Variance Reduction with Sparse Gradients [82.41780420431205]
SVRGやSpiderBoostのような分散還元法では、大きなバッチ勾配と小さなバッチ勾配が混在している。
我々は、新しい空間演算子:ランダムトップk演算子を導入する。
我々のアルゴリズムは、画像分類、自然言語処理、スパース行列分解など様々なタスクにおいて、一貫してSpiderBoostより優れています。
論文 参考訳(メタデータ) (2020-01-27T08:23:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。