論文の概要: Speeding Up the Learning of 3D Gaussians with Much Shorter Gaussian Lists
- arxiv url: http://arxiv.org/abs/2603.09277v1
- Date: Tue, 10 Mar 2026 07:03:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-11 15:25:24.114336
- Title: Speeding Up the Learning of 3D Gaussians with Much Shorter Gaussian Lists
- Title(参考訳): より短いガウスリストによる3次元ガウス学習の高速化
- Authors: Jiaqi Liu, Zhizhong Han,
- Abstract要約: 画素の描画に使用するガウスリストを短くするために,新たなトレーニング戦略と損失を提案する。
具体的には、各ガウスのスケールを定期的にリセットすることで、各ガウスのサイズを縮小する。
また、アルファブレンディング法にエントロピー制約を導入し、それぞれの線に沿ってガウスの重量分布を鋭くする。
- 参考スコア(独自算出の注目度): 49.743765571852485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian splatting (3DGS) has become a vital tool for learning a radiance field from multiple posed images. Although 3DGS shows great advantages over NeRF in terms of rendering quality and efficiency, it remains a research challenge to further improve the efficiency of learning 3D Gaussians. To overcome this challenge, we propose novel training strategies and losses to shorten each Gaussian list used to render a pixel, which speeds up the splatting by involving fewer Gaussians along a ray. Specifically, we shrink the size of each Gaussian by resetting their scales regularly, encouraging smaller Gaussians to cover fewer nearby pixels, which shortens the Gaussian lists of pixels. Additionally, we introduce an entropy constraint on the alpha blending procedure to sharpen the weight distribution of Gaussians along each ray, which drives dominant weights larger while making minor weights smaller. As a result, each Gaussian becomes more focused on the pixels where it is dominant, which reduces its impact on nearby pixels, leading to even shorter Gaussian lists. Eventually, we integrate our method into a rendering resolution scheduler which further improves efficiency through progressive resolution increase. We evaluate our method by comparing it with state-of-the-art methods on widely used benchmarks. Our results show significant advantages over others in efficiency without sacrificing rendering quality.
- Abstract(参考訳): 3次元ガウススプラッティング(3DGS)は複数のポーズ画像から放射場を学習するための重要なツールとなっている。
3DGSは、レンダリング品質と効率に関して、NeRFに対して大きな優位性を示しているが、3Dガウスの学習効率をさらに向上させる研究課題である。
この課題を克服するために、我々は、ピクセルの描画に使用するガウスリストを短くするため、新しいトレーニング戦略と損失を提案する。
具体的には、各ガウスのスケールを定期的にリセットすることで、各ガウスのサイズを縮小し、より小さなガウスがより少ない近傍のピクセルをカバーするように促し、ガウスのピクセルリストを短くする。
さらに,アルファブレンディング法にエントロピー制約を導入し,各線に沿ってガウスの重量分布を鋭くし,重みを小さくしながら支配的な重みをより大きくする。
その結果、それぞれのガウス語はより支配的なピクセルに焦点を合わせ、近隣のピクセルへの影響を減らし、より短いガウス語リストへと繋がる。
最終的に、我々の手法をレンダリング解像度スケジューラに統合し、プログレッシブ解像度の増大による効率の向上を図る。
提案手法は,広く使用されているベンチマークにおいて,最先端の手法と比較することによって評価する。
その結果,レンダリング品質を犠牲にすることなく,効率性において他者に対して大きな優位性を示した。
関連論文リスト
- ProtoGS: Efficient and High-Quality Rendering with 3D Gaussian Prototypes [81.48624894781257]
3D Gaussian Splatting (3DGS) は、新しいビュー合成において大きな進歩を遂げてきたが、ガウスプリミティブのかなりの数によって制限されている。
近年の手法では、密度の高いガウスの記憶容量を圧縮することでこの問題に対処しているが、レンダリングの品質と効率の維持には失敗している。
本稿では,ガウスの原始体を表現するためにガウスのプロトタイプを学習するProtoGSを提案し,視覚的品質を犠牲にすることなくガウスの総量を大幅に削減する。
論文 参考訳(メタデータ) (2025-03-21T18:55:14Z) - Pushing Rendering Boundaries: Hard Gaussian Splatting [72.28941128988292]
3D Gaussian Splatting (3DGS) は,NVS(Noven View Synthesis) をリアルタイムなレンダリング方式で実現した。
我々はHGSと呼ばれるハードガウシアンスプラッティングを提案し、これは多視点的な位置勾配とレンダリング誤差を考慮し、ハードガウシアンを成長させる。
本手法は,リアルタイムの効率を保ちながら,最先端のレンダリング品質を実現する。
論文 参考訳(メタデータ) (2024-12-06T07:42:47Z) - CompGS: Smaller and Faster Gaussian Splatting with Vector Quantization [16.829825478946837]
3D Gaussian Splatting (3DGS) は3次元放射場をモデリング・レンダリングするための新しい手法である。
本稿では,3DGSのストレージコストを40倍から50倍に削減し,レンダリング時間を2倍から3倍に削減し,レンダリング画像の品質を低下させる方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T00:29:13Z) - Multi-Scale 3D Gaussian Splatting for Anti-Aliased Rendering [48.41629250718956]
3Dガウシアンは最近、3D再構成とレンダリングの非常に効率的な表現として現れた。
高精細度で高精細度で高精細度でレンダリングするが、低精細度や遠方のカメラ位置でレンダリングすると大幅に劣化する。
そこで本研究では,ガウスを異なるスケールで維持し,同じシーンを表現できるマルチスケール3次元ガウススプレイティングアルゴリズムを提案する。
提案アルゴリズムは13%-66%のPSNRと160%-2400%のレンダリング速度を4$times$-128$times$ scale rendering on Mip-NeRF360 data。
論文 参考訳(メタデータ) (2023-11-28T03:31:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。