論文の概要: SVR-GS: Spatially Variant Regularization for Probabilistic Masks in 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2509.11116v1
- Date: Sun, 14 Sep 2025 06:08:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.928169
- Title: SVR-GS: Spatially Variant Regularization for Probabilistic Masks in 3D Gaussian Splatting
- Title(参考訳): SVR-GS:3次元ガウス平滑化における確率マスクの空間変動正規化
- Authors: Ashkan Taghipour, Vahid Naghshin, Benjamin Southwell, Farid Boussaid, Hamid Laga, Mohammed Bennamoun,
- Abstract要約: 本稿では,各ガウスの有効寄与から1ピクセル当たりの空間マスクを線に沿って描画する可変正則化器であるSVR-GSを紹介する。
提案したSVR-GSは、3DGSに比べて1.79(時間)、MaskGSは5.63(時間)、それぞれ0.50dBと0.40dBRの減少しか生じない。
これらのゲインは、ロボット工学、AR/VR、モバイル知覚といったリアルタイムアプリケーションのための、はるかに小さく、より速く、よりメモリ効率の高いモデルに変換される。
- 参考スコア(独自算出の注目度): 26.6636253282757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) enables fast, high-quality novel view synthesis but typically relies on densification followed by pruning to optimize the number of Gaussians. Existing mask-based pruning, such as MaskGS, regularizes the global mean of the mask, which is misaligned with the local per-pixel (per-ray) reconstruction loss that determines image quality along individual camera rays. This paper introduces SVR-GS, a spatially variant regularizer that renders a per-pixel spatial mask from each Gaussian's effective contribution along the ray, thereby applying sparsity pressure where it matters: on low-importance Gaussians. We explore three spatial-mask aggregation strategies, implement them in CUDA, and conduct a gradient analysis to motivate our final design. Extensive experiments on Tanks\&Temples, Deep Blending, and Mip-NeRF360 datasets demonstrate that, on average across the three datasets, the proposed SVR-GS reduces the number of Gaussians by 1.79\(\times\) compared to MaskGS and 5.63\(\times\) compared to 3DGS, while incurring only 0.50 dB and 0.40 dB PSNR drops, respectively. These gains translate into significantly smaller, faster, and more memory-efficient models, making them well-suited for real-time applications such as robotics, AR/VR, and mobile perception.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は、高速で高品質なノベルビューの合成を可能にするが、一般的には密度化に頼っている。
MaskGSのような既存のマスクベースのプルーニングはマスクのグローバル平均を規則化し、個々のカメラ線に沿った画質を決定する局所的なピクセル単位の再構成損失と一致しない。
本稿では,空間変動型正規化器であるSVR-GSについて紹介する。
我々は3つの空間マスク集約戦略を探索し、CUDAで実装し、最終設計を動機付けるために勾配解析を行う。
Tanks\&Temples、Deep Blending、Mip-NeRF360データセットに関する大規模な実験により、提案されたSVR-GSは、3DGSと比較して1.79\(\times\)、MaskGSに比べて5.63\(\times\)、それぞれ0.50dBと0.40dBのPSNR低下しか生じないことが示された。
これらの利得は、はるかに小さく、より速く、よりメモリ効率のよいモデルに変換され、ロボット工学、AR/VR、モバイル知覚といったリアルタイムアプリケーションに適している。
関連論文リスト
- Segmentation-Driven Initialization for Sparse-view 3D Gaussian Splatting [0.9251324073335035]
3D Gaussian Splatting (3DGS)は、競争力のあるリアルタイムレンダリングを可能にした。
既存のパイプラインは、しばしばカメラポーズ推定にStructure-from-Motion(SfM)に依存している。
本研究では,構造的に重要な領域のみを識別・保持するために,領域ベースセグメンテーションを活用して非効率を緩和する手法を提案する。
論文 参考訳(メタデータ) (2025-09-15T12:31:33Z) - Gaussian Herding across Pens: An Optimal Transport Perspective on Global Gaussian Reduction for 3DGS [15.072715525951526]
本稿では,グローバルなガウス混合還元として3DGSのコンパクト化を推し進める,新しい最適輸送視点を提案する。
具体的には、まず、KD-ツリー分割上の複合輸送のばらつきを最小化し、コンパクトな幾何学的表現を生成する。
本手法は,バニラおよび加速3DGSパイプラインの任意の段階に適用可能であり,軽量なニューラルレンダリングへの効率的かつ非依存的な経路を提供する。
論文 参考訳(メタデータ) (2025-06-11T09:04:44Z) - ProtoGS: Efficient and High-Quality Rendering with 3D Gaussian Prototypes [81.48624894781257]
3D Gaussian Splatting (3DGS) は、新しいビュー合成において大きな進歩を遂げてきたが、ガウスプリミティブのかなりの数によって制限されている。
近年の手法では、密度の高いガウスの記憶容量を圧縮することでこの問題に対処しているが、レンダリングの品質と効率の維持には失敗している。
本稿では,ガウスの原始体を表現するためにガウスのプロトタイプを学習するProtoGSを提案し,視覚的品質を犠牲にすることなくガウスの総量を大幅に削減する。
論文 参考訳(メタデータ) (2025-03-21T18:55:14Z) - PUP 3D-GS: Principled Uncertainty Pruning for 3D Gaussian Splatting [59.277480452459315]
本研究では,視覚的忠実度と前景の細部を高い圧縮比で保持する原理的感度プルーニングスコアを提案する。
また,トレーニングパイプラインを変更することなく,事前訓練した任意の3D-GSモデルに適用可能な複数ラウンドプルーファインパイプラインを提案する。
論文 参考訳(メタデータ) (2024-06-14T17:53:55Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - F-3DGS: Factorized Coordinates and Representations for 3D Gaussian Splatting [13.653629893660218]
ニューラルレイディアンス場(NeRF)のレンダリング手法の代替として,F3DGS(Facterized 3D Gaussian Splatting)を提案する。
F-3DGSはレンダリング画像に匹敵する品質を維持しながら、ストレージコストを大幅に削減する。
論文 参考訳(メタデータ) (2024-05-27T11:55:49Z) - LightGaussian: Unbounded 3D Gaussian Compression with 15x Reduction and 200+ FPS [55.85673901231235]
光ガウシアン(LightGaussian)は、3次元ガウシアンをよりコンパクトなフォーマットに変換する方法である。
ネットワーク・プルーニングにインスパイアされたLightGaussianは、ガウシアンをシーン再構築において最小限のグローバルな重要性で特定した。
LightGaussian は 3D-GS フレームワークで FPS を 144 から 237 に上げながら,平均 15 倍の圧縮率を達成する。
論文 参考訳(メタデータ) (2023-11-28T21:39:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。