論文の概要: GaussianPOP: Principled Simplification Framework for Compact 3D Gaussian Splatting via Error Quantification
- arxiv url: http://arxiv.org/abs/2602.06830v1
- Date: Fri, 06 Feb 2026 16:17:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.476834
- Title: GaussianPOP: Principled Simplification Framework for Compact 3D Gaussian Splatting via Error Quantification
- Title(参考訳): GaussianPOP: 誤り量子化によるコンパクトな3次元ガウス平滑化のための原理的単純化フレームワーク
- Authors: Soonbin Lee, Yeong-Gyu Kim, Simon Sasse, Tomas M. Borges, Yago Sanchez, Eun-Seok Ryu, Thomas Schierl, Cornelius Hellge,
- Abstract要約: GaussianPOPは、解析的ガウス誤差定量化に基づく、原則化された単純化フレームワークである。
高効率なアルゴリズムを導入することにより、本フレームワークは1つのフォワードパスで実用的なエラー計算を可能にする。
提案手法は,既存の最先端プルーニング手法を両アプリケーションシナリオで一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 5.355982355439107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing 3D Gaussian Splatting simplification methods commonly use importance scores, such as blending weights or sensitivity, to identify redundant Gaussians. However, these scores are not driven by visual error metrics, often leading to suboptimal trade-offs between compactness and rendering fidelity. We present GaussianPOP, a principled simplification framework based on analytical Gaussian error quantification. Our key contribution is a novel error criterion, derived directly from the 3DGS rendering equation, that precisely measures each Gaussian's contribution to the rendered image. By introducing a highly efficient algorithm, our framework enables practical error calculation in a single forward pass. The framework is both accurate and flexible, supporting on-training pruning as well as post-training simplification via iterative error re-quantification for improved stability. Experimental results show that our method consistently outperforms existing state-of-the-art pruning methods across both application scenarios, achieving a superior trade-off between model compactness and high rendering quality.
- Abstract(参考訳): 既存の3Dガウススティングの簡易化法では、余剰ガウスを識別するために重み付けや感度などの重要なスコアを用いるのが一般的である。
しかし、これらのスコアは視覚的誤差のメトリクスによって駆動されるものではなく、しばしばコンパクト性とレンダリング忠実度の間の最適以下のトレードオフをもたらす。
本稿では,解析的ガウス誤差定量化に基づく基本的単純化フレームワークであるガウスPOPを提案する。
我々の重要な貢献は、3DGSレンダリング方程式から直接導かれる新しい誤差基準であり、各ガウスのレンダリング画像への寄与を正確に測定する。
高効率なアルゴリズムを導入することにより、本フレームワークは1つのフォワードパスで実用的なエラー計算を可能にする。
フレームワークは正確かつ柔軟であり、オントレーニングプルーニングをサポートし、安定性を向上させるために反復的エラー再定量化によるトレーニング後の単純化をサポートする。
実験結果から,本手法は両アプリケーションシナリオにまたがって既存の最先端プルーニング手法よりも優れており,モデルコンパクト性と高いレンダリング品質のトレードオフが優れていることがわかった。
関連論文リスト
- Prune Wisely, Reconstruct Sharply: Compact 3D Gaussian Splatting via Adaptive Pruning and Difference-of-Gaussian Primitives [14.295266671241004]
3D Gaussian Splatting (3DGS)は、リアルタイムレンダリングをフォトリアリスティックな品質で実現した。
3DGSは高い忠実性を達成するために多くのプリミティブを必要とすることが多い。
そこで我々は, 刈り取りタイミングと精錬間隔を決定する, 効率的で統合された組立型刈り取り戦略を提案する。
また,1つのプリミティブにおいて正と負の両密度を共同でモデル化する3次元ガウス差分プリミティブも導入する。
論文 参考訳(メタデータ) (2026-02-27T16:12:58Z) - UGOD: Uncertainty-Guided Differentiable Opacity and Soft Dropout for Enhanced Sparse-View 3DGS [8.78995910690481]
3D Gaussian Splatting (3DGS) は新規ビュー合成(NVS)の競争的アプローチとなっている
本稿では,ガウスの適応重み付けがレンダリング品質に与える影響について検討する。
提案手法は,MipNeRF 360データセットにおいて3.27%のPSNR改善を実現する。
論文 参考訳(メタデータ) (2025-08-07T01:42:22Z) - Metropolis-Hastings Sampling for 3D Gaussian Reconstruction [31.840492077537018]
3次元ガウス平滑化のための適応型サンプリングフレームワーク(3DGS)を提案する。
我々の枠組みは, 確率的サンプリングプロセスとして, デンシフィケーションとプルーニングを改質することで限界を克服する。
提案手法は,最先端モデルのビュー合成品質を適度に上回りながら,より高速な収束を実現する。
論文 参考訳(メタデータ) (2025-06-15T19:12:37Z) - Micro-splatting: Multistage Isotropy-informed Covariance Regularization Optimization for High-Fidelity 3D Gaussian Splatting [1.5582756275568836]
マイクロスプレイティング(Micro-Splatting)は、モデル複雑性を大幅に削減しつつ、視覚的詳細を保存する、統合されたトレーニング中のパイプラインである。
4つのオブジェクト中心のベンチマークでは、Micro-Splattingはスプレート数とモデルサイズを60%まで削減し、トレーニングを20%短縮する。
その結果、マイクロスプレイティングは、単一で効率的でエンドツーエンドのフレームワークにおいて、コンパクト性と高忠実性の両方を提供することを示した。
論文 参考訳(メタデータ) (2025-04-08T07:15:58Z) - ProtoGS: Efficient and High-Quality Rendering with 3D Gaussian Prototypes [81.48624894781257]
3D Gaussian Splatting (3DGS) は、新しいビュー合成において大きな進歩を遂げてきたが、ガウスプリミティブのかなりの数によって制限されている。
近年の手法では、密度の高いガウスの記憶容量を圧縮することでこの問題に対処しているが、レンダリングの品質と効率の維持には失敗している。
本稿では,ガウスの原始体を表現するためにガウスのプロトタイプを学習するProtoGSを提案し,視覚的品質を犠牲にすることなくガウスの総量を大幅に削減する。
論文 参考訳(メタデータ) (2025-03-21T18:55:14Z) - PF3plat: Pose-Free Feed-Forward 3D Gaussian Splatting [54.7468067660037]
PF3platは、設計選択を検証した包括的なアブレーション研究によってサポートされた、すべてのベンチマークに新しい最先端を設定します。
本フレームワークは,3DGSの高速,スケーラビリティ,高品質な3D再構成とビュー合成機能を活用している。
論文 参考訳(メタデータ) (2024-10-29T15:28:15Z) - MCGS: Multiview Consistency Enhancement for Sparse-View 3D Gaussian Radiance Fields [100.90743697473232]
3Dガウシアンによって表現される放射場は、高いトレーニング効率と高速レンダリングの両方を提供する、新しいビューの合成に優れている。
既存の手法では、高密度推定ネットワークからの奥行き先を組み込むことが多いが、入力画像に固有の多視点一貫性を見落としている。
スパースビューからのシーン再構成が可能な3次元ガウススプラッティングに基づくビュー合成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T08:39:05Z) - CompGS: Efficient 3D Scene Representation via Compressed Gaussian Splatting [68.94594215660473]
Compressed Gaussian Splatting (CompGS) という,効率的な3次元シーン表現を提案する。
我々は少数のアンカープリミティブを予測に利用し、プリミティブの大多数を非常にコンパクトな残留形にカプセル化することができる。
実験の結果,提案手法は既存の手法よりも優れており,モデル精度とレンダリング品質を損なうことなく,3次元シーン表現のコンパクト性に優れていた。
論文 参考訳(メタデータ) (2024-04-15T04:50:39Z) - StopThePop: Sorted Gaussian Splatting for View-Consistent Real-time Rendering [42.91830228828405]
本稿では,処理オーバーヘッドを最小限に抑えた新しい階層化手法を提案する。
提案手法はガウス版よりも平均で4%遅い。
レンダリング性能はほぼ2倍に向上し,従来のガウス版よりも1.6倍高速になった。
論文 参考訳(メタデータ) (2024-02-01T11:46:44Z) - GS-SLAM: Dense Visual SLAM with 3D Gaussian Splatting [51.96353586773191]
我々は,まず3次元ガウス表現を利用したtextbfGS-SLAM を提案する。
提案手法は,地図の最適化とRGB-Dレンダリングの大幅な高速化を実現するリアルタイム微分可能なスプレイティングレンダリングパイプラインを利用する。
提案手法は,Replica,TUM-RGBDデータセット上の既存の最先端リアルタイム手法と比較して,競争性能が向上する。
論文 参考訳(メタデータ) (2023-11-20T12:08:23Z) - Scalable Variational Gaussian Processes via Harmonic Kernel
Decomposition [54.07797071198249]
汎用性を維持しつつ高い忠実度近似を提供する,スケーラブルな変分ガウス過程近似を導入する。
様々な回帰問題や分類問題において,本手法は変換やリフレクションなどの入力空間対称性を活用できることを実証する。
提案手法は, 純粋なGPモデルのうち, CIFAR-10 の最先端化を実現する。
論文 参考訳(メタデータ) (2021-06-10T18:17:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。