論文の概要: POTR: Post-Training 3DGS Compression
- arxiv url: http://arxiv.org/abs/2601.14821v1
- Date: Wed, 21 Jan 2026 09:47:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.320478
- Title: POTR: Post-Training 3DGS Compression
- Title(参考訳): POTR: 後3DGS圧縮
- Authors: Bert Ramlot, Martijn Courteaux, Peter Lambert, Glenn Van Wallendael,
- Abstract要約: 3D Gaussian Splatting (3DGS) は3次元シーン再構成とリアルタイムな新規ビュー合成において,NeRF (Neural Radiance Fields) に対して有望な候補として浮上した。
本稿では,2つの新しい技術を用いたポストトレーニング3DGSであるPOTRを提案する。
PoTRは、速度歪み性能と推論速度の両方において、訓練後の他の圧縮技術よりも一貫して優れている。
- 参考スコア(独自算出の注目度): 3.7090293145752344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D Gaussian Splatting (3DGS) has recently emerged as a promising contender to Neural Radiance Fields (NeRF) in 3D scene reconstruction and real-time novel view synthesis. 3DGS outperforms NeRF in training and inference speed but has substantially higher storage requirements. To remedy this downside, we propose POTR, a post-training 3DGS codec built on two novel techniques. First, POTR introduces a novel pruning approach that uses a modified 3DGS rasterizer to efficiently calculate every splat's individual removal effect simultaneously. This technique results in 2-4x fewer splats than other post-training pruning techniques and as a result also significantly accelerates inference with experiments demonstrating 1.5-2x faster inference than other compressed models. Second, we propose a novel method to recompute lighting coefficients, significantly reducing their entropy without using any form of training. Our fast and highly parallel approach especially increases AC lighting coefficient sparsity, with experiments demonstrating increases from 70% to 97%, with minimal loss in quality. Finally, we extend POTR with a simple fine-tuning scheme to further enhance pruning, inference, and rate-distortion performance. Experiments demonstrate that POTR, even without fine-tuning, consistently outperforms all other post-training compression techniques in both rate-distortion performance and inference speed.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS) は3次元シーン再構成とリアルタイムな新規ビュー合成において,NeRF (Neural Radiance Fields) に対して有望な候補として最近登場した。
3DGSは、トレーニングと推論の速度でNeRFより優れていますが、ストレージの要求はかなり高いです。
この欠点を補うために,2つの新しい技術を用いたポストトレーニング3DGSコーデックPOTRを提案する。
まず、POTRは3DGSラスタライザを改良し、スプラットの個々の除去効果を同時に効率的に計算する新しいプルーニング手法を導入する。
この技術は他の訓練後のプルーニング技術に比べて2~4倍のスプラットを減少させ、その結果、他の圧縮モデルよりも1.5~2倍高速な推論を示す実験により、推論を著しく加速させる。
第2に,照明係数を再現する新しい手法を提案し,そのエントロピーをトレーニングの形式を使わずに大幅に低減する。
我々の高速かつ高並列なアプローチは特に交流照明係数の空間性を高め、実験では70%から97%に向上し、品質は最小限に抑えられた。
最後に、簡単な微調整方式でPOTRを拡張して、プルーニング、推論、レート歪み性能をさらに向上する。
実験により、POTRは微調整なしでも、速度歪み性能と推論速度の両方において、訓練後の他の圧縮技術よりも一貫して優れていることが示された。
関連論文リスト
- Improving Densification in 3D Gaussian Splatting for High-Fidelity Rendering [3.6379656024631215]
本稿では3DGSの密度化パイプラインを網羅的に改善する。
具体的には,分割候補のガウスを効果的に選択するエッジ・アウェアスコアを提案する。
また,クローンと分割操作によって生じる幾何学的歪みを低減させるLong-Axis Split戦略を導入する。
論文 参考訳(メタデータ) (2025-08-17T10:13:21Z) - Neural Pruning for 3D Scene Reconstruction: Efficient NeRF Acceleration [0.2682592966402944]
本稿では,これらの問題に対処するための戦略としてニューラルプルーニングについて検討する。
我々は,一様サンプリング,重要度に基づく手法,コアセットに基づく手法などのプルーニング手法を比較し,モデルサイズを削減し,トレーニングを高速化する。
その結果,コアセット駆動プルーニングはモデルサイズを50%削減し,トレーニングでは35%の高速化を実現し,精度はわずかに低下した。
論文 参考訳(メタデータ) (2025-04-01T16:38:57Z) - Speedy-Splat: Fast 3D Gaussian Splatting with Sparse Pixels and Sparse Primitives [60.217580865237835]
3D Gaussian Splatting (3D-GS)は、3D Gaussian のパラメトリック点雲としてシーンをモデル化することで、新しいビューをリアルタイムにレンダリングすることのできる最近の3Dシーン再構築技術である。
レンダリング速度を大幅に向上させるために、3D-GSにおける2つの重要な非効率を同定し、対処する。
われわれのSpeedy-Splatアプローチはこれらの技術を組み合わせて、Mip-NeRF 360、Turps & Temples、Deep Blendingのデータセットから得られる、劇的な$mathit6.71timesで平均レンダリング速度を加速する。
論文 参考訳(メタデータ) (2024-11-30T20:25:56Z) - Fast Feedforward 3D Gaussian Splatting Compression [55.149325473447384]
3D Gaussian Splatting (FCGS) は、1つのフィードフォワードパスで3DGS表現を高速に圧縮できる最適化フリーモデルである。
FCGSは圧縮比を20倍以上に向上し、高精細度を維持しながら、ほとんどのシーン毎のSOTA最適化手法を上回ります。
論文 参考訳(メタデータ) (2024-10-10T15:13:08Z) - Trimming the Fat: Efficient Compression of 3D Gaussian Splats through Pruning [17.097742540845672]
脂肪を磨く」とは、モデルに符号化された余分な情報を除去する、ポストホックな勾配インフォームド・イテレーティブ・プルーニング技術である。
提案手法は,ベースラインモデルに類似した性能を維持しつつ,約50$times$圧縮を実現し,最大600FPSの高速化を実現している。
論文 参考訳(メタデータ) (2024-06-26T09:57:55Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - SafeguardGS: 3D Gaussian Primitive Pruning While Avoiding Catastrophic Scene Destruction [45.654397516679495]
本稿では, 3DGSプルーニング技術を, Scene-level pruning と Pixel-level pruning の2つのタイプに分類した。
実験により、ピクセルレベルのプルーニングはプルーニングの固有の境界、すなわちガウス的プルーニングの保護を与えることが示された。
我々は,今後の研究に3DGSを最適化するための貴重な洞察を提供すると考えている。
論文 参考訳(メタデータ) (2024-05-28T03:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。