論文の概要: From Coarse to Fine: Learnable Discrete Wavelet Transforms for Efficient 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2506.23042v1
- Date: Sun, 29 Jun 2025 00:27:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.685025
- Title: From Coarse to Fine: Learnable Discrete Wavelet Transforms for Efficient 3D Gaussian Splatting
- Title(参考訳): 粗さから細さ:3次元ガウススプラッティングのための学習可能な離散ウェーブレット変換
- Authors: Hung Nguyen, An Le, Runfa Li, Truong Nguyen,
- Abstract要約: AutoOpti3DGSは、視覚的忠実さを犠牲にすることなく、ガウスの増殖を自動的に抑制するトレーニングタイムフレームワークである。
ウェーブレット駆動で粗大なプロセスは、冗長な微細ガウスの形成を遅らせる。
- 参考スコア(独自算出の注目度): 5.026688852582894
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D Gaussian Splatting has emerged as a powerful approach in novel view synthesis, delivering rapid training and rendering but at the cost of an ever-growing set of Gaussian primitives that strains memory and bandwidth. We introduce AutoOpti3DGS, a training-time framework that automatically restrains Gaussian proliferation without sacrificing visual fidelity. The key idea is to feed the input images to a sequence of learnable Forward and Inverse Discrete Wavelet Transforms, where low-pass filters are kept fixed, high-pass filters are learnable and initialized to zero, and an auxiliary orthogonality loss gradually activates fine frequencies. This wavelet-driven, coarse-to-fine process delays the formation of redundant fine Gaussians, allowing 3DGS to capture global structure first and refine detail only when necessary. Through extensive experiments, AutoOpti3DGS requires just a single filter learning-rate hyper-parameter, integrates seamlessly with existing efficient 3DGS frameworks, and consistently produces sparser scene representations more compatible with memory or storage-constrained hardware.
- Abstract(参考訳): 3D Gaussian Splattingは、新しいビュー合成において強力なアプローチとして現れ、高速なトレーニングとレンダリングを提供するが、メモリと帯域幅を歪ませるガウス的プリミティブセットのコストが増大している。
本稿では,視覚的忠実度を犠牲にすることなく,ガウスの増殖を自動的に抑制する訓練時間フレームワークであるAutoOpti3DGSを紹介する。
鍵となる考え方は、低域フィルタが固定され、高域フィルタが学習可能で、ゼロに初期化され、補助直交損失が徐々に微細な周波数を活性化する、学習可能なフォワードおよび逆離散ウェーブレット変換に入力画像を供給することである。
このウェーブレット駆動で粗いプロセスは、冗長な微細ガウスの形成を遅らせ、3DGSが最初に地球構造を捉え、必要なときにのみ詳細を精巧にすることができる。
広範な実験を通じて、AutoOpti3DGSは単一のフィルタ学習レートハイパーパラメータを必要とし、既存の効率的な3DGSフレームワークとシームレスに統合し、メモリやストレージに制限されたハードウェアとの互換性をより高めるスペーサーシーン表現を一貫して生成する。
関連論文リスト
- FlexGS: Train Once, Deploy Everywhere with Many-in-One Flexible 3D Gaussian Splatting [57.97160965244424]
3Dガウススプラッティング(3DGS)は、3Dシーン表現や新しいビュー合成に様々な応用を可能にしている。
従来のアプローチでは、重要でないガウス人を刈り取ることに重点を置いており、3DGSを効果的に圧縮している。
本稿では3DGSの弾性推論手法を提案する。
論文 参考訳(メタデータ) (2025-06-04T17:17:57Z) - Steepest Descent Density Control for Compact 3D Gaussian Splatting [72.54055499344052]
3D Gaussian Splatting (3DGS)は、強力なリアルタイム高解像度ノベルビューとして登場した。
本稿では,3DGSの密度制御をデミストし,改良する理論的枠組みを提案する。
我々はSteepGSを導入し、コンパクトな点雲を維持しながら損失を最小限に抑える原則的戦略である、最も急な密度制御を取り入れた。
論文 参考訳(メタデータ) (2025-05-08T18:41:38Z) - FreeSplat++: Generalizable 3D Gaussian Splatting for Efficient Indoor Scene Reconstruction [50.534213038479926]
FreeSplat++は大規模な屋内全シーン再構築の代替手法である。
深度調整による微調整により,再現精度が大幅に向上し,トレーニング時間も大幅に短縮された。
論文 参考訳(メタデータ) (2025-03-29T06:22:08Z) - StreamGS: Online Generalizable Gaussian Splatting Reconstruction for Unposed Image Streams [32.91936079359693]
本稿では,非ポーズ画像ストリームのための3DGS再構成手法であるStreamGSを提案する。
StreamGSは、画像ストリームを3Dガウスストリームに変換する。
多様なデータセットの実験では、StreamGSは最適化ベースのアプローチと同等の品質を実現しているが、150倍高速であることが示された。
論文 参考訳(メタデータ) (2025-03-08T14:35:39Z) - 3DGUT: Enabling Distorted Cameras and Secondary Rays in Gaussian Splatting [15.124165321341646]
本研究では,EWAスプラッティングスプラッティングをアンセント変換に置き換えた3次元ガウスアンアンセント変換(3DGUT)を提案する。
これにより、自明化の効率を維持しつつ、ローリングシャッターなどの歪み時間依存効果を支持できる。
論文 参考訳(メタデータ) (2024-12-17T03:21:25Z) - LP-3DGS: Learning to Prune 3D Gaussian Splatting [71.97762528812187]
本稿では,トレーニング可能な2値マスクを重要度に応用し,最適プルーニング比を自動的に検出する3DGSを提案する。
実験の結果,LP-3DGSは効率と高品質の両面において良好なバランスを保っていることがわかった。
論文 参考訳(メタデータ) (2024-05-29T05:58:34Z) - GES: Generalized Exponential Splatting for Efficient Radiance Field Rendering [112.16239342037714]
GES(Generalized Exponential Splatting)は、GEF(Generalized Exponential Function)を用いて3Dシーンをモデル化する斬新な表現である。
周波数変調損失の助けを借りて、GESは新規なビュー合成ベンチマークにおいて競合性能を達成する。
論文 参考訳(メタデータ) (2024-02-15T17:32:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。