論文の概要: DWTNeRF: Boosting Few-shot Neural Radiance Fields via Discrete Wavelet Transform
- arxiv url: http://arxiv.org/abs/2501.12637v2
- Date: Sun, 02 Feb 2025 08:42:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-04 16:04:51.307232
- Title: DWTNeRF: Boosting Few-shot Neural Radiance Fields via Discrete Wavelet Transform
- Title(参考訳): DWTNeRF:離散ウェーブレット変換によるFwショットニューラルラジアンスフィールドのブーピング
- Authors: Hung Nguyen, Blark Runfa Li, Truong Nguyen,
- Abstract要約: Instant-NGPの高速学習ハッシュ符号化に基づく統合フレームワークDWTNeRFを提案する。
スパーストレーニングビューで動作する数発のNeRF用に設計された正規化用語と組み合わせられている。
我々のアプローチは、INGPや3DGSのような暗黙の表現を高速に収束させるための、現在の数発のアプローチを再考することを奨励している。
- 参考スコア(独自算出の注目度): 3.44306950522716
- License:
- Abstract: Neural Radiance Fields (NeRF) has achieved superior performance in novel view synthesis and 3D scene representation, but its practical applications are hindered by slow convergence and reliance on dense training views. To this end, we present DWTNeRF, a unified framework based on Instant-NGP's fast-training hash encoding. It is coupled with regularization terms designed for few-shot NeRF, which operates on sparse training views. Our DWTNeRF additionally includes a novel Discrete Wavelet loss that allows explicit prioritization of low frequencies directly in the training objective, reducing few-shot NeRF's overfitting on high frequencies in earlier training stages. We also introduce a model-based approach, based on multi-head attention, that is compatible with INGP, which are sensitive to architectural changes. On the 3-shot LLFF benchmark, DWTNeRF outperforms Vanilla INGP by 15.07% in PSNR, 24.45% in SSIM and 36.30% in LPIPS. Our approach encourages a re-thinking of current few-shot approaches for fast-converging implicit representations like INGP or 3DGS.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は、新しいビュー合成と3次元シーン表現において優れた性能を達成しているが、その実践的応用は、密集したトレーニングビューへの収束と依存によって妨げられている。
そこで我々は,Instant-NGPの高速学習ハッシュ符号化に基づく統合フレームワークDWTNeRFを提案する。
スパーストレーニングビューで動作する数発のNeRF用に設計された正規化用語と組み合わせられている。
我々のDWTNeRFには新しい離散ウェーブレット損失が含まれており、トレーニング対象の低周波を直接優先し、初期のトレーニング段階での高周波に対する数発のNeRFのオーバーフィットを減らすことができる。
また、アーキテクチャの変更に敏感なINGPと互換性のあるマルチヘッドアテンションに基づくモデルベースのアプローチも導入する。
3ショットのLLFFベンチマークでは、DWTNeRFがバニラINGPを15.07%、SSIMが24.45%、LPIPSが36.30%上回った。
我々のアプローチは、INGPや3DGSのような暗黙の表現を高速に収束させるための、現在の数発のアプローチを再考することを奨励している。
関連論文リスト
- Rate-aware Compression for NeRF-based Volumetric Video [21.372568857027748]
放射場(NeRF)は3次元ボリュームビデオ技術の開発を進展させてきた。
既存のソリューションは、トレーニング段階の後にNeRF表現を圧縮し、表現訓練と圧縮を分離する。
本稿では,提案するレートアウェア圧縮フレームワークに基づいて,トレーニング段階におけるボリュームビデオのコンパクトなNeRF表現を直接学習する。
論文 参考訳(メタデータ) (2024-11-08T04:29:14Z) - Few-shot NeRF by Adaptive Rendering Loss Regularization [78.50710219013301]
スパース入力を用いた新しいビュー合成はニューラルラジアンス場(NeRF)に大きな課題をもたらす
近年の研究では、位置レンダリングの周波数規則化は、数発のNeRFに対して有望な結果が得られることが示されている。
我々は,AR-NeRFと呼ばれる数発のNeRFに対して適応レンダリング損失正規化を提案する。
論文 参考訳(メタデータ) (2024-10-23T13:05:26Z) - Spatial Annealing for Efficient Few-shot Neural Rendering [73.49548565633123]
我々はtextbfSpatial textbf Annealing regularized textbfNeRF (textbfSANeRF) という,正確で効率的な数発のニューラルレンダリング手法を導入する。
単に1行のコードを追加することで、SANeRFは、現在の数ショットのニューラルレンダリング方法と比較して、より優れたレンダリング品質とはるかに高速な再構築速度を提供する。
論文 参考訳(メタデータ) (2024-06-12T02:48:52Z) - Prompt2NeRF-PIL: Fast NeRF Generation via Pretrained Implicit Latent [61.56387277538849]
本稿では,3次元シーンの直接条件付けと高速なNeRFパラメータ生成のための高速なNeRF生成について検討する。
Prompt2NeRF-PILは、単一の前方通過で様々な3Dオブジェクトを生成することができる。
我々は,テキストからNeRFモデルDreamFusionと画像からNeRF手法Zero-1-to-3の3次元再構成速度を3倍から5倍に高速化することを示す。
論文 参考訳(メタデータ) (2023-12-05T08:32:46Z) - Efficient View Synthesis with Neural Radiance Distribution Field [61.22920276806721]
我々は,リアルタイムに効率的なビュー合成を目標とするニューラルレージアンス分布場(NeRDF)という新しい表現を提案する。
我々は、NeLFのように1ピクセル当たりの1つのネットワーク転送でレンダリング速度を保ちながら、NeRFに似た小さなネットワークを使用する。
実験の結果,提案手法は既存の手法よりも速度,品質,ネットワークサイズとのトレードオフが良好であることがわかった。
論文 参考訳(メタデータ) (2023-08-22T02:23:28Z) - FreeNeRF: Improving Few-shot Neural Rendering with Free Frequency
Regularization [32.1581416980828]
本稿では、従来の手法よりも優れた驚くほど単純なベースラインである周波数正規化NeRF(FreeNeRF)を提案する。
我々は、数ショットのニューラルレンダリングにおける重要な課題を分析し、NeRFのトレーニングにおいて周波数が重要な役割を果たすことを発見した。
論文 参考訳(メタデータ) (2023-03-13T18:59:03Z) - Compressing Explicit Voxel Grid Representations: fast NeRFs become also
small [3.1473798197405944]
Re:NeRFは、同等の性能を維持しながら、NeRFモデルのメモリストレージを削減することを目的としている。
3つのEVG-NeRFアーキテクチャを4つの人気のあるベンチマークでベンチマークする。
論文 参考訳(メタデータ) (2022-10-23T16:42:29Z) - Aug-NeRF: Training Stronger Neural Radiance Fields with Triple-Level
Physically-Grounded Augmentations [111.08941206369508]
我々は,NeRFトレーニングの正規化にロバストなデータ拡張のパワーを初めてもたらすAugmented NeRF(Aug-NeRF)を提案する。
提案手法では,最悪の場合の摂動を3段階のNeRFパイプラインにシームレスにブレンドする。
Aug-NeRFは、新しいビュー合成と基礎となる幾何再構成の両方において、NeRF性能を効果的に向上させる。
論文 参考訳(メタデータ) (2022-07-04T02:27:07Z) - Mega-NeRF: Scalable Construction of Large-Scale NeRFs for Virtual
Fly-Throughs [54.41204057689033]
我々は、ニューラルネットワーク(NeRF)を活用して、建物にまたがる大規模な視覚的キャプチャーや、主にドローンデータから収集された複数の都市ブロックからインタラクティブな3D環境を構築する方法について検討する。
NeRFが伝統的に評価されている単一のオブジェクトシーンとは対照的に、この設定には複数の課題がある。
我々は、訓練画像(またはむしろピクセル)を、並列で訓練できる異なるNeRFサブモジュールに分割する単純なクラスタリングアルゴリズムを導入する。
論文 参考訳(メタデータ) (2021-12-20T17:40:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。