論文の概要: $Δ$-NeRF: Incremental Refinement of Neural Radiance Fields through Residual Control and Knowledge Transfer
- arxiv url: http://arxiv.org/abs/2511.20804v1
- Date: Tue, 25 Nov 2025 19:46:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.834785
- Title: $Δ$-NeRF: Incremental Refinement of Neural Radiance Fields through Residual Control and Knowledge Transfer
- Title(参考訳): $Δ$-NeRF:残差制御と知識伝達によるニューラルラジアンス場のインクリメンタルリファインメント
- Authors: Kriti Ghosh, Devjyoti Chakraborty, Lakshmish Ramaswamy, Suchendra M. Bhandarkar, In Kee Kim, Nancy O'Hare, Deepak Mishra,
- Abstract要約: $$-NeRFは、インクリメンタルなNeRFリファインメントのためのユニークなモジュラー残留フレームワークである。
衛星画像の実験では、$$-NeRFがジョイントトレーニングに匹敵するパフォーマンスを達成している。
- 参考スコア(独自算出の注目度): 7.885378415708355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Radiance Fields (NeRFs) have demonstrated remarkable capabilities in 3D reconstruction and novel view synthesis. However, most existing NeRF frameworks require complete retraining when new views are introduced incrementally, limiting their applicability in domains where data arrives sequentially. This limitation is particularly problematic in satellite-based terrain analysis, where regions are repeatedly observed over time. Incremental refinement of NeRFs remains underexplored, and naive approaches suffer from catastrophic forgetting when past data is unavailable. We propose $Δ$-NeRF, a unique modular residual framework for incremental NeRF refinement. $Δ$-NeRF introduces several novel techniques including: (1) a residual controller that injects per-layer corrections into a frozen base NeRF, enabling refinement without access to past data; (2) an uncertainty-aware gating mechanism that prevents overcorrection by adaptively combining base and refined predictions; and (3) a view selection strategy that reduces training data by up to 47\% while maintaining performance. Additionally, we employ knowledge distillation to compress the enhanced model into a compact student network (20\% of original size). Experiments on satellite imagery demonstrate that $Δ$-NeRF achieves performance comparable to joint training while reducing training time by 30-42\%. $Δ$-NeRF consistently outperforms existing baselines, achieving an improvement of up to 43.5\% in PSNR over naive fine-tuning and surpassing joint training on some metrics.
- Abstract(参考訳): ニューラル・ラジアンス・フィールド(NeRF)は3次元再構成と新しいビュー・シンセサイザーにおいて顕著な機能を示した。
しかし、既存のNeRFフレームワークの多くは、新しいビューが漸進的に導入されたときに完全な再トレーニングを必要とし、データがシーケンシャルに到着するドメインでの適用性を制限している。
この制限は、衛星による地形解析において特に問題となる。
NeRFの増分改質は未解明のままであり、過去のデータが利用できない場合、ナイーブアプローチは破滅的な忘れ込みに悩まされる。
インクリメンタルなNeRFリファインメントのためのユニークなモジュラー残留フレームワークである$Δ$-NeRFを提案する。
Δ$-NeRFは,(1)凍結ベースNeRFに層間補正を注入し,過去のデータにアクセスせずに改善を可能にする残差制御装置,(2)ベースと洗練された予測を適応的に組み合わせることで過補正を防止する不確実性認識ゲーティング機構,(3)パフォーマンスを維持しながらトレーニングデータを最大47倍まで削減するビューセレクション戦略など,いくつかの新しい手法を導入している。
さらに,知識蒸留を用いて,拡張されたモデルをコンパクトな学生ネットワーク(原サイズの20%)に圧縮する。
衛星画像の実験では、$Δ$-NeRFはジョイントトレーニングに匹敵する性能を達成し、トレーニング時間を30-42\%削減している。
Δ$-NeRFは、既存のベースラインを一貫して上回り、いくつかのメトリクスの微調整やジョイントトレーニングを上回り、PSNRの最大43.5\%の改善を実現している。
関連論文リスト
- DWTNeRF: Boosting Few-shot Neural Radiance Fields via Discrete Wavelet Transform [3.44306950522716]
Instant-NGPの高速学習ハッシュ符号化に基づく統合フレームワークDWTNeRFを提案する。
スパーストレーニングビューで動作する数発のNeRF用に設計された正規化用語と組み合わせられている。
我々のアプローチは、INGPや3DGSのような暗黙の表現を高速に収束させるための、現在の数発のアプローチを再考することを奨励している。
論文 参考訳(メタデータ) (2025-01-22T04:53:12Z) - Few-shot NeRF by Adaptive Rendering Loss Regularization [78.50710219013301]
スパース入力を用いた新しいビュー合成はニューラルラジアンス場(NeRF)に大きな課題をもたらす
近年の研究では、位置レンダリングの周波数規則化は、数発のNeRFに対して有望な結果が得られることが示されている。
我々は,AR-NeRFと呼ばれる数発のNeRFに対して適応レンダリング損失正規化を提案する。
論文 参考訳(メタデータ) (2024-10-23T13:05:26Z) - FrugalNeRF: Fast Convergence for Extreme Few-shot Novel View Synthesis without Learned Priors [6.729663383705042]
FrugalNeRFは,複数スケールにわたる重み共有ボクセルを利用してシーンの詳細を効率よく表現する,数発のNeRFフレームワークである。
我々の重要な貢献は、スケールをまたいだ再射誤差に基づいて擬似基底真理深さを選択する、クロススケールな幾何適応スキームである。
LLFF、DTU、RealEstate-10Kの実験では、FrugalNeRFは他の数発のNeRF法よりも優れ、トレーニング時間を大幅に短縮した。
論文 参考訳(メタデータ) (2024-10-21T17:59:53Z) - Spatial Annealing for Efficient Few-shot Neural Rendering [73.49548565633123]
我々はtextbfSpatial textbf Annealing regularized textbfNeRF (textbfSANeRF) という,正確で効率的な数発のニューラルレンダリング手法を導入する。
単に1行のコードを追加することで、SANeRFは、現在の数ショットのニューラルレンダリング方法と比較して、より優れたレンダリング品質とはるかに高速な再構築速度を提供する。
論文 参考訳(メタデータ) (2024-06-12T02:48:52Z) - SGCNeRF: Few-Shot Neural Rendering via Sparse Geometric Consistency Guidance [136.15885067858298]
本研究では、空間的に一貫した幾何フィルタリング機構と周波数誘導幾何正規化戦略により強化された特徴マッチングに基づくスパース幾何正規化モジュールを提案する。
実験により, SGCNeRFは, LLFFおよびDTUにおけるPSNRの0.7dBの改善により, 優れた幾何整合性を実現し, かつFreeNeRFを超えていることが示された。
論文 参考訳(メタデータ) (2024-04-01T08:37:57Z) - FreeNeRF: Improving Few-shot Neural Rendering with Free Frequency
Regularization [32.1581416980828]
本稿では、従来の手法よりも優れた驚くほど単純なベースラインである周波数正規化NeRF(FreeNeRF)を提案する。
我々は、数ショットのニューラルレンダリングにおける重要な課題を分析し、NeRFのトレーニングにおいて周波数が重要な役割を果たすことを発見した。
論文 参考訳(メタデータ) (2023-03-13T18:59:03Z) - Aug-NeRF: Training Stronger Neural Radiance Fields with Triple-Level
Physically-Grounded Augmentations [111.08941206369508]
我々は,NeRFトレーニングの正規化にロバストなデータ拡張のパワーを初めてもたらすAugmented NeRF(Aug-NeRF)を提案する。
提案手法では,最悪の場合の摂動を3段階のNeRFパイプラインにシームレスにブレンドする。
Aug-NeRFは、新しいビュー合成と基礎となる幾何再構成の両方において、NeRF性能を効果的に向上させる。
論文 参考訳(メタデータ) (2022-07-04T02:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。