論文の概要: Meta-Continual Learning of Neural Fields
- arxiv url: http://arxiv.org/abs/2504.05806v1
- Date: Tue, 08 Apr 2025 08:38:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:30:14.957011
- Title: Meta-Continual Learning of Neural Fields
- Title(参考訳): ニューラルネットワークのメタ連続学習
- Authors: Seungyoon Woo, Junhyeog Yun, Gunhee Kim,
- Abstract要約: この研究は、EmphMeta-Continual Learning of Neural Fields (MCL-NF)と呼ばれる新しい問題設定を公表する。
モジュールアーキテクチャと最適化に基づくメタラーニングを組み合わせた新しい戦略を導入する。
画像、音声、ビデオ再構成、ビュー合成タスクを6つの多様なデータセット上で評価する。
- 参考スコア(独自算出の注目度): 36.12465376767014
- License:
- Abstract: Neural Fields (NF) have gained prominence as a versatile framework for complex data representation. This work unveils a new problem setting termed \emph{Meta-Continual Learning of Neural Fields} (MCL-NF) and introduces a novel strategy that employs a modular architecture combined with optimization-based meta-learning. Focused on overcoming the limitations of existing methods for continual learning of neural fields, such as catastrophic forgetting and slow convergence, our strategy achieves high-quality reconstruction with significantly improved learning speed. We further introduce Fisher Information Maximization loss for neural radiance fields (FIM-NeRF), which maximizes information gains at the sample level to enhance learning generalization, with proved convergence guarantee and generalization bound. We perform extensive evaluations across image, audio, video reconstruction, and view synthesis tasks on six diverse datasets, demonstrating our method's superiority in reconstruction quality and speed over existing MCL and CL-NF approaches. Notably, our approach attains rapid adaptation of neural fields for city-scale NeRF rendering with reduced parameter requirement.
- Abstract(参考訳): ニューラルネットワーク(NF)は、複雑なデータ表現のための汎用的なフレームワークとして注目されている。
本研究は,ニューラルフィールドのemph{Meta-Continual Learning of Neural Fields} (MCL-NF)と呼ばれる新しい問題設定を明らかにし,最適化に基づくメタラーニングと組み合わせたモジュラーアーキテクチャを用いた新しい戦略を提案する。
破滅的な忘れ込みや緩やかな収束といった,ニューラルネットワークの継続的な学習方法の限界を克服するために,我々の戦略は,学習速度を大幅に向上した高品質な再構築を実現する。
さらに、ニューラルネットワーク(FIM-NeRF)に対するFisher Information Maximization Lossを導入し、サンプルレベルでの情報ゲインを最大化し、学習一般化を強化し、収束保証と一般化バウンドが証明された。
画像,オーディオ,ビデオ再構成,ビュー合成タスクを6つの多様なデータセット上で広範囲に評価し,既存のMCLおよびCL-NFアプローチよりも再現性や速度が優れていることを示す。
特に,提案手法は,パラメータ要求を低減した都市規模のNeRFレンダリングのためのニューラルネットワークの迅速な適応を実現する。
関連論文リスト
- Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Learning Large-scale Neural Fields via Context Pruned Meta-Learning [60.93679437452872]
本稿では,大規模ニューラルネットワーク学習のための最適化に基づくメタラーニング手法を提案する。
メタテスト時間における勾配再スケーリングは、非常に高品質なニューラルネットワークの学習を可能にすることを示す。
我々のフレームワークは、モデルに依存しない、直感的で、実装が容易であり、幅広い信号に対する大幅な再構成改善を示す。
論文 参考訳(メタデータ) (2023-02-01T17:32:16Z) - MA-RECON: Mask-aware deep-neural-network for robust fast MRI k-space
interpolation [3.0821115746307672]
低サンプリングkspaceデータからのMRI画像の高品質な再構成は、MRI取得時間を短縮し、時間分解能を向上するために重要である。
本稿では,マスク対応ディープニューラルネットワーク(DNN)アーキテクチャと関連するトレーニング手法であるMA-RECONを紹介する。
様々なアンダーサンプリングマスクで生成されたデータを活用して、アンダーサンプリングされたMRI再構成問題の一般化を刺激する。
論文 参考訳(メタデータ) (2022-08-31T15:57:38Z) - GradMax: Growing Neural Networks using Gradient Information [22.986063120002353]
本稿では,学習中に学習内容に影響を与えることなく新たなニューロンを付加し,トレーニングのダイナミクスを改良する手法を提案する。
この手法をGradMax(GradMax)と呼び、様々な視覚タスクやアーキテクチャにおいてその効果を実証する。
論文 参考訳(メタデータ) (2022-01-13T18:30:18Z) - SIRe-Networks: Skip Connections over Interlaced Multi-Task Learning and
Residual Connections for Structure Preserving Object Classification [28.02302915971059]
本稿では、オブジェクト分類タスクにおける消失勾配を低減するために、SIReを定義したインターレース型マルチタスク学習戦略を提案する。
提案手法は、自動エンコーダを介して入力画像構造を保存することにより、畳み込みニューラルネットワーク(CNN)を直接改善する。
提案手法を検証するため、SIRe戦略を介して単純なCNNと有名なネットワークの様々な実装を拡張し、CIFAR100データセットで広範囲にテストする。
論文 参考訳(メタデータ) (2021-10-06T13:54:49Z) - Influence Estimation and Maximization via Neural Mean-Field Dynamics [60.91291234832546]
本稿では,ニューラル平均場(NMF)ダイナミクスを用いた新しい学習フレームワークを提案する。
我々のフレームワークは拡散ネットワークの構造とノード感染確率の進化を同時に学習することができる。
論文 参考訳(メタデータ) (2021-06-03T00:02:05Z) - Neuromodulated Neural Architectures with Local Error Signals for
Memory-Constrained Online Continual Learning [4.2903672492917755]
我々は,局所学習とニューロ変調を取り入れた,生物学的にインスパイアされた軽量ニューラルネットワークアーキテクチャを開発した。
一つの課題と連続的な学習環境の両方にアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-07-16T07:41:23Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。