論文の概要: Optimal Protocols for Continual Learning via Statistical Physics and
Control Theory
- arxiv url: http://arxiv.org/abs/2409.18061v1
- Date: Thu, 26 Sep 2024 17:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 21:38:28.250781
- Title: Optimal Protocols for Continual Learning via Statistical Physics and
Control Theory
- Title(参考訳): 統計物理学と連続学習のための最適プロトコル
制御理論
- Authors: Francesco Mori, Stefano Sarao Mannelli, Francesca Mignacco
- Abstract要約: ニューラルネットワークは、複数のタスクを逐次学習する際に、破滅的な忘れに苦しむことが多い。
近年の理論的研究は、学習プロトコル下での合成フレームワークにおける学習曲線の分析によってこの問題に対処している。
このギャップを、統計的物理手法を用いて導出したトレーニング力学の正確な方程式と最適制御法を組み合わせることで埋める。
我々の理論的分析は、破滅的な忘れを緩和するための非自明で解釈可能な戦略を提供する。
- 参考スコア(独自算出の注目度): 7.519872646378836
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial neural networks often struggle with catastrophic forgetting when
learning multiple tasks sequentially, as training on new tasks degrades the
performance on previously learned ones. Recent theoretical work has addressed
this issue by analysing learning curves in synthetic frameworks under
predefined training protocols. However, these protocols relied on heuristics
and lacked a solid theoretical foundation assessing their optimality. In this
paper, we fill this gap combining exact equations for training dynamics,
derived using statistical physics techniques, with optimal control methods. We
apply this approach to teacher-student models for continual learning and
multi-task problems, obtaining a theory for task-selection protocols maximising
performance while minimising forgetting. Our theoretical analysis offers
non-trivial yet interpretable strategies for mitigating catastrophic
forgetting, shedding light on how optimal learning protocols can modulate
established effects, such as the influence of task similarity on forgetting.
Finally, we validate our theoretical findings on real-world data.
- Abstract(参考訳): ニューラルネットワークは、複数のタスクを逐次学習する際に破滅的な忘れに苦しむことが多い。
近年の理論的研究は、事前定義されたトレーニングプロトコルの下での合成フレームワークにおける学習曲線の分析によってこの問題に対処している。
しかし、これらのプロトコルはヒューリスティックスに依存しており、その最適性を評価する確固たる理論基盤が欠如していた。
本稿では,このギャップを,統計的物理手法を用いて導出したトレーニング力学の正確な方程式と最適制御法を組み合わせて埋める。
本稿では,学習継続学習とマルチタスク問題に対する教師学生モデルに適用し,タスク選択プロトコルの学習効率を最大化しつつ,忘れを最小化する手法を提案する。
我々の理論的分析は、破滅的な忘れを緩和するための非自明で解釈可能な戦略を提供し、最適な学習プロトコルが、忘れに対するタスク類似性の影響など、確立された効果をいかに調節するかに光を当てる。
最後に,実世界のデータに関する理論的知見を検証した。
関連論文リスト
- A Kernel Perspective on Distillation-based Collaborative Learning [8.971234046933349]
統計的に異種環境において局所データやモデルを直接共有しない非パラメトリック協調学習アルゴリズムを提案する。
理論的結果から着想を得て,ニューラルネットワークアーキテクチャに基づく実用的蒸留に基づく協調学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-23T06:40:13Z) - An Expert's Guide to Training Physics-informed Neural Networks [5.198985210238479]
物理インフォームドニューラルネットワーク(PINN)はディープラーニングフレームワークとして普及している。
PINNは観測データと偏微分方程式(PDE)の制約をシームレスに合成することができる。
PINNのトレーニング効率と全体的な精度を大幅に向上させる一連のベストプラクティスを提案する。
論文 参考訳(メタデータ) (2023-08-16T16:19:25Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Provable Reward-Agnostic Preference-Based Reinforcement Learning [61.39541986848391]
PbRL(Preference-based Reinforcement Learning)は、RLエージェントが、軌道上のペアワイドな嗜好に基づくフィードバックを用いてタスクを最適化することを学ぶパラダイムである。
本稿では,隠れた報酬関数の正確な学習を可能にする探索軌道を求める理論的報酬非依存PbRLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:00:09Z) - Scalable PAC-Bayesian Meta-Learning via the PAC-Optimal Hyper-Posterior:
From Theory to Practice [54.03076395748459]
メタラーニング文学の中心的な疑問は、目に見えないタスクへの一般化を保証するために、いかに正規化するかである。
本稿では,Rothfussらによって最初に導かれたメタラーニングの一般化について述べる。
PAC-Bayesian per-task 学習境界におけるメタラーニングの条件と程度について,理論的解析および実証事例研究を行った。
論文 参考訳(メタデータ) (2022-11-14T08:51:04Z) - Towards Scaling Difference Target Propagation by Learning Backprop
Targets [64.90165892557776]
Different Target Propagationは,Gauss-Newton(GN)最適化と密接な関係を持つ生物学的に証明可能な学習アルゴリズムである。
本稿では、DTPがBPを近似し、階層的なフィードバックウェイトトレーニングを復元できる新しいフィードバックウェイトトレーニング手法を提案する。
CIFAR-10 と ImageNet 上で DTP が達成した最高の性能について報告する。
論文 参考訳(メタデータ) (2022-01-31T18:20:43Z) - Deep Active Learning by Leveraging Training Dynamics [57.95155565319465]
本稿では,学習力学を最大化するためにサンプルを選択する理論駆動型深層能動学習法(Dynamical)を提案する。
動的学習は、他のベースラインを一貫して上回るだけでなく、大規模なディープラーニングモデルでもうまくスケール可能であることを示す。
論文 参考訳(メタデータ) (2021-10-16T16:51:05Z) - Nonparametric Estimation of Heterogeneous Treatment Effects: From Theory
to Learning Algorithms [91.3755431537592]
プラグイン推定と擬似出力回帰に依存する4つの幅広いメタ学習戦略を解析する。
この理論的推論を用いて、アルゴリズム設計の原則を導出し、分析を実践に翻訳する方法について強調する。
論文 参考訳(メタデータ) (2021-01-26T17:11:40Z) - Convergence of End-to-End Training in Deep Unsupervised Contrastive
Learning [3.8073142980733]
教師なしのコントラスト学習は、ラベルのないデータから表現を学習するための強力な方法であることが証明されている。
この研究は、これらの教師なし手法の実践的成功に関する理論的知見を提供する。
論文 参考訳(メタデータ) (2020-02-17T14:35:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。