論文の概要: Learning Continually by Spectral Regularization
- arxiv url: http://arxiv.org/abs/2406.06811v1
- Date: Mon, 10 Jun 2024 21:34:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-12 20:05:58.654243
- Title: Learning Continually by Spectral Regularization
- Title(参考訳): スペクトル正規化による連続的な学習
- Authors: Alex Lewandowski, Saurabh Kumar, Dale Schuurmans, András György, Marlos C. Machado,
- Abstract要約: 可塑性の喪失は、ニューラルネットワークが学習中にトレーニングが困難になる現象である。
連続学習アルゴリズムは、ネットワークのトレーニング性を維持しながら、予測性能を良好に保ちながら、この効果を軽減しようとしている。
- 参考スコア(独自算出の注目度): 49.37215293091139
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Loss of plasticity is a phenomenon where neural networks become more difficult to train during the course of learning. Continual learning algorithms seek to mitigate this effect by sustaining good predictive performance while maintaining network trainability. We develop new techniques for improving continual learning by first reconsidering how initialization can ensure trainability during early phases of learning. From this perspective, we derive new regularization strategies for continual learning that ensure beneficial initialization properties are better maintained throughout training. In particular, we investigate two new regularization techniques for continual learning: (i) Wasserstein regularization toward the initial weight distribution, which is less restrictive than regularizing toward initial weights; and (ii) regularizing weight matrix singular values, which directly ensures gradient diversity is maintained throughout training. We present an experimental analysis that shows these alternative regularizers can improve continual learning performance across a range of supervised learning tasks and model architectures. The alternative regularizers prove to be less sensitive to hyperparameters while demonstrating better training in individual tasks, sustaining trainability as new tasks arrive, and achieving better generalization performance.
- Abstract(参考訳): 可塑性の喪失は、ニューラルネットワークが学習中にトレーニングが困難になる現象である。
連続学習アルゴリズムは、ネットワークのトレーニング性を維持しながら、予測性能を良好に保ちながら、この効果を軽減しようとしている。
まず,初期化が学習の初期段階におけるトレーニング容易性をいかに保証するかを再考することにより,継続的な学習を改善するための新しい技術を開発した。
この観点から、トレーニングを通して有意義な初期化特性がより良く維持されるように、継続学習のための新たな正規化戦略を導出する。
特に,連続学習のための2つの新しい正規化手法について検討する。
一 初期重量分布に対するワッサーシュタイン正則化であって、初期重量に対する正則化より制約が小さいもの
(II)重み行列特異値の正則化は、トレーニングを通して勾配の多様性を直接保証する。
本稿では,これらの代替正則化手法を用いて,教師付き学習タスクやモデルアーキテクチャの連続学習性能を向上できることを示す実験的検討を行う。
代替の正規化器は、ハイパーパラメータに敏感でなく、個々のタスクにおけるより良いトレーニングを示し、新しいタスクが到着するにつれてトレーニング可能性を維持し、より優れた一般化性能を達成する。
関連論文リスト
- Point-Calibrated Spectral Neural Operators [54.13671100638092]
点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習する。
点平衡スペクトル演算子は点レベル適応スペクトルベースで関数を近似することで演算子マッピングを学習する。
論文 参考訳(メタデータ) (2024-10-15T08:19:39Z) - Super Level Sets and Exponential Decay: A Synergistic Approach to Stable Neural Network Training [0.0]
指数減衰と高度な反オーバーフィッティング戦略を統合する動的学習率アルゴリズムを開発した。
適応学習率の影響を受けて、損失関数の超レベル集合が常に連結であることを証明する。
論文 参考訳(メタデータ) (2024-09-25T09:27:17Z) - Continual Diffuser (CoD): Mastering Continual Offline Reinforcement Learning with Experience Rehearsal [54.93261535899478]
強化学習のロボット制御のような現実世界の応用では、タスクが変化し、新しいタスクが順次発生する。
この状況は、タスクの変更に適応し、獲得した知識を保持するエージェントを訓練する上で、可塑性-安定トレードオフという新たな課題を生じさせる。
本研究では,連続拡散器(Continuous diffuser,CoD)と呼ばれるリハーサルに基づく連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2024-09-04T08:21:47Z) - Normalization and effective learning rates in reinforcement learning [52.59508428613934]
正規化層は近年,深層強化学習と連続学習文学においてルネッサンスを経験している。
正規化は、ネットワークパラメータのノルムにおける成長と効果的な学習速度における崩壊の間の等価性という、微妙だが重要な副作用をもたらすことを示す。
そこで本研究では,正規化・プロジェクトと呼ぶ単純な再パラメータ化により,学習率を明示的にする手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:58:01Z) - Continual Learning via Sequential Function-Space Variational Inference [65.96686740015902]
連続学習を逐次関数空間変動推論として定式化した目的を提案する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案した目的はより柔軟な変動分布を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によってトレーニングされたニューラルネットワークは、関連する手法でトレーニングされたネットワークよりも予測精度が良いことを実証した。
論文 参考訳(メタデータ) (2023-12-28T18:44:32Z) - On discretisation drift and smoothness regularisation in neural network
training [0.0]
私たちは、最適化とモデル正規化に焦点をあてて、ディープラーニングの理解を改善するためのステップを作ることを目標としています。
まず、最も一般的なディープラーニング最適化アルゴリズムに基づいて、離散時間アルゴリズムである勾配降下(GD)を調査することから始める。
NGFと異なり、これらの新たな流れは、教師付き学習や2人のプレイヤゲームで観察されるトレーニング不安定性など、GDの学習速度固有の振る舞いを記述するのに使用できる。
そして、新しい学習率スケジュールと正則性を構築することにより、連続時間からの洞察を不安定なGDダイナミクスの緩和戦略に変換する。
論文 参考訳(メタデータ) (2023-10-21T15:21:36Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - Spectral Normalisation for Deep Reinforcement Learning: an Optimisation
Perspective [22.625456135981292]
目的を変更するのではなく,価値関数推定器を正則化することで,開発のパフォーマンスを回復できることを示す。
正常化が学習ダイナミクスにもたらす様々な影響を解き放つためのアブレーション研究を行っています。
これらの結果は、深層強化学習の特異性に取り組むために、神経成分とその学習ダイナミクスにも注目する必要があることを示唆する。
論文 参考訳(メタデータ) (2021-05-11T17:59:46Z) - Optimization and Generalization of Regularization-Based Continual
Learning: a Loss Approximation Viewpoint [35.5156045701898]
各タスクの損失関数の2階Taylor近似として定式化することにより、正規化に基づく連続学習の新しい視点を提供する。
この観点から、正規化に基づく連続学習の最適化側面(収束)と一般化特性(有限サンプル保証)を考察する。
論文 参考訳(メタデータ) (2020-06-19T06:08:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。