論文の概要: Neural Network Plasticity and Loss Sharpness
- arxiv url: http://arxiv.org/abs/2409.17300v1
- Date: Wed, 25 Sep 2024 19:20:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-30 12:41:44.044802
- Title: Neural Network Plasticity and Loss Sharpness
- Title(参考訳): ニューラルネットワークの塑性とロスシャープ性
- Authors: Max Koster and Jude Kukla
- Abstract要約: 近年の研究では、新しいタスクにおける塑性損失は、非定常RLフレームワークにおける損失ランドスケープのシャープネスと高い関係があることが示されている。
我々は,スムーズなミニマを追求し,バニラ予測設定における一般化能力を評価されたシャープネス正則化手法について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, continual learning, a prediction setting in which the
problem environment may evolve over time, has become an increasingly popular
research field due to the framework's gearing towards complex, non-stationary
objectives. Learning such objectives requires plasticity, or the ability of a
neural network to adapt its predictions to a different task. Recent findings
indicate that plasticity loss on new tasks is highly related to loss landscape
sharpness in non-stationary RL frameworks. We explore the usage of sharpness
regularization techniques, which seek out smooth minima and have been touted
for their generalization capabilities in vanilla prediction settings, in
efforts to combat plasticity loss. Our findings indicate that such techniques
have no significant effect on reducing plasticity loss.
- Abstract(参考訳): 近年,問題環境が時間とともに進化する可能性のある予測環境である連続学習が,複雑で非定常的な目的に向けての枠組みの整備により,研究分野として人気が高まっている。
このような目的を学習するには、可塑性、あるいはニューラルネットワークが予測を別のタスクに適応させる能力が必要である。
近年の研究では、新しいタスクにおける塑性損失は、非定常RLフレームワークにおける損失ランドスケープのシャープネスと高い関係があることが示されている。
本研究では, 可塑性損失対策として, スムーズなミニマを追求し, バニラ予測設定における一般化能力を評価されてきたシャープネス正則化技術の利用について検討する。
これらの技術は, 可塑性損失の低減に有意な影響を与えないことが示唆された。
関連論文リスト
- Plasticity Loss in Deep Reinforcement Learning: A Survey [15.525552360867367]
塑性は深層強化学習(RL)エージェントにとって不可欠である。
可塑性が失われると、データ分布の変化を考慮に入れないため、エージェントのパフォーマンスが低下する。
可塑性の喪失は、トレーニング不安定性、スケール失敗、過大評価バイアス、探検不足など、深いRLを悩ませる多くの問題と結びつくことができる。
論文 参考訳(メタデータ) (2024-11-07T16:13:54Z) - Dynamical loss functions shape landscape topography and improve learning in artificial neural networks [0.9208007322096533]
クロスエントロピーと平均二乗誤差を動的損失関数に変換する方法を示す。
異なるサイズのネットワークに対する検証精度を大幅に向上させる方法を示す。
論文 参考訳(メタデータ) (2024-10-14T16:27:03Z) - Disentangling the Causes of Plasticity Loss in Neural Networks [55.23250269007988]
可塑性の喪失は複数の独立したメカニズムに分解できることを示す。
種々の非定常学習タスクにおいて, 層正規化と重み劣化の組み合わせは, 可塑性維持に極めて有効であることを示す。
論文 参考訳(メタデータ) (2024-02-29T00:02:33Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Directions of Curvature as an Explanation for Loss of Plasticity [39.53165006694167]
可塑性の喪失は、ニューラルネットワークが新しい経験から学ぶ能力を失う現象である。
ニューラルネットワークはトレーニング中に曲率の方向を失う。
可塑性の喪失を緩和する正規化剤も曲率を保っている。
論文 参考訳(メタデータ) (2023-11-30T23:24:45Z) - Revisiting Plasticity in Visual Reinforcement Learning: Data, Modules and Training Stages [56.98243487769916]
ニューラルネットワークが新しいデータで進化する能力である塑性は、高性能でサンプル効率のよい視覚強化学習に不可欠である。
本稿では,批評家の可塑性レベルに基づいてリプレイ率を動的に調整するAdaptive RRを提案する。
論文 参考訳(メタデータ) (2023-10-11T12:05:34Z) - Understanding plasticity in neural networks [41.79540750236036]
可塑性は、ニューラルネットワークが新しい情報に反応して予測を素早く変更する能力である。
深層ニューラルネットワークは、比較的単純な学習問題であっても、トレーニングの過程で可塑性を失うことが知られている。
論文 参考訳(メタデータ) (2023-03-02T18:47:51Z) - Flattening Sharpness for Dynamic Gradient Projection Memory Benefits
Continual Learning [67.99349091593324]
連続学習シナリオにおける減量景観と感度安定性の関係について検討した。
提案手法は,忘れを効果的に軽減しつつ,新しいスキルを習得する能力に優れたベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2021-10-09T15:13:44Z) - On the Loss Landscape of Adversarial Training: Identifying Challenges
and How to Overcome Them [57.957466608543676]
機械学習モデルの損失景観に及ぼす対人訓練の影響を解析する。
曲率の増加と散乱勾配の増大により, 対向損失景観は最適化にはあまり好ましくないことを示す。
論文 参考訳(メタデータ) (2020-06-15T13:50:23Z) - Understanding the Role of Training Regimes in Continual Learning [51.32945003239048]
破滅的な忘れは、ニューラルネットワークのトレーニングに影響を与え、複数のタスクを逐次学習する能力を制限する。
本研究では,タスクの局所的なミニマを拡大するトレーニング体制の形成に及ぼすドロップアウト,学習速度の低下,バッチサイズの影響について検討した。
論文 参考訳(メタデータ) (2020-06-12T06:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。