論文の概要: Directions of Curvature as an Explanation for Loss of Plasticity
- arxiv url: http://arxiv.org/abs/2312.00246v4
- Date: Sat, 05 Oct 2024 00:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:11:18.131184
- Title: Directions of Curvature as an Explanation for Loss of Plasticity
- Title(参考訳): 塑性損失の説明としての曲率の方向性
- Authors: Alex Lewandowski, Haruto Tanaka, Dale Schuurmans, Marlos C. Machado,
- Abstract要約: 可塑性の喪失は、ニューラルネットワークが新しい経験から学ぶ能力を失う現象である。
ニューラルネットワークはトレーニング中に曲率の方向を失う。
可塑性の喪失を緩和する正規化剤も曲率を保っている。
- 参考スコア(独自算出の注目度): 39.53165006694167
- License:
- Abstract: Loss of plasticity is a phenomenon in which neural networks lose their ability to learn from new experience. Despite being empirically observed in several problem settings, little is understood about the mechanisms that lead to loss of plasticity. In this paper, we offer a consistent explanation for loss of plasticity: Neural networks lose directions of curvature during training and that loss of plasticity can be attributed to this reduction in curvature. To support such a claim, we provide a systematic investigation of loss of plasticity across continual learning tasks using MNIST, CIFAR-10 and ImageNet. Our findings illustrate that loss of curvature directions coincides with loss of plasticity, while also showing that previous explanations are insufficient to explain loss of plasticity in all settings. Lastly, we show that regularizers which mitigate loss of plasticity also preserve curvature, motivating a simple distributional regularizer that proves to be effective across the problem settings we considered.
- Abstract(参考訳): 可塑性の喪失は、ニューラルネットワークが新しい経験から学ぶ能力を失う現象である。
いくつかの問題設定で経験的に観察されているにもかかわらず、可塑性の喪失につながるメカニズムについてはほとんど理解されていない。
本稿では, ニューラルネットワークはトレーニング中に曲率の方向を逸脱し, 可塑性の喪失は曲率の減少に起因するという一貫した説明を与える。
このような主張を支援するため,MNIST, CIFAR-10, ImageNet を用いた連続学習課題における可塑性損失の系統的研究を行った。
その結果, 曲がり方向の喪失は塑性の喪失と一致し, 以前の説明ではすべての環境において塑性の喪失を説明するには不十分であることが示唆された。
最後に, 可塑性損失を緩和する正則化器も曲率を保ち, 検討した問題設定において有効であることを示す単純な分布正則化器を動機付けていることを示す。
関連論文リスト
- Plasticity Loss in Deep Reinforcement Learning: A Survey [15.525552360867367]
塑性は深層強化学習(RL)エージェントにとって不可欠である。
可塑性が失われると、データ分布の変化を考慮に入れないため、エージェントのパフォーマンスが低下する。
可塑性の喪失は、トレーニング不安定性、スケール失敗、過大評価バイアス、探検不足など、深いRLを悩ませる多くの問題と結びつくことができる。
論文 参考訳(メタデータ) (2024-11-07T16:13:54Z) - Neural Network Plasticity and Loss Sharpness [0.0]
近年の研究では、新しいタスクにおける塑性損失は、非定常RLフレームワークにおける損失ランドスケープのシャープネスと高い関係があることが示されている。
我々は,スムーズなミニマを追求し,バニラ予測設定における一般化能力を評価されたシャープネス正則化手法について検討した。
論文 参考訳(メタデータ) (2024-09-25T19:20:09Z) - Can We Understand Plasticity Through Neural Collapse? [0.0]
本稿では,近年の深層学習における2つの現象,すなわち可塑性損失と神経崩壊の関連について検討する。
これらの相関関係を異なるシナリオで分析し、最初のタスクでの最初のトレーニングフェーズの間に有意な関連性を明らかにする。
神経崩壊を緩和する正規化手法を導入し,その有効性を示す。
論文 参考訳(メタデータ) (2024-04-03T13:21:58Z) - Disentangling the Causes of Plasticity Loss in Neural Networks [55.23250269007988]
可塑性の喪失は複数の独立したメカニズムに分解できることを示す。
種々の非定常学習タスクにおいて, 層正規化と重み劣化の組み合わせは, 可塑性維持に極めて有効であることを示す。
論文 参考訳(メタデータ) (2024-02-29T00:02:33Z) - On the Dynamics Under the Unhinged Loss and Beyond [104.49565602940699]
我々は、閉形式力学を解析するための数学的機会を提供する、簡潔な損失関数であるアンヒンジド・ロスを導入する。
アンヒンジされた損失は、時間変化学習率や特徴正規化など、より実践的なテクニックを検討することができる。
論文 参考訳(メタデータ) (2023-12-13T02:11:07Z) - Revisiting Plasticity in Visual Reinforcement Learning: Data, Modules and Training Stages [56.98243487769916]
ニューラルネットワークが新しいデータで進化する能力である塑性は、高性能でサンプル効率のよい視覚強化学習に不可欠である。
本稿では,批評家の可塑性レベルに基づいてリプレイ率を動的に調整するAdaptive RRを提案する。
論文 参考訳(メタデータ) (2023-10-11T12:05:34Z) - Understanding plasticity in neural networks [41.79540750236036]
可塑性は、ニューラルネットワークが新しい情報に反応して予測を素早く変更する能力である。
深層ニューラルネットワークは、比較的単純な学習問題であっても、トレーニングの過程で可塑性を失うことが知られている。
論文 参考訳(メタデータ) (2023-03-02T18:47:51Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。