論文の概要: Statistical Mechanical Analysis of Catastrophic Forgetting in Continual
Learning with Teacher and Student Networks
- arxiv url: http://arxiv.org/abs/2105.07385v1
- Date: Sun, 16 May 2021 09:02:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 15:03:38.478230
- Title: Statistical Mechanical Analysis of Catastrophic Forgetting in Continual
Learning with Teacher and Student Networks
- Title(参考訳): 教員・学生ネットワークを用いた連続学習におけるカタストロフィック・フォーミングの統計的解析
- Authors: Haruka Asanuma, Shiro Takagi, Yoshihiro Nagano, Yuki Yoshida, Yasuhiko
Igarashi, and Masato Okada
- Abstract要約: 計算システムが絶えず変化する環境から学習すると、その過去の経験を急速に忘れてしまう。
教師-学生学習を用いて破滅的な忘れを解析するための理論的枠組みを提供する。
その結果,入力分布の類似度が小さく,対象関数の入出力関係が大きい場合,ネットワークは壊滅的な記憶を回避できることがわかった。
- 参考スコア(独自算出の注目度): 5.209145866174911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When a computational system continuously learns from an ever-changing
environment, it rapidly forgets its past experiences. This phenomenon is called
catastrophic forgetting. While a line of studies has been proposed with respect
to avoiding catastrophic forgetting, most of the methods are based on intuitive
insights into the phenomenon, and their performances have been evaluated by
numerical experiments using benchmark datasets. Therefore, in this study, we
provide the theoretical framework for analyzing catastrophic forgetting by
using teacher-student learning. Teacher-student learning is a framework in
which we introduce two neural networks: one neural network is a target function
in supervised learning, and the other is a learning neural network. To analyze
continual learning in the teacher-student framework, we introduce the
similarity of the input distribution and the input-output relationship of the
target functions as the similarity of tasks. In this theoretical framework, we
also provide a qualitative understanding of how a single-layer linear learning
neural network forgets tasks. Based on the analysis, we find that the network
can avoid catastrophic forgetting when the similarity among input distributions
is small and that of the input-output relationship of the target functions is
large. The analysis also suggests that a system often exhibits a characteristic
phenomenon called overshoot, which means that even if the learning network has
once undergone catastrophic forgetting, it is possible that the network may
perform reasonably well after further learning of the current task.
- Abstract(参考訳): 計算システムが絶えず変化する環境から学習すると、その過去の経験を急速に忘れてしまう。
この現象は破滅的な忘れ物と呼ばれる。
壊滅的な忘れることを避けるために一連の研究が提案されているが、ほとんどの方法は現象に対する直感的な洞察に基づいており、その性能はベンチマークデータセットを用いた数値実験によって評価されている。
そこで本研究では,教師の学習を用いて破滅的忘れを解析するための理論的枠組みを提案する。
教師学習は2つのニューラルネットワークを導入するフレームワークである。1つのニューラルネットワークは教師学習のターゲット関数であり、もう1つは学習ニューラルネットワークである。
教師/学生のフレームワークにおける連続学習を解析するために,課題の類似性として,対象関数の入力分布と入力出力関係の類似性を導入する。
この理論的枠組みでは、単層線形学習ニューラルネットワークがいかにタスクを忘れるかを定性的に理解する。
分析の結果,入力分布間の類似度が小さく,対象関数の入出力関係が大きい場合,ネットワークは壊滅的な記憶を回避できることがわかった。
また,システムがオーバーシュートと呼ばれる特徴的現象を呈することが多いことを示唆する。つまり,たとえ学習ネットワークが一度壊滅的な忘れ方を経験したとしても,現在のタスクのさらなる学習によって,ネットワークが合理的に機能する可能性がある。
関連論文リスト
- Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Dynamical stability and chaos in artificial neural network trajectories along training [3.379574469735166]
浅いニューラルネットワークのネットワーク軌跡をこのレンズを通して解析することにより,このプロセスの動的特性について検討する。
我々は,学習率の仕組みによって,規則的かつカオス的な行動のヒントを見いだす。
この研究は、力学系理論、ネットワーク理論、機械学習のアイデアの交叉受精にも貢献している。
論文 参考訳(メタデータ) (2024-04-08T17:33:11Z) - Provable Guarantees for Neural Networks via Gradient Feature Learning [15.413985018920018]
本研究では,勾配降下法により学習した2層ネットワークの統一解析フレームワークを提案する。
このフレームワークは、特徴学習の原理を原型的勾配から中心とし、その有効性はいくつかの問題における応用によって実証されている。
論文 参考訳(メタデータ) (2023-10-19T01:45:37Z) - Critical Learning Periods for Multisensory Integration in Deep Networks [112.40005682521638]
ニューラルネットワークが様々な情報源からの情報を統合する能力は、トレーニングの初期段階において、適切な相関した信号に晒されることに批判的になることを示す。
臨界周期は、訓練されたシステムとその学習された表現の最終性能を決定づける、複雑で不安定な初期過渡的ダイナミクスから生じることを示す。
論文 参考訳(メタデータ) (2022-10-06T23:50:38Z) - The Neural Race Reduction: Dynamics of Abstraction in Gated Networks [12.130628846129973]
本稿では,情報フローの経路が学習力学に与える影響をスキーマ化するGated Deep Linear Networkフレームワークを紹介する。
正確な還元と、特定の場合において、学習のダイナミクスに対する正確な解が導出されます。
我々の研究は、ニューラルネットワークと学習に関する一般的な仮説を生み出し、より複雑なアーキテクチャの設計を理解するための数学的アプローチを提供する。
論文 参考訳(メタデータ) (2022-07-21T12:01:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Vulnerability Under Adversarial Machine Learning: Bias or Variance? [77.30759061082085]
本研究では,機械学習が訓練された深層ニューラルネットワークのバイアスと分散に与える影響について検討する。
我々の分析は、ディープニューラルネットワークが対向的摂動下で性能が劣っている理由に光を当てている。
本稿では,計算処理の複雑さをよく知られた機械学習手法よりも低く抑えた,新しい逆機械学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-01T00:58:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。