論文の概要: Explain to Not Forget: Defending Against Catastrophic Forgetting with
XAI
- arxiv url: http://arxiv.org/abs/2205.01929v1
- Date: Wed, 4 May 2022 08:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 22:45:14.463229
- Title: Explain to Not Forget: Defending Against Catastrophic Forgetting with
XAI
- Title(参考訳): 忘れられない理由:XAIによる破滅的な買収を擁護
- Authors: Sami Ede, Serop Baghdadlian, Leander Weber, Wojciech Samek, Sebastian
Lapuschkin
- Abstract要約: 破滅的な忘れは、ニューラルネットワークが新しい情報を与えられたときの過去の知識を完全に忘れてしまう現象を記述している。
我々は、ニューラルネットワークが新しいデータをトレーニングする際に、以前のタスクで既に学んだ情報を保持するために、レイヤーワイズ関連伝播を利用する、トレーニングと呼ばれる新しいトレーニングアルゴリズムを提案する。
我々の手法は、ニューラルネットワーク内の古いタスクの知識をうまく保持するだけでなく、他の最先端のソリューションよりもリソース効率が良い。
- 参考スコア(独自算出の注目度): 10.374979214803805
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The ability to continuously process and retain new information like we do
naturally as humans is a feat that is highly sought after when training neural
networks. Unfortunately, the traditional optimization algorithms often require
large amounts of data available during training time and updates wrt. new data
are difficult after the training process has been completed. In fact, when new
data or tasks arise, previous progress may be lost as neural networks are prone
to catastrophic forgetting. Catastrophic forgetting describes the phenomenon
when a neural network completely forgets previous knowledge when given new
information. We propose a novel training algorithm called training by
explaining in which we leverage Layer-wise Relevance Propagation in order to
retain the information a neural network has already learned in previous tasks
when training on new data. The method is evaluated on a range of benchmark
datasets as well as more complex data. Our method not only successfully retains
the knowledge of old tasks within the neural networks but does so more
resource-efficiently than other state-of-the-art solutions.
- Abstract(参考訳): 人間が自然に行うように、新しい情報を継続的に処理し、保持する能力は、ニューラルネットワークのトレーニングの後に非常に求められます。
残念なことに、従来の最適化アルゴリズムでは、トレーニング時間と更新時に利用可能な大量のデータを必要とすることが多い。
トレーニングプロセスが完了した後、新しいデータは困難です。
実際、新しいデータやタスクが発生すると、ニューラルネットワークが壊滅的な忘れやすいため、以前の進歩は失われる可能性がある。
破滅的な忘れは、ニューラルネットワークが新しい情報を与える前の知識を完全に忘れてしまう現象を記述している。
我々は、ニューラルネットワークが新しいデータをトレーニングする際に、以前のタスクで既に学んだ情報を保持するために、レイヤーワイズ関連伝播を利用するトレーニングと呼ばれる新しいトレーニングアルゴリズムを提案する。
この方法は、より複雑なデータと同様に、様々なベンチマークデータセットで評価される。
我々の手法は、ニューラルネットワーク内の古いタスクの知識を保持するだけでなく、他の最先端のソリューションよりもリソース効率が高い。
関連論文リスト
- Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Negotiated Representations to Prevent Forgetting in Machine Learning
Applications [0.0]
破滅的な忘れは、機械学習の分野で重要な課題である。
本稿では,機械学習アプリケーションにおける破滅的忘れを防止する新しい方法を提案する。
論文 参考訳(メタデータ) (2023-11-30T22:43:50Z) - How Efficient Are Today's Continual Learning Algorithms? [31.120016345185217]
監視された継続学習では、ラベル付きデータのストリームからディープニューラルネットワーク(DNN)を更新する。
継続的学習の背景にある大きな動機の1つは、時間とともに成長するにつれてトレーニングデータセットをスクラッチからリトレーニングするのではなく、ネットワークを新しい情報で効率的に更新できることだ。
本稿では,近年のインクリメンタルなクラス学習手法について検討し,計算,メモリ,記憶の面では非常に非効率であることを示す。
論文 参考訳(メタデータ) (2023-03-29T18:52:10Z) - Learn, Unlearn and Relearn: An Online Learning Paradigm for Deep Neural
Networks [12.525959293825318]
我々は、ディープニューラルネットワーク(DNN)のためのオンライン学習パラダイムであるLearning, Unlearn, and Relearn(LURE)を紹介する。
LUREは、モデルの望ましくない情報を選択的に忘れる未学習フェーズと、一般化可能な特徴の学習を強調する再学習フェーズとを交換する。
トレーニングパラダイムは、分類と少数ショット設定の両方において、データセット間で一貫したパフォーマンス向上を提供します。
論文 参考訳(メタデータ) (2023-03-18T16:45:54Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Reconstructing Training Data from Trained Neural Networks [42.60217236418818]
いくつかのケースでは、トレーニングデータのかなりの部分が、実際にトレーニングされたニューラルネットワーク分類器のパラメータから再構成可能であることを示す。
本稿では,勾配に基づくニューラルネットワークの学習における暗黙バイアスに関する最近の理論的結果から,新たな再構成手法を提案する。
論文 参考訳(メタデータ) (2022-06-15T18:35:16Z) - Neuro-Symbolic Learning of Answer Set Programs from Raw Data [54.56905063752427]
Neuro-Symbolic AIは、シンボリックテクニックの解釈可能性と、生データから学ぶ深層学習の能力を組み合わせることを目的としている。
本稿では,ニューラルネットワークを用いて生データから潜在概念を抽出するNSIL(Neuro-Symbolic Inductive Learner)を提案する。
NSILは表現力のある知識を学習し、計算的に複雑な問題を解き、精度とデータ効率の観点から最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T12:41:59Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Adversarial Incremental Learning [0.0]
ディープラーニングは、以前のデータが利用できない新しいタスクを学ぶ際に、これまで学んだ情報を忘れることができる。
本稿では,新しいタスクのトレーニング中に,古いデータを全く利用しない逆判別器に基づく手法を提案する。
我々は、CIFAR-100、SVHN、MNISTデータセット上で、他の最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-01-30T02:25:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。