論文の概要: Error Sensitivity Modulation based Experience Replay: Mitigating Abrupt
Representation Drift in Continual Learning
- arxiv url: http://arxiv.org/abs/2302.11344v1
- Date: Tue, 14 Feb 2023 16:35:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 13:22:17.795691
- Title: Error Sensitivity Modulation based Experience Replay: Mitigating Abrupt
Representation Drift in Continual Learning
- Title(参考訳): 誤り感性変調に基づく体験リプレイ:連続学習における急激な表現ドリフトの緩和
- Authors: Fahad Sarfraz, Elahe Arani and Bahram Zonooz
- Abstract要約: 本稿では,デュアルメモリリハーサルシステムにおけるエラー感度を変調する原理的機構を用いたESMERを提案する。
ESMERは、知識を集約しながら、新しいタスクに徐々に適応することにより、タスク境界における表現の忘れと突然のドリフトを効果的に低減する。
注目すべきは、実世界のデータストリームでユビキタスであるラベルノイズの高レベル下での学習を可能にすることだ。
- 参考スコア(独自算出の注目度): 13.041607703862724
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Humans excel at lifelong learning, as the brain has evolved to be robust to
distribution shifts and noise in our ever-changing environment. Deep neural
networks (DNNs), however, exhibit catastrophic forgetting and the learned
representations drift drastically as they encounter a new task. This alludes to
a different error-based learning mechanism in the brain. Unlike DNNs, where
learning scales linearly with the magnitude of the error, the sensitivity to
errors in the brain decreases as a function of their magnitude. To this end, we
propose \textit{ESMER} which employs a principled mechanism to modulate error
sensitivity in a dual-memory rehearsal-based system. Concretely, it maintains a
memory of past errors and uses it to modify the learning dynamics so that the
model learns more from small consistent errors compared to large sudden errors.
We also propose \textit{Error-Sensitive Reservoir Sampling} to maintain
episodic memory, which leverages the error history to pre-select low-loss
samples as candidates for the buffer, which are better suited for retaining
information. Empirical results show that ESMER effectively reduces forgetting
and abrupt drift in representations at the task boundary by gradually adapting
to the new task while consolidating knowledge. Remarkably, it also enables the
model to learn under high levels of label noise, which is ubiquitous in
real-world data streams.
- Abstract(参考訳): 人間は生涯学習に長けており、脳は変化し続ける環境の中での分布の変化やノイズに対して頑丈に進化してきた。
しかし、ディープニューラルネットワーク(DNN)は破滅的な忘れ込みを示し、学習された表現は新しいタスクに遭遇するにつれて劇的に流れていく。
これは、脳内の異なるエラーベースの学習メカニズムを暗示する。
学習が誤差の大きさと線形にスケールするDNNとは異なり、脳内のエラーに対する感度はその大きさの関数として減少する。
そこで本研究では,デュアルメモリリハーサル系システムにおいて,誤り感度を変調する原理的機構を応用した \textit{esmer} を提案する。
具体的には、過去のエラーのメモリを保持し、それを使って学習ダイナミクスを変更することで、モデルが大きな突然のエラーよりも小さな一貫性のあるエラーから多くを学ぶ。
また,エラー履歴を利用してバッファの候補として低損失サンプルを事前選択し,情報保持に適したエピソディックメモリを維持するために, \textit{error-sensitive reservoir sampling}を提案する。
実験の結果,ESMERは知識を集約しながら,タスク境界における表現の誤りや突然のドリフトを,徐々に新しいタスクに適応させることによって効果的に低減することが示された。
注目すべきは、実世界のデータストリームでユビキタスなラベルノイズの下でモデルを学習することを可能にすることだ。
関連論文リスト
- Neuromimetic metaplasticity for adaptive continual learning [2.1749194587826026]
本研究では,人間の作業記憶にインスパイアされたメタ塑性モデルを提案する。
このアプローチの重要な側面は、安定から柔軟性までの異なるタイプのシナプスを実装し、それらをランダムに混在させて、柔軟性の異なるシナプス接続をトレーニングすることである。
このモデルは、追加の訓練や構造変更を必要とせず、メモリ容量と性能のバランスのとれたトレードオフを実現した。
論文 参考訳(メタデータ) (2024-07-09T12:21:35Z) - Mitigating the Impact of Labeling Errors on Training via Rockafellian Relaxation [0.8741284539870512]
ニューラルネットワークトレーニングのためのRockafellian Relaxation(RR)の実装を提案する。
RRは、分類タスク間で堅牢なパフォーマンスを達成するために、標準的なニューラルネットワーク手法を強化することができる。
RRはラベル付け誤りと/または逆方向の摂動の両方によるデータセットの破損の影響を軽減することができる。
論文 参考訳(メタデータ) (2024-05-30T23:13:01Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Prime and Modulate Learning: Generation of forward models with signed
back-propagation and environmental cues [0.0]
エラーバックプロパゲーションを学習に用いたディープニューラルネットワークは、爆発や勾配問題の解消に悩まされる可能性がある。
この研究では、バックプロパゲーションがエラー信号の符号を排他的に利用して学習を素数化する、別のアプローチに従う。
本稿では,z空間における学習規則の数学的導出と,ロボットプラットフォームによるリアルタイム性能の実証を行う。
論文 参考訳(メタデータ) (2023-09-07T16:34:30Z) - Continual Learning by Modeling Intra-Class Variation [33.30614232534283]
データやタスクがシーケンシャルに提示された場合、ニューラルネットワークはパフォーマンスが悪くなっていることが観察されている。
人間とは異なり、ニューラルネットワークは破滅的な忘れ込みに悩まされており、生涯学習することは不可能である。
本稿では,記憶に基づく連続学習について検討し,大惨な忘れ込みを避けるためには,表現空間の大規模な変動が不可欠であることを確認した。
論文 参考訳(メタデータ) (2022-10-11T12:17:43Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Representation Memorization for Fast Learning New Knowledge without
Forgetting [36.55736909586313]
新しい知識を素早く学習する能力は、人間レベルの知性への大きな一歩だ。
新しいクラスやデータ配布を迅速かつ漸進的に学ぶ必要があるシナリオを考えます。
本稿では,2つの課題に対処するため,メモリベースのヘビアン適応を提案する。
論文 参考訳(メタデータ) (2021-08-28T07:54:53Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - RIFLE: Backpropagation in Depth for Deep Transfer Learning through
Re-Initializing the Fully-connected LayEr [60.07531696857743]
事前訓練されたモデルを用いたディープ畳み込みニューラルネットワーク(CNN)の微調整は、より大きなデータセットから学習した知識をターゲットタスクに転送するのに役立つ。
転送学習環境におけるバックプロパゲーションを深める戦略であるRIFLEを提案する。
RIFLEは、深いCNN層の重み付けに意味のあるアップデートをもたらし、低レベルの機能学習を改善する。
論文 参考訳(メタデータ) (2020-07-07T11:27:43Z) - Automatic Recall Machines: Internal Replay, Continual Learning and the
Brain [104.38824285741248]
ニューラルネットワークのリプレイには、記憶されたサンプルを使ってシーケンシャルなデータのトレーニングが含まれる。
本研究では,これらの補助サンプルをフライ時に生成する手法を提案する。
代わりに、評価されたモデル自体内の学習したサンプルの暗黙の記憶が利用されます。
論文 参考訳(メタデータ) (2020-06-22T15:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。