論文の概要: Rethinking Experience Replay: a Bag of Tricks for Continual Learning
- arxiv url: http://arxiv.org/abs/2010.05595v1
- Date: Mon, 12 Oct 2020 10:59:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 06:05:26.971749
- Title: Rethinking Experience Replay: a Bag of Tricks for Continual Learning
- Title(参考訳): Rethinking Experience Replay: 継続的な学習のためのトリックの袋
- Authors: Pietro Buzzega, Matteo Boschini, Angelo Porrello, Simone Calderara
- Abstract要約: ナイーブリハーサルは、同様のパフォーマンスを達成するためにパッチを当てることができることを示す。
実験の結果、ERは改良され、精度は51.2と26.9ポイント向上した。
- 参考スコア(独自算出の注目度): 14.546818573989176
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Continual Learning, a Neural Network is trained on a stream of data whose
distribution shifts over time. Under these assumptions, it is especially
challenging to improve on classes appearing later in the stream while remaining
accurate on previous ones. This is due to the infamous problem of catastrophic
forgetting, which causes a quick performance degradation when the classifier
focuses on learning new categories. Recent literature proposed various
approaches to tackle this issue, often resorting to very sophisticated
techniques. In this work, we show that naive rehearsal can be patched to
achieve similar performance. We point out some shortcomings that restrain
Experience Replay (ER) and propose five tricks to mitigate them. Experiments
show that ER, thus enhanced, displays an accuracy gain of 51.2 and 26.9
percentage points on the CIFAR-10 and CIFAR-100 datasets respectively (memory
buffer size 1000). As a result, it surpasses current state-of-the-art
rehearsal-based methods.
- Abstract(参考訳): 連続学習において、ニューラルネットワークは、時間とともに分布が変化するデータのストリームで訓練される。
これらの仮定の下では、ストリームに後で現れるクラスを改善することは特に困難であり、以前のクラスは正確である。
これは破滅的な忘れ込みの悪名高い問題によるもので、分類器が新しいカテゴリの学習に焦点を合わせると、すぐに性能が低下する。
最近の文献では、この問題に取り組むための様々なアプローチを提案しており、非常に洗練されたテクニックをしばしば用いている。
そこで本研究では,ナイーブリハーサルにパッチを当てて同様のパフォーマンスを実現する方法を提案する。
経験リプレイ(ER)を抑制するいくつかの欠点を指摘し、それらを緩和するための5つのトリックを提案する。
実験の結果、ERは改良され、CIFAR-10とCIFAR-100データセット(メモリバッファサイズ1000)で精度が51.2と26.9ポイント向上した。
その結果、現在の最先端リハーサルベースメソッドを上回っている。
関連論文リスト
- TEAL: New Selection Strategy for Small Buffers in Experience Replay Class Incremental Learning [7.627299398469962]
TEALは,メモリを例に示す新しい手法である。
TEAL は複数の画像認識ベンチマークにおいて,SOTA 法 XDER と ER と ER-ACE の平均精度を向上することを示す。
論文 参考訳(メタデータ) (2024-06-30T12:09:08Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Detachedly Learn a Classifier for Class-Incremental Learning [11.865788374587734]
本稿では,バニラ体験リプレイ(ER)の失敗は,従来のタスクの不要な再学習と,現在のタスクと以前のタスクとを区別する能力の欠如が原因であることを示す。
本稿では,新しいリプレイ戦略・タスク認識体験リプレイを提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-23T01:35:44Z) - Look Back When Surprised: Stabilizing Reverse Experience Replay for
Neural Approximation [7.6146285961466]
最近開発された理論上は厳格なリバース・エクスペリエンス・リプレイ(RER)について考察する。
実験を通して、様々なタスクにおけるPER(Preferd Experience Replay)のようなテクニックよりも優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-06-07T10:42:02Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - An Investigation of Replay-based Approaches for Continual Learning [79.0660895390689]
連続学習(CL)は機械学習(ML)の大きな課題であり、破滅的忘れ(CF)を伴わずに連続的に複数のタスクを学習する能力を記述する。
いくつかの解クラスが提案されており、その単純さと堅牢性から、いわゆるリプレイベースのアプローチは非常に有望であるように思われる。
連続学習におけるリプレイに基づくアプローチを実証的に検討し,応用の可能性を評価する。
論文 参考訳(メタデータ) (2021-08-15T15:05:02Z) - In Defense of the Learning Without Forgetting for Task Incremental
Learning [91.3755431537592]
破滅的な忘れは、継続的な学習システムへの道のりにおける大きな課題の1つだ。
本稿では, タスクインクリメンタルシナリオにおいて, 正しいアーキテクチャと標準的な拡張セットを併用して, LwF が得られた結果が最新のアルゴリズムを上回り, タスクインクリメンタルシナリオが実現されたことを示す。
論文 参考訳(メタデータ) (2021-07-26T16:23:13Z) - Class-incremental Learning using a Sequence of Partial Implicitly
Regularized Classifiers [0.0]
クラス増分学習では、トレーニングデータ全体にアクセスすることなく、複数のクラスを順次学習することが目的である。
CIFAR100データセットの実験では、提案手法がSOTAの性能を大きなマージンで向上させることが示された。
論文 参考訳(メタデータ) (2021-04-04T10:02:45Z) - DisCor: Corrective Feedback in Reinforcement Learning via Distribution
Correction [96.90215318875859]
ブートストラップに基づくQ-ラーニングアルゴリズムは必ずしも修正フィードバックの恩恵を受けないことを示す。
本稿では,この最適分布に対する近似を計算し,トレーニングに使用する遷移の重み付けに使用する新しいアルゴリズムであるDisCorを提案する。
論文 参考訳(メタデータ) (2020-03-16T16:18:52Z) - Overfitting in adversarially robust deep learning [86.11788847990783]
トレーニングセットへの過度な適合は、実際には、逆向きの堅牢なトレーニングにおいて、非常に大きなロバストなパフォーマンスを損なうことを示す。
また, 2重降下曲線のような効果は, 逆向きに訓練されたモデルでもまだ起こるが, 観測された過度なオーバーフィッティングを説明できないことを示す。
論文 参考訳(メタデータ) (2020-02-26T15:40:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。