論文の概要: Continual Learning via Manifold Expansion Replay
- arxiv url: http://arxiv.org/abs/2310.08038v1
- Date: Thu, 12 Oct 2023 05:09:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 12:49:41.324574
- Title: Continual Learning via Manifold Expansion Replay
- Title(参考訳): マニフォールド展開再生による連続学習
- Authors: Zihao Xu, Xuan Tang, Yufei Shi, Jianfeng Zhang, Jian Yang, Mingsong
Chen, Xian Wei
- Abstract要約: 破滅的な忘れは継続的な学習にとって大きな課題である。
我々はReplay Manifold Expansion (MaER)と呼ばれる新しいリプレイ戦略を提案する。
提案手法は,連続的な学習設定における精度を著しく向上し,芸術的状況よりも優れることを示す。
- 参考スコア(独自算出の注目度): 36.27348867557826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In continual learning, the learner learns multiple tasks in sequence, with
data being acquired only once for each task. Catastrophic forgetting is a major
challenge to continual learning. To reduce forgetting, some existing
rehearsal-based methods use episodic memory to replay samples of previous
tasks. However, in the process of knowledge integration when learning a new
task, this strategy also suffers from catastrophic forgetting due to an
imbalance between old and new knowledge. To address this problem, we propose a
novel replay strategy called Manifold Expansion Replay (MaER). We argue that
expanding the implicit manifold of the knowledge representation in the episodic
memory helps to improve the robustness and expressiveness of the model. To this
end, we propose a greedy strategy to keep increasing the diameter of the
implicit manifold represented by the knowledge in the buffer during memory
management. In addition, we introduce Wasserstein distance instead of cross
entropy as distillation loss to preserve previous knowledge. With extensive
experimental validation on MNIST, CIFAR10, CIFAR100, and TinyImageNet, we show
that the proposed method significantly improves the accuracy in continual
learning setup, outperforming the state of the arts.
- Abstract(参考訳): 連続学習では、学習者は複数のタスクを連続して学習し、各タスクに一度だけ取得する。
破滅的な忘れは継続的な学習にとって大きな課題である。
忘れることを減らすために、既存のリハーサルベースのメソッドでは、エピソードメモリを使用して以前のタスクのサンプルを再生する。
しかし,新しい課題を学習する際の知識統合の過程において,この戦略は,旧知識と新知識のバランスの相違による破滅的な忘れ込みにも悩まされる。
この問題に対処するために,manifold Expansion Replay (MaER) と呼ばれる新しい再生戦略を提案する。
エピソード記憶における知識表現の暗黙的多様体の拡大は、モデルの堅牢性と表現性を改善するのに有効である。
この目的のために,メモリ管理中にバッファ内の知識によって表される暗黙多様体の直径を増加させ続けるための欲望戦略を提案する。
さらに, クロスエントロピーの代わりにワッサースタイン距離を蒸留損失として導入し, 従来の知識を保存した。
提案手法は, MNIST, CIFAR10, CIFAR100, TinyImageNetに対する広範囲な検証により, 連続学習における精度を向上し, 芸術性に優れることを示す。
関連論文リスト
- Reducing Catastrophic Forgetting in Online Class Incremental Learning Using Self-Distillation [3.8506666685467343]
連続学習では、モデルが新しいタスクを学ぶと、以前の知識は忘れられる。
本稿では, 自己蒸留による伝達可能な知識の獲得により, この問題の解決を試みた。
提案手法は,CIFAR10,CIFAR100,MinimageNetデータセットを用いた実験により従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-17T16:26:33Z) - TEAL: New Selection Strategy for Small Buffers in Experience Replay Class Incremental Learning [7.627299398469962]
TEALは,メモリを例に示す新しい手法である。
TEAL は複数の画像認識ベンチマークにおいて,SOTA 法 XDER と ER と ER-ACE の平均精度を向上することを示す。
論文 参考訳(メタデータ) (2024-06-30T12:09:08Z) - Lifelong Event Detection with Embedding Space Separation and Compaction [30.05158209938146]
既存のイベント検出方法は、通常、メモリモジュールを保持し、新しいタスクの学習中に記憶されたメモリデータを再生する。
メモリデータと新しいタスクサンプルの単純な組み合わせは、以前取得した知識をかなり忘れてしまう可能性がある。
本稿では,空間分離とコンパクト化に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-03T06:51:49Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Fine-Grained Knowledge Selection and Restoration for Non-Exemplar Class
Incremental Learning [64.14254712331116]
非典型的なクラスインクリメンタル学習は、過去のトレーニングデータにアクセスすることなく、新しいタスクと古いタスクの両方を学ぶことを目的としている。
本稿では, きめ細かい知識選択と復元のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-12-20T02:34:11Z) - Detachedly Learn a Classifier for Class-Incremental Learning [11.865788374587734]
本稿では,バニラ体験リプレイ(ER)の失敗は,従来のタスクの不要な再学習と,現在のタスクと以前のタスクとを区別する能力の欠如が原因であることを示す。
本稿では,新しいリプレイ戦略・タスク認識体験リプレイを提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-23T01:35:44Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Class-Incremental Continual Learning into the eXtended DER-verse [17.90483695137098]
この研究は、我々の以前の提案であるDark Experience Replay(DER)の落とし穴を評価し、克服することを目的としています。
過去の記憶を常に書き直し、将来への期待を設定する方法に刺激されて、過去のデータに関する新しい情報を歓迎するために、リプレイ記憶を改訂する能力を備えたモデルを作りました。
これらの戦略の適用により、顕著な改善がもたらされることを示す。
論文 参考訳(メタデータ) (2022-01-03T17:14:30Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。