論文の概要: Using Hindsight to Anchor Past Knowledge in Continual Learning
- arxiv url: http://arxiv.org/abs/2002.08165v2
- Date: Tue, 2 Mar 2021 08:05:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 13:09:19.871132
- Title: Using Hindsight to Anchor Past Knowledge in Continual Learning
- Title(参考訳): 連続学習における過去知識の定着のための後見的活用
- Authors: Arslan Chaudhry, Albert Gordo, Puneet K. Dokania, Philip Torr, David
Lopez-Paz
- Abstract要約: 連続学習では、学習者は時間とともに分布が変化するデータのストリームに直面します。
現代のニューラルネットワークは、以前に獲得した知識をすぐに忘れてしまうため、この設定で苦しむことが知られている。
ここでは、学習者が2段階最適化を使用して現在のタスクの知識を更新し、過去のタスクの予測をそのまま維持する。
- 参考スコア(独自算出の注目度): 36.271906785418864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In continual learning, the learner faces a stream of data whose distribution
changes over time. Modern neural networks are known to suffer under this
setting, as they quickly forget previously acquired knowledge. To address such
catastrophic forgetting, many continual learning methods implement different
types of experience replay, re-learning on past data stored in a small buffer
known as episodic memory. In this work, we complement experience replay with a
new objective that we call anchoring, where the learner uses bilevel
optimization to update its knowledge on the current task, while keeping intact
the predictions on some anchor points of past tasks. These anchor points are
learned using gradient-based optimization to maximize forgetting, which is
approximated by fine-tuning the currently trained model on the episodic memory
of past tasks. Experiments on several supervised learning benchmarks for
continual learning demonstrate that our approach improves the standard
experience replay in terms of both accuracy and forgetting metrics and for
various sizes of episodic memories.
- Abstract(参考訳): 連続学習では、学習者は時間とともに分布が変化するデータの流れに直面する。
現代のニューラルネットワークは、以前に獲得した知識をすぐに忘れてしまうため、この設定で苦しむことが知られている。
このような破滅的な忘れ方に対処するために、多くの連続学習手法は異なるタイプの体験リプレイを実装し、エピソディックメモリとして知られる小さなバッファに格納された過去のデータを再学習する。
本研究では,従来のタスクのアンカーポイントの予測をそのまま維持しながら,学習者が2段階の最適化を用いて現在のタスクの知識を更新する,アンカーリングと呼ばれる新たな目的で経験リプレイを補完する。
これらのアンカーポイントは勾配に基づく最適化を用いて学習され、過去のタスクのエピソディックメモリ上で現在訓練されているモデルを微調整することで近似される。
連続学習のための教師付き学習ベンチマークによる実験により,本手法は,精度と測定値の忘れ方,およびエピソディック記憶のさまざまなサイズにおいて,標準経験リプレイを改善していることが示された。
関連論文リスト
- Continual Learning with Strong Experience Replay [32.154995019080594]
SER(Strong Experience Replay)を用いたCL法を提案する。
SERは、メモリバッファから過去の経験を蒸留する以外に、現在のトレーニングデータに模倣された将来の経験を利用する。
複数の画像分類データセットによる実験結果から,SER法が最先端の手法をはるかに上回ることがわかった。
論文 参考訳(メタデータ) (2023-05-23T02:42:54Z) - Detachedly Learn a Classifier for Class-Incremental Learning [11.865788374587734]
本稿では,バニラ体験リプレイ(ER)の失敗は,従来のタスクの不要な再学習と,現在のタスクと以前のタスクとを区別する能力の欠如が原因であることを示す。
本稿では,新しいリプレイ戦略・タスク認識体験リプレイを提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-02-23T01:35:44Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Saliency Guided Experience Packing for Replay in Continual Learning [6.417011237981518]
本研究では,経験再現のための新しいアプローチを提案し,過去の経験をサリエンシマップから選択する。
新しいタスクを学習している間、我々はこれらのメモリパッチを適切なゼロパディングで再生し、過去の決定をモデルに思い出させる。
論文 参考訳(メタデータ) (2021-09-10T15:54:58Z) - Continual Learning via Bit-Level Information Preserving [88.32450740325005]
我々は情報理論のレンズを通して連続学習過程を研究する。
モデルパラメータの情報利得を維持するビットレベル情報保存(BLIP)を提案する。
BLIPは、連続的な学習を通してメモリオーバーヘッドを一定に保ちながら、ほとんど忘れることができない。
論文 参考訳(メタデータ) (2021-05-10T15:09:01Z) - Learning to Continually Learn Rapidly from Few and Noisy Data [19.09933805011466]
新しいタスクを学習しながら、外部に格納された古いデータを同時にトレーニングすることで、継続的な学習を実現することができる。
過去のタスクごとに学習率をテキスト学習するメタラーニングナを使用することで、ベース学習者は少ないメモリで強力な結果が得られることが分かりました。
論文 参考訳(メタデータ) (2021-03-06T08:29:47Z) - Meta-learning the Learning Trends Shared Across Tasks [123.10294801296926]
グラディエントベースのメタ学習アルゴリズムは、限られたデータで新しいタスクに素早く適応する。
既存のメタ学習アプローチは、適応中の現在のタスク情報にのみ依存する。
パターン認識型メタラーニング手法を提案する。
論文 参考訳(メタデータ) (2020-10-19T08:06:47Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。