論文の概要: Online Continual Learning via the Knowledge Invariant and Spread-out
Properties
- arxiv url: http://arxiv.org/abs/2302.00858v1
- Date: Thu, 2 Feb 2023 04:03:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 15:34:04.094439
- Title: Online Continual Learning via the Knowledge Invariant and Spread-out
Properties
- Title(参考訳): 知識不変性とスプレッドアウト特性によるオンライン連続学習
- Authors: Ya-nan Han, Jian-wei Liu
- Abstract要約: 継続的な学習の鍵となる課題は破滅的な忘れ方だ。
知識不変性とスプレッドアウト特性(OCLKISP)を用いたオンライン連続学習法を提案する。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
- 参考スコア(独自算出の注目度): 4.109784267309124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of continual learning is to provide intelligent agents that are
capable of learning continually a sequence of tasks using the knowledge
obtained from previous tasks while performing well on prior tasks. However, a
key challenge in this continual learning paradigm is catastrophic forgetting,
namely adapting a model to new tasks often leads to severe performance
degradation on prior tasks. Current memory-based approaches show their success
in alleviating the catastrophic forgetting problem by replaying examples from
past tasks when new tasks are learned. However, these methods are infeasible to
transfer the structural knowledge from previous tasks i.e., similarities or
dissimilarities between different instances. Furthermore, the learning bias
between the current and prior tasks is also an urgent problem that should be
solved. In this work, we propose a new method, named Online Continual Learning
via the Knowledge Invariant and Spread-out Properties (OCLKISP), in which we
constrain the evolution of the embedding features via Knowledge Invariant and
Spread-out Properties (KISP). Thus, we can further transfer the inter-instance
structural knowledge of previous tasks while alleviating the forgetting due to
the learning bias. We empirically evaluate our proposed method on four popular
benchmarks for continual learning: Split CIFAR 100, Split SVHN, Split CUB200
and Split Tiny-Image-Net. The experimental results show the efficacy of our
proposed method compared to the state-of-the-art continual learning algorithms.
- Abstract(参考訳): 連続学習の目標は、先行タスクをうまく実行しながら、以前のタスクから得た知識を用いて、一連のタスクを継続的に学習できるインテリジェントエージェントを提供することである。
しかし、この継続的な学習パラダイムにおける重要な課題は、破滅的な忘れ、すなわち、新しいタスクにモデルを適用することは、しばしば以前のタスクに重大なパフォーマンス低下をもたらす。
現在のメモリベースのアプローチは、新しいタスクが学習されたときに過去のタスクから例を再生することで、破滅的な忘れる問題を軽減することに成功したことを示している。
しかし、これらの手法は、以前のタスク、すなわち異なるインスタンス間の類似性や相違性から構造的知識を伝達することができない。
さらに、現在のタスクと以前のタスクの間の学習バイアスも、解決すべき緊急の問題である。
本研究では,知識不変性と拡散アウト特性(oclkisp)を通じて,知識不変性と拡散アウト特性(kisp)による埋め込み特徴の進化を制約する,オンライン連続学習という新しい手法を提案する。
これにより、学習バイアスによる忘れることを軽減しつつ、以前のタスクのインスタンス間構造知識を更に転送することができる。
提案手法を,CIFAR 100, Split SVHN, Split CUB200, Split Tiny-Image-Netの4つのベンチマークで実証的に評価した。
実験により,提案手法の有効性を,最先端の連続学習アルゴリズムと比較した。
関連論文リスト
- Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Hierarchically Structured Task-Agnostic Continual Learning [0.0]
本研究では,連続学習のタスク非依存的な視点を取り入れ,階層的情報理論の最適性原理を考案する。
我々は,情報処理経路の集合を作成することで,忘れを緩和する,Mixture-of-Variational-Experts層と呼ばれるニューラルネットワーク層を提案する。
既存の連続学習アルゴリズムのようにタスク固有の知識を必要としない。
論文 参考訳(メタデータ) (2022-11-14T19:53:15Z) - Beyond Not-Forgetting: Continual Learning with Backward Knowledge
Transfer [39.99577526417276]
継続学習(CL)では、エージェントは、新しいタスクと古いタスクの両方の学習性能を向上させることができる。
既存のCL手法の多くは、古いタスクに対する学習モデルの修正を最小化することによって、ニューラルネットワークの破滅的な忘れに対処することに焦点を当てている。
データ再生のない固定容量ニューラルネットワークに対して,バックワードノウルEdge tRansfer (CUBER) を用いた新しいCL法を提案する。
論文 参考訳(メタデータ) (2022-11-01T23:55:51Z) - Toward Sustainable Continual Learning: Detection and Knowledge
Repurposing of Similar Tasks [31.095642850920385]
本稿では,連続学習者が類似タスクと異種タスクを混在させるパラダイムを提案する。
本稿では,追加学習を必要としないタスク類似度検出機能を用いた連続学習フレームワークを提案する。
実験の結果,提案フレームワークは広く使用されているコンピュータビジョンのベンチマークで競合的に動作することがわかった。
論文 参考訳(メタデータ) (2022-10-11T19:35:30Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Continual Prompt Tuning for Dialog State Tracking [58.66412648276873]
望ましいダイアログシステムは、古いスキルを忘れずに継続的に新しいスキルを学ぶことができるべきである。
本稿では,タスク間の知識伝達を可能にするパラメータ効率フレームワークであるContinuous Prompt Tuningを提案する。
論文 参考訳(メタデータ) (2022-03-13T13:22:41Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Bilevel Continual Learning [76.50127663309604]
BCL(Bilevel Continual Learning)という,継続的学習の新たな枠組みを提案する。
連続学習ベンチマーク実験では,多くの最先端手法と比較して,提案したBCLの有効性が示された。
論文 参考訳(メタデータ) (2020-07-30T16:00:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。