論文の概要: Generative Feature Replay with Orthogonal Weight Modification for
Continual Learning
- arxiv url: http://arxiv.org/abs/2005.03490v3
- Date: Sat, 12 Sep 2020 03:35:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 22:39:10.747557
- Title: Generative Feature Replay with Orthogonal Weight Modification for
Continual Learning
- Title(参考訳): 連続学習のための直交重み修正による生成的特徴再生
- Authors: Gehui Shen, Song Zhang, Xiang Chen and Zhi-Hong Deng
- Abstract要約: 生成的再生は、破滅的な忘れを和らげるために、以前のタスクの擬似データを生成し再生する有望な戦略である。
生成モデルを用いて垂直層の特徴を再現することを提案する; 2) 自己監督型補助タスクを活用して特徴の安定性をさらに向上する。
いくつかのデータセットにおける実験結果から,我々の手法は常に強力なOWMよりも大幅に改善されていることが分かる。
- 参考スコア(独自算出の注目度): 20.8966035274874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability of intelligent agents to learn and remember multiple tasks
sequentially is crucial to achieving artificial general intelligence. Many
continual learning (CL) methods have been proposed to overcome catastrophic
forgetting which results from non i.i.d data in the sequential learning of
neural networks. In this paper we focus on class incremental learning, a
challenging CL scenario. For this scenario, generative replay is a promising
strategy which generates and replays pseudo data for previous tasks to
alleviate catastrophic forgetting. However, it is hard to train a generative
model continually for relatively complex data. Based on recently proposed
orthogonal weight modification (OWM) algorithm which can approximately keep
previously learned feature invariant when learning new tasks, we propose to 1)
replay penultimate layer feature with a generative model; 2) leverage a
self-supervised auxiliary task to further enhance the stability of feature.
Empirical results on several datasets show our method always achieves
substantial improvement over powerful OWM while conventional generative replay
always results in a negative effect. Meanwhile our method beats several strong
baselines including one based on real data storage. In addition, we conduct
experiments to study why our method is effective.
- Abstract(参考訳): 知的エージェントが複数のタスクを逐次学習し記憶する能力は、人工知能の実現に不可欠である。
多くの連続学習(CL)法は、ニューラルネットワークのシーケンシャルラーニングにおける非i.dデータから生じる破滅的な忘れを克服するために提案されている。
本稿では,難解なCLシナリオであるクラスインクリメンタルラーニングに焦点を当てる。
このシナリオでは、生成的再生は、破滅的な忘れを緩和するために、以前のタスクの擬似データを生成し再生する有望な戦略である。
しかし、比較的複雑なデータに対して生成モデルを継続的に訓練することは困難である。
最近提案されている直交重み修正(owm)アルゴリズムに基づき,新しいタスクを学習する際に,事前学習した特徴量不変性をほぼ保持する手法を提案する。
1) 生成モデルによるペナルティファイト層の特徴の再生
2) 自己監督補助タスクを活用して特徴の安定性をさらに高める。
いくつかのデータセットにおける実験結果から,従来の生成的再生が常に負の効果をもたらすのに対して,我々の手法は常に強力なOWMよりも大幅に改善されることが示された。
一方,本手法は実データストレージに基づくものを含め,いくつかの強いベースラインを破る。
また,本手法が有効である理由を検討する実験を行った。
関連論文リスト
- Continual Diffuser (CoD): Mastering Continual Offline Reinforcement Learning with Experience Rehearsal [54.93261535899478]
強化学習のロボット制御のような現実世界の応用では、タスクが変化し、新しいタスクが順次発生する。
この状況は、タスクの変更に適応し、獲得した知識を保持するエージェントを訓練する上で、可塑性-安定トレードオフという新たな課題を生じさせる。
本研究では,連続拡散器(Continuous diffuser,CoD)と呼ばれるリハーサルに基づく連続拡散モデルを提案する。
論文 参考訳(メタデータ) (2024-09-04T08:21:47Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Prior-Free Continual Learning with Unlabeled Data in the Wild [24.14279172551939]
本稿では,新しいタスクの学習モデルを段階的に更新するPFCL法を提案する。
PFCLはタスクのアイデンティティや以前のデータを知ることなく、新しいタスクを学習する。
実験の結果,PFCL法は3つの学習シナリオすべてにおいて,忘れを著しく軽減することがわかった。
論文 参考訳(メタデータ) (2023-10-16T13:59:56Z) - Complementary Learning Subnetworks for Parameter-Efficient
Class-Incremental Learning [40.13416912075668]
本稿では,2つの補完学習サブネットワークス間のシナジーを通じて連続的に学習するリハーサルフリーなCILアプローチを提案する。
提案手法は, 精度向上, メモリコスト, トレーニング効率, タスク順序など, 最先端手法と競合する結果が得られる。
論文 参考訳(メタデータ) (2023-06-21T01:43:25Z) - Accelerating Batch Active Learning Using Continual Learning Techniques [5.514154947870141]
Active Learning(AL)の大きな問題は、クエリラウンド毎にモデルがスクラッチから再トレーニングされるため、トレーニングコストが高いことだ。
我々は、事前にラベル付けされたセットに対してさらなるトレーニングをバイアスすることで、この問題を回避する新しいテクニックのクラスを開発する。
自然言語、ビジョン、医用画像、計算生物学など、さまざまなデータ領域で実験を行います。
論文 参考訳(メタデータ) (2023-05-10T18:34:05Z) - Prompt Conditioned VAE: Enhancing Generative Replay for Lifelong
Learning in Task-Oriented Dialogue [80.05509768165135]
生成的再生法は、過去の知識と生成された擬似サンプルを統合するために広く用いられている。
既存の生成的再生法の多くは、モデルを制御するために単一のタスク固有のトークンのみを使用する。
本稿では,タスクの統計を取り入れて生成的再生を向上させるために,生涯学習のための新しい条件付きVAEを提案する。
論文 参考訳(メタデータ) (2022-10-14T13:12:14Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - Generative Feature Replay For Class-Incremental Learning [46.88667212214957]
タスクIDが推論時に未知であることを意味するクラスインクリメンタル設定を考える。
古いクラスと新しいクラスの不均衡は通常、ネットワークの最新のクラスへのバイアスをもたらす。
本稿では,前向きな表現を必要としない生成的特徴リプレイに基づくソリューションを提案する。
論文 参考訳(メタデータ) (2020-04-20T10:58:20Z) - Generalized Hindsight for Reinforcement Learning [154.0545226284078]
1つのタスクを解決しようとするときに収集された低リワードデータは、そのタスクを解決するための信号をほとんど、あるいは全く提供しない、と我々は主張する。
本稿では,動作を適切なタスクで再現するための近似逆強化学習手法であるGeneralized Hindsightを提案する。
論文 参考訳(メタデータ) (2020-02-26T18:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。