論文の概要: Probing Representation Forgetting in Supervised and Unsupervised
Continual Learning
- arxiv url: http://arxiv.org/abs/2203.13381v1
- Date: Thu, 24 Mar 2022 23:06:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 00:52:18.082705
- Title: Probing Representation Forgetting in Supervised and Unsupervised
Continual Learning
- Title(参考訳): 教師なし連続学習における予測表現の提案
- Authors: MohammadReza Davari, Nader Asadi, Sudhir Mudur, Rahaf Aljundi, Eugene
Belilovsky
- Abstract要約: 破滅的な忘れ物は、以前にモデルで学んだ知識の急激な喪失と関係している。
表現を忘れることによって,モデル能力と損失関数が連続学習に与える影響について新たな知見が得られることを示す。
- 参考スコア(独自算出の注目度): 14.462797749666992
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continual Learning research typically focuses on tackling the phenomenon of
catastrophic forgetting in neural networks. Catastrophic forgetting is
associated with an abrupt loss of knowledge previously learned by a model when
the task, or more broadly the data distribution, being trained on changes. In
supervised learning problems this forgetting, resulting from a change in the
model's representation, is typically measured or observed by evaluating the
decrease in old task performance. However, a model's representation can change
without losing knowledge about prior tasks. In this work we consider the
concept of representation forgetting, observed by using the difference in
performance of an optimal linear classifier before and after a new task is
introduced. Using this tool we revisit a number of standard continual learning
benchmarks and observe that, through this lens, model representations trained
without any explicit control for forgetting often experience small
representation forgetting and can sometimes be comparable to methods which
explicitly control for forgetting, especially in longer task sequences. We also
show that representation forgetting can lead to new insights on the effect of
model capacity and loss function used in continual learning. Based on our
results, we show that a simple yet competitive approach is to learn
representations continually with standard supervised contrastive learning while
constructing prototypes of class samples when queried on old samples.
- Abstract(参考訳): 連続学習研究は、通常、ニューラルネットワークにおける破滅的な忘れる現象に取り組むことに焦点を当てている。
破滅的な忘れは、タスク、あるいはより広い範囲のデータ分散が変更に基づいてトレーニングされたときに、モデルによって以前に学習された知識の突然の損失と関連付けられる。
教師付き学習問題では、モデル表現の変化に起因するこの忘れは、典型的には、古いタスク性能の低下を評価することによって測定または観察される。
しかし、モデルの表現は、事前のタスクに関する知識を失うことなく変更することができる。
本研究では,新しいタスクの導入前後における最適線形分類器の性能差を用いて観察される表現忘れの概念について考察する。
このツールを使用して、多くの標準連続学習ベンチマークを再検討し、このレンズを通して、明示的に制御せずにトレーニングされたモデル表現が、しばしば小さな表現忘れを経験し、特に長いタスクシーケンスにおいて、忘れを明示的に制御するメソッドに匹敵することがあることを観察する。
また,表現を忘れることによって,モデル能力と損失関数が連続学習に与える影響に関する新たな知見がもたらされることを示す。
本研究の結果から,従来のサンプルに照会したクラスサンプルのプロトタイプを構築しながら,標準教師付きコントラスト学習で表現を継続的に学習するという,単純かつ競争的なアプローチが示される。
関連論文リスト
- Premonition: Using Generative Models to Preempt Future Data Changes in
Continual Learning [63.850451635362425]
継続的な学習には、データ分散の継続的な変化に対応するためのモデルが必要である。
本稿では,大規模言語モデルと画像生成モデルの組み合わせが有用であることを示す。
トレーニング済みネットワークのバックボーンは、下流の連続学習問題に有用な表現を学習できることがわかった。
論文 参考訳(メタデータ) (2024-03-12T06:29:54Z) - Random Representations Outperform Online Continually Learned Representations [68.42776779425978]
既存のオンライン学習深層ネットワークは、単純な事前定義されたランダム変換に比べて劣った表現を生成することを示す。
我々の手法はRanDumbと呼ばれ、あらゆるオンライン連続学習ベンチマークにおいて、最先端の学習表現を著しく上回っている。
本研究は, 表現学習の大きな限界, 特に低経験, オンライン連続学習のシナリオについて明らかにした。
論文 参考訳(メタデータ) (2024-02-13T22:07:29Z) - Mitigating Catastrophic Forgetting in Task-Incremental Continual
Learning with Adaptive Classification Criterion [50.03041373044267]
本稿では,継続的学習のための適応型分類基準を用いた教師付きコントラスト学習フレームワークを提案する。
実験により, CFLは最先端の性能を達成し, 分類基準に比べて克服する能力が強いことが示された。
論文 参考訳(メタデータ) (2023-05-20T19:22:40Z) - The Trade-off between Universality and Label Efficiency of
Representations from Contrastive Learning [32.15608637930748]
2つのデシダラタの間にはトレードオフがあることを示し、同時に両方を達成できない可能性があることを示す。
我々は、理論データモデルを用いて分析を行い、より多様な事前学習データにより、異なるタスクに対してより多様な機能が得られる一方で、タスク固有の機能に重点を置いていないことを示す。
論文 参考訳(メタデータ) (2023-02-28T22:14:33Z) - Task-Agnostic Robust Representation Learning [31.818269301504564]
本研究では,未ラベルデータを用いた頑健な表現学習の課題をタスクに依存しない方法で検討する。
我々は、その損失をクリーンデータとロバストネス正則化器を用いて、下流タスクにおける予測モデルの逆方向の損失に上限を導出する。
本手法は,関係するベースラインと比較して,好適な対向性能を実現する。
論文 参考訳(メタデータ) (2022-03-15T02:05:11Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Reducing Representation Drift in Online Continual Learning [87.71558506591937]
私たちは、エージェントが制限されたメモリと計算で変化する分布から学ぶ必要があるオンライン連続学習パラダイムを研究します。
この作業では、入ってくるデータストリームに未観測のクラスサンプルが導入されることにより、事前に観測されたデータの表現の変化に焦点を合わせます。
論文 参考訳(メタデータ) (2021-04-11T15:19:30Z) - Learning Invariant Representation for Continual Learning [5.979373021392084]
継続的学習の重要な課題は、エージェントが新しいタスクに直面したときに、以前に学んだタスクを壊滅的に忘れることです。
連続学習のための学習不変表現(IRCL)という新しい擬似リハーサル法を提案する。
共有不変表現を分離することは、タスクのシーケンスを継続的に学習するのに役立つ。
論文 参考訳(メタデータ) (2021-01-15T15:12:51Z) - Odd-One-Out Representation Learning [1.6822770693792826]
ランダム・ワン・アウト観測に基づく下流の弱教師付きタスクがモデル選択に適していることを示す。
また,この課題を高度に遂行する,目覚しいメトリック学習型VAEモデルが,他の標準の教師なしおよび弱教師付きアンタングルメントモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-14T22:01:15Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。