論文の概要: Knowledge Accumulation in Continually Learned Representations and the
Issue of Feature Forgetting
- arxiv url: http://arxiv.org/abs/2304.00933v1
- Date: Mon, 3 Apr 2023 12:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 15:41:34.080135
- Title: Knowledge Accumulation in Continually Learned Representations and the
Issue of Feature Forgetting
- Title(参考訳): 連続学習表現における知識蓄積と特徴提示の課題
- Authors: Timm Hess, Eli Verwimp, Gido M. van de Ven, Tinne Tuytelaars
- Abstract要約: 本研究では,連続学習者が表現を学習し,忘れる方法について検討する。
画像分類実験の結果,タスク固有の特徴のほとんどはすぐに忘れられることがわかった。
表現品質は連続学習性能と密接な相関関係があることを結論する。
- 参考スコア(独自算出の注目度): 33.17525278432895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: By default, neural networks learn on all training data at once. When such a
model is trained on sequential chunks of new data, it tends to catastrophically
forget how to handle old data. In this work we investigate how continual
learners learn and forget representations. We observe two phenomena: knowledge
accumulation, i.e. the improvement of a representation over time, and feature
forgetting, i.e. the loss of task-specific representations. To better
understand both phenomena, we introduce a new analysis technique called task
exclusion comparison. If a model has seen a task and it has not forgotten all
the task-specific features, then its representation for that task should be
better than that of a model that was trained on similar tasks, but not that
exact one. Our image classification experiments show that most task-specific
features are quickly forgotten, in contrast to what has been suggested in the
past. Further, we demonstrate how some continual learning methods, like replay,
and ideas from representation learning affect a continually learned
representation. We conclude by observing that representation quality is tightly
correlated with continual learning performance.
- Abstract(参考訳): ニューラルネットワークはデフォルトで、すべてのトレーニングデータを一度に学習する。
このようなモデルを新しいデータのシーケンシャルなチャンクでトレーニングする場合、古いデータの扱い方を壊滅的に忘れる傾向があります。
本研究では,連続学習者が表現を学習し,忘れる方法について検討する。
我々は,知識蓄積,時間とともに表現が向上する現象と,タスク固有の表現の喪失という2つの現象を観察する。
両現象をよりよく理解するために,タスク排他比較と呼ばれる新しい分析手法を導入する。
モデルがタスクを見ていて、タスク固有のすべての機能を忘れていない場合、そのタスクの表現は、同様のタスクでトレーニングされたモデルよりも優れているが、正確なものではない。
画像分類実験の結果,タスク固有の特徴の多くは,これまで提案されてきたものと対照的に,すぐに忘れられることがわかった。
さらに,リプレイや表現学習からのアイデアといった連続学習手法が,継続的に学習される表現に与える影響を実証する。
表現品質は連続学習性能と密接な相関関係にあると結論づけた。
関連論文リスト
- Diagnosing Catastrophe: Large parts of accuracy loss in continual
learning can be accounted for by readout misalignment [0.0]
データ分散の変更に関するニューラルネットワークのトレーニングは、古いタスクのパフォーマンスを急速に低下させる。
本稿では,この性能を損なう表現的変化について検討し,この現象を考慮に入れた3つの異なる過程を同定する。
論文 参考訳(メタデータ) (2023-10-09T11:57:46Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - The Curious Case of Benign Memorization [19.74244993871716]
データ拡張を含むトレーニングプロトコルの下で、ニューラルネットワークは、完全にランダムなラベルを良心的に記憶することを学ぶ。
深層モデルでは,暗記作業と特徴学習を異なる層に分散することで,信号からノイズを分離する驚くべき能力があることを実証する。
論文 参考訳(メタデータ) (2022-10-25T13:41:31Z) - Anti-Retroactive Interference for Lifelong Learning [65.50683752919089]
我々は脳のメタラーニングと連想機構に基づく生涯学習のパラダイムを設計する。
知識の抽出と知識の記憶という2つの側面から問題に取り組む。
提案した学習パラダイムが,異なるタスクのモデルを同じ最適に収束させることができることを理論的に分析した。
論文 参考訳(メタデータ) (2022-08-27T09:27:36Z) - Feature Forgetting in Continual Representation Learning [48.89340526235304]
表現は、平凡な連続学習においても「破滅的な忘れ」に苦しめられることはないが、その特徴についてはほとんど知られていない。
連続的な学習における表現を評価するためのプロトコルを考案し、それを用いて連続的な表現学習の基本的傾向の概要を示す。
特徴忘れ問題を研究するために、ニューラルネットワークにおける特徴忘れの頻度を識別し視覚化する合成データセットを作成する。
論文 参考訳(メタデータ) (2022-05-26T13:38:56Z) - Continual Feature Selection: Spurious Features in Continual Learning [0.0]
本稿では,連続学習アルゴリズムにおける特徴量の影響について考察する。
一般化不可能な特徴を過度に組み合わせることで,学習アルゴリズムがタスクを解くことを示す。
論文 参考訳(メタデータ) (2022-03-02T10:43:54Z) - Discriminative Distillation to Reduce Class Confusion in Continual
Learning [57.715862676788156]
クラス混乱は、連続学習における分類性能の低下に寄与する。
本稿では,クラス間の識別的特徴を適切に学習する上で,識別的蒸留戦略を提案する。
論文 参考訳(メタデータ) (2021-08-11T12:46:43Z) - Preserving Earlier Knowledge in Continual Learning with the Help of All
Previous Feature Extractors [63.21036904487014]
時間とともに新しい知識の継続的な学習は、インテリジェントシステムがより多くのオブジェクトのクラスを認識するのに望ましい能力の1つである。
これまでに学んだすべての特徴抽出器をインテリジェントモデルに組み込むことで、シンプルで効果的な融合メカニズムを提案します。
複数の分類タスクの実験により,提案手法は従来の知識の忘れを効果的に減らし,最先端の継続的学習性能を達成できることが示されている。
論文 参考訳(メタデータ) (2021-04-28T07:49:24Z) - Essentials for Class Incremental Learning [43.306374557919646]
CIFAR-100とImageNetのクラスインクリメンタルな学習結果は、アプローチをシンプルに保ちながら、最先端の成果を大きなマージンで改善します。
論文 参考訳(メタデータ) (2021-02-18T18:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。