論文の概要: Essentials for Class Incremental Learning
- arxiv url: http://arxiv.org/abs/2102.09517v1
- Date: Thu, 18 Feb 2021 18:01:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-19 14:29:08.669270
- Title: Essentials for Class Incremental Learning
- Title(参考訳): 授業インクリメンタルラーニングのための本質
- Authors: Sudhanshu Mittal and Silvio Galesso and Thomas Brox
- Abstract要約: CIFAR-100とImageNetのクラスインクリメンタルな学習結果は、アプローチをシンプルに保ちながら、最先端の成果を大きなマージンで改善します。
- 参考スコア(独自算出の注目度): 43.306374557919646
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Contemporary neural networks are limited in their ability to learn from
evolving streams of training data. When trained sequentially on new or evolving
tasks, their accuracy drops sharply, making them unsuitable for many real-world
applications. In this work, we shed light on the causes of this well-known yet
unsolved phenomenon - often referred to as catastrophic forgetting - in a
class-incremental setup. We show that a combination of simple components and a
loss that balances intra-task and inter-task learning can already resolve
forgetting to the same extent as more complex measures proposed in literature.
Moreover, we identify poor quality of the learned representation as another
reason for catastrophic forgetting in class-IL. We show that performance is
correlated with secondary class information (dark knowledge) learned by the
model and it can be improved by an appropriate regularizer. With these lessons
learned, class-incremental learning results on CIFAR-100 and ImageNet improve
over the state-of-the-art by a large margin, while keeping the approach simple.
- Abstract(参考訳): 現代のニューラルネットワークは、進化するトレーニングデータの流れから学ぶ能力に制限があります。
新しいタスクや進化するタスクを順次トレーニングすると、その正確さは急激に低下し、多くの現実世界のアプリケーションに適さない。
この研究では、このよく知られた未解決現象(しばしば破滅的な忘れ物と呼ばれる)の原因を、クラスインクリメンタルな設定で明らかにした。
単純なコンポーネントと、タスク内学習とタスク間学習のバランスをとる損失の組み合わせは、文学で提案されたより複雑な措置と同じ程度に忘れを解決できることを示しています。
さらに,学習表現の質の低さを,クラスilにおける壊滅的な忘れの理由の一つとして捉えた。
モデルによって学習された二次クラス情報(ダーク知識)とパフォーマンスが相関し,適切な正則化によって改善できることを示す。
これらの教訓により、CIFAR-100とImageNetのクラス増分学習結果は、アプローチをシンプルに保ちながら、最先端技術よりも大幅に改善される。
関連論文リスト
- CLOSER: Towards Better Representation Learning for Few-Shot Class-Incremental Learning [52.63674911541416]
FSCIL(Few-shot class-incremental Learning)は、過剰適合や忘れなど、いくつかの課題に直面している。
FSCILの独特な課題に取り組むため、ベースクラスでの表現学習に重点を置いている。
より制限された機能空間内で機能の拡散を確保することで、学習された表現が、伝達可能性と識別可能性のバランスを良くすることが可能になることが分かりました。
論文 参考訳(メタデータ) (2024-10-08T02:23:16Z) - Normalization and effective learning rates in reinforcement learning [52.59508428613934]
正規化層は近年,深層強化学習と連続学習文学においてルネッサンスを経験している。
正規化は、ネットワークパラメータのノルムにおける成長と効果的な学習速度における崩壊の間の等価性という、微妙だが重要な副作用をもたらすことを示す。
そこで本研究では,正規化・プロジェクトと呼ぶ単純な再パラメータ化により,学習率を明示的にする手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:58:01Z) - Reset It and Forget It: Relearning Last-Layer Weights Improves Continual and Transfer Learning [2.270857464465579]
この研究は、継続学習と転帰学習をより良く示す表現につながる単純な事前学習メカニズムを特定する。
最後の層における重みの繰り返しのリセットは、私たちが「ザッピング」と呼ぶもので、元々はメタコンチネンタル・ラーニング(メタコンチネンタル・ラーニング)の手順のために設計されていた。
メタラーニングと継続学習の両以上の多くの環境で驚くほど適用可能であることを示す。
論文 参考訳(メタデータ) (2023-10-12T02:52:14Z) - Class-Incremental Learning: A Survey [84.30083092434938]
CIL(Class-Incremental Learning)は、学習者が新しいクラスの知識を段階的に取り入れることを可能にする。
CILは、前者の特徴を壊滅的に忘れる傾向にあり、その性能は劇的に低下する。
ベンチマーク画像分類タスクにおける17の手法の厳密で統一的な評価を行い、異なるアルゴリズムの特徴を明らかにする。
論文 参考訳(メタデータ) (2023-02-07T17:59:05Z) - Incremental Embedding Learning via Zero-Shot Translation [65.94349068508863]
現在の最先端のインクリメンタル学習手法は、従来の分類ネットワークにおける破滅的な忘れ方問題に取り組む。
ゼロショット変換クラス増分法(ZSTCI)と呼ばれる新しい組込みネットワークのクラス増分法を提案する。
さらに、ZSTCIを既存の正規化ベースのインクリメンタル学習手法と組み合わせることで、組み込みネットワークの性能をより向上させることができる。
論文 参考訳(メタデータ) (2020-12-31T08:21:37Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z) - Self-Supervised Learning Aided Class-Incremental Lifelong Learning [17.151579393716958]
クラスインクリメンタルラーニング(Class-IL)における破滅的忘れの問題について検討する。
クラスILの訓練手順では、モデルが次のタスクについて知識を持っていないため、これまで学習してきたタスクに必要な特徴のみを抽出し、その情報は共同分類に不十分である。
本稿では,ラベルを必要とせずに効果的な表現を提供する自己教師型学習と,この問題を回避するためのクラスILを組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-06-10T15:15:27Z) - Few-Shot Class-Incremental Learning [68.75462849428196]
本稿では,FSCIL問題に焦点をあてる。
FSCIL は CNN モデルに対して,学習済みのクラスを忘れることなく,ラベル付きサンプルのごく少数から新たなクラスを漸進的に学習することを求めている。
我々は,異なるクラスで形成される特徴多様体のトポロジーを学習し,保存するニューラルネットワーク(NG)ネットワークを用いて,知識を表現する。
論文 参考訳(メタデータ) (2020-04-23T03:38:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。