論文の概要: DILF-EN framework for Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2112.12385v1
- Date: Thu, 23 Dec 2021 06:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-24 16:42:49.676975
- Title: DILF-EN framework for Class-Incremental Learning
- Title(参考訳): クラス増分学習のためのDILF-ENフレームワーク
- Authors: Mohammed Asad Karim, Indu Joshi, Pratik Mazumder, Pravendra Singh
- Abstract要約: モデル予測における破滅的忘れの影響は,同じ画像の向きの変化によって異なることを示す。
本稿では,画像の異なる方向の予測を組み合わせた新しいデータアンサンブル手法を提案する。
また、2つの漸進的な学習目標でネットワークを協調的に訓練する新しい2段階学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.969403314560179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models suffer from catastrophic forgetting of the classes in
the older phases as they get trained on the classes introduced in the new phase
in the class-incremental learning setting. In this work, we show that the
effect of catastrophic forgetting on the model prediction varies with the
change in orientation of the same image, which is a novel finding. Based on
this, we propose a novel data-ensemble approach that combines the predictions
for the different orientations of the image to help the model retain further
information regarding the previously seen classes and thereby reduce the effect
of forgetting on the model predictions. However, we cannot directly use the
data-ensemble approach if the model is trained using traditional techniques.
Therefore, we also propose a novel dual-incremental learning framework that
involves jointly training the network with two incremental learning objectives,
i.e., the class-incremental learning objective and our proposed
data-incremental learning objective. In the dual-incremental learning
framework, each image belongs to two classes, i.e., the image class (for
class-incremental learning) and the orientation class (for data-incremental
learning). In class-incremental learning, each new phase introduces a new set
of classes, and the model cannot access the complete training data from the
older phases. In our proposed data-incremental learning, the orientation
classes remain the same across all the phases, and the data introduced by the
new phase in class-incremental learning acts as new training data for these
orientation classes. We empirically demonstrate that the dual-incremental
learning framework is vital to the data-ensemble approach. We apply our
proposed approach to state-of-the-art class-incremental learning methods and
empirically show that our framework significantly improves the performance of
these methods.
- Abstract(参考訳): 深層学習モデルでは,新しい段階に導入された授業において,旧段階の授業を壊滅的に忘れてしまうことに苦しむ。
本研究は, モデル予測における破滅的忘れ方の影響が, 新たな発見である同一画像の向きの変化によって変化することを示す。
そこで本研究では,画像の向きの異なる予測を組み合わせることで,既見のクラスに関するさらなる情報をモデルに保持し,モデルの予測を忘れることの影響を低減させる新しいデータセンス手法を提案する。
しかし、モデルが従来の手法でトレーニングされている場合、データアンサンブルアプローチを直接使うことはできない。
そこで本研究では,2つの段階的な学習目標,すなわちクラス増分学習目標とデータ増分学習目標を併用してネットワークを共同で学習する,新たな2段階学習フレームワークを提案する。
dual-incremental learning frameworkでは、各イメージは2つのクラス、すなわち、イメージクラス(class-incremental learning)とオリエンテーションクラス(data-incremental learning)に属している。
クラスインクリメンタル学習では、各新しいフェーズが新しいクラスセットを導入し、モデルは古いフェーズから完全なトレーニングデータにアクセスすることができない。
提案したデータインクリメンタルラーニングでは,すべてのフェーズでオリエンテーションクラスは同じであり,クラスインクリメンタルラーニングの新たなフェーズによって導入されたデータは,これらのオリエンテーションクラスの新たなトレーニングデータとして機能する。
我々は,データエンセンブルアプローチにおいて,デュアルインクリメンタル学習フレームワークが不可欠であることを実証的に示す。
提案手法を最先端のクラス増分学習手法に適用し,これらの手法の性能向上を実証的に示す。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Robust Feature Learning and Global Variance-Driven Classifier Alignment
for Long-Tail Class Incremental Learning [20.267257778779992]
本稿では,長期クラスインクリメンタルラーニングの強化を目的とした2段階フレームワークを提案する。
本研究は,ロングテールクラスインクリメンタルラーニングにおいて,テールクラスの表現不足がもたらす課題に対処する。
提案するフレームワークは,任意のクラスインクリメンタル学習メソッドをモジュールとしてシームレスに統合することができる。
論文 参考訳(メタデータ) (2023-11-02T13:28:53Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Learning What Not to Segment: A New Perspective on Few-Shot Segmentation [63.910211095033596]
近年では、FSS ( few-shot segmentation) が広く開発されている。
本稿では,問題を緩和するための新鮮で直接的な知見を提案する。
提案されたアプローチのユニークな性質を踏まえて、より現実的で挑戦的な設定にまで拡張する。
論文 参考訳(メタデータ) (2022-03-15T03:08:27Z) - Mimicking the Oracle: An Initial Phase Decorrelation Approach for Class Incremental Learning [141.35105358670316]
本研究では,Na"訓練初期相モデルとオラクルモデルとの相違について検討する。
より均一に散らばるように,各クラスの表現を効果的に正規化するクラスワイド・デコレーション(CwD)を提案する。
私たちのCwDは実装が簡単で、既存のメソッドに簡単にプラグインできます。
論文 参考訳(メタデータ) (2021-12-09T07:20:32Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Move-to-Data: A new Continual Learning approach with Deep CNNs,
Application for image-class recognition [0.0]
トレーニング記録フェーズ」でモデルを事前トレーニングし、新しいデータに調整する必要がある。
本稿では,ニューラルネットワークの終端における高速連続学習層を提案する。
論文 参考訳(メタデータ) (2020-06-12T13:04:58Z) - Incremental Learning In Online Scenario [8.885829189810197]
現在の最先端の漸進的な学習手法では、新しいクラスが追加されるたびにモデルをトレーニングするのに長い時間がかかる。
本稿では,挑戦的なオンライン学習シナリオで機能するインクリメンタルラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-30T02:24:26Z) - Cognitively-Inspired Model for Incremental Learning Using a Few Examples [11.193504036335503]
増分学習は、異なるクラスに分離されたデータのストリームから連続的に学習する分類器の開発を試みる。
ディープラーニングアプローチは、クラスを漸進的に学習する際の破滅的な忘れ込みに悩まされる一方、ほとんどのインクリメンタル学習アプローチは、クラス毎に大量のトレーニングデータを必要とします。
本研究では,海馬と新皮質の概念学習モデルから着想を得た新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-02-27T19:52:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。